Astronomie

Was ist der einfachste Weg, um 3D-Positionsdaten von Galaxien zu erhalten?

Was ist der einfachste Weg, um 3D-Positionsdaten von Galaxien zu erhalten?

Gibt es eine Datenbank mit kartesischen Koordinaten (x, y, z) von Galaxien? Ich brauche nur Positionsdaten und die Berechnung, dass die Verwendung von Grad und Rotverschiebung für alle Galaxien eine Weile dauern und kompliziert wäre.


Geschrieben von Bill Eberly

Hallo zusammen, ich bin Bill Eberly, ich bin Software-Ingenieur und seit fast vier Jahren ehrenamtlich bei In Saturns Rings. Zusammen mit einigen anderen Freiwilligen habe ich daran gearbeitet, ein genaues fotografisches dreidimensionales Modell des Himmels der nördlichen Hemisphäre von außerhalb unseres Sonnensystems zu erstellen. Dieses Modell wird während der Sequenz "Fliegen durch das Universum" des Films verwendet, in der wir durch Galaxien und Nebel "fliegen", während sich das Universum ausdehnt.

Ich trat dem Team Anfang 2014 bei, kurz nachdem die Kickstarter-Kampagne beendet war. Als ich von dem Film erfuhr, hatte er seine Finanzierungsziele bereits erreicht, und da ich gelesen hatte, dass er von Freiwilligen zusammengestellt wurde, beschloss ich, mich zu melden und zu sehen, ob ich helfen könnte.

Als ich Stephen, den Regisseur des Films, zum ersten Mal traf und erfuhr, was er mit dieser Eröffnungsszene erreichen wollte, hatte ich wirklich keine Ahnung, worauf ich mich einlassen sollte. Zu dieser Zeit hatte ich absolut keine Erfahrung in der Filmindustrie, keine Erfahrung mit Adobe After Effects und außer den Hubble-Bildern, die ich als Hintergrundbild auf meinem PC hatte, keine Erfahrung mit astronomischer Bildgebung. Unnötig zu erwähnen, dass meine Arbeit an diesem Film eine sehr herausfordernde und massive Lernerfahrung war, aber auch unglaublich lustig, lohnend und demütigend.

Um unser fotografisches Modell des Universums zu erstellen, wollten wir Bilder aus dem Sloan Digital Sky Survey, kurz SDSS, verwenden. Diese Umfrage hat einen großen Teil des Himmels der nördlichen Hemisphäre fotografiert. Es besteht aus 938.046 Bildkacheln, die über 200 Millionen Galaxien enthalten. Jede Kachel sieht ungefähr so ​​aus:

Wenn wir einfach nur sehen wollten, wie der Nachthimmel von der Erde aus aussieht, könnten wir einfach alle diese Bilder aufnehmen, richtig anordnen und die Kamera darauf richten. Aber wir wollen nicht nur sehen, wie das Universum von der Erde aus aussieht, wir wollen hindurchfliegen! Um die Sache noch komplizierter zu machen, wollten wir außerhalb der Milchstraße durch den Weltraum fliegen, also mussten wir alle einzelnen Milchstraßensterne aus unseren Daten entfernen.

Während wir fast eine Million flacher Bilder nahmen und versuchten, sie in ein genaues Modell umzuwandeln, stießen wir auf mehrere Probleme, die wir lösen mussten:

Bestimmung der Entfernung von der Erde für jede Galaxie

Visualisieren der Aufnahmen &ndash, wo gibt es brauchbare Daten, die wir sehen können?

Herunterladen der Bildkacheln, Extrahieren der Galaxien und Versehen mit Metadaten

Bestimmen, wie groß jede Galaxie sein soll

Anordnen im dreidimensionalen Raum

Entfernen lokaler Milchstraßensterne, Satelliten- und Flugzeugspuren und anderer Artefakte

Diese riesige Datenmenge auf überschaubare Weise in Adobe After Effects übertragen

Wenn Sie die Tiefen dieser Probleme nicht wirklich verstehen oder bereits ein Experte in Mathematik, Astronomie oder Filmemachen sind, scheinen sie nicht so schwer zu sein. Da ich in keinem dieser Bereiche Erfahrung hatte, fiel ich in die erste Gruppe. Meine Denkweise war etwas in der Art von &ldquoWir verwenden eine Objekterkennung, um alle Galaxien zu finden und die Sterne zu ignorieren, verwenden dann die SDSS-Daten, um zu bestimmen, wohin sie gehen, und schieben dann alle Bilder in After Effects. Ganz einfach!&rdquo Wie sich herausstellte, hatte ich die richtige Idee, unterschätzte aber bei weitem, wie komplex es war, all das zu tun.

Als erstes mussten wir feststellen, wie weit diese Galaxien entfernt waren. SDSS markiert jede Galaxie mit der Rektaszension und Deklination, die Ihnen sagt, wo am Himmel etwas ist, wenn Sie auf der Erde stehen, aber nicht, wie weit jede Galaxie entfernt ist. Um die Entfernung zu einer Galaxie zu bestimmen, verwenden Astronomen Spektroskopie, um die &ldquoredshift&rdquo einer Galaxie zu bestimmen, indem sie analysieren, wie die Wellenlängen des von der Galaxie emittierten Lichts verschoben werden. Dadurch können sie bestimmen, wie schnell sich eine Galaxie bewegt, was uns dann ermöglicht, ihre Entfernung von der Erde zu berechnen.

A SDSS spektroskopische Steckplatte

Aber die Rotverschiebungsdaten für eine große Anzahl von Galaxien zu erhalten, ist ein riesiges Unterfangen. SDSS hat Bilder von 200 Millionen Galaxien, aber nur für einen kleinen Prozentsatz davon eine Spektralanalyse. Dies liegt daran, dass zur Gewinnung der spektroskopischen Daten Löcher in eine große Aluminiumplatte gebohrt und alle 640 Löcher manuell mit einem faseroptischen Sensor verschlossen werden müssen. Die Platte wird am Teleskop montiert, um die spektroskopische Beobachtung aller 640 Objekte gleichzeitig durchzuführen.

Da nur ein kleiner Satz spektroskopischer Daten verfügbar ist, haben Wissenschaftler versucht, diese Daten zu extrapolieren, um die Rotverschiebung von 78 Millionen weiteren Galaxien im SDSS-Datensatz abzuschätzen. Diese zusätzlichen geschätzten Daten liefern eine riesige Anzahl von Galaxien, die wir unserem Modell des Universums hinzufügen können.

Sobald wir wussten, wo all diese Galaxien waren, mussten wir uns eine Möglichkeit einfallen lassen, sie einfach zu visualisieren, damit wir die Aufnahmen für den Film planen konnten. Die Galaxien von SDSS würden als Hintergrundbilder verwendet, während wir durch das Universum fliegen und Nahaufnahmen von einigen sehr hochauflösenden Bildern von Galaxien und Nebeln machen, die vom Hubble-Weltraumteleskop und anderen Quellen aufgenommen wurden. Damit diese Aufnahmen funktionierten, mussten SDSS-Galaxien sichtbar sein, wenn die Kamera auf das primäre Objekt gerichtet war. Wir haben festgestellt, dass Space Engine, ein 3D-Astronomieprogramm, es Ihnen ermöglicht, benutzerdefinierte Kataloge von Galaxien und Sternen zu importieren, die Sie anzeigen und fliegen können. Das war genau das, was wir brauchten, um unsere Aufnahmen zu planen.

Ich habe die Daten aus den SDSS-Datendateien genommen und daraus benutzerdefinierte Space Engine-Kataloge erstellt, mit denen wir die Daten anzeigen können. Diese Kataloge mit allen 78 Millionen Galaxien haben die Space Engine zum Absturz gebracht, da sie die Datenmenge, die wir hatten, einfach unterstützen konnte. Nachdem wir die Kataloge so gekürzt hatten, dass sie nur noch 10% der SDSS-Daten anzeigen, konnten wir sie endlich laden. Selbst mit einem Bruchteil der Daten war das, was wir sahen, überwältigend.

Mit den in Space Engine geladenen Daten konnten wir feststellen, durch welche Galaxien wir fliegen konnten, während wir die SDSS-Daten im Hintergrund hatten. Wir haben unsere Aufnahmeliste erstellt und sind mit dem Abrufen und Verarbeiten der Bildkacheln übergegangen.

Der nächste Schritt beim Aufbau unseres dreidimensionalen Modells des Universums bestand darin, die Bildkacheln zu erhalten, die Galaxien aus ihnen herauszuschneiden und sie mit ihrer Position am Himmel zu versehen, damit wir jede Galaxie an ihren richtigen Platz bringen konnten. SDSS stellt alle ihre Bilder und Datendateien auf ihrer Website zum Download zur Verfügung, sodass wir ein Programm schreiben konnten, das die Bilder und die Datendateien für jeden Abschnitt der von uns benötigten SDSS-Daten herunterlädt.

Wie bei den meisten anderen Arten von astronomischen Bildern liefert Ihnen die SDSS-Kamera lediglich ein einzelnes Bild, nimmt jedoch mehrere Bilder mit unterschiedlichen Wellenlängen auf. Wenn Sie eines dieser Bilder betrachten, sehen Sie die Intensität einer einzelnen Farbe, die in Schwarzweiß dargestellt wird. So sieht beispielsweise die SDSS-Kachel, die wir zuvor gesehen haben, in drei verschiedenen Wellenlängen aus:

In vielen Fällen müssten diese Bilder manuell kombiniert und koloriert werden. Glücklicherweise bietet SDSS auch ein vorverarbeitetes Bild, das alle 3 sichtbaren Wellenlängen (nahes Infrarot, Rot und Grün) kombiniert. Diese Bilder sind als JPEG verfügbar, und obwohl die Qualität aufgrund der JPEG-Komprimierung leicht beeinträchtigt sein kann, haben wir uns für die Verwendung dieser vorverarbeiteten Bilder entschieden, da sie den Bild-Download-Prozess viel einfacher machten. Andernfalls hätten wir dreimal so viele Dateien herunterladen und ein Programm schreiben müssen, um sie automatisch zu kombinieren und zu verarbeiten.

Während das Herunterladen der Bilder und Datendateien ein ziemlich einfacher Prozess war, war der Versuch, die einzelnen Galaxien aus der Kachel herauszuschneiden, nicht. SDSS versucht, jedes Objekt in einer Kachel zu katalogisieren und gibt an, ob es sich um einen Stern oder eine Galaxie handelt. Ein anderer Freiwilliger, Stefan Jeglinski, erstellte ein Plugin für ImageJ, ein beliebtes Bildverarbeitungsprogramm, das bei großen Objekten in einem Bild Kantenerkennung durchführt. Wir haben diese Kantenerkennung mit den aufgelisteten Positionen der Galaxien in jeder Kachel kombiniert, um alle großen Objekte in der Kachel zu finden, und dann ihre Positionen mit den bekannten Galaxienpositionen vergleichen. Wenn sie übereinstimmen, würden wir diesen Bereich aus der Kachel herausschneiden.

Sobald wir den Galaxienausschnitt hatten, wurde er mit den Positionsdaten aus den SDSS-Datendateien markiert. Darüber hinaus wurde die Entfernung der Galaxie von der Erde anhand der Rotverschiebungsdaten berechnet und die Größe der Galaxie wurde die Winkelbreite und die Entfernung berechnet. Alle diese Daten wurden auf den Galaxienausschnitten markiert, damit sie für die spätere Verarbeitung verwendet werden konnten.

Nur einige der 5 Millionen Ausschnitte

Das eigentliche Herunterladen und Verarbeiten wurde auf mehrere Freiwillige über mehrere Wochen verteilt. Am Ende hatten wir über 5,5 Millionen einzelne Dateien. Nachdem wir alle diese Bilder kombiniert und einige Testaufnahmen damit erstellt hatten, stellten wir leider fest, dass wir ein Problem haben könnten, obwohl die meisten Bilder großartig aussahen, der Prozess war perfekt. Manchmal wurden Sterne ausgeschnitten oder die Ränder wurden zusammen mit einer kleinen Galaxie entdeckt. Sehr helle Sterne würden die Kamera überbelichten und das Bild verzerren. In anderen Bildern wurde ein Flugzeug fotografiert oder das Bild wurde beschädigt.

Wir haben versucht, Wege zu finden, um diese schlechten Bilder zu erkennen, aber das Schreiben eines Programms dafür hätte Zeit gekostet und es war garantiert, dass alles erfasst wird. Stephen erkannte, was zu tun war: Er musste all diese Bilder selbst durchgehen. Die Bereinigung dauerte mehrere Monate, aber er konnte alle 5,5 Millionen Ausschnitte durcharbeiten und fast alle falsch gekennzeichneten, beschädigten oder unvollständigen Ausschnitte entfernen.

Während Stephen mit seiner monumentalen Aufgabe begann, diese Bilder zu bereinigen, hatten wir noch andere Aufgaben zu erledigen. Da wir nun über 5 Millionen Bilder hatten, mussten wir eine Möglichkeit finden, diese in Adobe After Effects zu übertragen. Wie ich schnell erfuhr, wurde After Effects für die Animation durch Hunderte von Ebenen entwickelt, nicht für Millionen. Wenn wir all diese Galaxien verwenden wollten, könnten wir jede einzelne in ihrer eigenen Ebene verwenden, müssten sie aber anders darstellen.

Die Lösung hierfür war zweifach:

Setzen Sie die meisten entfernten Galaxien in Hintergrundbildkacheln ein

Verwenden Sie ein Teilchensystem, um den Rest der Galaxien zu platzieren

Da die meisten Galaxien so weit von der Kamera entfernt sind, dass wir sie nie aus der Nähe sehen können, haben wir uns entschieden, die 4 Millionen am weitesten entfernten Galaxien in 10 Schichten zu glätten. Wir würden die Galaxien nach Entfernung gruppieren und dann jede Gruppe in riesige Kacheln platzieren. Die Ebenen wären 100.000 Pixel mal 50.000 Pixel oder fast 5 Gigapixel! Jede Ebene ist in 50 Kacheln von 10.000 Pixel mal 10.000 Pixel unterteilt. Diese Kacheln würden zu einer Kugel gedehnt und um die Kamera gelegt, als ob sich ein Beobachter in einem riesigen Planetarium befände.

Ein kleiner Ausschnitt einer Fliese. Die leeren Bereiche sind Abschnitte, in denen keine SDSS-Daten verfügbar waren

Selbst bei den Kacheln gab es immer noch mehr als eine Million Galaxien, die in den Vordergrund eingefügt werden mussten, viel zu viele, um mit herkömmlichen Mitteln in After Effects fertig zu werden. Der Workaround dafür bestand darin, diese mit einem Partikelsystem zu rendern. Normalerweise werden Partikelsysteme verwendet, um Effekte wie Feuer oder Explosionen darzustellen, die Tausende oder sogar Millionen einzelner Partikel enthalten, aber Stephen hatte die geniale Idee, für jede einzelne Galaxie ein Partikel zu erzeugen und es so zu fixieren, dass es sich bewegte. Wir haben das getestet und es hat funktioniert! Statt einer Million Einzelschichten konnten wir jetzt nur noch etwa ein Dutzend verwenden!

Die nächste Herausforderung bestand darin, die Partikel genau zu platzieren und zu bemessen. Es war ziemlich einfach, die Partikel an die richtige Stelle zu bringen, da alle unsere Ausschnitte bereits mit ihren Positionen markiert waren, konnten wir diese direkt in Koordinaten für die Partikel übersetzen. Die richtige Dimensionierung war eher eine Herausforderung.

Hier ist eine einfache Version des Problems, mit dem wir konfrontiert waren: Stellen Sie sich vor, Sie haben ein Foto von jemandem, der auf einem offenen Feld steht. Sie möchten einen lebensgroßen Ausdruck dieses Fotos erstellen, den Sie an derselben Stelle aufstellen können, an der die Person war, aber Sie wissen nicht, wie groß sie ist. Wie bestimmen Sie, wie groß der Druck sein soll? Wenn Sie wissen, wie weit die Person von der Kamera entfernt war und welchen Blickwinkel das Objektiv hat, können Sie berechnen, wie groß das ursprüngliche Motiv war.

Stellen Sie sich darüber hinaus vor, dass Sie, anstatt das ausgedruckte Bild in das gleiche Feld zu legen, ein maßstabsgetreues Modell der gesamten Szene erstellen und ein Bild ausdrucken möchten, um es in Ihr maßstabsgetreues Modell einzufügen. Sie müssten den gleichen Vorgang wie zuvor durchführen, aber dann den Druck auf den gleichen Maßstab wie den Rest Ihres Modells verkleinern.

Um Stephen zu erklären, wie die Skalierung funktionieren muss, habe ich dieses Diagramm in MS Paint erstellt:

Wir wussten die Entfernung zu den Galaxien, die wir gesammelt hatten, und dass die SDSS-Kamera Bilder mit einem Winkel von 0,396127 Bogensekunden pro Pixel aufnimmt. Aufgrund technischer Einschränkungen des Partikelsystems, das wir in After Effects verwendet haben, hatte unser gesamtes Universum einen Radius von 100.000 Pixeln. Also haben wir diese Werte verwendet, um alle unsere Ausschnitte korrekt zu skalieren. Ein 200.000 Pixel breites Universum mag groß klingen, aber die am weitesten entfernte Galaxie, die wir Bilder haben, ist fast 8 Milliarden Lichtjahre entfernt, also entspricht 1 Pixel 78.000 Lichtjahren! Bei diesem Maßstab wurden die meisten unserer Ausschnitte auf ein einzelnes Pixel oder kleiner verkleinert. Glücklicherweise kann After Effects mit Partikeln dieser Größe umgehen, ohne dass die visuelle Klarheit verloren geht.

Der schrecklichste Teil des Prozesses war, nicht zu wissen, ob dieses Setup mit der Anzahl der Bilder, die wir hatten, überhaupt funktionieren würde. Ich hatte die Skripte entwickelt, um die Berechnungen durchzuführen und die Objekte in After Effects auf einem PC mit einem einigermaßen schnellen Prozessor und 8 GB Arbeitsspeicher zu erstellen, was schnell genug war, um mit Teilmengen der Daten zu arbeiten, aber ich war in der Lage, unsere gesamten zu laden Universumsmodell auf einmal. Es bestand immer die Möglichkeit, dass After Effects selbst auf Stephens Rendermaschinen mit großen SSD-Laufwerken und 64 GB Speicher einfach alle Daten verarbeiten konnte, und wir mussten zurück zum Zeichenbrett.

Nach ein bisschen Feintuning und viel Geduld konnten wir endlich die erste, komplizierteste Szene laden. Es dauert fast einen ganzen Tag, um das After Effects-Projekt zu öffnen, und Stunden, um jedes Mal, wenn wir die Kamera bewegen mussten, ein Vorschaubild zu rendern, was das Einrichten der Aufnahme fast unmöglich machte. Um dies zu umgehen, bauen wir eine abgespeckte Version, die nur 5% der zufällig ausgewählten Bilder enthält, um uns ein Projekt zu geben, mit dem wir die Kamerabewegungen für die Aufnahme einstellen können, während wir trotzdem sehen können, wo die Rest der Galaxien würde platziert werden.

Nachdem die Kamera eingerichtet war, begannen wir mit dem Rendern. Das Rendern jedes Frames der 40-Sekunden-Szene dauerte fast 24 Stunden. Der Renderprozess war in etwas mehr als einem halben Monat abgeschlossen, aber es dauerte insgesamt 5,5 Maschinenjahre Renderzeit auf etwa 50 Computern, mehr als die Hälfte der von Freiwilligen bereitgestellten! Endlich konnten wir sehen, was in über 3 Jahren Arbeit geschaffen werden konnte!

Unnötig zu erwähnen, dass wir begeistert waren, wie der erste Schuss ausgefallen ist. 5 Millionen Galaxien klingt nach einer großen Zahl, aber bis man sie auf dem Bildschirm sieht, merkt man nicht, wie groß das wirklich ist. Auf einer großen Leinwand ist es besonders überwältigend, aber stellen Sie sich vor, wie dies auf einem bis zu acht Stockwerke hohen IMAX-Bildschirm aussehen wird!

Nachdem das erste, schwierigste Rendering abgeschlossen ist, arbeiten wir mit dem Rest der Renderings zusammen. Da sich das Universum ausdehnt, während wir durch jede Aufnahme fliegen, bewegen sich Galaxien von den Vordergrundpartikeln in die statischen Hintergrundschichten, was jedes Rendern einfacher macht.

Es war eine verrückte Fahrt, an diesen Punkt zu gelangen, aber es hat Spaß gemacht, sich diesen Abschnitt des Films anzusehen, jetzt, da er endlich fast fertig ist. Ich bin sehr stolz auf die Arbeit, die unser Team geleistet hat, um diese Szenen zum Leben zu erwecken. Wenn mir jemand gesagt hätte, wie viel Arbeit diese wenigen Minuten Film erfordern würden, als ich dieses Projekt anfing, hätte ich ihm wahrscheinlich geglaubt. Es stellt sich heraus, dass es etwas schwieriger ist, ein realistisches dreidimensionales Fotomodell des gesamten Universums mit 5 Millionen Bildern zu erstellen, als ich ursprünglich dachte!


Gaia-Mission veröffentlicht 3D-Zählung von über 1 Milliarde Sternen

Die Gaia-Mission der Europäischen Weltraumorganisation hat ihren zweiten Datenstapel veröffentlicht. Diese Pressemitteilung enthält Informationen zu 1,7 Milliarden Objekten (einschließlich Sterne, Galaxien, Quasare und Asteroiden). Dieser Datensatz deckt ein 1000-mal größeres Raumvolumen ab als das vorherige Gaia-Release, mit einer hundertfachen Verbesserung der Präzision. Diese Daten werden fast allen Zweigen der Astronomie zugutekommen, da sie Aufschluss über die Entstehung unseres Sonnensystems, die Entwicklung der Sterne, die Geschichte der Milchstraße, die Verteilung der Dunklen Materie und die Kalibrierung der Entfernungsskala des Universums geben.

Der Satellit Gaia wurde im Dezember 2013 für eine geplante 5-Jahres-Mission gestartet, um eine vollständige Himmelsdurchmusterung von Positions- und photometrischen Daten für eine Milliarde Sterne durchzuführen. Diese neue Datenfreigabe bietet die erste Demonstration von Gaias Fähigkeiten, und die ersten Ergebnisse sind bereits spektakulär.

Im neuen Datensatz werden die Helligkeiten und Farben von insgesamt 1,3 Milliarden Objekten genau gemessen. Die astrophysikalischen Parameter der hellsten 160 Millionen Objekte werden geschätzt, und 500.000 veränderliche Sterne wurden ebenfalls beobachtet, was uns einen detaillierten Einblick in ihre Entwicklung gibt (und es uns ermöglicht, die Kalibrierung der Entfernungsskala unseres Universums zu testen).

Bei 7 Millionen Sternen in der Vermessung wurden sowohl ihre räumlichen Positionen als auch ihre Geschwindigkeiten sorgfältig gemessen. Diese „dimensionalen“ Daten (ihre Position im 3D-Raum sowie ihre 3D-Bewegungen) ermöglichen es Astronomen zu berechnen, wie diese Sterne um das Zentrum unserer Milchstraße kreisen. Auf diese Weise können wir unsere Galaxie genauer als je zuvor wiegen und die Verteilung der Dunklen Materie kartieren (und uns möglicherweise sogar helfen, sie besser zu verstehen).

Mehrere Mitarbeiter des Instituts für Astronomie (IoA) haben an dieser Veröffentlichung eine wichtige Rolle gespielt und eng mit anderen Gruppen zusammengearbeitet, die sich anderen Aspekten des Projekts widmen. Prof. Gerry Gilmore ist britischer Principal Investigator für die britische Beteiligung am Gaia Data Processing and Analysis Consortium und einer der ursprünglichen Antragsteller der Mission bei der ESA. Dr. Francesca De Angeli leitet das Verarbeitungszentrum in Cambridge, und Dr. Nicholas Walton ist Mitglied des Gaia Science Teams der ESA. Dr. Dafydd Wyn Evans leitet die Arbeit, die Gaias Helligkeitsmessungen erfolgreich auf einen Teil von Tausend kalibriert hat, den mit Abstand höchsten Präzisionsdatensatz dieser Größenordnung, der jemals produziert wurde. Dr. Floor van Leeuwen war Projektmanager für die photometrischen Verarbeitungsarbeiten in Großbritannien und Europa.

Ein ganz besonderer Aspekt der Gaia-Mission ist, dass die Daten sofort öffentlich für jedermann zum Herunterladen und Analysieren zur Verfügung stehen. "All dies wird jedem frei zugänglich gemacht, basierend auf dem engagierten Einsatz von Hunderten von Menschen. Es gibt so viele aufregende Dinge, die man mit den exquisiten Gaia-Daten verbessern kann, und wir erwarten, dass nach dieser Veröffentlichung jeden Tag neue wissenschaftliche Arbeiten erscheinen“, sagte Prof. Gilmore.

Das Wissenschaftsteam von Gaia hat mehrere illustrative "Beispielpapiere" als Tutorials für die Community veröffentlicht und um die bemerkenswerte Genauigkeit und den Umfang der Daten zu veranschaulichen. Dr. Floor van Leeuwen ist ein führender Co-Autor an den beispielhaften wissenschaftlichen Artikeln, die Gaias Einfluss auf unser Wissen über Sternhaufen und Satellitengalaxien in der äußeren Milchstraße veranschaulichen. Diese durch den neuen Datensatz ermöglichte Analyse zeigt, dass sich Gruppen von Zwerggalaxien (einschließlich der Magellanschen Wolken) auf sehr ähnlichen Bahnen bewegen, was auf eine gemeinsame Formation hindeutet. Darüber hinaus zeigen diese Papiere, dass die Kartierung der Bewegungen von Objekten, die die Milchstraße umkreisen (einschließlich Zwerggalaxien und Kugelsternhaufen), es Astronomen ermöglicht hat, eine "Massenkarte" unserer Galaxie mit einem beispiellosen Detail- und Genauigkeitsgrad zu erstellen.

So beeindruckend diese Datenfreigabe auch ist, von Gaia wird noch mehr kommen. Prof. Gilmore kommentierte: „Dies ist ein großer Sprung für die Menschheit, aber noch ein früher Schritt. Gaia beobachtet weiter und erreichte kürzlich die Billionste Messung. Das Raumfahrzeug verfügt über Treibstoff für weitere 6-7 Jahre Betrieb, was eine Betriebslebensdauer von 10 Jahren ermöglicht. Dieser Datensatz umfasst Daten von 22 Monaten. Dies ist eine großartige Ernte, aber ein Füllhorn erwartet Sie. Wir sind alle stolz, Teil dieses großartigen Projekts zu sein.&rdquo


GoSkyWatch Planetarium 4+

Identifizieren und lokalisieren Sie einfach und schnell Sterne, Planeten, Kometen, Sternbilder, Galaxien und mehr, indem Sie einfach auf den Himmel zeigen. Ihr persönliches Teleskop zu den Wundern am Nachthimmel. Gehen Sie nach draußen und erkunden Sie mit dem GoSkyWatch Planetarium.

***** Wie in Apples iPad 2-Event zu sehen
***** Auf ABCs "The View" . zu sehen
***** Im Magazin "Wired" vorgestelltquot

Keine In-App-Käufe! Ein Download für Ihr iPhone, iPad und iPod touch. Wir sind der Meinung, dass Sie für dieselbe App auf einem größeren Bildschirm nicht zweimal bezahlen sollten.

"Leistungsstark und einfach zu bedienen, mit hervorragenden Animationen und dem größten Zoombereich." — D. Schroeder, Universitätsprofessor

"Das GoSkyWatch Planetarium sollte sich nicht entgehen lassen, egal ob Sie ein Gelegenheits- oder ein eingefleischter Astronomie-Fan sind." — AppAdvice

"Ich habe mehr als 10 Astronomie-Apps auf meinem iPhone und dies ist mit Abstand die beste. Alles, was ich brauche und einfach zu bedienen." — Pat, iTunes-Rezensent

--- Was unterscheidet GoSkyWatch von anderen Apps?

• Einfach zu bedienen — Keine Tasten zum Drücken oder Modi zum Auswählen. Zeigen Sie einfach in den Himmel, um mit der Erkundung zu beginnen.

• Speziell für den effizienten Außeneinsatz entwickelt.

• Berührungslose Identifikation – Informationen erscheinen auf dem Bildschirm, während Sie sich bewegen. Super für kalte Nächte mit Handschuhen!

• Popup-Bilder – Sie müssen nicht ständig hinein- und herauszoomen, nur um zu sehen, was da draußen ist.

• Vollständige 180-Grad-Anzeige — Sehen Sie auf einen Blick, was sich am Himmel befindet und wo, ohne umherschwenken zu müssen.

• Nicht waagerecht halten – Zeigt die Himmelsansicht und Informationen in der richtigen Ausrichtung an, wenn sie in einem beliebigen Winkel gehalten werden, nicht nur im Quer- oder Hochformat.

• Automatische Kompass-Kalibrierung des Gyroskops — Keine Notwendigkeit, das Gyroskop zu kalibrieren. Fortschrittliche adaptive Algorithmen für eine reibungslose und genaue Positionierung.

• Planeten mit relativer Helligkeit zu Sternen – Keine übergroßen Grafiken, die Sie daran hindern, einen Planeten von den umgebenden Sternen zu unterscheiden.

• Eindeutige Zielidentifikation – Touch-Drag-Schema für höchste Genauigkeit, da Ihr Finger nicht verdeckt, was Sie identifizieren möchten.

• Minimaler Bildschirmtext – Sterne und Planeten sind leichter zu erkennen, da sie nicht von Text verdeckt werden.

Identifizieren
• Objektname, Helligkeit und Entfernung auf dem Bildschirm
• Enthält alle mit bloßem Auge sichtbaren Sterne
• Lichtanpassung für die Betrachtungsbedingungen
• Rotlichtmodus für Nachtsicht
• Berührungslose Navigation auch für den iPod touch ohne Kompass.

Finden
• Suchen Sie nach einem Planeten, Stern, Kometen, Sternbild oder Galaxie? Benutze einfach den Finder und lass den Pfeil den Weg weisen
• Suche nach Sternen und DSOs sortiert nach Name, Entfernung oder Größe
• Mondphasenkalender
• Sonnenaufgangs-/Sonnenuntergangszeiten

Erkunden
• Tages-, Stern- und Zeitrafferanimation
• Über 200 Bilder von Planeten und Deep-Sky-Objekten
• Messier- und Caldwell-Kataloge mit Bildern
• Tatsächliche Aufnahme der Milchstraße
• Anzeige unterhalb des Horizonts
• Blicken Sie mit der Geburtstagssternsuche in die Vergangenheit. Finden Sie heraus, wie alt Sie für das gesehene Sternenlicht waren.

Lernen
• Konstellationsbilder, Grenzen und Muster
• Sonnensystem, Stern, Komet, DSO, Konstellation Wikipedia
• Sternbild StarTales von Ian Ridpath
• Interaktive grafische Ephemeriden
• Planeten-, Stern-, Konstellations- und DSO-Ephemeridendaten

Mehr
• Hochleistungsgrafik
• Einfache Einrichtung mit automatischer Ortung oder integrierter Städteliste
• Standortfavoriten

* Keine Internetverbindung erforderlich. Internet optional für die automatische Ortung, Anzeige von Wikipedia-Informationen und StarTales.

Viele weitere Verbesserungen werden als kostenlose Updates folgen.

Kostenlose Echtzeit-Tracking- und Anzeigemöglichkeiten der Internationalen Raumstation mit der begleitenden GoISSWatch-App.


Hunderte von Galaxien, die von der Milchstraße versteckt wurden, entdeckt

Hunderte neue zuvor versteckte Galaxien auf der anderen Seite des Milchstraße, entdeckt worden.

Bild oben: Impression eines Künstlers, der Radiowellen zeigt, die von den neuen Galaxien ausgehen in der „Vermeidungszone“ hinter unserer Milchstraße, dann durchqueren und schließlich beim Parkes-Radioteleskop ankommen (nicht maßstabsgetreu). Bildnachweis: ICRAR

Obwohl sie nur 250 Millionen Lichtjahre von der Erde entfernt sind, waren die neuen Galaxien bisher von unserer eigenen Galaxie, der Milchstraße, verborgen.

Hunderte von versteckten Galaxien in der Nähe wurden entdeckt, die das Geheimnisvolle erklären Gravitationsanomalie genannt der Große Attraktor.

Mit dem Parkes-Radioteleskop von CSIRO, das mit einem innovativen Empfänger ausgestattet ist, konnte ein internationales Wissenschaftlerteam durch die Sterne und den Staub der Milchstraße in eine bisher unerforschte Region des Weltraums sehen.

Die Region des Großen Attraktors, die die Milchstraße und Hunderttausende anderer Galaxien mit einer Anziehungskraft von einer Million Milliarden Sonnen anzieht.

Diese Szene wurde unter Verwendung der aktuellen Positionsdaten der neuen Galaxien erstellt und die Region zufällig mit Galaxien unterschiedlicher Größe, Art und Farbe bevölkert. Bildnachweis: ICRAR

Der Hauptautor Professor Lister Staveley-Smith von der University of Western Australia sagte, das Team habe 883 Galaxien gefunden, von denen ein Drittel noch nie zuvor gesehen worden war.

„Die Milchstraße ist natürlich sehr schön und es ist sehr interessant, unsere eigene Galaxie zu studieren, aber sie versperrt die Sicht auf die weiter entfernten Galaxien dahinter vollständig“, sagte er.

Professor Staveley-Smith sagte, dass Wissenschaftler versucht haben, dem mysteriösen Großen Attraktor auf den Grund zu gehen, seit in den 1970er und 1980er Jahren erstmals große Abweichungen von der universellen Expansion entdeckt wurden.

„Wir verstehen nicht wirklich, was diese Gravitationsbeschleunigung auf der Milchstraße verursacht oder woher sie kommt“, sagte er.


Was sind die besten Möglichkeiten, um nach Technosignaturen zu suchen?

Die Suche nach außerirdischer Intelligenz (SETI) hat lange Wurzeln in der Menschheitsgeschichte. Mit dem Aufkommen moderner Technologien konnten Wissenschaftler endlich den Himmel nach Lebenszeichen absuchen. Als die Suche in den 1960er Jahren begann, konzentrierte sie sich fast ausschließlich auf den Versuch, Funksignale zu erkennen. Im Laufe der Jahrzehnte wurden keine unwiderlegbaren Beweise für künstliche Funksignale gefunden. Die finanzielle Unterstützung fing an, sich von der Disziplin zu entfernen, und wo das Geld fließt, tun es viele Wissenschaftler.

Aber in jüngerer Zeit hat das gestiegene Interesse an der Exoplanetenforschung der Suche nach intelligentem Leben neues Leben eingehaucht, die heute allgemein als Suche nach „Technosignaturen“ bezeichnet wird. Im Jahr 2018 sponserte die NASA eine Konferenz, auf der Wissenschaftler, die sich mit diesem Gebiet befassten, über den aktuellen Stand diskutierten. Auf dieses Treffen folgte letztes Jahr ein Treffen, das vom Blue Marble Institute gesponsert wurde und das auch die NASA unterstützte. Nun ist ein Arbeitspapier aus der Gruppe der SETI-Wissenschaftler erschienen, die an der Konferenz teilnahmen. In dem Papier werden zahlreiche potenzielle Missionsideen zum Auffinden von Technosignaturen beschrieben. Es ist klar, dass die Suche nach außerirdischer Intelligenz nicht mehr nur auf die Radioastronomie beschränkt ist.

Es gibt 12 verschiedene Missionskonzepte, die in dem Papier diskutiert werden, aber sie können in zwei Hauptkategorien unterteilt werden – solche, die sich auf Exoplaneten konzentrieren, und solche, die sich auf Körper in unserem eigenen Sonnensystem konzentrieren.

Die Autoren unter der Leitung von Dr. Hector Socar-Navarro, einem leitenden Wissenschaftler am Instituto de Astrofisica de Canarias und Direktor des Museums der Wissenschaften und des Kosmos von Teneriffa, stellen eine neuartige Parametrisierung vor, die zum Verständnis der kategorialen Aufteilung beiträgt. Sie wird als „Ichnoscale“ bezeichnet und ist definiert als „die relative Größenskala einer gegebenen Technogisnatur in Einheiten derselben Technosignatur, die von der aktuellen Erdtechnologie erzeugt wird“.

Die Ichnoskala nutzt also die Tatsache, dass die meisten der Technosignaturen, nach denen die vorgeschlagenen Missionen suchen, mit einem ausreichend starken Sensor auf der Erde sichtbar wären. Wenn zum Beispiel eine außerirdische Zivilisation eine Dyson-Sphäre hat (z. B. eine Art fortgeschrittener Orbitalstruktur, die einen ganzen Stern umfasst), dann wäre die Ichnoskala dieser Dyson-Sphäre unabhängig von der Querschnittsgröße der Kugel geteilt durch die Größe des größte Orbitalstruktur derzeit um die Erde – die ISS.

Die Autoren stellen dann eine Grafik vor, die Diskussionen über verschiedene Technosignaturen leiten soll. In der Grafik ist die y-Achse die Ichnoskala, wie oben beschrieben, während die x-Achse die Gesamtzahl der Objekte ist, die für diese Art von Technosignatur beobachtet werden konnten.

Diagramm der Ichnoskala für die 12 verschiedenen vorgeschlagenen Projekte in der Arbeit. Die y-Achse ist die berechnete Ichnoskala und die x-Achse ist die Anzahl der möglichen Beobachtungsziele.
Bildnachweis: Socas-Navarro et al.

Die Arten von Technosignaturen, die von jeder Mission gesucht werden, unterscheiden sich stark in der Komplexität und dem Technologieniveau der damit verbundenen Zivilisation. Ein relativ einfaches Missionskonzept ist eine Mission zum Nachweis von industriellen Schadstoffen in Atmosphären von Exoplaneten. Dr. Socar-Navarro erwähnt, dass es möglich ist, dass das James Webb Space Telescope NO2, einen verbreiteten industriellen Schadstoff, der von Verbrennungsmotoren emittiert wird, in der Atmosphäre von Exoplaneten nachweisen könnte. Noch beeindruckender ist, dass einige fortschrittlichere Missionskonzepte wie LUVOIR in der Lage wären, Konzentrationsniveaus ähnlich den aktuellen Konzentrationsniveaus der Erde auf Exoplaneten in einer Entfernung von bis zu 10 Parsec zu erkennen. Andere Luftschadstoffe wie FCKW, die allgemein dafür bekannt sind, ein Loch in der Ozonschicht verursacht zu haben, könnten ebenfalls auf eine technologische Zivilisation auf einem Planeten hinweisen, dessen Atmosphäre eine Fülle davon enthält.

Für eine Zivilisation, die technisch mindestens so fortgeschritten ist wie der Mensch, könnten atmosphärische Schadstoffe nachgewiesen werden. Einige andere Missionen könnten dasselbe tun. Obwohl die Radioastronomie bei den SETI-Bemühungen bisher nicht viel aufgetaucht ist, haben die Wissenschaftler ihr Potenzial kaum ausgeschöpft.

Eine vorgeschlagene Mission, die möglicherweise eine Zivilisation auf menschlicher Ebene in relativer Nähe finden könnte, ist ein Radioteleskop auf der anderen Seite des Mondes. This isolated space would allow it to be affected by a minimal amount of radio interference – in fact it would be impacted by only a single satellite. Such isolation could allow for much more sensitive instrumentation, and a much higher signal to noise ratio of any data it collects.

Radio itself is a power intensive medium, and even on Earth it is being replaced by newer technologies such as laser pulses. Searching for those laser pulses is another proposed mission. Alien civilizations could use them either to communicate messages or even potentially as propulsion systems. Many of these beams are strong enough to be seen from very far away, and systems can be designed with modern technology to be able to capture them.

Another strategy to detect far away civilizations uses a technique similar to exoplanet hunters themselves – transiting. Transiting is when an object passes in front of a star that it is orbiting, and minutely lowers that star’s brightness. These dips in brightness are not necessarily indicative of a planet, however, and could be caused by technosignatures themselves, such as a star shade or a satellite belt.

Smaller technosignatures aren’t the only ones capable of blocking a star’s light though. Larger structures, such the aforementioned Dyson Sphere, or even a galaxy-spanning civilization producing anomalous waste heat, are a possibility for more advanced civilizations. These wouldn’t be detectable via transiting as they completely block a star’s light. However, they would be detectable via another modern technology – infrared imaging.

Such large structures would not be able to contain the huge amounts of energy put out by a star or galaxy. Therefore, it must be transmitted through the structure somehow. The most likely way it would be radiated is through waste heat, which can be monitored via a simple infrared camera. There are many infrared mission concepts, and one similar to the Herschel mission should be capable of detecting these large scale structures.

At this point it’s pretty obvious that there are no such megastructures in our own backyard. But there might be smaller signs that we simply haven’t been able to see because we never bothered to look. This concept of finding alien technology close to home was popularized by 2001: A Space Odyssey, and the missions suggested for searching closer to home would definitely have found the artifact made famous in the movie.

The Red Planet might not be the most likely place to look though. That title would most likely lie with a heavenly body without a lot of surface activity, and while Mars’ environment might seem relatively stagnant, it actually isn’t. There are much more geologically stable places in the solar system, such as Mercury, the moon, or even asteroids in the asteroid belt.

Dr. Socar-Navarro points out an important point about why this stability is important. Currently, the closest star to Earth (Proxima Centauri) is approximately 4 light years away. However, stars are not stationary, and one approaches close enough to the Sun to breach the Oort cloud about once every 100,000 years. Since the Earth has formed, that means there have been approximately 45,000 stars that have passed by our planet.

If one of those stars contained a civilization as advanced as we currently are, they would probably have noticed the biomarkers of life in Earth’s own atmosphere. They also might have been tempted to send a probe to observe the evolution of that life, similarly to how the Breakthrough Starshot initiative is attempting to send a probe to Proxima Centauri.

Any probe that was sent might have been caught up somewhere in the solar system. While the most likely places for a probe to end up, such as Jupiter and the Sun, might have destroyed any evidence, there is a chance it landed somewhere more stable. As such, close to home missions suggest focusing on trying to find a probe that might have been sent to our solar system in the past, with one exception.

Locations for this probe search range from the Moon to the Trojan asteroids that follow Jupiter around. For the moon mission, current observational techniques would be combined with AI algorithms to thoroughly search the entire surface of the moon, down to a few centimeters in diameter, for anything that might seem out of the ordinary. Transmitting all of that data back to a human on Earth who might be able to define what “out of the ordinary” is would be completely infeasible with the current bandwidth to lunar orbiters.

Instead, the paper suggests using a neural network AI system that was successfully trained to detect anomalies in data sent back by the Lunar Reconnaissance Orbiter. If that algorithm was uploaded to a newly designed orbiter, it could dramatically cut down on the number of images it would need to send, and therefore make such close observation feasible.

Pure data transfer wouldn’t be as big of an issue for a few other missions suggested closer to home. One would be to send a polarimeter to the asteroid belt and the Trojan belt. The instrument could then conduct a survey of the objects in these two crowded areas of the solar system to see if any of them seem to be out of place when compared to similar objects. Human devices stick out very prominently in polarimetry because they are typically built with very flat, metallic surfaces, which tend to polarize light. Devices from alien origins would assumedly have the same sort of metallic sheen.

One of the most famous examples of where polarization would have been extremely useful was the very brief observation of ‘Oumuamua as it zipped through our solar system. Unfortunately, scientists didn’t get a chance to use the technique as the unique object was already on its way out of the solar system before observing platforms could be brought to bear on it. There has been some speculation that ‘Oumuamua itself was actually a alien probe, but unfortunately we will never be able to tell as it is no longer in observational range of any of our platforms.

That sad fact informs the final close-to-home mission concept from the paper – the design and assembly of a rapid response intercept mission for any new interstellar visitors telescopes find. This mission could be based on the ground, set to launch when the time is right, or launch ahead of time with the expectation that it will complete a hard burn to catch up with whatever object might be transiting our solar system.

Even if the object such a mission would visit turns out not to be a probe, it would still provide invaluable data for other scientific efforts. Dr. Socar-Navarro points out that dual use scenario would be the norm rather than the exception. Every one of the proposed missions would collect data that would be useful to scientific disciplines other than SETI, making it more appealing to funding agencies.

SETI itself still has that special place in the human psyche though. Dr. Socar-Navarro praises the participants of the Blue Marble workshop and stresses the importance of this ongoing search.

“Technosignature research brings in people from the whole world – the interest in other civilizations is something that excites our imagination collectively.” he says. The virtual workshop participation of 53 excited scientists from 13 countries lends credence to his assertion. With luck, these workshops will be a first step towards increasing interest in finding a definitive answer to one of the most fundamental questions of the human condition – are we alone?

Lead Image:
Midwestern sky at night
Credit: : NASA’s Earth Observatory


3-D Tour Puts Stars Within Reach

To revist this article, visit My Profile, then View saved stories.

As viewers tour the Virtual Universe, abstract data springs into view as readily as supernovae. Constellations, spheres of gravitational influence, names of stars and planets, and much more can be traced as viewers whirl through the cosmos. Rose Center for Earth and Space / AMNH

To revist this article, visit My Profile, then View saved stories.

NEW YORK -- This summer, while most couples in New York City are lining up for romantic riverboat cruises under the stars, some will spend their dates sailing between galaxies instead.

Welcome to the 3-D, supercomputer-generated Virtual Universe tour at the American Museum of Natural History, where starting June 3 audiences will swing behind the Orion Nebula and out to the farthest voids known to science.

This is not to be confused with preprogrammed movies narrated by Hollywood stars, with voices modulated to convey just the right tones of gravitas and wonderment.

Instead, the Virtual Universe conjured under the Space Theater dome is open to improvisation by two live presenters, one equipped with a Spaceball to steer through three dimensions and the other a laptop to overlay explanatory graphics. The project grew out of the Hayden Planetarium's multimillion-dollar Digital Galaxy Project and comprises humankind's most comprehensive interactive atlas of the universe -- stars, clusters, nebulae, galaxies and more.

The result is that on the first Tuesday of each month, audiences will fly hither and yon through galaxies like schools of fish darting through bioluminescent plankton.

The three currently scheduled tours include The Solar Neighborhood on June 3, The Structure of Our Galaxy on July 1 and Our Place in the Universe on Aug. 5. Until now the exclusive privilege of astrophysicists and their students, each tour provides a real-time, navigable immersion into broader sweeps of the cosmos than the human mind can readily grasp.

The pace of the tours, however, grossly violates the speed limit of light demanded by physics.

[](popChild()
[A Comet Collides With a Gaseous Planet](popChild().

"If you get queasy, just close your eyes for a moment. Remember that we're not really moving," advised guide Carter Emmart when an audience member complained of "space sickness" during a recent preview.

In addition to conducting the tour, Emmart, a self-described "astrovisualizer," was part of the team that created the program with a $2 million seed grant from NASA.

With his long hair and glasses, Emmart looks more the part of a computer geek than an Apollo-era astronaut. His helm beneath the dome of the Hayden Planetarium's Space Theater was suitably casual: a zebra-patterned carpet covering the shuttered trap door to the museum's trusty Zeiss projector, throw pillows, a Hewlett-Packard Spaceball 4000 flx to navigate and a laser pointer he found buried in his jeans pocket by the time we reached Sirius.

[](popChild()
[The Death of a Sun-Like Star](popChild().

Astronomer Brian Abbott sat cross-legged a few feet away at a squat table illuminated by a single red chili pepper-shaped bulb, using a laptop to control the illusion created by seven overlapping tricolor projections.

After the preview, kids from the audience were invited to pilot the Spaceball that controls the tour's movements, sending the surrounding adults reeling through the cosmic microwave background radiation like wind-swept dandelion spores through a dense fog.

The program is made possible by Virtual Director, software developed by the National Center for Supercomputing Applications for remote conferencing in a believable 3-D format.

Thanks to broadband networks like the Internet 2 and faster chips to process data from telescopes, probes and satellites, atlases of the universe are constantly updated. Virtual Universe will make increasing use of the National Virtual Observatory, a pool of data from myriad telescopes that lets researchers examine celestial phenomena from radio waves to intense gamma rays. If that vast collection of data is like a library of poetry for astronomers, the Virtual Universe tour turns it into a funky, urban spoken-word event.

[](popChild()
[Feeding a Black Hole](popChild().

A spinoff of the Virtual Director program, called Partiview, allows users on desktops and laptops (Unix/Irix, Linux, Windows and Mac OS X systems) to see the Virtual Universe stereoscopically. Partiview is available for free to individuals and schools through Hayden Planetarium's academic site.

"The scalability we've already achieved with the platform independence that Partiview allows means we're on our way to the great chat room of the entire friggin' universe," Emmart said.

Abbott's laptop isn't the sole nexus of control either -- lecturers thousands of miles away can assume command of the Space Theater excursions through high-speed linkups.

"The Cassini probe will arrive at Saturn in July 2004. We'll fly in tandem with the spacecraft, updating the map as pictures come in. Imagine team leaders walking over to a computer at their facility and taking over our dome to review its mission over the last week," Emmart said.

"We plan to have a fully functional Saturn system. With a 3-D illusion, you can teach the size, scale and positional relationships," he said. "Orbits have different inclinations to the ring plane, and you have to sort of see it systematically before you can organically see the relationships between moons."

[](popChild()
[A Collision Between the Milky Way and Andromeda Galaxies](popChild().

It's a powerful teaching tool, Emmart said, because "people sense that they can go anywhere in this thing, and they can see where our knowledge ends. When people are just watching a movie, they naturally ask, 'Is all this stuff real?' With the Virtual Universe, you know you are having an experience of real information."

The museum will attempt to integrate data from Mars landers in much the same fashion, Emmart said.

The museum plans to load in data to virtually recreate each known moon. Much of the solar-system portion of the atlas will be derived from work done by the Riken Research Institute in Japan, Emmart said. "As much as we have already, it's still a skeleton. Now we're sort of trimming out the Christmas tree. The Orion Nebula was the first ornament," he explained.

One huge problem, however, is traveling smoothly from small objects, like Saturn's moon Titan, to galactic clusters. Right now, collections of data on those vastly different scales are nested one within the other, like Russian matryoshka nesting dolls, with no way to blend them seamlessly. Transitioning from a relatively local scale within the galaxy to a larger scope is currently accomplished with a jump-cut, with a black dome pause between views.

"A computer represents positions as real numbers with a limited number of decimal places. The universe is so large that we run out of decimal places several times in the journey from Earth out to boundaries of the universe," said professor Anders Ynnerman, director of the National Supercomputer Centre in Linkping, Sweden. One of Ynnerman's students is attacking that problem.

"Eventually we'll be able to fly, really, from the quantum scale all the way to the cosmic scale without stopping," Emmart said.

But the Virtual Universe is more than a romp through the visual cosmos. Abstract data springs into view as readily as supernovae. The sphere of Earth's radio signals manifests itself with a keystroke. Years marking the movement of light can be seen falling back into the distance like highway exit signs. Constellations can be traced, but the icons of astrology twist into random cobwebs as the audience's perspective is twirled 'round by Emmart's Spaceball navigation.

And gaps in knowledge aren't glossed over. One vivid acknowledgement of how much we have yet to learn comes with one stroke on the keyboard by Abbott.

Some stars suddenly appear to be impaled on red bars that stretch so far that they vanish in the distance. Such a line represents the range of error for that particular star, which could lie at any point along the red bar.

"Data naturally fades away with distance. I liken it to the old maps. My God, they really knew the Mediterranean really well, but around Africa it dissolves into a bunch of sea monsters," Emmart said. "Our refinements with astronomy are going to improve that picture."

But some barriers may be eternal. We're at the edge of our galaxy, so looking toward its center, things get quite bright. We may never see objects on the other side of the hump, in the "zone of obscuration," so our view of the universe may always look like an hourglass filled with the white sand of galaxies silhouetted against the black void of ignorance.

The Virtual Universe team toyed with the idea of filling in the black space with science's best guesses based on statistics, but decided against it. While the terra incognita of old maps yielded to charted coastlines dotted with cities and ports, the caeli incogniti -- unknown heavens -- may remain indelible.

That darkness and the worlds that might swirl within it are the most tantalizing part of the Virtual Universe that viewers carry away, out into the night.


More on Getting a Bachelor’s Degree in Astronomy

Defining the Degree: Bachelor’s in Astronomy

At the top of this article, we listed a number of variations to your typical astronomy degree. Most of them are similar in their curricula offerings, aside from the fact that most BA degree programs have less of a science core than the BS degree programs. While these programs are fairly similar, most of them can be tailored to careers beyond the sciences.

Similar to most undergraduate degree programs, the full program requires around 120 credits/semester hours. That includes all of the lower-level core courses, which you can typically complete at any community college for a lower price. Astronomy majors can require anywhere from 15 to 45 upper-level courses in physics, astronomy and other classes related to the major. The minors in astronomy often require a minimum of 15 credits for completion.

All of these programs include some kind of observational astronomy component using the school’s telescope or planetarium facilities. In the highest-quality astronomy programs, a research experience will be a requirement for graduation. Otherwise, most of these schools strongly encourage undergraduate research, offering $1,000+ awards for research in some instances. A few programs expect undergrads to complete an internship and/or a senior thesis prior to graduating.

Most Frequently Searched Undergraduate Programs in Astronomy

  • Lehigh University: Lehigh’s Department of Physics offers a BS in Astrophysics, BA in Astronomy and astronomy minor.
  • Colorado State University: During our research process, CSU appeared again and again in our results. While it doesn’t offer an undergraduate degree in astronomy (physics only), the university’s astronomy facilities are high-quality.
  • Cornell University: Every science buff wants to know where Bill Nye went to school. While he was not an astronomy major, Cornell offers an outstanding program.
  • The Open University: OU has a strong hand in astronomy research, and it offers a BSc Natural Sciences (Astronomy & Planetary Science) program.
  • Indian Institute of Technology (IIT) Bombay: Astronomy degree programs in India is one of the top searches, and IIT is one of the best institutions in India.

FAQ Concerning Astronomy Undergraduate Degree Programs

1. What is astronomy?
Astronomy is a branch of natural science that deals with the physical universe as a whole, including celestial objects and space. Additionally, astronomy uses mathematics, physics and chemistry to explain the origin and evolution of planets, stars, galaxies and more. Essentially, astronomers seek to understand how the universe works.

2. What do I need to gain admission to a bachelor’s degree program in astronomy?
First, you’ll need to gain admission to the university at which you want to study astronomy. Every university has its own process and requirements for admission. In most cases, you’ll need to apply specifically to the physics or astronomy program once you’ve completed some prerequisites in math and science, including calculus and physics classes.

3. How long does it take to earn a bachelor’s in astronomy?
A typical undergraduate degree program in astronomy will take four years to complete, including the core courses.

4. How much does a bachelor’s in astronomy cost?
The price varies, depending on which university you choose, the financial aid you receive and whether you previously completed any core courses at a community college prior to entering the university. The lowest net cost on this list is $9,462.

5. What can I do with a bachelor’s in astronomy?
Most colleges understand that you can’t pay the high price for a degree that channels you into just one career. While many astronomy students plan to enter careers with NASA and as research scientists, some want to take their love of astronomy in a different direction. Many of these programs are advertised as being transferable, meaning you can enter a variety of industries, like business, law and more, with a degree in astronomy.

6. What’s the difference between undergraduate programs in astronomy and other sciences?
Most science degree programs have a fairly singular focus. Physics students take the full spectrum of physics classes. Engineering touches on other sciences, but still focuses mainly on engineering the principles around it. Chemistry students focus on all things chemical-related. Astronomy students, however, can study all of the above and more. In addition to space-related classes, most astronomy programs require multiple courses in mathematics, physics, engineering and more.

7. What does it take to become a graduate student in astronomy or astrophysics?
Many of the schools on this ranking suggest that, if you’re interested in going to graduate school, you should earn a bachelor of science in astronomy (or physics) rather than a BA. Graduate degree programs in astronomy and astrophysics seek applicants with strong physical sciences backgrounds. Even an undergraduate major in mathematics or computer science could qualify you for admission to an astronomy graduate program. Graduate program admissions will also want to see that you have experience in researching astronomy and/or other physical sciences. You’ll need to know how to use a telescope to–very patiently–seek answers in the stars.

8. How should I go about choosing a college for my astronomy degree?
This will depend on your specific area of interest. If you plan to enter a career as a scientist, you’ll want a university with ample research opportunities and astronomy research areas, high-tech facilities (think, observatories) and graduate programs in astronomy/related subjects. As you can see in the above list, some colleges offer better resources for observations (state-of-the-art telescopes). Others are focused more on theory and housing advanced computing systems. Some colleges have a department dedicated solely to astronomy (typically offering more advanced astronomy research topics), while others operate through physics departments. If you really want to be diligent, check out the kinds of research that interest you, and find colleges with faculty who are accomplishing real work in that area.

9. What skills are necessary to thrive in the field of astronomy?
All things science! You’ll need to have a strong interest in mathematics, physics and chemistry. You’ll also want to be interested in, or start learning computer coding early on in your academic journey. Almost all areas of astronomy will require you to write some type of code. In astronomy, you’ll use computers to analyze data, create simulations, interface with instruments and more. In order to present and explain your astronomical research, you’ll need good written and oral communication skills. Above all, you need to have a strong sense of curiosity, patience and motivation.

Available Concentrations within Astronomy Bachelor’s Degree Programs

Bachelor’s in Astronomy Career Questions

Q: What can I do with an online bachelor’s degree in astronomy?
With a degree in astronomy, you can enter almost any industry, from government to the private sector from media to science research from law to media. The list goes on (but this one is not exhaustive):

  • Astronomer
  • Planetary Scientist
  • Asteroseismologist
  • Physicist
  • Research Scientist
  • Aerospace Engineer/Scientist
  • Federal or State Government
  • NASA Researcher or Assistant
  • National Laboratories
  • Observatories: observatory scheduler telescope operator at national observatories data quality specialist for large space-based-observatory ground facilities
  • Teacher
  • Media/Publishing Technical Writer
  • Law/Science Policy
  • Environmental and sustainability areas
  • Geoscientist
  • Meteorologist
  • Scientific Instrumentation Specialist
  • Data Analyst
  • Naval or Air Force Officer
  • Planetarium Program Director

Q: What are some professional organizations in astronomy that I might benefit from joining?

Q: What is the career outlook for those with a bachelor’s degree in astronomy?
According to the Bureau of Labor Statistics, physicists and astronomers have a “faster than average” job growth outlook of 9 percent. The 2018 median pay is $119,580 per year and $57.49 per hour, and there were 21,600 astronomer/physicist jobs that year. However, these stats are centered on those with a PhD in astronomy or physics because most holding an undergraduate degree in astronomy must start off as research assistants and other entry-level positions.

Those holding a bachelor’s degree, according to the BLS, can enter careers as atmospheric scientists and chemists, both of which have a position job growth outlook.

According to the American Institute of Physics, astronomy bachelor’s degree recipients in the private sector and at colleges/universities have a wide range of starting salaries. Those in the private sectors have a median starting salary of $55,000, but those on the computer science side of things make much more.


Automation offers big solution to big data in astronomy

Artist’s impression of the full Square Kilometer Array at night. The SKA, consisting of several thousand dishes located in the deserts of South Africa and Australia, is expected to start full operation about 2025.

It’s almost a rite of passage in physics and astronomy. Scientists spend years scrounging up money to build a fantastic new instrument. Then, when the long-awaited device finally approaches completion, the panic begins: How will they handle the torrent of data?

That’s the situation now, at least, with the Square Kilometer Array (SKA), a radio telescope planned for Africa and Australia that will have an unprecedented ability to deliver data — lots of data points, with lots of details — on the location and properties of stars, galaxies and giant clouds of hydrogen gas.

In a study published in The Astronomical Journal, a team of scientists at the University of Wisconsin–Madison has developed a new, faster approach to analyzing all that data.

Hydrogen clouds may seem less flashy than other radio telescope targets, like exploding galaxies. But hydrogen is fundamental to understanding the cosmos, as it is the most common substance in existence and also the “stuff” of stars and galaxies.

Hubble telescope image of stars forming inside a cloud of cold hydrogen gas and dust in the Carina Nebula, 7,500 light-years away.

Credit: Space Telescope Science Institute

As astronomers get ready for SKA, which is expected to be fully operational in the mid-2020s, “there are all these discussions about what we are going to do with the data,” says Robert Lindner, who performed the research as a postdoctoral fellow in astronomy and now works as a data scientist in the private sector. “We don’t have enough servers to store the data. We don’t even have enough electricity to power the servers. And nobody has a clear idea how to process this tidal wave of data so we can make sense out of it.”

Lindner worked in the lab of Associate Professor Snežana Stanimirović, who studies how hydrogen clouds form and morph into stars, in turn shaping the evolution of galaxies like our own Milky Way.

In many respects, the hydrogen data from SKA will resemble the vastly slower stream coming from existing radio telescopes. The smallest unit, or pixel, will store every bit of information about all hydrogen directly behind a tiny square in the sky. At first, it is not clear if that pixel registers one cloud of hydrogen or many — but answering that question is the basis for knowing the actual location of all that hydrogen.

People are visually oriented and talented in making this interpretation, but interpreting each pixel requires 20 to 30 minutes of concentration using the best existing models and software. So, Lindner asks, how will astronomers interpret hydrogen data from the millions of pixels that SKA will spew? “SKA is so much more sensitive than today’s radio telescopes, and so we are making it impossible to do what we have done in the past.”

In the new study, Lindner and colleagues present a computational approach that solves the hydrogen location problem with just a second of computer time.

For the study, UW–Madison postdoctoral fellow Carlos Vera-Ciro helped write software that could be trained to interpret the “how many clouds behind the pixel?” problem. The software ran on a high-capacity computer network at UW–Madison’s campus computing center, the Center for High Throughput Computing. And “graduate student Claire Murray was our ‘human,’” Lindner says. “She provided the hand-analysis for comparison.”

Those comparisons showed that as the new system swallows SKA’s data deluge, it will be accurate enough to replace manual processing.

Ultimately, the goal is to explore the formation of stars and galaxies, Lindner says. “We’re trying to understand the initial conditions of star formation — how, where, when do they start? How do you know a star is going to form here and not there?”

“We’re trying to understand the initial conditions of star formation — how, where, when do they start? How do you know a star is going to form here and not there?”

To calculate the overall evolution of the universe, cosmologists rely on crude estimates of initial conditions, Lindner says. By correlating data on hydrogen clouds in the Milky Way with ongoing star formation, data from the new radio telescopes will support real numbers that can be entered into the cosmological models.

“We are looking at the Milky Way, because that’s what we can study in the greatest detail,” Lindner says, “but when astronomers study extremely distant parts of the universe, they need to assume certain things about gas and star formation, and the Milky Way is the only place we can get good numbers on that.”

With automated data processing, “suddenly we are not time-limited,” Lindner says. “Let’s take the whole survey from SKA. Even if each pixel is not quite as precise, maybe, as a human calculation, we can do a thousand or a million times more pixels, and so that averages out in our favor.”


What's the easiest way to get 3D-positional data of galaxies - Astronomy

last revised: November 1, 2020

maintained by John Kolena (NCSSM & Duke University)
send suggestions, comments, new items to add, etc. to [email protected]


how to access images from major satellites and observatories
a relatively non-technical intro to common non-FITS image formats
the technical guide to FITS image formats also gsfc FITS links

contents of this page

4) astronomy image processing curriculum activities

6) coming sometime: astronomy java applets

image processing astronomy software for pc/mac

based on my experience, recommendations for intro astronomy
courses (based on ease of use and flexibility)
are tagged

MacOSX 10.9-10.12

LINUX CentOS 6/7
LINUX Ubuntu 14/16

The Chandra X-ray Observatory Education site provides a connection between DS9 software, Chandra data sets, and analysis tools that can be used to analyze Chandra data. You can download DS9 for use interactively with Chandra data or for general use with any FITS data from any source.

This is a web version of the stand-alone app ds9

You can drag-and-drop FITS images
(from an external web site or a local directory)
directly onto the image display for analysis


need WinZip or equivalent
to unzip tgz file

additional installation help at
install help
general help

[combines CCDSoft 5.0
(CCD controller & image processor)
& TheSky
(planetarium
program)]

also, JPEG Viewer and NIH Image have been removed from this list because they do not read FITS images


web & applet astronomical image viewers

software operating system
&Ampere
hardware
availability
&Ampere
cost
image formats
supported

audience
(or software description)
e-mail contact
(or user guide)
program image format open to image requests? image archive open? statement of purpose e-mail contact







Faulkes Telescope Project

global network of 8 telescopes

yes,
with teacher registration


astronomy image processing curriculum activities

*** = especially recommended

curriculum Program image format supported number of activities availability
Astroart FITS 3 free 3 tutorial activities
Astronomy Village TIFF

[email protected]
Automated Telescope Facility (ATF)
University of Iowa
FITS, GIF 10 free download
Eu-Hou ***
FITS more than 20 free

Faulkes Telescope ***
FITS more than 20 free

Hands On Universe ***
FITS more than 20 free

Hubble Space Telescope FITS archive

getting started with Hubble image processing
MicroObservatory



Study of Exoplanets
Remote Access Astronomy Project (RAAP)
UC-Santa Barbara


active astronomy citizen science projects
(last updated April 2019)


New Evidence Of How And When The Milky Way Came Together

New research provides the best evidence to date into the timing of how our early Milky Way came together, including the merger with a key satellite galaxy.

Using relatively new methods in astronomy, the researchers were able to identify the most precise ages currently possible for a sample of about a hundred red giant stars in the galaxy.

With this and other data, the researchers were able to show what was happening when the Milky Way merged with an orbiting satellite galaxy, known as Gaia-Enceladus, about 10 billion years ago.

Their results were published today (May 17, 2021) in the journal Nature Astronomy.

"Our evidence suggests that when the merger occurred, the Milky Way had already formed a large population of its own stars," said Fiorenzo Vincenzo, co-author of the study and a fellow in The Ohio State University's Center for Cosmology and Astroparticle Physics.

Many of those "homemade" stars ended up in the thick disc in the middle of the galaxy, while most that were captured from Gaia-Enceladus are in the outer halo of the galaxy.

"The merging event with Gaia-Enceladus is thought to be one of the most important in the Milky Way's history, shaping how we observe it today," said Josefina Montalban, with the School of Physics and Astronomy at the University of Birmingham in the U.K., who led the project.

By calculating the age of the stars, the researchers were able to determine, for the first time, that the stars captured from Gaia-Enceladus have similar or slightly younger ages compared to the majority of stars that were born inside the Milky Way.

A violent merger between two galaxies can't help but shake things up, Vincenzo said. Results showed that the merger changed the orbits of the stars already in the galaxy, making them more eccentric.

Vincenzo compared the stars' movements to a dance, where the stars from the former Gaia-Enceladus move differently than those born within the Milky Way. The stars even "dress" differently, Vincenzo said, with stars from outside showing different chemical compositions from those born inside the Milky Way.

The researchers used several different approaches and data sources to conduct their study.

One way the researchers were able to get such precise ages of the stars was through the use of asteroseismology, a relatively new field that probes the internal structure of stars.

Asteroseismologists study oscillations in stars, which are sound waves that ripple through their interiors, said Mathieu Vrard, a postdoctoral research associate in Ohio State's Department of Astronomy.

"That allows us to get very precise ages for the stars, which are important in determining the chronology of when events happened in the early Milky Way," Vrard said.

The study also used a spectroscopic survey, called APOGEE, which provides the chemical composition of stars - another aid in determining their ages.

"We have shown the great potential of asteroseismology, in combination with spectroscopy, to age-date individual stars," Montalban said.

This study is just the first step, according to the researchers.

"We now intend to apply this approach to larger samples of stars, and to include even more subtle features of the frequency spectra," Vincenzo said.

"This will eventually lead to a much sharper view of the Milky Way's assembly history and evolution, creating a timeline of how our galaxy developed."


Schau das Video: Diese geometrische Struktur rollt bergauf (Oktober 2021).