1. Hardwareluxx
  2. >
  3. News
  4. >
  5. Allgemein
  6. >
  7. Wirtschaft
  8. >
  9. Die Compute-Logistik hinter dem ersten Foto eines Schwarzen Lochs

Die Compute-Logistik hinter dem ersten Foto eines Schwarzen Lochs

Veröffentlicht am: von

schwarzes-loch2Die Enthüllung eines ersten Fotos eines Schwarzen Loches ist nach dem Nachweis der Gravitationswellen sicherlich eine der größten wissenschaftlichen Leistungen der vergangenen Jahre. Nun wollen und können wir uns nicht mit den wissenschaftlichen Erkenntnissen und weiteren Implikationen als solches auseinandersetzen, haben uns aber einmal angeschaut, welcher logistische Aufwand für die Verarbeitung all der Daten getrieben wurde, bis ein solch einfach aussehendes Foto möglich wurde.

Zunächst einmal aber etwas Hintergrund: Mit Hilfe des Event Horizon Telescope wurde das Supermassive Schwarze Loch im Kern der Galaxie Messier 87 aufgenommen. Das bisher nur als M87 bezeichnete Schwarze Loch soll noch einen besser greifbaren Namen bekommen, ist 55 Millionen Lichtjahre von der Erde entfernt und besitzt in etwa 6,5 Milliarden Sonnenmassen. Der Schwarzschildradius dieses Schwarzen Loches beträgt etwa 20 Milliarden Kilometer. Trotz dieser gigantischen Größe ist es gar nicht so einfach, ein Foto des Objektes zu machen, denn dies wäre vergleichbar damit von Berlin aus ein Foto eines Sandkorns zu machen, welches in New York liegt.

Erste direkte Aufnahme eines Schwarzen Lochs

Um die Auflösung zu erhöhen, wird für das Event Horizon Telescope nicht nur ein Teleskop verwendet, sondern ein Array aus mehreren Teleskopen. Dies wären:

  • NOEMA (Northern Extended Millimeter Array), Frankreich
  • IRAM, Spanien
  • Greenland Telescope Project, Grönland
  • ALMA (Atacama Large Millimeter/submillimeter Array), Chile
  • LMT (Large Millimeter Telescope Alfonso Serrano), Mexiko
  • SMT (Submillimeter Telescope), USA
  • KPNO (Kitt Peak National Observatory), USA
  • CARMA (Combined Array for Research in Millimeter-wave Astronomy), USA
  • CSO (Caltech Submillimeter Observatory), USA
  • SPT (South Pole Telescope), Antarktis

All diese Teleskope mussten über den gleichen Zeitraum ihre Aufnahmen machen und dazu musste an allen Standorten das Wetter mitspielen. Alleine diese Voraussetzung zeigt schon recht gut, wie komplex die Aufgabe war.

Alle Teleskope des Event Horizon Telescope

Nun aber zum technischen Teil: Jedes der Teleskope war mit einem sogenannten Mark6-Rekorder ausgestattet. Auf diesem wurden die Daten aus dem sogenannten ROACH Digital Backend (RDBE) mit 16 GBit/s geschrieben. Das RDBE sitzt am Teleskop selbst und ist an die entsprechenden Sensoren angeschlossen.

Der Mark6-Rekorder wurde für den Transport der Daten verwendet. In einem Mark6-Rekorder befinden sich 32 Festplatten, die in vier Modulen zu jeweils acht Festplatten aufgeteilt sind. Da manche Teleskope selbst aber schon ein Array aus mehreren Antennen sind und es zudem eine gewisse Redundanz in den Daten geben sollte, wurde an jedem Standort mit mindestens 64 GBit/s aufgezeichnet und auf jeweils vier Mark6-Rekorder geschrieben. Grob überschlagen sprechen wir also von mindestens 1.280 Festplatten unbekannter Kapazität, die zusammengetragen wurden. 

Bei 64 GBit/s und einer Beobachtungszeit von fünf Tagen (in denen aber nicht an den vollen 24 Stunden eine Beobachtung stattfinden konnte, weil aufgrund der Erddrehung nicht immer alle Teleskope das Ziel ins Visier nehmen konnten), ergibt sich eine gewaltige Datenmenge, die verarbeitet werden musste. Gehen wir von grob zwölf Stunden Beobachtungszeit pro Standort aus und nehmen 64 GBit/s als Datenrate an, kommen wir auf eine Datenmenge von 1.728.000 GB oder rund 1,7 PB.

Update: Inzwischen ist die Datenmenge bekannt, die in der ersten Kampagne des Event Horizon Telescope gesammelt wurde. Insgesamt wurden 5 PB an Daten an den verschiedenen Standorten zusammengetragen.

Mark5-Datenrekorder

Die Mark6-Rekorder wurden per Flugzeug und Schiff ins Max Planck Institut in Bonn und zum MIT-Haystack Observatory in Westford, Massachusetts, gebracht, um analysiert zu werden. Im Falle des South Pole Telescope musste mehrere Monate gewartet werden, bis ein Schiff die Mark6-Rekorder von der Antarktis abholen konnte. An den erwähnten Verarbeitungsstandorten wurden die Daten mittels eines DiFX-Korrelators analysiert und verarbeitet. Im Falle des Max Planck Institut findet dies auf folgender Hardware statt:

  • 68 Compute Nodes: Jeder ausgestattet mit zwei Prozessoren zu wiederum jeweils 20 CPU-Kernen
  • 1.175 TB an Festplattenspeicher
  • 56 Gbps InfiniBand Interconnect
  • 48 TB Festplattenplatz für die korrelierten Daten
  • 40 TB Backup-Festplattenplatz
  • 6 Anbindungspunkte für die Mark6-Rekorder (15 weitere für die älteren Mark5-Rekorde
  • 1 GBit/s Anbindung an das Internet

Soweit die technischen Daten zur Hardware, die verwendet wurde. Unklar ist, welche Prozessoren genau zum Einsatz kommen und wie lange es dauert, bestimmte Berechnungen im Hinblick auf das erste Bild eines Schwarzen Loches zu erhalten.

Die Angaben zur Datenaufzeichnung und zur Serverinfrastruktur, die am Ende die Verarbeitung der Daten vorgenommen hat, zeigen aber sicherlich recht deutlich, welcher enorme Aufwand hier betrieben wurde. Neben dem Schwarzen Loch in Messier 87 hat das Event Horizon Telescope noch weitere Schwarze Löcher ins Visier genommen. Die Datenauswertung zu diesen Objekten läuft aber noch. 

Aufgrund der Masse von M87 und der relativ geringen Bewegung des Objekts waren die Daten hier noch recht einfach auszuwerten. Aus dem enormen Datensatz wird es also sicherlich noch zahlreiche weitere Erkenntnisse geben.

Social Links

Das könnte Sie auch interessieren:

  • Kurios und besorgniserregend: American-Megatrands-Sticker in High-End-Switches

    Logo von IMAGES/STORIES/2017/AMERICAN-MEGATRANDS

    In den USA ist man seit einigen Jahren und vor allem nach den Veröffentlichungen von Edward Snowden sehr bedacht darauf, eine sichere Lieferkette innerhalb seiner IT-Infrastruktur gewährleisten zu können. Dass die eigenen Geheimdienste allerdings ein großer Bestandteil dessen sind, dass... [mehr]

  • Hack-Back erfolgt, aber nicht erfolgreich: NVIDIA von Ransomware betroffen (3....

    Logo von IMAGES/STORIES/2017/NVIDIA

    Offenbar sind einige Systeme bei NVIDIA von einer Ransomware angegriffen und Daten entwendet worden. Noch ist nicht ganz klar, wie genau die Angreifer auf interne Systeme von NVIDIA gelangen konnten. Ransomware kann auf dem einfachsten Wege durch eine simple Fishing-Mail mit verseuchtem Anfang... [mehr]

  • Ethereum: Gesamthashrate mit starkem Rückgang

    Logo von IMAGES/STORIES/2017/ETHEREUM

    Insbesondere der Kryptowährung Ethereum und dessen Minern wurde in der Vergangenheit immer wieder nachgesagt, verantwortlich für die schlechte Verfügbarkeit von Grafikkarten zu sein. Schaut man sich aktuell bei eBay-Kleinanzeigen um, tauchen dort immer mehr Anzeigen mit Mining-Rigs auf. Zudem... [mehr]

  • Der Hack kann für NVIDIA noch richtig gefährlich werden

    Logo von IMAGES/STORIES/2017/NVIDIA

    Bereits vor einigen Tagen wurde bekannt, dass eine Hackergruppe einen Datensatz mit 1 TB aus NVIDIAs internen Servern herausgetragen hat. Inzwischen sind einige der Daten veröffentlicht worden, auch weil NVIDIA den teilweise abstrusen Forderungen der Gruppe nicht nachgekommen ist. So fordern die... [mehr]

  • Trotz gefallener Preise: Bessere Verfügbarkeit bei Grafikkarten

    Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

    Auch wenn die Halbleiter-Krise weiterhin anhalten soll, gibt es nun einen ersten Lichtblick. Wie die Kollegen der Webseite 3DCenter festgestellt haben, fallen die Grafikkartenpreise aktuell leicht. Die Kosten sind zwar weiterhin auf einem hohen Niveau, jedoch ist eine Tendenz erkennbar. Als Grund... [mehr]

  • Super Mario als Fruchtgummi: Nintendo und Haribo schließen Kooperation

    Logo von IMAGES/STORIES/2017/HARIBO

    Nachdem Nintendo am Dienstagabend während der E3 2021 seine kommenden Spiele-Highlights für die nächsten Monate präsentierte und unter anderem neue Spielsszenen zum nächsten Zelda-Abenteuer zeigte, oder einen neuen Ableger der klassischen Mario-Party-Reihe ankündigte, war man nun für... [mehr]