> > > > Titan-Supercomputer mit 18.688 Tesla-K20-GPUs fertiggestellt

Titan-Supercomputer mit 18.688 Tesla-K20-GPUs fertiggestellt

Veröffentlicht am: von

nvidiaAm Oak Ridge National Laboratory in Tennessee wurden der Titan, der weltweit schnellste Supercomputer fertiggestellt. Die Spitzenleistung von mehr als 20 PetaFlops  - oder 20 Billiarden Fließkomma-Operationen pro Sekunde - wird zu etwa 90 Prozent durch die 18.688 NVIDIA-Tesla-K20-GPUs erledigt. Die gleiche Anzahl an 16-Kern-Prozessoren aus dem Hause AMD (Opteron 6274) steuert die restliche Rechenpower bei. Erst kürzlich wurden weitere Details zu den Telsa-K20-Grafikkarten bekannt, die vermutlich auch erste Details auf eine eventuelle Umsetzung in den GeForce-Consumer-Bereich verraten.

Titan ist allerdings keine komplette Neuentwicklung. Es handelt sich dabei um das umgebaute Jaguar-System, dass bei gleicher Baugröße auf eine Rechenleistung von 2,3 PetaFlops kam. Titan ist zehnmal schneller und fünfmal sparsamer im Stromverbrauch als sein Vorgänger. Hätte Oak Ridge nur die CPUs des Jaguar-Systems aufgerüstet, um auf eine ähnliche Rechenleistung wie Titan zu kommen, würde es jetzt mehr als das Vierfache der aktuellen Größe belegen und mehr als 30 Megawatt verbrauchen.

Titan Supercomputer
Titan Supercomputer

Die Entwicklung von Titan begann vor drei Jahren mit der Entscheidung von Oak Ridge, den ehemals führenden Supercomputer, Jaguar, aufzurüsten. Das Upgrade beinhaltet die Tesla-K20-GPUs und den Austausch der Computing-Module, um die 200 Zellen des Systems in einen Cray-XK7-Supercomputer mit 710 Terabyte Speicher zu verwandeln. Insgesamt besteht der Titan aus 18.688 Knoten, die in den 200 Zellen untergebracht sind. Pro Knoten stehen 32 GB an Arbeitsspeicher zur Verfügung.

Titan Time-lapse from OLCF on Vimeo.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (44)

#35
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat
Also mir würde es schon zusagen, wenn man dort die Kernvorschung weiter vorran treibt. Das Energieproblem wird immer stärker. Und mit irgendwelchen popligen Eco Windparks oder Sonnenenergieparks kommt man denke ich da nicht wirklich weit
.

Simmuliert haben die Jungens u Mädels in Greifswald schon genug.Die brauchen jetzt erstmal greifbare reale Ergebnisse mit ihrem Tokamak um in der Feldforschung voran zu kommen.

War gerade erst neulich vor Ort,hochinteressant der Experimental Reaktor:)

Nur kann da imo die beste Simmulation,auch nicht die Ergebnisse liefern,wie das,was sie sich vom Reaktor selbst versprechen
#36
customavatars/avatar39931_1.gif
Registriert seit: 09.05.2006
ERZ
Flottillenadmiral
Beiträge: 4374
Glaube schon. Die Simulationen zeigen deutlich, wie ein Reaktor funktionieren wird. Damit ersparen die sich unzählige Tests und brauchen praktisch nur ein Probemodell. Warum die Atomenergie damit erforschen? Lieber an Fusion arbeiten, die setzt auch Energie frei und ist bestimmt nicht so gefährlich...
#37
customavatars/avatar178325_1.gif
Registriert seit: 11.08.2012

Flottillenadmiral
Beiträge: 4593
Dafür geb ich dir +1 :angel:
#38
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Nemesys;19852135
Glaube schon. Die Simulationen zeigen deutlich, wie ein Reaktor funktionieren wird. Damit ersparen die sich unzählige Tests und brauchen praktisch nur ein Probemodell. Warum die Atomenergie damit erforschen? Lieber an Fusion arbeiten, die setzt auch Energie frei und ist bestimmt nicht so gefährlich...


Nein eben nicht weil kein Programm derzeit in der Lage dazu ist die genauen Vorgänge des Plasmas zu berechnen.Das ist Grundlagenvorschung und kann derzeit nur am Modell geschehen nach dem Trial and Error Prinzip.So die Aussage der Wissenschaftler vor Ort.Ist eigentlich auch logisch ,denn solange man selber die Vorgänge noch nicht gänzlich versteht,hat man auch nicht alle Variablen,um daraus ein Rechenmodell zu kreieren,was per Großrechner exakte Ergebnisse liefert.

PS:im übrigen rede ich die ganze Zeit von Kernfusion wenn ich Tokamak sage;)
#39
customavatars/avatar39931_1.gif
Registriert seit: 09.05.2006
ERZ
Flottillenadmiral
Beiträge: 4374
Wir können die Geschwindigkeit von Licht messen, schaffen es aber nicht, die Fusion mit einem Computer kalkulieren zu lassen?
Eigentlich sind wir total irrwitzig. Wir bauen riesige Städte, schaffen es aber nicht, Mücken auszurotten. Wenn uns eine außerirdische Intelligenz beobachten würde, würden die bestimmt in ihren Geschichtshologrammen nachlesen, wann die diese Phase damals erreicht hatten. :haha:

Warum ist es leichter, eine Atombombe grafisch zu simulieren aber schwerer, eine Kernfusion und die dadurch erzeugte Energie zu berechnen?
#40
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Nemesys;19852571

Warum ist es leichter, eine Atombombe grafisch zu simulieren aber schwerer, eine Kernfusion und die dadurch erzeugte Energie zu berechnen?


Weil man bei der Atombombe die Vorgänge versteht und man dahingehend exakte Rechenmodelle erstellen kann. Bei der Fusion ist man z.Zt ja nichtmal in der Lage das Plasma am Leben zu erhalten über einen längeren Zeitraum,wo sollen da also bitte die Werte her kommen,die den Prozess exakt abbilden

Erstmal muss also was greifbares vorhanden sein,damit der Computer auch was exaktes liefern kann

Ist wie beim Wetter auch,wenn das Wettermodell nicht passt,rechnet sich der Großrechner zwar auch nen Ast,nur was Verwertbares wird dabei nicht entstehen
#41
customavatars/avatar39931_1.gif
Registriert seit: 09.05.2006
ERZ
Flottillenadmiral
Beiträge: 4374
Zitat scully1234;19852618

Erstmal muss also was greifbares vorhanden sein,damit der Computer auch was exaktes liefern kann


Man könnte damit beginnen, den Computer rechnen zu lassen, wie der plasmide Zustand erhalten bleibt. Vermutlich ist aber das Ergebnis, dass man für diesen Prozess ein anderes Kraftwerk benötigt.
Warum überhaupt mit Schritt 2 beginnen? Tony Stark könnte das ohne diesen Supercomputer. ;)
#42
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Hier gibts Infos zu wer mal lesen möchte

http://www.ipp.mpg.de/ippcms/de/pr/forschung/w7x/index.html
#43
customavatars/avatar133310_1.gif
Registriert seit: 19.04.2010

Oberleutnant zur See
Beiträge: 1392
Würde das ding mal gerne mit Hashcat paar min befeuern :D
Hab da noch paar ungelöste Fälle ;)
#44
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat logintw;19853470
Würde das ding mal gerne mit Hashcat paar min befeuern :D
Hab da noch paar ungelöste Fälle ;)


Wenn du noch "n paar" unglöste Euros hast,u diese los werden willst,ist da sicher was drin an Rechenzeit:)

Das rechnet der Big Boy auf einer Popobacke ab
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]