> > > > Hardwareluxx Inside: GPU-Cluster in Bielefeld

Hardwareluxx Inside: GPU-Cluster in Bielefeld

DruckenE-Mail
Erstellt am: von

Seite 2: Verarbeitung der Daten

Nachdem die Daten nun sozusagen erzeugt worden sind, müssen sie verarbeitet werden. Richard C. Brower von der Universität Boston richtet seine Arbeit genau in diese Richtung. Es geht darum die Daten entsprechend aufzuarbeiten, die richtigen Algorithmen zu finden und diesen dann möglichst effizient auf der Hardware anzuwenden. GPUs öffnen einen Flaschenhals für parallele Berechnungen, bereits bestehende Algorithmen können recht einfach darauf angepasst werden. Erkannt wurde dies 2005-2006 durch eine Forschergruppe, NVIDIA erkannte das Potenzial ebenfalls recht schnell und setze die CUDA-Schnittstelle auf.

Doch nicht nur die Anzahl der Kerne ist ein wichtiger Punkt für die Rechenleistung von GPUs, sondern auch die Anbindung von Speicher und Cache. Das Verhältnis zwischen Speicher und Rechenleistung ist ebenfalls entscheidend. Ein Xeon X5680 erreicht eine Rechenleistung von 160 GFlops bei einer Speicherbandbreite von 32 GB/Sek. Bereits die GeForce GTX 480 erreicht 1345 GFlops bei einer Speicherbandbreite von 177,4 GB/Sek.

gpu-cluster-bielefeld-9-rs

Auf Software-Seite geschehen ebenfalls Optimierungen bzw. eine Aufarbeitung der Daten. Über spezielle Algorithmen wird bei der Multiplikation von komplexen Zahlen in Matrizen das Datenaufkommen optimiert und damit die Effizient gesteigert. Bei modernen GPUs wird immer die theoretischen Rechenleistung von Single- und Double-Precision angegeben. Doch nicht immer wird eine doppelte Genauigkeit während der Berechnung benötigt, das Ergebnis aber sollte wieder so genau wie möglich sein. Auch hier werden die Daten im Vorfeld bearbeitet und im sogenannten „Double-Half-“Mode verarbeitet.

GPU-Computing: Heute und in der Zukunft

Derzeit arbeiten in drei der Top fünf Supercomputer NVIDIA GPUs. Der Tianhe-1A kommt auf 2,5 PFlops beim Einsatz von 7168 Tesla-GPUs und liegt damit auf Platz zwei. Auf Platz vier befindet sich der Nebulae mit 1,2 PFlops mit 4650 Tesla-GPUs. Direkt darauf folgt Tsumbame 2.0 auf Platz fünf mit 1,194 PFlops und 4224 Telsa-GPUs. Für 2013 plant man den Titan in Oak Ridge fertig zu stellen. Er soll auf eine Rechenleistung von 20 PFlops kommen. 18.000 Tesla-GPUs der nächsten Generation sollen dort zum Einsatz kommen.

gpu-cluster-bielefeld-10-rs

Die Herausforderungen sind groß. Nach heutiger Technik würde ein Exaflop-Supercomputer eine Energie von 100 MW verbrauchen, was dem Verbrauch einer Großstadt entsprechen würde. Performance/Watt ist also die große Herausforderung für die Zukunft und damit auch der Maßstab für die zukünftige Entwicklung. Es geht dabei aber nicht nur um die reine Rechenleistung über mehr und mehr Kerne, sondern es muss an anderer Stelle angegriffen werden. Das Stichwort heißt hier Preemtion- und Virtual-Memory-Funktionen. NVIDIA spricht von frei konfigurierbarem Speicher. Dabei entscheidet der Anwender oder Programmierer, wie sich der Speicher aufteilen soll. In der Fermi-Architektur hat man bereits die Wahl entweder 16 kB L1-Cache und 48 kB shared-Memory oder 48 kB L1-Cache und 48 kB shared-Memory zu verwendet. Diese harte Grenzen sollen zukünftig aufgeweicht werden - ob schon in der nächsten Generation lies NVIDIA offen.

gpu-cluster-bielefeld-11-rs

Wie eine zukünftige Cache- und Speicher-Anordnung und Hierarchie aussehen könnte, zeigte NVIDIA auch gleich. An einem Rechenbeispiel soll deutlich werden, warum eine effektive Datenverarbeitung und weniger das Computing selbst immer wichtiger wird. Die Berechnung eines 64 Bit Fließkomma Multiplikation (893500, 288914668 x 43,90230564772498) ist um den Faktor 4,7 weniger aufwendig als das Verschieben von drei 64 Bit Zahlen über eine Strecke von 20 mm auf einem Die. Dies wohlgemerkt in der 40-nm-Fertigung. In 10 nm wäre es sogar der Faktor 17. Damit nimmt NVIDIA auch schon die Bedeutung dieses Umstandes in der 28-nm-Fertigung vorweg.

PCI-Express 2.0 ist eine aktuelle Limitierung der GPU-Compute-Systeme. Das ist natürlich auch NVIDIA bewusst und so will man in der kommenden Generation auch auf den schnelleren Standard PCI-Express 3.0 wechseln. Dies ist allerdings keine Überraschung, AMD hat den Wechsel mit "Southern Island" schon vollzogen und für NVIDIA wurde dieser Schritt ohnehin erwartet.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 5

Tags

es liegen noch keine Tags vor.

Kommentare (23)

#14
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Don;18297598
Bei den GeForce-Karten geht es, wenn ich das richtig verstanden habe, darum, dass hier bestimmte Berechnungen gemacht werden, die ohnehin mehrfach ausgeführt werden und deren Richtigkeit man auch nicht prüfen kann. Wenn du etwas simulierst, das Ergebnis aber nicht kennst, wie willst du das verifizieren? Oftmals geht man also her, macht die Berechnung mehrfach und nimmt z.B. einen Mittelwert davon. Dazu sind diese Karten geradezu prädestiniert.

Ich hoffe ich rede nicht allzu viel Blödsinn, aber das war schon etwas komplizierter wenn einem das ein theoretischer Physiker erzählt ;)


Ich dachte die rechnen das Ergebnis nochmal gegen,mit den Teslaclustern zur Verifizierung.

So hatte ich das erst verstanden:)

Zugegeben das würde dann aber ja sinnlosen doppelten Rechenaufwand bedeuten,da man die ganzen Werte,ja gleich durch die Teslas hätte drücken können,ohne Gefahr zu laufen das das Endergebnis nicht stimmt

Trotzdem ein schönes Maschinchen was sie da oben in Bielefeld stehen haben
#15
customavatars/avatar153094_1.gif
Registriert seit: 08.04.2011
Ruhrgebiet
Bootsmann
Beiträge: 624
So muss Hardware aussehen. Aber da sind ja noch Plätze in der Racks frei... ;)
#16
customavatars/avatar128299_1.gif
Registriert seit: 29.01.2010

Fregattenkapitän
Beiträge: 2626
Ich hab das so gelesen, dass auf den Geforce ausprobiert wird. Also etwas gerechnet wird wovon man nicht weiss, ob es ein Ergebnis gibt. Evt. verläuft sich eine Berechnung ja und wenn die GF schon verlaufen braucht man die "langsameren" Teslas ja nicht nutzen. Oder die GF rechnen alles in SP und die Teslas wenn das Eregnis ok ist nochmal in DP :)
#17
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Jo die überprüfen mit den Teslas die vorigen Ergebnisse. ;)

Ach was wären wir ohne Physiker? Keine Atombomben und kein Internet... :D

Haben die eigentlich aus was zum Thema Stromrechnung bzw Verbrauch gesagt? Ich meine wenn die Uni schon auf 192 günstige GTX 580 3 GB zurück greifen muss, haben die bestimmt nicht viel Geld für Strom... :D
#18
customavatars/avatar128299_1.gif
Registriert seit: 29.01.2010

Fregattenkapitän
Beiträge: 2626
"...kommt das Cluster auf einen Verbrauch von etwa 140 kW."
Strom dürften die zwar Sonderkonditionen haben aber günstig wirds sicher nicht.
#19
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29104
Einen Anschaffungspreis hat man mir nicht genannt. Bei Volllast auf allen GPUs liegt der Verbrauch bei 140 kW. Innerhalb von drei Jahren wird soviel Strom verbraucht wie das gesamte System gekostet hat.
#20
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Don;18298548
Einen Anschaffungspreis hat man mir nicht genannt. Bei Volllast auf allen GPUs liegt der Verbrauch bei 140 kW. Innerhalb von drei Jahren wird soviel Strom verbraucht wie das gesamte System gekostet hat.


Na wer die ungefähren Strompreise im Kopf hat,kann sich jetzt ausmalen,was das Maschinchen gekostet hat in der Anschaffung,wenn es täglich und davon ist wohl auszugehen im Full Load arbeitet:p
#21
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Danke für die Info, das ist schon eine Hausnummer zum mal die ja im gewissen Sinne mit der Forschung nichts verdienen. Aber interessant Bericht, auch wenn ich nicht im Raum mit den Rechnern gewesen sein möchte, wenn ich das Video so höre... :D[COLOR="red"]

---------- Post added at 12:13 ---------- Previous post was at 12:11 ----------

[/COLOR]Scully, die bezahlen mit Garantie den Industrie-strompreis und der ist weit billiger als unserer. ;) In Deutschland zahlt nämlich nicht der Hauptverbraucher wirklich den Strom...
#22
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Mick_Foley;18298587

Scully, die bezahlen mit Garantie den Industrie-strompreis und der ist weit billiger als unserer. ;) ...


Abweichungen im 20% Bereich sind denke ich vertretbar,um eine Vorstellung von den Anschaffungskosten zu haben,darum auch "ungefähren Strompreise":d

Was jetzt Bielefeld genau bezahlt,müsste man mal recherchieren,dann könnte man sie auf ihre Aussage "3 Jahre equivalent zum Anschaffungspreis" festnageln:asthanos:
#23
customavatars/avatar112369_1.gif
Registriert seit: 21.04.2009
hinterm Mond
Kapitän zur See
Beiträge: 3667
Schöner Artikel. Gefällt mir.

Habe mal eben bissl gerechnet. Ich komme auf 21€/Stunde (bei 15cent/KWh) ... sind auf 3 Jahre etwa 550000€ ... Schnäppchen. :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]