> > > > GTC 2014: Fire and Ice - Overclocking und Undervolting im professionellen Bereich

GTC 2014: Fire and Ice - Overclocking und Undervolting im professionellen Bereich

DruckenE-Mail
Erstellt am: von

gtc2014Dass man sich selbst im professionellen Bereich mit dem Overclocking und Undervolting von GPUs beschäftigt, dürfte den wenigsten bekannt sein. Für eine Steigerung der Effizienz sind beide Ansätze aber durchaus auch für Server bzw. in diesem Beispiel für GPUs, die für das Computing verwendet werden, interessant. Ausgangspunkt soll das ohnehin schon gute Performance/Watt-Verhältnis aktueller GPUs aus dem Hause NVIDIA sein. Sprecher auf der GTC 2014 zu diesem Thema war Danny Price Postdoctoral Fellow am Harvard-Smithsonian Center for Astrophysics.

Am Harvard-Smithsonian Center for Astrophysics beschäftigt man sich mit der Radio-Interferometrie. Derzeit im Aufbau befindet sich das Square Kilometer Array. Dabei handelt es sich um eine Methode mehrere kleine Teleskope zusammenzufassen, welche eine Gesamt-Sammelfläche von ungefähr einem Quadratkilometer aufweisen werden. Extrem komplex sind die Berechnungen eines solchen Arrays, obwohl die eigentlichen mathematischen Zusammenhänge für moderne CPUs und GPUs relativ simple sind, da es sich nur um Multiplikationen von Zahlen handelt. Allerdings handelt es sich dabei um extrem viele Multiplikationen, die parallelisiert werden können. Üblicherweise werden die dazu notwendigen FPGAs speziell für diesen Einsatzzweck entwickelt. Bis ein finales System fertiggestellt ist, kann aber gut und gerne auch ein Jahrzehnt vergehen - ein in der Astrophysik kein unüblicher Zeitraum bei der Entwicklung von Hardware. Laut Danny Price verwendet man aber heute bereits Server mit eigenen FPGAs und NVIDIA-Grafikkarten, die in weniger als zwölf Monaten zusammengestellt und einsatzbereit sind. Bereits verwendet werden solche Korrelator-Server in Antennen-Systemen wie LEDA, PAPER und MWA.

Um die Effizienz dieser Systeme weiter zu steigern, experimentiert man mit dem anfänglich angesprochenen Overclocking und Undervolting. Dazu hat man sich ein System bestehend aus einem Intel Core i7-2600 und einer NVIDIA Tesla K20m geschnappt und die Grafikkarte mit einer Wasserkühlung bestückt. In der Folge wurden dann zahlreiche Messungen mit unterschiedlichem Takt und Spannung durchgeführt. Letztendlich kommt man zu einem wenig überraschenden Ergebnis, das in der Folge aber vielleicht Auswirkungen auf zukünftige Server haben könnte. Niedrige Temperaturen führen zu einer niedrigeren Leistungsaufnahme. Ein Overclocking ohne eine Erhöhung der Spannung sorgt für ein besseres Performance/Watt-Verhältnis - schafft man dies auch noch mit etwas Undervolting werden die Ergebnisse umso besser.

Zwar sind Wasserkühlungen für Server nicht unüblich, wohl aber die Anpassung der Hardware in Sachen Takt und Spannung. Eine gut abgestimmte Kombination aus Overclocking und Undervolting führte in den Tests zu einer deutlichen Erhöhung des Performance/Watt-Verhältnisses. Im Falle der Tesla K20m wurde dieses Verhältnis von 12,96 auf 18,34 GFLOPs pro Watt gesteigert - dies entspricht einer Steigerung von 41 Prozent. Für die aktuelle "Kepler"-Generation dürfte es aber kaum noch praktische Umsetzungen in diesem Bereich geben, da "Maxwell" ein Performance/Watt-Verhältnis von 16 GFLOPs pro Watt liefert, ohne das irgendwelche Modifikationen vorgenommen werden müssen. Somit wird man im professionellen Bereich zunächst einmal abwarten, was die zukünftigen Quadro- und Tesla-Karten zu leisten im Stande sind und sich dann noch einmal mit dem Overclocking und Undervolting beschäftigen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (4)

#1
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31959
Der Ansatz ist durchaus interessant, wo doch idR viel viel Luft in Sachen Taktraten und wohl auch in Sachen Spannungen für diese Taktraten vorhanden ist...
Das größte Problem bei der ganzen Sache ist natürlich die Stabilität. Wenn der Hersteller diese Verantwortung nun auf den Kunden abtritt, nämlich in dem der Kunde die Taktraten steigern und die Spannung senken kann, wer garantiert dann für die Stabilität?
Im aktuellen Fall ist es ja eher so, das die Taktraten per default als stabil angesehen werden. Sicher sind oftmals 10% oder mehr Takt bei gleicher Spannung bzw. teils auch niedriger Spannung drin. Selbst im Prof. Umfeld. Nur gibts keinerlei Garantien für das Ganze. Dürfte durchaus schwer werden hier den richtigen Mittelweg zu finden... Denn Berechnungen, die Stunden, Tage oder gar Wochen am Stück Volllast laufen sind ne ganz andere Hausnummer als mal eben so ne Gamer GPU um ein paar MHz zu steigern, wo diese doch idR nur wenige Stunden am Stück belastet wird -> und davon nichtmal gleichbleibende Dauervolllast (je nach Szene) anliegt.

Mit so Geschichten wie dem Turbo und den Boost Spielereien wie es heute schon im CPU und GPU Umfeld gibt, haben die Hersteller ja schon einen gewissen Spielraum eingeräumt. -> Ich denke, derartiges ist der nächste Schritt bzw. die konsequente Weiterentwicklung dieses Ansatzes.
Unterm Strich ist das aber immernoch eine Frage von Güte der Hardware (nicht jede GPU ist gleich) und von der Kühlung. Aufwendige Wasserkühlungen in Servern sind nicht unbedingt die Regel. Auch die Kosten sind nicht zu vernachlässigen...
#2
Registriert seit: 17.12.2013

Obergefreiter
Beiträge: 94
Einen spürbaren Nutzen können Supercomputer daraus ziehen (hierzulande kein großes Thema). Die Einsparungen beim Energiebedarf liegen dort sehr wahrscheinlich im Megawatt Bereich. Damit kann man schon das eine oder andere AKW entlasten oder sich das grüne Gewissen schön reden ^^
#3
Registriert seit: 02.07.2013

Banned
Beiträge: 888
Größtes Problem hier: Jeder Chip ist anders. Ob es förderlich ist, in einem Cluster die Chips asyncron laufen zu lassen, sei mal dahingestellt. Problematisch ist aber eher das ausloten (und zwar wirklich rockstable), das wäre recht arbeitsintensiv (also fraglich ob sich das dann noch lohnt??).
#4
Registriert seit: 13.09.2008
Oben uff'm Speischer
Fregattenkapitän
Beiträge: 3048
Naja, wärend die Herren Physiker auf die Ergebnisse ihrer Teleskop-Studie warten (was durchaus Jahre an Datensammlung benötigen kann), haben sie dann vielleicht viel Freizeit zum Benchen. :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]