> > > > GTC 2014: Fire and Ice - Overclocking und Undervolting im professionellen Bereich

GTC 2014: Fire and Ice - Overclocking und Undervolting im professionellen Bereich

Veröffentlicht am: von

gtc2014Dass man sich selbst im professionellen Bereich mit dem Overclocking und Undervolting von GPUs beschäftigt, dürfte den wenigsten bekannt sein. Für eine Steigerung der Effizienz sind beide Ansätze aber durchaus auch für Server bzw. in diesem Beispiel für GPUs, die für das Computing verwendet werden, interessant. Ausgangspunkt soll das ohnehin schon gute Performance/Watt-Verhältnis aktueller GPUs aus dem Hause NVIDIA sein. Sprecher auf der GTC 2014 zu diesem Thema war Danny Price Postdoctoral Fellow am Harvard-Smithsonian Center for Astrophysics.

Am Harvard-Smithsonian Center for Astrophysics beschäftigt man sich mit der Radio-Interferometrie. Derzeit im Aufbau befindet sich das Square Kilometer Array. Dabei handelt es sich um eine Methode mehrere kleine Teleskope zusammenzufassen, welche eine Gesamt-Sammelfläche von ungefähr einem Quadratkilometer aufweisen werden. Extrem komplex sind die Berechnungen eines solchen Arrays, obwohl die eigentlichen mathematischen Zusammenhänge für moderne CPUs und GPUs relativ simple sind, da es sich nur um Multiplikationen von Zahlen handelt. Allerdings handelt es sich dabei um extrem viele Multiplikationen, die parallelisiert werden können. Üblicherweise werden die dazu notwendigen FPGAs speziell für diesen Einsatzzweck entwickelt. Bis ein finales System fertiggestellt ist, kann aber gut und gerne auch ein Jahrzehnt vergehen - ein in der Astrophysik kein unüblicher Zeitraum bei der Entwicklung von Hardware. Laut Danny Price verwendet man aber heute bereits Server mit eigenen FPGAs und NVIDIA-Grafikkarten, die in weniger als zwölf Monaten zusammengestellt und einsatzbereit sind. Bereits verwendet werden solche Korrelator-Server in Antennen-Systemen wie LEDA, PAPER und MWA.

Um die Effizienz dieser Systeme weiter zu steigern, experimentiert man mit dem anfänglich angesprochenen Overclocking und Undervolting. Dazu hat man sich ein System bestehend aus einem Intel Core i7-2600 und einer NVIDIA Tesla K20m geschnappt und die Grafikkarte mit einer Wasserkühlung bestückt. In der Folge wurden dann zahlreiche Messungen mit unterschiedlichem Takt und Spannung durchgeführt. Letztendlich kommt man zu einem wenig überraschenden Ergebnis, das in der Folge aber vielleicht Auswirkungen auf zukünftige Server haben könnte. Niedrige Temperaturen führen zu einer niedrigeren Leistungsaufnahme. Ein Overclocking ohne eine Erhöhung der Spannung sorgt für ein besseres Performance/Watt-Verhältnis - schafft man dies auch noch mit etwas Undervolting werden die Ergebnisse umso besser.

Zwar sind Wasserkühlungen für Server nicht unüblich, wohl aber die Anpassung der Hardware in Sachen Takt und Spannung. Eine gut abgestimmte Kombination aus Overclocking und Undervolting führte in den Tests zu einer deutlichen Erhöhung des Performance/Watt-Verhältnisses. Im Falle der Tesla K20m wurde dieses Verhältnis von 12,96 auf 18,34 GFLOPs pro Watt gesteigert - dies entspricht einer Steigerung von 41 Prozent. Für die aktuelle "Kepler"-Generation dürfte es aber kaum noch praktische Umsetzungen in diesem Bereich geben, da "Maxwell" ein Performance/Watt-Verhältnis von 16 GFLOPs pro Watt liefert, ohne das irgendwelche Modifikationen vorgenommen werden müssen. Somit wird man im professionellen Bereich zunächst einmal abwarten, was die zukünftigen Quadro- und Tesla-Karten zu leisten im Stande sind und sich dann noch einmal mit dem Overclocking und Undervolting beschäftigen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (4)

#1
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33287
Der Ansatz ist durchaus interessant, wo doch idR viel viel Luft in Sachen Taktraten und wohl auch in Sachen Spannungen für diese Taktraten vorhanden ist...
Das größte Problem bei der ganzen Sache ist natürlich die Stabilität. Wenn der Hersteller diese Verantwortung nun auf den Kunden abtritt, nämlich in dem der Kunde die Taktraten steigern und die Spannung senken kann, wer garantiert dann für die Stabilität?
Im aktuellen Fall ist es ja eher so, das die Taktraten per default als stabil angesehen werden. Sicher sind oftmals 10% oder mehr Takt bei gleicher Spannung bzw. teils auch niedriger Spannung drin. Selbst im Prof. Umfeld. Nur gibts keinerlei Garantien für das Ganze. Dürfte durchaus schwer werden hier den richtigen Mittelweg zu finden... Denn Berechnungen, die Stunden, Tage oder gar Wochen am Stück Volllast laufen sind ne ganz andere Hausnummer als mal eben so ne Gamer GPU um ein paar MHz zu steigern, wo diese doch idR nur wenige Stunden am Stück belastet wird -> und davon nichtmal gleichbleibende Dauervolllast (je nach Szene) anliegt.

Mit so Geschichten wie dem Turbo und den Boost Spielereien wie es heute schon im CPU und GPU Umfeld gibt, haben die Hersteller ja schon einen gewissen Spielraum eingeräumt. -> Ich denke, derartiges ist der nächste Schritt bzw. die konsequente Weiterentwicklung dieses Ansatzes.
Unterm Strich ist das aber immernoch eine Frage von Güte der Hardware (nicht jede GPU ist gleich) und von der Kühlung. Aufwendige Wasserkühlungen in Servern sind nicht unbedingt die Regel. Auch die Kosten sind nicht zu vernachlässigen...
#2
Registriert seit: 17.12.2013

Obergefreiter
Beiträge: 94
Einen spürbaren Nutzen können Supercomputer daraus ziehen (hierzulande kein großes Thema). Die Einsparungen beim Energiebedarf liegen dort sehr wahrscheinlich im Megawatt Bereich. Damit kann man schon das eine oder andere AKW entlasten oder sich das grüne Gewissen schön reden ^^
#3
Registriert seit: 02.07.2013

Banned
Beiträge: 888
Größtes Problem hier: Jeder Chip ist anders. Ob es förderlich ist, in einem Cluster die Chips asyncron laufen zu lassen, sei mal dahingestellt. Problematisch ist aber eher das ausloten (und zwar wirklich rockstable), das wäre recht arbeitsintensiv (also fraglich ob sich das dann noch lohnt??).
#4
Registriert seit: 13.09.2008
Oben uff'm Speischer
Kapitän zur See
Beiträge: 3113
Naja, wärend die Herren Physiker auf die Ergebnisse ihrer Teleskop-Studie warten (was durchaus Jahre an Datensammlung benötigen kann), haben sie dann vielleicht viel Freizeit zum Benchen. :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]