> > > > GTC 2014: Fire and Ice - Overclocking und Undervolting im professionellen Bereich

GTC 2014: Fire and Ice - Overclocking und Undervolting im professionellen Bereich

Veröffentlicht am: von

gtc2014Dass man sich selbst im professionellen Bereich mit dem Overclocking und Undervolting von GPUs beschäftigt, dürfte den wenigsten bekannt sein. Für eine Steigerung der Effizienz sind beide Ansätze aber durchaus auch für Server bzw. in diesem Beispiel für GPUs, die für das Computing verwendet werden, interessant. Ausgangspunkt soll das ohnehin schon gute Performance/Watt-Verhältnis aktueller GPUs aus dem Hause NVIDIA sein. Sprecher auf der GTC 2014 zu diesem Thema war Danny Price Postdoctoral Fellow am Harvard-Smithsonian Center for Astrophysics.

Am Harvard-Smithsonian Center for Astrophysics beschäftigt man sich mit der Radio-Interferometrie. Derzeit im Aufbau befindet sich das Square Kilometer Array. Dabei handelt es sich um eine Methode mehrere kleine Teleskope zusammenzufassen, welche eine Gesamt-Sammelfläche von ungefähr einem Quadratkilometer aufweisen werden. Extrem komplex sind die Berechnungen eines solchen Arrays, obwohl die eigentlichen mathematischen Zusammenhänge für moderne CPUs und GPUs relativ simple sind, da es sich nur um Multiplikationen von Zahlen handelt. Allerdings handelt es sich dabei um extrem viele Multiplikationen, die parallelisiert werden können. Üblicherweise werden die dazu notwendigen FPGAs speziell für diesen Einsatzzweck entwickelt. Bis ein finales System fertiggestellt ist, kann aber gut und gerne auch ein Jahrzehnt vergehen - ein in der Astrophysik kein unüblicher Zeitraum bei der Entwicklung von Hardware. Laut Danny Price verwendet man aber heute bereits Server mit eigenen FPGAs und NVIDIA-Grafikkarten, die in weniger als zwölf Monaten zusammengestellt und einsatzbereit sind. Bereits verwendet werden solche Korrelator-Server in Antennen-Systemen wie LEDA, PAPER und MWA.

Um die Effizienz dieser Systeme weiter zu steigern, experimentiert man mit dem anfänglich angesprochenen Overclocking und Undervolting. Dazu hat man sich ein System bestehend aus einem Intel Core i7-2600 und einer NVIDIA Tesla K20m geschnappt und die Grafikkarte mit einer Wasserkühlung bestückt. In der Folge wurden dann zahlreiche Messungen mit unterschiedlichem Takt und Spannung durchgeführt. Letztendlich kommt man zu einem wenig überraschenden Ergebnis, das in der Folge aber vielleicht Auswirkungen auf zukünftige Server haben könnte. Niedrige Temperaturen führen zu einer niedrigeren Leistungsaufnahme. Ein Overclocking ohne eine Erhöhung der Spannung sorgt für ein besseres Performance/Watt-Verhältnis - schafft man dies auch noch mit etwas Undervolting werden die Ergebnisse umso besser.

Zwar sind Wasserkühlungen für Server nicht unüblich, wohl aber die Anpassung der Hardware in Sachen Takt und Spannung. Eine gut abgestimmte Kombination aus Overclocking und Undervolting führte in den Tests zu einer deutlichen Erhöhung des Performance/Watt-Verhältnisses. Im Falle der Tesla K20m wurde dieses Verhältnis von 12,96 auf 18,34 GFLOPs pro Watt gesteigert - dies entspricht einer Steigerung von 41 Prozent. Für die aktuelle "Kepler"-Generation dürfte es aber kaum noch praktische Umsetzungen in diesem Bereich geben, da "Maxwell" ein Performance/Watt-Verhältnis von 16 GFLOPs pro Watt liefert, ohne das irgendwelche Modifikationen vorgenommen werden müssen. Somit wird man im professionellen Bereich zunächst einmal abwarten, was die zukünftigen Quadro- und Tesla-Karten zu leisten im Stande sind und sich dann noch einmal mit dem Overclocking und Undervolting beschäftigen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (4)

#1
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32995
Der Ansatz ist durchaus interessant, wo doch idR viel viel Luft in Sachen Taktraten und wohl auch in Sachen Spannungen für diese Taktraten vorhanden ist...
Das größte Problem bei der ganzen Sache ist natürlich die Stabilität. Wenn der Hersteller diese Verantwortung nun auf den Kunden abtritt, nämlich in dem der Kunde die Taktraten steigern und die Spannung senken kann, wer garantiert dann für die Stabilität?
Im aktuellen Fall ist es ja eher so, das die Taktraten per default als stabil angesehen werden. Sicher sind oftmals 10% oder mehr Takt bei gleicher Spannung bzw. teils auch niedriger Spannung drin. Selbst im Prof. Umfeld. Nur gibts keinerlei Garantien für das Ganze. Dürfte durchaus schwer werden hier den richtigen Mittelweg zu finden... Denn Berechnungen, die Stunden, Tage oder gar Wochen am Stück Volllast laufen sind ne ganz andere Hausnummer als mal eben so ne Gamer GPU um ein paar MHz zu steigern, wo diese doch idR nur wenige Stunden am Stück belastet wird -> und davon nichtmal gleichbleibende Dauervolllast (je nach Szene) anliegt.

Mit so Geschichten wie dem Turbo und den Boost Spielereien wie es heute schon im CPU und GPU Umfeld gibt, haben die Hersteller ja schon einen gewissen Spielraum eingeräumt. -> Ich denke, derartiges ist der nächste Schritt bzw. die konsequente Weiterentwicklung dieses Ansatzes.
Unterm Strich ist das aber immernoch eine Frage von Güte der Hardware (nicht jede GPU ist gleich) und von der Kühlung. Aufwendige Wasserkühlungen in Servern sind nicht unbedingt die Regel. Auch die Kosten sind nicht zu vernachlässigen...
#2
Registriert seit: 17.12.2013

Obergefreiter
Beiträge: 94
Einen spürbaren Nutzen können Supercomputer daraus ziehen (hierzulande kein großes Thema). Die Einsparungen beim Energiebedarf liegen dort sehr wahrscheinlich im Megawatt Bereich. Damit kann man schon das eine oder andere AKW entlasten oder sich das grüne Gewissen schön reden ^^
#3
Registriert seit: 02.07.2013

Banned
Beiträge: 888
Größtes Problem hier: Jeder Chip ist anders. Ob es förderlich ist, in einem Cluster die Chips asyncron laufen zu lassen, sei mal dahingestellt. Problematisch ist aber eher das ausloten (und zwar wirklich rockstable), das wäre recht arbeitsintensiv (also fraglich ob sich das dann noch lohnt??).
#4
Registriert seit: 13.09.2008
Oben uff'm Speischer
Kapitän zur See
Beiträge: 3083
Naja, wärend die Herren Physiker auf die Ergebnisse ihrer Teleskop-Studie warten (was durchaus Jahre an Datensammlung benötigen kann), haben sie dann vielleicht viel Freizeit zum Benchen. :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]