OC-Guide: Grafikkarten von AMD und NVIDIA an ihre Grenzen gebracht

Veröffentlicht am: von

ocw teaser 100 grakaOverclocking ist für viele zum Volkssport geworden, auch weil es so einfach gemacht wird und die Hersteller teilweise Automatismen entwickelt haben, die das Overclocking unterstützen sollen. Doch viele Anwender möchten auch gerne wissen was bei einem Overclocking der Grafikkarte überhaupt passiert, worauf zu achten ist und welche Tricks es dabei gibt, das ideale Ergebnis zu erreichen. Am Beispiel der aktuellen High-End-Modelle von AMD und NVIDIA wollen wir die Entwicklung und Ausarbeitung eines Overclockings einmal genauer beleuchten, denn mit einer einfachen Erhöhung von Takt und Spannung ist es heute nicht mehr getan.

Die Einführung von Boost-Mechanismen bei den Grafikkarten haben den Prozess des Overclockings verändert. Nicht mehr nur Takt und Spannung sind zu beachten, sondern weitere Faktoren spielen mit hinein und können den Nutzer bei der Findung des besten OC-Ergebnisses entweder unterstützen oder im schlimmsten Fall auch behindern. Dazu muss erst einmal erklärt werden, welche Mechanismen hinter GPU-Boost bei NVIDIA und PowerTune von AMD stecken.

Am Beispiel zweier Grafikkarten erläutern wir den OC-Prozess dann im Detail. Die Mechanismen lassen sich auch auf die kleineren Modelle von AMD und NVIDIA übertragen. Mit der Radeon R9 290X und GeForce GTX 980 haben wir uns aber die beiden schnellsten Karten geschnappt und versucht das Maximum aus den GPUs zu quetschen. Zunächst aber etwas Theorie.

AMD PowerTune

PowerTune heißt bei AMD die Technik hinter der Steuerung von Takt und Spannung bei den eigenen GPUs. Anhand bestimmter Profile werden unterschiedliche Zustände beschrieben, die wiederum Takt und Spannung festlegen. Wie auch bei den Boost-Mechanismen bei den Prozessoren sind Takt und Spannung aber längst nicht mehr die einzigen Abhängigkeiten innerhalb der Methodik. Mit den "Hawaii"-Karten führte AMD eine weitere Komponente zu PowerTune hinzu: die Temperatur. Auf Seiten der Hardware werden seither Temperatur und ein hochgerechneter Verbrauch ermittelt, sowie ein neuer VR-Controller verwendet, der seine Daten ebenfalls an die SMU-Firmware weitergibt. Aus diesen drei Datensätzen werden dann die richtigen Einstellungen ermittelt, die dann wiederum an die Hardware weitergegeben werden. Aus den entsprechenden Voreinstellungen folgen dann die Taktfrequenz, Spannung und auch Drehzahl des Lüfters.

PowerTune bei der Radeon R9 290X
PowerTune bei der Radeon R9 290X

Für die aktuelle PowerTune-Implementation verwendet AMD einen neuen Serial-VID (Spannungscontroller). Dieser kommt im Zusammenspiel mit allen neuen GPUs zum Einsatz. Besonders die Geschwindigkeit in denen Änderungen der Spannung möglich sind, haben sich dazu geführt, dass die Karten sowohl sparsamer sind, aber bei Bedarf auch mehr Leistung abrufen können. Bei den AMD-Karten erreicht der Spannungscontroller Änderungen im Bereich von 10 µs. Eine weitere wichtige Rolle spielt die Genauigkeit, mit der die Spannung eingestellt wird. Auch hier hat PowerTune in der 2. Generation einen großen Sprung gemacht und kommt inzwischen auf 6,25-mV-Schritte. Bei einer möglichen Arbeitsspannung zwischen 0 und 1,55 Volt ergeben sich hier eigentlich 248 Spannungs-Schritte, wenngleich AMD 255 mögliche Schritte angibt (vermutlich wegen der Ansteuerung über 8 Bit). Doch auch die Daten die vom Controller für PowerTune zur Verfügung stehen, sind laut AMD entscheidend. So werden die Messwerte für Strom und Spannung in 40 kHz angefragt und über eine 20 Mbps breite Datenverbindung an die SMU-Firmware übertragen. Auf einige dieser Werte hat der Nutzer über eine geeignete Overclocking-Software Zugriff, doch dazu kommen wir später.

GPU-Boost 2.0

Mit dem "Kepler"-Vollausbau in Form des GK110 auf der GeForce GTX Titan versuchte sich auch NVIDIA an einer Erweiterung des Boost-Mechanismus. Bei GPU-Boost 1.0 wird noch ein maximaler Verbrauch anhand der aktuell anspruchsvollsten Spiele gesucht. Die von der GPU erreichte Temperatur spielt hier noch keine Rolle und tritt allenfalls in Erscheinung, wenn die Shutdown-Temperatur erreicht wird, die mit 105 °C aber meist jenseits von Gut und Böse liegt. Der maximale Takt wurde also auf Basis der relativen Spannung ermittelt. Der Nachteil ist offensichtlich: GPU-Boost 1.0 konnte nicht verhindern, dass selbst bei einer eigentlich unkritischen Spannung eine zu hohe Temperatur erreicht wurde.

Mit GPU-Boost 2.0, wie er auf allen aktuellen Karten von NVIDIA angewendet wird, spielen zwei weitere Werte eine wichtige Roll: Spannung und Temperatur. Zukünftig wird die relative Spannung (Vrel) also anhand dieser beiden Parameter bestimmt. Die Abhängigkeit der einzelnen GPUs aufgrund der Fertigung und Ausbeute bleibt aber natürlich bestehen und somit bleibt es auch dabei, dass nicht jede Karte wie die andere funktioniert. NVIDIA aber gibt an, dass technisch normiert ein 3-7 Prozent höherer Boost-Takt durch das Einbeziehen der Temperatur möglich ist.

GPU Boost 2.0 bezieht die Temperatur mit ein, kann bei niedriger Temperatur also noch mehr Spannung geben als zuvor. 80 °C sind die per Default gesetzte Zieltemperatur (Ttarget). Dies kommt vor allem Nutzern von Karten zu Gute, die eine Wasserkühlung verwenden, was für die GPU niedrige Temperaturen zur Folge hat. Extremere Kühlungen, z.B. mit LN2, bieten diesen Vorteil natürlich auch.


Fertigung, Selektrierung und Auslegung durch die Hersteller

Wie für alle Halbleiter-Elemente gilt auch für GPUs: Die Hersteller lassen eine bestimmte Architektur in einer gewünschten oder aktuell möglichen Fertigung produzieren und versuchen dabei bestimmte Ziele für die Rechenleistung zu erreichen. Kommt das neue Design nach dem ersten Tape Out in die Labore, ist bereits ersichtlich, bei welcher Spannung der Chip welchen Takt verträgt. Eine gewisse Streuung ist dabei nicht zu verhindern und so gibt es gute und schlechte Chips. Hersteller wie AMD und NVIDIA haben dabei gewisse Minimum-Vorgaben, die vom Auftragsfertiger eingehalten werden müssen. Besonders gute Chips werden aussortiert und teurer an die Boardpartner wie ASUS, EVGA, Gigabyte, MSI, usw. verkauft. Wie aber lässt sich nun herausfinden, welche GPUs besonders gut sind?

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Der Endkunde selbst kann dies eigentlich nicht. Für NVIDIA-GPUs hat sich zwar ein ASIC-Rating als hilfreich erwiesen, einen allzu großen Wert sollte man aber nicht darauf legen. Ohnehin ist bei den Grafikkarten nicht die Güte des Chips alleinentscheidend, sondern die Features und Funktionen einer Grafikkarte leisten einen mindestens ebenso großen Anteil an einem guten Overclocking. Sehen AMD und NVIDIA bei ihren Referenzversionen meist 4-5 Spannungsphasen als ausreichend bemessen an, verbauen die Hersteller bis zu 14 Phasen und verwenden dabei laut eigenen Angaben auch noch hochwertigere Komponenten. Wie wichtig eine solche modifizierte Strom- und Spannungsversorgung sein kann, wird am Beispiel einer GeForce GTX 980 ersichtlich, denn hier fließen zeitweise Ströme von bis zu 600 Ampere, wenn die GPU mithilfe von LN2 gekühlt wird. Bei einer Betriebsspannung von 1,2 und mehr Volt zeigt dies recht deutlich, welche Anforderungen an die Auslegung durch den Hersteller gelegt werden. Wie beim Overclocking einer jeden Komponente spielt nach der Auswahl der richtigen Karte aber auch das Glück eine wichtige Rolle, denn die bereits angesprochene Streuung der Güte der GPUs lässt sich auch durch die beste Strom- und Spannungsversorgung nicht kompensieren.

Takt und Spannung rauf, Temperatur runter

Ob CPU, GPU oder Speicherchips - für all diese Komponenten gibt es eine Grundregel. Sollen sie mit einem höheren Takt betrieben werden, muss meist die Spannung erhöht werden. Durch eine Erhöhung der Spannung steigt die Abwärme und die Erhitzung der Halbleiterbauteile sorgt für größere Leckströme. Diese Leckströme wiederum sind natürlich nicht erwünscht, sondern ganz im Gegenteil beim Overclocking sogar hinderlich. Durch eine bessere Kühlung des Bauteils lassen sich die Leckströme wieder reduzieren, doch der Prozess von immer höheren Taktraten und Spannungen lässt sich nicht bis ins Unendliche treiben.

Jede GPU hat eine Bandbreite an Takt und Spannung, in der sie ideal arbeitet. Das heißt Leistung und Verbrauch bewegen sich in einem idealen Verhältnis. Wird eine GPU durch ein Overclocking aus diesem idealen Betriebsbereich heraus gebracht, müssen zwangsläufig Gegenmaßnahmen ergriffen werden. Die meisten Karten werden durch einen Luftkühler gekühlt. Diese haben eine physikalische Grenze an Kapazität von Abwärme, die sie abführen können. Die Kühlung ist bei allen modernen GPUs der limitierende Faktor. Sobald ein Wasserkühler verwendet wird, können höhere Taktraten und Spannungen gefahren werden. Auf die Spitze getrieben wird dies beim High-End-Overclockig. Dort sorgt flüssiger Stickstoff bei -196 °C dafür, dass der Chip so wenig Leckströme wie möglich erzeugt.

Egal ob nun bei 1,2 Volt und 70 °C oder 1,6 Volt und -140 °C - irgendwann ist bei jeder GPU kein stabiler Betrieb mehr möglich. Instabilitäten treten auf, die durch Rechenfehler innerhalb des Chips entstehen. Texturen können anfangen zu flimmern, das Ausgabesignal flackert oder aber der Treiber stürzt ab. Eben diese Fehler zeigen an, dass man sich am Limit der GPU bewegt. Dazu kommen wir später bei der praktischen Umsetzung eines Overclockings auch noch einmal. Zuvor aber kann man bereits in andere Grenzbereiche geraten, die der Hersteller der GPU auf explizit auf diese Art und Weise vorsieht. So verfügt jedes Halbleiterbauelement über eine Maximaltemperatur, die durch Features wie PowerTune und GPU-Boost zwar bereits vorher abgefangen wird, sich bei einigen Grafikkarten aber auch abschalten lässt.


Anhand einer GeForce GTX 980 in der Referenzversion wollen wir einmal erläutern, wie sich das Maximum der Karte finden lässt. Zunächst einmal benötigen wir dazu GPU-Z in der aktuellen Version, um die wichtigsten Parameter der Grafikkarte zu überwachen und mithilfe von Precision X von EVGA oder Afterburner von MSI drehen wir an den richtigen Stellschrauben. Dazu sollten auch Stift und Papier bzw. ein äquivalentes digitales Pendant bereit liegen, um ein paar Notizen zu machen.

Wie im Video zu GPU-Boost bereits erläutert, verwendet NVIDIA im GPU-Boost-Mechanismus zwei maßgebliche Parameter, um die Grafikkarte in einem gewünschten Betriebsbereich zu halten. Mit am wichtigsten ist dabei das Power-Target, welches von NVIDIA für die GeForce GTX 980 mit 165 Watt angegeben wird. Interessanterweise setzt NVIDIA für ein Power-Target von 100 Prozent bereits einen maximalen Verbrauch von 180 Watt an. Aber auch diese Hürde wird beim Overclocking schnell gerissen und so ist der erste Schritt das Power-Target zu erhöhen. Bei 125 Prozent ergibt sich daraus eine maximale Auslegung von 225 Watt für die Referenzversion der GeForce GTX 980. Karten wie die GeForce GTX 980 Classified von EVGA erlauben hier weitaus höhere Einstellungen, die bereits im BIOS festgeschrieben sind und die Vorgaben von NVIDIA weit überschreiten. Auf den Unterschied zwischen der Referenzversion und solchen OC-Karten gehen wir aber noch etwas genauer ein und zeigen das Potenzial, welches hier von den Herstellern noch freigegeben werden kann.

GPU-Z mit einer GeForce GTX 980
GPU-Z mit einer GeForce GTX 980

Neben dem Power Target können wir auch das Temperatur-Target verändern. Allerdings haben wir in der Theorie bereits erläutert, dass wir eine möglichst niedrige Temperatur erreichen wollen. Insofern ist das Temperatur-Target nicht so wichtig, da wir ohnehin versuchen wollen und müssen, die GPU bei einer möglichst niedrigen Temperatur arbeiten zu lassen. Wir können diesen Wert daher bei 80 °C belassen.

Über einen Offset des Taktes von GPU und Speicher, bestimmten wir die Taktrate, mit der wir diese beiden arbeiten lassen wollen. Der Speicher spielt dabei eine etwas untergeordnete Rolle, da sich moderner GDDR5-Speicher leicht von 1.750 auf über 2.000 MHz bringen lässt, auch ohne dass dieser speziell gekühlt werden muss. Die Auswirkungen auf die Leistung der Karte sind bei der GPU auch wesentlich höher, sodass unser Fokus darauf liegt. Wir setzen durch den Offset keine definierte Taktrate, sondern addieren auf den voreingestellten Boost-Takt einen gewünschten Offset, mit dem wir GPU und Speicher betreiben wollen.

Los geht's ...

Um bereits vom Start weg etwas Luft zu haben erhöhen wir das Power-Target auf +110 Prozent. In der Folge heben wir auch den GPU-Takt etwas an, bevor wir nur noch kleinere inkrementelle Schritte vornehmen. +100 bis +150 MHz sind bei jeder GeForce GTX 980 möglich, ohne das wir irgendwelche Änderungen beim Power-Target vornehmen müssen. Ab +100 MHz sollten 10-MHz-Schritte gemacht werden, um das konkrete Maximum in Erfahrung zu bringen.

EVGA PrecisionX mit einer GeForce GTX 980
EVGA PrecisionX mit einer GeForce GTX 980

Nach der ersten Erhöhung des Taktes lassen wir den 3DMark von Futuremark im Fire-Strike-Preset laufen, um eventuelle Instabilitäten festzustellen. Gleichzeitig solltet die Sensorauswertung von GPU-Z mitlaufen und ein passendes Log dazu angelegt werden. Dies kann einfach im Reiter "Sensors" unter "Log to file" in GPU-Z eingestellt werden. Der 3DMark dient nun nicht dazu einen konkreten Benchmark-Wert zu erreichen, sondern um die Stabilität zu prüfen. Es gibt auch noch andere Anwendungen, die sich dazu eignen, für die ersten Tests aber ist der 3DMark gut geeignet. Während der 3DMark läuft, solltet der Benchmark stetes beobachtet werden, ob eventuell Bildfehler auftreten. Ist dies der Fall, sind wir entweder bereits am Maximum der Grafikkarte angekommen oder aber können weitere Schritte unternehmen. Bei den ersten Steigerungen des Taktes sollten noch keine Fehler auftreten. Mit zunehmenden Takt wird dies aber immer wichtiger.

GPU-Z Log-File
GPU-Z Log-File

Ist der 3DMark-Durchlauf beendet, sollten die gemachten Einstellungen und auch der Benchmark-Wert notiert werden. Ebenfalls anschauen wollen wir uns das von GPU-Z erstellte Log-File. In der Spalte zum GPU-Takt sollte der höchste Wert, der dort angezeigt wird, notiert werden. Der Wert kann sich von dem unterscheiden, was wir eigentlich per Programm als Boost-Offset manuell eingestellt haben. Liegen die beiden Werte aber noch recht dicht beisammen, kommt es zu keinerlei Einschränkungen durch den Boost-Mechanismus.

Wir erhöhen den Takt etwas weiter und um einmal zu zeigen, an welche Grenzen man dabei geraten kann, setzen wir den GPU-Takt auf +200 MHz und auch den Speicher erhöhen wir im Offset auf +200 MHz. Für die meisten GTX-980-GPUs bedeutet dieses OC ohne Erhöhung der Spannung bereits ein Auftreten von Bildfehlern im 3DMark. Es muss nicht direkt zu Abstürzen kommen, allerdings sind ein Auftreten von Bildern bereits Anzeichen für Instabilität und sollten nicht im Normalbetrieb hingenommen werden.

Futuremark 3DMark-Ergebnis
Futuremark 3DMark-Ergebnis

Als nächsten Schritt gehen wir entweder etwas mit dem Takt zurück oder versuchen es bereits mit einer leichten Erhöhung der Spannung. Dies erfolgt in 6-mV-Schritten und ist bis zu einem Maximum von 1,216 Volt bei allen "Maxwell"-Karten möglich. Gleichzeitig sollten wir aber auch das Power-Target etwas nach oben drehen, da mit einer Erhöhung der Spannung auch der Verbrauch zunimmt. GPU-Z bietet dazu auch eine Möglichkeit das TDP-Limit zu beobachten. Sollten also hier bereits 99 oder gar 100 Prozent verwendet werden, muss auch das Power-Target noch oben geschraubt werden.

Nach und nach versuchen wir also über eine Erhöhung von Takt, Spannung und Power-Target einen stabilen Betrieb bei maximalem Takt zu erreichen. Wichtig ist die gewählten Werte immer zu notieren, so dass man leicht auf die zuletzt funktionierenden Einstellungen zurück und an einer anderen Stellschraube neu ansetzen kann. Dies nimmt natürlich einige Zeit in Anspruch. Die Reihenfolge sollte dabei immer sein:

1. Takt erhöhen - stabiler Betrieb möglich oder nicht? Wenn ja, Takt weiter erhöhen.
2. Ist es nicht stabil, Power-Target erhöhen.
3. Hilft auch das nicht, muss die Spannung erhöht werden.

Für eine Referenzversion der GeForce GTX 980 sind ein GPU-Takt von 1.450 MHz sowie ein Speichertakt von 1.950 MHz eigentlich problemlos zu erreichen. Etwas anders sind die Voraussetzungen mit den unterschiedlichen Retail-Karten der Hersteller. Bisher das beste Ergebnis erreichte in unseren Laboren die EVGA GeForce GTX 980 Classified, dies aber nicht nur durch den größeren Ausbau der Strom- und Spannungsversorgung, sondern durch verschiedene andere Maßnahmen.

Letztendlich von der Leine gelassen wird die Karte also nur durch den Einsatz des EVBot oder aber einer inoffiziellen Software namens "GTX Classified Controller".

- Inoffizielle Software zur Anhebung der Spannung mit mehr als 1,3 Volt
- Inoffizielles OC-BIOS und EVBot-Firmware

Über beide Wege lassen sich bestimmte Sicherheitsmechanismen umgehen und so lässt sich z.B. die GPU-Spannung von 0,8 bis 1,65 Volt einstellen. Bei einer luftgekühlten Karte sollte man damit aber vorsichtig sein, denn 1,65 Volt lassen sich hier auf Dauer nicht betreiben. Wir versuchten es in unseren Tests mit 1,35 Volt und erreichten damit bereits sehr gute Ergebnisse - dazu aber später mehr. Über das Tool ebenfalls einstellbar sind die Speicherspannung von 1,6 bis 1,8 Volt sowie die PCI-Express-Interface-Spannung von 1,055 bis 1,215 Volt.

Inoffizielles Spannungs-Tool für die EVGA GeForce GTX 980 Classified
Inoffizielles Spannungs-Tool für die EVGA GeForce GTX 980 Classified

Durch die Möglichkeit die Spannungen deutlich höher zu drehen, als dies bei allen anderen Karten der Fall ist, zeigte sich die Karte auch deutlich taktfreudiger. So erreichten wir einen GPU-Takt, der letztendlich einen stabilen Boost-Takt darstellt, von 1.651 MHz. Den Speicher ließen wir gleichzeitig mit 2.050 MHz arbeiten. Dies bedeutet ein Overclocking von nochmals etwas mehr als 14 Prozent im Vergleich zum ohnehin schon höchsten Boost-Takt, den wir in den Werkseinstellungen bisher gesehen haben. Mit etwas mehr Zeit und Optimierung von Spannung und Takt sind sicherlich auch noch höhere Taktraten möglich, für eine luftgekühlte GeForce GTX 980 aber dürfte das Ergebnis sehr ordentlich sein.

Die Ergebnisse und Messungen sehen in der Folge wie folgt aus:

Overclocking - Futuremark 3DMark

Fire Strike Extreme

Futuremark-Punkte
Mehr ist besser

Overclocking - Battlefield 4

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking - Crysis 3

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking - The Elder Scrolls V: Skyrim

2.560 x 1.600 8xAA+FXAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking - Tomb Raider

2.560 x 1.600 2xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking – Lautstärke

Last

dB(A)
Weniger ist besser

Overclocking - Temperatur

Last

in Grad Celsius
Weniger ist besser

Overclocking - Leistungsaufnahme

Last

in Watt
Weniger ist besser


Viele Mechaniken für das Overclocking, die wir im Rahmen der GeForce GTX 980 behandelt haben, gelten auch für die Radeon R9 290X. Auch hier sind also die Abhängigkeiten zwischen Takt, Temperatur und TDP-Limit derart entscheidend, dass eigentlich kaum ein Parameter im größeren Umfang verändert werden kann, ohne das dies Einfluss auf die anderen hat.

Wir wollen uns das Overclocking einer Radeon R9 290X anhand einer Referenzversion der Karte anschauen, was nicht ganz unproblematisch ist, da diese schon in den Standard-Einstellungen je nach Gehäusebelüftung in Temperatur-Limits gerät und damit nicht die volle Leistung ausschöpfen kann. Mit einer guten Belüftung und einigen Änderungen bei der Lüfterdrehzahl kann aber auch eine Radeon R9 290X in der Referenzversion noch ein ordentliches Plus erreichen.

MSI Afterburner auf einer Radeon R9 290X
MSI Afterburner auf einer Radeon R9 290X

Die Unterschiede zur GeForce GTX 980 fallen bereits auf, wenn man einen ersten Blick in die Overdrive-Einstellungen des AMD Catalyst Treibers wirft. Eine Heat-Map macht sehr schön anschaulich, welche Konsequenzen eine Änderung der Parameter zur Folge hat. Das Power-Limit wird auch hier in Prozenten angegeben. Anders als bei NVIDIA ist dies im Treiber aber auch für den Takt der Fall. Gleiches gilt auch für den Speichertakt, während das Temperatur-Ziel wiederum als konkreter Wert angegeben wird.

Für das Overclocking empfiehlt es sich aber eine andere Software zu installieren und hier haben wir uns einfach mal für den Afterburber von MSI entschieden. Damit ist es auch möglich die GPU-Spannung zu verändern. Dazu müssen wir in die Einstellungen des MSI Afterburner und dort in den allgemeinen Einstellungen den Menüpunkt "Spannungsreglung freischalten" aktivieren. Danach sehen wir auch den dazugehörigen Reiter in der Hauptansicht des Programms.

Wie auch bei der GeForce GTX 980 gilt auch für jede Radeon R9 290X: Jede Karte ist unterschiedlich. Durch die Fertigung der GPU und andere Umstände erreicht jede Karte andere Ergebnisse. Daher ist es auch nicht möglich einen bestimmten Takt bei definierter Spannung direkt zu wählen, sondern wir müssen uns wie bei der GeForce GTX 980 auch an ein stabiles Settings herantasten.

Los geht's ...

Zunächt einmal suchen wir eine Ziel-Temperatur, die bei Default-Einstellungen aller weiteren Parameter erreicht wird. AMD setzt diese auf 95 °C - und so manche Karte erreicht diesen Wert auch ohne ein Overclocking. Ist dies bei der Referenzversion bereits mit den Standard-Einstellungen der Fall, sollte die Lüfterdrehzahl bereits jetzt erhöht werden. Ist dies geschehen, schauen wir uns mit einem Loop im Unigine Valley an, wie warm die GPU wird. Nach 15 bis 20 Minuten sollte die GPU ihr Maximum erreicht haben. Diese Temperatur setzen wir als Ziel-Temperatur an. Danach beginnen wir mit dem eigentlichen Overclocking.

Unigine-Test auf einer Radeon R9 290X
Unigine-Test auf einer Radeon R9 290X

Wir erhöhen den Takt also so lange und überprüfen die Stabilität (auch hier am besten wieder mit dem Futuremark 3DMark), bis wir wieder erste Bildfehler sehen oder aber die Karte in das Temperatur-Ziel hineinläuft. Dies können wir wieder mit dem Log-Files von GPU-Z machen, die sowohl den Takt als auch die GPU-Temperatur aufzeichnen. Die Zwischenergebnisse sollte man sich auch hier in einer Tabelle notieren. Sind wir also an eine Grenze gelangt, müssen wir wieder an anderen Stellschrauben drehen. Ist die Temperatur beispielsweise zu hoch, müssen wir die Lüfterdrehzahl erhöhen. Ist die Temperatur nicht das Problem, müssen wir die GPU-Spannung erhöhen, was wie oben beschrieben im MSI Afterburner möglich ist. Um bis zu +100 mV können wir die Spannung erhöhen, wobei wir hier etwas vorsichtig sein sollten. In den Standard-Einstellungen legt AMD bereits 1,25 Volt an, was im Vergleich zur wesentlich kleineren NVIDIA-GPU recht viel ist auch die enorme Abwärme der GPU erklärt. WIr tasten uns also langsam an die Spannung heran und erhöhen diese pro Schritt um +5 oder maximal +10 mV.

Log-File auf einer Radeon R9 290X
Log-File einer Radeon R9 290X

Ohne ein Anheben der GPU-Spannung können wir unserer Referenzversion der Radeon R9 290X ein Plus von 80 MHz im GPU-Takt entlocken. Für den Speicher ging es von 1.250 auf 1.350 MHz. Die Spannung der GPU lag sogar bei nur bei 1,21 Volt - PowerTune nimmt hier also eine automatische Anpassung vor, die unter dem Standard-Wert liegt. Die GPU-Temperatur konnten wir durch einen etwas schnelleren Lüfter und guter Belüftung bei 82 °C halten.

In der Folge haben wir die Spannung um +50 mV erhöht und wiederum das Maximum für den Takt gesucht. Letztendlich gelandet sind wir bei 1.135 MHz für die GPU und 1.450 MHz für den Speicher. Das Limit einer luftgekühlten Radeon R9 290X ist schnell erreicht und hier hilft oftmals nur ein Kühler eines Drittherstellers, zumal die Referenzlösung auch nicht sonderlich leise ist.

Neben der Referenzlösung haben sich einige Partner-Karten als deutlich potenter herausgestellt. Im Test hatten wir unter anderem die ASUS ROG Matrix Radeon R9 290X Platinum (Hardwareluxx-Artikel). Sie erreicht in den Standard-Einstellungen einen maximalen Takt von 1.050 MHz und damit ist offensichtlich Potenzial für ein zusätzliches Overclocking vorhanden. Dazu schauten wir uns zunächst einmal an, wie sich die Karte mit den Standard-Einstellungen verhält und konnten feststellen, dass weder das Temperatur- noch das Power-Target ausgereizt wurden. Also machten wir uns daran, beide Werte weiter zu maximieren und den höchsten Takt aus der Karte zu kitzeln. Dazu erhöhen wir die Spannung auf 1,35 Volt und setzten das Power-Target auf das Maximum. Letztendlich landeten wir bei einem stabilen Takt von 1.225 MHz für die GPU und 1.700 MHz für den Speicher. Letzteres wurde durch eine Erhöhung der Speicherspannung von 1,5 auf 1,64 Volt möglich. Für einen stabilen Betrieb mussten wir die Lüfter allerdings etwas schneller drehen lassen, sodass auch ein Einfluss auf die Lautstärke messbar war. Letztendlich entspricht unser OC-Ergebnis einem Overclocking von 16,7 Prozent bei der GPU und 25,9 Prozent beim Speicher. Wir sind gespannt, ob sich dies auch entsprechend bei den Benchmarks ausdrücken wird.

Die Ergebnisse und Messungen sehen in der Folge wie folgt aus:

Overclocking - Futuremark 3DMark

Fire Strike Extreme

Futuremark-Punkte
Mehr ist besser

Overclocking - Battlefield 4

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking - Crysis 3

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking - The Elder Scrolls V: Skyrim

2.560 x 1.600 8xAA+FXAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking - Tomb Raider

2.560 x 1.600 2xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Overclocking – Lautstärke

Last

dB(A)
Weniger ist besser

Overclocking - Temperatur

Last

in Grad Celsius
Weniger ist besser

Overclocking - Leistungsaufnahme

Last

in Watt
Weniger ist besser


Im Rahmen der Vorgaben von AMD und NVIDIA versuchen sich die verschiedenen Hersteller der Grafikkarten auch gerne an Modifikationen bzw. reizen die Limits so weit aus, wie es sinnvoll erscheint. Das Vorgehen ist dabei sehr unterschiedlich und hängt auch davon ab, welche Zielgruppe mit der jeweiligen Grafikkarten angesprochen werden soll.

So erlaubt NVIDIA bei seinen aktuellen "Maxwell"-Karten eine maximale GPU-Spannung von 1,212 Volt, während auf alle weiteren Spannungen eigentlich kein Einfluss genommen werden kann. Dies ist bei einer luftgekühlten Karte meist auch nicht notwendig, da die Kühlung hier ohnehin der limitierende Faktor ist. EVGA umgeht dieses Problem gerne mit etwas Zusatzhardware, die EVBot heißt und weitergehende Anpassungen der Spannungen erlaubt. Inzwischen ist aber auch Software vorhanden, die auf die gleichen Mechanismen zugreift und ebenfalls Änderungen in einem Bereich erlaubt, der von NVIDIA so eigentlich nicht freigegeben ist. Bei den Overclocking-Ergebnissen der EVGA GeForce GTX 980 Classified auf Seite 2 haben wir eben diese Software verwendet. Sie erlaubt ein Einstellen der GPU-Spannung von 0,8 bis 1,65 Volt und auch die Speicher- und PCI-Express-Spannung lassen sich von 1,6 bis 1,8 Volt bzw. 1,055 bis 1,215 Volt anpassen.

EVBot von EVGA
EVBot von EVGA

Wer nicht weiß, was er da tut, sollte tunlichst seine Finger von solcher Software und den dazugehörigen BIOS-Modifikationen lassen! Nicht ohne Grund bietet NVIDIA hier nur einen begrenzten Spielraum, denn nicht nur die Lebensdauer der Hardware kann unter zu hoher Spannung leiden, im schlimmsten Fall zerstört sie die Karte komplett, da sämtliche Sicherheitsmechanismen ausgehebelt werden. Daher empfehlen wir im Guide auch immer Schrittweise vorzugehen und keine zu großen Sprünge zu machen.

Etwas flexibler scheinen die Hersteller von Grafikkarten mit AMD-GPU zu sein. Je nach Modell und Freigaben im BIOS kann die GPU-Spannung hier sogar von etwa 1,2 auf 1,4 Volt angeben werden, was ein deutlich größerer Spielraum ist, als NVIDIA ihn zulässt. Es gelten aber auch hier die gleichen Einschränkungen: Derartige Modifikationen können zur einer verkürzten Lebensdauer der Hardware führen!

Hardware-Modifikationen

Vermutlich nicht näher erläutern müssen wir, dass bei Hardware-Modifikationen sämtliche Garantieansprüche verloren gehen. Sind solche Software-Mods bereits mit Vorsicht zu genießen, sollten Veränderungen an der Hardware nur vorgenommen werden, wenn sie auch wirklich notwendig sind. Meist ist dies nur im Extreme-Overclocking-Bereich der Fall.

Spannungs-Mod auf einer ASUS Strix GeForce GTX 980
Spannungs-Mod auf einer ASUS Strix GeForce GTX 980

Dabei machen es die Hersteller den Overclockern meist auch sehr einfach und geben sogar selbst Anleitungen heraus, welche Kontakte geschlossen bzw. wo das Poti eingebaut werden muss, damit die verschiedenen Spannungsebenen manuell verändert werden können. Das Bild oben zeigt z.B. den Mod an einer ASUS Strix GeForce GTX 980, die von BenchBro Andi und Daniel "Dancop" Schier auf dem ASUS Open Overclocking Cup 2014 in Moskau verwendet wurde.

Trotz aller Gefahren gehören solche Modifikationen zum Overclocking dazu. Im Falle der Aufhebung des TDP-Limits bei allen aktuellen NVIDIA-Karten schauen wir uns das auch einmal etwas genauer an. Gerne einmal geraten die GeForce GTX 970 und GTX 980 in dieses Limit und trotz Anhebens des Power-Targets gibt NVIDIA hier oftmals nicht ausreichend Spielraum.

Shunts zur Strommessung auf einer GeForce GTX 980 von EVGA
Shunts zur Strommessung auf einer GeForce GTX 980 von EVGA

Overclocking.Guide hat eine Anleitung erstellt, wie sich diese Beschränkung aufheben lässt. Hauptkomponenten sind dabei die sogenannten Shunts, die sich auf jeder GeForce GTX 970 und GTX 980 finden. Dabei handelt es sich um besonders niederohmige elektrische Widerstände, die zur Messung des elektrischen Stroms verwendet werden. Insgesamt sind auf dem PCB meist drei dieser Bauteile zu finden. Auf dem obigen Bild liegen sie direkt hinter den zusätzlichen Stromanschlüssen und sind durch ihre grüne Farbe leicht von den restlichen Bauteilen zu unterscheiden.

NVIDIA verwendet also reine Hardware-Elemente, zur Messung des Verbrauchs und damit bieten sie auch die Möglichkeit in die Messung einzugreifen. Deren Widerstand muss geändert werden, damit dem System ein niedrigerer Spannungsabfall suggeriert wird, womit letztendlich auch das Power-Target steigt. Im Beispiel der Anleitung auf Overclocking.Guide besitzt der zur GPU zugehörige Shunt einen internen Widerstand von 0,01 Ohm, also 10 mOhm. MithHilfe von Flüssigmetall, dass sich problemlos auch wieder entfernen lässt, wurde der Widerstand überbrückt und durch 5 mOhm ersetzt. Meist findet sich eine entsprechende Markierung oder Beschriftung auf dem Shunt, wie groß der Widerstand ist. Ist dies nicht der Fall, muss mit einem Messgerät gemessen werden. Hier reicht aber nicht jedes handelsübliche Multimeter aus, da der interne Widerstand des Messgerätes größer ist, als der zu messende Widerstand auf dem PCB. Also ist schon einmal etwas Spezialwerkzeug vonnöten.

Theoretisch ließe sich der interne Widerstand des Shunts auch komplett entfernen, womit womöglich auch jegliches Power-Limit aufgehoben wäre. Für die Praxis spielt das jedoch kaum eine Rolle, da eine Halbierung des Widerstandes bereits eine Verdopplung des Power-Limits bedeutet. Da auf allen Modellen der GeForce GTX 970 und GTX 980 mindestens drei solcher Shunts vorhanden sind, müssen die Widerstände auch auf allen Shunts ersetzt werden.

Das Aufhaben des Power-Limits mithilfe einer Hardware-Modifikation ist nur ein Beispiel. Voltage-Mods zur Anpassung der Spannung weit über das Limit dessen, was AMD und NVIDIA vorgeben, haben wir bereits angesprochen und sind zu beinahe jeder Karte auch im Netz zu finden. Oftmals ähneln sich die Prozeduren und so ist keine 1:1-Anleitung vonnöten, um den Mod durchführen zu können.

OC-Features der Hersteller

Auch die Hersteller versuchen sich immer wieder an Speziallösungen. Messpunkte zum Abgreifen der Spannungen sind dabei nur die einfachsten Mittel. Den EVBot von EVGA haben wir ebenfalls bereits besprochen. Immer wieder tauchen in unseren Reviews aber auch OC-Features wie ein LN2-Mode oder eine Speicherheizung auf, bei denen sich viele potenzielle Käufer fragen, wie sinnvoll diese sind.

ASUS bietet auf einigen seiner Matrix-Karten beispielsweise die erwähnte Speicherheizung. Overclocker die mit LN2 arbeiten kennen die Pausen, die nötig werden, um das System zu enteisen und darauffolgend zu trocknen. Weiterhin tritt bei einigen Komponenten ein sogenannter "Cold Bug" auf. Dies drückt sich insofern aus, als dass ab einer bestimmten Temperatur (und darunter) kein stabiler Betrieb mehr möglich ist. Offenbar ist davon besonders der Speicher betroffen, doch wenn die GPU mittels flüssigem Stickstoff gekühlt wird, erreicht diese Kälte früher oder später auch die Speicherchips.

OC-Features auf einer ASUS ROG GeForce GTX 980 Matrix
OC-Features auf einer ASUS ROG GeForce GTX 980 Matrix

Über das Schließen der dazugehörigen Lötpunkte sowie Betätigen eines DIP-Schalters auf der Rückseite lässt sich eine Art Heizung zuschalten, welche die Speicherchips eisfrei halten soll. ASUS nennt dieses Feature "Memory Defrost" und natürlich kann dies auch genutzt werden, um die Karte zu enteisen. Vorsicht ist natürlich dann geboten, wenn das Eis zu Wasser wird und somit trotz Isolierung der restlichen Komponenten zu einer Gefahr werden könnte. Bisher haben sich Overclocker damit beholfen die Speicherspannung etwas anzuheben, um damit auch die Abwärme zu erhöhen. Diesen Schritt können sie sich mit "Memory Defrost" ersparen, wenngleich der Effekt der gleiche ist.

Wir haben mit einigen Overclockern gesprochen und sind zu gemischten Ergebnisse zu solchen Extremen-Features gekommen. Während viele solche Funktionen grundsätzlich als sinnvoll erachten, lehnen sie andere wiederum komplett ab. Problem ist wohl meist, dass es die Eierlegende Wollmilchsau unter den Grafikkarten bisher noch nicht gegeben hat. Zwar mag ASUS mit den OC-Funktionen den richtigen Weg beschritten haben, aktuell aber scheinen andere Modelle bei den Overclockern beliebter zu sein, da hier die Strom- und Spannungsversorgung besser ist. Die perfekte OC-Karte gibt es also noch nicht und so finden sich spezielle Features vielleicht auf Karten, auf denen sie gar nicht gebraucht werden.


Was früher bereits galt, gilt heute immer noch - die Kühlung einer Grafikkarte ist die entscheidende Komponente für ein gutes Overclocking-Ergebnis. Mit GPU-Boost und PowerTune sind die GPUs noch abhängiger von niedrigen GPU-Temperaturen geworden. Die physikalischen Gegebenheiten der Halbleiterbauelemente zeichnet sich hier ganz konkret für den Nutzer ab.

Was also tun? Zunächst einmal ist der Griff nach einer Retail-Karte mit Kühler des jeweiligen Herstellers sicher nicht die schlechteste Idee. In der Vergangenheit hat sich immer wieder gezeigt, dass die alternativen Kühler der Hersteller besser und vor allem leiser sind als das, was die Hersteller als Referenzlösungen anbieten. Das galt zuletzt vor allem für die AMD Radeon R9 290(X), die in der Referenzversion die Hitzentwicklung der GPU nur schwerlich in den Griff bekam. Wir testen pro Jahr dutzende Grafikkarten und schauen uns in diesem Zuge auch nahezu alle Modelle der Hersteller an. Aufgrund dessen können wir auch ein recht gutes Bild abbilden, welche Karte mit der besten Kühlung ausgeliefert wird. Ein Blick in unsere Artikel-Sektion bei den Grafikkarten lohnt sich also in jedem Fall.

Prolimatech MK-26 Black Series
Prolimatech MK-26 Black Series

Eine Alternative besteht darin, den Kühler eines Drittherstellers zu verbauen. Auch hier ist das Angebot breit gefächert und Angst vor dem Umbau muss eigentlich niemand haben. Wer nicht gerade zwei linke Hände besitzt, bekommt den bestehenden Kühler schnell herunter und hat auch den neuen schnell wieder verbaut. So lange es sich nicht um spezielle PCBs der Hersteller handelt sind diese Kühler auch universell zu verwenden und passen auf fast jede Karte der jeweiligen Generation. Ein Blick in den Kühlerbereich bei Caseking.de lohnt sich hier ebenfalls und zeigt die mögliche Auswahl.

Noch weiteres Potenzial bei den Temperaturen wird natürlich durch die Verwendung einer Wasserkühlung frei. Einige Hersteller bieten bereits Karten an, die ab Werk mit einem Wasserkühler versehen sind. Diese lassen sich dann direkt in den bestehenden Wasserkreislauf einbinden. Wer bereits einen aktiven Wasserkreislauf für den Prozessor hat, kann nach einigen Anpassung beim Radiator, der eventuell größer dimensioniert sein muss, auch die Grafikkarte mit einem Wasserkühler versehen. Der Umbau des Kühlers selbst ist auch hier nicht sonderlich kompliziert. Auch hier bietet Caseking entweder schon komplette Grafikkarten oder aber die Komponenten zu einem Umbau an. Welcher Kühler nun der richtige ist, dazu gibt es immer wieder unterschiedliche Meinungen und gerade eine Community wie die von Hardwareluxx ist an dieser Stelle immer wieder eine, die mit Rat und Tat zur Seite steht.

Die extremste Lösung der Kühlung ist sicherlich die mithilfe von flüssigem Stickstoff. Bis zu -150 °C lassen sich die Komponenten damit herunterkühlen, allerdings ist dies weder für den Alltagsbetrieb geeignet, noch für ängstliche Persönlichkeiten. Der finanzielle Aufwand spielt ebenfalls eine Rolle, aber dazu in einem gesonderten Artikel in der Overclocking-Themenwoche etwas mehr.


Wer sich nicht viel mit dem Overclocking seiner Grafikkarte beschäftigen möchte oder nicht die ausreichende Zeit dafür aufbringen möchte, der sollte seine Karte einfach so arbeiten lassen, wie es der Hersteller vorsieht. Sicherlich lassen sich ein paar Prozentpunkte mehr an Leistung innerhalb weniger Minuten aus der Hardware quetschen, doch ob dies auch ein zufriedenstellendes Ergebnis ist, sei einmal dahingestellt. Das Spiel mit Takt, Spannung und verschiedenen Limits muss für ein sinnvolles Overclocking möglichst ausgewogen sein, damit am Ende nicht Instabilitäten den Nutzer plagen oder die Hardware im schlimmsten Fall kurzlebig machen. Nach einem verlängerten Nachmittag für das Ausloten des Limits ist das Abstecken und Prüfen der Stabilität mindestens ebenso zeitraubend, wenngleich man hier nicht stundenlang vor dem Rechner sitzen muss.

PowerColor Radeon R9 290X LCS
PowerColor Radeon R9 290X LCS

Der Lohn aller Mühen: Bereits eine GeForce GTX 980 in der Referenzversion wird durch das Overclocking zwischen 10 und 15 Prozent schneller. Dafür, dass nur etwas Zeit dafür angewendet werden muss, sicher ein zufriedenstellendes Ergebnis. Wer im Vorfeld des Kaufs der Grafikkarte auch noch etwas Wert auf die Modellwahl legt und zur richtigen Karte greift, kann sogar ein Leistungsplus von bis zu 30 Prozent erreichen. Dies kann je nach Grafikeinstellungen schon den Unterschied zwischen flüssigem Gameplay und weniger Framedrops machen. Nicht immer müssen also Benchmark-Ergebnisse im Vordergrund stehen, sondern vielen geht es einfach nur darum ein paar Frames mehr für das aktuelle Lieblingsspiel aus dem System heraus zu holen. Für letztgenannte Ergebnisse von bis zu 30 Prozent sind dann aber schon verantwortungsvolle Persönlichkeiten gefragt, die auch genau wissen was sie mit ihrer Hardware tun bzw. dieser antun.

Aufgrund des Designs etwas eingeschränkter ist man bei einer AMD Radeon R9 290X - vor allem im Referenzdesign. Wer auch von einem Leistungsplus von mageren 5 Prozent nicht ablassen kann, dem sei dies gegönnt. Gerade die Abwärme der Radeon R9 290X aber verlangt nach einer effektiveren Kühlung und dann ist auch ein Leistungsplus von 10 bis 15 Prozent möglich. Erst mit einer Wasserkühlung wird das volle Potenzial der GPU verfügbar. So erreicht beispielsweise die PowerColor Radeon R9 290X LCS (Hardwareluxx-Artikel) problemlos einen GPU-Takt von 1.300 MHz und liefert damit auch ein entsprechend hohes Leistungsplus ab.

Wer noch etwas weitergehen möchte, als es die Hersteller vorsehen, der findet im Netz eine große Spielwiese an Hard- und Software-Modifikationen, die noch weiteres OC-Potenzial freimachen können. Doch selbst wenn es schon um die Erhöhung der Spannung geht, ist Vorsicht geboten und auch wenn sich einige der Mods (vor allem die Software-Mods) wieder rückgängig machen, so verliert man häufig sämtliche Garantie-Ansprüche an den Hersteller.

In einem zweiten GPU-Teil zum Overclocking gehen wir noch etwas genauer auf das Extreme-OC mit flüssigem Stickstoff ein. Es ist nicht nur die spektakulärste Form des Overclockings, sondern auch diejenige, welche die meiste Vorbereitung und Erfahrung benötigt. Dazu aber dann später mehr. Bis dahin wünschen wir euch viel Spaß dabei eure Grafikkarte zu quälen.