> > > > OC-Guide: Grafikkarten von AMD und NVIDIA an ihre Grenzen gebracht

OC-Guide: Grafikkarten von AMD und NVIDIA an ihre Grenzen gebracht

DruckenE-Mail
Erstellt am: von

Seite 1: OC-Guide: Grafikkarten von AMD und NVIDIA an ihre Grenzen gebracht

ocw teaser 100 grakaOverclocking ist für viele zum Volkssport geworden, auch weil es so einfach gemacht wird und die Hersteller teilweise Automatismen entwickelt haben, die das Overclocking unterstützen sollen. Doch viele Anwender möchten auch gerne wissen was bei einem Overclocking der Grafikkarte überhaupt passiert, worauf zu achten ist und welche Tricks es dabei gibt, das ideale Ergebnis zu erreichen. Am Beispiel der aktuellen High-End-Modelle von AMD und NVIDIA wollen wir die Entwicklung und Ausarbeitung eines Overclockings einmal genauer beleuchten, denn mit einer einfachen Erhöhung von Takt und Spannung ist es heute nicht mehr getan.

Die Einführung von Boost-Mechanismen bei den Grafikkarten haben den Prozess des Overclockings verändert. Nicht mehr nur Takt und Spannung sind zu beachten, sondern weitere Faktoren spielen mit hinein und können den Nutzer bei der Findung des besten OC-Ergebnisses entweder unterstützen oder im schlimmsten Fall auch behindern. Dazu muss erst einmal erklärt werden, welche Mechanismen hinter GPU-Boost bei NVIDIA und PowerTune von AMD stecken.

Am Beispiel zweier Grafikkarten erläutern wir den OC-Prozess dann im Detail. Die Mechanismen lassen sich auch auf die kleineren Modelle von AMD und NVIDIA übertragen. Mit der Radeon R9 290X und GeForce GTX 980 haben wir uns aber die beiden schnellsten Karten geschnappt und versucht das Maximum aus den GPUs zu quetschen. Zunächst aber etwas Theorie.

AMD PowerTune

PowerTune heißt bei AMD die Technik hinter der Steuerung von Takt und Spannung bei den eigenen GPUs. Anhand bestimmter Profile werden unterschiedliche Zustände beschrieben, die wiederum Takt und Spannung festlegen. Wie auch bei den Boost-Mechanismen bei den Prozessoren sind Takt und Spannung aber längst nicht mehr die einzigen Abhängigkeiten innerhalb der Methodik. Mit den "Hawaii"-Karten führte AMD eine weitere Komponente zu PowerTune hinzu: die Temperatur. Auf Seiten der Hardware werden seither Temperatur und ein hochgerechneter Verbrauch ermittelt, sowie ein neuer VR-Controller verwendet, der seine Daten ebenfalls an die SMU-Firmware weitergibt. Aus diesen drei Datensätzen werden dann die richtigen Einstellungen ermittelt, die dann wiederum an die Hardware weitergegeben werden. Aus den entsprechenden Voreinstellungen folgen dann die Taktfrequenz, Spannung und auch Drehzahl des Lüfters.

PowerTune bei der Radeon R9 290X
PowerTune bei der Radeon R9 290X

Für die aktuelle PowerTune-Implementation verwendet AMD einen neuen Serial-VID (Spannungscontroller). Dieser kommt im Zusammenspiel mit allen neuen GPUs zum Einsatz. Besonders die Geschwindigkeit in denen Änderungen der Spannung möglich sind, haben sich dazu geführt, dass die Karten sowohl sparsamer sind, aber bei Bedarf auch mehr Leistung abrufen können. Bei den AMD-Karten erreicht der Spannungscontroller Änderungen im Bereich von 10 µs. Eine weitere wichtige Rolle spielt die Genauigkeit, mit der die Spannung eingestellt wird. Auch hier hat PowerTune in der 2. Generation einen großen Sprung gemacht und kommt inzwischen auf 6,25-mV-Schritte. Bei einer möglichen Arbeitsspannung zwischen 0 und 1,55 Volt ergeben sich hier eigentlich 248 Spannungs-Schritte, wenngleich AMD 255 mögliche Schritte angibt (vermutlich wegen der Ansteuerung über 8 Bit). Doch auch die Daten die vom Controller für PowerTune zur Verfügung stehen, sind laut AMD entscheidend. So werden die Messwerte für Strom und Spannung in 40 kHz angefragt und über eine 20 Mbps breite Datenverbindung an die SMU-Firmware übertragen. Auf einige dieser Werte hat der Nutzer über eine geeignete Overclocking-Software Zugriff, doch dazu kommen wir später.

GPU-Boost 2.0

Mit dem "Kepler"-Vollausbau in Form des GK110 auf der GeForce GTX Titan versuchte sich auch NVIDIA an einer Erweiterung des Boost-Mechanismus. Bei GPU-Boost 1.0 wird noch ein maximaler Verbrauch anhand der aktuell anspruchsvollsten Spiele gesucht. Die von der GPU erreichte Temperatur spielt hier noch keine Rolle und tritt allenfalls in Erscheinung, wenn die Shutdown-Temperatur erreicht wird, die mit 105 °C aber meist jenseits von Gut und Böse liegt. Der maximale Takt wurde also auf Basis der relativen Spannung ermittelt. Der Nachteil ist offensichtlich: GPU-Boost 1.0 konnte nicht verhindern, dass selbst bei einer eigentlich unkritischen Spannung eine zu hohe Temperatur erreicht wurde.

Mit GPU-Boost 2.0, wie er auf allen aktuellen Karten von NVIDIA angewendet wird, spielen zwei weitere Werte eine wichtige Roll: Spannung und Temperatur. Zukünftig wird die relative Spannung (Vrel) also anhand dieser beiden Parameter bestimmt. Die Abhängigkeit der einzelnen GPUs aufgrund der Fertigung und Ausbeute bleibt aber natürlich bestehen und somit bleibt es auch dabei, dass nicht jede Karte wie die andere funktioniert. NVIDIA aber gibt an, dass technisch normiert ein 3-7 Prozent höherer Boost-Takt durch das Einbeziehen der Temperatur möglich ist.

GPU Boost 2.0 bezieht die Temperatur mit ein, kann bei niedriger Temperatur also noch mehr Spannung geben als zuvor. 80 °C sind die per Default gesetzte Zieltemperatur (Ttarget). Dies kommt vor allem Nutzern von Karten zu Gute, die eine Wasserkühlung verwenden, was für die GPU niedrige Temperaturen zur Folge hat. Extremere Kühlungen, z.B. mit LN2, bieten diesen Vorteil natürlich auch.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (18)

#9
customavatars/avatar197242_1.gif
Registriert seit: 10.10.2013

Bootsmann
Beiträge: 548
Gibt es eigentlich eine Liste, wo man sich darüber informieren kann, ob eine Karte Spannungsänderungen via Software zulässt?

Meine GTX780TI-DC2OC zum Beispiel scheint hier gar keine Stellmöglichkeiten zu haben.
#10
customavatars/avatar121830_1.gif
Registriert seit: 22.10.2009
Beim Transwarpkanal rechts abbiegen
Obergefreiter
Beiträge: 69
Was mich ein wenig bei der GTX 980 G1 nervt (hatte vorher eine 6970) ist, dass ich zwar die Karte für Benchmarks und gewisse Spiele stabil übertakten kann, jedoch kratzt bei mir BF4 bereits bei 25MHz+ Core mehr zwischen 10-20min nach Start mit einem DX Fehler ab.

BF4 Stabil sind bei meiner GTX980 nur 1250/1351MHz - bei der GTX 970 die ich vorher hatte waren exakt die selben Taktraten möglich.
#11
customavatars/avatar192568_1.gif
Registriert seit: 26.05.2013

Kapitän zur See
Beiträge: 3199
1250MHz ist aber nicht dein realer 3d boost takt

1250MHz sind je nach ASIC bereits 1400-1450MHz
#12
customavatars/avatar121830_1.gif
Registriert seit: 22.10.2009
Beim Transwarpkanal rechts abbiegen
Obergefreiter
Beiträge: 69
Frag mich jetzt nicht in welchem Game meine 980er 1463.4 MHz erreicht hat (PC läuft seit 9 Tagen), aber das zeigt mir GPU-Z an... (ASIC 64.3%)



Wie gesagt. Mehr geht schon, nur nicht bei BF4. Aber ich bin nicht der einzige der dieses Problem hat. Ich vermute, dass es die Engine ist, welche keine hohen Taktraten mag.... (nur im Multiplayer getestet - immer 64er Server) und BTW, die 980er ist im BF4 nie voll ausgelastet. Max. GPU Load 80%.
#13
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Ja, das deckt sich auch mit meinem Ergebnis:
[ATTACH=CONFIG]314125[/ATTACH]

Wobei ich nicht gerade eine gute Wasserkühlung habe und auch der Kühler selber sehr ineffektiv(Nickel) war.
#14
customavatars/avatar87890_1.gif
Registriert seit: 24.03.2008
Heidelberg
Moderator
A glorious mess!
Beiträge: 4828
@ Don
Super Guide bzw. die Idee mit der OC-Guide Serie ist mal was richtig gutes womit ihr unzählige Leute ansprecht :)
Top!
#15
customavatars/avatar72115_1.gif
Registriert seit: 04.09.2007

Vizeadmiral
Beiträge: 6281
Zitat Don;23225531
Je nach Karte ist das möglich. Welche genau meinst du?


Bezieht sich auf die 290X, ich hab die Standardversion unter Wasser aber Ram Spannung kann ich im Afterburner nicht anpassen nur Vcore und Aux.
#16
customavatars/avatar111587_1.gif
Registriert seit: 04.04.2009
Oldenburg (Oldb)
Kapitän zur See
Beiträge: 3728
Ich hab mal ne Frage: Wie viel Spannung würdet ihr maximal auf ne GTX 980 geben? Im Test habt ihr 1,35V gegeben. Unter Luft versteht sich.

Gesendet von meinem Xperia Z2
#17
customavatars/avatar160319_1.gif
Registriert seit: 17.08.2011

Vizeadmiral
Beiträge: 7758
schließe mich der Frage an
#18
Registriert seit: 29.06.2013

Obergefreiter
Beiträge: 109
max kommt auf die kühlung an!

ausserdem auf das was der hersteller erlaubt.

EVGA sagt zb die Classified karten und kingpin karten halten 1,35 volt aus!

28nm scheint recht viel abzukönnen! wen man bedenkt das unter ln2 1,5-1,6 volt standard sind.
habe auch schon 1,69(1,7) volt gesehen.

ich würde sagen ref designe bis 1,21 volt und oc pcb´s wie lightning classified kingpin matrix 1,25 volt
unter wasser haben ref karten schon 1,25 volt seit über 1 jahr bekommen hier im forum! läuft
bei den oc karten zb lightning, matrix, classified, classy KINGPIN sind 1,3 volt machbar ohne streß.


ACHTUNG

Rest Risiko ist immer da!
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]