Der s.g. PowerLimit der Grafikkarten

Thread Starter
Mitglied seit
03.08.2006
Beiträge
1.662
Hi

Ich glaub ich muß endlich mal fragen wie das mit dem Powerlimit bei den Grakas funktioniert. Und zwar wie genau das funktioniert.
Oder, was genau GPU-Z anzeigt.

Man übertaktet eine Grafikkarte samt +20% Powerlimit und hat laut GPU-Z 161W Grill. Der Takt wird nicht nur laut GPU-Z (sondern Tools mit viel feineren Graphen), gehalten. Die Spannung für Vollast wird erreicht und verändert sich laut Monitoring auch nicht. Ok. Man hat in einem Benchmark sagen wir mal 4680 Punkte.

Man erhöht den Limit um weitere 4%. Sonst bleibt alles wie oben. Der Takt wird anscheinend immernoch gehalten. Die Spannung auch. Der Benchmark erreicht nun 4760 Punkte. Und GPU-Z zeigt ~168W.

Die Zahlen selbst sind nicht so wichtig. So in etwa läufts aber. Wie wird sowas erreicht/realisiert?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Durch Nichtnutzen von Shadern oder anderen Komponenten der GPU. Dadurch sinkt die Stromstärke und somit die Leistung, selbst wenn die beiden anderen Parameter, also Takt und Spannung, gleich bleiben.
 
Ok. Nur wozu sind all die Komponenten dann da, wenn sie nicht alle gleichzeitig genutzt werden können?

Punchline dessen ist ja: Das obige Szenario passiert ja auch, wenn man garnicht übertaktet und nur den Powerlimit nach und nach erhöht. Und auch auf Referenzdesigns. D.h. die Karten limitieren sich schon mit Werkseinstellungen? Ich verstehe das noch nicht so 100%.
 
Zuletzt bearbeitet:
Woher wusste ich das die frage von einen AMd gpu Anhänger ist


Nun OC aktueller gpu ist größtenteils automatisch
PT ist die max stromzufuhr die eine gpu bekommen kann
Temp target ist die max temp die erreicht werden

Beides ist abhängig voneinnander
bei nvidia wird immer das Minimum angegeben bei den gpu Taktraten @stock TDP
bei amd die max taktraten bei @stock tdp

Nu der mythos das amd gpu immer zuviel vcore haben ist unwahr hier zählt Kühlung je besser desto höher taktet die gpu und hält diesen auch
Viel mehr bringt es den vram zu OC weil polaris sowie vega da in einen bandbreitenlimit kommt.
bei polaris (deine gpu) ist dies noch vertretbar bei vega ein extremes Problem was die gpu ausbremst
Also wenn du mehr gpu Takt haben willst muss die gpu kühler werden.
erst dann wird der Takt wesentlich automatisch ansteigen.
manuell den gpu clock anheben funktioniert nur eher schlecht als recht.
Zumal das ausloten des taktes extrem lange braucht länger als bei cpu oc
daher sei froh das man von starren takt damaliger gpu arch weg gegangen ist und nvidia sowie amd dies automatisch anbietet
Also kümmere dich um eine bessere Kühlung. und an der vcore zu spielen wird die gpu nur instabil werden lassen.
Den Traum weniger vcore und mehr Takt ist eine mär die gerne bei amd gpu Besitzern herumgeistert und dann sich beschweren wenn spiele instabil laufen. Und nach treiber updates zu schreien bzw nvidia schuld geben.
seht es ein die gcn architektur ist schlecht und ineffizient amd häng da 2 gpu generationen hinterher.
Sieht man von der Effizienz ab ist polaris konkurrenzfähig zur nvidia Einsteiger gaming chip gp106
 
@angelsdecay
Was für ein Anhänger? Auch dem meisten des Textes nach -> Hast du schwerst einen an der Waffel oder was ist das?

Mal davon ab, daß ich ja nirgendwo schrieb, es würde sich um die Graka aus meiner Sig handeln. Die übrigens OCCT-fehlerfrei läuft, mit zwar nur minimal OC, aber auch 50mV undervolting in P7 (und 60-70mV in P4 bis P6). Was hier mit dem Thema aber auch nichts zu tun hat, da es wie ich schrieb nicht einfach nur um OC geht.

Wenn Temptarget "die max temp die erreicht werden" ist, was ist dann Templimit?

@Performer
Der Takt bleibt wie er ist auf P7 max :)
 
Zuletzt bearbeitet:
So einfach ist das halt alles nicht. Es gibt ja verschiedene Anforderungen/Funktionen die je nach Spiel / Szene mehr oder weniger starke Ansprüche stellen. Das ist wie z.B. bei den Intels mit AVX, da braucht man für den AVX AllCore Turbo auch einen anderen Wert als mit "normalen" Befehlssätzen, da AVX einfach massig Leistung zieht.
Wenn eine Karte nun auf 100% läuft, kann es trotzdem sein, dass Teile davon brach liegen, weil die entsprechende Funktion (vllt irgendein Shader, Reflexion, Blur etc.) nicht benötigt wird. Je nach Einsatz laufen halt Teile auf der GPU nicht oder schon und das führt unweigerlich zu unterschiedlichen Lastszenarien. Irgendwo muss man aber halt nun mal das Powerlimit festlegen auf welches die Spannungs-/Stromversorgung ausgelegt wird (+ gewisse Überdimensionierung).
 
@croni-x
Fast richtig :) Es ging aber um immer das gleiche Szenario, indem die Karte mit höher gestelltem Powerlimit auch mehr zieht, obwohl das Monitoring von Takt und Spannung die gleichen Werte zeigt wie davor. Bzw. Maxtakt stabil gehalten wird (laut Überwachunstools halt...)

Es ging nicht darum warum man bei hier wie da mit 100% GPU-Auslastung z.B. mit FarCry andere Temps erreicht als mit BF1 ;)

edit:
Wobei man auch verschämt drauf verweisen kann, daß wir 2018 schreiben und niemand hier hat einen Link zum passenden Luxx Artikel? 2018... :hmm:
 
Zuletzt bearbeitet:
Verstehe jetzt nicht worauf du hinaus willst. Wenn man meine Erklärung auf dein Szenario überträgt:

Gleiche Szene mit 100% PL liefert 100% Punkte (es läuft aber nicht alles auf der Grafikkarte auf 100%, weil PL), mit 110% PL liefert es nun 104% oder sowas, weil die 10% mehr Leistung eben erlauben noch mehr auf Vollauslastung zu fahren. Sozusagen hat die Grafikkarte einfach in jedem Bereich etwas "Reserven" ?
 
Ich bin wohl zu stark auf CPUs versteift. Die haben keinen Maxtakt und Max-Boosttakt. Nur Maxtakt (Turbo) und den halten und behalten sie. Wenn es doch nicht weiter geht, und die Zeit halt noch ausreicht, drosseln sie sich einfach. Komplett. Mit alles.

Bei CPUs schaltet das Powermanagemnt/Thermomanagment ja nicht paar ALUs für Milisekunden aus, um z.B. unter 95W TDP zu bleiben. Oder? Da wird einfach Takt runtergefahren (auch Spannung?) und fertig.

Bei GPUs dagegen scheinen die zig CUs (ja, bei NV SM genannt) im Maxboosttakt unterschiedlich beliefert zu werden. So, daß man eben unterhalb des Powerlimits bleibt. Ich selbst konnte halt - wie z.B. bei dem letzten Test der Vega56 Nano auf Luxx der Fall - NICHT beobachten, daß eine GPU unterschiedliche Takte im Boost fährt.

Die Takte beim Boost waren immer Maxboosttakte (immer unterhalb des Templimits), nur die Karten wurde je nach gesetztem Powerlimit trotzdem mal schneller mal langsamer...

Ich hoffe das muß mir jetzt nicht peinlich sein, daß sowas verwirrt ;)
 
Ich weiß grad ehrlich gesagt nicht was passiert, wenn ich bei XFR zB das Powerlimit meines Ryzen senke.. ob er gleich taktet und gleiche VCore erreicht und nur die eigentliche Leistung gedrossel ist, oder ob das mit Takt-/Spannungserniedrigung einher geht.. Müsste ich mal nachsehen.
 
Ok. Nur wozu sind all die Komponenten dann da, wenn sie nicht alle gleichzeitig genutzt werden können?

Punchline dessen ist ja: Das obige Szenario passiert ja auch, wenn man garnicht übertaktet und nur den Powerlimit nach und nach erhöht. Und auch auf Referenzdesigns. D.h. die Karten limitieren sich schon mit Werkseinstellungen? Ich verstehe das noch nicht so 100%.
An sich haben es alle richtig erlebt, nur wissen sie nicht wie sie es logisch anordnen sollen...

Wenn nicht genug Einheiten ausgelastet werden = hoher Takt und Spannungen wenn die P-State wechsel große offsets haben.
Single-Thread Leistung ist wichtig daher Boosten wo es nur geht.

Das GPU PowerLimit kannst dir mit Rechteck-Spannung am besten erklären, je höher das Limit umso kürzer die Peaks an der Steckdose. :)
 
Ja cool. Jetzt haben wir schon 3 Leute die verstanden haben um was es mir ging. Ich nehme aber schwer an, bevor die 2 Seite endet gehört Phantomias88 ebenfalls dazu.
 
Es ist mir wohl gestern gelungen aus dem ganzen Gaga in #4 die paar Infos zu extrahieren :) Im folgenden Selbstversuch:

Luxmark 3.1, eigene 470 (110W Powerlimit im Bios), konstant 1868Mhz auf dem Speicher, 1268Mhz auf der GPU, +20% Powerlimit + Spannungsveränderungen an der GPU. Pro Setup 3 Läufe für einen Mittelwert. GPU-Takt ist mit allen möglichen Tools samt Graphen stabil. Wie gesagt bis auf die Spannung immer alles gleich.

Das Ergebnis mit Werkseinstellungen ist irgendwo bei 13450. Zwischen 1096mV und 1106mV im P7 existieren knapp über 200 Punkte Unterschied. In etwa 1,5% also.

Bei weitem zwar also nicht so dramatisch wie der Kollege das gerne als Skandal hochstilisiert sehen würde, ABER daß man hierbei mit uns bisschen Katz&Maus spielt, das Gefühl hab ich schon ;)
 
?Was versuchst du eigentlich zu beweisen?
 
@croni-x
Bewiesen wäre nur, daß es bei mir selbst leider nicht so läuft wie hier ;)
AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx

Sonst setze ich mich grad bisschen mit dem Thema auseinander, weil es mich interessiert bzw. ich da bei mir Nachholbedarf sehe. Eigentlich bieten sich dazu also solche Fragen, wie du sie grad gestellt hast, eher nicht an. Möchtest du damit etwas bewirken?
 
Zuletzt bearbeitet:
Nun denn. Jetzt ist es bewiesen ;) 120s OCCT ohne Fehler (länger fahre ich das nicht), hwinfo auch ohne Fehler, Powerlimit immer mind. 15W davon entfernt was gpu-z zeigt, Takte immer gleich, alle Tools die Takte loggen zeigen keine Aussetzer, Temperatur 10°C unter Temptarget:

Und ich kann die Werte von LuxMark mit der Spannung auf P7 regeln. Nun von 1094, 1100, 1006 und 1112 mV, und die Karte wird mit mehr Spannung immer schneller. Zwischen dem ersten und dem letzten Wert sind es knappe 2%.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh