> > > > SetStablePowerState.exe deaktiviert GPU-Boost unter Windows 10

SetStablePowerState.exe deaktiviert GPU-Boost unter Windows 10

Veröffentlicht am: von

nvidia 2013Moderne GPUs laufen unter Last nicht mehr immer mit dem gleichen Takt. Abhängig von den jeweiligen Last-Anforderungen oder Umgebungsvariablen wie GPU-Temperatur, maximaler GPU-Spannung und dem zur Verfügung stehenden Power-Target taktet die Karte unterschiedlich hoch. Natürlich gibt es hier seitens NVIDIA und der Boardpartner bestimmte Vorgaben – der Basis- und Boost-Takt soll eine Orientierung für den Käufer sein. Bei den AMD-GPUs ist dies noch etwas einfacher, da es hier einen maximalen Takt gibt, der auch normalerweise erreicht und nicht überschritten wird.

Die Angaben von NVIDIA und der Boardpartner sind also nicht immer ganz eindeutig. So taktet eine Karte mit guter Kühlung und erhöhtem Power-Target auch höher als der angegebene Boost-Takt. Reicht die Kühlung nicht aus, wird auch der Boost-Takt unterschritten und die Karte bewegt sich irgendwo zwischen Basis- und Boost-Takt. Kommt es zu weiteren Einschränkungen, kann auch der Basis-Takt nicht immer gehalten werden. Noch viele weitere Szenarien sind denkbar und all dies sorgt dafür, dass sich eine Grafikkarte in Rechner A meist anders verhält als in Rechner B und umgekehrt. Gleiche Bedingungen herzustellen ist meist nicht möglich und so kann es vorkommen, dass eine Karte in unseren Tests langsamer oder schneller ist als bei einem Leser.

Schematische Darstellung des GPU-Taktes über die Zeit
Schematische Darstellung des GPU-Taktes über die Zeit

Noch komplizierter wird die Situation, wenn man sich das Verhalten einer Game-Engine mit diesen unterschiedlichen Taktraten anschaut. Für den Spieler bedeutet eine langsamere oder schnellere GPU im Prinzip nur weniger der mehr Bilder pro Sekunde. Für eine Game-Engine aber wird eine GPU Time berechnet, die benötigt wird, um eine bestimmte Berechnung oder mehrere Berechnungen durchzuführen. Diese GPU Time unterscheidet sich je nach Takt und wenn dieser derart dynamisch arbeitet, kann nicht immer nachvollzogen werden, warum eine bestimmte Berechnung mal diese GPU Time benötigt und mal eine andere. Wie gesagt, gerade für Entwickler kann dies wichtig sein von einem stabilen Takt auszugehen, ein Zustand, der mit NVIDIA-GPUs aber nur schwer zu erreichen ist.

Daher haben die Entwickler von NVIDIA die SetStablePowerState.exe entwickelt bzw. freigegeben. Mithilfe dieses Tools kann der Boost-Mechanismus beliebig aus- und wieder eingeschaltet werden. Möglich ist dies mit allen APIs, egal ob DirectX 11, DirectX 12 Vulkan oder OpenGL. SetStablePowerState.exe setzt den GPU-Takt auf dem Basis-Takt fest. Diesen geben wir bei allen Grafikkartenmodellen auch stets mit an.

Die NVIDIA Titan X arbeitet fast immer am Temperatur-Limit
Die NVIDIA Titan X arbeitet fast immer am Temperatur-Limit und reduziert ihren Boost-Takt daher deutlich

Wer also den Boost-Mechanismus deaktivieren möchte, was zum Beispiel auch beim Overclocking interessant sein könnte, der hat nun ein einfaches und hilfreiches Tool an die Hand bekommen. SetStablePowerState ist eine Methode und Bestandteil von DirectX 12. Einige Spiele hatten diese mit SetStablePowerState(TRUE) standardmäßig aktiviert, was natürlich dazu führte, dass NVIDIA-Grafikkarte nur auf dem Basis-Takt liefen und nicht ihr vollen Leistungspotenzial ausschöpfen konnten. Mit dem Windows-10-Anniversary-Update lässt sich der SetStablePowerState nur noch aktivieren, wenn auch der Entwickler-Modus von Windows 10 aktiviert ist. Dies gilt natürlich auch für SetStablePowerState.exe und ist in den Windows-10-Einstellungen möglich.

Weitere Informationen zum SetStablePowerState sind im Entwickler-Blog bei NVIDIA verfügbar.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (38)

#29
customavatars/avatar255568_1.gif
Registriert seit: 27.05.2016
München
Banned
Beiträge: 1386
ja, und du muss auch bei Windows 10 auf Entwicklermodus Switchen.
#30
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33001
Zitat Sharif;24958937
ja, und du muss auch bei Windows 10 auf Entwicklermodus Switchen.


Nur im letzten/aktuellen 10er Release... Das 1511er und die ursprüngliche Releaseversion brauchen das nicht. (Steht zumindest so im Artikel) Hat MS scheinbar was umgebaut...
#31
customavatars/avatar160319_1.gif
Registriert seit: 17.08.2011

Vizeadmiral
Beiträge: 8164
ich hab nie nach open source geschrien. nich ma ganz leise nachgefragt. is mir sowas von ...
#32
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33001
Hat ja auch keiner behauptet ;)
Ich schrieb nicht grundlos "die Leute" anstatt explizit und direkt Personen an... :wink:
Bei Sharif konnte ichs mir dann aber nicht verkneifen :fresse:
#33
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11480
@fdsonne:
Du stellst da aber einen schon schrägen zusammenhang her - Open Source heisst doch nicht automatisch "für den Endkunden zu verwenden" (wie z.B. Mods), und wir hier sind nunmal Endkunden.

Zitat fdsonne;24958387
Dann hast du irgendwas vergessen oder nicht richtig eingestellt ;) Nach dem Install des 10er SDKs hast du die Include und Library Directorys entsprechend angepasst? Und die dlls entsprechend gelinkt?
-> hab das soeben mal fix durchgeschickt, geht 1A.

Gelinkt ist es schon, denn die Dateien selbst werden gefunden. Oder was heisst angepasst?
#34
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33001
Zitat DragonTear;24959090
@fdsonne:
Du stellst da aber einen schon schrägen zusammenhang her - Open Source heisst doch nicht automatisch "für den Endkunden zu verwenden" (wie z.B. Mods), und wir hier sind nunmal Endkunden.


Gelinkt ist es schon, denn die Dateien selbst werden gefunden. Oder was heisst angepasst?


Natürlich heist es das nicht, zumindest nicht ausschließlich. Allerdings ist es schon bezeichnend, wie die Community zu einem Teil zumindest OpenSource Software bzw. den Ansatz der Quelloffenheit fordert, allerdings nichtmal in der Lage ist sowas überhaupt zu nutzen, geschweige denn den OpenSource ansatz wenigstens verstanden zu haben. Wer das Eine fordert sollte das Andere halt auch beherschen/verstehen. Denn nur so kann es laufen...

Es ist ein Stück weit gegen den Sinn, hier precompiled Binarys anstatt dem Sourcecode bereit zu stellen. Warum? Wer weis, was der Jenige, der die Binarys bereit stellt, noch alles in den Spaß reincompiliert hat? In meinen Fall oben -> ich habe bspw. nen weiteres printf mit eingefügt (die Zeile mit dem VS2015U3), nicht dass ich mir noch verwerfen lassen muss, einfach irgendwo das "Kompilat" aus anderer Quelle hier weiter zu verteilen... Das KANN dir schlicht nicht passieren, wenn du es selbst tätigst. Weiterhin ist es eben möglich den Code auf verschiedene Architekturen, 32/64Bit usw. zu kompilieren. Das läuft dann dort, wofür es erstellt wurde und nicht mehr. Macht man sich also die Arbeit und erstellt das für alle erdenkliche Kombinationen? Der eine will vielleicht nen Kompilat vom MS Compiler, der nächste vom gcc, der Dritte will AMD oder Intel Ansätze sehen, dann die Technik der CPUs, ARM, x86, x86-64, IA-64 usw.
Entweder ich lebe damit, was mir vorgesetzt wird in Form von fertigen Binarys, oder ich meckere darüber, dann muss ich es im Zweifel aber selbst machen...

Aber nix für ungut, so 100% ernst kann man die Leute hier warscheinlich sowieso nicht nehmen, denn viele der Aussagen basieren auf irgendwelchen Markenverbundenheiten wie auch vom Hörensagen... Da sagt einer, Closed Source ist scheiße und alle stimmen drauf ein, weil für sie die vorgetragenen Argumente (die ja sogar teils richtig und sinnvoll sind) stimmig erscheinen. -> wenn man es dann selbst aber nicht weis oder wissen kann, entsteht schnell eine Lobby von eingefleischten "Fans" dieser Themen und man lässt erfahrungsgemäß auch keinerlei Kritik an diese Themen ran. Denn der, von dem man das Argument man aufgeschnappt hat, wirds schon wissen. Komisch wird es genau dann, wenn der Grundtenor eigentlich ein ganz anderer ist/war, man diesen selbst aber weder kennt noch vertritt ;) Wie eben der Part, wenn du selbst kompilierst, siehst du den Code und siehst auch was das Ding macht... Ein ganz klarer Vorteil in dem Fall. Vielleicht hat der Jenige ja seinerzeit genau deswegen zu OpenSourceansätzen aufgerufen?? Man weis es nicht...




Zum anderen, du hinterlegst einerseits die Pfade zum 10er SDK in den Solution Properties für den Library und den Include Folder (das ist irgendwo bei ProgramFiles x86 -> Windows Kits ...) und andererseits musst du in den Solution Properties unter Linker -> Input die lib(s) verlinken. Warscheinlich fehlt bei dir Letzteres??
Mehr hab ich auch nicht gemacht, es war ne nakte Neuinstallation in meinem Fall, da ich auf der Win10 Kiste kein VS drauf hatte (auch das SDK nicht).
Theoretisch könnte ich dann noch im Paket die notwendigen dlls direkt mit liefern. Dann spart man sich auch die Install des 10er SDKs... Aber es soll ja hier nicht um die klicki bunti fertig setup.exe gehen, sondern eigentlich um eine Funktion, die nix anderes macht um Entwecklern die Möglichkeit zu geben, den GPU Boost bei NV auszuknipsen. Und wer Entwickler ist und DX12 Stuff für Win10 entwickelt, wird wohl auch das 10er SDK installiert haben ;)
Wobei das sicher auch für einige der Leute hier in Sachen OC interessant sein könnte -> sprich GPU Offset OC ohne Boost um mehr oder weniger fixe Taktraten zu bekommen. Bei erreichen der Limits in Sachen PT/TT drosselt die GPU wohl weiterhin, wenn ich das richtig gelesen habe. Aber auch hier gilt halt, wer sowas will, soll es sich halt entsprechend zusammen bauen, die Sourcen liegen ja für Jedermann sichtbar auf der Page...
#35
customavatars/avatar160319_1.gif
Registriert seit: 17.08.2011

Vizeadmiral
Beiträge: 8164
Zitat fdsonne;24959057
...
Bei Sharif konnte ichs mir dann aber nicht verkneifen :fresse:


made my day :lol:
#36
customavatars/avatar76000_1.gif
Registriert seit: 31.10.2007
vorm PC
Leutnant zur See
Beiträge: 1110
Zitat slot108;24958447
Yoho! werd ich höchstwahrscheinlich heute abend mal testen.
vielen Dank dafür :)


hi, und was ist dabei rausgekommen?
#37
customavatars/avatar255568_1.gif
Registriert seit: 27.05.2016
München
Banned
Beiträge: 1386
Zitat slot108;24959775
made my day :lol:


Der Unterschied ist das ich das kann und nicht fdsonne seine Hilfe brauch ;)
#38
customavatars/avatar160319_1.gif
Registriert seit: 17.08.2011

Vizeadmiral
Beiträge: 8164
Zitat ShaBBu;24973393
hi, und was ist dabei rausgekommen?

bin noch nich dazu gekommen. sorry

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Sharif;24973826
Der Unterschied ist das ich das kann und nicht fdsonne seine Hilfe brauch ;)


jajajaaaaaa :P
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]