[Sammelthread] AMD Radeon RX 6000 Undervolting - Thread (Auf der Suche nach dem Sweetspot)

Hab es bei mir jetzt nochmal bei warmen Temps Timespy probiert.

Standardprofil 102°C Hotspot knapp unter 12000 Punkte
Mein OCUV - 100mV + 5%PL 98°C Hotspot Setup knapp 12500
Mein UV Setup - 120mV +5%PL 92°C Hotspot genau 12000 Punkte

Schon echt krass, wenn die chipgüte so variiert bei der 6700XT
Deine Karte schafft 12500 Punkte bei 1080 mV? Jetzt bin ich traurig. Aber zumindest die Temperaturen scheinen ähnlich zu sein, da mach ich mir keine Sorgen. Wie groß ist denn bei dir der Unterschied zwischen der GPU Temperatur und dem Hotspot? Im Standartprofil sind es bei mir immer um die 21°C.

1. Warum schluckt meine Karte im Idle ca. 30 Watt? Laut ersten Recherchen im Internet immer noch ein Problem was AMD nicht in den Griff bekommt oder sollte das ein Treiber schon gelöst haben? VRam Takt liegt immer voll an und dadurch wird die Karte unnötig warm. 🙄 (UWQHD 144hz)
Interessant, zumindest das Problem scheint die 6700 XT nicht zu haben. Die schluckt bei 1440p 144Hz 7W.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja die Herz Zahl runter habe ich auch gelesen. Allerdings will man ja nicht als hin und her schalten. Das mit dem CRU scheint die elegantere Art zu sein.
Naja, mehr Frames fordern auch mehr Leistung, welches sich in einem höheren Verbrauch widerspiegeln. Ich bin gerade gar nicht sicher, ob man im Wattman dafür spezielle Profile anlegen kann. Nach dem Motto: wenn ich Spiel XY starte, sollen die Bildschrim-Settings (inkl. Bildwiederholrate) auch geladen werden. Vielleicht wäre da ja eine Möglichkeit.


Der Ultimate Chip und red Devil Kühler geben es ja her... aber den Ultimate Chip will man ja zu gerne kitzeln
Ich kann das absolut verstehen, gerade bei deiner Karte. Deswegen habe ich mir auch eine Grafikkarte mit Dual-BIOS, stärkerem VRM, Kühlung usw. geholt. Ehrlich gesagt, ist das für mich aber nur zum Benchen interessant. Klar, ne stärkere Kühlung, leisere Karte usw. sind auch für's daily zocken vorteilhaft, berücksichtigt man aber den Verbrauch in Hinblick auf das Plus in FPS, lohnt sich's mMn einfach nicht deutlich mehr Strom dafür zu verbraten. Kannst ja mit den Ingame-Benchmarks relativ leicht testen.

Wie gesagt, ich will hier keinem vorschreiben, wie hier jemand seinen Sweetspot definieren muss. Wenn du da Lust drauf hast und es deiner Meinung nach wert ist, mach das ruhig. Andere gehen wiederum von den Taktraten noch weiter runter, um die Voltage weiter abzusenken, ohne großartig an FPS zu verlieren. Auch machen nicht alle GPUs 2300/2400 @ 1085v mit.
 
Gerade wenn man eh ein Fps-Limit=117 mit so nem Moni verwendet/auslasten kann mit ner 6900, dann kann man
mal ne CustomResolution 120Hz erstellen. Die ist dann auch in guten Games auswählbar.

Konnte früher in Division immer zwischen 60Hz(Default) und 50Hz(Custom) wechseln.
 
Das mit CRU funktioniert schon mal 👍🏻, danke dafür!

ja ich will ja auch keine Watt verbraten und mit weniger Takt wäre das auch klar möglich. Aber blöd, dass 21.5.2 halt so instabil ist beim UV im Wattmann. Wie würde denn ein ganz simples UV im MPT aussehen? Angenommen ich würde dort nur ein wenig UV machen wollen bei gleichbleibender Leistung (sprich 2500mhz)
Alles oben drüber kann man ja mit Gewalt erreichen und Rekorde in 3Dmark will ich ja nicht brechen.

Mit welchen Treibern betreibt ihr UV?
mich nehme an MPT ist bei effektivem UV Pflicht😅

die RTX Karte ging wesentlich leichter zu UV mit dem MSI Afterburner. Bei mir schmieren die Spiele sofort ab wenn ich über Afterburner minimal UV machen will
 
Vermutlich einfach alles stock lassen und den Slider der Voltage runterstellen. Ich würde den VRAM noch übertakten, das ist kostenlose Performance. Wobei gerade die 6900 XT scheinbar mit leichtem UV sogar besser läuft (also mehr leistet).

Der Hotspot sieht jetzt richtig gut aus. Allerdings auch mit hoher RPM. Ich werde es wohl austesten wieviel Takt auf Max-Voltage geht und dann nochmal mit -50 mV. Danach werden die Lüfter soweit runtergedreht dass es ca 75° sind.
 

Anhänge

  • ssssss.JPG
    ssssss.JPG
    223,9 KB · Aufrufe: 212
Deine Karte schafft 12500 Punkte bei 1080 mV? Jetzt bin ich traurig. Aber zumindest die Temperaturen scheinen ähnlich zu sein, da mach ich mir keine Sorgen. Wie groß ist denn bei dir der Unterschied zwischen der GPU Temperatur und dem Hotspot? Im Standartprofil sind es bei mir immer um die 21°C.


Interessant, zumindest das Problem scheint die 6700 XT nicht zu haben. Die schluckt bei 1440p 144Hz 7W.
Nein, die schafft 12000 Punkte bei 1080mV oder 12500 bei 1100mV

Die Temperaturunterschiede, siehst du in meinem Beitrag im anderen Thread. Sind so ca. 10-15°C je nach Situation.
 
Zuletzt bearbeitet:
Kann durchaus sein, das auch die Temp. einen net unerheblichen Einfluss auf die Stabilität hat.
Wenn man ne sehr straffe Lü.kurve nutzen kann mit sehr gutem Airflow im Gehäuse, dann scheint der eff.Takt
höher zu sein = instabiler!

Hatte mal aus Spass versucht die GPU<50°C laufen zu lassen: = höherer eff.Takt
Man hat dann net mehr die üblichen maxTakt-50..60MHz sondern eher -40...-30MHz !!!
(ist evtl. aber auch den Versuchen mit Manipulieren der Takt/Spannungskurve geschuldet,
k.A. ob tatsächlich die Änderung von a=0,000000 in a=0,018750 wirkt.
Der Wert für a ist aus der Überlegung gewählt 1025mV - 1006,25mV = 18,75mV als
Kompensation fürs Cappen im MPT auf 1006,25mV)


edit: Aus unerfindlichen Gründen scheint der Chip mit MPT@1006mV eh bei maxTakt=2535 zu
zu machen. (hinsichtlich Stabilität)
Aber ich kann dann auch mit größerem Offset im WM die Spannung noch von 934mV auf 928mV
runternehmen.(= ein mue langsamer, dafür hoffentlich kühler für 24/7)
 

Anhänge

  • 2535@934_a1875.png
    2535@934_a1875.png
    47,9 KB · Aufrufe: 248
  • Curve.JPG
    Curve.JPG
    20,4 KB · Aufrufe: 263
  • MPT_229W.PNG
    MPT_229W.PNG
    5,3 KB · Aufrufe: 241
  • 2535@928_2000ST_220W.png
    2535@928_2000ST_220W.png
    27,8 KB · Aufrufe: 254
Zuletzt bearbeitet:
Nachdem ich gerade Was zum PS5-Performance-Mode gelesen habe, konnte ich net wiederstehen
und habe auch mal die Custom-Resi erstellt.

Ist natürlich gerade in Games mit RT deutlich sparsamer/kühler als 4k@1800p. (1584p vs 1800p = 77,44%)
Kann man mal als Zwischenlösung testen solange Es noch net das FSR gibt.
(bei mir für WDL+CP2077 nen Versuch wert, weils Da kein gescheites Downsampling 1440p@1080p gibt)
 

Anhänge

  • PS5-PerformanceMode.JPG
    PS5-PerformanceMode.JPG
    7,9 KB · Aufrufe: 199
  • 1584p.JPG
    1584p.JPG
    37,4 KB · Aufrufe: 194
  • CrissysBar@1584p.jpg
    CrissysBar@1584p.jpg
    266,3 KB · Aufrufe: 205
Zuletzt bearbeitet:
Hey, ich bin jetzt auch endlich stolzer Besitzer einer 6800XT, habe aber festgestellt dass ich im Idle (mit Wallpaper Engine) so 41W habe, ist schon recht hoch.
Weiterhin ist mir aufgefallen das in einigen Anwendungen , prominentes Beispiel World of Warships der Takt während des Spiels dauernd hoch und runter geht, geht laut GPU-Z teilweise auf 200 oder teilweise auch mal 0 MHz zurück. Damit bekomme ich deutliche Mini Freezes im Spiel.

Gibt es hier schon paar Erfahrungen wie mit UV die Leistung etwas drosseln könnte und die Takt Frequenz aber vielleicht etwas stabiler bekomme?
 
Ich würde jetzt spontan mal sagen, dass du deinen min Takt im Treiber mal höher einstellst. Damit müsste der Takt stabiler bleiben.
 
Habe ich gerade probiert, das Spiel ist dann relativ unperformant geworden und laut gpu z wurde irgendwie immer noch runtergetaktet, oder muss ich nach jeder Umstellung erst neu starten?
Was hat es denn mit dem Morepowertoll und dem deepsleep auf sich, müsste man das immer wieder neu deaktivieren? oder reicht es das einmal rauszunehmen?
 
Mit DeepSleep hatte ich anfangs ähnliche Probleme, das der Vram net komplett runtertaktet@Desktop.
Aber mein Moni ist eh komisch. Mit 4k60Hz fühlt Er sich wohl, aber 1080p@60Hz passt Ihm net.(x)

Blätter mal ne Seite zurück und versuch mit CRU das Blanking zu verstellen.(Post#115)
Dann sollten die 40W@hohem Vram-Takt net mehr passieren.

Im Game halt mal den minTakt auf 1930...1970 versuchen.

DS nur im Notfall versuchen und dann nur bei 2 Werten das Häkchen rausnehmen.
Hatte mir hellm Gestern im PCGH-Thread geraten.

(x) edit: solved
60Hz ist mit dem alten Moni ungünstig, 59,940Hz funzt
 

Anhänge

  • 4k-Surfen.jpg
    4k-Surfen.jpg
    379,1 KB · Aufrufe: 187
  • 1080p-Surfen.jpg
    1080p-Surfen.jpg
    182 KB · Aufrufe: 196
  • DS-off.JPG
    DS-off.JPG
    53,5 KB · Aufrufe: 162
  • 1080p@59,940Hz.JPG
    1080p@59,940Hz.JPG
    73,7 KB · Aufrufe: 232
Zuletzt bearbeitet:
Ich habe irgendwie in der Kombi mit meinem Monitor öfter Probleme..
Zum einen vergisst der Grafikkartentreiber oder Windows wohl teils was für ein Monitor dran hängt, da die Auflösung und alles zwar stimmt, aber er deaktiviert freesync vom Treiber her und schaltet das Panel auf 6bit.
Wenn ich dann am Monitor Freesync aus schalte und anschließend wieder an, dann springt er wieder auf die normalen Settings und zeigt auch die 10bit an. Das war mit meiner alten AMD Karte nicht der Fall.

Da aber dennoch das Problem besteht, dass die Grafikkarte bei 144Hz nicht den Ram entlastet und erst ab 120Hz runtertaktet, wollte ich mich mal an das CRU tasten.
Jetzt gibt es nur folgendes Problem:

LG Auflösung.PNG


Windows und AMD zeigen mir die richtige Auflösung und Wiederholfrequenz an, bei CRU gibt es diese Auswahl allerdings nicht, sondern nur 60 und 75Hz? :unsure:
Somit habe ich gar nicht die aktuelle Einstellung zur Auswahl und Bearbeitung??

Jemand ne Idee was ich dort machen kann?
 
Verzichte doch erstmal auf die 10bit. Du hast eh keinen echten HDR-Moni.
(weiss jetzt net genau, wie der Stand ist, aber mit 10 bpc gabs immer mal Probs an Gerät XYZ)

Zumindestens das komische 10bit Pixelformat = OFF wäre nen Versuch wert.
Zusätzlich kannste mal schauen ob Du statt der 144Hz den genauen Wert 143,923 wählen kannst bei erweiterte Anzeige.
In Deinem Bild links.
 

Anhänge

  • Farbtiefe 8 bpc.JPG
    Farbtiefe 8 bpc.JPG
    30,2 KB · Aufrufe: 116
  • 10bit Pixelformat off.JPG
    10bit Pixelformat off.JPG
    38 KB · Aufrufe: 121
Zuletzt bearbeitet:
Ich habe irgendwie in der Kombi mit meinem Monitor öfter Probleme..
Zum einen vergisst der Grafikkartentreiber oder Windows wohl teils was für ein Monitor dran hängt, da die Auflösung und alles zwar stimmt, aber er deaktiviert freesync vom Treiber her und schaltet das Panel auf 6bit.
Wenn ich dann am Monitor Freesync aus schalte und anschließend wieder an, dann springt er wieder auf die normalen Settings und zeigt auch die 10bit an. Das war mit meiner alten AMD Karte nicht der Fall.

Da aber dennoch das Problem besteht, dass die Grafikkarte bei 144Hz nicht den Ram entlastet und erst ab 120Hz runtertaktet, wollte ich mich mal an das CRU tasten.
Jetzt gibt es nur folgendes Problem:

Anhang anzeigen 641186

Windows und AMD zeigen mir die richtige Auflösung und Wiederholfrequenz an, bei CRU gibt es diese Auswahl allerdings nicht, sondern nur 60 und 75Hz? :unsure:
Somit habe ich gar nicht die aktuelle Einstellung zur Auswahl und Bearbeitung??

Jemand ne Idee was ich dort machen kann?
Die anderen Auflösungen bzw. Wiederholraten stehen i.d.R. ganz unten unter "Extension Blocks". Da mal per Doppelklick reinschauen. Da müssten die anderen möglichen Auflösungen stehen.
 
Zumindestens das komische 10bit Pixelformat = OFF wäre nen Versuch wert.
Zusätzlich kannste mal schauen ob Du statt der 144Hz den genauen Wert 143,923 wählen kannst bei erweiterte Anzeige.
In Deinem Bild links.
Naja zumindest hat der Monitor ein echtes 10bit Panel und kein 8bit + FRC, somit bringen mir die 10bit in der Detailgetreue der Farben schon was. Kann ich aber dennoch mal testweise Probieren (Hatte aber wie gesagt bisher damit noch nie Probleme)
In der Windows Auswahl gibt es nur die normalen Angaben 60, 75, 90, 120, 144.

Die anderen Auflösungen bzw. Wiederholraten stehen i.d.R. ganz unten unter "Extension Blocks". Da mal per Doppelklick reinschauen. Da müssten die anderen möglichen Auflösungen stehen.
Bei mir gibt es dort zwei weitere Reiter (CTA-861 und VTB-EXT) mit einer weiteren Auflösung und zwar folgende:
LG Auflösung2.PNG


Auch diese ist aber leider nicht die 144Hz Variante :unsure:
 
Naja zumindest hat der Monitor ein echtes 10bit Panel und kein 8bit + FRC, somit bringen mir die 10bit in der Detailgetreue der Farben schon was. Kann ich aber dennoch mal testweise Probieren (Hatte aber wie gesagt bisher damit noch nie Probleme)
In der Windows Auswahl gibt es nur die normalen Angaben 60, 75, 90, 120, 144.


Bei mir gibt es dort zwei weitere Reiter (CTA-861 und VTB-EXT) mit einer weiteren Auflösung und zwar folgende:
Anhang anzeigen 641206

Auch diese ist aber leider nicht die 144Hz Variante :unsure:
Und bei dem DisplayID 1.3 Extension Block? Da müssten auch Auflösungen drin sein.
 
Und bei dem DisplayID 1.3 Extension Block? Da müssten auch Auflösungen drin sein.
Ja, du hast Recht :banana:
Allerdings auch wieder Versteckt in einem weiteren Container in dem Container.
Dort gibt es dann im Dropdown die Auswahl zwischen DisplayID 1.3 und DisplayID 2.0:
LG Auflösung3.PNG
LG Auflösung4.PNG



Dort sind beide Male die sleben zwei Auflösungen drin. Gehe ich richtig der Annahme, dass dies Displayport 1.3 und 2.0 Kompatibilitäten sind und demnach bei einer 6900XT die 2.0 die richtige sein müsste?
Oder woher erkenne ich welche der beiden ich nehmen soll?
 
Ja, du hast Recht :banana:
Allerdings auch wieder Versteckt in einem weiteren Container in dem Container.
Dort gibt es dann im Dropdown die Auswahl zwischen DisplayID 1.3 und DisplayID 2.0:
Anhang anzeigen 641213Anhang anzeigen 641214


Dort sind beide Male die sleben zwei Auflösungen drin. Gehe ich richtig der Annahme, dass dies Displayport 1.3 und 2.0 Kompatibilitäten sind und demnach bei einer 6900XT die 2.0 die richtige sein müsste?
Oder woher erkenne ich welche der beiden ich nehmen soll?
Ja, das ist teilweise ein bisschen verschachtelt.
Mit Displayport hat das nichts zu tun. Das sind unterschiedliche Versionen eines VESA-Standards.
Ich hab bei mir (RX 6800 & Dell S3220DGF) die Auflösungen unter DisplayID 1.3 angepasst. Kannst es da ja mal probieren und wenn es dann nicht zielführend ist, auf die 2.0 gehen.
 
edit: Aus unerfindlichen Gründen scheint der Chip mit MPT@1006mV bei maxTakt=2535 zu zu machen.
(hinsichtlich Stabilität)
Daher ein neuer Versuch mit MPT 1012,50mV zug. a=0,01250 (1025mV-1012,50mV = 12,50mV = a)
Damit gehts fast auf den selben maxTakt wie ohne Cappen.
(damals 2548@953mV jetzt 2545@940mV bei gleichem Offset 1025-953=72 vs. 1012-940=72)

Das ist jetzt mein spezielles Setting für WDL@RT. (um mal wieder die 2500MHz zu haben)
Normalerweise reicht auch Weniger = ca. 2530@928mV_2020FT. (in W3 gehts sogar mit 925mV, da geht nur Stress net !?)


edit:
Evtl. brauchts bei so großem Offset dann nen angehobenen minTakt, damit die minV reichen, ... Jo, passt Dann auch im Stresstest
1012-925=87mV Offset (minTakt=1930 reicht dann schon, um die minV zu stabilisieren)
 

Anhänge

  • GFX=1012,50mV.JPG
    GFX=1012,50mV.JPG
    20,3 KB · Aufrufe: 141
  • a=0,01250@GFX1012,50mV.JPG
    a=0,01250@GFX1012,50mV.JPG
    19,1 KB · Aufrufe: 150
  • 940@2545-500_2078FT.png
    940@2545-500_2078FT.png
    26,9 KB · Aufrufe: 147
  • 925_928@2530-500_2000FT.png
    925_928@2530-500_2000FT.png
    27,6 KB · Aufrufe: 125
  • 925@2530-1930_2020FT.png
    925@2530-1930_2020FT.png
    26,2 KB · Aufrufe: 144
Zuletzt bearbeitet:
Ich hab bei mir (RX 6800 & Dell S3220DGF) die Auflösungen unter DisplayID 1.3 angepasst. Kannst es da ja mal probieren und wenn es dann nicht zielführend ist, auf die 2.0 gehen.

Ich wollte euch die Ergebnisse nicht vorenthalten, daher vielen Dank für den Tip, denn genau diese Werte haben dann auch funktioniert.
Standard war bei mir dort 70 im Blanking eingestellt. Mithilfe der Exceltabelle zur Berechnung habe ich dann 102,XY als optimalen Wert ermittelt.
Funktioniert bei meinem Monitor sogar schon ab 100.
Anbei noch einmal die Klickreihenfolge von links nach rechts durch die Menüs:
CRU Settings.PNG


Soweit läuft das mit den Settings jetzt gut mit dem RAM und auch die 10Bit und Monitor Settings sind davon unberührt.
Vielen Dank (y)
 
Danke für die Erklärung!

Wo gibts die Exceltabelle?
 
Habe mir auch Control for Free bei EPIC geholt. Die kleine Rx 6800 macht das ganz gut in 1440p max Settings!

Control_DX11_2021_06_20_11_09_13_044.jpg
 
Wo gibts die Exceltabelle?
Beitrag automatisch zusammengeführt:

Win-Anzeige_und_CRU_allgemein.jpg

Hatte mich jetzt auch mal daran bemüht, weil der VRAM immer bei ca. 2000 MHz taktet.
Habe 2 Monitore, 4k und UWQHD, über Displayport angeschlossen.


WM_und_CRU_Detail_4k.jpg
WM_und_CRU_Detail_UWQHD.jpg



Hatte die "Blanking Lines" entsprechend der Excel Tabelle eingestellt. Beim 4k passte es von vorneherein mit "62".
1624187383962.png

1624187450462.png



Beim UWQHD hatte ich nachgebessert
1624187522177.png
1624187596290.png


Jedoch keine Besserung, auch nach "restart64" nicht.
Weiß jemand Rat?
 
Zuletzt bearbeitet:
Ich habe das auch mal probiert mit dem Blanking. Das Ende vom Lied war Blackscreen.

Deswegen bin ich auf 142Hz runter. Da ich sowieso mit 140 Fps Cap spiele, ist das nicht so tragisch und es funktioniert alles einwandfrei.
 
Jedoch keine Besserung, auch nach "restart64" nicht.
Was passiert eigentlich mit den Monis, wenn Sie einzeln betrieben werden?
Passt dann das geänderte Blanking?
 
Hatte mal etwas gegoogelt und scheinbar gibt es nur zwei Profile für GDDR6 VRAM.
Bei Monitoren mit >144Hz kann man schon Pech haben das selbst mit Nachhilfe der VRAM nicht mehr runtertaktet.
Beim Multi-Monitorbetrieb ist gänzlich das schnelle Profil aktiv. Schade.
Beitrag automatisch zusammengeführt:

Was passiert eigentlich mit den Monis, wenn Sie einzeln betrieben werden?
Passt dann das geänderte Blanking?
Hab ich nicht probiert, aber vielleicht nachher mal testen.
 
Kannst Du mal bitte als Support für einen normalen WQHD 2560x1440-144Hz Moni noch das Blanking ausrechnen.
Die Tabelle hat nur Lesezugriff.
 
Kannst Du mal bitte als Support für einen normalen WQHD 2560x1440-144Hz Moni noch das Blanking ausrechnen.
Die Tabelle hat nur Lesezugriff.
Du kannst dir die Tabelle aber im Format deiner Wahl herunterladen und dann selbstständig alles bearbeiten und einstellen :-)

btw. ich hatte auch gerade einmal das Gefühl, dass das untere drittel meines Monitors leicht geflackert hat. Vll liegt das jetzt auch an dem Blanking? Muss es mal beobachten
 
Danke, funzt!
 

Anhänge

  • WQHD@144Hz.JPG
    WQHD@144Hz.JPG
    26,7 KB · Aufrufe: 105
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh