EVGA RTX 3080 FTW3 Multimonitor IDLE verbrauch

NuclearVirus

Enthusiast
Thread Starter
Mitglied seit
26.01.2010
Beiträge
1.581
Ort
Trier
Ich bin seit kurzem Besitzer einer 3080 FTW3 Ultra (endlich) und habe das Problem, dass die Karte im IDLE ca. 100W zieht, wenn 3 Monitore angeschlossen sind.
(4k@120, wqhd@144, wqhd@60)
Der Speicher bleibt auch im idle auf 9502 MHz. Wenn ich den 60hz monitor deaktiviere taktet der Speicher auf 405MHz und der Verbrauch sinkt auf knapp unter 50w. Dann gehen auch die Lüfter aus, aber ab und zu gehen sie für wenige Sekunden deutlich hörbar an.
Sämtliche RGB Beleuchtung ist ausgeschaltet, daher sollte die Karte ja eigentlich nicht mehr Strom verbrauchen als eine FE?! (oder liege ich da falsch?)
Laut einem Test von Computerbase verbraucht eine 3080 FE mit einem Monitor 9W und mit 2x4k@60 20W.
Mit den 50W und ab und zu anlaufenden Lüftern könnte ich noch leben, aber 100W zum nichtstun erscheint mir doch ziemlich übertrieben, vorallem da die FTW3 Lüfter auf der niedrigsten stabilen Drehzahl nicht gerade leise sind.

Ich habe schon versucht den 144hz Monitor auf 120hz zu stellen, aber das hat nichts gebracht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe mir gerade mal den Nvidia Inspector installiert. Wenn ich da in dem Fenster "Multi Display Power Saver" die Grafikkarte auswähle, geht der Verbrauch auf ca. 53W runter, aber alle paar Sekunden flackert einer der Bildschirme ein wenig... (Es kommt von oben ein schwarzer Balken ins Bild) Das ist so natürlich auch nicht benutzbar.

Ich habe mal ein wenig in diesem verlinkten Thread gelesen. Es scheint ja irgendwie random zu sein, wann das Problem auftritt. Bei einigen schon beim 2. Monitor mit 1080p und bei anderen erst beim 4. Jemand hat geschrieben, dass es wohl an unterschiedlichen Bildwiederholraten liegen könnte. Hat damit schonmal jemand Erfahrungen gemacht? Ich könnte den 60hz Bildschirm gegen einen mit 144hz tauschen und dann alle 3 mit 120hz laufen lassen. Das Geld möchte ich aber eigentlich nicht nur für ein Experiment ausgeben...

Ich habe eben mal probiert die beiden WQHD Bildschirme auf 60hz zu stellen, was auch zum "P8" State führt und den Verbrauch sogar auf 43W senkt, aber das möchte ich mir eigentlich auch nicht langfristig antun. Ich habe doch keine extrem übertrieben teure Grafikkarte gekauft um mir dann 60hz anzutun! Auch im Desktop Betrieb ist das einfach zu wenig (gerade noch so akzeptabel für den 3. Monitor, den ich seltener benutze, als die anderen)!
Ich habe die letzten paar Wochen eine 3080 FE benutzt. Ich weiß nicht, ob das Problem bei der auch vorhanden war, da die Lüfter auf niedriger Drehzahl nicht so aufdringlich waren, wie die der EVGA Karte, wodurch ich nie auf die Idee kam, den Verbrauch im Idle zu überprüfen. Die habe ich nun leider nicht mehr um das zu vergleichen. Ich dachte es sei eine gute Idee sie gegen eine LHR Karte + Zuzahlung zu tauschen, da ich eh nicht vorhabe mit der Karte zu minen... und einen bessren Kühler wollte.
 
Black Flickering im Multimonitor-Betrieb ist ein Treiberproblem, welches seit mehreren Versionen besteht und noch immer nicht gefixt wurde.
Nimm den "alten" 472.12 Treiber und das Problem ist weg.
 
Ich versuche mir mal bei einem Freund einen 1440p 144hz Monitor auszuleihen und probiere ob es damit funktioniert. Ich kann ja nicht bis in alle Ewigkeit irgend einen alten Treiber benutzen. Das "Black Flickering" taucht ja auch nur mit dem forcierten P8 State auf. Ich würde es auch bevorzugen nicht jedes Mal wenn ich ein Spiel installiere, das da zu der Liste hinzufügen zu müssen....
Ich habe jetzt den 60hz Monitor auf 75hz übertaktet und betreibe erst mal die beiden mit 75hz. Ist zwar nicht viel besser als 60 aber immerhin etwas.
 
Was ist der Idle Verbrauch mit dem alten Treiber?
 
Ich habe die Problematik auch schon sehr lange mit meiner 3090 und 3060. Beide Rechner zeigen das Bild das du beschreibst. Ältere Treiber hatten bei mir auch keine Lösung gebracht. Ich lebe inzwischen einfach damit, da ich 4k@120hz, 4k@60hz und wqhd@144hz nicht anders anschließen kann als an einer der Karten.
Ich habe zusätzlich noch das Problem, wenn der Monitor an HDMI nicht an ist, wird das Bild insgesamt nur an einem Monitor ausgegeben.

Die Lüfter bei meiner EVGA und ZOTAC sind sehr leise bzw. die Zotac hat sehr große Lüfter und laufen eher langsam an. Der Stromverbrauch ist für mich eher vernachlässigend, da ja die 3 Monitore auch nicht gerade sparsam sind. :)

Vielleicht kommt ja mal ein Treiberupdate.
 
Hast du den Schalter bei der FTW3 auf "Normal" oder "OC"? Letzteres deaktiviert nämlich den Fan-Stop soweit ich weiß.
 
Ich benutzte nicht das OC bios. Ich habe mal ein wenig an der Lüfterkurve rumgespielt. Lüfter nr.3 kann nicht unter ca. 33% gestellt werden, da er sonst "oszilliert". Hab mir ne Lüfterkurve gebastelt, der den 3. Lüfter erst ab 65° dazu schaltet. Ich möchte den Fan-Stop nicht deaktivieren, da die Lüfter (auch die beiden anderen) auch bei niedrigen drehzahlen deutlich hörbar sind. Eventuell würde ich es in Betracht ziehen, an der Grafikkarte Noctua Lüfter zu Montieren. Dafür werde ich aber wohl im Dezember keine Zeit mehr haben. Ich bin echt enttäuscht von EVGA. Habe eigentlich bisher viel gutes über die gehört, aber bisher bin ich mit der Karte nicht zufrieden. Das mit dem Standby ist natürlich ein Nvidia Problem, aber die Lüfter nicht. Dass die Karte mit dem werksseitigen OC nicht stabil läuft, finde ich auch absolut nicht akzeptabel.
Beitrag automatisch zusammengeführt:

Der Stromverbrauch ist für mich eher vernachlässigend
Bei 10h/Tag kosten 50W in 3 Jahren knapp 200€. Das würde ich nicht als "vernachlässigend" bezeichnen. Wenn ein weiterer 120/144hz Bildschirm dagegen helfen würde, wäre der quasi kostenlos, wenn man ihn mit der Stromersparnis verrechnet.
Falls es das hier irgendjemand liest, der 1x4k@120hz und noch 2 wqhd Bildschirme mit 120/144hz hat, kann er ja mal probieren, ob es einen unterschied macht, wenn beide mit 120/144 laufen, oder einer davon mit 60. Da in dem verlinkten Forum hat jemand geschrieben, dass er vermutet, dass das Problem durch zu viele unterschiedliche Auflösungen/Refreshrates verursacht wird.
 
Zuletzt bearbeitet:
Soll denn auf allen 3 Monitoren gespielt werden? Wenn nicht, kann es Sinn machen, 1 oder 2 Monitore über onboard Grafik des Mobos oder eine kleine zusätzliche Graka laufen zu lassen.
 
Bei mir scheints keine Probleme zu geben mit 3 Monitoren, ich geb dir einfach mal meine Werte zum Vergleichen:
wqhd@144, wqhd@60, fullhd@60 (tv)
9w solo, 18-20w zu 2., 28-30w zu 3.
 
wäre der quasi kostenlos, wenn man ihn mit der Stromersparnis verrechnet.
Falls es das hier irgendjemand liest, der 1x4k@120hz und noch 2 wqhd Bildschirme mit 120/144hz hat, kann er ja mal probieren, ob es einen unterschied macht, wenn beide mit 120/144 laufen, oder einer davon mit 60. Da in dem verlinkten Forum hat jemand geschrieben, dass er vermutet, dass das Problem durch zu viele unterschiedliche Auflösungen/Refreshrates verursacht wird.
bei mir läuft ein 3440 x 1440 144Hz und ein WQHD auf 144Hz. Bei mir zieht er auch bei 120Hz bei Beiden 40W (6800XT). Da hat leider nicht nur Nvidia Probleme
 
Soll denn auf allen 3 Monitoren gespielt werden? Wenn nicht, kann es Sinn machen, 1 oder 2 Monitore über onboard Grafik des Mobos oder eine kleine zusätzliche Graka laufen zu lassen.
Ich habe leider nur ein micro ATX Mainboard (und Gehäuse) und eine weitere Karte, wenn ich die überhaupt rein bekommen würde, würde den Luftfluss zu der 3080 stören. Mein Ryzen hat leider auch keine onboard Grafik...
bei mir läuft ein 3440 x 1440 144Hz und ein WQHD auf 144Hz. Bei mir zieht er auch bei 120Hz bei Beiden 40W (6800XT). Da hat leider nicht nur Nvidia Probleme
40W sind ja noch absolut akzeptabel. Die 50W die meine NVidia für die 3 Bilschrirme braucht, wenn die beiden wqhd auf 60 bzw 75hz laufen gehen auch noch klar. Sind ja schließlich eine genze Menge an Pixeln, die berechnet werden müssen (ca. 7x mehr Pixel/s als ein einzelner WQHD Bilschirm mit 60hz). Aber 100W sind echt total übertrieben....
Bei mir scheints keine Probleme zu geben mit 3 Monitoren, ich geb dir einfach mal meine Werte zum Vergleichen:
wqhd@144, wqhd@60, fullhd@60 (tv)
9w solo, 18-20w zu 2., 28-30w zu 3.
Im vergleicht zu den Pixeln/s scheint das ja bei mir im Vergleich ziemlich linear zu skalieren. 30W für 880m Pixel/s bei dir und 47W für 1550m Pixel/s bei mir. Das Problem besteht ja hautsächlich dadurch, dass die Karte nicht in den "P8 State" geht, wenn der eine WQHD mit 120 oder 144hz läuft.
 
Ich habe jetzt mit einem zweiten 144hz WQHD Bildschirm (statt dem 60hz) experimentiert. Ich habe im Nvidia Control Panel ein paar Auflösungen erstellt. Mit den beiden auf 100hz geht die Karte in den P8 State und verbraucht ca. 48W. Mehr scheint nicht möglich zu sein. Ab 105hz bis ca. 115 geht sie in den P3 State und verbraucht dabei ca. 80W und sobald einer auf 120 läuft läuft sie im P0 State weiter.
2x 100hz ist aber mehr als 120 und 60 (200Bilder/s vs 180Bilder/s). Also scheint es auf jeden fall eher an den unterschiedlichen (und hohen) Refreshrates als an den gesamten Bildern/s zu liegen.
Damit werde ich mich nun wohl zufriedengeben müssen. 100hz sind ja auch schon mal ganz in Ordnung.
 
bei mir läuft ein 3440 x 1440 144Hz und ein WQHD auf 144Hz. Bei mir zieht er auch bei 120Hz bei Beiden 40W (6800XT). Da hat leider nicht nur Nvidia Probleme
Das ist kein Problem, das soll so sein.

Bei einem Monitor kann man es ändern indem man die Auflösung Manuel einstellt und bei Timing-Standard auf "CVT-verringerte Austastung" geht.
Sobald aber der 2te Monitor dazu kommt hat man wieder 40W mehr auf der Uhr stehen, weil sich der Speicher hochtaktet.

Stell mir immer noch die Frage warum sich der Speicher hochtaktet, normal sollte es da eigentlich keinen Grund für geben.

Das gab es damals auch schon bei der 4870, nur konnte man da den Takt senken mit dem Afterburner.
 
muss man sich mal auf der zunge zergehen lassen, dass ich mit dem problem schon seit der gtx 970 zu kämpfen hatte. 8 jahre später und nichts ist besser geworden...
 
Hab 4 Monitore an einer 3090 FE dran:
100 hz + 100 hz + 165 hz+ 60hz. = Idle-Verbrauch 100 W.

Schalte ich die 2x 100hz Monitore aus droppt der Verbrauch auf 34W.

Überlege mir eine 2. Graka mit max 23W Verbrauch zu holen um die 2x 100hz über DP anzuschließen.

Ka, ob das dann auf 23 W + 34 W droppt statt 100W? :d
 
Bei einem Monitor kann man es ändern indem man die Auflösung Manuel einstellt und bei Timing-Standard auf "CVT-verringerte Austastung" geht.
Sobald aber der 2te Monitor dazu kommt hat man wieder 40W mehr auf der Uhr stehen, weil sich der Speicher hochtaktet.

Stell mir immer noch die Frage warum sich der Speicher hochtaktet, normal sollte es da eigentlich keinen Grund für geben.

Das gab es damals auch schon bei der 4870, nur konnte man da den Takt senken mit dem Afterburner.

Bei einem Monitor hatte ich das Problem mit der Aktivierung von Freesync gelöst und es hatte sich immer ganz locker runtergetaktet, aber mit dem 2. Monitor ist es echt eine Wucht. Sogar wenn der Monitor ausgeschaltet ist, taktet er nicht runter, es reicht schon, dass das DP Kabel drinnen ist.

Das gleiche Problem tritt auf, wenn du mit einem Monitor nur ein Video startest, der VRAM Taktet direkt auf das Limit. Ich denke, dass ich bei meinem nachsten CPU kauf, eine nehmen muss mit iGPU, damit ich den einen Monitor darüber anschließen kann (wird eh nicht auf den 2. Monitor gezockt).

Ich verstehe nicht, wieso man das seit Jahren nicht lösen konnte, egal welcher Hersteller.
 
Ich habe mal ein wenig in diesem verlinkten Thread gelesen. Es scheint ja irgendwie random zu sein, wann das Problem auftritt.
Naja, die Karte taktet hoch, wenn keine Vesa-Pixelclock anliegt. Kann man eventuell mit CRU hinbiegen, wenn man nur einen Monitor hat. Bei mehreren Monitoren ist das Problem das gleiche, aber schwieriger mit CRU zu fixen.
Und irgendwann ist auch POWER nötig um eine bestimmte Pixelmenge pro Sekunde zu refreshen.
Und wenn man verschiedene Monitore betreibt ist eine Vesa-Pixelclock halt schwierig zu erreichen.
Ich meine, am Anfang jeder neuen Graka/Treiber-Generation hat man das Problem scheinbar generell, und mit jedem Treiber wirds besser. Bei Ampere-Release ließ alleine schon EIN(!) 144hz 4K-Monitor den Speicher hochtakten.

https://www.computerbase.de/forum/t...tet-nicht-runter-loesung-mittels-cru.1986961/ falls noch nicht gelinkt zum einlesen.

Auf der anderen Seite versteh ich dann aber auch die User nicht .. immer höhere Auflösungen, immer mehr Monitore immer mehr Refreshrate, und sich dann beschweren dass 400Mhz nicht mehr ausreichen ... also ich meine ja nur.


Ich hab da scheinbar Glück. 4 Monitore und die Graka geht in Idle (1x UHD/144hz@60hz und 3x2560x1600@60hz). Aber auch nur solange ich den großen Monitor nicht mit mehr als 60hz betreibe.
nvidia_multimonitor_p6wjjt.jpg


Und das lustige ist ... wenn ich so in meinen Screenshots krame, finde ich auch die gleiche Kombination (auch wenn der 4K-Monitor dort tatsächlich nur 60hz hatte) mit Pascal zum Release (ohne das Surround-Set) mit hochgetaktetem Speicher^^ Eventuell macht das Surround-Set dort den Unterschied, weil es wie "ein" Monitor behandelt wird und einfacher für die Graka zu handhaben ist.
nvidia_monitore_multi56k5x.jpg


Das coole bei Nvidia ist ja, das man am Desktop die Monitore ja langsam betreiben kann, und sie nur beim zocken hochtaktet, ohne das man irgendwas dazu einstellen muss, das geht ja schon relativ automatisch.
Braucht man am denn unbedingt 120hz am Desktop, nur weil der Monitor es kann? So ganz ehrlich jetzt.
 
Zuletzt bearbeitet:
Naja, die Karte taktet hoch, wenn keine Vesa-Pixelclock anliegt. Kann man eventuell mit CRU hinbiegen, wenn man nur einen Monitor hat. Bei mehreren Monitoren ist das Problem das gleiche, aber schwieriger mit CRU zu fixen.
Und irgendwann ist auch POWER nötig um eine bestimmte Pixelmenge pro Sekunde zu refreshen.
Und wenn man verschiedene Monitore betreibt ist eine Vesa-Pixelclock halt schwierig zu erreichen.
Ich meine, am Anfang jeder neuen Graka/Treiber-Generation hat man das Problem scheinbar generell, und mit jedem Treiber wirds besser. Bei Ampere-Release ließ alleine schon EIN(!) 144hz 4K-Monitor den Speicher hochtakten.

https://www.computerbase.de/forum/t...tet-nicht-runter-loesung-mittels-cru.1986961/ falls noch nicht gelinkt zum einlesen.

Auf der anderen Seite versteh ich dann aber auch die User nicht .. immer höhere Auflösungen, immer mehr Monitore immer mehr Refreshrate, und sich dann beschweren dass 400Mhz nicht mehr ausreichen ... also ich meine ja nur.


Ich hab da scheinbar Glück. 4 Monitore und die Graka geht in Idle (1x UHD/144hz@60hz und 3x2560x1600@60hz). Aber auch nur solange ich den großen Monitor nicht mit mehr als 60hz betreibe.
Anhang anzeigen 704500

Und das lustige ist ... wenn ich so in meinen Screenshots krame, finde ich auch die gleiche Kombination (auch wenn der 4K-Monitor dort tatsächlich nur 60hz hatte) mit Pascal zum Release (ohne das Surround-Set) mit hochgetaktetem Speicher^^ Eventuell macht das Surround-Set dort den Unterschied, weil es wie "ein" Monitor behandelt wird und einfacher für die Graka zu handhaben ist.
Anhang anzeigen 704501

Das coole bei Nvidia ist ja, das man am Desktop die Monitore ja langsam betreiben kann, und sie nur beim zocken hochtaktet, ohne das man irgendwas dazu einstellen muss, das geht ja schon relativ automatisch.
Braucht man am denn unbedingt 120hz am Desktop, nur weil der Monitor es kann? So ganz ehrlich jetzt.
Was meinst du genau mit "langsam" betreiben?
 
Ich hatte auch beide mal auf 60Hz gestellt, ging trotzdem nicht. Ich denke, dass die Meisten auch keine Einsteigerkarte dafür nutzen, da könnte man schon bei solchen Preisen solche Dinge gefixt erwarten.
 
Das gleiche Problem tritt auf, wenn du mit einem Monitor nur ein Video startest, der VRAM Taktet direkt auf das Limit. Ich denke, dass ich bei meinem nachsten CPU kauf, eine nehmen muss mit iGPU, damit ich den einen Monitor darüber anschließen kann (wird eh nicht auf den 2. Monitor gezockt).

Kenne ich, habe ne Steckerleiste gekauft:


Da mache ich den 2ten Monitor immer komplett aus mit.

Denke mal, die Grafikkarte unterscheidet nicht in an und aus, sondern nur Signal da und nicht da.
Ich habe auch einen TV ~1,5 Jahre alt, der hat nichtmal mehr einen Schalter zum ausstellen.

Am TV selber mit HDMI 4k 60Hz kein Problem taktet runter, sobald man aber über 60Hz geht, steht der Takt wieder auf Max.

Gut wir in DE regen uns drüber auf, weil der Strom so teuer ist. Interessiert die da drüben eher weniger ob die Karte jetzt 50W mehr schluckt, oder nicht.
In den USA liegt der Preis glaube ich bei ~13 Cent, die bezahlen nichtmal die Hälfte da drüben. Schweiz, Österreich und Frankreich ~10 Cent billiger als bei uns.
 
Ich habe an meiner 3080 Suprim X einen 165Hz (Gsync compatible) 1440p und einen 144Hz (Full GSync) 1440p.
GSync ist bei beiden Monitoren aktiv.
Idle-Verbrauch der GPU ca. 20-25W.
 
@Squall2010 - Super Teil, genau etwas, was mein Problem löst. Ich undervolte meine Karten immer eig, damit ich bessere Temps und eine geringere Lüfterdrehzahlen habe
 
Auf der anderen Seite versteh ich dann aber auch die User nicht .. immer höhere Auflösungen, immer mehr Monitore immer mehr Refreshrate, und sich dann beschweren dass 400Mhz nicht mehr ausreichen ... also ich meine ja nur.
Darum geht es ja überhaupt nicht. Wenn die 405Mhz nicht ausreichen würden (was nicht der Fall ist), könnte die Karte ja auf z.B. 500Mhz Takten und 5W mehr verbrauchen. Aber, dass der Speicher auf einmal 2300% schneller Takten muss, nur um ein paar % mehr Pixel zu betreiben??? Mit den ca. 50W, die sie im Idle verbraucht habe ich ja überhaupt kein Problem. Nur der Sprung von 50 auf 100W nur weil man einen Bildschirm mit 10Hz mehr laufen lässt, ist nicht normal und sicherlich nicht notwendig.
Von den Milliarden US$ an Gewinn pro Quartal wären 0.000xxx % davon gut in die Lösung eines anscheinend seit vielen Jahren existierenden Problems investiert. Auch wenn es wohl nicht allzu viele Kunden betrifft.

Braucht man am denn unbedingt 120hz am Desktop, nur weil der Monitor es kann? So ganz ehrlich jetzt.
60hz sind mMn auch auf dem Desktop nicht genug. Das fühlt sich halt einfach scheiße an, sobald man die Maus bewegt. Nebenbei ist das super lästig, wenn das jedes Mal eine Ewigkeit dauert, wenn man ein Spiel minimiert und der Monitor erst mal umgestellt werden muss.
Ich habe die beiden äußeren WQHD Bildschirme jetzt mit 100Hz laufen und das ist schon wesentlich angenehmer als 60. Hab mir einen gebrauchten Samsung C32JG56 (32" WQHD@144Hz) für 190€ mit optischen Mängeln am Gehäuse gekauft.
 
Tatsächlich können die Grafikkarten das RAM nur langsam oder schnell betreiben, und keine Zwischenschritte.
Was immerhin ein Schritt mehr ist als Dein Rechner. Der kann das RAM ausschließlich schnell betreiben.
Irgend einen Grund wird das haben, dass das RAM nicht so hin und her taktet wie die CPU/GPU .. ich schätze es ist dem Umstand geschuldet, dass es das langsamste Glied in der Kette ist^^
Aber ich bin auch kein Graka- oder Treiber-Entwickler. Hab davon leider auch keine Ahnung :-(
 
Zuletzt bearbeitet:
Ja Multimonitor auf Nvidia ist ein Krampf meiner Meinung nach. Ich hatte mal ne 3080TI Strix, die bei zwei Monitoren ums Verrecken nicht unter 50W bleiben konnte, weswegen sie im Minutentakt das gute alte "Lüfter an - Lüfter aus" Spiel gespielt hat. Machen die sicher gesund mehrere Jahre mit, die die Karte ja halten sollte. Ende vom Lied war den zweiten Monitor nur noch bei Bedarf zuzuschalten beim Gaming, wo die Lüfter sowieso liefen. Mit nur einem Monitor zog die Karte 40W. Purer Krampf...Mach ich nie wieder. Ich hoffe Nvidia schafft es die Karten auf die Idle Power Draw zu treibern, die auch die ganzen Test- und Reviewschreiber angeben. Zwischen 8-18 Watt oder was die alle kartenübergreifend angeben, war ich im Idle nämlich noch mit keiner Karte aus Ampere. Und Multimonitor ist auch immer 50W aufwärts und nicht 20-25W. Keine Ahnung warum.
 
Ich habe eine Lösung gefunden, welche auch Softwareseitig funktioniert.

1641159992525.png


Einfach nur auf dem einen Bildschirm anzeigen auswählen und dann geht der VRam Takt runter. Wenn du dann wieder per Software den 2. Monitor aktiviert dann geht er genau auf die selbe Position wie davor. Mein VRam laeuft jetzt mit 190-192 Mhz
 
Ich habe eine Lösung gefunden, welche auch Softwareseitig funktioniert.

Fixed Issues​


  • Connecting multiple monitors with high display bandwidths and differences in vertical intervals to a system may lead to high idle memory clock values being experienced by some users.

Mir ist vorher schon aufgefallen, dass der Speicher nicht mehr auf 100% taktet bei einem Video z.B.

Einfach nur auf dem einen Bildschirm anzeigen auswählen und dann geht der VRam Takt runter. Wenn du dann wieder per Software den 2. Monitor aktiviert dann geht er genau auf die selbe Position wie davor. Mein VRam laeuft jetzt mit 190-192 Mhz
Problem ist ja eher, dass man bei Monitoren mit mehr als 60Hz auch dieses Problem hat.

Edit:

Getestet habe ich es, aber da wurde nichts gefixt. Ist immer noch so wie vorher auch.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh