Radeon RX 7900 XT(X): Neuer Treiber soll Idle-Verbrauch reduzieren

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"AMD hat in der Optimierung des Treibers also den richtigen Weg eingeschlagen, knapp unter 30 W sind aber eigentlich für einen Single-Monitor-Betrieb noch immer deutlich zu viel."
Dafür, dass AMD so schnell war, ist das Ergebnis erstaunlich gut, für die kürze der Zeit, die AMD hatte!

Wie wir alle wissen, hat nicht nur INTEL Treiberprobleme, sondern auch andere wie unser Spezi NVIDIA:







Es sind nur einige Beispiele!

Nachtrag:


Ich habe mir erlaubt mal einige Methoden der NVIDIA-Influenzer zu nutzen!
 
Zuletzt bearbeitet:
Ja ja man muss AMD loben, dass man so schnell mit einem update reagieren konnte. allerdings ist es merkwürdig, das der zu hohe Idle Verbrauch bei der Entwicklung nicht aufgefallen ist.
 
Ja ja man muss AMD loben, dass man so schnell mit einem update reagieren konnte. allerdings ist es merkwürdig, das der zu hohe Idle Verbrauch bei der Entwicklung nicht aufgefallen ist.
Bei solchen Großprojekten passiert so etwas häufiger in anderen Formen, schließlich sieht man immer mal wieder vor lauter Wald, die Bäume nicht mehr!

Siehe Samsung Galaxy Flip1, da haben auch viele Verbraucher die Schutzfolie abgerissen, erst im Nachgang hat Samsung darauf hingewiesen, dass man es lieber zu lassen hat!
 
Das Problem bei Samsung ist mit dem Problem bei AMD aber nicht zu vergleichen. AMD wird das gewusst haben, es war einfach auf der Prioritätenliste nicht weit genug oben, um vor dem Start behoben zu werden.
 
Schade, dass man das Problem nicht im gleichen Atemzug auch für die Vorgänger Generation fixen konnte. Der hohe idle Verbrauch bei Multimonitor ist so ziemlich das einzige was mich an meiner 6900 stört aktuell.
 
Na bis jetzt ist da aber noch ne Menge Frostschutzmittel in den Fässern. ;)
Ich könnte jetzt einen raushauen aber da würde sich hier wahrscheinlich jeder 7000er Käufer auf den Schlips getreten fühlen, heutzutage muss man ja leider permanent aufpassen das alle sich wohlfühlen und keiner angegangen wird, auch wenn es nur spaßige Seitenhiebe sind.

Mich verwundert nur gerade das die Preise der XFX schon teilweise deutlich über 4080er Niveau sind, zumindest bei geizhals. Ich versteh das alles nich.
Ich hoffe aber weiterhin das AMD das alles in den Griff bekommt und am Ende ein rundes Produkt rauskommt mit dem jeder glücklich sein kann, dann könnte das evtl. nächste Gen wieder anders aussehen mit den Verhältnismäßigkeiten.
 
Mich verwundert nur gerade das die Preise der XFX schon teilweise deutlich über 4080er Niveau sind, zumindest bei geizhals. Ich versteh das alles nich.
Ich weiß, du trollst nur, aber hattest du wirklich nie sowas wie "Wirtschaft" in der Schule?
Schau dir mal die aktuellen Anbieter an: https://geizhals.de/xfx-speedster-m...ck-edition-rx-79xmercb9-a2864028.html?hloc=de
Dann denke wenige Sekunden nach und dann sollte dir eine Idee kommen, warum der Preis aktuell dort ist wo er ist. ;)

Lange Rede, kurzer Sinn: Der Preis wird bei breiter Verfügbarkeit nicht mehr auf diesem Niveau liegen sondern sich entsprechend in Richtung der 4080 bzw. vermutlich etwas darunter einpendeln. (Sonst würden keine größeren Stückzahlen der Karte verkauft werden)
 
Ich finde den Artikel etwas irreführend, da AMD in keiner Weise erwähnt, dass der Idle-Verbrauch mit dem aktuellen Treiber bereits verbessert.
Vielmehr ist es schön zu erfahren, dass zumindest in bestimmten Szenarien bereits eine Verbesserung messbar ist.

Leider habe ich vorher keinen Test gemacht, aber ich habe bei mir festgestellt, dass eine Reduzierung der Bildschirmfrequenz von 144 auf 60 Hz in Windows eine Halbierung des Verbrauchs erfolgt. Keine Ahnung, ob das vorher schon der Fall war. Vielmehr ist daraus auch erkennbar, dass das Problem weniger im Multimonitoring als in der genutzten Wiederholrate liegt.

Hoffen wir mal, dass AMD das noch in den Griff bekommt, ansonsten kann man sagen, dass der Idle-Verbrauch mit jeder Grafikgeneration schlimmer geworden ist. Siehe auch VRAM-Takt - das wäre angeblich letzten Monat gelöst geworden, bei meiner 6900 XT konnte ich das nicht feststellen. Andererseits war das auch schon mit Fury oder Vega ein Problem, nur eben schlimmer, da deswegen auch die Temperatur soweit anstieg, dass die Lüfter auch im Idle hörbar betrieben wurden (da wäre eine angepasste Lüfterkurve via Update schon ein netter Workaround gewesen).
 
Hat AMD das mit dem vollen VRAM Takt bei 2 Monitoren eigentlich nun mal hinbekommen oder gab es dort nie eine Anpassung/Möglichkeit?
 
Hat AMD das mit dem vollen VRAM Takt bei 2 Monitoren eigentlich nun mal hinbekommen oder gab es dort nie eine Anpassung/Möglichkeit?
Leider nicht, bei Nvidia gibt es da wenigstens Inspector, dagegen muss man bei AMD mit CRU experimentieren und hoffen, dass das etwas wird.
 
Ich war vorgestern sehr verwundert, als der Idle Verbrauch bei 30-60w (4k 120hz) war, schon bevor ich das Update auf 22.12.2 gefahren habe 😅
Danach dann auch keine Änderung mehr.
Als hätte AMD über Nacht schon einen Schalter umgelegt gehabt...
 
AMD plant zukünftig Verbesserungen. Optimiert wurde bis jetzt nur die Videobeschleunigung. Was AMD alles beim Treiber und speziell dem Verbrauch plant ist mit Rückblick von RV770 über Vega bis Navi eine lustige Geschichte. Bezüglich Soll und Haben ist nur letzteres relevant- vor allem bei multi Monitor.
Am Ende liegt es am Chiplet Design wie bei Zen3/4.
 
3080 zieht 20W @3840x1600 160Hz und das ist schon viel. HWLuxx Messungen nach müssten es eher 8W sein.
Zum Thema AMD und 7800XT mit 7700XT (merkwürdigerweise 7900XTX/XT benannt) ist 4k Zielauflösung. Alles über 20W ist indiskutabel
 
Zuletzt bearbeitet:
30W ist immer noch deutlich zu viel - damit können aktuelle mobile Lösungen aktuelle Spiele in brauchbarer Optik darstellen.
Die Frage ist auch, wie viel Anteil die GPU selbst am Verbrauch hat - und wie viel eventuell die Schaltungen, SpaWas, etc. dazu beitragen.
 
Hallo
Ich habe seit 2 Tagen eine 7900xt in meinem Rechner und bin zufrieden

Keine Ahnung warum hier ein Drama um 20-40 Watt gemacht wird

Das Menschliche Auge kann bis 60hz oder Fps wahrnehmen
Alles darüber kann das Auge nicht unterscheiden

Sehr viele packen sich einen Intel rein der bis 300 Watt zieht, die Grafikkarte dabei sind wir bei 600-700 Watt
Und dann wird diskutiert ob die Eine Karte 240fps macht und die andere nur 200
Das lustige dabei ist, das Auge sieht es nicht

Aber so sind wir halt

Ich hatte eine rtx3070 und jetzt eine 7900xt
Für die 2 spiele ich ich zocke, hätte die 3070 locker gereicht

Wir selber machen die Preise am Markt

Allen ein frohes Fest
 
Eins verstehe ich nicht ganz, wieso fühlen sich im Radeon Thread immer 4090 Besitzer auf den Schlips getreten oder von AMD übergangen oder Ähnliches :unsure:
 
Hallo
Ich habe seit 2 Tagen eine 7900xt in meinem Rechner und bin zufrieden
Sehr gut
Keine Ahnung warum hier ein Drama um 20-40 Watt gemacht wird
Weil es unnötig ist. Jeder hat seine prioritäten
Das Menschliche Auge kann bis 60hz oder Fps wahrnehmen
Alles darüber kann das Auge nicht unterscheiden
Das ist nicht nur falsch, sondern auch noch dumm.
Sehr viele packen sich einen Intel rein der bis 300 Watt zieht, die Grafikkarte dabei sind wir bei 600-700 Watt
Und dann wird diskutiert ob die Eine Karte 240fps macht und die andere nur 200
Das lustige dabei ist, das Auge sieht es nicht
Wieso lustig? Und das auge sieht es. Zumal es andere vorteile wie geringerer input lag haben kann.
Aber so sind wir halt

Ich hatte eine rtx3070 und jetzt eine 7900xt
Für die 2 spiele ich ich zocke, hätte die 3070 locker gereicht
Danke für die info, notieren wir uns gleich
Wir selber machen die Preise am Markt

Allen ein frohes Fest
Stimmt
Danke, dir auch ^^
 
Sehr gut

Weil es unnötig ist. Jeder hat seine prioritäten

Das ist nicht nur falsch, sondern auch noch dumm.

Wieso lustig? Und das auge sieht es. Zumal es andere vorteile wie geringerer input lag haben kann.

Danke für die info, notieren wir uns gleich

Stimmt
Danke, dir auch ^^
Ist schon lustig hier das eine 20 Sylvester studiert haben und alles besser wissen, und andere noch als dumm bezeichnen

Wie viele Bilder pro Sekunde sieht das Auge maximal?

Dann wären da noch die Augen. Wie viele FPS (oder besser Hertz) können sie sehen? Weder Gamer noch Experten sind sich wirklich einig, wie viele FPS das menschliche Auge sieht. Da unser visuelles Wahrnehmen individuell verschieden ist, kann es auch keine absolute Zahl geben. Zudem macht es große Unterschiede, ob wir statische Bilder unbewegt erkennen zum Beispiel beim Lesen eines Comics – oder auf bewegte Bilder schauen wie im Kino – oder auf bewegte Bilderschauen, während wir uns gleichzeitig selbst bewegen, wie beim Radfahren in der Stadt. Die Hirnforschung vermutet zwar, dass 60 Hz ein besseres Bild als 30 Hz abgeben, doch ob Bewegungen mit 120 oder 180 Hz flüssiger erscheinen, können weder Neurologen noch Psychologen abschließend beurteilen.

frohes Fest
 
@Tommes65 ich habe deine aussage als falsch und dumm bezeichnet, nicht dich. Bitte erst nachdenken, dann unterstellen.

Oh ja danke, eine kopierte textpassage von einem idiotenartikel der erst eine frage als überschrift stellt, und dann ein "keiner weiss es" am ende stehen lässt.

Ich und viele andere hier sehen sehr wohl einen unterschied zwischen 60hz 120hz und 240hz.
 
Ich sage ja 20 Sylvester

Idiotenartikel

Wissenschaftler schreiben dies, aber bei 20 Sylvester kann man das wiederlegen

Ich hoffe du kannst das mit deinem 240hz Monitor lesen

Mit freundlichen Grüßen Thomas
 
Kumpel und ich haben mal nen Blindtest gemacht und meinen 120hz Fernseher dafür genommen. Fazit: beim selber zocken merkt man es irgendwie......beim nur daneben stehen und zuschauen hat man keine Chance
 
Ich sage ja 20 Sylvester
33
Stimmt
Wissenschaftler schreiben dies, aber bei 20 Sylvester kann man das wiederlegen
Der artikel behauptet dass selbst wissemschaftler es nicht endgültig sagen können. Do you even sinnbegreifend lesen?
Ich hoffe du kannst das mit deinem 240hz Monitor lesen
144, ja kann ich, danke
Mit freundlichen Grüßen Thomas
Genauso, Tobias
 
Da ich nur 2 Sylvester habe bin ich hier raus

Ist mir zu blöd

Besserwissermodus aus
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh