snaapsnaap
Enthusiast
Thread Starter
- Mitglied seit
- 07.03.2007
- Beiträge
- 4.822
Ich wollte Mal in die Runde fragen was eure Systeme bei Wiedergabe von Streams so an Strom verbrauchen.
Ich wollte eigentlich von meinem 10700F auch einen 5900X wechseln, mehr so aus Spaß bzw Basteldrang, doch nach ersten Tests war die Ernüchterung groß, deshalb auch der Verkauf der Boards und CPU im Marktplatz.
Klar im ein oder anderen Game habe ich mehr FPS etc, aber beim Desktopbetrieb stieg der Stromverbrauch deutlich.
Wenn mind. 1 Twitch Stream läuft, und dazu vllt noch YouTube oder aber auch einfaches surfen im Netz, hat der AMD im Schnitt 50W gezogen laut HWinfo. Zweiter Stream offen wurdens 60W usw.
Bei meinem 10700F habe ich bei den gleichen Szenarien eher so 20-30W.
Hardwarebeschleunigung im Browser lässt zwar den Verbrauch sinken auf ~30W, aber ein Twitch Stream sieht dann aus wie 720p, während es ohne aussieht wie "normales" 1080p auf meinen 4K Bildschirmen.
Ist das eher so ein Ryzen 5000er "Eigengeit" oder ne dumme Kombination aus höher Auflösung und Softwareencodeing.
Hatte zwar früher schon einen 2600, 3600 und 3700X aber nie das Verhalten, vllt auch wegen der damals noch FullHD Screens.
Es ist einfach nervig unnötig Strom zu verballern, auch weil die 6700XT dauerhaft hohen VRAM Takt fahren muss wegen der zwei 4K Screens, ist das bei NV eigentlich besser?
Ich finde dazu auch kaum Reviews, da diese meist nur mit einem Bildschirm gemacht werden, oder es am Ende Stromverbrauch während Spiel X oder Programm Y sind, nicht aber wenn im Desktop Betrieb mit geringer Last.
Ich wollte eigentlich von meinem 10700F auch einen 5900X wechseln, mehr so aus Spaß bzw Basteldrang, doch nach ersten Tests war die Ernüchterung groß, deshalb auch der Verkauf der Boards und CPU im Marktplatz.
Klar im ein oder anderen Game habe ich mehr FPS etc, aber beim Desktopbetrieb stieg der Stromverbrauch deutlich.
Wenn mind. 1 Twitch Stream läuft, und dazu vllt noch YouTube oder aber auch einfaches surfen im Netz, hat der AMD im Schnitt 50W gezogen laut HWinfo. Zweiter Stream offen wurdens 60W usw.
Bei meinem 10700F habe ich bei den gleichen Szenarien eher so 20-30W.
Hardwarebeschleunigung im Browser lässt zwar den Verbrauch sinken auf ~30W, aber ein Twitch Stream sieht dann aus wie 720p, während es ohne aussieht wie "normales" 1080p auf meinen 4K Bildschirmen.
Ist das eher so ein Ryzen 5000er "Eigengeit" oder ne dumme Kombination aus höher Auflösung und Softwareencodeing.
Hatte zwar früher schon einen 2600, 3600 und 3700X aber nie das Verhalten, vllt auch wegen der damals noch FullHD Screens.
Es ist einfach nervig unnötig Strom zu verballern, auch weil die 6700XT dauerhaft hohen VRAM Takt fahren muss wegen der zwei 4K Screens, ist das bei NV eigentlich besser?
Ich finde dazu auch kaum Reviews, da diese meist nur mit einem Bildschirm gemacht werden, oder es am Ende Stromverbrauch während Spiel X oder Programm Y sind, nicht aber wenn im Desktop Betrieb mit geringer Last.