Der König ist bezwungen: AMD Ryzen 9 5900X und Ryzen 5 5600X im Test

Wäre noch interessant, warum die Comet Lake CPUs in höheren Auflösungen deutlich aufholen obwohl die Zen 3 CPUs in niedrigeren Auflösungen teilweise deutlich führen.
Schaut euch mal die Benchmarks durch.
Könnte mir höchstens vorstellen, dass PCIe 4.0 auf 4k vielleicht mehr Power von der CPU fordert. Ist zwar irgendwie affig aber ne andere dumme Idee habe ich nicht :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Das ist ja nun keine neue Info. Das war bereits mit Zen1 der Fall, dort war aber der IMC so zickig das quasi niemals alle Ranks voll belegt hat. Das Dualrank durch Bank Interleave mehr Leistung bringt war btw. schon mit DDR1 der Fall ;)

Ich merke an der Stelle nur mal kurz an, dass Dual Rank bzw. allgemein mehrere verfügbare Ranks nur dann einen Leistungszuwachs bringen, wenn die jeweilige Anwendung auch damit umgehen und sie nutzen kann.

Beim Gaming zB gibt es Spiele, die das können und entsprechend FPS-Zugewinne verzeichnen, ABER eben auch genug andere, bei denen sich rein gar nichts verändert.

Und bei denen, die Zugewinne haben, fielen diese bei Zen 2 im Mittel immer geringer aus als bei Intel. Hier wäre zu prüfen, ob sich das mit Zen 3 gravierend verändert hat.

Zu viel sollte man im Schnitt aber eher nicht von Dual Rank bzw. Vollbelegung erwarten und schon gar nicht mit dem RAM-Tauschen beginnen deshalb ;)
 
  • Danke
Reaktionen: Tzk
Zu viel sollte man im Schnitt daher nicht von Dual Rank bzw. Vollbelegung erwarten und schon gar nicht mit dem RAM-Tauschen beginnen deshalb ;)
Volle Zustimmung, das hätte ich wohl besser erwähnen sollen. Je nach Anspruch ist das beim Kauf eine Überlegung wert, später wechseln würde ich aber auch nicht. Das ist son bissel wie Glühbirnen durch LED zu tauschen um Geld zu sparen :d
 
Also ich habe Samstag auch nen 5800X bekommen! Bei meinen Vergleichstests mit meinem 9900KS System gibt es bis auf den Stromverbrauch im Grunde keinen Gewinner und Verlierer! In den AIDA64 Benchmarks liegt mal die mal die CPU vorne. Im GPU Limit gibt es absolut keinen Unterschied, die Frames sind identisch, PCI 4.0 bringt nicht 1 Frame mehr, also zumindest nicht in den von mir getesten Games in Verbindung mit meiner RTX 3080. Ich habe aber auch nur 2560x1440 und 3840x2160 gestestet, eben die Auflösungen, in denen ich zocke. In den hohen Auflösungen gibt es keinen Vorsprung bzw. Gewinner mehr, auch PCI 4.0 bringt, wie gesagt, zumindest mit einer 3080 genau nichts.

PCI 4.0 bei SSDs kann man auch getrost knicken, meine 980 Pro liefert zwar schönste lange beieindruckende Benchmarkbalken, im Alltag merkt genau nichts davon gegenüber z.B. einer 970 Pro! Beim Stromverbauch sieht die Ryzen Plattform aber immer noch kein Land, zumindest nicht mit meinem X570 Brett (Asus X570-Pro), also im Vergleich mit Z390. Gut, das Board kann kein ASPM, evtl. würde man hier noch mal so ca. 10 Watt sparen. Auf der Haben Seite ist X570 aber durch PC 4.0 die modernere Plattform, einmal ein IO Die in der CPU und einmal ein IO Die auf dem Brett fordert eben seinen Tribut.

Mit zwei Monitoren an der 3080, die dadurch alleine schon umd die 22 Watt im Idle zieht, einmal UHD einmal WQHD, vier M.2 SSDs, AE-5 Soundkarte, AX200 Wireless/Bluetooth Karte, 32GB 3600er Speicher zieht die X570/5800X Kombo im Idle um die 30 Watt mehr aus der Dose. In Zahlen, mit 9900KS/Z390 bei gleicher Ausstattung sind es um die 60 Watt, mit der AMD Plattform so um die 90 Watt. Die Package Power des 5800X liegt bei der Ausstattung bei um die 22 - 25 Watt im Idle, vom 9900KS bei um die 10 - 13 Watt.

In Games verbraucht der 5800X komischerweise immer so 5 - 11 Watt mehr als der 9900KS, fragt nicht warum, ist so. 3D Mark mäßig gibt es ebenfalls nur minimale Vorteile für den 5800X, siehe die beiden Bilder, einmal 9900KS einmal 5800X. Beide Platformen sind übrigens ohne OC, einfach Default. Warum der 5800X hier mehr Verbraucht, keine Ahnung. Der 5800X ist auf jeden Fall ein Hitzkopf, ich habe unter Wasser im CBR20 Bench zwischen 75 und 80 Grad.

Nachfolgend noch ein paar Gamebeispiele. Die Frames sind jeweils an der gleichen Stelle gemessen, der Stromvebrauch steht dahinter, als erstes der 9900Ks dahinter der 5800X - ACHTUNG, das ist die Package Power, also was die ganze CPU verbraucht, nicht nur die Kerne - und es steht nur einmal eine Framezahl dort, weil sie schlicht indentisch sind:

Horizon Zero Dawn
2560x1440 = 108fps 76 Watt / 84 Watt
3840x2160 = 69fps 57 Watt / 69 Watt

Control
2560x1440 = 68fps 59 Watt / 70 Watt
3840x2160 = 36fps 50 Watt / 61 Watt

Mafia Definitive Edition
2560x1440 = 158fps 77 Watt / 85 Watt
3840x2160 = 84fps 64 Watt / 73 Watt

Lange Rede kurzer Sinn, der 5800X macht Spaß, auch wenn der ganze PCI 4.0 Kram derzeit noch absolut Null Vorteile bringt. Im GPU Limit ist es schlicht egal was man kauft. Gut, wer Cinebench spielt hat den längeren Balken mit dem 5800X, bei einigen anderen Benches aber auch nicht, es ist schlicht ein die Bälle hin und her spielen. ;)

Und abschließend, die AMD Hardcore Fanatiker hier sollen erst gar nicht probieren mich dumm anzumachen, ich gehe da eh nicht drauf ein bzw. der gößte Teil ist eh auf Igno bei mir - mein Beitrag soll denen dienen, die schlicht unvoreingenommen nach Erfahrungen suchen!
 

Anhänge

  • Screenshot 2020-11-08 203141.jpg
    Screenshot 2020-11-08 203141.jpg
    117,3 KB · Aufrufe: 94
  • Screenshot 2020-11-08 134304.jpg
    Screenshot 2020-11-08 134304.jpg
    91,9 KB · Aufrufe: 86
Zuletzt bearbeitet:
@Trill

Welche Werte gehören zu welcher CPU?
 
ah ok verglichen wird also nur der Verbrauch ...
 
Ja, erst 9900KS dann 5800X, ich weiß nicht warum der 5800X etwas mehr zieht in Games, muss ich mir noch mal anschauen - evtl. hat das aber etwas mit PCI 4.0 in Verbindung mit der 3080er zu tun, wäre eine Erklärung.
 
War bei Zen2 leider auch nicht anders mit Performance/Verbrauch @stock
Ich weiß nicht was AMD da fabriziert vom Takt/Spannungsverhalten. PBO verschlimmert das nur noch mehr.
Manuelles Takt/Spannung anlegen ist hier halt leider das Stichwort, und dann zieht zumindest Zen2 bei der Effizienz auf einmal Kreise. Wie das bei Zen3 aussieht kann ich noch nicht sagen.

Einzige was ich nicht gefixed bekomme sind die C-States bei Zen2. Da verhindert jede Pups Tray Anwendung C6 und somit DeepIdle (wie auch bei dir scheinbar mit deiner PackagePower). Bei nem richtigen Idle liegst du bei um die 15 Watt Packagepower inkl. SoC Power. (mit UV im extremen inkl SoC auf bis zu 10 Watt runter).

Mein System kommt so im Idle auf 35-40 Watt mit ner 5700 XT und 6 RGB Gehäuselüftern.
 
Dann müssten aber die Frames steigen und nicht sinken :fresse:
Jo das ist ja das Problem an der Hypothese. Aber vielleicht eher so: Ähnlich wie Games VRAM anfordern, aber real nicht belegen, geschieht dies vllt. ebenso mit der PCIe Bandbreite. Und bei 4K fordern die Games halt viel, die CPU versucht das erstmal bereitzustellen aber es wird nicht genutzt. Allein die Bereitstellung dieser Bandbreite kostet dann eben aber Frames. Andersrum: würde das Programm die angeforderte Bandbreite auch nutzen, so würden mehr FPS rauskommen.

Das wird aber irgendwie immer abgehobener :banana:
 
In Games verbraucht der 5800X komischerweise immer so 5 - 11 Watt mehr als der 9900KS, fragt nicht warum, ist so. 3D Mark mäßig gibt es ebenfalls nur minimale Vorteile für den 5800X, siehe die beiden Bilder, einmal 9900KS einmal 5800X. Beide Platformen sind übrigens ohne OC, einfach Default. Warum der 5800X hier mehr Verbraucht, keine Ahnung. Der 5800X ist auf jeden Fall ein Hitzkopf, ich habe unter Wasser im CBR20 Bench zwischen 75 und 80 Grad.
Idle mit 90W kommt mir auch hoch vor, TechpowerUp misst 50W im idle für den 5800X: https://www.techpowerup.com/review/amd-ryzen-7-5800x/19.html

Es wäre kein Sieg, wenn nicht Leistung und Verbrauch besser sind als bei Intel. ;)
 
Japp, Techpowerup nutzen auch ein X570.
Beim Gaming zieht der 5800X aber etwas mehr als der 9900k 8 Watt um genau zu sein.
 
Jo das ist ja das Problem an der Hypothese. Aber vielleicht eher so: Ähnlich wie Games VRAM anfordern, aber real nicht belegen, geschieht dies vllt. ebenso mit der PCIe Bandbreite. Und bei 4K fordern die Games halt viel, die CPU versucht das erstmal bereitzustellen aber es wird nicht genutzt. Allein die Bereitstellung dieser Bandbreite kostet dann eben aber Frames. Andersrum: würde das Programm die angeforderte Bandbreite auch nutzen, so würden mehr FPS rauskommen.

Das wird aber irgendwie immer abgehobener :banana:
In der Regel gibt es ein ÜbertragungsLimit von 256MB Blöcke (Frame Buffer) bedeutet die Bandbreite ist immer Begrenzt egal ob PCI-Express 2.0, 3.0 oder 4.0

Erst mit SAM: https://www.hardwareluxx.de/communi...-memory-amd-zeigt-weitere-benchmarks.1280591/
Kann man über das Limit hinaus gehen. ;)
 
Idle mit 90W kommt mir auch hoch vor, TechpowerUp misst 50W im idle für den 5800X: https://www.techpowerup.com/review/amd-ryzen-7-5800x/19.html

Es wäre kein Sieg, wenn nicht Leistung und Verbrauch besser sind als bei Intel. ;)
50 Watt hatte ich vor dem Umbau in mein Hauptsystem auf dem Testplatz, nur mit GT210 Grafikkarte und nur einer M.2 SSD drauf. Man darf hier nicht vergessen, vier M.2 SSDs ziehen ziemlich Watt, wenn das Board kein ASPM für diese kann, wie mein Asus X570-Pro, dann wären es bestimmt so 7 - 9 Watt weniger, wie es bei meinem Z390 auch der Fall ist, schalte ich dort ASPM aus, geht er auch hoch auf ca. 70 Watt. Eine 512er 980 Pro 4.0er M.2 steckt im M.2-1 auf dem Board, ne zweite 1TB im M.2-2 auf dem Board, eine 1TB 970 Pro im untersten PCI-E Steckplatz und eine 1TB läuft mit nur 1x in einem der kleinen 1x PCI-E Slots, Dann eben 22 Watt für die 3080er mit 2 Screens dran, um die 5 - 8 Watt für die AE-5, 3 Watt für die Wireless/Bluetooth Karte und schon biste von 50 auf 90 - 95 Watt im Idle.
Beitrag automatisch zusammengeführt:

War bei Zen2 leider auch nicht anders mit Performance/Verbrauch @stock
Ich weiß nicht was AMD da fabriziert vom Takt/Spannungsverhalten. PBO verschlimmert das nur noch mehr.
Manuelles Takt/Spannung anlegen ist hier halt leider das Stichwort, und dann zieht zumindest Zen2 bei der Effizienz auf einmal Kreise. Wie das bei Zen3 aussieht kann ich noch nicht sagen.

Einzige was ich nicht gefixed bekomme sind die C-States bei Zen2. Da verhindert jede Pups Tray Anwendung C6 und somit DeepIdle (wie auch bei dir scheinbar mit deiner PackagePower). Bei nem richtigen Idle liegst du bei um die 15 Watt Packagepower inkl. SoC Power. (mit UV im extremen inkl SoC auf bis zu 10 Watt runter).

Mein System kommt so im Idle auf 35-40 Watt mit ner 5700 XT und 6 RGB Gehäuselüftern.
Muss ich mir noch anschauen, mit Undervolting gehen auf jeden Fall wieder die Punkte bei Cinebench runter, das habe ich schon probiert.
 
Zuletzt bearbeitet:
@default habe ich zum Beispiel im CBR20 Run um die 1,34 Volt laut Aida64, Ryzen Master zeigt 1,38 an.
 

Anhänge

  • CB20.jpg
    CB20.jpg
    246,5 KB · Aufrufe: 76
Muss ich mir noch anschauen, mit Undervolting gehen auf jeden Fall wieder die Punkte bei Cinebench runter, das habe ich schon probiert.
Ich rede hier nicht von einem Offset oder PBO, sondern fixer Spannung und fixem Takt. Dann geht die Leistung auch nicht runter, sondern hoch. Ist halt nur die Frage wie gut dein Chip ist, ob du es schaffst Allcore deinen Singleboost zu schaffen. Muss man halt testen wie sich die Leistung dann in unterschiedlichen Szenarien verhält. Das kann komplett anders von Chip zu Chip aussehen. War bei Zen2 nicht anders.
Die schlechten kamen nicht wirklich höher als Stock Allcore, die Guten gingen deutlich über den Singleboost @Allcore hinaus
 
Japp, Techpowerup nutzen auch ein X570.
Beim Gaming zieht der 5800X aber etwas mehr als der 9900k 8 Watt um genau zu sein.
Ist nur die Frage bei welche Auflösung die Verbräuche ermittelt wurden.
Unter den Game Benchmarks ist the Witcher3 nur knapp 1FPS vor dem Ryzen 5000, beim selben Link/Test.

Wenn durch die 8W mehr unter Gaming Last es weniger Frame-Varianz gibt, finde ich das besser als das letzte Watt gespart auf kosten von µ-Ruckler. ;)
 
Im Grunde übersetzt.
Nur Gaming, dann Intel wegen weniger Verbrauch.
Spielt man CB20, dann AMD.....
 
Im Grunde übersetzt.
Nur Gaming, dann Intel wegen weniger Verbrauch.
Spielt man CB20, dann AMD.....
Wer wirklich Leistung will, den interessieren par Watt mehr nicht, Strom it o oder so Teuer, ob 20 Watt mhr oder weniger.

Wird sich ja noch zeigen wie das Zusammenspiel mit den 6000 GPUs wird und dazu vom Dark Hero der OC Switch der OC und Allcore Boost zulassen soll. Der Verbrauch wird zwar deutlich steigen aber interesant wird es alle mal.
 
Wenn man zu einem neuen Ryzen aber auch noch das Dark Hero hinzurechnet, wird jede Kombi in Sachen P/L für einen Gamer aber eher schwach.

Da ist man ohne Dark Hero oder auch noch mit Intel wieder besser dran...
 
Auch auf den zweiten Blick sind die Prozessoren uninteressant.

Für "Budget Systeme" gibt es schlicht keinen Grund, warum man fast das Doppelte für einen 5600X gegenüber einem 3600 zahlen sollte.
Im 8-Kern-Bereich ist es noch schlimmer: Pro Kern zahlt man das meiste für den 5800X. Ein 10700K ist fast 200,00 € günstiger bei fast identischer Leistung, sogar ein 10900K oder ein 10850K bieten 2 Kerne mehr bei günstigerem Preis.

Intel würde man teeren und federn für so eine Preispolitik.

Interessant finde ich eigentlich nur den 5900X.
 
Für "Budget Systeme" ist ja Zen3 auch kaum gedacht zumindest was die CPUs angeht die jetzt zum launch erhältlich sind.
Dafür dass man zb die maximale Performance für Spiele erhält und mir Sam und Rage in der Verbindung mit den neuen GPUs weiter die Leistung ausbauen kann und von den neusten Technologien
profitiert kann man über die Preise nicht meckern mit ca. 350 EUR für einen 5600X.
 
Interessant finde ich eigentlich nur den 5900X.
Finde ich auch, dazu sind viele Impulskäufe dabei und der aktuelle hype/haben wollen.

Wenn man zu einem neuen Ryzen aber auch noch das Dark Hero hinzurechnet, wird jede Kombi in Sachen P/L für einen Gamer aber eher schwach.

Da ist man ohne Dark Hero oder auch noch mit Intel wieder besser dran...
Sinn ist bei Hardware so eine Sache, bei mir muss das Bauchgefühl stimmen.
Zudem passen CPU und Board für alles was ich vor habe.
Spielen in 3.440 x 1.440, OC und Basteln, De-Encodieren Medienverarbeitung, Office.

Ein 10900K kostet 550 Euro? Ein Boad das dazu passen würde ist auch nicht wirklich günstiger als 500 Euro.

Screenshot_2020-11-10 Mainboards jetzt günstig kaufen ALTERNATE(1).png

Vom i7 2600k und Maximus Extreme-Z68 vor 9 Jahren ist alles aktuelle besser^^
 
Zuletzt bearbeitet:
Lass mich doch meckern, ich bin Deutscher die dürfen das :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh