Aktuelles

Ryzen Threadripper 2920X und 2970WX: AMD komplettiert die Familie

Thread Starter
Mitglied seit
06.03.2017
Beiträge
3.836
Gerade noch rechtzeitig hat AMD seine selbst gesetzte Frist eingehalten. Denn drei Tage vor Ablauf startet der Verkauf der beiden letzten fehlenden Threadripper-Prozessoren. Ryzen Threadripper 2920X und 2970WX sollen das Angebot an HEDT-Modellen abrunden, vor allem in Hinblick auf den Preis. Dadurch hat der kleinste Vertreter überraschend eine Rolle übernommen, mit der im Vorfeld nicht gerechnet werden konnte.Daran ist ausgerechnet Intel Schuld. Denn nach wie vor wird der Core...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Woozy

Lesertest-Fluraufsicht
Hardwareluxx Team
Mitglied seit
19.10.2009
Beiträge
7.269
Ort
127.0.0.1
So ein 2970WX oder 2990WX wären ja schon was als nachfolger... :d
 

Fatal Justice

Enthusiast
Mitglied seit
06.06.2007
Beiträge
2.214
Ich muss mal direkt fragen:
Habt ihr bei euren Tests eigentlichim Bios alles bei CPU und RAM auf Standard belassen, oder dort etwas verändert? (XMP aktiv z.B.)
Ich komme nicht ansatzweise auf diese niedrigen Verbrauchswerte (mit einer GPU, XMP aktiv und alles auf "Auto" im Bios)
 

homann5

Semiprofi
Mitglied seit
10.10.2007
Beiträge
1.114
Ich muss mal direkt fragen:
Habt ihr bei euren Tests eigentlichim Bios alles bei CPU und RAM auf Standard belassen, oder dort etwas verändert? (XMP aktiv z.B.)
Ich komme nicht ansatzweise auf diese niedrigen Verbrauchswerte (mit einer GPU, XMP aktiv und alles auf "Auto" im Bios)
Bei den Verbrauchsmessungen ist alles auf "Auto" gestellt, der RAM läuft mit XMP-Profil. In Windows sind alle störenden Hintergrundaktiviäten (Update etc.) deaktiviert.
 

Fatal Justice

Enthusiast
Mitglied seit
06.06.2007
Beiträge
2.214
Danke für die schnelle Klarstellung,
jetzt ist mir um so mehr ein Rätsel, warum der Verbrauch bei mir so hoch ist.
 
L

lll

Guest
Wie kann ein unterschied im Cinebench R15 Test mit einem Kern zustande kommen, wenn man 9900k mit einem 8086k vergleicht, beide haben schließlich 5GHz?
 

Igor das Tunfisch

Semiprofi
Mitglied seit
01.01.2017
Beiträge
663
Ort
Karlsruhe
Messschwankungen vielleicht, oder kann es sein dass die 9xxx ganz leichte Architekturelle verbesserungen erhalten haben?
 

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.654
Ort
Baden Württemberg
Ich lass meinen 1950X immer mit den 16 Kernen in Spiele laufen. Ist aber mal interessant zu sehen, was einzelne Spiele an Leistungsplus erfahren können, wenn sie nur mit 8 Kernen laufen.

Jetzt steht diesem Thema nur eins im Wege... es wird auf niedrig und 1080p getestet. Hab ich zu spät gesehen. Somit sind diese Infos für mich absolut nutzlos und sinnfrei, wünschte ich hätte damit nicht meine Zeit verschwendet...........

Dann muss ich wohl tatsächlich selber mal benchmarken und mir selbst davon ein Bild machen.
Zumindest in Quake Champions (1440p @med/high) ist mir zwischen 16 kern und 8 Kern (UMA vs NUMA) Betrieb kein eklatanter Unterschied aufgefallen. Aber hatte auch keine bestimmte Testmethodik.
 
L

lll

Guest
Messschwankungen vielleicht, oder kann es sein dass die 9xxx ganz leichte Architekturelle verbesserungen erhalten haben?
Das bezweifle ich ernsthaft, bei Einzelkerntests sind die Ergebnisschwankungen extrem gering, ein Punkt unterschied mag auftreten aber nicht so viele, beide Generationen sind ident, mit der gleichen Architektur, Fertigung und IPC.
Andere Seiten haben dies auch wie erwartet festgestellt, zum Beispiel dieser Link verdeutlicht dies anschaulich : Cinebench R15 (Single-Core) CPU benchmark list - CPU / Prozessor Vergleich - cpu-monkey
 
Zuletzt bearbeitet:

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.487
Jetzt steht diesem Thema nur eins im Wege... es wird auf niedrig und 1080p getestet. Hab ich zu spät gesehen. Somit sind diese Infos für mich absolut nutzlos und sinnfrei, wünschte ich hätte damit nicht meine Zeit verschwendet...........

Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?

Wofür wäre das interessant für den Leser?
 

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.654
Ort
Baden Württemberg
Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?

Wofür wäre das interessant für den Leser?

Einfach um zu sehen ob ein CPU Wechsel was taugt oder nicht.

Oder eben wie in dem Fall... ob der """gaming mode""" also 8 Kerne only überhaupt etwas taugt gegenüber den """full cores mode""" also 16 Kerne.
Das ist mir doch sch*** egal ob der 1950X in 1080p @ low mit 8 Kernen schneller läuft als in der Praxis 1440p @ high kein Unterschied zu erkennen ist?!!?
Warum sollte ich mir den gaming mode reinknallen (extra dafür den PC rebooten), damit ich in der Praxis keine große Veränderung habe? Oder eben doch? Es gibt hierzu eben keine benchmarks. Später nach dem gaming wieder neu booten zurück auf 16 Kerne. Jau, das macht Freude!


Aber ist ja immer das gleiche geblubber. Es gibt (für) immer die zwei Lager. Ein Lager will syntetische Benchmarks sehen, am besten benchmarks in denen das eigene auserkorene/auserwählte Produkt maximal gut da steht, das andere Lager will die Praxis sehen und praxisgerecht vergleichen können.

Wenn ich mich zB zwischen einer Workstation CPU und einer ""gaming CPU"" entscheiden müsste, dann wollte ich zumindest wissen, mit welchen Leistungsunterschied ich mich in der Praxis konfrontiert sehen würde.
Ein GPU Bottleneck geht sehr weit. So weit wie die GTX1080ti, oder RTX2080 oder gar RTX2080ti langt... die erst mal haben.
 

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.487
Verstehe deine Logik nicht.
Wenn man in höherer Auflösung testet verändert sich die CPU Leistung nicht. Sie wird nur schlechter darstellbar und im schlimmsten Fall sogar verfälscht.
Das hat nichts mit RealWorld zu tun, sondern mit messen von Daten die irrelevant für das Produkt sind. Du misst damit ein komplett anderes Produkt, nämlich die GPU.

In 4k sind auf einmal alle CPUs "gleich schnell". Aber ist das eine relevante Information? Sie sagt nichts aus über das Produkt selber, sondern darüber, dass die zum testen verwendete GPU zu langsam war.
Wenn man den Test mit einer GPU von 2005 durchführt, dann wäre auch in 720p noch jede CPU "gleich schnell", genauso wie in 1080p, 1440p und 4k.

Was Du forderst ist absichtliche Verfälschung der Testdaten. Ein CPU Test sollte die CPU testen und nicht die GPU. Genauso wie ein Auto Test nicht die Straße testen sollte, oder das Fahrad das benutzt wurde um zum Auto zu kommen.
 

ArminL

keinmitleidfürdiemehrheit
Mitglied seit
14.01.2010
Beiträge
178
Einfach um zu sehen ob ein CPU Wechsel was taugt oder nicht.

Oder eben wie in dem Fall... ob der """gaming mode""" also 8 Kerne only überhaupt etwas taugt gegenüber den """full cores mode""" also 16 Kerne.
Das ist mir doch sch*** egal ob der 1950X in 1080p @ low mit 8 Kernen schneller läuft als in der Praxis 1440p @ high kein Unterschied zu erkennen ist?!!?
Warum sollte ich mir den gaming mode reinknallen (extra dafür den PC rebooten), damit ich in der Praxis keine große Veränderung habe? Oder eben doch? Es gibt hierzu eben keine benchmarks. Später nach dem gaming wieder neu booten zurück auf 16 Kerne. Jau, das macht Freude!


Aber ist ja immer das gleiche geblubber. Es gibt (für) immer die zwei Lager. Ein Lager will syntetische Benchmarks sehen, am besten benchmarks in denen das eigene auserkorene/auserwählte Produkt maximal gut da steht, das andere Lager will die Praxis sehen und praxisgerecht vergleichen können.

Wenn ich mich zB zwischen einer Workstation CPU und einer ""gaming CPU"" entscheiden müsste, dann wollte ich zumindest wissen, mit welchen Leistungsunterschied ich mich in der Praxis konfrontiert sehen würde.
Ein GPU Bottleneck geht sehr weit. So weit wie die GTX1080ti, oder RTX2080 oder gar RTX2080ti langt... die erst mal haben.

machs so wie ich: ich schalte meinen 2950x für games nie in den gamemodus weil das eh für die fische ist bei ultra settings und 4k. Das Tier ist schlussendlich nicht fürs zocken gemacht sondern hat ganz andere Aufgaben zu verrichten . Und da sind mir paar Frames in Spielen mehr ehrlich gesagt wurscht mit käse....

PS: Der 2970WX schaut sehr lecker aus!
 
Zuletzt bearbeitet:

M.t.B.

Enthusiast
Mitglied seit
14.10.2007
Beiträge
664
@Rattenmann: Ich verstehe die Logik sehr gut. Der Artikel suggeriert, dass die CPU A x% schneller beim zocken sei als CPU B. Ja das ist sie, unter völlig realitätsfernen Parametern. Beim Zocken kommt es auf die Gesamtleistung an, nur eine Komponente zu betrachten bringt wenig.

Ich kann hier auch einen Autovergleich starten: Ein Autotest bescheinigt mir, dass ich mit einem Porsche 20% weniger Zeit benötige um auf die Arbeit zu fahren als mit einem popeligen Opel. Aber nur, wenn es A keine Verkehrsregeln (niedrige Auflösung) und B keine anderen Verkehrsteilnehmer (niedrige Details) gibt. Dann kann ich klar sagen, ja das ist ja super. Guter Vergleich, in der Realität ist der Porsche auch nicht schneller.

Bei CPUs zum Zocken macht es keinen Unterschied ob du 200€ oder 600€ ausgibst. Im Gegenteil, wenn du das gesparte Geld in eine bessere GPU investierst, hast du mehr FPS. Die Masse kauft PCs nach einem Budget.

Ich laufe mit meiner 1080Ti entweder ins GPU Limit oder bin am Vsync, eine teurere CPU bringt da genau 0. Klar, du hast recht, man misst mit solchen Einstellungen nur die CPU Leistung, aber das kommt in der Praxis nur zum tragen, wenn du eine aktuelle Grafikkarte mit einer uralt CPU kombinierst. Mein alter Q9550 würde da heute auch schlapp machen, aber deswegen hätte sich zum Zocken seinerzeit keine teurere CPU gelohnt.
 
Zuletzt bearbeitet:

Kommando

Enthusiast
Mitglied seit
10.05.2006
Beiträge
3.466
Was Du forderst ist absichtliche Verfälschung der Testdaten. Ein CPU Test sollte die CPU testen und nicht die GPU. Genauso wie ein Auto Test nicht die Straße testen sollte, oder das Fahrad das benutzt wurde um zum Auto zu kommen.

Er fordert eine absichtliche Verfälschung der Testdaten und du forderst eine absichtliche Verfälschung der Testergebnisse.

Fazit: Man will beides sehen.
A: Was die CPUs können unter synthetischen und praxisfernen Bedingungen und
B: Was die CPU in der Praxis leisten, wenn man sie sich kauft.

Wenn man das hat, kann man entscheiden ob man das Geld aus seinem Budget lieber in mehr CPU oder mehr GPU steckt.
 

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.487
Der GPU test würde aber komplett irrelevant ausfallen, außer man hat exakt die selbe GPU,.. sollen sie also jede GPU einbauen und testen?
 

Kommando

Enthusiast
Mitglied seit
10.05.2006
Beiträge
3.466
Wieso alle? HighEnd und ne gute Middlerange reicht.

Eigentlich reicht schon die schnellste Grafikkarte. Größer können die Unterschiede zwischen den CPUs ja nicht werden. Aber mit etwas im Bereich von 1060/580 kann man anhand der verschiedenen Auflösungen noch die Unterschiede einschätzen.

Und wieso irrelevant? Kann ja nicht so irrelevant sein, wenn sich das so viele wünschen.

PS: Es gibt nicht nur 720p low settings oder 4K high quality 16x AA. Da gibts noch viel dazwischen. ;)
 
Zuletzt bearbeitet:

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.487
Warum die Leistung einer GPU relevant sein soll für die Kaufentscheidung einer CPU verstehe ich einfach nicht.
Man will doch in jedem Test dafür sorgen alle verfälschenden Variablen rauszunehmen. Das beinhaltet vor allem GPU Leistung.

Sind die FPS in 1080p höher, dann ist die CPU schneller. Auch in 1440p, auch in 4k, auch in 8k. Was sonst soll man den testen?
Jedes Spiel, in jeder Auflösung die NICHT GPU capped ist, wird dann schneller sein und zwar um relativ genau die selben Prozente.

Was hier gefordert wird ist also eine Momentaufnahme einer GPU X?
Wenn eine 1060 in 1440p/ultra bei allen Prozessoren 60fps macht, welche Information über die CPU hat man dann gewonnen? Die einzige Information ist doch dann, dass man im GPU Limit ist,...
Und wenn man dann ne dickere GPU kauft, die nicht limitiert, ist man wieder bei den selben prozentualen Unterschieden die man vorher schon in 1080p auf low hatte.

Denke mein Verständnisproblem ist, warum die Redaktion Zeitaufwand betreiben soll um das Offensichtliche zu "testen", dass man auch ohne Test wusste.
Die einzige Information die man daraus ziehen könnte, wäre doch: "Reicht die CPU um ins GPU cap zu rennen, bei den verwendeten GPUs". Und diese Information ist bei so ziemlich jeder sinnvollen CPU / GPU Kombination: Ja.
Solange man keine 100 Euro CPU mit einer 1000+ Euro GPU ausstattet wird die Antwort immer "ja" sein. In den meisten Fällen reicht sogar eine 200 Euro CPU um eine 2080ti ins GPU cap zu treiben.

Diesen offensichtlichen Zusammenhang zu belegen, mit mehreren GPUs und Auflösungen noch dazu, kostet so eine Redaktion gerne mal Tage an Arbeitszeit,...
 

Kommando

Enthusiast
Mitglied seit
10.05.2006
Beiträge
3.466
Ich weiß auch nicht wo das Verständnisproblem liegt. Haben doch mehrere hier schon dargestellt worum es geht -> Die Frage ist wann sie ins Cap rennt.

Welche Information hast du gewonnen, wenn CPU X nur in realitätsfremden und nach dem Kauf nie verwendeten Szenarien getestet wird? Welche Information hast du gewonnen wenn die CPU nur im GPU-Limit getestet wird?

Mir würde nix von beidem helfen, wenn ich eine CPU suchen würde.
 

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.487
Und wieso nicht?
Wenn eine CPU bei 720p/low Auflösung 300 fps schafft, dann schafft sie das auch bei 1080p, 1440p und 4k/ultra.
Also welche Information fehlt dann? Zusammen mit einer GPU die bei 1440p maximal 100fps schafft, werden genau 100fps entstehen. Mit einer GPU die nur 30fps schafft, werden auch nur 30fps entstehen.
Und bei einer theoretischen Monsterkarte die 400fps in 4k packt, würden dann halt nur 300fps entstehen.

Man würde hier einfach nur Tage in Tests stecken die das Offensichtliche belegen.
Ich meine, solange die Redaktion das machen will UND dabei nicht an den wirklich relevanten CPU Tests spart, ist mir das ja egal. Kann ja drüber scrollen und es ignorieren. In der Realität würde aber an anderem Ende gespart werden.
 

Arkos

Mr. Freelancer
Mitglied seit
02.11.2004
Beiträge
4.961
...

Das stimmt nicht immer.

Beispiel Benches Bf1 vs MP64 und wenn dann gleichzeitig noch gestreamt wird, sieht wieder anders aus. So gesehen sollte man sich nicht nur nach den in den ersten Reviews gemachten Benches richten.

...

Am Ende kauft eh jeder was er will, und meist auch von Anfang an wollte. (Intel vs. AMD), trotz Tests und Gegentests oder Preis. Egal wie teuer es ist. Sag mir jetzt keiner er hätte Hardware gekauft, die er nicht wollte :P

...
 
Zuletzt bearbeitet:

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.487
Tests mit gaming + streaming sind natürlich etwas anderes und machen auch Sinn. Findet man größtenteils in englischen Reviews, aber auch da eher selten. So arg viele Streamer gibt es dann halt doch nicht. Und die paar die es ernsthaft machen, kaufen einfach die dickste CPU und rechnen sie als Firmenausgabe ab. ;-)
 

hithunter

Semiprofi
Mitglied seit
13.06.2017
Beiträge
349
Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?

Wofür wäre das interessant für den Leser?

Deine neue GPU musst Du dir schon selbst schön reden, das müssen nicht andere für Dich tun.
 

Winchester73

Experte
Mitglied seit
10.08.2013
Beiträge
848
Und wieso nicht?
Wenn eine CPU bei 720p/low Auflösung 300 fps schafft, dann schafft sie das auch bei 1080p, 1440p und 4k/ultra.

Sorry, aber ich höre schallendes Gelächter. Wer hat dir denn den Schwachsinn eingetrichtert?
 

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.654
Ort
Baden Württemberg
Die Leute, die diese synth benchmarks mit der Aussage verteidigen: "in Praxisnahen gaming benchmarks sind die Ergebnisse eh alle gleich wegen dem GPU bottleneck..."

.....sind das eigentlich auch die selben Leute die dann behaupten, Intel CPUs seien besser fürs gaming?

Wie kann das sein, wenn sie offenbar alle gleich hoch liegen @1440p, 4k...8k.... ? Was ist denn nun mit der korrekten CPU Auswahl...

Logik ist für manche Leute nicht so einfach, schätze ich.

Ja am besten sollte es Ergebnisse aus beiden Welten geben. Dann könnte man auch einen sinnvollen informationsgehalt ziehen.
wie gesagt, der 16kern vs 8kern gaming mode 1080p@low ist so ein beschiss... der Aufwand und verschwendete Zeit lohnt sich hier auf gar keinen Fall! Jemand soll mich hier vom Gegenteil überzeugen!
Der Tester selbst!?
 

Kullberg

Computer Schach Freak
Mitglied seit
18.02.2005
Beiträge
4.309
Danke für den Test.
Aber wieso diese Aussage:"NUMA ist somit überflüssig"?
Das ist falsch. Die kleinen Threadripper haben 2 NUMA nodes, die Großen 4. Auf meinem früheren 1950er lief Schach mit NUMA besser als ohne.
 

arch3990

Enthusiast
Mitglied seit
11.11.2006
Beiträge
792
Danke für den Test.
Aber wieso diese Aussage:"NUMA ist somit überflüssig"?
Das ist falsch. Die kleinen Threadripper haben 2 NUMA nodes, die Großen 4. Auf meinem früheren 1950er lief Schach mit NUMA besser als ohne.

Das sehe ich genau so. Maxwell Render so wie die meisten aktuellen unbiased Render-Engines profitieren auch von NUMA.
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Ist doch egal, mit den 7nm Chips sind die NUMA-Nodes beim MCM doch eh Geschichte;)
 
Oben Unten