[Kaufberatung] Meinung zum AMD Threadripper 3960X

Techniklounge

Neuling
Thread Starter
Mitglied seit
23.01.2020
Beiträge
9
Ich werde mir einen Gaming PC zusammenstellen. Budget um die 5000 €
Ich will damit spielen aber auch Videobearbeitung mit 4 K Material
Streaming und spielen ebenfalls

ich überlege mir den AMD 3950x zu holen aber neige immer mehr zum 3960X der fürs Spielen besser geeignet wäre.
Eine Wasserkühlung kommt bei mir nicht in frage wegen der Wartung.

Würdet ihr mir den Threadripper raten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Fürs Gaming braucht man bestimmt keinen Threadripper.
Ansonsten:
Kühlen kann man der TR problemlos mit Luft - der Noctua NH-U14S TR4 ist gut geeignet.
 
Hab leider noch keinen selbst an Kunden verbaut, ist halt recht teuer, denn mit 2000 € bekommt man ja nur Board+CPU. Also hab ich leider noch keine Eigenerfahrung.

Ansonsten Benchmacrks sehn super aus, 7nm, Intel hat ja nix mehr, außer alt 14nm, pci-e 3.0 und auslaufende Sockel wie 3647.

Hab selbst ein Xeon 16-Kern und zocke grad Monster Hunter World, Game läuft auf 32 Threads (und bei 20%Last :) Anno1800 auf 18%max auf 16 Kern) - kann man also auch zum Zocken für die nächsten 5 Jahre nutzen :) ..Solange man Grafikkarte immer brav upgradet. Und wenn man eh Editing macht und keine Lust hat zu warten, Arbeitsfluss ohne Kompromisse sucht, was den Arbeitsflow nicht unterbricht würd, kann man aktuell zu fast gar nix anderem, als einem Threadrippper 3000 greifen.

Oder durchhalten bis DDR5 aufn Markt kommt, wird aber nix vor Januar 2021 ?!, dann gibs neue Threadripper, mit neuem Sockel, der jetzige wird wohl noch einmal 2020 ein refresh erfahren, aber danach wird wohl kein neuer für den Sockel kommen, wird mit einem neuen DDR5 Sockel sicherlich anders aussehn, aber mussen sie selbst wissen. Ihr Geld :)

ich würd auf jeden Fall, wenn mein X99 morgen durchbrennt zu nix anderem als einem Threadripper greifen wollen.
 
Ich hab 2 Rechner mit 3970X, allerdings kein X570 System. Der idle Verbrauch der Threadripper Systeme scheint allerdings nicht ernsthaft höher zu sein, als der von X570 Systemen. Lukü ist - wie oben geschrieben - kein Problem. Ist dann allerdings nicht super silent. Ein Gehäuse mit vernünftiger Belüftung ist natürlich Pflicht. Ich verwende (fast) nur Mesh Gehäuse.
Falls das Geld nicht extrem wichtig ist (scheint bei dem Buget ja so), würde ich den Threadripper wählen. Ich hab ein MSI TRX40 Pro WIFI und ein Asrock Taichi. Das MSI verbraucht idle ein paar Watt weniger, dafür unter Last aber etwas mehr. Das Asrock hat aktiv gekühlte Spawas, das MSI nicht. Der einzige Lüfter des MSI ist doppelt kugelgelagert - das war mit einer der Gründe, warum ich mich dafür entschieden habe. Die Lüfter des Asrock sollen angeblich besonders langlebige Lager (EBR Technik) haben. Ich hab aber keine Info was das sein soll. Ich selbst hab ein dual Xeon Mobo von Supermicro, wo der Chipsatzlüfter schon nach 1,5 Jahren Betrieb einen Lagerschaden hatte - sowas nervt total.

p.s. hab nun noch rausgefunden, was EBR sein soll: Enhanced Bearing by Rolling element - also ein Wälzlager oder Kugellager
 
Zuletzt bearbeitet:
Alles über den 3900X (oder auf Intel-Seite den 9900K(F/S)) hinaus ist ganz einfach rausgeworfenes Geld fürs Gaming.

ich überlege mir den AMD 3950x zu holen aber neige immer mehr zum 3960X der fürs Spielen besser geeignet wäre.

Wo hast du das denn her? Schon der 3950er ist overkill, bietet aber immerhin noch den höheren Boosttakt und ist einfacher zu kühlen. Die Spieleleistung wäre meist recht ähnlich, mit mehreren Ausreißern für den 3950X (zwecks Takt) und nur wenigen Ausreißern für den 3970X (zwecks Kernzahl).

Beim Streaming kommt es drauf an, ob man dies über die CPU oder über die GPU erledigen möchte und für welche Plattform gestreamt werden soll, in welcher Qualität und von wievielen Quellen (nur Gamestream? Parallel Greenscreen? Weitere Quellen?).

CPU-Streaming kann aktuell noch die bessere Qualität liefern, kostet aber massiv Leistung, weil Kerne/Threads nebenher vollständig belegt werden. GPU-Streaming ist die Zukunft und kostet kaum ein paar Prozentpunkte an Leistung während des Spielens. Hier wird auch weiter entwickelt und rein logisch sind GPUs eben weitaus besser in der Lage, schnelle / dynamische Spielinhalte zu streamen als CPUs.

Bzgl. Videoschnitt ist halt immer die Frage, welche Software benutzt wird und welche Quellformate... Auch hier verhält es sich ähnlich wie beim Streaming, dass versch. Softwares an versch. Stellen ansetzen und mal die CPU, mal aber auch die GPU wichtiger sind. Alleine zwischen so beliebten Softwares wie zB Premiere und Resolve liegen hier ganz einfach Welten.

Hab selbst ein Xeon 16-Kern und zocke grad Monster Hunter World, Game läuft auf 32 Threads (und bei 20%Last :) Anno1800 auf 18%max auf 16 Kern) - kann man also auch zum Zocken für die nächsten 5 Jahre nutzen :) ..Solange man Grafikkarte immer brav upgradet.

Der Xeon ist jetzt schon die schlechtere Gaming-CPU als zB ein popeliger 9600k oder Ryzen 5 3600 und alles, aber nicht zukunftssicher. Man kann auch bei nur 20% angezeigter Auslastung schon meilenweit im CPU-Limit hängen und das wird bei 95% der aktuellen Spiele bei gleichzeitiger Nutzung einer potenten GPU dank des extrem niedrigen Taktes mit fehlenden CPU/RAM-OC Optionen bereits aktuell der Fall sein. Klar bringt die rohe Kernzahl im ein oder anderen Aufbau-/Strategietitel eine gewisse Mehrleistung, aber es reicht ja schon ein bissl AC:O, CS, Apex, GTA oder Tomb Raider, damit zB der Xeon von so ziemlich jeder modereren 200€-CPU bereits geschlagen wird. Das wird dann mit jeder neuen Grafikkarten-Generation noch schlechter anstatt besser.
 
Der Xeon ist jetzt schon die schlechtere Gaming-CPU als zB ein popeliger 9600k oder Ryzen 5 3600 und alles, aber nicht zukunftssicher. Man kann auch bei nur 20% angezeigter Auslastung schon meilenweit im CPU-Limit hängen und das wird bei 95% der aktuellen Spiele bei gleichzeitiger Nutzung einer potenten GPU dank des extrem niedrigen Taktes mit fehlenden CPU/RAM-OC Optionen bereits aktuell der Fall sein. Klar bringt die rohe Kernzahl im ein oder anderen Aufbau-/Strategietitel eine gewisse Mehrleistung, aber es reicht ja schon ein bissl AC:O, CS, Apex, GTA oder Tomb Raider, damit zB der Xeon von so ziemlich jeder modereren 200€-CPU bereits geschlagen wird. Das wird dann mit jeder neuen Grafikkarten-Generation noch schlechter anstatt besser.

Hast du ein ? Hab mein 2630v4 gegen ein 7700k antreten lassen, kein Unterschied, außer das der 7700k kaputt wirkte, brauchte soviel Strom :) --und Anno2205 lud gefühlt doppelt so schnell bei vollgebauten städten - und bei noch höherer auflösung erreicht der 7700k bei Monsterhunter CPU Limit, der 2630v4 machte das ohne sorge - teils laufen bei mir sogar 2 Games, kann einfach hin und her tabben. Also nein, da ist kein Limit vorhanden und damit deutlich Zukunftssicher ! ..von einem 7700k redet ja schon gar keiner mehr, da war der E5 v3 schon fast 2 Jahre alt, und der 7700k ist jetzt schon kaum noch zu gebrauchen, aber ein E5 v3 immer noch. (wobei so langsam auch nicht mehr, die v4 sind meilenweit besser, sieht man auch am preis)

Hardwaredelux hat sogar mal ein 2699v3 als game-rechner gebenchmarked, gegenüber einem 59xx, weiß nicht mehr welcher das war, gab es sowas 1fps unterschied.
Naja gut, n 2699v3 bringt ne mordseffizienz an den Tag, sah man auch in den Benchmarks von hardwaredeluxe, aber das weiß auch Intel und lässt sich sowas halt teuer bezahlen.

(5500 €, klar das den sonst kaum einer anfasst, testet, drüber geredet wird, keiner Eigenerfahrung hat, bin ja nicht der einzige Gamer aus den Serverräumen, der einen nutzt, erklärt ja auch die gebrauchtpreise für eine bald 4 Jahre alte CPU :) - da wissen auch noch ein paar andere Bescheid, aber auf uns hört ja keiner^^..bzw treiben sich eh kaum in Foren rum, alles nur Consumer, Nutzer oder zeitschriften die halt den Herstellern Artikel(werbung) liefern müssen)

Hatte auch mal kurzzeitig n 5820k vs 2620v3 = 0 Unterschied an FPS aber der i7 brauchte mehr strom. Auch DDR3000 vs 2400 - das bisschen, schon fast vernachlässigbar. Entweder 10 Kern i7 extreme edition auf 3000 oder lieber n 16 kern auf 2400 ? ..ich nehm den 16er^^ hat man mehr von.

Klar irgendwo ist immer ein Limit und eine neuere CPU bringt auch immer n paar mehr FPS, aber manchmal ist das nichtsoviel wie es immer aussieht.
Limit ist bei mir btw nicht erreicht, klar kanns ein das Game nur ein Teilsegment stark beansprucht und nocht mehr liefern kann, sieht man aber auch am Stromverbrauch..und meine CPU langweilt sich... die hat noch platz. Wenn ich Anno1800, Monsterhunter, Surviving Mars, Starcraft II und Ni No Kuni II anschmeiße bekommt ich probleme..aber auch erst dann!

Hardwaredelux hatte auch mal n Benchmark mit ner 1080ti auf 2500k bis 7700k, klar der 7700k machte die meisten fps, aber selbst auf einem 2500k brachte die 1080 noch immer ein superspiele erlebnis, ohne das man sagen konnte "lohnt nicht". Kollege hat grad sogar ne 2080 auf n 3770k gesetzt, der hat mehr fps als ich.. ich hab halt auch nur ne 1070.

Ist immer son leicht verzerrtes bild mit all den Balken, wo das aussieht als wenn ne neue Karte/CPU 150% mehr Leistung hat, aber wenn man das aufne CPU chart von 10 Jahren länge stellt liegen einige Generation teils weniger auseinander, als man immer nur den Unterschied von 1,2 Generationen betrachtet. Ist son bisschen Marketing Trick/Statistik darstellung verzerrung...frei nach dem Motto vertrau keiner stastik die du nich selbst gefälscht hast.

Ist ja auch nichtso das wir 2009 leben, sondern 2016+ wo es schon 18 kerne und mehr gab, seitdem laufen soviele Games auf mehr als 8 Kernen, soalnge es nicht CS Go auf 3000fps sein soll :) So vergleich ich eigentlich auch nur 14nm mit 14nm - 145 Watt macht meine CPU, errreicht einen CPU Passmark wert und der deckt sich ziehmlich mit denen eines AMD Threadripper 2990x, wenn ich meinem CPU nochmal um 100 Watt anheben könnte + die fehlende Kerne addiere. Halt ziehmlich linearer Aufbau - auch gegenüber einem Xeon mit 28 Kern auf Sockel 3647 sind das teils keine 20% mehr Leistung, und das für eine 5 Jahre neuere CPU ist schon fast "arm" - naja halt auch nur 14nm + failed Intel.

Am ende siehts so bei mir aus, da steht mein rechner und irgendein Rechner den ich für jemanden zusammenbaue. Zuletzt hatte ich es halt mit Anno 2205 und einem dicken Savegame gemacht. Stoppuhr nehmen. Done. FPS Counter an, irgendwann kommt der Tag, wo man dann schon merkt und sieht wenn das eigene System endlich überholt ist. Und das erste was es kann ist halt...

Deswegen, Threadripper 3000&neuer Epyc - endlich mal Schritt nach vorne.
 
Immer dieses schreiben ohne Links. Verschaffe dir selber einen Überblick
Spielen beim Rendern ist kein Problem
ComputerBase hat das sowohl mit dem AMD Ryzen Threadripper 3960X als auch dem Ryzen Threadripper 3970X und im Vergleich auch mit dem Ryzen 9 3950X (Test) und dem Intel Core i9-10980XE (Test) getestet. Über den Windows Explorer wurden den Spielen F1 2019 und Shadow of the Tomb Raider zu diesem Zweck die Threads 0 bis 15 zugewiesen, der parallel ausgeführten App Blender die verbleibenden Threads 16 bis 47 (3960X) respektive 16 bis 63 (3970X), 16 bis 35 (10980XE) und 16 bis 31 (3950X).
 
@freekymachine sorry, aber deine Ausführungen und Ideen decken sich ganz einfach nicht mit der Realität.

Du gibst als Referenz den eigenen 16-Kerner an und nimmst ausschließlich eine handvoll Spiele, die nicht auf Single Threaded Leistung ausgelegt sind, noch dazu mit der 1070 eine GPU, die je nach Spiel bereits vor den getesteten CPUs ins Limit rennen dürfte und drehst dir die Werte gerade so passend, dass es für deine Idee (also, dass die Server-CPU im Gaming PC allgemein eine super Sache sei, die zu wenig beachtet wird) als Beleg herhalten kann.

Nimm Tomb Raider, AC:O, Apex, F1 2019, nimm jegliche weiteren nicht auf mehr als 4-16 Threads optimierten Spiele und deine 1000,-€-Gebraucht-Server-CPU wird bei geeigneter GPU zum Flaschenhals, weil es an Takt fehlt. Nimm dann im CPU-Limit noch den langsamen RAM und schwupps hast du unschöne Drops und Ruckler.


Mal rein als Grobvergleich. In jedem Spiel, welches keine 32 Threads nutzen kann (und das ist aktuell noch die absolute Mehrzahl und anhand der kommenden Konsolengeneration wird sich das auch nicht signifikant ändern) fehlen dir ggü. einer 500,-€-CPU wie dem 9900k ganz einfach mal 1,3 GHz an Takt. Das macht alleine schon mal ca. 33% weniger Leistung bei doppeltem Preis.

Klar, man kann sich über eine zu schwache GPU oder spezielle In-Game-Settings sein Limit jederzeit auch selbst passend konstruieren oder eben auch die wenigen Spiele picken, die mit massig Threads umgehen können. Dennoch ist eine Server-CPU mit niedrigem Takt in 95% aller Fälle P/L-technisch so ziemlich das schlechteste, das man für Gaming empfehlen kann.

Wenn du dein Beispiel nimmst: 1000,-€ für eine gebrauchte CPU, die im Limit in den meisten Games durch 40% weniger Takt und geringere IPC von einer aktuellen und neuen (!) CPU um 500,-€ meilenweit geschlagen wird.

In dem PCGH-Video sieht man direkt am der verlinkten Stelle übrigens das, was ich oben erwähnte:

3970X Threadripper und 9900k bei Anno 1800 BEIDE nicht ansatzweise voll ausgelastet (der TR wegen mehr Kernen natürlich noch weniger) und DENNOCH befinden wir uns hier deutlich im CPU-Limit, wo der 9900k dann eben circa 25% schneller ist als der TR 3970X, trotz 24 Kernen / 48 Threads weniger:

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh