Threadripper 9970x Workstation

barsch

Neuling
Thread Starter
Mitglied seit
03.02.2025
Beiträge
17
Hallo zusammen,

ich plane einen neuen Build mit einem Threadripper 9970X und das Ziel ist, später bis zu 3-4 RTX 5090 zu betreiben. Um das Budget vorerst im Rahmen zu halten, werde ich zunächst mit einer einzigen RTX 5090 starten.

Das ist meine aktuell geplante Konfiguration:
  • Mainboard: Gigabyte TRX50 AI TOP
  • CPU: Threadripper 9970X
  • Gehäuse: PHANTEKS Enthoo Pro 2 Server Big-Tower
  • Netzteil: SEASONIC PRIME PX-2200 2200W
  • Arbeitsspeicher (RAM): V-Color DDR5 | OC R-DIMM | AMD Ryzen TRX50 | Workstation Memory 4x48GB
  • SSD: Samsung 4.0 TB 9100 PRO M.2 NVMe SSD
  • CPU-Kühler: Silverstone SST-XE360-TR5 Wasserkühlung
  • Gehäuselüfter: 3-4x?
Ich habe dazu ein paar Fragen:

  1. Sieht die Zusammenstellung im Großen und Ganzen vernünftig aus?
  2. Gibt es bessere Empfehlungen für das Gehäuse (Tower)? Bei der Kühlung bin ich mir auch sehr unsicher, da ich selbst noch nie eine Wasserkühlung verbaut habe. Ist die von mir ausgewählte eine gute Wahl? Oder sollte ich vielleicht sogar auf Luftkühlung setzen? Welche Art von Gehäuselüftern wäre zu empfehlen?
  3. Was den RAM angeht: Ich habe gesehen, dass V-Color auf der QVL (Qualified Vendor List) des Mainboards steht, aber die Module sind für mich in Europa sehr schwer zu bestellen. Gibt es da gute Alternativen? Ich würde sogar 4x64GB bevorzugen, falls das funktioniert. Wäre alternativ auch eine Konfiguration mit 8x32GB möglich?
Vielen Dank im Voraus!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
später bis zu 3-4 RTX 5090
Ist das eigentlich schneller als ne große Karte zu kaufen, also so ne 96gb Blackwell pro?
Kenn mich da bei der "Stückelung mehrerer GPUs" nicht so aus.

Versteh aber, dass es wohl bequemer sein kann, wenn man 3 5090er kauft, zwecks Stückelung der Kosten, Wiederverkauf und so.
CPU: Threadripper 9970X
Obs nicht ein 9960X auch tun würde? Sind doch 1000€ Differenz... ob man je mehr als 24 Kerne ausgelastet bekommt? Kein Plan, wie CPU-Intensiv die Dinge sind, die du tun möchtest.
Würde das Geld lieber in RAM stecken, ist imho. besser angelegt, aber wie gesagt... musst du am Ende wissen.
Arbeitsspeicher (RAM): V-Color DDR5 | OC R-DIMM | AMD Ryzen TRX50 | Workstation Memory 4x48GB
Also Geizhals wirft mir das aus, wenn ich 6400er RDIMM suche:
V-Color ist wohl teurer mit Zoll/Steuer? Interessant wenn man > 192gb verwenden will, weils das sonst kaum gibt.
1755261256783.png
Bin mir nicht sicher, wie ich das deuten soll (mit dem native).
Ich persönlich würd da zu den gskill tendieren... wenn du ne verlässliche Quelle hast, dass diese V-Color super sind, dann kannst das machen.
SSD: Samsung 4.0 TB 9100 PRO M.2 NVMe SSD
Nachdem du wohl irgend nen KI Kram machen willst, kann ich dir nahelegen schnelle SSDs dafür zu verwenden.. weil 30gb VRAM füllen von ner lahmen SSD aus macht keinen Spaß.

9100 Pro ist schon gut.
Die Frage ist dann noch, wie oft/viel du wirklich von der SSD in den VRAM schieben musst, je nach Prozess kann das ganz wenig bis sehr viel sein. Wennst z.B. bei Stable-Diffusion ein Refiner-Model zur "nachbearbeitung" verwenden magst, und nicht beide in den VRAM passen, musst immer "nachladen", was sich zeitlich zusammenläppert.

Ich meine, so kann man schon starten.
Ob man dann noch 2x 9100 Pro für ein Raid 0 dazu nimmt (Betriebssystem auf die erste, die zu ladenden Datensätze aufs Raid 0), ist halt eine Frage der Art der Verwendung, ob das was bringt oder nicht.
Wenn das Raid 0 halbwegs brauchbar läuft auf dem TR (wovon ich ausgehe), ist das gerade bei sequentiellen Zugriffen (und das ist es wohl, wenn man einen 20-70gb Block in den VRAM laden will) schon eine Beschleunigung...

Random Read ist beim Raid 0 halt auch um nix besser als allein (so für den noramlen Alltags-Verwendungszweck), Raid 0 ist aber ganz lustig mit den 9100ern (wohl auch über 3 Drives):

Insofern würd ich mal mit der 4tb starten und beobachten, ob die Lesegeschwindigkeit davon aus wirklich relevant ist. Falls ja, überlegen mit 2-3x 2tb 9100ern nachzuhelfen (ergibt dann ja 4-6tb effektiv).
Mainboard: Gigabyte TRX50 AI TOP
Joa, musst halt schauen dass die 5090er nicht zu dick sind und reinpassen.
Viel Airflow wirst brauchen, damit das kühl bleibt (speziell auch die SSDs unter den GPUs).
 
Für ein Setup mit 3 bis 4 5090 zu je 500-600 W und dem Threadripper halt ich dass 2200W für zu knapp. Die GPUs kommen schon auf 2kW und dazu der TR mit 350W. Dazu der Kleinkram wie Board, Ra,! SSD Lüfter sollte man ja 100W einplanen.
Mit Reserve und Vermeidung von Volllast würde ich in die 3kw Klasse schauen.
 
Für ein Setup mit 3 bis 4 5090 zu je 500-600 W und dem Threadripper halt ich dass 2200W für zu knapp.
Ne, isses nicht, meine ich.
Mehr als 600 zieht ne 5090 nicht, AI schon gar nicht, kannst für Alltag auch auf 400W Cappen und bissl per Undervolting optimieren ohne nen Verlust. Been there, done that, macht keine 5% Unterschied in SD.

Die 2200W sind btw. 12V Leistung und nicht Gesamtleistung. für 4 Karten wird das bissl knapp, das mag stimmen, allerdings bedarf es "nur" 3 für die 96gb, welche die Blackwell Pro hat (und wo das meiste wohl hin optimiert ist).
Das Board hat auch nur 3x PCIe 5.0x16 (wenns denn schnell sein muss), ne 4. kann man schon machen, aber ich denke, dass das nicht nötig ist (siehe Blackwell Pro).

Mehr Leistung gibts eigentlich nicht und 2 Netzteile sind so ne Sachen, kann man natürlich machen, aber mh. Wsl. müsse man die 2 ATX Stecker verbinden, damit sie gemeinsame Spannungen haben, benötigt wieder Adapterkram. Würde ich umgehen, wenns möglich ist.


Ich hab diesbezüglich sehr aktuelle Erfahrunggen, da ich ne 5090 mit nem Straight Power 11 750W (Multirail) betrieben habe, wo die verwendeten Rails zu knapp für die 5090 waren.
Die Leistung (W) etwas begrenzen hat super zuverlässig geholfen über mehrere Wochen (hab jetzt ein 1000W Singlerail gekauft).

3 5090 laufen mit den 2200W 100% safe, 4 Karten werden selbst ohne TDP Reduktion im AI Workload laufen, so meine Glaskugel (war bei mir nämlich auch so, gab nur beim Zocken Abstürze), mit TDP Reduktion (auch hinsichtlich Stromkosten sinnvoll) laufen auch 4 Karten 100% Safe.
ATX 3.1 Steckt Peaks auch gut weg.


Imho kann man damit schon planen.
 
Ich gebe zu ich habe keine Idee was die Karten im AI workload ziehen. Mit Powercap und UV mag das gehen.
Nur sollte man sich dessen bewusst sein.
 
Wird gut gehen, zudem Powercap relativ sinnvoll/wichtig ist, da man bei 3-4 Karten dadurch 600-800W einspart, was durchaus Geld ist, wenn man das Ding wirklich auch laufen lässt.
Du hast schon recht, dass das etwas knapp ist, aber die Alternativen sind nicht unbedingt so viel besser oder problemloser (bzw. kann man immer noch machen).

Dual-PSU ist so ne Sache, gibt Adapterkabel wo nur die Power-Pins verbunden sind (damit das 2. NT "anspringt"), ich bin mir aber nicht sicher, wie sinnvoll das ist, die 2 NTs galvanisch getrennt zu haben (da die GPU ja Spannung über den Slot von NT1 bekommt und über den PCIe Stecker von NT2...).

Wird wohl so gehen, wenns diese Adapter in Massen gibt. Bin mir trotzdem nicht sicher, wie schlau und "sauber" das ist (imho ist es auch eher blöd 0 Last auf 3,3/5V zu haben... wsl. ist auch das kein großes Problem, aber naja... ist halt nicht "best practice").

Zudem sind diese ganzen Adapter bissl fragwürdig von der Qualität her, da müsste man mal bissl suchen gehen, ob die guten Quellen (Cablemod?) sowas anbieten.



Ich würd Dual-PSU vermeiden, wenns geht...
Vielleicht aufs FSP-Cannon switchen? Ist auch nicht teurer und hat immerhin 2500W (600x4 wären 2400...).

Damit wären deine Bedenken dann auch aus dem Weg, imho sind 2500W ATX 3.1 dann auch wirklich genug für 4x 5090 @ stock-settings @ Vollast... zumindest meiner Erfahrung nach.
 
Danke für die Antworten!
Ist das eigentlich schneller als ne große Karte zu kaufen, also so ne 96gb Blackwell pro?
Kenn mich da bei der "Stückelung mehrerer GPUs" nicht so aus.

Versteh aber, dass es wohl bequemer sein kann, wenn man 3 5090er kauft, zwecks Stückelung der Kosten, Wiederverkauf und so.

Schneller ist es auf jeden Fall, ja. Also wenn du alles optimal aufsetzt, sind 3x5090 fast dreimal so schnell wie einer Blackwell Pro und haben dieselbe Anzahl an VRAM, aber natürlich 3mal so viel Watt. Platz, kühl und stromeffizienter ist die Blackwell, aber Compute ist quasi equivalent zur 5090.

Obs nicht ein 9960X auch tun würde? Sind doch 1000€ Differenz... ob man je mehr als 24 Kerne ausgelastet bekommt? Kein Plan, wie CPU-Intensiv die Dinge sind, die du tun möchtest.
Würde das Geld lieber in RAM stecken, ist imho. besser angelegt, aber wie gesagt... musst du am Ende wissen.

Ja, ich überlege dauernd hin und her.

Also Geizhals wirft mir das aus, wenn ich 6400er RDIMM suche:
V-Color ist wohl teurer mit Zoll/Steuer? Interessant wenn man > 192gb verwenden will, weils das sonst kaum gibt.
Anhang anzeigen 1133029
Bin mir nicht sicher, wie ich das deuten soll (mit dem native).
Ich persönlich würd da zu den gskill tendieren... wenn du ne verlässliche Quelle hast, dass diese V-Color super sind, dann kannst das machen.

Stimmt, die wären eventuell eine Option falls verfügbar. Am liebsten wäre mir ja 4x64GB.
Und die Kühlung macht mir ein wenig Sorgen beim RAM. Hat da jemand Erfahrung wie man das handhabt?

Nachdem du wohl irgend nen KI Kram machen willst, kann ich dir nahelegen schnelle SSDs dafür zu verwenden.. weil 30gb VRAM füllen von ner lahmen SSD aus macht keinen Spaß.

9100 Pro ist schon gut.
Die Frage ist dann noch, wie oft/viel du wirklich von der SSD in den VRAM schieben musst, je nach Prozess kann das ganz wenig bis sehr viel sein. Wennst z.B. bei Stable-Diffusion ein Refiner-Model zur "nachbearbeitung" verwenden magst, und nicht beide in den VRAM passen, musst immer "nachladen", was sich zeitlich zusammenläppert.

Ich meine, so kann man schon starten.
Ob man dann noch 2x 9100 Pro für ein Raid 0 dazu nimmt (Betriebssystem auf die erste, die zu ladenden Datensätze aufs Raid 0), ist halt eine Frage der Art der Verwendung, ob das was bringt oder nicht.
Wenn das Raid 0 halbwegs brauchbar läuft auf dem TR (wovon ich ausgehe), ist das gerade bei sequentiellen Zugriffen (und das ist es wohl, wenn man einen 20-70gb Block in den VRAM laden will) schon eine Beschleunigung...

Random Read ist beim Raid 0 halt auch um nix besser als allein (so für den noramlen Alltags-Verwendungszweck), Raid 0 ist aber ganz lustig mit den 9100ern (wohl auch über 3 Drives):

Insofern würd ich mal mit der 4tb starten und beobachten, ob die Lesegeschwindigkeit davon aus wirklich relevant ist. Falls ja, überlegen mit 2-3x 2tb 9100ern nachzuhelfen (ergibt dann ja 4-6tb effektiv).

Guter Punkt, Danke!

Joa, musst halt schauen dass die 5090er nicht zu dick sind und reinpassen.
Viel Airflow wirst brauchen, damit das kühl bleibt (speziell auch die SSDs unter den GPUs).
Ja die FE wären ja nur zwei Slots... und ja die Kühlung macht mir schon auch ein wenig Sorgen. Frage ist ob da nicht auch eine andere 5090 Variante besser geeignet wäre.

Da ich denke eh maximal 3x5090 realistisch sind, speziell auf den non-pro Boards, sollten die 2200W definitiv reichen, aber das 2500 wäre natürlich eine Alternative.
 
Schneller ist es auf jeden Fall, ja. Also wenn du alles optimal aufsetzt, sind 3x5090 fast dreimal so schnell wie einer Blackwell Pro und haben dieselbe Anzahl an VRAM, aber natürlich 3mal so viel Watt. Platz, kühl und stromeffizienter ist die Blackwell, aber Compute ist quasi equivalent zur 5090.
Imho ist das ein Trugschluss, imho kannst du VRAM oder Geschwindigkleit verdoppeln, nicht beides bei 2 Karten... lass mir aber gern was anderes erzählen.
Stimmt, die wären eventuell eine Option falls verfügbar. Am liebsten wäre mir ja 4x64GB.
Imho hat RDIMM kein Problem mit 2 Modulen pro Kanal (diese Info solltest aber speziell für den TR nochmal ergoogeln, ist leider ziemliches Nischenwissen wo ich auch nicht 100% sattelfest bin), also könntest einfach 8 Module bestücken bzw. nachkaufen wenn nötig.
Große Module sind atm relativ teuer...

Kühlung ist imho recht egal, ansonsten halt irgend nen Ghettomod machen und nen 80-120mm Lüfter gut positionieren.
Ich würd Wakü drauf machen (Anschlüsse zur Seite) und auf den 4 Montageschrauben per 3d Druck nen 120er/140er Lüfter aufsetzen, der dann mit dem Zentrum über dem Wasserkühler sitzt und auf VRMs und RAM pustet. Schläuche darunter zur Seite wegführen.
Den Radiator der CPU Wakü "Einblasseitig" im Gehäuse montieren. Viel Airflow (gern nach Gehäuse Temp gesteuert).
Ja, ich überlege dauernd hin und her.
Imho reichen die 24 Cores... aber wie gesagt, hängt schon davon ab, was du tust. Bei Multithreading läuft das Ding imho eh ins TDP Limit bzw. Temperatur Limit, imho profitiert man von >24 Cores eher wenig.
Ist ja auch ein Grund warum HEDT quasi tot ist, weil so ein 9950X P/L einfach top ist.

Ja die FE wären ja nur zwei Slots... und ja die Kühlung macht mir schon auch ein wenig Sorgen. Frage ist ob da nicht auch eine andere 5090 Variante besser geeignet wäre.
Wie viel Slots dürfen die Grakas da maximal haben? Hab da nicht wirklich was dazu gefunden, leider.
Du brauchst einfach ein Gehäuse wo du massiv Airflow drin haben kannst, wird halt laut unter Last, aber imho kann das alles im Rahmen bleiben wenn man die Lüfter sinnvoll regelt.
Da ich denke eh maximal 3x5090 realistisch sind, speziell auf den non-pro Boards, sollten die 2200W definitiv reichen, aber das 2500 wäre natürlich eine Alternative.
Das FSP ist aber siche rnicht schlecht und auch nicht teurer. Würde das nehmen, sicher ist sicher.
 
Imho ist das ein Trugschluss, imho kannst du VRAM oder Geschwindigkleit verdoppeln, nicht beides bei 2 Karten... lass mir aber gern was anderes erzählen.
Ja doch natürlich kann man bei zwei Karten beides verdoppeln. Bei Training Jobs aber noch besser.
Imho hat RDIMM kein Problem mit 2 Modulen pro Kanal (diese Info solltest aber speziell für den TR nochmal ergoogeln, ist leider ziemliches Nischenwissen wo ich auch nicht 100% sattelfest bin), also könntest einfach 8 Module bestücken bzw. nachkaufen wenn nötig.
Große Module sind atm relativ teuer...

Kühlung ist imho recht egal, ansonsten halt irgend nen Ghettomod machen und nen 80-120mm Lüfter gut positionieren.
Ich würd Wakü drauf machen (Anschlüsse zur Seite) und auf den 4 Montageschrauben per 3d Druck nen 120er/140er Lüfter aufsetzen, der dann mit dem Zentrum über dem Wasserkühler sitzt und auf VRMs und RAM pustet. Schläuche darunter zur Seite wegführen.
Den Radiator der CPU Wakü "Einblasseitig" im Gehäuse montieren. Viel Airflow (gern nach Gehäuse Temp gesteuert).

Imho reichen die 24 Cores... aber wie gesagt, hängt schon davon ab, was du tust. Bei Multithreading läuft das Ding imho eh ins TDP Limit bzw. Temperatur Limit, imho profitiert man von >24 Cores eher wenig.
Ist ja auch ein Grund warum HEDT quasi tot ist, weil so ein 9950X P/L einfach top ist.

Ja das ist halt eher auch die Sache wieso mich 32 Cores reizen, weil wenn nächstes Jahr 24 Core Ryzen rauskommen fühlt es sich vll. etwas nutzlos an. Wobei natürlich die PCIE Lanes alleine ein Argument sind.

Wie viel Slots dürfen die Grakas da maximal haben? Hab da nicht wirklich was dazu gefunden, leider.
Du brauchst einfach ein Gehäuse wo du massiv Airflow drin haben kannst, wird halt laut unter Last, aber imho kann das alles im Rahmen bleiben wenn man die Lüfter sinnvoll regelt.

Wenn du drei Stück nimmst dürfen sie maximal zwei Slots haben, das wäre dann nur die FE. Falls man sich mit zwei begnügt, wären das 3 Slots.
Das FSP ist aber siche rnicht schlecht und auch nicht teurer. Würde das nehmen, sicher ist sicher.
 
Nachtrag:
Speziell bezüglich RAM Bestückung, müsstest du halt genauer wissen, was du wirklich brauchen wirst, wenn du nicht ein echt großes Budget zum "rauswerfen" hast...
AMD sagt offiziell up to 6400 MT/s, was ich als relativ vernünftig bzw passend erachten würde.

Die 4x64 6400er (was auch immer "native 4800" heisst) kosten bei v-color 2000 usd, macht mit Märchensteuer 2380€ und für den Zoll hab ich nix gefunden... also 2400-2550€ (wenns 7% wären). ungefähr.
Imho aber uninterssant, interessant wäre dann eine richtig große Menge, also Richtung 128er Module... da wirds spannend.

Ich tät zum 4x48er gskill Kit tendieren... und bei echtem Bedarf ein 2. davon nachlegen (wovon ich fast nicht ausgehe).
Anders nur, wenn du wirklich weisst, dass du >512gb brauchen wirst, was ich mir eher wenig vorstellen kann.

Imho auch 9960X > 9970X, das P/L ist einfach so viel besser, in erster Linie kaufst du ja wegen den vielen PCIe Lanes (ausser du bist dir sehr sicher, dass du vieeele Cores brauchst, dann aber evtl. auch über mehr als 9970X nachdenken).

Und dann bei Bedarf nach legen (unter 2tb würde ich keine SSD mehr kaufen), aber ob man fürn "Arbeits-Raid-0" über 2 oder 3 Drives nun 4tb Drives braucht, wsl. nicht, dann eher 2tb x2 oder x3, je nach Budget (und abhängig davon, obs was bringt...).
RAM könntest dann noch verdoppeln, galub aber nicht, dass da was nötig ist.

=> Also ich würde starten mit:
- 4x48gb gskill 6400 rdimm/ecc
- 9960X
- 1x 9100 4tb


Dann kannst mal loslegen mit 1x 5090 und Erfahrung sammeln, was wirklich notwenidg ist...

Wenns gar nicht läuft, wäre son 9960X mit den 4x48gb 6400ern und 1x 5090 auch noch ein sinnvoller "Allround-Workstation-Gaming"-PC für die nächsten Jahre...
Ist vllt. dann besser als ein Verkauf mit großem Wertverlust.
 
Ja doch natürlich kann man bei zwei Karten beides verdoppeln. Bei Training Jobs aber noch besser.
Klingt mir nicht logisch, aber ... wenn du dir sicher bist.
Bei SLI wars so, dass der VRAM nicht größer wurde, da ja zum Berechnen der Bildhälfte trotzdem der ganze Quelldatensetz nötig war.
Imho ist das Splitten von KI Modellen auch nicht so easy? Aber das wirst du besser wissen... würd mich da vorher nur gut informieren.

Ja das ist halt eher auch die Sache wieso mich 32 Cores reizen, weil wenn nächstes Jahr 24 Core Ryzen rauskommen fühlt es sich vll. etwas nutzlos an. Wobei natürlich die PCIE Lanes alleine ein Argument sind.
Nicht so schlaue Herangehensweise, bei der Preisdifferenz.
Das TDP Limit und auch die Bauform ist entscheiend, ne AM5 / AM6 ist so kompakt, dass du die bei >150W TDP nimmer ordentlich gekühlt bekommst, der Threadripper ist massiv größer...
9960X ist pro Core schon deutlich billiger...
Wobei natürlich die PCIE Lanes alleine ein Argument sind.
Das ist eben das Killerfeature, wie auch der RDIMM RAM, wo du eben sehr viel verwenden kannst.
Also bei den klassischen Gebrauchtservern sind immer die PCIe Lanes und der viele mögliche RAM das Argument, selten wird die CPU wirklich so schlimm ausgelastet.

Wenn du drei Stück nimmst dürfen sie maximal zwei Slots haben, das wäre dann nur die FE. Falls man sich mit zwei begnügt, wären das 3 Slots.
Meh, also Wakü oder FE... beides ranzig.

Wenns max. 3 sein sollen vllt. 1x "ordentliche" 5090 kaufen (weil billiger und besser), die du später in den unteresten 5.0 Slot tust, da darf sie ja dicker sein, und dann per FE nachbestücken... oder halt die billigste 5090 kaufen und Wakü drauf... muss man halt wollen, mit Wiederverkauf und Garantie son Thema bei so teuren Karten.

Da kann ich dir schwer helfen.
 
Ja, da bin ich mir sicher und kenne mich aus, das passt.

Bezüglich RAM noch ein Nachtrag, eigentlich sollten auch 4 Stück hiervorn oder hiervon passen:

Nur die Kühlung der RAM macht mir da echt Gedanken, sowas noch nie gemacht.
 
Bezüglich RAM noch ein Nachtrag, eigentlich sollten auch 4 Stück hiervorn oder hiervon passen:
Imho ja, sind halt JEDEC mit CL52, die gskill haben cl32, brauchen dafür auch viel mehr Spannung und werden demnach heißer.

Imho kannst die jeden Standard RAM ohne Kühler laufen lassen mit ihren 1.1V... Airflow wirst ohnehin haben.

Ob man die kleineren Latenzen merkt? Beim AI Kram wsl. nicht..
Hab in meinem AM4 5900 Allrounder auch ECC 3200er cl22 ddr4 @ 3600 cl22 laufen (ist aber U DIMM) und keine "Gamer-RAM"... die "guten Gamer" haben bei 3600 dann cl16-18 oder so... mir wäre beim Wechsel aber nix aufgefallen.. kann man wsl nur messen in Spielen anhand der Latenzen und so...
Realworld Auswirkung ist wsl. eher null.

Wsl. kannst du die Timings schon auch Manuell "anziehen" bei den 64gb "Standard-RAM", wie das bei RDIMM genau läuft kann ich dir nicht sagen, nie gemacht.


Imho spricht nix dagegen die günstigeren Samsungs zu kaufen (319€ ist schon okay, inwiefern der Jacob seriös ist, kA... soll so medium sein).
Nur die Kühlung der RAM macht mir da echt Gedanken, sowas noch nie gemacht.
Imho bei 1.1V Modulen recht egal, bei 1.4V etwas basteln.
 
Naja, ich wüsste aber andererseits nicht, wo das große Problem sein soll...

Der Real-World Einfluss ist wsl. eher durchwachsen.
Weiter wird sich das RAM-OC (wenn auch Werkseitig) durch die hohe Spannung erkauft, 1.4V statt 1.1V, geht halt etwas aufs Lebenszeit (mit ECC halb so Wild) und wird schon gut wärmer...

edit:
Imho bist du mit 64gb für ca. 350€ ähnlich teuer (vllt. etwas günstiger) dran als beim 1500€ 4x48gb Kit. Zudem läufts kühler.
4x64gb vs 4x48gb dann, also 256gb statt 192gb, upgradebar auf 512gb.

Kann man schon machen.
 
@barsch
Ich habe diverse EPYC Rechner und einige KI Rechner gebaut.
Meine Erfahrung ist: man sollte erstmal rausfinden, welche Hardware für die Anwendung die Performance am besten fördert.
Z.B. lief bei mir So 2066 / Xeon mit 2 Grakas relativ schlecht.
Am schnellsten laufen bei mir Rechner mit 4090 (1 auch mit 2x 4090) und Intel 13900 K(F).
Allerdings sind da bereits 2 CPUs defekt - weshalb ich jetzt meinen neu geplanten Rechner mit 1x 5090 mit einem AMD 9700X aufbauen werde.
Ich hab auch mehrere Threadripper 3990X - die sind für KI wenig geeignet. Alle bis auf 1 sind inzwischen ausgemustert - es sind auch im Dauerbetrieb insgesamt 3 Mobos gestorben.
Verwendet habe ich die allerdings nicht für KI.
Mehr als 1 starke Graka wird mit Lukü nix - mein 2x 4090 Rechner hat 1 mit Wakü, 1 mit Lukü.
Auch 2x 5090FE dürfte sehr schwierig werden, mehr als 2 sind garantiert unmöglich.
Die Kühlung mit AIO halte ich für nicht empfehlenswert - ich würde einen Arctic Luftkühler empfehlen. Ich hab mehrere davon im Dauerbetrieb.
Bevor man sich Gedanken um RAM speed.. macht, sollte man rausfinden, ob das einen Unterschied macht.
 
@barsch

Ich hab auch mehrere Threadripper 3990X - die sind für KI wenig geeignet.
wieso?
Mehr als 1 starke Graka wird mit Lukü nix - mein 2x 4090 Rechner hat 1 mit Wakü, 1 mit Lukü.
Habe selbst 2x schon problemlos betrieben. Wieso meinst du das wird nix?
Auch 2x 5090FE dürfte sehr schwierig werden, mehr als 2 sind garantiert unmöglich.
Die Kühlung mit AIO halte ich für nicht empfehlenswert - ich würde einen Arctic Luftkühler empfehlen. Ich hab mehrere davon im Dauerbetrieb.
Wieso keine AIO?
 
Zuletzt bearbeitet:
Ja, je nach dem, wenn man die Gurke aber mit 1 NT baut und nem Raid 0 an M.2 und so... kann man damit wohl leben. Wenn man ne bessere kauft, geht das schon. Denk ich mir halt. Weiss nicht ob die Arctic Cooling auf den TR passen...
Ist eine Frage des Airflow.
Imho sollte 3x 5090 schon gehen @400W.
Man muss halt ein Gehäuse kaufen, das einen wirklich guten Airflow ermöglicht... dann sollte das schon gehen.
Mit Leise ist dann au ch nicht so.
 
Frage is dann halt ob es nicht doch klüger wäre ein Ryzen System mit 2x 5090ern zu machen und die 8x PCIE in kauf zu nehmen.
 
Naja wenn du 3 davon brauchst weil du sonst zu wenig VRAM hast... is das ein Problem.


Natürlich ist ein AM5 schlauer mit nem 9950X, kann auch ECC (ist halt teuer der UDIMM), 64er Module sind auch schon am Kommen.

8x PCIe 5.0 ist kein Thema, das reicht.
 
Frage is dann halt ob es nicht doch klüger wäre ein Ryzen System mit 2x 5090ern zu machen und die 8x PCIE in kauf zu nehmen.
Würde ich erstmal so machen, allerdings mit 1 Graka. Damit kannst Du probieren, ob der pcie Bus überhaupt ein Flaschenhals ist (pcie Gen 'runtersetzten). Und Du kannst rausfinden, ob die CPU Performance eine Rolle spielt. Und falls alles für nen größeren Rechner spricht, kann man nen Ryzen leicht verkaufen.
Einen Threadripper wirst Du kaum los.
Soll der Rechner gewerblich laufen?

Übrigens: falls viel CPU Power gefragt ist, ist ein EPYC 9654 super - auch vom Preis her. Da kriegt man 96 Cores für den gleichen Preis

Noch was: DDR5 RDIMMs kaufe ich nur noch nach QVL - nicht 100% kompatiblen zickigen RAM hab ich noch rumliegen
 
Ich brauche nicht dringend 3, es war nur irgendwie der Wunsch die Möglichkeit offen zu lassen.

Also wenn ich mich mit 2 begnüge wäre Ryzen wohl vll. wirklich die einfachere Wahl.
 
Würde ich erstmal so machen, allerdings mit 1 Graka. Damit kannst Du probieren, ob der pcie Bus überhaupt ein Flaschenhals ist (pcie Gen 'runtersetzten).
Ich kann nur über Stable Diffusion (img Generator) sprechen.
Da spielt die PCIe Geschwindigkeit keine Rolle, nur beim Modell-Laden, wobei das eher von der SSD begrenzt wird (von ner guten PCIe 4.0x4 SSD also reicht PCIe 3.0x8 an der Graka).
Hab das auf diese Art probiert.

Insofern wärs auch denkbar in nen AM5 (oder Arrow) ne Graka an PCIe 4.0x4 Chipsatz Lanes zu machen (wie man das früher für 3x SLI/Crossfire gemacht hat).
Ich brauche nicht dringend 3, es war nur irgendwie der Wunsch die Möglichkeit offen zu lassen.
Ist halt die Frage was du echt vor hast...
 
Use case ist wie gesagt hauptsächlich diverses AI (LLM/Vision) Training, nicht Prediction/Inference. Da spielt interconnect schon eine Rolle, aber die 8x 5.0 sollten reichen.
 
Tja, bei den "kleinen" Plattformen hast du das "Problem", dass du relativ wenig SSDs hast die schnell sind, zumindest bei Boards die x8x8 PCIe 5.0 können.

X870E hast das USB-4 "Problem" und somit nur 1x 5.0 M.2 an der CPU (also nix mit flottem Raid-0). Am Chipsatz teilen sich alle SSDs 4 PCIe 4.0 Lanes aus der CPU, also meh.
B850 hätte das Problem nicht, allerdings gibts nur 1 Board das x8x8 5.0 kann, nämlich das Gigabyte AI Top, welches wiederum wenig M.2 hat weil es 2x 10gbit NICs drauf hat, die das bissl fressen.
Inte-Arrow hat man nur ein paar teure Boards die x8x8 können, die haben an der CPU aber auch nur 1x PCIe 5.0x4 M.2 (und 1x PCIe 4.0x4), und am Chipsatz noch paar (dieser ist immerhin mit PCIe 4.0x8 angebunden).

Da wird es halt knapp in jede Richtung.
 
Ja, wobei das Gigabyte AI Top schon plausibel aussieht, das hat doch 2x PCIE 5 für SSD oder?
 
Diese Grafik ist wichtig:
1755287345256.png

Du liegst da richtig, hab nicht genau geschaut.
Du hast 2x PCIe 5.0x4 an der CPU und am Chipsatz 1x PCIe 4.0x2 ...

Man könnte schon das Betriebssystem & Programme auf der PCIe 4.0x2 haben (so wie PCIe 3.0x4, realistisch schnell genug), wird man gerade bei den Random-Zugriffen wenig merken, also ne Samsung 990pro 4tb rein. Dann könnte man sich ein Raid0 aus 2x PCIe 5.0x4 9100pro machen in die CPU M.2s hinein. Mehr geht dann nimmer.


Muss halt klar sein, dass mit 2x 5090 tatsächlich Schluss ist.
Vorteil: Läuft alles noch mit Luftkühlung weil die Abstände passen... und mit "guten" 5090 Modellen...

Sonst müsste man halt Richtung Blackwell-Pro gehen.


9950X (x3d kann man sich sparen), bissl Curve-Optimizer und der läuft schön kühl mitm dicken CPU Luftkühler, wobei ich ne AiO Wakü im Intake (damit die CPU kalte Luft von außen bekommt) bevorzugen würde, obwohl ich kein AiO Freund bin.
Die Ryzen haben durch die kleine Bauform ne Neigung zum Wärmestau, die kalte Luft hilft in dem Fall, wenn 2x 5090 im Case heizen.
Die vom Ryzen in die Luft eingetragene Wärmemenge selbst ist aber eher gering, so dass das die 5090 kaum stört, wenn man etwas Airflow hat.
Insofern tät ich ne Arctic Cooling AiO vertwenden für die CPU.

RAM läuft mit 4 Modulen halt nur "langsam", schafft meist wohl keine 6000, aber mit neuen Biosen sollte es besser sein.

ECC ist recht teuer als UDIMM, die Frage, ob man es braucht. Die GPU hat ja auch kein ECC, insofern... kann man sich das wsl. sparen, wenn man mal ordnetlich Memtest nacht nach Inbetriebnahme und als Stichproble 1x im Monat oder so...
ECC UDIMM gibts nur 48er Module, bei 192gb ist dann schluss.

Ohne ECC bekommt man schon 64er Module, kosten halt Geld als 6000er mit wenig CL.
Ca. 250€ / 64er Modul...

48gb Module ohne ECC sind relativ billig:
220€ / 2x 48er Kit, wärest bei 440€ für 192gb dabei (vs. 1000€ für 256gb).

Wobei... man damit wohl ein recht rundes System bauen kann, 9950X + 256gb (192gb) + 2x PCIe 5.0 SSD + OS SSD + 2x 5090 (und 2x 10gbit am Board) ist schon nicht übel.
Steht und fällt halt damit, ob 2x 5090 ausreichend ist.
Beitrag automatisch zusammengeführt:

Nachtrag:
Nochwas fält mir ein.

Der Threadripper hat keine iGPU.

Der Ryzen (9950X) hat eine iGPU.
Heisst also, wenn du vorm Rechner sitzt und das Ding nicht total Headless läuft (sowas verstehe ich unter Workstation), kannst du die iGPU verwenden und hast somit 0 GPU-Verwendung, was möglicherweise vorteilhaft sein könnte...

Also wie gesagt, wenn dir 2 Grafikkarten (mit PCIe 5.0x8 Anbindung) ausreichen würden... ist das wahrscheinlich die bessere Sache.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh