Blackwell Smalltalk Thread (RTX 5000er Reihe)

  • Ersteller Gelöschtes Mitglied 102156
  • Erstellt am
DQHD, 4k ist für Geringverdiener mit zu schmalem Schreibtisch
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sehe ich auch so. Kann natürlich jeder machen, wie er mag...:d
 
Also wer heute noch in 1080p zockt hat doch komplett die Kontrolle über sein Leben verloren. Auch diesen Fetisch zu 27“-Monitoren werde ich nie verstehen. Als wäre die Zeit 2010 stehengeblieben.
was wer für dich der heutige standart?
Beitrag automatisch zusammengeführt:

(Schwarzer) Humor scheint dir gänzlich unbekannt…, sei‘s Drum. Man lernt eben nie aus 😏
wie du machst schwarzen humor? häh ich dachte immer du meinst das alles ernst xD
 
ah, nur 32? geringverdiener min 34 muss drinn sein xD
 
Ich weiß nichtmal, wieviel Zoll mein Monitor hat oder wie er heißt. :unsure: Ich hab mal kurz geschaut und dem Namen nach sinds wohl 38".:d
 
Hi, ich bin schon ne Weile raus und zocke selbst kaum noch.
Ich will ein System mit zwei RTX 5090 auf Stabilität testen und schauen wie sich die Temperaturen nach mehreren Stunden Betrieb entwickeln.
Wie bekomme ich beide Karten ordentlich ausgelastet ohne Spiele? Mit Unigin Superposition hat die zweite Karte nur max 160W Last laut Hwinfo.
Ich hab schnell mal Furmark 2 angeworfen und auch wenn ich eine zweite Instanz starte und die andere Karte auswähle wird immer nur eine ausgelastet.
Habt ihr ne Idee?
 
Du willst also SLI betreiben? Geht schon seit der 3xxx Gen nicht mehr.
 
Zuletzt bearbeitet:
weils für mich der zum bevorzugten Sitzabstand passende Bildschirm ist.
Genau so ist es. Es gibt keine feste Größe welche richtig ist. Es ist eine Wahl, aufgrund der persönlichen Variablen die gegeben sind.
 
Er bekommt beide Karten nicht ausgelastet, auch nicht mit F@H, da SLI nicht mehr geht.
 
Achso, nein kein SLI. Das System soll zum Rechnen genutzt werden. Gibt es keinen Benchmark der die Karten gleichzeitig auslastet? Auch mit zwei Instanzen?
 
Ah, habe mal eine KI gefragt:

„Für professionelle Anwendungen, Rendern, Datenverarbeitung etc. kann man durchaus mehrere GPUs nutzen – über APIs wie CUDA, DirectX12 oder Vulkan, oder speziell angepasste Software.“

1. Multi-GPU geht noch – aber ohne „SLI“
• CUDA: Mehrere GPUs werden von CUDA nativ unterstützt. Man kann in der Software gezielt auf cuda:0, cuda:1 usw. zugreifen oder sie gleichzeitig nutzen.
• Frameworks wie TensorFlow, PyTorch, JAX: Alle haben eingebaute Multi-GPU-Unterstützung. Sie verteilen automatisch Modelle/Daten auf beide Karten.
• Rendering & Simulation (Blender, Octane, V-Ray, Redshift, Houdini, etc.): Diese Tools skalieren sauber über mehrere GPUs. NVLink wird nur noch für Speicherzusammenlegung gebraucht (bei Profi-GPUs wie A100, H100 oder Quadro RTX). Bei GeForce wird nur jede Karte einzeln benutzt, aber die Last kann parallel laufen.



2. Benchmarks, die beide Karten gleichzeitig nutzen

Es gibt einige Benchmarks, die Multi-GPU unterstützen:
• Blender Benchmark → kann mehrere GPUs gleichzeitig rendern.
• OctaneBench (OTOY) → nutzt beide GPUs parallel.
• V-Ray Benchmark (Chaos Group) → Multi-GPU ready.
• LuxMark → OpenCL-basiert, läuft auch mit mehreren Karten.
• SPECviewperf (Workstation-Standard).

Für Deep Learning:
• MLPerf (open benchmark suite für Training & Inference, unterstützt Multi-GPU).
• PyTorch / TensorFlow Testskripte mit DistributedDataParallel.



3. Zwei Instanzen parallel laufen lassen

Ja, absolut möglich.
• Du kannst zwei unabhängige Prozesse starten (z. B. zwei Training-Runs oder Renderjobs).
• Solange genug PCIe-Bandbreite + CPU-Ressourcen da sind, laufen beide GPUs voll ausgelastet.
• Unter Linux geht das noch sauberer, aber auch unter Windows kannst du Tasks an GPU0 und GPU1 binden.



👉 Fazit: Benchmarks für Gaming-SLI nein, aber für Compute ja – Blender, OctaneBench & MLPerf sind die typischen Tools, um beide 5090er gleichzeitig auszulasten.

Soll ich dir eine kleine Liste mit Downloadlinks & Beispiel-Kommandos machen, mit denen du direkt testen kannst, ob beide Karten wirklich gleichzeitig arbeiten?
 
Danke, ich werde morgen mal Octanebench und Vray probieren und melde mich.
 
Genau so ist es. Es gibt keine feste Größe welche richtig ist. Es ist eine Wahl, aufgrund der persönlichen Variablen die gegeben sind.

Die Panelgröße ist in der Tat Geschmackssache und vom Einsatzort und Sitzabstand abhängig. Aber worauf wir uns einigen können ist, je höher der PPI-Wert desto deluxxer. Unter 109 PPI (= 27" WQHD) ist es definitiv nicht mehr zeitgemäß.
 
Es gibt neue Erkentnisse.

VRay erzeugt nur 350-400W Last auf den Karten.
Octane ist gut, erzeugt bis zu 550W Last auf den Karten, die bricht aber stark ein sobald man die CPU mit OCCT oder Prime belastet.
Ich hab gestern im OCCT nur den VRAM Test gefunden und den 3D Test übersehen.
Ich hab jetzt 1h lang beide 5090 mit OCCT bei ca. 500W und den Threadripper 7955WX mit Prime Small mit 300W belastet.
Das erzeugt schon echt gut Abwärme und viel mehr als Standard Takt ist nicht mehr drin wenn sich das ganze aufgeheizt hat.
 
Zuletzt bearbeitet:
Octane ist gut, erzeugt bis zu 550W Last auf den Karten, die bricht aber stark ein sobald man die CPU mit OCCT oder Prime belastet.
Stock oder mit ner curve/OC? bei mir (mit curve und +2000mhz Memory) ziehts im Octanebench nicht mehr als 430W und wenn ich mit Octane rendere komm ich nicht mal höher als 360W gerade. kann aber auch an der Szene liegen.
 
Alles komplett stock, hier das System:

AMD Ryzen Threadripper PRO 7955WX
ASUS Pro WS WRX90E-Sage SE
2x Zotac Gaming GeForce RTX 5090 Solid OC
4x KINGSTON FURY Renegade Pro RDIMM 32GB, DDR5-5600 CL28 (läuft auf 5200)
Samsung 9100 Pro M.2 1TB
Seasonic Prime PX-2200
SilverStone RM51 schwarz 5HE
 
Zuletzt bearbeitet:
Alles komplett stock, hier das System:

AMD Ryzen Threadripper PRO 7955WX
ASUS Pro WS WRX90E-Sage SE
2x Zotac Gaming GeForce RTX 5090 Solid OC
4x KINGSTON FURY Renegade Pro RDIMM 32GB, DDR5-5600 CL28
Samsung 9100 Pro M.2 1TB
Seasonic Prime PX-2200
SilverStone RM51 schwarz 5HE
soweit zufrieden mit den Zotac Solid?
 
@Predo
Klar kannste mit F@H die beiden Karten locker um die 90 bis 95 % (je nach zu berechnender Workunit) auslasten. Wenn Du ganz ans Limit willst, einfach noch Furmark dazu laufen lassen. Hab selbst zwei Kisten, die mit je zwei GPU 24/7 nah am Limit laufen. Allerdings unter Wasser.
... auch nicht mit F@H, da SLI nicht mehr geht.
Dafür braucht es kein SLI, da F@H die Karten separat anspricht.
 
Zuletzt bearbeitet:

Sieht wenigstens auf dem ersten Blick aus wie ein Brett welches auch 1150€ wert ist ^^
Sonst zahlt man unter Umständen 300-400€ mehr wegen RGB und Oled Display und 100€ oben drauf, weil Gaming drauf steht. :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh