1. Multi-GPU geht noch – aber ohne „SLI“
• CUDA: Mehrere GPUs werden von CUDA nativ unterstützt. Man kann in der Software gezielt auf cuda:0, cuda:1 usw. zugreifen oder sie gleichzeitig nutzen.
• Frameworks wie TensorFlow, PyTorch, JAX: Alle haben eingebaute Multi-GPU-Unterstützung. Sie verteilen automatisch Modelle/Daten auf beide Karten.
• Rendering & Simulation (Blender, Octane, V-Ray, Redshift, Houdini, etc.): Diese Tools skalieren sauber über mehrere GPUs. NVLink wird nur noch für Speicherzusammenlegung gebraucht (bei Profi-GPUs wie A100, H100 oder Quadro RTX). Bei GeForce wird nur jede Karte einzeln benutzt, aber die Last kann parallel laufen.
⸻
2. Benchmarks, die beide Karten gleichzeitig nutzen
Es gibt einige Benchmarks, die Multi-GPU unterstützen:
• Blender Benchmark → kann mehrere GPUs gleichzeitig rendern.
• OctaneBench (OTOY) → nutzt beide GPUs parallel.
• V-Ray Benchmark (Chaos Group) → Multi-GPU ready.
• LuxMark → OpenCL-basiert, läuft auch mit mehreren Karten.
• SPECviewperf (Workstation-Standard).
Für Deep Learning:
• MLPerf (open benchmark suite für Training & Inference, unterstützt Multi-GPU).
• PyTorch / TensorFlow Testskripte mit DistributedDataParallel.
⸻
3. Zwei Instanzen parallel laufen lassen
Ja, absolut möglich.
• Du kannst zwei unabhängige Prozesse starten (z. B. zwei Training-Runs oder Renderjobs).
• Solange genug PCIe-Bandbreite + CPU-Ressourcen da sind, laufen beide GPUs voll ausgelastet.
• Unter Linux geht das noch sauberer, aber auch unter Windows kannst du Tasks an GPU0 und GPU1 binden.
⸻
👉 Fazit: Benchmarks für Gaming-SLI nein, aber für Compute ja – Blender, OctaneBench & MLPerf sind die typischen Tools, um beide 5090er gleichzeitig auszulasten.
Soll ich dir eine kleine Liste mit Downloadlinks & Beispiel-Kommandos machen, mit denen du direkt testen kannst, ob beide Karten wirklich gleichzeitig arbeiten?