Hallo zusammen,
ich möchte einen kleinen Server bauen, auf dem ich einigermaßen potente LLMs lokal laufen lassen kann. Da die wichtigste Komponente die GPUs sind, würde ich gerne auf zwei (gebrauchte) rtx 3090 zurückgreifen, was mir in Summe 48 GB VRAM bringt. Ich denke, das sollte ausreichen, um ein gutes Sprachmodell lokal laufen zu lassen und auch Spielereien im Bereich Bildgenerierung sollten möglich sein, wenn man ein wenig auf das Ergebnis warten kann. Jetzt ist die Frage, wie das restliche Setup aussehen könnte. Kennt sich hier jemand besser aus als ich? Mein erster Versuch hat dieses Ergebnis (habe ich was vergessen?)
Vielen Dank schon mal für euer Feedback.
ich möchte einen kleinen Server bauen, auf dem ich einigermaßen potente LLMs lokal laufen lassen kann. Da die wichtigste Komponente die GPUs sind, würde ich gerne auf zwei (gebrauchte) rtx 3090 zurückgreifen, was mir in Summe 48 GB VRAM bringt. Ich denke, das sollte ausreichen, um ein gutes Sprachmodell lokal laufen zu lassen und auch Spielereien im Bereich Bildgenerierung sollten möglich sein, wenn man ein wenig auf das Ergebnis warten kann. Jetzt ist die Frage, wie das restliche Setup aussehen könnte. Kennt sich hier jemand besser aus als ich? Mein erster Versuch hat dieses Ergebnis (habe ich was vergessen?)
Vielen Dank schon mal für euer Feedback.
| 1 | Gehäuse | Corsair 4000D Airflow |
| 2 | CPU | AMD Ryzen 9 5900X |
| 3 | Mainboard | MSI B550-A PRO |
| 4 | RAM | 4x 32GB DDR4-3600 |
| 5 | GPU 1 | EVGA RTX 3090 FTW3 (gebraucht) |
| 6 | GPU 2 | EVGA RTX 3090 FTW3 (gebraucht) |
| 7 | CPU-Kühler | be quiet! Dark Rock Pro 4 |
| 8 | Netzteil | 1200W |
| 9 | Storage | 1TB NVMe/SSD |