Suchergebnisse

  1. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    @xST4R: Was das fürn Brett? Welche CPU? Gibts für AM5 schon Ryzen Pros mit GPU (für ECC)? Wo soll die Bifurcation-Karte rein? Hast du ne extra Graka geplant? Je nachdem, welche VMs du haben willst, ist Unraid in deinem Anwendungsfall wirklich besser geeignet.
  2. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Wie hast du dir das mit dem Docker/Cache vorgestellt? Im Proxmox mit ZFS formatieren und wie in TrueNAS weiter reichen? Als eine Disk? Weiß nicht, wie das mit ZFS auf ZFS ist, könnte jedoch schreibintensiv sein, je nachdem, ob dus als ARC oder ZLOG nutzen willst. ZLOGs brauchen eher super...
  3. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Rsync: https://mike.dieschumanns.net/?p=58 Solange du in TrueNAS Zugriff auf die Daten hast, mach nen Rsync-Job und sichere es in die WD-Klaut. Mache ich so mit meinen precious-Moments-Daten in Richtung Backup-NAS bei SchwiMu. Da werden über die Woche verteilt mehrere Datasets per Rsync rüber...
  4. Weltherrscher

    Neuer AI-Server

    Das mit den Modulumbauten fluppt bei Netzwerkkarten schon einwandfrei, ich selbst betreibe eine umgebaute Mezzanine-ConnectX3 in meiner Firewall. Da hätte ich keinen Stress, solange die Kühlung ordentlich funktioniert. Obacht: Bei den PCIe-Karten musst du aufpassen, die Server-Stromversorgung...
  5. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Ja, das mit den SATA-SSDs hab ich auch gesehen. Krass. Kauf tatsächlich seit ein paar Jahren nix mehr. Zu gut, der Kram den ich hab... :fresse:
  6. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Guter Preis, angesichts der 229 € jetzt. =) Was meinst du mit "ohne die gesamten Daten auf den Shares"? VM? Baremetal? n33d m0r d@ta.. :fresse:
  7. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Wenn du sie schon hast, berichte doch einfach mal. =) PCIe-SSD ist halt Kanone auf Spatzen, wenn man nur wenig liest / schreibt, da sollte doch auch ne SATA-SSD langen? Und denk dran, ist ne QLC... Die wird schnell sehr langsam.
  8. Weltherrscher

    Neuer AI-Server

    Hmm, mal probieren, in openwebui kann man sich auch die tokens/s anzeigen lassen, mal sehen, wie ich da mit dem seed rumspielen kann. Die 200 Tps in llama3.2 sind schon krass, ist das so viel besser, obwohl kleiner? Zum Angebot: Danke, aber nein, denn das Problem an Maxwell ist a) jede GPU...
  9. Weltherrscher

    Neuer AI-Server

    @tonythebuilder: Die M60 sind zwei GTX980 mit je 8 GB auf einer Karte. Kann man als vGPU schön aufsplitten (oder auch nicht). Das oder auch nicht deshalb, weil ich in der Docker-VM Immich laufen lassen hab und das braucht auch ne komplette GPU... Das partitionieren fluppt wohl unter CUDA auch...
  10. Weltherrscher

    Neuer AI-Server

    Keine Ahnung was du mit "gut" meinst, es gibt schon einen Verzug ggü. ner 6900xtxh (ist ja nur ne Server-GTX980), aber das kann ich in der VM verschmerzen. Kann ich das irgendwie benchen? //Edith: Die KI, die blöde F...! Das llama3.2-vision ist in der Tat besser.
  11. Weltherrscher

    Neuer AI-Server

    Ja, aber... Nein. Ich bin soo dumm. das JPG hat die Endung JPG (groß geschrieben) und ich Depp hab im Prompt alles klein geschrieben. Shize Ext4! :wall: //Edith: Fluppt: //Edith2: @tonythebuilder: Debian VM auf ProxMox mit ollama, open webui und ner halben M60 im nvidia22-Profil als vGPU...
  12. Weltherrscher

    DeepSeek: KI aus China dominiert iPhone-Charts in kürzester Zeit

    Du schreibst es, Abwägung zw. Aufwand und Ergebnis. Meines Wissens kann die M60 eh kein fp16, da noch ne olle Maxwell. Und selbst dann ist ein Cluster mit genug Grakas für 140 GB, um zuhause den Homeassistant zu steuern, eher dünn gestreut, auch hier. :fresse: Aber ernsthafte Frage: Was...
  13. Weltherrscher

    DeepSeek: KI aus China dominiert iPhone-Charts in kürzester Zeit

    Die ja auch jeder mal zuhause rum kullern hat. -.- Ich selbst nutze llama3.1 ganz gerne im Keller. Unabhängigkeit hat seinen Preis, aber 20 H100 kann und will ich mir auch ned leisten... =) //Edith: Wie kommst du da drauf, dass das llama3.3 143 GB braucht? "Nur" 43 GB reichen erstmal...
  14. Weltherrscher

    DeepSeek: KI aus China dominiert iPhone-Charts in kürzester Zeit

    ouf, hab das 14B runter geladen, 9 GB Download und passt locker in die olle 6900xtxh... =)
  15. Weltherrscher

    DeepSeek: KI aus China dominiert iPhone-Charts in kürzester Zeit

    Wenn mans lokal laufen lässt, hats auch keine Erinnerungslücken...
  16. Weltherrscher

    Neuer AI-Server

    So, ollama (llama3.1, llava & deepseek r1) läuft in der vm mit einer halben M60 (8 GB). Fazit: Brauch mehr VRAM... :wall: :fresse: Lustigerweise läufts auf meiner 6900xtxh wesentlich schneller und besser, aber dafür halt nur lokal. Frage dazu: Weiß jemand, wie man einer lokalen...
  17. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Wo ist das Problem? Es gibt in Debian die Möglichkeit, konsistente Gerätebezeichner ( enp(x)s(y)f(z)v(a) ) für Netzwerkkarten zu erstellen, Drops gelutscht. Und zwar sowohl in TrueNAS als auch Proxmox, da ja beide auf Debian setzen. Das führt dann zum nächsten Problem, wenn sich deine Hardware...
  18. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Ok, hat geklappt. Aaaber: Nie, nie, NIEMALS eine virtuelle Netzwerkkarte aus der VM entfernen, wenn echte HW durchgereicht ist!!!!!! Kurzer Schock-Moment, nachdem ich die alte vNIC live aus der VM entfernt hatte, beschwerte sich ProxMox, dass er nicht hotpluggen konnte. Daraufhin flogen ALLE...
  19. Weltherrscher

    [Sammelthread] Proxmox Stammtisch

    Ich versuche heute Nacht mal SR-IOV mit den 4 X540ern im Proxmox ans Laufen zu bekommen, ich hab das Gefühl, die virtuellen NICs bremsen meine NAS-Performance in der VM... Dann bekommt jede VM ne virtuelle X540. Kann ich im ProxMox dann irgendwie die VLANs steuern? (nicht jede VM braucht jedes...
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh