[Kaufberatung] Virtualisierende Workstation mit quasi-NAS (entschieden & bestellt)

Ich hatte das zeitweise "andersherum" eingerichtet:
Proxmox auf Bare-Metal, darin enthalten Fileserver über Samba und TV-Server über TVH. Vorteil: Kein Passthrough, onboard-SATA nutzbar, keine Probleme.
Workstation-VM: Win10, Passthrough AMD-Graka, über HDMI automatisch Ton mit drin. Passthrough USB-Karte.
Workstation-VM als autoboot beim Hochfahren.
Usererfahrung: Server "an" -> einige Sekunden später kommt das Bild, kein spürbarer Unterschied zur Bare-Metal-Installation von Win10. Etwas tricky ist es allerdings, wenn man noch DVD-/BD-Laufwerke vom SATA-Host aus Proxmox durchreichen will. Da ist Proxmox echt mist. Da ich aber seit einiger Zeit ein USB3-BD-Laufwerk habe: Kein Problem.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmmmmmmm, viel wertvoller Input! Ich versuchs mal für mich zu sortieren.

Ich finde dein Vorhaben zwar spannend, aber ich denke, dass du langfristig besser fährst, in ein zusätzliches NAS zu investieren, statt die eierlegende Wollmichsau zu erschaffen. Denn: du musst viel zu viele Sachen beachten, limitierst dich zu sehr und beim kleinsten Fehler / Problem fliegt dir alles auseinander.
Da das allerwichtigste der Speicher ist, würde ich mein Vorhaben vielleicht nochmal so umformulieren: Eigentlich wollte ich bloß ein NAS als zuverlässiges Datengrab (nicht Multimedia-Server), aber unterliege jetzt der Versuchung, die übrige Hardware so groß zu dimensionieren, dass es gleich auch eine Workstation sein kann per VM. Wenn die Workstation-VM mal nicht läuft wegen Konfigurationsproblemen oder ähnlichem, geht die Welt nicht unter, da mein Alltag nach wie vor am Laptop laufen kann (im Zweifel auch weiterhin auf Windows dual-gebootet und damit meine Musik abgemischt oder mein Spiel gezockt, wie ich es heute auch mache). Hauptsache das "NAS" ist da, der Rest ist "Kür".

für FreeNAS in einer VM brauchst du wieder einen zusätzlichen Storage-Controller für den Passthrough und verkomplizierst dir das Gesamtsystem nochmal (Stichwort: IOMMU) um eine weitere Komponente. Alternativ lässt du ZFS direkt auf dem Linux via ZoL laufen, aber da gibt's dann abseits von Ubuntu ständig Kopfschmerzen mit DKMS / Kernel-Updates und dir fehlt die GUI. Sicherlich machbar, aber doch etwas aufwendiger als so ein billiges FreeNAS auf Blech.
Was Du für einen halbwegs sorgenfreien Betrieb brauchst:

1. PCIe-Karte: HBA (für Storage-VM)
Ich hatte das zeitweise "andersherum" eingerichtet:
Proxmox auf Bare-Metal, darin enthalten Fileserver über Samba und TV-Server über TVH. Vorteil: Kein Passthrough, onboard-SATA nutzbar, keine Probleme.
Mit all diesen Aussagen würde ich von dem Vorschlag "gea's AIO-Konzept", die Storage in einer VM laufen zu lassen, doch gerne abrücken und direkt ZFS auf dem Host, ob jetzt FreeBSD oder Linux, betreiben. ESXi möchte ich gerade ohnehin nicht ins Auge fassen.

Von der Grafikbeschleunigung der GUI (außer GPU-Passthrough, Looking Glass oder dergleichen) mal abgesehen.
Danke für ein weiteres zu recherchierendes Stichwort, was auch immer "Looking Glass" ist, ich werde es bald wissen. :)

Du bist mit solch einem Frankenstein-System die Niche der Niche und wirst bei Problemen schwierig Leute finden, die dir bei spezifischen Sachen helfen können (z.B. "Warum funktioniert das VST Plugin nicht unter KVM mit Soundkarten-Passthrough?").
Ich wittere hier Gelegenheiten, Dinge im Raum von Hardware, Treiber, Kernel, Software und deren Zusammenspiel zu lernen, was mich brennend interessiert. (Ich muss natürlich die Zeit dann investieren. Aber notfalls, wie gesagt, nehm ich wieder meinen Laptop, s.o.)

kleines FreeNAS für Shares, muss nicht fancy sein.
[...]
im WebGUI hinzufügen und fertig.
[...]
Das läuft meiner Meinung nach sehr gut (insbesondere für Windows Guests!) und hat ne nette GUI.
Ich bin einziger Nutzer und würde eine schlichte Kommandozeilenkonfiguration einer GUI sogar vorziehen, wenn es um Konfigurationen etc. geht. Sicher Geschmackssache.

Dann kannst du dir auch die 2. GPU sparen, da die Latenz / Grafikbeschleunigung des Linux-Gasts keine Rolle für dich spielt (korrekt?) und für bspw. Software-Entwicklung völlig ausreichend ist.
Korrekt, aber ich würde, wenn ich die Mittel dazu habe, sicher auch mal mit Grafiksoftware unter Linux rumspielen wollen. Muss dann aber nicht glechzeitig mit Windows laufen, oder zumindest nicht beide gleichzeitig beide mit hoher GPU-Power.

sowas wie Synergy
Habe ich ins Auge gefasst, auch wenn mir eine komplette Open-Source-Lösung lieber wäre (nicht wegen Geld), aber das Feature wäre echt sehr, sehr angenehm. Würde ich aber nachgelagert betrachten, erstmal kann ich auch kvmswitchen oder mehrere Tastaturen auf den Schreibtisch legen.

Für deine Telemetrie-Bedenken kannst du regelmäßig O&O Shutup o.Ä. laufen lassen. Wenn du willst, kannst du auf deinem Server FreeNAS und pfSense / opnSense nebeneinander virtualisiert laufen lassen und weiteres Blocken dort vornehmen.
O&O stehe ich etwas skeptisch gegenüber (diese ganzen Windows-Cleaner-Sachen sind mir suspekt), aber das Blocken über "pfSende / opnSense" (kenne ich alle nicht) behalte ich mal als Option für zuküntige Szenarien im Hinterkopf.

Sonst probiere es aus: dümmer wirst du dadurch nicht werden. Nur vielleicht ärmer. :d
Das resoniert bei mir und bringt es gut auf den Punkt. Ich wollte vorher halt gerne trotzdem eine vielversprechende Richtung haben, daher die Frage nach Feedback, und wollte zumindest mit (untereinander und zu meinem Vorhaben) kompatibler Hardware loslaufen. Wunderbares Forum hier!
 
Wird schon. Ist ein super (Unter)Forum hier mit großer Kompetenz zu nahezu fast allem. Ich hab für mich irgendwann mal ESXi entdeckt (und auch mal viel mit Hyper-V herumgespielt), kann aber zu Proxmox und sonstigen Virtualisierern nichts sagen. ABER: wenn ZFS wäre meine (!) KLARE Präferenz ein Solarish als Basis - vielleicht noch FreeBSD. Das Problem dann: Solarish bringt keinen General-Hypervisor mit. Es gibt m.E. keinen guten Hypervisor, der die Top-ZFS Funktionalitäten mitbringt. Den Tod wollte ich nicht sterben, und musste ich zum Glück ja auch nicht.
 
Ich bin einziger Nutzer und würde eine schlichte Kommandozeilenkonfiguration einer GUI sogar vorziehen, wenn es um Konfigurationen etc. geht. Sicher Geschmackssache.
Sympathisch ;), bin auch so ein CLI-Mensch. ZFS kann man über CLI gut regeln, die Tools sind ausgereift, komfortabel und mächtig. Wenn du nichts kompliziertes machen möchtest, reicht das vermutlich auch. Meine erste richtige Begegnung mit ZFS bzw. ZoL war auch auf der Kommandozeile (Ubuntu 18.04 LTS). Ich musste mich da aber anfangs ziemlich reinfuchsen und das Array mehrmals neu einrichten, da ich ständig irgendwas neues gelernt hatte bzw. nicht beachtet. So eine GUI kann das Lernen vereinfachen, da auch die "Best Practices" über die GUI bereits erzwungen werden, z.B. durch entsprechende Warnmeldungen oder Erläuterungen. Auch wenn du nicht vorhast, FreeNAS o.Ä. zu benutzen, würde ich schon empfehlen, zumindest mal zum Lernen von ZFS FreeNAS in einer VM mit virtuellen Festplatten auszuprobieren.

Wenn du dich damit abfinden kannst, ZFS über Kommandozeile zu bedienen, dann denke ich, könnte Proxmox die beste Wahl als OS sein. Wenn du ZFS über Proxmox zur Verfügung stellst, kannst du den File-Server und weitere Dienste, die nativ unter Linux laufen (z.B. Nextcloud, PiHole,...) direkt als schlanke Container laufen lassen, die Performance wie auf Blech bieten und nur minimal RAM benötigen. Ähnlich wie Docker, nur mit dem Unterschied, dass es sich anfühlt wie ein vollwertiger VPS (mittels Netzwerkbrücke).

Da Proxmox eine WebGUI hat und selbst keine Graka benötigt, kannst du die Graka direkt an deinen Windows Gast weitergeben.

//Edit: @besterino hmmm, ich denke KVM ist bhyve deutlich voraus. Wenn es unbedingt Solarish sein soll, dann vermutlich eher in Richtung SmartOS denke ich (KVM + ZFS). Desweiteren kommt hier aktuellste Hardware zum Einsatz und da bietet Linux meistens den besseren Hardware-Support. Ich denke, dass Proxmox die bessere Wahl ist.
 
Zuletzt bearbeitet:
Ich wittere hier Gelegenheiten, Dinge im Raum von Hardware, Treiber, Kernel, Software und deren Zusammenspiel zu lernen, was mich brennend interessiert. (Ich muss natürlich die Zeit dann investieren. Aber notfalls, wie gesagt, nehm ich wieder meinen Laptop, s.o.)

Dümmer wird man wie gesagt nicht, aber zuviel würde ich mir jetzt vom Anlegen von Konfigurationsfiles und Windows-Treiber installieren jetzt nicht versprechen...

Korrekt, aber ich würde, wenn ich die Mittel dazu habe, sicher auch mal mit Grafiksoftware unter Linux rumspielen wollen. Muss dann aber nicht glechzeitig mit Windows laufen, oder zumindest nicht beide gleichzeitig beide mit hoher GPU-Power.

Dann kaufe dir eine Quadro (hast du dazu die Mittel?!) oder hoffe, dass die Geforces hinreichend funktionieren. Mit Linux-VMs sind die GPUs noch mehr Hit-And-Miss, als ohnehin schon (meine RX470 hat zwar keinen Reset-Bug aus Windows-VMs, aber mit Linux halt schon...)
 
Dann kaufe dir eine Quadro (hast du dazu die Mittel?!) oder hoffe, dass die Geforces hinreichend funktionieren. Mit Linux-VMs sind die GPUs noch mehr Hit-And-Miss, als ohnehin schon (meine RX470 hat zwar keinen Reset-Bug aus Windows-VMs, aber mit Linux halt schon...)
Ich kenn mich mit Grafikkarten so gar nicht aus, aber bei Geizhals fängts bei 85 Euro an und eine mit vielen Angeboten liegt bei 122 Euro. In der Größenordnung bin ich finanziell absolut dabei. (Und wie gesagt, High-End-GPU ist eh nicht wirklich mein Anliegen.)
Lese ich das richtig, dass ich bei einer Quadro eine geringere Gefahr habe, in Kompatibilitätsprobleme zu laufen?
Wo kann ich mehr zu diesen Dingen (z. B. auch "Reset-Bug") lesen?
 
Aber mit der 122 Euro Quadro lässts sich echt kaum Spielen. Also Computerspiele.
 
Also mit meiner alten GTX750Ti im T20 hatte ich damals keine Probleme mit GPU-Passthrough. Dass die AMDs den Reset Bug haben, ist bekannt. Wie gesagt, für den Linux Gast nimmste QXL / VMWare VGA oder sowas. Am besten wären die GPUs mit Nvidia GRID / AMD MxGPU. Die gibt's aber meistens erst bei den richtig teuren Server-Karten ergo lohnt sich hier nicht.

Intel bietet mit GVT-g eine weitere Lösung, welche sich ungefähr wie GRID / MxGPU verhält. Das gibt's bei allen iGPUs ab Broadwell. Hoffentlich auch bei der geplanten dedizierten GPU von Intel, wenn die denn mal kommt...
 
Zusi3 rennt mit der durchgereichten P400 in der Windows VM. Sogar ziemlich gut. :d
Klasse Idee *_* Das wird mein nächstes Spiel.
Dann hab ich jetzt ja so gut wie alles zusammen!

Zwischen TR 1920X und Ryzen9 3900X ist meine Entscheidung jetzt auf Letzteren gefallen. Gründe sind, dass ich einfach per Bauchgefühl lieber zukunftsweisend mit PCIe 4.0 unterwegs sein mag, dass ich mehr Boards zur Auswahl habe (falls ich da doch mal nachträglich was anderes will) und dass es vermutlich auch ansonsten ein paar kleinere Verbesserungen in den feineren CPU-Details gegeben hat, die ich lieber mitnehme.

Von dem ASRock X570 Pro4 hört man, dass die Stromversorgung für die CPU, sagen wir mal vorsichtig, "sehr preissensibel" aufgebaut ist und die Mosfets heiss werden.
Bremst mich das im Zweifel einfach nur aus, oder kann das die anderen Geräte irreversibel beschädigen? Sprich: Kann ich das einfach erstmal ausprobieren und bei Missfallen das Board wechseln, oder riskiere ich da größeren Schaden?

Als Cache ist Bandbreite nicht alles. Dann lieber eine Optane: Intel Optane SSD 900P
Puh, das Ding ist ja echt teuer.

Bzgl Abnutzung der SSDs musst du entweder Server SSDs kaufen oder einfach testen. Mit Cache bzw ZFS habe ich leider keine eigenen Erfahrungen, aber als VM-Store (mit SATA SSDs) habe ich 850Evos wie am fließband aufgerieben. Bei Intel D3S 4510 SSDs hat sich dagegen noch nichtmal ein Prozent Wearlevel verabschiedet. (dabei finde ich die mit 120€/480GB garnicht mal so teuer für ServerSSDs.
Dann doch lieber die, wobei ich mich noch frage, was das entscheidende Feature für den Unterschied zwischen den beiden ist (jetzt sagt bitte nicht, der Preis :d)
Oder ich versuchs einfach mal mit zwei von den dreien hier:
... und seh das ganze als Experiment. Wobei die erste davon mit einem einzigen Händler wirklich experimentell wäre.

Bleibt noch die Frage: Hersteller-Mix innerhalb der Festplatten-Spiegel-Paare für Sicherheit vor systematischen Fehlern?
 
Nein, du willst ja nicht übertakten. PBO ausschalten, die CPU innerhalb der TDP betreiben und du wirst keine Probleme mit den MOSFETs bekommen. Hab schon 3950X auf A320 gesehen, dann sollte dein X570 auch den 3900X packen ;). Hast ja auch paar Jahre Garantie drauf.

Bei den SSDs würde ich aktuell von PCIe 4.0 zur Zeit ganz klar Abstand nehmen. Die aktuellen Controller erzeugen noch sehr viel Abwärme, sodass Kühlung wieder ein riesengroßes Problem ist - wie bei den ersten Generationen von M.2 SSDs auch damals. Warte noch auf PCIe 4.0 SSDs der 2. oder gar 3. Generation und am besten noch auf die "großen" Hersteller, wie Samsung & Crucial. Du wirst ja voraussichtlich einen riesigen RAM haben und da wird auch viel gecached.

Wie schnell deine SSDs abnutzen, hängt von vielen Faktoren ab. Habe selber noch Samsung 830 (!!!!) SSDs von vor ~8 Jahren, die noch Top in Form sind und habe auch welche gesehen, die putzmunter jenseits von >1PB TBW ganz locker weiterlaufen, obwohl die eigentlich für um die ~35TB TBW spezifiziert sind. Wenn du dich mal Online umguckst, wirst du merken, dass selbst Leute mit riesigen Arrays >100TB und selbst z.T. im professionellen Umfeld häufig ganz normale Consumer-SSDs einsetzen. Die TBW sind sowieso meistens eher konservativ spezifiziert und wenn du beim Overprovision nicht sparst, solltest du bzgl. Wear keine Probleme bekommen. Wichtig ist: es muss ein guter Controller verbaut sein ohne Bugs (https://github.com/torvalds/linux/blob/master/drivers/ata/libata-core.c ist eine gute Quelle).

Beim aktuellen Kurs würde ich vermutlich zu sowas hier greifen: https://www.campuspoint.de/mzvlb512hbjq-000l7.html. Gibt's zum Schleuderpreis und wird von Lenovo gut gepflegt mit langjährigen Firmware-Updates. Die sind bei der Update-Versorgung deutlich zuverlässiger als Samsung selbst bei ihren Consumer-Produkten (welch Ironie). Dazu dann super großzügiges Overprovision (20% - 50%); je nach Schreiblast (eher gering bei deinem Vorhaben).
 
Zuletzt bearbeitet:
Also mit meiner alten GTX750Ti im T20 hatte ich damals keine Probleme mit GPU-Passthrough. Dass die AMDs den Reset Bug haben, ist bekannt.
Jo, bis auf die Tatsache, dass der Treiber halt anscheinend nicht mitbekommen darf, dass es sich um eine VM handelt (was ohnehin nur Schikane ist, denn die Topologie dürfte auch recht einzigartig sein – ergo kann Nvidia das jederzeit ändern und dann steht man da, wenn man damit arbeiten will)

Wie gesagt, für den Linux Gast nimmste QXL / VMWare VGA oder sowas.
oder sowas? mir scheint, soviel hast du nicht ausprobiert ;). Virtio scheint theoretisch auch VirtualGL zu können, d.h. OpenGL 3.x ohne Compute geht damit wohl in Linux-VMs. Ansonsten tut es für einen Office-Desktop QXL auch mit Windows.


Am besten wären die GPUs mit Nvidia GRID / AMD MxGPU. Die gibt's aber meistens erst bei den richtig teuren Server-Karten ergo lohnt sich hier nicht.
Nö. KVM und alles was hier rumflog können damit herzlich wenig anfangen. Die Karten haben nämlich auch keine Displayausgänge und erfordern ein Softwareabo. Da kann man dann einige Quadros dafür kaufen (die auch gehen, steht sogar im Handbuch ;)). Eine RTX4000 (die ich mir jetzt wegen des Uni-Homeoffices gegönnt habe) kostet ~940€ und kommt von der Compute-Leistung wohl einer GTX2070 gleich – und das ist durchaus noch bezahlbar. Eine gebrauchte M4000 (~GTX970) gibt es für 400€, das ist auch ok. Arm muss man da nicht werden. Soll es Spielerei sein reicht ja auch die Geforce.

Intel bietet mit GVT-g eine weitere Lösung, welche sich ungefähr wie GRID / MxGPU verhält. Das gibt's bei allen iGPUs ab Broadwell. Hoffentlich auch bei der geplanten dedizierten GPU von Intel, wenn die denn mal kommt...
Geht das wirklich so einfach und überall? https://www.reddit.com/r/VFIO/comments/8h352p/guide_running_windows_via_qemukvm_and_intel_gvtg/
 
Jo, bis auf die Tatsache, dass der Treiber halt anscheinend nicht mitbekommen darf, dass es sich um eine VM handelt
Das ist aktuell kein Problem. Ist ein Ein-Zeiler in der VM Konfiguration. Prinzipiell richtig, dass nicht auszuschließen ist, dass Nvidia es irgendwann nicht mehr erlaubt. Aber darum kann man sich kümmern, wenn es soweit ist. Notfalls paar Updates aussetzen (bis wieder ein Weg gefunden ist) bzw. GPU wechseln.

oder sowas? mir scheint, soviel hast du nicht ausprobiert ;).
Oh doch, ich hab in dem Bereich viel experimentiert. Ich war mir nur nicht sicher, ob manche Optionen ohne Host-GPU überhaupt laufen, da Paravirtualisierung zum Einsatz kommt und bei meinen Tests immer eine iGPU dabei war.

Nö. KVM und alles was hier rumflog können damit herzlich wenig anfangen. Die Karten haben nämlich auch keine Displayausgänge und erfordern ein Softwareabo. Da kann man dann einige Quadros dafür kaufen (die auch gehen, steht sogar im Handbuch ;)).
Es wird nicht alles unterstützt, wo Quadro dransteht. Der Support ist begrenzt auf die eher höherpreisigen Modelle. Okay, hochpreisig ist subjektiv, für mich bedeutet hochpreisig auf GPUs bezogen alles jenseits von 500€. Die RTX4000 kann bspw. kein GRID (bzw. jetzt vGPU): https://gridforums.nvidia.com/default/topic/9909/general-discussion/question-on-vgpu-on-rtx/
Ich habs selbst nie im Einsatz gehabt (MxGPU übrigens auch nicht), aber laut Dokumentation wird KVM unterstützt. Kann dazu aber keine weiteren Angaben machen. Habe nur darüber gelesen.

Von "einfach" war nie die Rede ;). OP ist Gentoo Nutzer; der kann bisschen was ab, denke ich. Wenn ich mir das Wiki unter https://github.com/intel/gvt-linux/wiki/GVTg_Setup_Guide so anschaue, hört sich das ziemlich gut an.
 
So, ich hab für rund 1.700 Euro sämtliche Komponenten bestellt. Tausend Dank an alle "Berater"!

Bei Interesse:
  • AMD Ryzen9 3900X
  • ASRock X570 Pro4
  • be quiet! Straight Power 11 Platinum 750W ATX 2.51
  • 2 x 32 GB ECC-RAM DDR4-2666 (Samsung M391A4G43MB1-CTD)
  • Fractal Design Define R5 schwarz
  • PNY Quadro P400 v2 (2 GB)
  • 1xHDD 6 TB (SATA, CMR): HGST Ultrastar 7 K6000
  • 1xHDD 6 TB (SATA, CMR): Seagate ST6000NM0024
  • 1xSSD 1 TB (NVMe1.3): Crucial P1 CT1000P1SSD8
  • 1xSSD 250 GB (NVMe1.3): HP EX900
 
Was ist das für eine alte Seagate Enterprise Capacity 6 TB von 2014?

Die ist mit 6,9W im Idle und fast 12 W load angegeben. Hier hätte es deutlich sparsamere und aktuellere Modelle gegeben. Wenn das Produktionsdatum mehr als ein Jahr in der Vergangenheit liegt, solltest du sie reklamieren. Laut Seagate Support gilt die Festplatte sonst als Überlagert.

Für die HGST gilt dasselbe mit einem Jahr. HGST Festplatten werden seit 2018 nicht mehr unter HGST-Label produziert, sondern sind jetzt WD UltraStar. Wenns wirklich noch eine HGST geliefert wird mit Bj. 2017/2018 --> gleich zurück.

Als alternative hätten sich hier aktuelle WD Gold oder IronWolf Pro (Exos in der Größe sind exotisch) angeboten.
 
Danke für den Tipp!
Ich hab einfach nach kleinstem Preis pro Speicherplatz geschaut ohne Shingled Magnetic Recording, um schnell loslegen zu können. Sind ja nur die ersten zwei von bis zu acht :) Aber ich werd mir das ansehen, wenn sie kommen.
 
Zwischen TR 1920X und Ryzen9 3900X ist meine Entscheidung jetzt auf Letzteren gefallen. Gründe sind, dass ich einfach per Bauchgefühl lieber zukunftsweisend mit PCIe 4.0 unterwegs sein mag, dass ich mehr Boards zur Auswahl habe (falls ich da doch mal nachträglich was anderes will) und dass es vermutlich auch ansonsten ein paar kleinere Verbesserungen in den feineren CPU-Details gegeben hat, die ich lieber mitnehme.
Und dafür opfert man mal eben 40 Lanes ? Okay...

Puh, das Ding ist ja echt teuer.
Bringt halt mehr als so paar billige PCIe 4.0 Consumer SSDs, klar lässt sich Intel/Micron das fürstlich bezahlen.


Dann doch lieber die, wobei ich mich noch frage, was das entscheidende Feature für den Unterschied zwischen den beiden ist (jetzt sagt bitte nicht, der Preis :d)
Oder ich versuchs einfach mal mit zwei von den dreien hier:
... und seh das ganze als Experiment. Wobei die erste davon mit einem einzigen Händler wirklich experimentell wäre.
Du vergleichst jetzt nicht ernsthaft Consumer- mit Server-SSD ? Naja, wirst schon bald merken wenn etwas Last drauf kommt, oder die SSD in nem halben Jahr die Biege macht...

Bleibt noch die Frage: Hersteller-Mix innerhalb der Festplatten-Spiegel-Paare für Sicherheit vor systematischen Fehlern?
Glaubensfrage, im schlimmsten Fall mischst du halt 512n mit 4Kn-Platten, was für die Performance nicht gerade zuträglich ist.
 
Weil damit ja auch nur Vielfache der Sektoren angesprochen werden und keine Teile von Sektoren (die dann ggf. mehrfach gelesen oder geschrieben werden müssten).
 
Macht halt trotzdem keinen Sinn, so muss die Platte evtl. auf fragmentierte Blöcke schreiben oder davon lesen.
Andererseits werden wir nie erfahren, was performancetechnisch dabei rum kommt, wenn es niemand ausprobiert :fresse:
 
Ashift tells ZFS what the underlying physical block size your disks use is. It’s in bits, so ashift=9 means 512B sectors (used by all ancient drives), ashift=12 means 4K sectors (used by most modern hard drives), and ashift=13 means 8K sectors (used by some modern SSDs).

Liest sich für mich so als wäre ashift=12 eigentlich der aktuelle Standard: https://jrs-s.net/2018/08/17/zfs-tuning-cheat-sheet/
 
Macht halt trotzdem keinen Sinn, so muss die Platte evtl. auf fragmentierte Blöcke schreiben oder davon lesen.
Andererseits werden wir nie erfahren, was performancetechnisch dabei rum kommt, wenn es niemand ausprobiert :fresse:
Nicht nötig, Open-ZFS.org sagt ja:
As of 2014, there are still 512-byte and 4096-byte drives on the market ... Replacing a 4096-byte sector drive with a 512-byte sector drive will have no negative effect on performance.
Sie sprechen hier also über "echte" 512n.
 
Danke für den Tipp!
Ich hab einfach nach kleinstem Preis pro Speicherplatz geschaut ohne Shingled Magnetic Recording, um schnell loslegen zu können. Sind ja nur die ersten zwei von bis zu acht :) Aber ich werd mir das ansehen, wenn sie kommen.
Alleine bei diesen Festplatten hast du bereits den doppelten Verbrauch im Vergleich zu aktuellen Server-Festplatten. Wenn für dich der Stromverbrauch keine Rolle spielt, hättest du auch den Threadripper nehmen können :) Hier kommt eigentlich nur Stornieren in Frage. Zwei ST6000VN0033 oder ST6000VN001 sind PMR und deutlich sparsamer. Alternativ auch WD Red Pro als 6003er, die wird aber unverhältnismäßig teuerer sein. WD Gold ist wirklich nur dann notwendig, wenns da mehr als 180GB (300 bei der Red Pro /IW Pro) / Jahr transferiert werden.
 
  • ASRock X570 Pro4
  • be quiet! Straight Power 11 Platinum 750W ATX 2.51

Warum ein so großes Netzteil, wenn du eh nur eine GPU und 2 Festplatten hast?

Das ist aktuell kein Problem. Ist ein Ein-Zeiler in der VM Konfiguration. Prinzipiell richtig, dass nicht auszuschließen ist, dass Nvidia es irgendwann nicht mehr erlaubt. Aber darum kann man sich kümmern, wenn es soweit ist. Notfalls paar Updates aussetzen (bis wieder ein Weg gefunden ist) bzw. GPU wechseln.
Wenn man damit arbeiten will, ist das halt nicht so gut ;). Außerdem wäre ich mir nicht soooo sicher, dass alle GPU-FWs, die man findet, auch hinreichend bugfrei sind.


Es wird nicht alles unterstützt, wo Quadro dransteht.
Doch, im Treiber wird imho alles aktuelle und größere unterstützt, um die GPU in die VM zu packen und sich dann daneben hinzusetzen. Und für GRID braucht man dann übrigens auch ein Software-Abo von Nvidia (5a Mindestlaufzeit und 300€/a) UND einen zertifizierten Hypervisors. Ich glaube, das ist relativ am Thema vorbei, da würde ich mir ja eher 2 PCoIP-Karten anschaffen, wenn es um Remote-Nutzung geht...
 
Den kleinen Quadros <"2000"-Serie musst Du in der VM hypervisor.cpuid.v0 = false verpassen, sonst hagelts auch bei denen "Error 43".
 
(womit man auch eine AMD oder erheblich schnellere "normale" Nvidia hätte kaufen können)
 
Ich kenn mich mit Grafikkarten so gar nicht aus, aber bei Geizhals fängts bei 85 Euro an und eine mit vielen Angeboten liegt bei 122 Euro. In der Größenordnung bin ich finanziell absolut dabei. (Und wie gesagt, High-End-GPU ist eh nicht wirklich mein Anliegen.)
Lese ich das richtig, dass ich bei einer Quadro eine geringere Gefahr habe, in Kompatibilitätsprobleme zu laufen?
Wo kann ich mehr zu diesen Dingen (z. B. auch "Reset-Bug") lesen?
Der Reset Bug betrifft mittlerweile die RX5700er Reihen von AMD - ich weiß nicht ob nvidia dies hat.

Die RX4xx und RX5xx wurden durch BIOS Updates vom Mainboard gefixxt ( AGESA 1002.ABB oder so ähnlich).
Der Reset Bug äußert sich dahingehend aus, dass ein VM Neustart (Windows - Linux mit Manjaro als VM hat da keinen Terz gemacht) nicht die GPU neustartet und die VM deshalb nicht mehr darauf zugreifen kann, dass erfordert dann einen Reboot des gesamten Hypervisors (je nachdem was da alles läuft halb so wild).

Das gilt für ESXi. Unter Linux Hypervisor gibt es dafür Kernel Patches die man selbstständig implementieren kann.

Was die Quadros angeht, so weiß ich nur von ESXi Seite aus, dass die nvidia Treiber die Installation unter virtuellen Windows Systemen verhindert. Dafür muss man unter ESXi kleine Anpassungen an der VM vornehmen wie Trambahner beschrieben hat.
 
Ein zeilenlanger Eingangspost mit speziellen Anforderungen für eine eierlegende Wollmilchsau.
Dann diverse Empfehlungen und Beratung.
Und zum Abschluss einfach das gekauft, was die Preissuchmaschine als erstes anzeigt. :shake:
 
Der Reset Bug betrifft mittlerweile die RX5700er Reihen von AMD - ich weiß nicht ob nvidia dies hat.
[...]
Was die Quadros angeht, so weiß ich nur von ESXi Seite aus, dass die nvidia Treiber die Installation unter virtuellen Windows Systemen verhindert. Dafür muss man unter ESXi kleine Anpassungen an der VM vornehmen wie Trambahner beschrieben hat.
Der Reset-Bug betrifft Nvidia-Karten nicht. Auch unter QEMU/KVM muss eine Anpassung vorgenommen werden. Es muss "hv_vendor_id=whatever" in die VM Konfiguration geschrieben werden, zu lesen hier: https://wiki.archlinux.org/index.php/PCI_passthrough_via_OVMF#"Error_43:_Driver_failed_to_load"_on_Nvidia_GPUs_passed_to_Windows_VMs
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh