[Kaufberatung] Serveraufbau mit ECC-Speicher für Multimedia & Softwareentwicklung

Soeben kam mein Arbeitskollege um die Ecke und hat mir ein ASUS Pro WS W680-ACE für 250€ angeboten, mit mehr als einem Jahr Garantie. Puh.. bei 450€ Unterschied wird es dann wohl doch wieder der Intel Core i5-14600K 🙄

Ganz ehrlich: nimm das, den 14600k und 1-2x32gb/48gb DDR5 ecc dazu (1 Riegel senkt nochmal ein bisschen den Stromverbrauch und der Dualchannel-Durchsatz wird idR kaum gebraucht). Ich lehne mich mal weit aus dem Fenster und behaupte dass man abgesehen vom Transcoding zwischen 5950x, 7900, 14600k und 265k absolut 0 Unterschied für deine Anwendungen merken wird (messen kann mans schon aber all die CPUs sind mehr als schnell genug). Aktuelles Bios drauf und die CPU nicht übertakten/ <120w betreiben und das 14th-gen-sterben sollte auch kein Problem sein - und selbst wenn kann man dann einfach ne neue CPU draufsetzen und/oder die Plattform mit sehr geringem Wertverlust auf was aktuelles tauschen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soeben kam mein Arbeitskollege um die Ecke und hat mir ein ASUS Pro WS W680-ACE für 250€ angeboten, mit mehr als einem Jahr Garantie. Puh.. bei 450€ Unterschied wird es dann wohl doch wieder der Intel Core i5-14600K 🙄
Bäh, ist das diese, wo man das IPMI per Bastelwastel-Platine nachrüsten kann?
Würde ich auch für 250€ nicht wollen. :fresse:
Da bin ich voll bei dir.
naja... :asthanos:
Ich lehne mich mal weit aus dem Fenster und behaupte dass man abgesehen vom Transcoding zwischen 5950x, 7900, 14600k und 265k absolut 0 Unterschied für deine Anwendungen merken wird (messen kann mans schon aber all die CPUs sind mehr als schnell genug).
Das ist zwar richtig... aber bei dem, was DDR5 UDIMM ECC und gute SSDs kosten sind die paar € +/- für MB und CPU auch schon fast egal.



Aber gut, ich bin da in der Hinsicht ziemlioch schwierig, den 1700er mag ich einfach ned, der hat einfach viel zu viele Dinge an sich (samt den Boards, die es dafür gibt), die ihn für mich hinter Arrow und AMD zurückreihen.
 
@pwnbert
Hmm, also ich habe meine Mainboards ganz normal in .de gekauft, keine Importe aus .us oder .tw.

Wegen Kontron, also nichts relevantes, hätte mich dann doch auch sehr gewundert.

Dass SM da mal ne schlechte Serie gebracht hat...
Du willst nich wissen, was alles während Corona so in/an/auf Produkten passiert ist. (nicht nur auf IT bezogen)
Wenn man so will, sollte man um vieles aus der Zeit einen großen Bogen machen. Da haben viele Hersteller von allem möglichen irgendwie versucht den Kopf über Wasser zu halten. Ich empfehle ein Haus im Wald mit Wasserfall und großen See.
 
Ich bin schon bei dir, wenn du sagst Supermicro > Asus - versteh mich da nicht falsch.

Wie auch immer, "wir" haben ein Supermicro W880 leider nirgendwo zu kaufen gefunden. Von Kontron gibts auch nix.
Also bleibt Asus wohl die einzige Wahl für W880 - momentan.

Ehrlich gesagt kann ich mir nicht vorstellen, dass das Asus sooo schlecht sein soll.
Ich für mich sage: Lieber ein Asus 1851er als ein Supermicro 1700er.
 
128GB DDR4 RDimm (60-120€) + Epyc Rome u. Supermicro h11ssl-i oder Gigabyte MZ32-AR0 (500-600€ im Bundle aus Fernost) + GPU (oder auch nicht, die CPU wird einige Transcodes packen)
Ich hab mir das nochmal angeschaut und kurz überlegt. Der Epyc hat 55% mehr Dampf.. aber ich glaube nicht, dass ich so viel mehr Leistung aktuell brauche. Vermutlich wird sie durch die Mehrleistung sicher das Transcoding packen und man würde hier keinen Unterschied merken.

Bin irgendwie schon hin und her gerissen.. :hmm:
Der Server soll jetzt auch erst mal wieder für die nächsten 5 Jahre halten. Vielleicht sind bis dahin die aktuellen Grafikkarten bezahlbarer und dann würde ich mich sicher ärgern, wenn ich nur PCIe 4.0 und kein 5.0 habe..

Ganz ehrlich: nimm das, den 14600k und 1-2x32gb/48gb DDR5 ecc dazu (1 Riegel senkt nochmal ein bisschen den Stromverbrauch und der Dualchannel-Durchsatz wird idR kaum gebraucht). Ich lehne mich mal weit aus dem Fenster und behaupte dass man abgesehen vom Transcoding zwischen 5950x, 7900, 14600k und 265k absolut 0 Unterschied für deine Anwendungen merken wird (messen kann mans schon aber all die CPUs sind mehr als schnell genug). Aktuelles Bios drauf und die CPU nicht übertakten/ <120w betreiben und das 14th-gen-sterben sollte auch kein Problem sein - und selbst wenn kann man dann einfach ne neue CPU draufsetzen und/oder die Plattform mit sehr geringem Wertverlust auf was aktuelles tauschen.
Jetzt weis ich auch was es mit dem CPU sterben auf sich hat. Dann ist ja umso besser, dass ich hier nen fetten Klopper als Kühler vorgesehen habe.

Das ist zwar richtig... aber bei dem, was DDR5 UDIMM ECC und gute SSDs kosten sind die paar € +/- für MB und CPU auch schon fast egal.
Leider ist mein Budget bis zum Jahresende hin begrenzt und am Ende vom Geld muss eine lauffähige Alternative zu meinem jetzigen Setup rauskommen.. :rolleyes:
 
Leider ist mein Budget bis zum Jahresende hin begrenzt und am Ende vom Geld muss eine lauffähige Alternative zu meinem jetzigen Setup rauskommen.. :rolleyes:
Na das ist ja ein Argument.
Dann nimmst halt das 250€ Board, muss ja kein IPMI sein, diese Intel-Fernwartung dürfte auch nicht so übel sein? (Nie selbst probiert, Hörensagen).
Wobei die 14th Preise imho ein Witz sind, billig ist das nicht gerade... für diese unglückliche Uralt-Generation.

Aber ja, wird schon passen, dann nimmst das W680 + 14600... RAM kannst ja auch mit weniger starten, ich würd aber so bestücken, dass du nachlegen kannst. Also 1x 32gb oder 1x 48gb...

SSD musst bissl schauen. Ich würd was davon nehmen (Liste nicht vollständig, sind TLCs mit und ohne DRAM):
Ich hab fast alle, ne alte FireCuda 530 (ohne R), 2 Fury Renegade 4tb als SVDEV, 2 KC3000 2tb (als Mirror fürn Proxmox Host, ist aber noch nicht produktiv), sn850x im Desktop... hab halt immer nach P/L gekauft bei Aktionen (119 für die Kc3000, 239 für die Fury Renegade...).
P/L wären die 990 evo plus auch ganz interessant, haben war keinen DRAM Cache, sollen aber ziemlich sparsam laufen, 1.2 PBW sind so mmkay, immerhin 4x besser als diese Crucial QLC (und real wsl. noch besser weil QLC halt meh ist für sowas).
Kc3000 und Fury Renegade sind wohl fast die gleiche SSD, unterscheiden sich wohl im SLC Cache und daher irgendwie in den PBW... FireCuda 530R hat zwar mehr TBW, aber ist bissl teuer und... was ich mal so gesucht hab unterm Strich nicht besser als der Rest.
=> Würde 990 evo plus oder KC3000 kaufen, je nach dem, wie hart der Spardrang ist.
Beitrag automatisch zusammengeführt:

Jetzt weis ich auch was es mit dem CPU sterben auf sich hat. Dann ist ja umso besser, dass ich hier nen fetten Klopper als Kühler vorgesehen habe.
Hilft da eher bedingt, wenn der Hitzestau intern ist.
Aktuelles Bios und halt mal irgendwie die Spannungswerte überprüfen, kA was das Board hergibt, obs nen Eco-Mode gibt oder so.
Musst halt bissl lesen, allgemein, wie man den 14600 auf "sparsam" tuned. Dann solltest das Problem nie bekommen.
 
Schau Dir Epyc ruhig nochmal an: sehr billiger Speicher auf acht Kanälen, AtTX-Boards mit acht, EATX mit 16 RAM-Bänken. Gerade für Virtualisierung kann man nicht genug RAM haben.
Den Transcoding-Bedarf habe ich auch noch nicht verstanden. Ich habe Emby laufen und schiebe .TS/.AVI bis zu UHDx265 als "directplay" über WLAN an Amazon Firesticks mit der Emby-Client-App. Läuft spitze, die Oberfläche ist mittlerweile auch eine Freude. Transcoding nur auf dem Mobiltelefon unterwegs. Für wen/was brauchst Du die zeitgleichen Transcodings?
Ein Epyc schafft per CPU locker ein paar 1080p-live-Transcodings. Ich werde mal ein UHD->Mobiltelefon im Emby ausprobieren.

Edit: will damit sagen: ein evtl lösbares Endgeräteproblem muss man nicht über den Server bezahlen.
 
Zuletzt bearbeitet:
Soeben kam mein Arbeitskollege um die Ecke und hat mir ein ASUS Pro WS W680-ACE für 250€ angeboten, mit mehr als einem Jahr Garantie. Puh.. bei 450€ Unterschied wird es dann wohl doch wieder der Intel Core i5-14600K 🙄
Ich konnte ihn nochmal um 10€ drücken und hab es mir jetzt für 240€ geholt. :)

Den Transcoding-Bedarf habe ich auch noch nicht verstanden. Ich habe Emby laufen und schiebe .TS/.AVI bis zu UHDx265 als "directplay" über WLAN an Amazon Firesticks mit der Emby-Client-App. Läuft spitze, die Oberfläche ist mittlerweile auch eine Freude. Transcoding nur auf dem Mobiltelefon unterwegs. Für wen/was brauchst Du die zeitgleichen Transcodings?
Das liegt einzig und allein an meinem Dorf-DSL. Mein Upload ist auf maximal 15 Mbit begrenzt. In meiner Familie nutzt jeder – genauso wie ich – einen FireTV Stick, der im Direct Play sämtliche Inhalte problemlos abspielt.
 
Erzähl dann, was du am Ende zusammengebaut hast, wie viel Strom das braucht und ob du irgendwelche Fallstricke hattest - bin neugierig.
 
ich würde da auch eher auf so ein H11SSL oder sowas setzen. Hab mir billig ein Epyc 7551p mit Brett und Ram in der Bucht geholt. kleine GPU rein und dann klappt das auch mit dem Transcoding. Immerhin hat man auf jeden Slot die volle Anzahl an PCIe-Lanes zur Verfügung, was die Nutzung eines HBAs oder Hardware-Raid deutlich erleichtert.
dab bekommt man problemlos auch mal sowas hier rein:
1758730846926.png
 
Ich empfehle auch ganz gerne die Dickschiffer. Aber da der @TE von Multimedia und Transcoding spricht, dürfte sein Board und CPU gar nicht so verkehrt sein. Andererseits spricht er aber auch von zwei GPUs einbauen, dann schon eher Richtung Epyc. Aber für die meisten Normalsterblichen dürfte die UHD 770 ja ausreichen.

Ohne jetzt nochmal alles durchgelesen zu haben.
 
Zuletzt bearbeitet:
Ich würde bzgl. SSDs auch die WD 7100 noch in den Ring werfen: https://geizhals.at/western-digital-wd-black-sn7100-nvme-ssd-2tb-wds200t4x0e-00cja0-a3372712.html
Hab mir die fürs Notebook und eine fürn Desktop geholt, ist auch DRAM-less wie die Evo, aber durch den WD-typischen großen SLC Cache trotzdem extrem schnell, kommt in den meisten Tests der 990 Pro schon sehr nahe (natürlich nicht bei sehr ausdauerenden Write tasks, weil halt kein DRAM)
Und für deinen Use-Case evtl. weniger wichtig, extrem sparsam im Stromverbrauch (deshalb auch in meinem Notebook)
 
Ich bräuchte noch einmal Unterstützung beim Thema SSDs / NVMe.

Mein Board bietet 3x NVMe-Steckplätze und zusätzlich 4x SATA-Anschlüsse.
Nach meiner Recherche benötigt Proxmox für das Betriebssystem kaum Speicherplatz – etwa 8 GB sollten bereits genügen.

Geplante Aufteilung:
  • 2x 2TB NVMe (genaue Hardware noch offen) sollen für die VMs eingesetzt werden.
  • Falls später noch mehr Speicherbedarf entsteht, könnte ich eine dritte NVMe ergänzen und die Laufwerke im RAID5 betreiben.
Für das Betriebssystem schwanke ich aktuell zwischen zwei Varianten:

Variante A: Optane SATA
  • 2x Intel Optane P4800x (z. B. eBay-Angebot) – aktuell relativ günstig zu bekommen.

Variante B: SAS auf M.2
  • 1x Konverter SATA 22 Pin + SFF-8643 → M.2(M) & M.2(B) (z. B. Reichelt-Link)
  • 2x Intel Optane H10 256GB + 16GB M.2 NVMe SSD PCIe 3.0 x4 2280 (z. B. eBay-Angebot)
 
Wenn du schon über Optanes nachdenkst, schau doch mal nach zwei M10.
1759264403568.png


Ob das mit der Adapterei klappt, weiß ich allerdings nicht.
 
Warum nicht das OS auch auf die 2x 2tb?
Ich hab vor, das so zu machen... Rest für VMs etc als LVM Thin usw.?
Beitrag automatisch zusammengeführt:

Wobei, ich seh gerade, die Optane P4800 mit 375gb bekommt man relativ "günstig" aus China, ca. 150€, angeblich NOS, wer weiss das schon.

Kann man natürlich schon machen. Die Optane ist nicht SATA, die ist U.2... das ist PCIe über Kabel.
Tät ich per PCIe-Slot Adapter machen. https://www.amazon.de/10Gtek-SFF-8639-Adapter-Profile-Brackets/dp/B09SCQSD96?th=1

TBW hat die Optane natürlich super... sparst dir zumindest das Geschreibsel vom Logging und so.
Wobei das Backupmäßig so ne Sache ist, die Konfigs werden ja imho nicht am VM-Drive selbst gespeichert, insofern brauchst du schon bissl mehr Backupüberlegung, wenn das alles reibungsfrei laufen soll.
 
Zuletzt bearbeitet:
Wenn du schon über Optanes nachdenkst, schau doch mal nach zwei M10.
Ah die M10 hat gegenüber der H10 ausschließlich OPTANE Speicher. Wäre natürlich sinnvoller, wenn man sich hier rein auf das OS beschränkt. Die New Intel Optane 64GB M10 Memory SSD M.2 2280 MEMPEK1J064GA PCIe 3.0 Xpoint NVMe (https://www.intel.com/content/www/u...m-pcie-3-0-20nm-3d-xpoint/specifications.html) gäbe es hier für 100€. 👍
Sollten auch 16GB fürs OS reichen, bekommt man diese teilweise für 5€ das Stück (im 5/10er Pack) nachgeschmissen. Zusammen mit einer Delock PCI Express x16 Karte zu 4 x intern NVMe M.2 Key M - Bifurcation könnte man hier problemlos ein RAID1 oder RAID6 umsetzen.

Warum nicht das OS auch auf die 2x 2tb?
Ich hab vor, das so zu machen... Rest für VMs etc als LVM Thin usw.?
Weil ich meinte gelesen zu haben, dass Proxmox viel IO Last erzeugt (wie du schon mit dem Logging erwähnt hattest). Damit würde ich die 2TB schonen und gefühlt, fühlt es sich besser an OS und VMs voneinander getrennt zu halten. Aber vielleicht ist das auch der falsche Weg?

Wobei, ich seh gerade, die Optane P4800 mit 375gb bekommt man relativ "günstig" aus China, ca. 150€, angeblich NOS, wer weiss das schon.
Die TBW sind teilweise um Faktor 100 (und mehr) höher als bei "normalen" SSDs. Selbst gebraucht sehen die wie neu aus gegenüber den "normalen"?

Kann man natürlich schon machen. Die Optane ist nicht SATA, die ist U.2... das ist PCIe über Kabel.
Tät ich per PCIe-Slot Adapter machen. https://www.amazon.de/10Gtek-SFF-8639-Adapter-Profile-Brackets/dp/B09SCQSD96?th=1
Danke, wieder was gelernt.
 
Ah die M10 hat gegenüber der H10 ausschließlich OPTANE Speicher.
Ja aber die M10 ist ziemlich lahm für ne Optane. Und als 64gb imho ziemlich teuer... für das, was es ist.
Sollten auch 16GB fürs OS reichen, bekommt man diese teilweise für 5€ das Stück (im 5/10er Pack) nachgeschmissen. Zusammen mit einer Delock PCI Express x16 Karte zu 4 x intern NVMe M.2 Key M - Bifurcation könnte man hier problemlos ein RAID1 oder RAID6 umsetzen.
Ja, brauchst aber trotzdem den x16 Slot... nen PCIe 5.0x16 Slot opfern für ne popelige M10, ich weiss nicht.
Intel kann aber kein x4x4x4x4... insofern nochmal blöder.
Weil ich meinte gelesen zu haben, dass Proxmox viel IO Last erzeugt (wie du schon mit dem Logging erwähnt hattest). Damit würde ich die 2TB schonen und gefühlt, fühlt es sich besser an OS und VMs voneinander getrennt zu halten. Aber vielleicht ist das auch der falsche Weg?
Mangels realer Praxis kann ichs dir nicht sagen, ich steh selber von der Frage, tendiere aber das zu kombinieren (werde aber weniger Last haben als du, zudem überlege ich es einfach mit ext4 zu machen).

Ich hab nix Stichhaltiges gefunden, warum es tatsächlich ein Problem sein sollte, nur so allgemeinen wertlosen Blabla (so ähnlich wie dieses übliche Realtek und 2.5G bashing).
Warum ich daran zweifel?
Es wird immer gesagt, man soll trennen, um das VM drive zu schonen. Okay. Dann wird aber fürs OS irgend ne popelige SSD (auch hinsichtlich Qualität popelig, nicht nur bezügl. Größe) genommen, weils angeblich nicht schnell sein muss und nix können muss.
So Sherlock, wenns nicht groß sein muss und auch nix können muss, warum soll mans dann nicht sharen? Konnte noch nix diesbezüglich finden.
Vielleicht können @Supaman oder @gea eine Wortspende zu diesem (kursiven) Absatz abgeben.


Die TBW sind teilweise um Faktor 100 (und mehr) höher als bei "normalen" SSDs. Selbst gebraucht sehen die wie neu aus gegenüber den "normalen"?
Bei den günstigen TLC dram-less ists der Faktor 15... bei den besseren dann der Faktor 10. Auf die Größe... 20 PBW hat die 375gb, ~1,5 TBW die 2tb TLC. Immer noch einiges.
Hardware altert halt auch durch Lagerung, Temperatur im Einsatz usw...
Whatever, bevor du ne M10 um 100€ kaufst dann doch lieber so ne P4800 um 150€, der Preis wäre echt fair, wenns echt NOS (oder man zumindest dran glauben kann).

Ohne Raid 1 ist doch Käse, und wie du nun die 2x U.2 ans Mainboard bringst, wirst dir auch noch gut überlegen müssen, speziell hinsichtlich Kostenoptimierung, um die es dir ja geht.


Wenn schon Optane, dann würde ich 2x die 375gb als Mirror machen und dort außer dem OS auch noch die aktivsten VMs/"Dienste" (in welcher Form das nun auch immer läuft) drauf packen.
Ohne Mirror ist ja auch Käse.
Dann bist ziemlich Bulletproof.
Beitrag automatisch zusammengeführt:

Nachtrag:
Weil 1700 scheiße ist, unterstützt es nur eine x8/x8 Bifurication, hier auf 2 Slots aufgeteilt.

Heisst also, du müsstest die 2 Optane 375gb per PCIe auf U.2 Adapter (oben verlinkt) in die unteren PCIe 4.0x4 Slots stecken (was noch nicht mal blöd ist) oder...
1x PCIe Slot per PCIe x4 auf U.2 Adapter und 1x an den MiniSAS per SFF-8654 4i to u.2 Adapter - so würde ich das probieren (dann bleibt dir noch ein PCIe 3.0x4 für ne 10-25g NIC über und beide PCIe x8 "Graka"-Slots).

Ist halt die Frage, ob du das Geld hast. 2x 150€ + 2x 50€ (für Adapter) bist auf ca. 400€ Aufpreis.


Rational fürs Budget:
Alles auf die 2tb und starten (nen Guide lesen obs irgendwelche sinnvollen Tweaks gibt um die Write Amplification gering zu halten). Nach 30 Tagen Betrieb per smartctl -a gucken, wie viel TBW du gesammelt hast und hochrechnen, ob das okay is. If not, Optane 375 Mirror nachrüsten.


Da 2x 16gb M10 reinpopeln ist Unsinn. Am ehesten noch über PCIe x4 zu M.2 Adapter (brauchst beide Slots), weil sonst kannst du nur 1x so eine popelige PCIe 3.0x2 Optane in einen PCIe 5.0x8 Slot stecken, was eher scheiße ist.
 
Zuletzt bearbeitet:
Ich hab nix Stichhaltiges gefunden, warum es tatsächlich ein Problem sein sollte, nur so allgemeinen wertlosen Blabla (so ähnlich wie dieses übliche Realtek und 2.5G bashing).
Warum ich daran zweifel?
Es wird immer gesagt, man soll trennen, um das VM drive zu schonen. Okay. Dann wird aber fürs OS irgend ne popelige SSD (auch hinsichtlich Qualität popelig, nicht nur bezügl. Größe) genommen, weils angeblich nicht schnell sein muss und nix können muss.
So Sherlock, wenns nicht groß sein muss und auch nix können muss, warum soll mans dann nicht sharen? Konnte noch nix diesbezüglich finden.
Vielleicht können @Supaman oder @gea eine Wortspende zu diesem (kursiven) Absatz abgeben.
Ich würde ZFS OS Pool und ZFS Datenpool trennen weil

- bei Neuinstallation kann es nicht passieren dass man die Systemplatte mit Daten "aus Versehen" neu initialisiert
- man kann den Datenpool einfacher auf ein anderes System verschieben, replizieren oder sichern
- man kann auf dem Datenpool andere dafaults setzen als für den OS Pool. Die werden dann auf datasets darunter vererbt.

Bei Proxmox AiO würde ich es so halten (Optane 48x für OS und VMs)
- ein ZFS Dateisystem mit sync enabled z.B. rpool/vm für VMs (schnelle NVMe mit plp, Optane 48x ist das allerfeinste dafür)
- einen separaten Datenpool für sonstige Daten und backups (HD oder Hybridpool mit Flash special vdev)
 
Du musst mir das genauer erklären. Wenn ich das mit dem Installer "normal" intalliere, bekomm ich doch mal das Pool fürs OS, den Rest kann ich dann als LVM-thin verwalten, oder nicht? Und in diesem LVM-thin kann ich dann Speicher zuweisen und verwenden, wie das der Gast haben möchte? Und... kann man nicht ZFS Pools auch noch erstellen drauf? Oder sind das Datasets im gleichen Pool? Ist das LVM-thin ontop auf dem Pool?
Verwirrt mich. :hmm:
 
Ein ZFS Pool benötigt ein eigenes Blockdevice, also eine eigene Platte. Der ZFS Pool hat Pool (zpool get all) und ZFS (zfs get all) Eigenschaften. Unter dem Pool kann man dann Datasets (Dateisysteme, zvols und Snaps) anlegen. Für diese kann man nur zfs Eigenschaften, nicht zpool Eigenschaften ändern.

Wenn man Proxmox installiert sollte man das OS auf einem ZFS Pool installieren (wegen der massiven Vorteile gegenüber einem in die Jahre gekommenen ext4). Den Speicherort für VMs sollte man in Proxmox als "ZFS Pool" verwalten. Der Begriff ist da irreführend weil das kann ein echter ZFS Pool z.B. tank oder ein ZFS Dateisystem z.B. tank/vm sein. Darauf legt man dann die VMs ab. Deren virtuellen Platten sind dann keine einfachen Dateien sondern ZFS zvols die man mit zfs list anzeigen oder per ZFS replizieren kann.

"Default" bei Proxmox war bisher OS auf ext4 und VMs auf LVM als Dateien. OS auf ZFS und VMs mit zvols auf ZFS hat entscheidende Vorteile,
 
"Default" bei Proxmox war bisher OS auf ext4 und VMs auf LVM als Dateien.
Ah, das ist also diese Home-Friendly Konfiguration, weil man um die Write Amplification rum kommt und so.
Beitrag automatisch zusammengeführt:

Nachtrag:
Noch eine Frage, mal abseits der Integritäts- und Snapshot Funktionen vom ZFS, wie sieht es real bei Proxmox @ ZFS (wie du das beschrieben hast) mit einem Leistungsgewinn durch den ARC aus? Wenn man da "genug" Speicher zuweist, müssten doch die meist genutzten Systemdateien der VMs im ARC liegen... funktioniert das so?
 
@gea wenn ich deinen Post richtig lese, beführwortest du zwei physisch separate Pools, so wie ich das auch vorhabe?

Bei Proxmox AiO würde ich es so halten (Optane 48x für OS und VMs)
750GB Varianten gibt es bereits für 200€ das Stück.. aber da komm ich mit meinem Speicherplatzbedarf nicht hin den ich brauchen werde.
Wenn ich mich jedoch darauf beschränke nur 2 Docker VMs laufen zu lassen und die Windows VMs auf die 2TB auslagere, sähe das ganze sicherlich besser aus..

Bash:
lorem@Ipsum:~# docker system df

TYPE            TOTAL     ACTIVE    SIZE      RECLAIMABLE
Images          101       76        48.4GB    11.92GB (24%)
Containers      78        49        2.902GB   1.304GB (44%)
Local Volumes   106       10        2.104GB   622.3MB (29%)
Build Cache     17        0         1.926MB   1.926MB
Hier mal eine aktuelle Ausgabe der Docker Container die aktuell nativ (ohne VM Host) auf meiner Synology laufen..

Weil 1700 scheiße ist, unterstützt es nur eine x8/x8 Bifurication, hier auf 2 Slots aufgeteilt.
yeah.. man lernt nie aus und jetzt rächt sich vermutlich meine "Desktop-Consumer-CPU Entscheidung". :eek:

Heisst also, du müsstest die 2 Optane 375gb per PCIe auf U.2 Adapter (oben verlinkt) in die unteren PCIe 4.0x4 Slots stecken (was noch nicht mal blöd ist) oder...
1x PCIe Slot per PCIe x4 auf U.2 Adapter und 1x an den MiniSAS per SFF-8654 4i to u.2 Adapter - so würde ich das probieren (dann bleibt dir noch ein PCIe 3.0x4 für ne 10-25g NIC über und beide PCIe x8 "Graka"-Slots).
Mit dem "oder" beschreibst du zwei Lösungswege? Korrigier mich wenn ich mich irre.
Dein erster Vorschlag bedeuted, 2x folgende Karte: https://www.amazon.de/10Gtek-SFF-8639-Adapter-Profile-Brackets/dp/B09SCQSD96
Dein zweiter Vorschlag, einmal die Karte (https://www.amazon.de/10Gtek-SFF-8639-Adapter-Profile-Brackets/dp/B09SCQSD96) und einen Adapter den ich an meine (z.B.: https://www.haehnlein-it.com/Inspur...de-12Gb-PCIe-x8-9311-8i-ZFS/REF-INSPUR9300-8I) Karte anschließe?

Was spricht dagegen https://www.amazon.de/10Gtek-SFF-8639-Adapter-Profile-Brackets/dp/B09WH44NHX zu verbauen? Dann bräuchte ich doch nur eine Karte?

Rational fürs Budget:
Alles auf die 2tb und starten (nen Guide lesen obs irgendwelche sinnvollen Tweaks gibt um die Write Amplification gering zu halten). Nach 30 Tagen Betrieb per smartctl -a gucken, wie viel TBW du gesammelt hast und hochrechnen, ob das okay is. If not, Optane 375 Mirror nachrüsten.
Ich habe gerade mal auf meiner Synology den Cache angeschaut. Bei 16.500 Stunden (1,9 Jahre) hat diese aktuell 188TBW von 220 TB geschrieben. Meine Crucial P3 1TB (ct1000p3ssd8) würde bei gleichbleibender Nutzung noch 3-6 Monate halten bevor Sie offiziell ihr TBW erreicht hat.. Laut SMART Werten ist sie zu 37% verbraucht..
 
yeah.. man lernt nie aus und jetzt rächt sich vermutlich meine "Desktop-Consumer-CPU Entscheidung". :eek:
AM5 ist besser in der Hinsicht mit x4x4x4x4 ... und ECC auch auch nicht so das Thema.
7700+B850 ist wäre schon ganz preiswert und so... ist halt das mit der iGPU und so.

Egal wie du es drehst und wendest, irgendwo fällt immer ein Schatten hin.
Genau, 2 Wege, so hältst du nämlich 1x PCIe x4 (mech. 16) frei für ne Netzwerkkarte zum Beispiel (dafür reichen ja 4 Lanes allemal).
Nein, an den HBA kannst du das nicht anschließen (der kann nämlich kein nvme). Das W680 hat selbst einen Slim-SAS der PCIe 4.0x4 oder SATAx4 kann, wenn ich das richtig verstehe. Man hat dem W680 Board statt nem M.2 einen Mini-SAS gegeben, wenns wahr ist, wenn ich das richtig verstehe.
https://www.asus.com/de/motherboards-components/motherboards/workstation/pro-ws-w680-ace/techspec/ strg+f "slimsas"
Das müsste theoretisch gehen, aber... tja.
Genau, falls das mit dem Slim-SAS nicht klappt...
Aber würde das mit dem Slim-SAS bevorzugen, da du so den PCIe Slot frei hältst für HBA oder NIC. Den Slim-SAS kann man sonst kaum sinnvoll nutzen mit "Heim-Kram", U.2 ist wsl. das Sinnvollste, was man da anstecken kann.
Was spricht dagegen https://www.amazon.de/10Gtek-SFF-8639-Adapter-Profile-Brackets/dp/B09WH44NHX zu verbauen? Dann bräuchte ich doch nur eine Karte?
Dein PCIe-Slot kann nur PCIe 5.0 (oder eben 4.0 oder 3.0) x8.
Der stellt einen Block mit 8 Lanes zur Verfügung.
Für die Karte bräuchtest du aber 2 Blöcke zu 4 Lanes.
Mit dieser Karte funktioniert nur das erste Laufwerk, das 2. wird dann nicht erkannt.
Eine AM4 CPU könnte x4x4x4x4 oder x8x4x4 und könnte eben diese 2 Blocks mit 4 Lanes machen, und so die 2 Laufwerke erkennen.
Ich habe gerade mal auf meiner Synology den Cache angeschaut. Bei 16.500 Stunden (1,9 Jahre) hat diese aktuell 188TBW von 220 TB geschrieben. Meine Crucial P3 1TB (ct1000p3ssd8) würde bei gleichbleibender Nutzung noch 3-6 Monate halten bevor Sie offiziell ihr TBW erreicht hat.. Laut SMART Werten ist sie zu 37% verbraucht..
Hm, gar nicht so wenig... was verwendet Syno? btrfs? ext4?
Wobei das Syno sicher swappt wie sau.


Vllt. doch die 750er Optanes mit oben erwähnten Adaptergebastel?


Ich tu mir schwer mit Empfehlungen, bin da selber nicht so... sicher drin. Ich spiel momentan mit dem Gedanken einfach mit ext4 + lvm-thin zu arbeiten...
 
Nutze seit jeher für OS, Filer und VMs getrennte Datenträger. Bin allerdings eher bei der vSphere Fraktion. So kann ich bei einer Nacht- und Nebelaktion auch nicht aus versehen was überschreiben. Wird neu aufgesetzt, ziehe ich alle Datenträger die direkt am Board hängen aus der Backplane. Wüsste auch nicht, wieso es fürs OS eine Optane bräuchte.
 
Bei einer Optane 48X für OS und VMs hätte ich wenig Bauchschmerzen bei einem Basic Pool bei töglichen Backups der VMs

ps
ext + lvm:
- keine bitrot protection (keine Prüfsummen)
- kein unbeschädigtes Dateisystem nach Absturz beim Schreiben
- kein sicheres sync write
- keine Snap Versionierung ohne Kopieren oder anfänglichem Platzverbrauch

Ist wie Autokauf, ohne neumodisches Zeugs wie ABS und ESP,
Sicherheitsgurt und Nackenstütze muss reichen, Oldtimer halt
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh