Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
[Kaufberatung]Serveraufbau mit ECC-Speicher für Multimedia & Softwareentwicklung
Soeben kam mein Arbeitskollege um die Ecke und hat mir ein ASUS Pro WS W680-ACE für 250€ angeboten, mit mehr als einem Jahr Garantie. Puh.. bei 450€ Unterschied wird es dann wohl doch wieder der Intel Core i5-14600K 🙄
Ganz ehrlich: nimm das, den 14600k und 1-2x32gb/48gb DDR5 ecc dazu (1 Riegel senkt nochmal ein bisschen den Stromverbrauch und der Dualchannel-Durchsatz wird idR kaum gebraucht). Ich lehne mich mal weit aus dem Fenster und behaupte dass man abgesehen vom Transcoding zwischen 5950x, 7900, 14600k und 265k absolut 0 Unterschied für deine Anwendungen merken wird (messen kann mans schon aber all die CPUs sind mehr als schnell genug). Aktuelles Bios drauf und die CPU nicht übertakten/ <120w betreiben und das 14th-gen-sterben sollte auch kein Problem sein - und selbst wenn kann man dann einfach ne neue CPU draufsetzen und/oder die Plattform mit sehr geringem Wertverlust auf was aktuelles tauschen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soeben kam mein Arbeitskollege um die Ecke und hat mir ein ASUS Pro WS W680-ACE für 250€ angeboten, mit mehr als einem Jahr Garantie. Puh.. bei 450€ Unterschied wird es dann wohl doch wieder der Intel Core i5-14600K 🙄
Ich lehne mich mal weit aus dem Fenster und behaupte dass man abgesehen vom Transcoding zwischen 5950x, 7900, 14600k und 265k absolut 0 Unterschied für deine Anwendungen merken wird (messen kann mans schon aber all die CPUs sind mehr als schnell genug).
Das ist zwar richtig... aber bei dem, was DDR5 UDIMM ECC und gute SSDs kosten sind die paar € +/- für MB und CPU auch schon fast egal.
Aber gut, ich bin da in der Hinsicht ziemlioch schwierig, den 1700er mag ich einfach ned, der hat einfach viel zu viele Dinge an sich (samt den Boards, die es dafür gibt), die ihn für mich hinter Arrow und AMD zurückreihen.
@pwnbert
Hmm, also ich habe meine Mainboards ganz normal in .de gekauft, keine Importe aus .us oder .tw.
Wegen Kontron, also nichts relevantes, hätte mich dann doch auch sehr gewundert.
Dass SM da mal ne schlechte Serie gebracht hat...
Du willst nich wissen, was alles während Corona so in/an/auf Produkten passiert ist. (nicht nur auf IT bezogen)
Wenn man so will, sollte man um vieles aus der Zeit einen großen Bogen machen. Da haben viele Hersteller von allem möglichen irgendwie versucht den Kopf über Wasser zu halten. Ich empfehle ein Haus im Wald mit Wasserfall und großen See.
Ich bin schon bei dir, wenn du sagst Supermicro > Asus - versteh mich da nicht falsch.
Wie auch immer, "wir" haben ein Supermicro W880 leider nirgendwo zu kaufen gefunden. Von Kontron gibts auch nix.
Also bleibt Asus wohl die einzige Wahl für W880 - momentan.
Ehrlich gesagt kann ich mir nicht vorstellen, dass das Asus sooo schlecht sein soll. Ich für mich sage: Lieber ein Asus 1851er als ein Supermicro 1700er.
128GB DDR4 RDimm (60-120€) + Epyc Rome u. Supermicro h11ssl-i oder Gigabyte MZ32-AR0 (500-600€ im Bundle aus Fernost) + GPU (oder auch nicht, die CPU wird einige Transcodes packen)
Ich hab mir das nochmal angeschaut und kurz überlegt. Der Epyc hat 55% mehr Dampf.. aber ich glaube nicht, dass ich so viel mehr Leistung aktuell brauche. Vermutlich wird sie durch die Mehrleistung sicher das Transcoding packen und man würde hier keinen Unterschied merken.
Bin irgendwie schon hin und her gerissen..
Der Server soll jetzt auch erst mal wieder für die nächsten 5 Jahre halten. Vielleicht sind bis dahin die aktuellen Grafikkarten bezahlbarer und dann würde ich mich sicher ärgern, wenn ich nur PCIe 4.0 und kein 5.0 habe..
Ganz ehrlich: nimm das, den 14600k und 1-2x32gb/48gb DDR5 ecc dazu (1 Riegel senkt nochmal ein bisschen den Stromverbrauch und der Dualchannel-Durchsatz wird idR kaum gebraucht). Ich lehne mich mal weit aus dem Fenster und behaupte dass man abgesehen vom Transcoding zwischen 5950x, 7900, 14600k und 265k absolut 0 Unterschied für deine Anwendungen merken wird (messen kann mans schon aber all die CPUs sind mehr als schnell genug). Aktuelles Bios drauf und die CPU nicht übertakten/ <120w betreiben und das 14th-gen-sterben sollte auch kein Problem sein - und selbst wenn kann man dann einfach ne neue CPU draufsetzen und/oder die Plattform mit sehr geringem Wertverlust auf was aktuelles tauschen.
Na das ist ja ein Argument.
Dann nimmst halt das 250€ Board, muss ja kein IPMI sein, diese Intel-Fernwartung dürfte auch nicht so übel sein? (Nie selbst probiert, Hörensagen).
Wobei die 14th Preise imho ein Witz sind, billig ist das nicht gerade... für diese unglückliche Uralt-Generation.
Aber ja, wird schon passen, dann nimmst das W680 + 14600... RAM kannst ja auch mit weniger starten, ich würd aber so bestücken, dass du nachlegen kannst. Also 1x 32gb oder 1x 48gb...
SSD musst bissl schauen. Ich würd was davon nehmen (Liste nicht vollständig, sind TLCs mit und ohne DRAM):
Ich hab fast alle, ne alte FireCuda 530 (ohne R), 2 Fury Renegade 4tb als SVDEV, 2 KC3000 2tb (als Mirror fürn Proxmox Host, ist aber noch nicht produktiv), sn850x im Desktop... hab halt immer nach P/L gekauft bei Aktionen (119 für die Kc3000, 239 für die Fury Renegade...).
P/L wären die 990 evo plus auch ganz interessant, haben war keinen DRAM Cache, sollen aber ziemlich sparsam laufen, 1.2 PBW sind so mmkay, immerhin 4x besser als diese Crucial QLC (und real wsl. noch besser weil QLC halt meh ist für sowas).
Kc3000 und Fury Renegade sind wohl fast die gleiche SSD, unterscheiden sich wohl im SLC Cache und daher irgendwie in den PBW... FireCuda 530R hat zwar mehr TBW, aber ist bissl teuer und... was ich mal so gesucht hab unterm Strich nicht besser als der Rest.
=> Würde 990 evo plus oder KC3000 kaufen, je nach dem, wie hart der Spardrang ist.
Hilft da eher bedingt, wenn der Hitzestau intern ist.
Aktuelles Bios und halt mal irgendwie die Spannungswerte überprüfen, kA was das Board hergibt, obs nen Eco-Mode gibt oder so.
Musst halt bissl lesen, allgemein, wie man den 14600 auf "sparsam" tuned. Dann solltest das Problem nie bekommen.
Schau Dir Epyc ruhig nochmal an: sehr billiger Speicher auf acht Kanälen, AtTX-Boards mit acht, EATX mit 16 RAM-Bänken. Gerade für Virtualisierung kann man nicht genug RAM haben.
Den Transcoding-Bedarf habe ich auch noch nicht verstanden. Ich habe Emby laufen und schiebe .TS/.AVI bis zu UHDx265 als "directplay" über WLAN an Amazon Firesticks mit der Emby-Client-App. Läuft spitze, die Oberfläche ist mittlerweile auch eine Freude. Transcoding nur auf dem Mobiltelefon unterwegs. Für wen/was brauchst Du die zeitgleichen Transcodings?
Ein Epyc schafft per CPU locker ein paar 1080p-live-Transcodings. Ich werde mal ein UHD->Mobiltelefon im Emby ausprobieren.
Edit: will damit sagen: ein evtl lösbares Endgeräteproblem muss man nicht über den Server bezahlen.
Soeben kam mein Arbeitskollege um die Ecke und hat mir ein ASUS Pro WS W680-ACE für 250€ angeboten, mit mehr als einem Jahr Garantie. Puh.. bei 450€ Unterschied wird es dann wohl doch wieder der Intel Core i5-14600K 🙄
Den Transcoding-Bedarf habe ich auch noch nicht verstanden. Ich habe Emby laufen und schiebe .TS/.AVI bis zu UHDx265 als "directplay" über WLAN an Amazon Firesticks mit der Emby-Client-App. Läuft spitze, die Oberfläche ist mittlerweile auch eine Freude. Transcoding nur auf dem Mobiltelefon unterwegs. Für wen/was brauchst Du die zeitgleichen Transcodings?
Das liegt einzig und allein an meinem Dorf-DSL. Mein Upload ist auf maximal 15 Mbit begrenzt. In meiner Familie nutzt jeder – genauso wie ich – einen FireTV Stick, der im Direct Play sämtliche Inhalte problemlos abspielt.
ich würde da auch eher auf so ein H11SSL oder sowas setzen. Hab mir billig ein Epyc 7551p mit Brett und Ram in der Bucht geholt. kleine GPU rein und dann klappt das auch mit dem Transcoding. Immerhin hat man auf jeden Slot die volle Anzahl an PCIe-Lanes zur Verfügung, was die Nutzung eines HBAs oder Hardware-Raid deutlich erleichtert.
dab bekommt man problemlos auch mal sowas hier rein:
Ich empfehle auch ganz gerne die Dickschiffer. Aber da der @TE von Multimedia und Transcoding spricht, dürfte sein Board und CPU gar nicht so verkehrt sein. Andererseits spricht er aber auch von zwei GPUs einbauen, dann schon eher Richtung Epyc. Aber für die meisten Normalsterblichen dürfte die UHD 770 ja ausreichen.
Ich würde bzgl. SSDs auch die WD 7100 noch in den Ring werfen: https://geizhals.at/western-digital-wd-black-sn7100-nvme-ssd-2tb-wds200t4x0e-00cja0-a3372712.html
Hab mir die fürs Notebook und eine fürn Desktop geholt, ist auch DRAM-less wie die Evo, aber durch den WD-typischen großen SLC Cache trotzdem extrem schnell, kommt in den meisten Tests der 990 Pro schon sehr nahe (natürlich nicht bei sehr ausdauerenden Write tasks, weil halt kein DRAM)
Und für deinen Use-Case evtl. weniger wichtig, extrem sparsam im Stromverbrauch (deshalb auch in meinem Notebook)
Ich bräuchte noch einmal Unterstützung beim Thema SSDs / NVMe.
Mein Board bietet 3x NVMe-Steckplätze und zusätzlich 4x SATA-Anschlüsse.
Nach meiner Recherche benötigt Proxmox für das Betriebssystem kaum Speicherplatz – etwa 8 GB sollten bereits genügen.
Geplante Aufteilung:
2x 2TB NVMe (genaue Hardware noch offen) sollen für die VMs eingesetzt werden.
Falls später noch mehr Speicherbedarf entsteht, könnte ich eine dritte NVMe ergänzen und die Laufwerke im RAID5 betreiben.
Für das Betriebssystem schwanke ich aktuell zwischen zwei Varianten:
Variante A: Optane SATA
2x Intel Optane P4800x (z. B. eBay-Angebot) – aktuell relativ günstig zu bekommen.
Variante B: SAS auf M.2
1x Konverter SATA 22 Pin + SFF-8643 → M.2(M) & M.2(B) (z. B. Reichelt-Link)
Was ist Optane? Optane ist der Markenname von Intel für SSDs mit 3D XPoint, welches wiederrum eine revolutionäre neue Speichertechnologie war, welche zusammen von Intel und Micron entwickelt wurde. 3D XPoint ist konventionellem NAND Flash technisch in jeglicher Hinsicht überlegen, hatte (und...
www.hardwareluxx.de
Ob das mit der Adapterei klappt, weiß ich allerdings nicht.
TBW hat die Optane natürlich super... sparst dir zumindest das Geschreibsel vom Logging und so.
Wobei das Backupmäßig so ne Sache ist, die Konfigs werden ja imho nicht am VM-Drive selbst gespeichert, insofern brauchst du schon bissl mehr Backupüberlegung, wenn das alles reibungsfrei laufen soll.
Weil ich meinte gelesen zu haben, dass Proxmox viel IO Last erzeugt (wie du schon mit dem Logging erwähnt hattest). Damit würde ich die 2TB schonen und gefühlt, fühlt es sich besser an OS und VMs voneinander getrennt zu halten. Aber vielleicht ist das auch der falsche Weg?
Ja, brauchst aber trotzdem den x16 Slot... nen PCIe 5.0x16 Slot opfern für ne popelige M10, ich weiss nicht.
Intel kann aber kein x4x4x4x4... insofern nochmal blöder.
Weil ich meinte gelesen zu haben, dass Proxmox viel IO Last erzeugt (wie du schon mit dem Logging erwähnt hattest). Damit würde ich die 2TB schonen und gefühlt, fühlt es sich besser an OS und VMs voneinander getrennt zu halten. Aber vielleicht ist das auch der falsche Weg?
Mangels realer Praxis kann ichs dir nicht sagen, ich steh selber von der Frage, tendiere aber das zu kombinieren (werde aber weniger Last haben als du, zudem überlege ich es einfach mit ext4 zu machen).
Ich hab nix Stichhaltiges gefunden, warum es tatsächlich ein Problem sein sollte, nur so allgemeinen wertlosen Blabla (so ähnlich wie dieses übliche Realtek und 2.5G bashing).
Warum ich daran zweifel?
Es wird immer gesagt, man soll trennen, um das VM drive zu schonen. Okay. Dann wird aber fürs OS irgend ne popelige SSD (auch hinsichtlich Qualität popelig, nicht nur bezügl. Größe) genommen, weils angeblich nicht schnell sein muss und nix können muss.
So Sherlock, wenns nicht groß sein muss und auch nix können muss, warum soll mans dann nicht sharen? Konnte noch nix diesbezüglich finden.
Vielleicht können @Supaman oder @gea eine Wortspende zu diesem (kursiven) Absatz abgeben.
Bei den günstigen TLC dram-less ists der Faktor 15... bei den besseren dann der Faktor 10. Auf die Größe... 20 PBW hat die 375gb, ~1,5 TBW die 2tb TLC. Immer noch einiges.
Hardware altert halt auch durch Lagerung, Temperatur im Einsatz usw...
Whatever, bevor du ne M10 um 100€ kaufst dann doch lieber so ne P4800 um 150€, der Preis wäre echt fair, wenns echt NOS (oder man zumindest dran glauben kann).
Ohne Raid 1 ist doch Käse, und wie du nun die 2x U.2 ans Mainboard bringst, wirst dir auch noch gut überlegen müssen, speziell hinsichtlich Kostenoptimierung, um die es dir ja geht.
Wenn schon Optane, dann würde ich 2x die 375gb als Mirror machen und dort außer dem OS auch noch die aktivsten VMs/"Dienste" (in welcher Form das nun auch immer läuft) drauf packen.
Ohne Mirror ist ja auch Käse.
Dann bist ziemlich Bulletproof.
Beitrag automatisch zusammengeführt:
Nachtrag:
Weil 1700 scheiße ist, unterstützt es nur eine x8/x8 Bifurication, hier auf 2 Slots aufgeteilt.
Heisst also, du müsstest die 2 Optane 375gb per PCIe auf U.2 Adapter (oben verlinkt) in die unteren PCIe 4.0x4 Slots stecken (was noch nicht mal blöd ist) oder...
1x PCIe Slot per PCIe x4 auf U.2 Adapter und 1x an den MiniSAS per SFF-8654 4i to u.2 Adapter - so würde ich das probieren (dann bleibt dir noch ein PCIe 3.0x4 für ne 10-25g NIC über und beide PCIe x8 "Graka"-Slots).
Ist halt die Frage, ob du das Geld hast. 2x 150€ + 2x 50€ (für Adapter) bist auf ca. 400€ Aufpreis.
Rational fürs Budget:
Alles auf die 2tb und starten (nen Guide lesen obs irgendwelche sinnvollen Tweaks gibt um die Write Amplification gering zu halten). Nach 30 Tagen Betrieb per smartctl -a gucken, wie viel TBW du gesammelt hast und hochrechnen, ob das okay is. If not, Optane 375 Mirror nachrüsten.
Da 2x 16gb M10 reinpopeln ist Unsinn. Am ehesten noch über PCIe x4 zu M.2 Adapter (brauchst beide Slots), weil sonst kannst du nur 1x so eine popelige PCIe 3.0x2 Optane in einen PCIe 5.0x8 Slot stecken, was eher scheiße ist.
Ich hab nix Stichhaltiges gefunden, warum es tatsächlich ein Problem sein sollte, nur so allgemeinen wertlosen Blabla (so ähnlich wie dieses übliche Realtek und 2.5G bashing).
Warum ich daran zweifel?
Es wird immer gesagt, man soll trennen, um das VM drive zu schonen. Okay. Dann wird aber fürs OS irgend ne popelige SSD (auch hinsichtlich Qualität popelig, nicht nur bezügl. Größe) genommen, weils angeblich nicht schnell sein muss und nix können muss.
So Sherlock, wenns nicht groß sein muss und auch nix können muss, warum soll mans dann nicht sharen? Konnte noch nix diesbezüglich finden.
Vielleicht können @Supaman oder @gea eine Wortspende zu diesem (kursiven) Absatz abgeben.
Ich würde ZFS OS Pool und ZFS Datenpool trennen weil
- bei Neuinstallation kann es nicht passieren dass man die Systemplatte mit Daten "aus Versehen" neu initialisiert
- man kann den Datenpool einfacher auf ein anderes System verschieben, replizieren oder sichern
- man kann auf dem Datenpool andere dafaults setzen als für den OS Pool. Die werden dann auf datasets darunter vererbt.
Bei Proxmox AiO würde ich es so halten (Optane 48x für OS und VMs)
- ein ZFS Dateisystem mit sync enabled z.B. rpool/vm für VMs (schnelle NVMe mit plp, Optane 48x ist das allerfeinste dafür)
- einen separaten Datenpool für sonstige Daten und backups (HD oder Hybridpool mit Flash special vdev)
Du musst mir das genauer erklären. Wenn ich das mit dem Installer "normal" intalliere, bekomm ich doch mal das Pool fürs OS, den Rest kann ich dann als LVM-thin verwalten, oder nicht? Und in diesem LVM-thin kann ich dann Speicher zuweisen und verwenden, wie das der Gast haben möchte? Und... kann man nicht ZFS Pools auch noch erstellen drauf? Oder sind das Datasets im gleichen Pool? Ist das LVM-thin ontop auf dem Pool?
Verwirrt mich.
Ein ZFS Pool benötigt ein eigenes Blockdevice, also eine eigene Platte. Der ZFS Pool hat Pool (zpool get all) und ZFS (zfs get all) Eigenschaften. Unter dem Pool kann man dann Datasets (Dateisysteme, zvols und Snaps) anlegen. Für diese kann man nur zfs Eigenschaften, nicht zpool Eigenschaften ändern.
Wenn man Proxmox installiert sollte man das OS auf einem ZFS Pool installieren (wegen der massiven Vorteile gegenüber einem in die Jahre gekommenen ext4). Den Speicherort für VMs sollte man in Proxmox als "ZFS Pool" verwalten. Der Begriff ist da irreführend weil das kann ein echter ZFS Pool z.B. tank oder ein ZFS Dateisystem z.B. tank/vm sein. Darauf legt man dann die VMs ab. Deren virtuellen Platten sind dann keine einfachen Dateien sondern ZFS zvols die man mit zfs list anzeigen oder per ZFS replizieren kann.
"Default" bei Proxmox war bisher OS auf ext4 und VMs auf LVM als Dateien. OS auf ZFS und VMs mit zvols auf ZFS hat entscheidende Vorteile,
Ah, das ist also diese Home-Friendly Konfiguration, weil man um die Write Amplification rum kommt und so.
Beitrag automatisch zusammengeführt:
Nachtrag:
Noch eine Frage, mal abseits der Integritäts- und Snapshot Funktionen vom ZFS, wie sieht es real bei Proxmox @ ZFS (wie du das beschrieben hast) mit einem Leistungsgewinn durch den ARC aus? Wenn man da "genug" Speicher zuweist, müssten doch die meist genutzten Systemdateien der VMs im ARC liegen... funktioniert das so?
750GB Varianten gibt es bereits für 200€ das Stück.. aber da komm ich mit meinem Speicherplatzbedarf nicht hin den ich brauchen werde.
Wenn ich mich jedoch darauf beschränke nur 2 Docker VMs laufen zu lassen und die Windows VMs auf die 2TB auslagere, sähe das ganze sicherlich besser aus..
Bash:
lorem@Ipsum:~# docker system df
TYPE TOTAL ACTIVE SIZE RECLAIMABLE
Images 101 76 48.4GB 11.92GB (24%)
Containers 78 49 2.902GB 1.304GB (44%)
Local Volumes 106 10 2.104GB 622.3MB (29%)
Build Cache 17 0 1.926MB 1.926MB
Hier mal eine aktuelle Ausgabe der Docker Container die aktuell nativ (ohne VM Host) auf meiner Synology laufen..
Heisst also, du müsstest die 2 Optane 375gb per PCIe auf U.2 Adapter (oben verlinkt) in die unteren PCIe 4.0x4 Slots stecken (was noch nicht mal blöd ist) oder...
1x PCIe Slot per PCIe x4 auf U.2 Adapter und 1x an den MiniSAS per SFF-8654 4i to u.2 Adapter - so würde ich das probieren (dann bleibt dir noch ein PCIe 3.0x4 für ne 10-25g NIC über und beide PCIe x8 "Graka"-Slots).
Rational fürs Budget:
Alles auf die 2tb und starten (nen Guide lesen obs irgendwelche sinnvollen Tweaks gibt um die Write Amplification gering zu halten). Nach 30 Tagen Betrieb per smartctl -a gucken, wie viel TBW du gesammelt hast und hochrechnen, ob das okay is. If not, Optane 375 Mirror nachrüsten.
Ich habe gerade mal auf meiner Synology den Cache angeschaut. Bei 16.500 Stunden (1,9 Jahre) hat diese aktuell 188TBW von 220 TB geschrieben. Meine Crucial P3 1TB (ct1000p3ssd8) würde bei gleichbleibender Nutzung noch 3-6 Monate halten bevor Sie offiziell ihr TBW erreicht hat.. Laut SMART Werten ist sie zu 37% verbraucht..
AM5 ist besser in der Hinsicht mit x4x4x4x4 ... und ECC auch auch nicht so das Thema.
7700+B850 ist wäre schon ganz preiswert und so... ist halt das mit der iGPU und so.
Egal wie du es drehst und wendest, irgendwo fällt immer ein Schatten hin.
Genau, 2 Wege, so hältst du nämlich 1x PCIe x4 (mech. 16) frei für ne Netzwerkkarte zum Beispiel (dafür reichen ja 4 Lanes allemal).
Nein, an den HBA kannst du das nicht anschließen (der kann nämlich kein nvme). Das W680 hat selbst einen Slim-SAS der PCIe 4.0x4 oder SATAx4 kann, wenn ich das richtig verstehe. Man hat dem W680 Board statt nem M.2 einen Mini-SAS gegeben, wenns wahr ist, wenn ich das richtig verstehe. https://www.asus.com/de/motherboards-components/motherboards/workstation/pro-ws-w680-ace/techspec/ strg+f "slimsas"
Das müsste theoretisch gehen, aber... tja.
Genau, falls das mit dem Slim-SAS nicht klappt...
Aber würde das mit dem Slim-SAS bevorzugen, da du so den PCIe Slot frei hältst für HBA oder NIC. Den Slim-SAS kann man sonst kaum sinnvoll nutzen mit "Heim-Kram", U.2 ist wsl. das Sinnvollste, was man da anstecken kann.
Dein PCIe-Slot kann nur PCIe 5.0 (oder eben 4.0 oder 3.0) x8.
Der stellt einen Block mit 8 Lanes zur Verfügung.
Für die Karte bräuchtest du aber 2 Blöcke zu 4 Lanes.
Mit dieser Karte funktioniert nur das erste Laufwerk, das 2. wird dann nicht erkannt.
Eine AM4 CPU könnte x4x4x4x4 oder x8x4x4 und könnte eben diese 2 Blocks mit 4 Lanes machen, und so die 2 Laufwerke erkennen.
Ich habe gerade mal auf meiner Synology den Cache angeschaut. Bei 16.500 Stunden (1,9 Jahre) hat diese aktuell 188TBW von 220 TB geschrieben. Meine Crucial P3 1TB (ct1000p3ssd8) würde bei gleichbleibender Nutzung noch 3-6 Monate halten bevor Sie offiziell ihr TBW erreicht hat.. Laut SMART Werten ist sie zu 37% verbraucht..
Hm, gar nicht so wenig... was verwendet Syno? btrfs? ext4?
Wobei das Syno sicher swappt wie sau.
Vllt. doch die 750er Optanes mit oben erwähnten Adaptergebastel?
Ich tu mir schwer mit Empfehlungen, bin da selber nicht so... sicher drin. Ich spiel momentan mit dem Gedanken einfach mit ext4 + lvm-thin zu arbeiten...
Nutze seit jeher für OS, Filer und VMs getrennte Datenträger. Bin allerdings eher bei der vSphere Fraktion. So kann ich bei einer Nacht- und Nebelaktion auch nicht aus versehen was überschreiben. Wird neu aufgesetzt, ziehe ich alle Datenträger die direkt am Board hängen aus der Backplane. Wüsste auch nicht, wieso es fürs OS eine Optane bräuchte.
Bei einer Optane 48X für OS und VMs hätte ich wenig Bauchschmerzen bei einem Basic Pool bei töglichen Backups der VMs
ps
ext + lvm:
- keine bitrot protection (keine Prüfsummen)
- kein unbeschädigtes Dateisystem nach Absturz beim Schreiben
- kein sicheres sync write
- keine Snap Versionierung ohne Kopieren oder anfänglichem Platzverbrauch
Ist wie Autokauf, ohne neumodisches Zeugs wie ABS und ESP,
Sicherheitsgurt und Nackenstütze muss reichen, Oldtimer halt
Dein PCIe-Slot kann nur PCIe 5.0 (oder eben 4.0 oder 3.0) x8.
Der stellt einen Block mit 8 Lanes zur Verfügung.
Für die Karte bräuchtest du aber 2 Blöcke zu 4 Lanes.
Mit dieser Karte funktioniert nur das erste Laufwerk, das 2. wird dann nicht erkannt.
Eine AM4 CPU könnte x4x4x4x4 oder x8x4x4 und könnte eben diese 2 Blocks mit 4 Lanes machen, und so die 2 Laufwerke erkennen.
Bei dem ganzen Thema habe ich die HBA völlig außer acht gelassen. Mein Gehäuse hat 12 Slots, 8 Platten sollten für den Anfang möglich sein. Sämtliche Karten benötigen 8x Lanes (oder ich nutze 2 Karten mit 4x Lanes und hätte so "nur" 8 Platten in Summe, was mir völlig reichen würde).
Ich habe hier mal die Tabelle zusammen gefasst, so wie ich es verstehe was möglich wäre..
Ja, so irgendwie sollte das gehn.
Hast das W680 schon? Ich finde ja diese IPMI Karte schrecklich (ist die dabei bei den 250€?).
M.2 auf U.2 ist irgendwie etwas meh, für PCIe 3.0 sollte das aber gehen. Wird wsl. auch gehn. Musst aber trotzdem aufpassen, je länger PCIe ist und je schneller und je chinesischer die Adapter, desto schlimmer wirds.
Diese PCIe Addin-Cards sind sicher noch am besten, gefolgt vom Slim-SAS, M.2 würd ich zum Schluss nehmen.
Ich versteh nicht, warum du nen 4i HBA willst... ein 8i kostet das gleiche u nd selbst nen 9400-16i bekommst um 100€ (braucht auch nicht mehr Strom). Würd das SlimSAS nicht für SATA verwenden.
Vorsicht! Das ist kein echte Optane SSD, sondern lediglich eine NVME-SSD mit Optane Cache. Dazu noch über getrennte Lanes herausgeführt.
Bedeutet: Der Chipsatz+Treiber muss sowas explizit unterstützen.