[Sammelthread] Proxmox Stammtisch

Ich hab aber nur den einen Server.

Also... ich hab schon noch nen "Backup-Server" hier (MC12LE0 mit 5650G und 64gb Luxus-ECC), aber den will ich eigetnlich nicht regulär laufen lassen müssen...
Was meinst du mit "regulär"? Dauerhaft? Das ließe sich vermeiden.

Bei mir ist auf meinem alten Xeon-Server der Proxmox Backup Server direkt auf dem Blech installiert.

Für die Zeitsteuerung habe ich einen Smartplug. In meinem Falle ein Fritz!Smart Energy 200. Die schaltet den Backupserver Donnerstag Abend für max 48 h an. Zusätzlich gibt es eine Regel, die den Strom bei unter 10 W abschaltet.

Das Backup läuft dann kurz nach dem Anschalten des Backupservers los. Beim Beenden des Backups kriege ich eine Backupinfo per Mail.

Für den Shutdown des Backupservers habe ich ein Hook-Script /usr/local/bin/vzdump-hook-script auf dem PVE-Host eingerichtet und in die /etc/pve/jobs.cfg eingehängt. Das logged sich per ssh auf dem Backupserver ein und fährt ihn nach dem Backup herunter. Kurze Zeit später schaltet der Smartplug den Strom komplett ab.

Funktioniert tadellos. Gerade gegenüber den quasi nicht vorhandenen Backupmitteln bei esx finde ich das Proxmoxbackup geradezu sensationell. Für knapp 19 TB braucht das Backup typischerweise zwischen 40 Minuten und 4 Stunden.

Wenn man das so betreibt, muss man die Garbage-Collection ab- und an manuell durchführen. Das sollte man dann außerhalb der Schaltzeiten machen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was meinst du mit "regulär"? Dauerhaft? Das ließe sich vermeiden.
Ne, is meine Test und Spielgurke, bin mir noch nicht sicher, was ich damit mach.
Muss mir das noch überlegen... mir ist schon klar, dass man nur für die Zeit des Backup Jobs hochfahren kann. Mir wärs lieber, ich bräuchte den "Backupserver" gar nicht, mal sehn, wie ich mache.

Wichtig sind eh nur die Daten im NAS, der Rest ist Bequemlichkeit.
Funktioniert tadellos.
Elegante / tadellose Lösung.
 
Guten Abend :)
ich teste gerade Proxmox auf einer alten Maschine aus. Später soll es ein eigener (gebrauchter) Mini-PC a'la i5/R5 als pve1 sein.

Als debian VMs möchte ich nach aktuellen Stand folgenden Ausbau erzielen:
VM1 Pihole oder AdGuard ~1GB RAM + 1 Core
VM2 Nextcloud + Immich ~8GB RAM + 4 Core
VM3 homeassistant ~1GB RAM + 1 Core *kommt später
VM4 Monitoring/checkmk ~1 GB RAM + 1 Core *kommt später
VM7 Firewall pfsense ~3 GB RAM + 2 Core *kommt später
VM6 DATEN/Backup VM ~2 GB RAM + 1 Core

Ergänzung VM6 = Ablage von Kamerastreams und Backups, die ich aber zusätzlich extern Backuppen würde.
Der Host hätte als LocalStorage eine 256 GB SSD, sowie Anfangs 16 GB RAM, kein ECC. Als Weiteren Storage eine 1 TB SSD per ZFS, auf dem die VM Images, Snapshots, Backups landen. Nutzung Privat, kein Rechenzentrum und 1 Benutzer.


Konkret hätte ich mal ein paar Fragen mit der Bitte um Einschätzung :)
1. "kleine Ausfallsicherheit"

Würde bei pve1 ein RAID1 Setup aus 2x SSD klappen oder sinnvoll sein?

2. ZFS
Bei ZFS kann man so wie es ausschaut jede x-beliebige Festplatten zu einem "Pool" zusammenschustern, plus Parität dazu. Ist das sinnvoll - oder nutzt man dann doch eher ein lvm?

3. Clustern:
Ich möchte neben dem pve1 ein pve2 einbinden. pve2 soll ein RPi 4 oder 5 werden, das nur nebenbei herläuft und keine VMs laufen. Ich möchte die Proxmox-Instanz und seine Config als Gesamtes am Leben halten, wenn mal pve1 defekt sein sollte. Es soll nur als Replizierung der VMs auf der SSD dienen. Lassen sich dadurch auch die Backups mit rüberspiegeln? Mir geht es nicht um Redundanz. Wenn pve1 ausfällt können auch mal die Maschinen so lange aus bleiben, bis ich Hardware-Ersatz beschafft habe. Würde das soweit funktionieren?

4. Firewall / Netzwerk:
Mit dem Thema FW bin ich noch Neuling, da müsste ich mich schon noch mehr einlesen. Aber grob hatte ich daran gedacht, eine pfsense als VM zu betreiben und darüber den ganzen Verkehr zu leiten. Mit einem managed Switch und VLANs müsste das doch gehen oder? Das Zauberwort müsste virtuelle Switch heißen oder? Darüber kann ich dann Netze "virtuell" trennen, sogar eine DMZ oder? Oder ist es besser durch physikalische Trennung durch separate Netzwerkkarten? z.B. NIC1 = Tier1, NIC2 = Tier2, NIC3 = Tier3?
Und wie würde das ganze von der Performance aussehen, wenn so eine FW "virtuell" läuft?

5. Umzug neue Hardware.
Wie läuft das denn später einmal ab, wenn ich pve1 ersetze. Installiere ich Proxmox einfach auf einem "pve3", joine dem Cluster und migriere alle VMS dorthin? pve1 anschließend abschalten. Richtig so? Wird dann pve2 zu pve und pve3 zu pve2?

6. OS
Habt ihr ggf. bessere Alternativen als Debian, die möglicherweise weniger Ressourcen brauchen und noch stabiler/sicherer sind? --> Alpine ist für mich keine Wahl :)

7. LVM:
Mein lokales LVM von pve1 hat aktuell eine 128GB SSD verbaut. Es sind nur noch 15 GB frei, obwohl auf ihr keine Backups und keine VMs/Container liegen. Wie ist die große Speichernutzung zu erklären?

8. Hardware:
Benötigt der Host eigentlich eine Grafikkarte / iGPU, damit Desktop-Umgebungen laufen, oder kann das unter Linux auch über die CPU emuliert werden? Ich peile nur zu Tests mal eine grafische Oberfläche an. Würdet ihr besondere Hardwareempfehlungen geben, die als 24/7 sehr stromsparend und performant genug sind?

9. Sonstige
Gibt es wichtige Themen, die ich bisher vergessen habe ? :)

Vielen Dank schonmal für eure Einschätzungen.
 
Benötigt der Host eigentlich eine Grafikkarte / iGPU, damit Desktop-Umgebungen laufen, oder kann das unter Linux auch über die CPU emuliert werden? Ich peile nur zu Tests mal eine grafische Oberfläche an. Würdet ihr besondere Hardwareempfehlungen geben, die als 24/7 sehr stromsparend und performant genug sind?
No, das wird Software gerendert idR. Ist halt je nachdem mäßig performant / "clicky"... da gibts paar unterschiedliche Möglichkeiten, das Default mit Spice ist imho nicht so schlecht für so Linux standard Desktops.. darfst halt nur X11 verwenden und dir kein Wayland erwarten.
Gibt zwar noch so Späße wie virtual-GL (wenn der Host irgend eine Grafikeinheit hat, die OpenGL kann), was mitunter erstaunlich gut funktioniert, aber so wirklich gepflegt sind diese Projekte alle nicht, meine ich... oder doch?

Über Spice remote was auf ner VM machen mit einem normalen Desktop (KDE, XFCE...) geht schon. Mitunter schlecht skalierbar, aber das sind ja schon fast Luxusprobleme...

Allerdings, so ganz ohne GPU kann mitunter unangenehm sein bezügl. Bios-Einstellungen und sowas... zumindest so ne AST2500 Grafikeinheit ausm IPMI ist schon nett...
So ganz ohne, richtig headless?
Taugt dafür eigentlich dieser Intel Fernwartungskram?
Bei ZFS kann man so wie es ausschaut jede x-beliebige Festplatten zu einem "Pool" zusammenschustern, plus Parität dazu. Ist das sinnvoll - oder nutzt man dann doch eher ein lvm?
Das ist eher Unraid. Bei ZFS kannst auch "ziemlich beliebig" arbeiten, aber nicht ganz so dirty... ein Minimum an Plan sollte dann doch dahinter sein.
Mit ZFS kannst erstmal Mirror ~~ Raid1 machen, Z1 ~~ Raid5, Z2 ~~ Raid6 und natürlich auch nen Stripe ~ Raid0 und dann noch diversen Sonderkram, der tieferer Einarbeitung in das Thema bedarf, für dich aber imho eher uninteressant sein wird.
Ich möchte die Proxmox-Instanz und seine Config als Gesamtes am Leben halten
Hm, spannender Ansatz.
 
Nur kurz überflogen. Cluster aus 2 Knoten geht nicht, wegen fehlendem Quorum (Thema Split Brain). Ich weiss auch gar nicht wie der Stand um arm64 Repos bei PVE aktuell ist, ich glaube aber das gibts noch gar nicht. Und warum immer für alles VMs? Die Container sind wesentlich flexibler mit weniger (quasi fast gar keinem) Overhead. Und ZFS ist schon eins der stabilsten und gleichzeitig performantesten Systeme, braucht nur etwas RAM dafür (ARC, ....). Ist quasi mdraid/lvm+filesystem in einem.

Guten Morgen ! ;)
 
Mini-PC a'la i5/R5
Ich hab ein Minisforum N5 mit R7. Klar, ist ein NAS und läuft auch als solches, aber eben mit PVE. Und das rockt.
Als debian VMs möchte ich nach aktuellen Stand folgenden Ausbau erzielen
Ich mach so was alles mit LXC, die sind wahnsinng schlank. Bei PVE-Upgrades muß man immer etwas "langsamer" sein und die einschlägigen Foren beobachten, insbesondere wenn containerd dran ist. Aber mit VMs ist ja auch nicht garantiert, daß es keine Probleme gibt, wenn z.B. der Hypervisor 'n Update bekommt.
1. "kleine Ausfallsicherheit"
Das ist m.E. immer ok.
Das nutz ich hier wenn immer es geht. Sogar für eine einzelne HD in einem Host. Allerdings, die (vorerst) 16 GB RAM bei Dir, das ist dann etwas arg dünn.
Cluster lassen sich in PVE nur sehr umständlich wieder auflösen. Zudem schreibt der Dienst so exzessiv auf die Boot-Disks, daß der Wear-Level bei Consumer-SSD sichtbar schnell abnimmt. Also ich hab hier zwei Hosts ungeclustert. Verschieben von VMs geht dann halt nur cold mit Backup-Restore. Mir langt das, kommt selten vor.
4. Firewall / Netzwerk
Bei 'ner virtuellen FW stellt sich m.E. sofort die Frage nach der Ausfallsicherheit.
5. Umzug neue Hardware
Wie gesagt... Cluster extra nur dafür? Ist da m.E. umständlich und Backup-Restore sehr einfach.
PVE ist sowieso Debian, meine LXC auch.
Ich hab da keine Lx-VMs mit GUI. "Nur" Windows 11/2K25 und das geht super mit ordinärem RDP.
pve2 soll ein RPi 4 oder 5 werden
RasPi ist ARM und dafür gibt's kein PVE.
Nur irgendwelche älteren Versionen von irgendwem angepaßt. Ich laß von so was die Finger.
 
Das nutz ich hier wenn immer es geht. Sogar für eine einzelne HD in einem Host. Allerdings, die (vorerst) 16 GB RAM bei Dir, das ist dann etwas arg dünn.
Haja, das RAM/ARC Thema wird imho übertrieben. Gerade in der Anwendung und als Einzeluser... naja.
Diese ZFS Guidelines sind ja eher ausm Datacenter mit einem ganz anderen Zugriffsverhalten und wsl. meist aus der HDD Ära.
Ich tät mir da nix antun, einfach machen. Aktuell verwendet Proxmox imho 10% für den ARC, wäre halt bei 16gb so 1,6gb, imho kann man das schon machen... die Anforderungen sind ja überschaubar.
 
Den ARC kann man ja auch anpassen. Seh da in meinem HomeSetup auch kein Problem, mein alter Microsver G8 mit 16GB RAM läuft auch immer noch hervorragend beim Kollegen mit x Containern. LXC statt KVM spart halt auch gut RAM. Das KSM für QEMU kann greifen, muss aber nicht.
 
Ich stell den ARC-Cache bei der Installation immer auf die geringstmögliche Größe, läuft.

Vielen Dank schonmal für eure Einschätzungen.
Du überhebst dich, viel zu viel Neues auf einmal. Finde erst mal raus, was Du wirklich willst und dann in kleinen Schritten vorwärts gehen.
 
Cluster lassen sich in PVE nur sehr umständlich wieder auflösen. Zudem schreibt der Dienst so exzessiv auf die Boot-Disks, daß der Wear-Level bei Consumer-SSD sichtbar schnell abnimmt. Also ich hab hier zwei Hosts ungeclustert. Verschieben von VMs geht dann halt nur cold mit Backup-Restore. Mir langt das, kommt selten vor.
Darauf wollte ich auch noch eingehen, das ist wsl. das total wirksame Argument gegen sowas.

Was allerdings mit dem Pi ginge wäre ein SMB/NFS Target für den PBS (Prox Backup Server) zu erstellen, von dem man im Fall des Falles restoren könnte... oder? Vielleicht die bessere Wahl? Dort muss dann auch kein Proxmox laufen sondern nur irgend ein ARM Linux, welches nen Share macht?
Weiteres dazu findest sich in diesem Thread in meinen Fragen (bzw. den Antworten darauf) eine Seite zuvor.
Dürfte eigentlich ganz sparsam möglich sein?
 
Verschieben von VMs geht dann halt nur cold mit Backup-Restore.
Oder mit dem PDM. Da ich nur LXC nutze, kann ich gerade nicht sagen, was da die Optionen sind.
Screenshot 2026-02-23 at 11-02-55 datacenter-manager - Proxmox Datacenter Manager.png
 
Was allerdings mit dem Pi ginge wäre ein SMB/NFS Target für den PBS (Prox Backup Server) zu erstellen, von dem man im Fall des Falles restoren könnte... oder? Vielleicht die bessere Wahl? Dort muss dann auch kein Proxmox laufen sondern nur irgend ein ARM Linux, welches nen Share macht?

Korrekt ermittelt. Die vorgehensweise wäre wie folgt: *wieauchimmer* ein SMB/NFS Share anlegen und dieses in PVE unter Storage eintragen. Dann mindestens gelegentlich mal ein Backup nur von der PBS OS Platte machen. Wenn sich z.B. der PVE zerlegt oder neu installiert werden muss: PVE neu installieren, Share eitnragen, PBS rücksichern, VMs rücksichern, fertig.

Und wie schon erwähnt: <falls> Backup Encryption verwendet wird, muss man den Key haben. Wichtig: der Key ist die LANGE Zeile, nicht die paar Zahlen aus der Vorschau. Kann man auch aus der PVE Konfig Datei extrahieren.
 
*wieauchimmer* ein SMB/NFS Share anlegen
Hmh, wie schlecht sind eigentlich diese USB-Netzlaufwerk Funktionen, die einige Router haben? Taugt sowas unter Umständen für diesen Zweck? :hmm:

Mein letzter Versuch mit sowas ist schon lange her (und der Asus Wlan Router ist jetzt auch bald 10 Jahre alt), da war ich eher im kb/s Bereich (war aber auch ein ordinärer USB Stick), sofern sich das Ding nicht aufgehangen hat. :fresse:

Nachtrag:
Ich werde diese Option mal prüfen.
Nachdem mein DSL-LTE-Hybrid Modem/Router-Consumer-Alptraum ohnehin so proprietärer Kack ist, den ich leider nicht druch was ordentliches ersetzen kann, offenbar nen USB Port hat, den man fürn SMB Share verwenden kann, werd ich der Sache mal nachgehen die Tage.
Wäre zumindest ohne wirklich Mehrkosten bzw. Mehraufwand machbar, irgend ein tauglicher Flash Speicher ist sicher auffindbar.
 
Zuletzt bearbeitet:
@pwnbert
Wie schonmal erwähnt, das Backup des PBS muss nicht zwingend tagesaktuell sein, es ist ausreichend, wenn der Datastore konfiguriert ist. Alles andere betrifft nur noch so Sachen wie Prune, GC, Sync etc.

Bedeutet unter dem Strich, das Du auch eine temporäre SMB Freigabe z.B. auf einem Windows System anlegen kannst, das Backup des PBS ohne Datastore belegt < 5GB. Kannst Du auch anschliessend auf USB Stick oder so kopieren, und anschliessend zusammen mit dem temporären Sharre wieder löschen.
 
Danke schonmal für eure Antworten :)

Ich hätte nochmal konkret ein paar Nachfragen:

1. Ist eine normale Consumer SSD mit ZFS "Schreibsicher" auf denen alle VMs/Snapshots/manuelle Backups liegen?

2. Ich würde PBS als zweiten Host einsetzen. Das kann eine "ältere Möhre" mit einer WD Red oder einer SSD sein oder. pve1 würde per Script den PBS "aufwecken", warten bis er pingbar ist und dann die Backup Scripte starten und am Ende per ssh (key) den PBS herunterfahren. Laut ChatGPT soll das kein Problem sein und es werden sogar Beispiele geliefert :) ?

3. Clustern also doch keine gute Idee wegen der hohen Last. Kann man diese LAst irgendwie runterkriegen? Oder ist das bei einer modernen, neuen nicht-QLC SSD eigentlich kein Problem? Ist Ceph immer Bestandteil vom Clustern oder optional einschaltbar? Auch das soll erst ab 10GBit sinnvoll sein, korrekt?

3a. Auch wenn ich backups von den VMS habe, suche ich nach einem Weg meine Proxmox-Konfig zu "sichern". Also welche virtuelle Netzwerke, Einstellungen, etc ich konfiguriert habe. Oder mache ich mir hier wirklich zu viele Gedanken im Falle eines Host-Wechsels durch Defekt? Das Einspielen von Backups der VMs ist ja kein Problem, aber alle anderen Parameter neu einrichten/konfigurieren?
 
1: Dazu ein Beispiel aus der Praxis:
Bildschirmfoto vom 2026-02-24 13-54-18.png
Meine WD Red 1TB M.2 nach ca. 3 Jahren (die hält alle dauerhaft aktiven und mission critical VMs).
Bislang keine Fehler. :fresse:

Dazu die WD Blue (auch 1 TB M.2, aber nur die Windoofs und Spiel-VMs, welche nicht dauerhaft online sind):
Bildschirmfoto vom 2026-02-24 13-58-57.png
Auch hier keine Ausfälle zu erwarten.
*auf Holz klopf*

3a:
/etc/pve sichern.
Damit erschlägst du schonmal 90 % der Konfig.
Wenn du den ganzen /etc sicherst hast du so ziemlich alles.

//Edith:
Zum Spaß noch eine der >4 Jahre alten WD Red SATA-SSDs, welche ich durchgereicht als ZFS Mirror in der TrueNAS VM betreibe, darauf liegen die Daten meiner Wolke (ca. 360 GB) und Gitlab:
Bildschirmfoto vom 2026-02-24 14-10-31.png
 
Zuletzt bearbeitet:
Hallo Boardies,

ich habe ein kleines (für mich großes Problem) was ich nicht lösen kann.
Es geht um die Installation von Nextcloud AIO in einem LXC mit Docker in Verbindung
mit NGINX Proxy Manager.



Was habe ich?

1. für die Nextcloud habe ich eine Unterdomain registriert und den A Record auf meine
auf meine Öffentliche feste IP gesetzt.

2. Nginx Proxy Manager läuft in einem weiteren LXC



Wenn ich nun die Nextcloud AIO installieren will, sagt die Routine immer das der Proxy falsch
konfiguriert ist. (obwohl ich das nach der Beschreibung gemacht habe – also IP des Containers:11000)

Zum Spaß habe ich die Nextcloud mal ohne Proxy installiert (Port 80 und 443 direkt in der Fritzbox
für den Container freigegeben) und es läuft.
Da ich allerdings mehrere Dienste laufen habe, bringt mir das so nichts.
Falls jemand ein ähnliches Setup hat und mir helfen kann, wäre ich sehr dankbar.



Greetz Funne
 
Was hat das mit Proxmox zu tun?

Gar nichts. Das ist ein Problem mit Port Forwarding, Split DNS, oder der Nginx config.
 
Frage an die Proxmox Stromspar Füchse.
Eine frische Debian 13.3 Installation läuft bei mir dank powertop --auto-tune Problemlos im C9 Modus (PkG HW). Die CPU geht auf C10. Unter Proxmox hänge ich jedoch, trotz powertop, bei C3 fest. Die CPU verbraucht im Idle dadurch doppelt so viel Strom und "spicked" auch ab und zu auf 17-20 Watt hoch (Ohne irgendeine VM).

Ich hatte schon Powersave Governor gesetzt. Sowie:
# cat /sys/module/pcie_aspm/parameters/policy
# default performance [powersave] powersupersave


Hat jemand eine Ahnung woran es liegen könnte bzw. wo ansatzwerte wären?
 
Hat jemand eine Idee oder einen Tipp welche Thin Clients mit einer x86 CPU mit PoE laufen? Mein Dell Wyse 5070 braucht 19,5v. Da gibt es keine PoE Splitter. Finde zumindest weder 19,5 noch 20v DC Splitter. Habe zwar gelesen die sollen auch mit 12V laufen, allerdings dann mit geedrosselter Leistung. Das kommt bei dem eh schon schwachen Celereon J nicht in Frage. Das Teil braucht maximal 10W unter Last. Sollte also eigentlich locker mit PoE laufen. Gibt aber leider wie gesagt keine Splitter.

Ich würde meinen Proxmox Home-Server gerne in ein Schrank/Regal stellen, weil von dort sowohl die HmIP RF Antenne als auch die Thread und Zigbee Antennen deutlich besser positioniert wären. LAN Dongle kommen nicht in Frage, weil es das von HmIP nicht gibt.

Viuelleicht hat ja jemand eine Idee. Wäre natürlich auch bereit einen neuen Thin CLient zu kaufen, solange der mit PoE betreibar ist.
 

Dise nix gud?

Ansonsten such dir nen beliebigen 12 V oder 24 V PoE-Splitter und flansch nen Ali Buck-Converter dran und stell den auf 20 V?

Oder son Ding (gibts direkt für 19 V):
 
Bei mir läuft seid 3Jahren eine 500GB WD Red im Homeserver, die aber einiges mehr abbekommen hat :d Hierauf liegen alle Systeme
Bisher auch keine Probleme. Dafür dass sie 1000TBW hat wundert es mich, dass 54TB schon 50% bedeuten...
1772133057868.png


Habe noch eine Intel DC S4500 960GB SATA SSD im Homeserver laufen, die seid ein paar Jahren nur noch als Datengrab dient.
Vorher lief sie als OS/VM Disk im alten Homeserver mit einem J3455.
Die DC4500 hat 420(!)TB Writes in 6.5 Jahren und wird mit 7% Waerout angegeben. TBW ist 1860.
1772133510166.png





Wenn man seine Proxmox Config sichern möchte ist Proxsave auch eine Möglichkeit.
 
Interessant. Wie kommst auf die 420TB? Ist nicht Host_Writes_32MiB das richtige? 4703877×32 = 150524064 MiB = 157 TB?

Hab hier eine über 10 Jahre Power-On-Hours INTEL SSDSC2BB080G4 mit 46% Wearout. Die hat aber auch nur Host_Writes_32MiB = 2579314 🤷‍♂️

Egal, läuft.
 
Bisher auch keine Probleme. Dafür dass sie 1000TBW hat wundert es mich, dass 54TB schon 50% bedeuten...
Anhang anzeigen 1188212

Hier sind schon 275 TB geschrieben, nicht 54TB . Also netto 27-28%. Da hast Dich in der Zeile verlesen vmtl.
Ausserdem: das sind die Host-Nutzdaten ; wenn Du dann noch potentielle Write-Amplification dazunimmst, also die Summe der Nand-Writes, dann könnte das ggf. schon Richtung 50% gehen.

Bei der DC S4500 scheint der Wear-Indicator auf den Hostwrites zu basieren. also den 4703877 Pages => das wären rund 143-144 TB . In Relation zu den 1860 gäbe das 7,7% also recht gut was der Wearindicator sagt.


Mich würde nicht wundern, wenn das bei der WD (Consumer-SSD) und Intel (DC-SSD) unterschiedlich (einmal Nandwrites, einmal Hostwrites) gerechnet würde. DC-SSDs sind robuster und typischerweise mit mehr Overprovisioning ausgerüstet, so dass Intel hier evtl. Nutzdaten-TBW angibt, während WD evtl. auf gesamte Nandwrites sich bezieht (wegen Gewährleistung oder Garantie für Endkunden).
 
Zuletzt bearbeitet:
Interessant. Wie kommst auf die 420TB? Ist nicht Host_Writes_32MiB das richtige? 4703877×32 = 150524064 MiB = 157 TB?
Ich habe auf Basis der NAND_writes_32Mib mit 13816400 gerechnet.
Be den Host_writes hast du mit den 157TB recht.

Hier sind schon 275 TB geschrieben, nicht 54TB . Also netto 27-28%. Da hast Dich in der Zeile verlesen vmtl.
Ausserdem: das sind die Host-Nutzdaten ; wenn Du dann noch potentielle Write-Amplification dazunimmst, also die Summe der Nand-Writes, dann könnte das ggf. schon Richtung 50% gehen.
Du hast recht, falsche Zeile genommen:oops:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh