[Sammelthread] 10Gbit Homenetzwerk

Mir wäre auf entsprechend potenten Maschinen (ich hab hier nur Rechner >Zen 3, alles Singlethread entsprechend stark) nichts merkbares aufgefallen.

Wobei mein Z1+SVDEV Verbund auch zu langsam ist, um an die 10G Grenze (bzw. die ~8.5G Grenze wegen dem 10G USB Port) zu erreichen.
..



Z2 halte ich eigentlich für unnötig/übertrieben, da ein HDD Ausfall daheim eigentlich die totale Seltenheit ist. Das SVDEV ist auch "nur" ein Mirror (und wirds erstmal bleiben), das ist ja auch so eine Sache... ob da ein Z2 so viel mehr Sicherheit bringt?
..

Drei Anmerkungen:
Auf einem Special Vdev liegen je nach Einstellung Metadaten, small files oder alle Dateien eines Dateisystems. In letzterem Fall ist der Zugriff auf den Pool mit special vdev NVMe so schnell, dass man ein 25-100G Netz mit RDMA braucht um das übers Netz zu bekommen.

Z2 mit vielen und großen Platten läßt einen bei einem Ausfall erheblich besser schlafen. Und so extrem selten ist das auch nicht, im Schnitt fallen 3-5% der Platten pro Jahr aus, mehr wenn sie älter werden.

Spezial Vdev geht aktuell nur als Mirror, Raid-Z Special Vdev werden kommen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gemeint war, dass das SVDEV in dem Fall nicht doppelt-redundant (3x Mirror) ist (wie ein Z2).

Ich könnt freilich ein Dataset aufs Pool machen, welches nur im SVDEV liegt für Testzwecke, hatte aber bisher kein Bock drauf... da müsste ich mich mal wieder mit den TrueNAS ACLs beschäftigen. :rolleyes:
 
Gemeint war, dass das SVDEV in dem Fall nicht doppelt-redundant (3x Mirror) ist (wie ein Z2).

Ich könnt freilich ein Dataset aufs Pool machen, welches nur im SVDEV liegt für Testzwecke, hatte aber bisher kein Bock drauf... da müsste ich mich mal wieder mit den TrueNAS ACLs beschäftigen. :rolleyes:
Ein Mirror aus zwei Platten hat wohl eine ähnliche Wahrscheinlichkeit eines Totalausfalls wie ein Raid-Z2 aus sehr viel mehr Platten. Ein 3x Special vdev kann man machen wenn es sehr kritische Daten sind, dann ist aber Backup der bessere Ausweg

Alle Daten eines datasets auf Special Vdev erhält man wenn man da recsize <= small block size einstellt, hat nichts mit ACL zu tun.
 
Logisch, so schlau bin ich dann doch, aber für Test-Dataset muss/will ich mir ja nen neuen Share machen. :d
 
dup dup dup.... zu viel Bullshit gelesen.

Wie ist das eigentlich mit SMB Multichannel, geht das "einseitig"?

Also, ein Switch, 8x 2,5Gbit, 2x 10Gbit... NAS und Workstation hängen am 10Gbit.
Der Backupserver, ein MC12LE0 hängt momentan mit 2.5 Gbit dran... ein paar Plätze könnte ich ja entbehren (das BMC/KVM kann man ja auch über einen "Hilfsswitch" laufen lassen)...
Also entweder eine 2. USB 2.5 Gbit NIC wäre kostengünstig und PCIe-schonend drin, mit 4-5 Gbit wäre man dann allemal schneller als das HDD-Pool im Backupserver.

Ist sowas einrichtbar ohne Managed Switch / VLAN bzw. benötigen die NICs dafür eine spezielle Unterstützung?


Erstmal unter Proxmox.... oder TrueNAS (per USB Passthrough)... eigentlich egal, Proxmox ist da wsl. flexibler.


Nachtrag:
Soso, bei den "schnelleren" NICs muss also receive side scaling aktiviert sein/werden, damit diese mehrere Verbindungen aufmachen können... also die 10G Nic braucht RSS damit sie mehrere Verbindungen macht, damit auch jede der empfangenden Mutlichannel-NICs auch eine Verbindung abbekommt... hmhmh.. ja?
 
Zuletzt bearbeitet:
Unter Proxmox wäre ksmbd statt SAMBA ein Option.
Soll bis zu 30% schneller sein, Multipath wird das kaum so können. In beiden Fällen sind Jumboftames etwas was extra Performance bringt. Jumboframes müssen aber im Server, im Client und in den Switches (da plus vlan tags) aktiviert sein.
 
Ich meine mal (vor langer Zeit) gelesen zu haben, dass es nur mit gleichen Geschwindigkeiten funktioniert, also 5*1Gbit zu 5*1Gbit geht, aber nicht 5*1Gbit zu 1*5Gbit. Aber in wie weit das noch stimmt und was für Linux gilt, kann ich nicht sagen. Heutzutage nutze ich lieber Direktverbindungen, früher hab ich das unter Windows aber gerne mit 1Gbit genutzt. An spezielle Voraussetzungen kann ich mich nicht (mehr) erinnern. Alles einfach an den selben Switch anschließen und per DHCP die Adressen bekommen hat für mich damals gereicht.
RSS ist bei mir eher mal gerne ein Problem mit den zusätzlichen Direktverbindungen unter Windows...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh