[Sammelthread] 10Gbit Homenetzwerk

Mir wäre auf entsprechend potenten Maschinen (ich hab hier nur Rechner >Zen 3, alles Singlethread entsprechend stark) nichts merkbares aufgefallen.

Wobei mein Z1+SVDEV Verbund auch zu langsam ist, um an die 10G Grenze (bzw. die ~8.5G Grenze wegen dem 10G USB Port) zu erreichen.
..



Z2 halte ich eigentlich für unnötig/übertrieben, da ein HDD Ausfall daheim eigentlich die totale Seltenheit ist. Das SVDEV ist auch "nur" ein Mirror (und wirds erstmal bleiben), das ist ja auch so eine Sache... ob da ein Z2 so viel mehr Sicherheit bringt?
..

Drei Anmerkungen:
Auf einem Special Vdev liegen je nach Einstellung Metadaten, small files oder alle Dateien eines Dateisystems. In letzterem Fall ist der Zugriff auf den Pool mit special vdev NVMe so schnell, dass man ein 25-100G Netz mit RDMA braucht um das übers Netz zu bekommen.

Z2 mit vielen und großen Platten läßt einen bei einem Ausfall erheblich besser schlafen. Und so extrem selten ist das auch nicht, im Schnitt fallen 3-5% der Platten pro Jahr aus, mehr wenn sie älter werden.

Spezial Vdev geht aktuell nur als Mirror, Raid-Z Special Vdev werden kommen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gemeint war, dass das SVDEV in dem Fall nicht doppelt-redundant (3x Mirror) ist (wie ein Z2).

Ich könnt freilich ein Dataset aufs Pool machen, welches nur im SVDEV liegt für Testzwecke, hatte aber bisher kein Bock drauf... da müsste ich mich mal wieder mit den TrueNAS ACLs beschäftigen. :rolleyes:
 
Gemeint war, dass das SVDEV in dem Fall nicht doppelt-redundant (3x Mirror) ist (wie ein Z2).

Ich könnt freilich ein Dataset aufs Pool machen, welches nur im SVDEV liegt für Testzwecke, hatte aber bisher kein Bock drauf... da müsste ich mich mal wieder mit den TrueNAS ACLs beschäftigen. :rolleyes:
Ein Mirror aus zwei Platten hat wohl eine ähnliche Wahrscheinlichkeit eines Totalausfalls wie ein Raid-Z2 aus sehr viel mehr Platten. Ein 3x Special vdev kann man machen wenn es sehr kritische Daten sind, dann ist aber Backup der bessere Ausweg

Alle Daten eines datasets auf Special Vdev erhält man wenn man da recsize <= small block size einstellt, hat nichts mit ACL zu tun.
 
Logisch, so schlau bin ich dann doch, aber für Test-Dataset muss/will ich mir ja nen neuen Share machen. :d
 
dup dup dup.... zu viel Bullshit gelesen.

Wie ist das eigentlich mit SMB Multichannel, geht das "einseitig"?

Also, ein Switch, 8x 2,5Gbit, 2x 10Gbit... NAS und Workstation hängen am 10Gbit.
Der Backupserver, ein MC12LE0 hängt momentan mit 2.5 Gbit dran... ein paar Plätze könnte ich ja entbehren (das BMC/KVM kann man ja auch über einen "Hilfsswitch" laufen lassen)...
Also entweder eine 2. USB 2.5 Gbit NIC wäre kostengünstig und PCIe-schonend drin, mit 4-5 Gbit wäre man dann allemal schneller als das HDD-Pool im Backupserver.

Ist sowas einrichtbar ohne Managed Switch / VLAN bzw. benötigen die NICs dafür eine spezielle Unterstützung?


Erstmal unter Proxmox.... oder TrueNAS (per USB Passthrough)... eigentlich egal, Proxmox ist da wsl. flexibler.


Nachtrag:
Soso, bei den "schnelleren" NICs muss also receive side scaling aktiviert sein/werden, damit diese mehrere Verbindungen aufmachen können... also die 10G Nic braucht RSS damit sie mehrere Verbindungen macht, damit auch jede der empfangenden Mutlichannel-NICs auch eine Verbindung abbekommt... hmhmh.. ja?
 
Zuletzt bearbeitet:
Unter Proxmox wäre ksmbd statt SAMBA ein Option.
Soll bis zu 30% schneller sein, Multipath wird das kaum so können. In beiden Fällen sind Jumboftames etwas was extra Performance bringt. Jumboframes müssen aber im Server, im Client und in den Switches (da plus vlan tags) aktiviert sein.
 
Ich meine mal (vor langer Zeit) gelesen zu haben, dass es nur mit gleichen Geschwindigkeiten funktioniert, also 5*1Gbit zu 5*1Gbit geht, aber nicht 5*1Gbit zu 1*5Gbit. Aber in wie weit das noch stimmt und was für Linux gilt, kann ich nicht sagen. Heutzutage nutze ich lieber Direktverbindungen, früher hab ich das unter Windows aber gerne mit 1Gbit genutzt. An spezielle Voraussetzungen kann ich mich nicht (mehr) erinnern. Alles einfach an den selben Switch anschließen und per DHCP die Adressen bekommen hat für mich damals gereicht.
RSS ist bei mir eher mal gerne ein Problem mit den zusätzlichen Direktverbindungen unter Windows...
 
Laut Google KI sollte das gehen, wenn man eben dieses RSS aktivieren kann.

Testen könnte ich eigenlitch kostenneutral, wenn ich die am MC12 vorhandenen 2.5G (USB Adapter) + 1-2x 1G an den Switch stopple... hmhmhm.
Sollte man ja auch hier recht deutlich merken, ob das funktioniert.

Vllt. wird das mein erstes "Projekt", wo ich einfach auf die KI "höre"... :fresse: :d
So schlecht scheint diese gerade bei so IT Themen nicht mal zu sein... zwar nicht allwissend, aber für so einzelne Kommandos, die man wissen möchte, gar nicht soo verkehrt.
 
Ich hab neulich auch meinen ersten funktionieren Software-POC mit KI gebastelt, ohne jemals wirklich was programmiert zu haben und ohne vorher auch nur eine blasse Idee gehabt zu haben, wie das zu realisieren sein könnte.

Code im Zweifel nicht schön, nicht sauber. Aber funktioniert. Schon krass.
 
Naja, drüber geflogen bin ich schon mal über den Code. Offensichtlich Teile, die ich nicht zuordnen konnte, habe ich immerhin nicht gesehen. Lesen und Nachvollziehen ist ja schon ne ganz andere Nummer als selber basteln. Allerdings würde ich natürlich nicht schnallen, wenn z.B. eine gewisse normal aussehende Funktion quasi immer nen Bufferoverflow oder sonstige fiesen Lücken reißt, die dann quasi jeder ausnutzen könnte…

Aber mein Anwendungbereich war auch wirklich sehr sehr simpel. Trotzdem cool, dass man auf einmal recht einfach ans Ziel kommen kann.
 
Birgt halt die Gefahr, dass man für ziemlich trivialen Dreck einen Haufen Ressourcen benötigt und die Leute ihr "Handwerk" verlernen...

Sinnvoll (mit Maß und Bedacht) eingesetzt ist neue Technologie aber immer gut.

Is halt gaga, wenns dort endet, dass man einen ganzen x86/arm mit "NPU" braucht um die Funktion einens 70er Jahre ICs nachzubilden, lol... :fresse:
 
Ich glaub nicht, dass der Code besonders schlecht wird. Aber du brauchts halt die Energie von nem ganzen RZ / gpu Farm um Code zu erzeugen, den sonst ein Mensch für das Energieäquivalent einer fettigen Pizza plus Kaffeebecher übern Zaun geworfen hätte… ;)
 
Schlecht nicht, aber da ist wenig Kreativität drin, sondern eher stumpfe Regeln... Daher halte ich das I-Intelligenz immer noch nicht für das was es sein müsste um so zuheissen. Sind ja dann doch eher Algorithmen und Automatismen...
Aber ich glaube auch, daß mit KI der ganze stumpfe Programmieraufwand zu erledigen sein kann. Obs sinnvoll ist Rrechenleistung = Energie...) muss mal bewertet werden. Warum heutzutage jeder 3 RZ benutzen muss, statt den eigenen Kopf...

BTW: Kopf - Kopf oder Zahl, hier gehts ums Netzwerk - :btt:
 
Zuletzt bearbeitet:
 
10G Folgekosten incoming: ich hab ja mit einem günstigen China 10G Switch angefangen und will nicht mehr von 10G weg. Jetzt brauch ich aber doch managebares, also muss das Ding ausgetauscht werden.

Spricht etwas gegen den Mikrotik CRS309-1G-8S+IN oder gibts bessere Alternativen? Einen CRS326-24S+2Q+RM würd ich auch nehmen - ist aber Overkill auf vielen Ebenen. Auch wenn mich 2 ConnectX-4 reizen würden.

Mind. 4x SFP+ solltens sein, und nachdem der Switch länger im Einsatz sein soll würd ich sogar eher mind. 6 Ports bevorzugen. Darum auch die Wahl mit dem 309 mit den 8 Ports. Aktuell verwende ich nur 2 Ports >1Gbit, aber mehr habe ich nicht. 2. Server + neuer Wifi AP wären 4, schnelle Anbindung zu einem weiteren Switch dann eben 5 Ports, mit Reserve die vorher gennanten mind. 6 (ich hoffe, das war halbwegs nachvollziehbar).
 
Hab auch den CRS309 und der reichte mir lange vollkommen. :)

Aber jedes Gerät frisst Saft, also - aus eigener Erfahrung - überlege Dir vielleicht in der Tat noch einmal genauer, was du wirklich brauchst. Es gibt auch hübsche Geräte, die sogar 6x SFP+ mit 48x 1Gbit RJ45 Ports kombinieren und gar nicht mal so teuer sind:


Der Edimax wäre zum Beispiel ein Schnapper...

Oder falls Du bei der Gelegenheit auch noch POE mitnehmen willst, um Deine AP's zu versorgen, dann die Empfehlung von @sch4kal bei Ebay gebraucht für rund 120 Euro (hab mir letzte Woche genau den bestellt, sollte diese Woche eintrudeln - dann kann ich aus eigener Erfahrung mehr beisteuern):

 
Für 8x SFP+ zB gebrauchter Ruckus ICX 7250 (24/48 Port non PoE oder PoE).
Bei Juniper muss man da auch eine Serie höher greifen, aber stromsparend sind die dann halt nicht mehr wirklich. PoE wirklich nur wenn man viele PoE Geräte hat, oder viele Netzteile loswerden möchte.

Juniper EX sind halt neben Aruba/ex HPE, Cisco und Extreme Branchenstandard für Campus Access und auch entsprechend stabil in der Software und Features. Ruckus/ex Brocade war/ist stark im Fiberchannel/SAN Umfeld, aber für Campus Access jetzt nicht sehr verbreitet. Trotzdem recht gute Switches, hatte 6 Jahre lang einen ICX6450 als PoE Variante zuhause im Einsatz, lief klaglos bis zum Ersetzen durch den hier bekannten Engenius Switch (+ Mikrotik CSS326 als Portextender).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh