[Sammelthread] 10Gbit Homenetzwerk

10GBase-T verbraucht m.W. mehr Saft als SFP+. Da lohnt der Umstieg eher weniger. Der Verbrauch nimmt vor allem ab, je jünger die Generation ist, aber die aktuelleren Kosten halt (auch gebraucht) z.T. deutlich mehr.

Meine Intel und Emulex Dual-SFP+ haben sich aber auch noch nie abgeschaltet. Selbst in einem Gehäuse mit miesestem Airflow.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jungs, ihr dürft den Stromverbrauch der Transceivertechnologie nicht mit dem Stromverbrauch der kompletten NIC oder des eigentlichen Netzwerkchips gleichsetzen.

Es gibt Chips, die nehmen eben 4W und es gibt eben welche, die nehmen 10W. Dabei spielt es keine Rolle, ob ja jetzt -T, -SR, -LR oder -ZR oder sonst was dran ist. Das ist nur der Teil, der dafür benötigt wird um aus Bit und Bytes andere Bits und Bytes zu machen. (man könnte auch MAC sagen)

Der Transceiver, der aus Bits und Bytes Analogwerte macht, ist da eine völlig andere Baustelle. Und natürlich kann es sein, dass ein -T mit nem 4W Chip weniger zieht als ein -SR mit nem 10W Chip.
Am Ende wäre in dem Fall also der -T stromsparender, ganz klar.

Die Aussage -T zieht mehr Strom als LWL bezieht sich ausschließlich auf die Transceivertechnologie und nicht auf die NIC, allenfalls, wenn beide NICs gleiche Chips hätten.
Und natürlich ist es so, dass steinalte 10GBE NICs (das sind die, die man gerade für nen 5er bei eBay bekommt) mehr Strom ziehen also ne aktuelle 100EUR Neupreis ASUS NIC. Da liegen nämlich so 1-2 Tage Entwicklungszeit dazwischen.

Bei 10GBE haben sich die MACs von der Stromaufnahme her mal eben ge1/4. Die Sprünge gab es bei den PHYs nicht.

Das führt eben dazu, dass nen komplett Switch mit -T eben mehr Strom zieht als mit -SR. Und dennoch kann so nen neumodisches Plastikswitch mit -T weniger Strom ziehen. Und selben gilt dann eben auch für zwei NICs, die mal eben 10Jahre auseinander liegen.

EDIT:
Und natürlich sollte man auch beachten, dass so nen ServerNIC mal eben auch ganz andere Sachen wegoffloaded als so nen Aquantia-Kiste für die Mikrowelle. Ob man das braucht, darf dann jeder für sich selber entscheiden.
 
Zuletzt bearbeitet:
Wie sind eigentlich die BCM57416 generell einzuschätzen? Im Vergleich zu einer X550? Supermicro ist bei den Epyc2-Boards H12xxx ja auch Broadcom umgestiegen.
Ich vermute mal, aus Kostengründen.
 
Also wären jetzt Mellanox ConnectX-3 besser in Sachen "Stromverbrauch" und vor Allem Verlustwärme, oder nicht?

oder wäre die ASUS die bessere WAHL

wobei zu bedenken ist, daß ein Einsatz unter FreeBSD/XigmaNAS möglich sein muß
(Da bei ASUS nix zu unterstützten Betriebssystemen steht und es ein Marvel/Aquantia ist, denke ich mal das FreeBSD nicht geht, wie auch schon bei den 10GBASE-T Karten)
 
Zuletzt bearbeitet:
Ich lese immer häufiger hier, dass auch solche Karten starke Kühlung brauchen, ich dachte immer das sei ein Vorteil ggü Kupfer Ethernet?
Besteht das Problem mit allen 10 GBE SFP+ Karten?

Auch wenn schon bereits beantwortet: Natürlich ist da jede Karte anders und neue Generationen sind besser als alte.

Wenn man auf jedes Watt guckt, ist 10G und aufwärts wohl eher nicht das, was man machen sollte.
Wobei man da auch entgegenhalten sollte, das man das man zehnfache an Geschwindigkeit bekommt für das zehnfache des Stromverbrauchs (heute wahrscheinlich weniger aber natürlich trotzdem mehr als 1G).
Eine 1G Kupfer Karte wird so 1W pro Port nehmen, eine Intel X710-DA2 verbraucht ~5W für 2x10G Ports!

Die HP Karte hat auch zwei Ports und ist sehr alt. HP sagt hier übrigens: 17W typical, 19W max.
Passt ja: 1G=1W zu 2*10G=20W
Gbit/s/W bleibt also gleich.

Eine Connectx-3 wird so mit 5-7W angegeben und die sind auch schon alt.
 
Mir gehts nicht um die Watt, nur um Hitze. Ich bin silent unterwegs, ergo wenige Lüfter :-)
 
Eine 1G Kupfer Karte wird so 1W pro Port nehmen, eine Intel X710-DA2 verbraucht ~5W für 2x10G Ports!

Die HP Karte hat auch zwei Ports und ist sehr alt. HP sagt hier übrigens: 17W typical, 19W max.
Passt ja: 1G=1W zu 2*10G=20W
Gbit/s/W bleibt also gleich.

Eine Connectx-3 wird so mit 5-7W angegeben und die sind auch schon alt.
Danke für die Infos!
Ich denke mal gerade im HP N54L wird sich eine Connectx-3 dann deutlich besser machen - kleines Gehäuse, relativ wenig "Durchzug". (Ich befürchte da bringt selbst ein auf dem Kühlkörper angebrachter Lüfter bei der HP nicht genug)
5-7W hört sich nach deutlich weniger "Abwärme" an als 17-19W.

Werde auch mal Ausschau nach der Intel X710 halten
 
Zuletzt bearbeitet:
Also in den ganzen Reviews steht, dass die AQT 107 auch sehr heiß wird...

Ich denke du meinst den AQN107.
Der zieht 6W bei 10GBE btw. 4W bei 5GBE, wie auch der AQN108.
Und klar werden die auch heiß. Aber das ist bei 6W auch nicht verwunderlich, gerade wenn man sich die 10Cent für nen Kühlkörper spart.

Wie schon ausgeführt, 1GBE braucht heute 1W. Vor 18Jahren waren das noch noch ~5W, da sind mir die NICs, die ersten ConsumerNICs, auch gefühlt weggekocht. Im Serverbereich war das weniger nen Thema, wegen Luftdurchzug, wurde ja schon ausgeführt.

Aber es ist dennoch nen Unterschied, ob ne NIC 6W zieht, oder das doppelte, sprich 15W oder gar 20W durchzieht.

Für die, die schon etwas älter sind, der schnellste Pentium 1 (233 MMX) hatte 17W. Liegt also im Bereich der hier auffälligen NICs.
Ich habe keinen gesehen, der die Teile passiv kühlte.
Zum Vergleich, nen Atom N2800, welcher gerne auf passiven ITX-Boards eingesetzt wird, zieht 6W. Unter Last wird der warm, keine Frage, dennoch sind die passiv designt.

Es ist also zwischen warm oder meinetwegen sehr heiß ein maßgeblicher Unterschied zu wegkochen.
Niemand betreibt 15W rein passiv und erwartet entsprechende Funktionalität oder Haltbarkeit unter diesen Bedingungen.
 
Für die, die schon etwas älter sind, der schnellste Pentium 1 (233 MMX) hatte 17W. Liegt also im Bereich der hier auffälligen NICs.
Ich habe keinen gesehen, der die Teile passiv kühlte.
Ich habe hier noch einen stehen und freue mich alle paar Wochen über eine Runde XCom, Dark Forces oder schlicht Bubble-Bobble unter DOS mit meiner Spea Media FX-Soundkarte.
/Offtopic. Aber: Der Lüfter war winzig und eher mit einem Lowest-End-GPU-Lüfter zu vergleichen, 4-5cm horizontal :)
 
Schickes Rack.. Bei mir ist dies für meinen Neubau auch geplant..
Kannst Du bitte etwas Input zum Thema: Glas in den Räumen liefern: Welche Kabel wurden verwendet (OM, MM etc.), welche Dosen in den Räumen, Kabelkanal, Patchfeld?

Vielen Dank
schließe mich an, würde mich auch interessieren.

Sorry das ich jetzt erst zu komm, eigentlich nur am basteln gewesen ;)

Ziel war mein Herrenzimmer und Frauenzimmer jeweils direkt an 10G zu hängen um da dann die Clients via 1G/10G anzubinden, das tolle an der Wohnung ist in der Mitte der Wohnung (Flur) war früher mal ein Kachelofen, wurde aber rausgerissen. Ist jetzt mein Netzwerkofen ;)

Fiber geht vom Serverzimmer - Katzenzimmer(Frau) - Netzwerkofen > DAC Herrenzimmer.

Habs oberirdisch mit Kabelkanälen verlegt, keine Dosen etc..

Serverzimmer
IMG_20200426_104141.jpgIMG_20200426_104206.jpg

Netzwerk"ofen"
IMG_20200426_104240.jpg

Katzen(sicher)zimmer
IMG_20200428_131802.jpg

IMG_20200404_164521.jpg
aY75xoO_460s.jpg
 
Groß! I like, I upvote. :d
 
@oNyX` bist du mit dem Startec Rack zufrieden? ich hab das neulich mal bei bytemybits gesehen und liebäugel seitdem damit. Da mein Rack (12 HE) sich langsam füllt und ichw as neues suche. Nur die offene Bauweise schreckt mich etwas ab wegen Staub und so
 
:d

Ja das Startech Teil taugt, hatte anfangs bedenken, wegen Stabilität aber das Ding is bombenfest (bin dran rumgeturnt ;), wenn man bedenkt wie klein das geliefert wird und "nur" 32kg wiegt. Staub wird vmtl. eher mies weil offen und schwarz aber hat den Vorteil das man die Hitze im Rack nicht staut.

Hab auch noch Bilder vom Zusammenbau etc. und auf phoronix gibts auch Reviews drueber (12/25/42u).

Rackschienen hab ich durch Triton 650mm Boeden ersetzt, packen bis 80kg. Das Rack selbst 5xx kg.

Rest im Rack ist:
- Unifi US24
- Mikrotik CRS309
- Digitus Kabeldurchführung
- Digitus 250mm Boden
- Unifi Cloudkey Gen2 Plus
- Unifi US8 60W
- Supermicro Whitebox
- Triton 650mm Fachboden
- Dell R710
- Triton 650mm Fachboden
- APC Backups CS650
- APC Backups Pro 900
- Triton 650mm Fachboden

Netzwerkofen (Ikea Jonaxel Regal):
- Unifi USW 16 Gen2
- Mikrotik CSS326
- Speedport W925V(Bridge Mode (war vorher nen Draytek Vigor 165, hat zwar mit mehr gesynced aber sporadisch DSL Sync loss))
- APU Board mit pfsense
- APC Backups Pro 650

Frauenzimmer:
- Mikrotik CSS326

Restliche Bude:

2x Unifi AC Lite
1x Unifi AC Pro
Stapel Flex G3

10G NICs sind Mellanox Connect X3 und FS.com DAC und 10G Module sowie OM3 MM Fiber.
 
Zuletzt bearbeitet:
Wenn es mal etwas größeres sein soll, gibt es bei Ebay auch immer wieder von HP die 106xx Reihe im Angebot.
Ich habe mir damals einen HP 10622 (22HE, 100mm Tiefe) inkl PDU für 250Eur gekauft bei einer Insolvenz-Auktion.
Seit nunmehr 11 Jahren lebe ich nun in einer ständigen Zimmergemeinschaft mit diesem Koloss. Die Freundin trägt es mit Fassung.
Ist aber äusserst nützlich bei Servern und dank Maschentüren bleibt er schön kühl.
Da das Teil Stapelbar ist, kann man auch drauf herum klettern beim einbauen ohne Probleme. Der Boden sollte halt mit 119 kg Leermasse und bis zu 474kg dynamischer Zuladung klar kommen.
 
Hallo,
meine Mellanox MCX354A-FCBT (56/40/10Gb - Connect-X3) sind angekommen. Habe sie erfolgreich in mein DS1618+ eingebaut. (mlx4 und 5 Treiber sind vorhanden)

Zum Konfigurieren der Karte auf dem Synology DSM habe ich mir einen Docker Container mit den Mellanox Configuration Tools erstellt. https://hub.docker.com/r/xeroxxx/mlxcontainer

oWBXsp0.png


5 x 4TB Seagate Ironwolf (CMR)(RAID5) + Samsung EVO 830 111GB SSD Read-Cache.

Cheers
 
eBay in den USA.

Low-Profile 26,57$ (24,26)
Full Height 29,90$ (27,30)
+ 24,50$ Shipping
____________________
73,92€ + 10,33€ (Einfuhrsteuer)

Sollte eigentlich HP branded (661685-001) sein, sind mit Mellanox Stock Firmware und dem aktuellsten Stand angekommen. Cross-flash ist aber kein Problem.
 
@Swp2000 Jein, für den C100C Adapter musste die updatedata.xml anpassen:
Was trage ich nun in die Datei ein?

Das hier für meine Karte?
**<pciid vid="1d6a" did="07b1" sdid="8741" svid="1043" />**
Unbenannt.JPG
 
Ja, du müsstest wohl <pciid vid="1d6a" did="07b1" sdid="8741" svid="1043" /> ergänzen. :)
 
Hat mittlerweile funktioniert. Das gewünschte Ergebnis hat die FW jedoch für mich nicht gebracht!
 
Coole Sache bzw, hab mir noch nen 2ten USW 16 Gen2 geschossen. Dank POE+ kann ich nun endlich den Mikrotik CRS309 ohne Powerbrick betreiben :d

IMG_20200505_163443.jpg
IMG_20200506_170604.jpg
 
Habe meinen ganzen UniFi Kram jetzt verkauft, werde komplett auf MikroTik setzen inkl. OPNSense.

Hat jemand Erfahrung mit dem CRS328-24P-4S+RM ?
 
schaut interessant aus. Bei mir läuft Opnsense als Hyper-V-VM auf dem Server mit, ansonsten würde ich schwach werden :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh