Seite 8 von 9 ErsteErste ... 4 5 6 7 8 9 LetzteLetzte
Ergebnis 176 bis 200 von 204
  1. #176
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    4.057
    Themenstarter


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Nagelt mich bitte nicht ans Kreuz, wenn ich das schon gefragt habe (ich fürchte nämlich, hab ich schon): gibt es irgendwo eine Anleitung zu RDMA oder RoCE für "richtig Doofe"?

    Im ersten Anlauf hat mich das etwas erschlagen, mit meinem point-to-point Setup ohne Switch, Windows auf der einen und ESXi plus VM auf der anderen Seite... Geht das überhaupt ohne Switch? Und die Frage ob IB oder Ethernet dafür als Basis "besser" (sprich: einfacher) ist, ließ mich auch etwas ratlos zurück...

    Mit meinen bisherigen Such-Versuchen (schönes Wort) lande ich entweder z.B. bei Mellanox oder vmware mit irgendwelchen abgefahrenen Setups, die ich zu Hause definitiv nicht abbilden kann.
    Geändert von besterino (28.02.19 um 17:56 Uhr)
    Spoiler: Anzeigen

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #177
    Matrose
    Registriert seit
    19.11.2013
    Ort
    Region Kaiserslautern
    Beiträge
    3


    • Systeminfo
      • Netzwerk:
      • HP Procurve, Unifi
      • Betriebssystem:
      • Windows, Solaris
      • Photoequipment:
      • Canon

    Standard

    Zitat Zitat von besterino Beitrag anzeigen
    Ach komm... im Bereich Forschung benötigt man doch keine Original-Transciever.
    Ach wir sind da schon experimentierfreudig. Aber wenn es um Hardware mit Wartungverträgen geht sollte man schon alles nach Anforderungen machen. Besonders wenn man Erstkunde ist hat man wenig Spielraum
    Infiniband EDR hätte ich auch noch im Angebot, aber das ist ja eine andere Baustelle.

  4. #178
    Matrose
    Registriert seit
    15.11.2018
    Beiträge
    2


    Standard

    Die Tage bin ich auch schwach geworden und hab bei EBay zwei MCX353A-FCBT ConnectX-3 Single-Port Karten gekauft. Dazu gab es dann noch ein gebrauchtes 40 GbE Active Fibre Kabel. Als Ethernet-Ports konfiguriert laufen die zwei Karten jetzt auch unter Debian. Allerdings habe ich nun zwei Fragen, die hier ja vielleicht jemand beantworten kann:

    1) Laut manual unterstützen die Karten ja folgende Datenraten: "Up to 56Gb/s FDR– InfiniBand, 1/10/40/56Gb/s – Ethernet". An anderer Stelle im manual ist folgendes zu finden:
    1.4 Connectivity
    • Interoperable with InfiniBand or 10/40 Gb Ethernet switches.
    • Interoperable with 56GbE Mellanox Switches.
    Das würde ich so interpretieren, das die Karten an beliebigen Switches mit max. 40 Gb laufen und an Mellanox-Switches mit max. 56 Gb. Aber wie ist es wenn ich zwei Karten direkt miteinander verbinde? Kann man da 56 GbE fahren? (Das passende Kabel vorausgesetzt). Aktuell läuft der Link mit 40 Gb aber mehr ist bei dem Kabel ja auch nicht zu erwarten. Da fragt man sich doch ob es sich lohnt ein anderes Kabel zu kaufen.

    2) Stichwort Kabel: Benötigt man für Infiniband und Ethernet zwingend unterschiedliche Kabel oder gibt es Kabel über die man beide Protokolle fahren kann?

    Beispiel Mellanox MC2207130-001 Passive Copper Cable VPI up to 56Gb/s:

    Laut Mellanox store Seite: "Technology: InfiniBand, Max Speed: FDR"
    Bei fs.com: "Protocols 40G InfiniBand 4x FDR, 56Gigabit Ethernet, Fibre Channel"

    Wäre das Kabel nun für 56 Gb Infiniband und 56 GbE geeignet?

  5. #179
    Bootsmann
    Registriert seit
    18.07.2016
    Beiträge
    584


    • Systeminfo
      • Betriebssystem:
      • Fedora 28, Gentoo
      • Notebook:
      • Thinkpad W520

    Standard

    Es gibt mW. keinen Standard für 56 Gbits Ethernet, aber gut möglich das es mit Mellanox Equipment funktioniert.

    Kabel ist für beides gleich.

  6. #180
    Kapitän zur See
    Registriert seit
    20.12.2003
    Ort
    Karlsruhe
    Beiträge
    3.407


    • Systeminfo
      • Motherboard:
      • GA-AX370-Gaming 5
      • CPU:
      • AMD Ryzen 7 @ 0,65V
      • Kühlung:
      • Cuplex Kryos Delrin @ 5x120mm
      • Gehäuse:
      • Xigmatek Elysium Black Silver
      • RAM:
      • 48GB DDR4 ECC
      • Grafik:
      • R9290PT-GT430PT-HD5450 Host
      • Storage:
      • ZFS
      • Monitor:
      • WM UHD400 40'' 4k 72Hz
      • Netzwerk:
      • 165/10
      • Sound:
      • Sound Blaster
      • Netzteil:
      • BQT-E9-680W
      • Betriebssystem:
      • KVM/LXC auf debian(proxmox)
      • Notebook:
      • ASUS N551JK
      • Handy:
      • mit LineageOS

    Standard

    Für 56GbE brauchts Mellanox only Equipment und min. QSFP14 Kabel (QSFP14 > QSFP+).

    Heute sind meine 4x CX3-Pro und 4x CX4 gekommen, die Kabel und Switches brauchen aber noch bis zum 9. April. Tja jetzt hab ich hier halt solang ein 768Gb offline Netzwerk

  7. #181
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    4.057
    Themenstarter


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Holla die Waldfee. Welcher Switch wird denn einziehen?
    Spoiler: Anzeigen

  8. #182
    Kapitän zur See
    Registriert seit
    20.12.2003
    Ort
    Karlsruhe
    Beiträge
    3.407


    • Systeminfo
      • Motherboard:
      • GA-AX370-Gaming 5
      • CPU:
      • AMD Ryzen 7 @ 0,65V
      • Kühlung:
      • Cuplex Kryos Delrin @ 5x120mm
      • Gehäuse:
      • Xigmatek Elysium Black Silver
      • RAM:
      • 48GB DDR4 ECC
      • Grafik:
      • R9290PT-GT430PT-HD5450 Host
      • Storage:
      • ZFS
      • Monitor:
      • WM UHD400 40'' 4k 72Hz
      • Netzwerk:
      • 165/10
      • Sound:
      • Sound Blaster
      • Netzteil:
      • BQT-E9-680W
      • Betriebssystem:
      • KVM/LXC auf debian(proxmox)
      • Notebook:
      • ASUS N551JK
      • Handy:
      • mit LineageOS

    Standard

    2x SX6012 - wird halt "nur" ein 56Gb Netzwerk. Die CX4 gabs nur wegen dem verbuggten (vermutlich bald auslaufenden) Support der CX3(-Pro) auf esxi6.7

  9. #183
    Bootsmann
    Registriert seit
    30.03.2005
    Beiträge
    556


    Standard

    Hmm... ernüchternd. Der Single-100G von ebay scheint DOA... in anderer Hardware/Mainboard kann ich aktuell nicht testen, aber in der X99-WS (CX4 läuft problemlos) wird weder unter Windows noch unter Linux eine Karte erkannt (Gerätemanager bzw. lspci). Schade.
    Spoiler: Anzeigen

  10. #184
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    4.057
    Themenstarter


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard


  11. #185
    Kapitän zur See
    Registriert seit
    20.12.2003
    Ort
    Karlsruhe
    Beiträge
    3.407


    • Systeminfo
      • Motherboard:
      • GA-AX370-Gaming 5
      • CPU:
      • AMD Ryzen 7 @ 0,65V
      • Kühlung:
      • Cuplex Kryos Delrin @ 5x120mm
      • Gehäuse:
      • Xigmatek Elysium Black Silver
      • RAM:
      • 48GB DDR4 ECC
      • Grafik:
      • R9290PT-GT430PT-HD5450 Host
      • Storage:
      • ZFS
      • Monitor:
      • WM UHD400 40'' 4k 72Hz
      • Netzwerk:
      • 165/10
      • Sound:
      • Sound Blaster
      • Netzteil:
      • BQT-E9-680W
      • Betriebssystem:
      • KVM/LXC auf debian(proxmox)
      • Notebook:
      • ASUS N551JK
      • Handy:
      • mit LineageOS

    Standard

    @danielmayer
    is doof

    @besterino
    vtl. hilft dir dieser Guide weiter bei deinem RDMA Versuch
    HA iSER Target with ESXi Test Lab using StarWind Free vSAN | ServeTheHome and ServeThe.Biz Forums

  12. #186
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    4.057
    Themenstarter


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Hey Danke für den Link!

    Eigentlich müsste ich vor den nächsten Spielereien vorher nochmal bisken was Umbauen - vor allem scheint das ja alles nur mit iSCSI zu laufen? (Habe jedenfalls auf die Schnelle nichts zu SMB Direct unter Solaris finden können.) Du siehst, RDMA und alles was speziell dazu gehört, ist für mich noch fieses Neuland...
    Spoiler: Anzeigen

  13. #187
    Kapitän zur See
    Registriert seit
    20.12.2003
    Ort
    Karlsruhe
    Beiträge
    3.407


    • Systeminfo
      • Motherboard:
      • GA-AX370-Gaming 5
      • CPU:
      • AMD Ryzen 7 @ 0,65V
      • Kühlung:
      • Cuplex Kryos Delrin @ 5x120mm
      • Gehäuse:
      • Xigmatek Elysium Black Silver
      • RAM:
      • 48GB DDR4 ECC
      • Grafik:
      • R9290PT-GT430PT-HD5450 Host
      • Storage:
      • ZFS
      • Monitor:
      • WM UHD400 40'' 4k 72Hz
      • Netzwerk:
      • 165/10
      • Sound:
      • Sound Blaster
      • Netzteil:
      • BQT-E9-680W
      • Betriebssystem:
      • KVM/LXC auf debian(proxmox)
      • Notebook:
      • ASUS N551JK
      • Handy:
      • mit LineageOS

    Standard

    Joa, wird zZ wohl hauptsächlich für iSER (RDMA for iSCSI) genutzt. Wenn VMware mal zu Potte kommt und irgendwann in Zukunft auch einen NVMeoF Initiator integriert, wird das die iSCSI Geschichte wohl beerdigen, bis dahin bin ich aber wieder am entwickeln und darf nicht mehr mit der (t)ollen Hardware rumspielen

    SMB Direct sollte mit Win12r2+ einfach laufen wenn ein RoCE fähiges Netzwerk vorhanden ist. Aber sollte und Microsoft ist immer so ne Sache

    Edit:
    Und ja natürlich kannst du RoCE auch ohne Switch betreiben (ist sogar einfacher weil die Switch Konfiguration wegfällt), ob IB oder Eth kommt auf deine verwendete esxi Version an. Mit 6.5 wurde der IB Support offiziell abgeschafft, mit etwas "hackerei" bekommt man den IB Support zwar auch auf 6.5/6.7, aber ohne RoCE, daher bleibt dir mit einem aktuellen esxi und RDMA nur Eth.
    Geändert von Sir Diablo (26.03.19 um 15:40 Uhr)

  14. #188
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    4.057
    Themenstarter


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Tjo - ich brauche einfach mal ein wenig Zeit zum Spielen...

    Das hier scheint auch zum Thema zu gehören: https://community.mellanox.com/s/art...-on-connectx-4. Zumindest sollte ich damit herausfinden können, welche "Sprache" meine beiden ConnectX-4 miteinander sprechen können.

    Eigentlich sollte das alles ja mit Solaris 11.4 fast out-of-the-box funktionieren, da Solaris 11.4 ja Unterstützung für SMB 3.1.1 mitbringt und das auch die Version ist, auf der Server 2016 bzw. Windows 10 miteinander spielen (PDF) als Grundvoraussetzung für SMB Direct.

    Wenn ich das richtig verstehe und ich die ConnectX-4 richtig für RoCE konfiguriert habe, müsste das dann ja eigentlich direkt laufen:

    SMB Direct has the following requirements:

    • At least two computers running Windows Server 2012 are required. No extra features need to be installed—the technology is on by default.
    • Network adapters with RDMA capability are required. Currently, these adapters are available in three different types: iWARP, Infiniband, or RoCE (RDMA over Converged Ethernet).

    Quelle
    Ist halt die Frage, ob Solaris 11.4 mit SMB 3.1.1 in diesem Sinne als "computer running windows Server" durchgeht. Man wäre das geil, wenn ich einfach Solaris 11.4 auf der einen und Windows 10 auf der anderen Seite hochfahren könnte, und der ganze Krempel einfach mit RDMA laufen würde. Muss ich glatt mal die Tage ausprobieren - mein Datengrab läuft ja auf Solaris 11.4... Sollte das tatsächlich funzen, muss ich nur noch rausfummeln, wie das ggf. mit ESXi dazwischen aussieht. Einfach wäre ja langweilig.

    ...und natürlich stecken die RDMA-NICs nicht in den richtigen Kisten, um das einfach mal eben zwischendurch ausprobieren zu können...

    Von Euch hat das nicht zufällig jemand mal ausprobiert? Ich frag auch mal gea im ZFS-Sammler...
    Spoiler: Anzeigen

  15. #189
    Oberstabsgefreiter
    Registriert seit
    21.12.2015
    Beiträge
    481


    Standard

    Grundsätzlich sind das Standardfeatures von SMB 3.0.(2), im Grunde ist 3.1.1 eher Modelpflege. Bestimmte Features vom Scale-out File Server erfordern aber ein verteiltes Clusterfilesystem. Soweit mir bekannt hat Oracle dazu noch keine vollständige Implementierung wie z.B. Ryussi Tech die dahinter Ceph/Lustre/Gluster fahren.

  16. #190
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    4.057
    Themenstarter


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Ich bin ja gar nicht so anspruchsvoll, Cluster-Features brauche ich eigentlich nicht - Multichannel und RDMA bei punkt-zu-punkt würde mir reichen.
    Spoiler: Anzeigen

  17. #191
    Kapitän zur See
    Registriert seit
    20.12.2003
    Ort
    Karlsruhe
    Beiträge
    3.407


    • Systeminfo
      • Motherboard:
      • GA-AX370-Gaming 5
      • CPU:
      • AMD Ryzen 7 @ 0,65V
      • Kühlung:
      • Cuplex Kryos Delrin @ 5x120mm
      • Gehäuse:
      • Xigmatek Elysium Black Silver
      • RAM:
      • 48GB DDR4 ECC
      • Grafik:
      • R9290PT-GT430PT-HD5450 Host
      • Storage:
      • ZFS
      • Monitor:
      • WM UHD400 40'' 4k 72Hz
      • Netzwerk:
      • 165/10
      • Sound:
      • Sound Blaster
      • Netzteil:
      • BQT-E9-680W
      • Betriebssystem:
      • KVM/LXC auf debian(proxmox)
      • Notebook:
      • ASUS N551JK
      • Handy:
      • mit LineageOS

    Standard

    Zitat Zitat von Sir Diablo Beitrag anzeigen
    ...Heute sind meine 4x CX3-Pro und 4x CX4 gekommen, die Kabel und Switches brauchen aber noch...
    Und heute sind die Switches gekommen, und die Kabel brauchen immer noch...

  18. #192
    Kapitän zur See
    Registriert seit
    13.06.2006
    Ort
    Würzburg
    Beiträge
    3.318


    • Systeminfo
      • Motherboard:
      • M5A97 LE R2.0 | X8DTL-iF
      • CPU:
      • FX-6300 | Xeon X5677
      • Systemname:
      • Karl | Gut(t)enberg
      • Kühlung:
      • T-Spirit 120/2x80 | pasv/5x80
      • Gehäuse:
      • Chenbro RM413 | Supermicro 836
      • RAM:
      • 2x 8GB ECC | 3x 16GB reg ECC
      • Grafik:
      • 380 4GB | G200eW + IPMI
      • Storage:
      • 128GB | 40GB + 8x2000GB (Z2)
      • Monitor:
      • EX3501R | SSH?
      • Netzwerk:
      • Fritz 7362SL, MikroTik wAP ac
      • Sound:
      • ReVox Evolution und DRECKIGER ONBOARDSOUND :))
      • Netzteil:
      • Focus 450 | Fractal 450 + USV
      • Betriebssystem:
      • Ubuntu 18.04 | Solaris 11.3
      • Sonstiges:
      • janz viele ESP8266!
      • Notebook:
      • ThinkPad T400 / P9700 / 2x4GB / 256+128+2x32 GB / WXGA+ LED / GMA + 2503 Grakadock / 3x3abgn-ac+UTMS
      • Photoequipment:
      • Canon S100
      • Handy:
      • Galaxy S5, N900

    Standard

    Sind wohl nicht die Schnellsten

  19. #193
    Kapitän zur See
    Registriert seit
    20.12.2003
    Ort
    Karlsruhe
    Beiträge
    3.407


    • Systeminfo
      • Motherboard:
      • GA-AX370-Gaming 5
      • CPU:
      • AMD Ryzen 7 @ 0,65V
      • Kühlung:
      • Cuplex Kryos Delrin @ 5x120mm
      • Gehäuse:
      • Xigmatek Elysium Black Silver
      • RAM:
      • 48GB DDR4 ECC
      • Grafik:
      • R9290PT-GT430PT-HD5450 Host
      • Storage:
      • ZFS
      • Monitor:
      • WM UHD400 40'' 4k 72Hz
      • Netzwerk:
      • 165/10
      • Sound:
      • Sound Blaster
      • Netzteil:
      • BQT-E9-680W
      • Betriebssystem:
      • KVM/LXC auf debian(proxmox)
      • Notebook:
      • ASUS N551JK
      • Handy:
      • mit LineageOS

    Standard



    In der Tat, sind nur QSFP14 und keine EDR
    Geändert von Sir Diablo (04.04.19 um 08:48 Uhr)

  20. #194
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    4.057
    Themenstarter


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Müssen wohl noch von den als notorisch faul und lahm bekannten Glasfaserraupen gesponnen werden.

  21. #195
    Matrose
    Registriert seit
    15.11.2018
    Beiträge
    2


    Standard

    So heute kam das 56G QSFP+ DAC Twinax Kabel.
    Eingesteckt und ausprobiert aber der Linkspeed steht auf 40GbE.

    Hier die ethtool Infos.
    Server 1:
    Code:
    driver: mlx4_en
    version: 4.5-1.0.1
    firmware-version: 2.42.5000
    
    Settings for enp131s0:
            Supported ports: [ FIBRE ]
            Supported link modes:   1000baseKX/Full
                                    10000baseKX4/Full
                                    10000baseKR/Full
                                    40000baseCR4/Full
                                    40000baseSR4/Full
                                    56000baseCR4/Full
                                    56000baseSR4/Full
            Supported pause frame use: Symmetric Receive-only
            Supports auto-negotiation: Yes
            Supported FEC modes: Not reported
            Advertised link modes:  1000baseKX/Full
                                    10000baseKX4/Full
                                    10000baseKR/Full
                                    40000baseCR4/Full
                                    40000baseSR4/Full
            Advertised pause frame use: Symmetric
            Advertised auto-negotiation: Yes
            Advertised FEC modes: Not reported
            Link partner advertised link modes:  40000baseCR4/Full
                                                 56000baseCR4/Full
            Link partner advertised pause frame use: No
            Link partner advertised auto-negotiation: Yes
            Link partner advertised FEC modes: Not reported
            Speed: 40000Mb/s
            Duplex: Full
            Port: Direct Attach Copper
            PHYAD: 0
            Transceiver: internal
            Auto-negotiation: on
            Supports Wake-on: d
            Wake-on: d
            Current message level: 0x00000014 (20)
                                   link ifdown
            Link detected: yes
    Server 2:
    Code:
    driver: mlx4_en
    version: 4.5-1.0.1
    firmware-version: 2.42.5000
    
    Settings for enp4s0:
            Supported ports: [ FIBRE ]
            Supported link modes:   1000baseKX/Full
                                    10000baseKX4/Full
                                    10000baseKR/Full
                                    40000baseCR4/Full
                                    40000baseSR4/Full
                                    56000baseCR4/Full
                                    56000baseSR4/Full
            Supported pause frame use: Symmetric Receive-only
            Supports auto-negotiation: Yes
            Advertised link modes:  1000baseKX/Full
                                    10000baseKX4/Full
                                    10000baseKR/Full
                                    40000baseCR4/Full
                                    40000baseSR4/Full
            Advertised pause frame use: Symmetric
            Advertised auto-negotiation: Yes
            Link partner advertised link modes:  40000baseCR4/Full
                                                 56000baseCR4/Full
            Link partner advertised pause frame use: No
            Link partner advertised auto-negotiation: Yes
            Speed: 40000Mb/s
            Duplex: Full
            Port: Direct Attach Copper
            PHYAD: 0
            Transceiver: internal
            Auto-negotiation: on
            Supports Wake-on: d
            Wake-on: d
            Current message level: 0x00000014 (20)
                                   link ifdown
            Link detected: yes
    Hat hier schon mal jemand 56 GbE back-to-back zwischen zwei ConnectX-3 ausprobiert? Läuft das ohne weiteres? Geht das nur per Hand also ohne auto-negotiation?

  22. #196
    Bootsmann
    Registriert seit
    18.07.2016
    Beiträge
    584


    • Systeminfo
      • Betriebssystem:
      • Fedora 28, Gentoo
      • Notebook:
      • Thinkpad W520

    Standard

    Hier gibts gerade CX354A-QCBT Mellis für 25 € aus den Staaten:
    Mellanox ConnectX-3 QDR QSFP+ InfiniBand 10 LP MCX354A 050-0050-02 CX354A-QCBT | eBay

    Kommen mit LP-Blenden. Meine kam genau so an wie abgebildet.
    Derzeit scheint wohl 40G günstiger zu sein als 10G NICs

    Anleitung zum Crossflash auf FCBT (Dual 40G Ethernet):
    Flashing stock Mellanox firmware to OEM (EMC) ConnectX-3 IB/Ethernet dual-port QSFP adapter | ServeTheHome and ServeThe.Biz Forums

    AMD Epyc 7351P|Noctua NH-U14S|Asus KNPA-U16|4x 32GB Samsung DDR4-2666 RDIMM|LSI SAS9300-8i|8x HUS726040AL421 4TB 4Kn RAID-Z2|Samsung 970 Evo L2ARC|Intel X520-DA2|ESXi 6.7|napp-it Pro Complete @ Solaris 11.4
    HP Microserver Gen8|E3-1220Lv2|2x8 GB Kingston KVR16E11/8|4x HGST HUS723030ALS640|Dell PERC [email protected] IT Mode (P19)
    HP Aruba 2920-24G PoE+ Switch (J9727A) & 2 Port 10 GbE SFP+ Modul (J9731A), 2x 10GbE via MMF/LC-D w/ fs.com #11559 SFP+ (HP J9150A comp.)
    Brocade ICX6610-24P-E Switch, Full licensed, 1x QSFP+ to 4x SFP+ DAC (fs.com #69909), 8x 10GbE via MMF/LC-D w/ 57-0000075-01 SFP+
    Mikrotik CRS326-24G-2S+RM Switch, 2x 10GbE via MMF/LC-D w/ S+85DLC03D SFP+

  23. #197
    Kapitän zur See
    Registriert seit
    13.06.2006
    Ort
    Würzburg
    Beiträge
    3.318


    • Systeminfo
      • Motherboard:
      • M5A97 LE R2.0 | X8DTL-iF
      • CPU:
      • FX-6300 | Xeon X5677
      • Systemname:
      • Karl | Gut(t)enberg
      • Kühlung:
      • T-Spirit 120/2x80 | pasv/5x80
      • Gehäuse:
      • Chenbro RM413 | Supermicro 836
      • RAM:
      • 2x 8GB ECC | 3x 16GB reg ECC
      • Grafik:
      • 380 4GB | G200eW + IPMI
      • Storage:
      • 128GB | 40GB + 8x2000GB (Z2)
      • Monitor:
      • EX3501R | SSH?
      • Netzwerk:
      • Fritz 7362SL, MikroTik wAP ac
      • Sound:
      • ReVox Evolution und DRECKIGER ONBOARDSOUND :))
      • Netzteil:
      • Focus 450 | Fractal 450 + USV
      • Betriebssystem:
      • Ubuntu 18.04 | Solaris 11.3
      • Sonstiges:
      • janz viele ESP8266!
      • Notebook:
      • ThinkPad T400 / P9700 / 2x4GB / 256+128+2x32 GB / WXGA+ LED / GMA + 2503 Grakadock / 3x3abgn-ac+UTMS
      • Photoequipment:
      • Canon S100
      • Handy:
      • Galaxy S5, N900

    Standard

    Beendet.

    Auch besser so, wo ich doch meine 10GbE eh nur zu 3/4 ausgelastet bekomm

  24. #198
    Hauptgefreiter
    Registriert seit
    12.07.2017
    Ort
    Nahe Würzburg
    Beiträge
    194


    • Systeminfo
      • Motherboard:
      • OEM
      • CPU:
      • Intel Core i7 7700HQ
      • Systemname:
      • Dell XP 15 9560
      • Kühlung:
      • Luft
      • RAM:
      • 16GB
      • Grafik:
      • Nvidia Gefore GTX 1050 4GB
      • Monitor:
      • Dell U24
      • Netzwerk:
      • Dell EMC T440, ML30 GEN9
      • Betriebssystem:
      • Windows 10 Professionell
      • Handy:
      • iPhone 7 Diamont Black 128GB

    Standard

    Zitat Zitat von Bzzz Beitrag anzeigen
    Beendet.

    Auch besser so, wo ich doch meine 10GbE eh nur zu 3/4 ausgelastet bekomm
    Ja da war ich schneller da hat irgendwie der haben will drang zugesetzt. Irgendwie muss ich den 40g Switch ja auch befeuern

  25. #199
    Bootsmann
    Registriert seit
    18.07.2016
    Beiträge
    584


    • Systeminfo
      • Betriebssystem:
      • Fedora 28, Gentoo
      • Notebook:
      • Thinkpad W520

    Standard

    Zitat Zitat von niklasschaefer Beitrag anzeigen
    Ja da war ich schneller da hat irgendwie der haben will drang zugesetzt. Irgendwie muss ich den 40g Switch ja auch befeuern
    Nice, welchen Switch ?

    AMD Epyc 7351P|Noctua NH-U14S|Asus KNPA-U16|4x 32GB Samsung DDR4-2666 RDIMM|LSI SAS9300-8i|8x HUS726040AL421 4TB 4Kn RAID-Z2|Samsung 970 Evo L2ARC|Intel X520-DA2|ESXi 6.7|napp-it Pro Complete @ Solaris 11.4
    HP Microserver Gen8|E3-1220Lv2|2x8 GB Kingston KVR16E11/8|4x HGST HUS723030ALS640|Dell PERC [email protected] IT Mode (P19)
    HP Aruba 2920-24G PoE+ Switch (J9727A) & 2 Port 10 GbE SFP+ Modul (J9731A), 2x 10GbE via MMF/LC-D w/ fs.com #11559 SFP+ (HP J9150A comp.)
    Brocade ICX6610-24P-E Switch, Full licensed, 1x QSFP+ to 4x SFP+ DAC (fs.com #69909), 8x 10GbE via MMF/LC-D w/ 57-0000075-01 SFP+
    Mikrotik CRS326-24G-2S+RM Switch, 2x 10GbE via MMF/LC-D w/ S+85DLC03D SFP+

  26. #200
    Hauptgefreiter
    Registriert seit
    12.07.2017
    Ort
    Nahe Würzburg
    Beiträge
    194


    • Systeminfo
      • Motherboard:
      • OEM
      • CPU:
      • Intel Core i7 7700HQ
      • Systemname:
      • Dell XP 15 9560
      • Kühlung:
      • Luft
      • RAM:
      • 16GB
      • Grafik:
      • Nvidia Gefore GTX 1050 4GB
      • Monitor:
      • Dell U24
      • Netzwerk:
      • Dell EMC T440, ML30 GEN9
      • Betriebssystem:
      • Windows 10 Professionell
      • Handy:
      • iPhone 7 Diamont Black 128GB

    Standard

    Zitat Zitat von sch4kal Beitrag anzeigen
    Nice, welchen Switch ?
    Habe von der Arbeit einen HPE FlexFabric 5710 48SFP+ 6QSFP+ mitnehmen dürfen. War nur ein Lüfter kaputt diesen dann getauscht rennt wieder einwandfrei.
    So habe ich jetzt 48x10G und 6x40G Ports.
    ESX01: Dell EMC Poweredge T440/2xIntel Xeon Silver 4110/256GB Ram/HP NC550/ESX6.7U1
    Controller:H330(4x Crucial MX500 [email protected] 10, 32GB Kingston USB3.0)
    ESX02: HPE ML30 Gen9/Intel XEON E3-1230V5/36GB RAM/HP Mellanox X2/ESX6.7U1
    Controller:B140i(2x Crucial MX100 [email protected] 1) & H240(4x Seagate ST4000DM005 [email protected]/2xSeagate ST [email protected])
    ESX03:Dell R510 Rack/2x Intel Xeon E5640/40GB RAM/HP Mellanox X2/ESX6.7U1
    Netzwerk:TP-Link T1700G-28TQ

Seite 8 von 9 ErsteErste ... 4 5 6 7 8 9 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •