Seite 1 von 116 1 2 3 4 5 11 51 101 ... LetzteLetzte
Ergebnis 1 bis 25 von 2893
  1. #1
    Bootsmann
    Registriert seit
    18.02.2009
    Ort
    Hamburg
    Beiträge
    722


    Cool Der 10Gbit Homenetzwerk Thread

    Ziel und Thema dieses Threads:

    Also hier ist er endlich: DER Thread für all die Leute, die sich einfach nicht mit 100 Mbyte/s zufrieden geben können oder wollen.
    In diesem Thread geht es nicht darum, ob das sinnvoll ist oder nicht!
    Es geht darum, wie man vorgeht wenn man nun einfach MEHR will.

    Nach diesen einleitenden Worten nun zur Sache:

    Wir wollen also die Grenze von klassischem Gigabit Ethernet (1 Gbit/s bzw. 1000 Mbit/s) durchbrechen. Dafür kann man sich verschiedener Technologien bedienen.
    Dieser Thread beschäftigt sich hauptsächlich mit Infiniband (IB) und 10 Gbit Ethernet (10 GbE).
    Es handelt sich dabei um konkurrierende Standards, die für verschiedene Anwendungen gedacht sind.

    Die sonstigen Alternativen für Highspeed Netze:

    1. Myrinet - Der Exot:
    Gibts in 2 Gbit/s und 10 Gbit/s versionen, die 10 Gbit/s Karten machen auch gleichzeitig 10 GbE.
    Die 2 Gbit/s Karten gibts nur im PCI-X Format und sind damit eher uninteressant.
    Ich habe die 2 Gbit/s Variante mal getestet und festgestellt, dass im TCP/IP Betrieb die Systemlast sehr hoch ist, da keinerlei Offloading vorhanden ist.
    Durchsatz lag bei etwa 190 Mbyte/s (bei 100% CPU Last).
    Um natives Myrinet zu nutzen muss man sich seinen eigenen Code basteln.
    Die API ist gut dokumentiert, aber ich denke das möchte sich niemand fürs Heimnetz antun.


    2. FibreChannel - Das geht nicht!
    FibreChannel Adapter sind ebenfalls günstig zu erwerben.
    Datenraten: 1, 2, 4, 8 Gbit/s.

    Es ist aber nicht ohne weiteres möglich diese für Ethernet einzusetzen.

    Es gab mal einen Ethernet over FC Standard, dieser hat eine sehr geringe Verbreitung bzw. ist inzwischen tot.
    Heutzutage geht man den umgekehrten Weg: FibreChannel over Ethernet, kurz FCOE.
    Netzwerkkarten, die das beherrschen, bezeichnet man als CNA. Dazu später mehr.



    Standard #1: Infiniband



    Diese Sektion ist noch im Aufbau und ich sammle noch informationen!

    Infiniband ist der De-Facto Forenstandard weil die Hardware für günstiges Geld in der Bucht erhältlich ist.

    Karten:



    Die Karten werden auch Host Channel Adapter, kurz HCA, genannt.
    Übliche Hersteller sind z.B. Mellanox, Cisco und Voltaire. Es existieren aber viele OEM Karten von IBM, HP usw.
    Man sollte sich auf jeden Fall VOR dem Kauf über die Karte informieren und beim Hersteller dann Treiber und OS Kompatibiltät checken.
    Desktop Motherboards arbeiten normalerweise problemlos mit den Karten zusammen.

    Infiniband Kabel:

    Leider ist die Kabellänge auf 15 Meter begrenzt, ausserdem sind sie teuer.
    Am billigsten scheinen sie über ebay in den USA zu haben zu sein.

    Die Anschlüsse entsprechen dem SFF8470 Standard, auch CX4 genannt:



    Die Stecker können nicht einfach wie bei RJ45 gecripmt werden.
    Diese Kabel werden teilweise auch für 10 GbE und Serial Attached SCSI (SAS) benutzt.
    Achtet darauf, dass es sich um Stecker mit Laschenbefestigung handelt nicht um solche mit Schraubbefestigung.
    Es gibt auch Glasfaser-Konverter für diese Anschlüsse, die sind aber kaum bis gar nicht verfügbar.

    Ein SDR Infiniband Kanal erreicht 2,5 Gbit/s Signalrate. Wie viele andere aktuellen Interfaces (z.B. SATA) wird ein 8B/10B Code verwendet. Das heisst, dass von zehn übertragenen Bits acht Bits Nutzdaten sind. Mit anderen Worten, der konzeptionell bedingte Overhead beträgt 20%.
    Diese Rechnung beinhaltet noch nicht den zusätzlichen Overhead durch andere Protokolle, die man über IB nutzt. In unserem Fall zumindest TCP/IP, zusätzlich vielleicht noch FTP usw.

    Neben SDR ist auch DDR (5 Gbit/s Signalrate pro Kanal) und QDR (10 GBit/s Signalrate pro Kanal) spezifiziert, die auch alle einen 8B/10B Code nutzen. Entsprechende Hardware ist auch noch zu akzeptablen Preisen zu bekommen.
    Darüber hinaus ist noch FDR und EDR spezifiziert, die mit einem 64B/66B Code den Overhead massiv verkleinern, auf die wird hier jedoch erstmal nicht weiter eingegangen auf Grund mangelnder Verfügbarkeit.
    Man kann auch davon ausgehen, dass SDR, DDR und QDR im Heimbereich noch lange ausreichen wird.

    In auf dem Markt erhältlicher, gängiger IB Hardware werden immer mindestens vier Kanale gebündelt.

    Das ergeben sich folgende, effektive Signalraten:

    SDR: 10 GBit/s
    DDR: 20 GBit/s
    QDR: 40 Gbit/s

    Bedenkt, dass davon mindestens 20% für Overhead draufgehen werden!

    Software:
    IP over Infiniband (IPoIB) ist das Stichwort, wenn man normale Netzwerkanwendungen darüber laufen lassen möchte.
    Dabei ist darauf zu achten, dass die Karten IP Offloading unterstützen, denn sonst ist mit hoher CPU last zu rechnen.

    Für iSCSI gibt es RDMA, welches die Daten direkt zwischen den Hauptspeichern der beteiligten PCs ohne CPU Beteiligung transferiert.
    Das funktioniert, soweit ich weiß, nur unter Linux/Solaris vernünftig.

    Schlingel_INV hat ein wunderbares "How To" zur Einrichtung einer Infiniband Verbindung verfasst:
    >>Infiniband How To<<




    Standard #2: 10 Gbit Ethernet

    Planung und Aufbau:
    Da die Retailpreise sich einfach nicht bewegen wollen kommt nur ein Gebrauchtkauf in Frage.
    Switche mit 10 Gbit sind unverhältnismässig teuer.

    Daher wird der Heimanwender auf eine Punkt zu Punkt Verkabelung setzen.
    Günstigerweise sind die meisten Karten, die verkauft werden, Dualport Karten.
    Das vereinfacht die Sache! Man baut einfach eine Netzwerkbrücke über diese beiden Ports. Damit lassen sich Theoretisch unbegrenzt viele PCs vernetzen, leider teilen sich diese auch die Bandbreite.
    Das normale Heimnetz für Internet usw. bleibt natürlich physikalisch getrennt!

    Die Verschiedenen Anschlüssen und Standards:

    Glasfaser:

    Transceiver:

    Die Transceiver sind Module, die in die Karten gesteckt werden.
    Es gibt SFP+ (klein), XFP (mittelgroß) und XENPAK (riesig)
    Die tun im Allgemeinen das gleiche, nämlich elektrische Signale in optische wandeln. Die Großen verbrauchen aber mehr Strom und benötigen mehr Kühlung.
    SFP+ ist das aktuellste Format.

    Tranceiver sind im Allgemeinen nicht billig und man sollte besser nach Karten MIT Transceivern Ausschau halten. Damit ist garantiert, dass diese auch zusammen funktionieren.
    Manche Kartenhersteller lassen nur Transceiver von einem bestimmten Hersteller zu!
    Die mechnischen Stecker sind in allen Fällen vom Typ LC.



    Lichtwellenleiter (LWL):

    Oft auch Glasfaserkabel genannt, häufig findet man auch die falsche Bezeichnung FibreChannel-Kabel! Sehr billig gebraucht zu haben, auch neu noch problemlos erschwinglich. Preise werden weiter unten noch genau behandelt.

    Für LWL gibt es gewisse Kenngrößen, die über Eigenschaften und Qualität Auskunft geben. Grundsätzlich unterscheidet man Multimode- und Singlemodefasern.

    Üblicherweise sind Multimode-LWL orange, Singlemode-LWL sind gelb. Wir befassen und hauptsächlich mit Multimode-LWL, die für kurze und mittlere Übertragungslängen gedacht sind. Das sind immer noch mehrere 100 Meter, für den üblichen Heimgebrauch also ausreichend.

    Außerdem unterscheidet mal die Faserkategorie, bei Multimode-LWL sind das die Kategorien OM1, OM2, OM3 und OM4. OM1 und 2 sind dabei hauptsächlich zur Anwendung mit LEDs als Lichtquelle gedacht, was früher häufig der Fall war. Damit war 10 Gbit/s technisch unmöglich, weswegen nun hauptsächlich Laser eingesetzt werden, wofür man OM3 oder 4 benötigt. Daher beim Kauf darauf achten, dass die LWL mindestens der Kategorie OM3 entsprechen!

    Dritte und letzte Kenngröße sind die Durchmesser des Kerns und des Mantels der LWL. Dabei handelt es sich um die beiden inneren Schichten eines LWL, die dritte ist eine Schutzbeschichtung und die vierte die äußere Hülle.
    Relevant sind jedoch nur Kern und Mantel.
    Gängig sind 50 µm für den Kern und 125 µm für den Mantel, meist einfach als 50/125 erwähnt. In Kombination mit Kategorie OM3 und LC Steckern wird man auch nicht viel andere finden, trotzdem sollte man eben genau darauf achten. Man weiß ja nie.

    Die Steckertypen sind für gewöhnlich im Produktnamen mit erwähnt und für beide Seiten des Kabels angegeben. Für Kabel mit LC Steckern an beiden Seiten, die wir ja haben wollen, wäre das meist LC-LC oder LC/LC.

    Gesucht für unsere Zwecke sind also LWL mit LC-LC, OM3 und 50/125 µm!

    Kostenpunkt für gängige Längen im Heimbereich liegen z.B. bei 6 bis 8 Euro für 0,5 bis 3,0 Meter. 10 Meter gibts für ca. 15 Euro, 20 Meter für ca. 25 Euro.

    Glasfaserkabel sind empfindlicher als Kupferkabel, aber trotzdem sollte einen das nicht davon abhalten welche zu verlegen.
    Sie sind dünner und teilweise flexibler als Kupferkabel, man muss aber gut auf die Biegeradien achten.

    Optisch:

    10Gbase-SR:
    Meistverbreitete Art bei optischen Transceivern. Läuft über Multimode Kabel mit LC Verbindern.
    Distanz: 300 Meter über 50 µm Multimode Kabel

    10Gbase-LR:
    Erfordert Singlemode Kabel, die sind nur bedingt teurer als Multimode Kabel.
    Die SFPs für diesen Standard sind billig, aber nicht immer kompatibel.
    Distanz: 10 Kilometer über Singlemode Fiber

    Kupfer:

    10Gbase-CX4:
    Billig zu finden, recht verbreitet. Limitierung auf 15 Meter Kabellänge.
    Verwendet die gleichen Kabel wie Infiniband.
    Distanz: 15 Meter

    10Gbase-T:
    SEHR selten zu finden, ist der standard der über CAT6 und CAT7 Kabel mit RJ45 Steckern läuft.
    Soll aber viel Strom brauchen und weniger zuverlässig sein als die optischen Alternativen.
    Distanz: 100 Meter

    SFP+ CU:



    Der neueste Standard für Kurzstreckenverbindungen mit Kupferkabeln.
    Es handelt sich um Kupferkabel mit SFP+ Modulen an den Enden.
    Es gibt aktive und passive Kabel. Die passiven funktionieren bis etwa 7 Meter.
    Aktive erreichen 15-20 Meter.
    Preise fangen bei ca. 30 Euro für 3 Meter an.
    Nicht alle Karten mit SFP+ Slots supporten SPF+ CU Verbindungen und nicht alle Hersteller supporten offiziell die maximale Kabellänge!
    Distanz: 7-20 Meter

    Jumbo Frames:
    Es ist bei 10 Gbit/s SEHR vorteilhaft mit Jumboframes zu arbeiten.
    Grund: 10 Gbit/s bei 1500 Byte pro Paket macht gigantisch viele Pakete in der Sekunde!
    Diese verursachen beim Eintreffen Interrupts, die können aber nicht auf mehrere Kerne verteilt werden und daher flooden sie einen Kern bis er "voll" ist. Dann ist die maximale Datenrate für 1500er Frames erreicht.
    Bei meinen Benches ist das irgendwann bei 300-400 MByte/s der Fall.
    Mit 9000 Byte Jumboframes wird die Interruptrate deutlich reduziert, weil die
    Anzahl der Pakete um den Faktor 6 zurückgegangen ist.

    Karten:
    Nun kommen wir zu den Karten, die mir so über den Weg laufen/gelaufen sind:
    Im Allgemeinen werden 10 Gbit/s Dualport CNA's aus neuen Servern ausgebaut, weil sie nicht verwendet werden.
    Das sorgt für gute Preise und Verfügbarkeit.
    Bei eBay werden CNAs häufig als 10 GB Fibre Channel oder FCOE Adapter oder ähnlich bezeichnet.
    Es handelt sich dabei in 99% der Fälle um eine Karte die auch Ethernet kann. Man findet jedoch auch reine 10 GbE netzwerkkarten/NICs.

    Die Information habe ich in mühsamer Kleinarbeit aus den Tiefen der Datenblätter und Handbücher zusammengeklaubt, basieren teilweise aber auch auf eigenen Erfahrungen mit den Adaptern (erster Teil der Auflistung).

    Intel Pro/10GBE XF SR

    Sehr gute 10 Gbit/s Karte von Intel, auch wenn inzwischen ein neuerer Chip draussen ist.
    Basiert auf dem 82598EB Controller - 6.5W TDP, PCI-E 2.0 x8.
    Externe SER/DES.
    16 Virtuelle Cues VMDq (Vorteilhaft unter VMWARE)

    Transceiver: XFP
    Preis: ~220 Euro mit XFPs
    Betriebsystemunterstützung: Windows, Linux, Solaris, BSD, ESX(I), MACOS

    Pro: Guter Support, Treiberunterstüzung, VMDq
    Kontra: Preis, XFP Tranceiver

    Brocade BR1020

    Ein sogenannter Converged Network Adapter/CNA.
    Unterstützt FCOE in Hardware.
    Singlechip Lösung mit integrierten SER/DES, 8.5W TDP, PCI-E 2.0 x8.
    Achtung: Braucht zwingend elektrisch 8 Lanes!
    OEM PNs: IBM: 42C1820

    Transceiver: SFP+
    Preis: 170 Euro mit SFPs

    Warnung: benötigen Brocade SFP's!

    Betriebsystemunterstützung: Windows, Linux, Solaris (keine Jumboframes), ESX(I)

    Pro: Preis
    Kontra: Kein!! Support, SFP Kompatibilität, Treiber

    Emulex One Connect OCe11102



    Ein "Unified Wire" Adapter, der FCOE und iSCSI beherrscht.
    Singlechip Lösung mit externen SER/DES, PCI-E 2.0 x8 (Mechanisch x9-> x16 Port erforderlich).
    Unterstützt Stateless Offload und iSCSI Offload (je nach Lizenz).
    OEM PN: IBM:49Y4201 FRU: 49Y4202

    Transceiver: SFP+
    Preis: ~160 Euro

    Betriebsystemunterstüzung: Windows, Linux, Solaris (nur mit Supportvertrag downloadbar), ESX(I)

    Pro: Preis, iSCSI und FCOE Support, SFP Kompatibilität
    Kontra: bei OEM Karten möglicherweise kein iSCSI

    Achtung: Bei den Karten von IBM müssen auf der Rückseite die letzten vier Kontakte der PCI-E Kontaktleiste abgeklebt werden! Erklärung mit Bild in Post 255.

    Chelsio S320E-CR
    Chelsio Karten sind die wahren KILLER Netzwerkkarten.
    Sie haben eine TCP Offload Engine. Das bedeutet, dass das komplette TCP/IP in der Netzwerkkarte läuft. Ausserdem wird iSCSI in Hardware unterstützt.
    Multichip Lösung, 20W TDP, PCI-E 1.0 x8.
    Wegen des hohen Stromverbrauchs ist die Karte vermutlich eher nichts für den 24/7 Homeserver.

    Es gibt noch die N320E / N310E Karten, diese haben keine TOE und kein iSCSI!

    Transceiver: XFP, SFP+
    Preis: ~220 Euro

    Betriebsystemunterstüzung: Windows, Linux, Solaris, BSD, ESX(i), MAC-OS

    Pro: Performance, CPU-Last, iSCSI-Offload
    Kontra: Preis, PCIe 1.0, Stromverbauch


    Karten, die ich noch nicht persönlich in den Fingern hatte:
    ------------------------------------------------------
    Qlogic QLE8142:
    Dualport Converged Network Adapter
    Kann Hardware FCOE, Singlechip Lösung, 7.4W TDP, PCI-E x8.

    Transceiver: SFP+
    Preis: ~170 Euro

    Warnung: Die optischen Versionen benötigen Qlogic SFP's!

    Betriebsystemunterstüzung: Windows, Linux, Solaris, BSD, ESX(i)

    QLogic QLE 3242:
    Dualport Intelligent Network Adapter.
    Kann hardware FCOE, externe SER/DES, 7.4W TDP, PCI-E x8.

    Varianten:
    QLE3242-CU - SFP Kupferkabel
    QLE3242-SR - Optisch Shortrange
    QLE3242-LR - Optisch Longrange
    QLE3240-CU - SFP Kupferkabel Singleport
    QLE3240-SR - Optisch Shortrange Singleport
    QLE3240-LR - Optisch Longrange Singleport

    Transceiver: SFP+
    Preis: ~170 Euro

    Warnung: Die optischen Versionen benötigen Qlogic SFP's!

    Besonderheiten: Kann 4 virtuelle NICs für VMWARE/HYPER-V erzeugen

    Betriebsystemunterstüzung: Windows, Linux, Solaris, BSD, ESX(i)


    INTEL E10G41AT2
    Ein Vertreter der seltenen 10GBase-T Familie, 15.4W TDP!

    Preis: ~400 Euro NEU!

    Betriebsystemunterstüzung: Windows, Linux, Solaris, BSD, ESX(i), MACOS

    Pro: VMDq, Treiber, Support, Kupferkabel
    Kontra: Singleport, Stromverbrauch

    HP NC524SFP

    WARNUNG: Diese Karte ist nur eine Interface Karte.
    Das bedeutet sie funktioniert nur auf in Kombination mit einer HP Riserkarte NC375i.

    Preis: 250 Euro NEU!

    Betriebsystemunterstüzung: kA


    Switche:
    Wie schon am Anfang geschrieben sind diese SEHR teuer:
    Es gibt Switches mit 12-48 Gigabit Ports und 1-4 10 Gbit/s Uplink Ports.

    Die modernen haben feste 10 GBit/s Uplink Ports (2-4), wo man dann einfach ein 10 GBit/s SFP+ Modul reinsteckt.
    Hersteller schließen manchmal "fremd"-SFPs per Software aus!
    Ältere haben ein oder zwei Erweiterungschächte, wo man ein Stacking Modul oder ein 10 GBit/s Modul einbauen kann.
    In das Stacking Modul steckt man dann einen XFP oder Xenpak Transceiver.
    Es gibt aber auch noch CX4 Module, die man natürlich nicht wirklich brauchen kann.
    ACHTUNG: Ältere Switche schaffen über diese Modulports manchmal nicht die vollen 10 GBit/s!

    Modelle:

    3Com SC4200
    12-48 Port Gbit Switch, kann mit 1-2 10 GBit/s Modulen aufgerüstet werden Transceiver: XFP

    Foundry BigIron Core Switches
    Diese wurden mir von TEGO3 nahegelegt.
    Sind recht günstig in der Bucht zu haben und lassen sich mit 10Gbit Ports ausrüsten.
    Die schlagen dann aber auch mit 400-500Eur zu Buche.
    OEM Versionen sind z.B. der HP Procurve 9304 (9308).
    Achten sollte man darauf die Richtigen Netzteile und eine Management Karte zu haben.

    Linkliste:

    Wikipedia Artikel über 10 GbE

    Wikipedia Artikel über Infiniband

    Vielen Dank an DunklerRabe für die Überarbeitung dieses Startbeitrags


    [Changelog]

    Stand: 16.11.2011
    Spoiler: Anzeigen
    Geändert von barnacle2k (04.03.12 um 17:49 Uhr)

    10Gbit Sammelthread
    Diagnose: Obsessive Computing Disorder....

  2. Die folgenden 39 User sagten Danke an barnacle2k für diesen nützlichen Post:

    -GeRd- (05.02.12), -INU- (11.09.11), A8NSLIDELUXE (30.04.13), abri (30.03.12), amdpc (20.12.12), AxelMertes (21.09.16), b99 (03.09.17), bluesunset (26.08.12), Bzzz (06.12.14), chaoshead (18.01.12), cimbo (25.10.12), craxity (25.01.12), danielmayer (25.01.16), DEFENDER (30.03.14), DieTa (16.07.11), Dr.Akula (29.09.11), drmaniac (19.08.14), Essener80 (12.11.11), f3kf3k (24.09.11), Firebl (08.02.18), Ghandalf (05.01.12), Grav3 (11.05.11), Hiradur (30.01.15), itxler (12.02.13), jumas (27.09.11), KeBeNe (02.03.18), konfetti (12.05.11), Kullberg (06.06.11), QWERTZO (03.10.11), Sandwich (11.06.16), Schlingel_INV (11.09.11), Seegurke (12.11.11), sermon (15.02.13), Sightus (20.07.12), Spawn182 (11.10.15), TheBigG (05.11.11), theclaw (01.01.15), x4u (16.11.11), XTaZY (01.10.11)

  3. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  4. #2
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    very good

    auf die switches kommst du noch? ich glaub da wird's dann auch noch mal ein bisschen aufwendig (aber da muss man durch, hehe) ..

  5. #3
    Bootsmann
    Registriert seit
    18.02.2009
    Ort
    Hamburg
    Beiträge
    722
    Themenstarter


    Standard

    Erstmal danke für die Blumen.

    Switches sind so eine sache:
    Es gibt "Normale" switches mit 24x Gibt und 1-2x 10Gb uplink
    Die sind Preislich auch schon fast völlig ausser reichweite.

    Und die Coreswitches mit 8 bis X mal 10Gbit.

    Die dinger mit 10gb uplink machen wohl nur in den seltensten szenarien sinn.
    Wenn man mehrere gigabit Clients versorgen möchte kann man auch auf Trunking setzen.

    Und die Coreswitches naja die sind Preis und Stromverbrauchsmässig
    SOWAS von off the scale das es nicht mal fürs LUXX reicht.

    Außerdem geht es hier um ein HEIM netzwerk.
    das bedeutet im allgemeinen:
    1x Storage Server
    1-2x Workstations die schnellstens mit daten versorgt werden sollen.
    Daher reichen die üblichen Dualport karten ohne switch.
    Geändert von barnacle2k (11.05.11 um 21:10 Uhr)

    10Gbit Sammelthread
    Diagnose: Obsessive Computing Disorder....

  6. #4
    Leutnant zur See
    Registriert seit
    22.01.2005
    Ort
    Zweibruecken
    Beiträge
    1.062


    Standard

    Super, endlich jemand der sich mit 10Gbit auskennt.
    Ich such immer mal wieder nach Neuerungen, damit ich mir das auch mal leisten kann, aber die sind mir alle noch viel zu teuer. Bin dann bei Dual Gigabit gelandet, was völlig unnötig war, weils auf einer Leitung gar nichts bringt...

    Aber, wie kommst Du an diese Preise, wenn ich die Karten Google, kommts mir vor als hättest Du überall ne Null vergessen.

    Grüße
    Jürgen
    Hauptrechner: GA-X58A-UD5 Rev.2; i7 980x @ 4.13GHz 12GB; R9 390X; Samsung 840 Pro 128GB und 830 256GB; 1TB Velociraptor; 4TB WD Black
    Monitor: Dell 2709W A01 + Quato iColor Display
    Notebook: IBM T60p, Core 2 Duo 2.33GHz, 15" UXGA Flexview, FireGL 5200, 3GB, Samsung 830 128GB
    Server: Asrock M3A785GXH/128M; Phenom II 1100T; 8GB G.Skill 7-7-7-21; Solidata K5 64GB SLC; LSI 9260-16i mit 9*4TB Seagate NAS
    Digicam: EOS 60D; 24-105 4L IS USM; EF-S 10-22 USM; Sigma 18-35/1.8 DC HSM; EF 100/2.8 L IS USM Macro

  7. #5
    Bootsmann
    Registriert seit
    18.02.2009
    Ort
    Hamburg
    Beiträge
    722
    Themenstarter


    Cool

    Die Preise sind "gebraucht und ohne garantie" preise.
    Da muss man regelmässig in der bucht nach Auktionen ab 1eur kucken.
    - Ja die gibts...
    Das habe ich ja auch geschrieben das nur gebrauchtkauf in frage kommt.
    [Und von den 4 Karten die ich momentan im haus habe werde ich ja auch 1-2 wieder abstoßen]


    Als schmankerl benchmark von vor 2min:

    Code:
    NETIO - Network Throughput Benchmark, Version 1.26
    (C) 1997-2005 Kai Uwe Rommel
    
    TCP connection established.
    Packet size  1k bytes:  287196 KByte/s Tx,  337437 KByte/s Rx.
    Packet size  2k bytes:  343436 KByte/s Tx,  531674 KByte/s Rx.
    Packet size  4k bytes:  449715 KByte/s Tx,  615593 KByte/s Rx.
    Packet size  8k bytes:  531057 KByte/s Tx,  695901 KByte/s Rx.
    Packet size 16k bytes:  548053 KByte/s Tx,  733431 KByte/s Rx.
    Packet size 32k bytes:  587424 KByte/s Tx,  846875 KByte/s Rx.
    Done.
    (Intel gegen Brocade bei 9k frames)
    Geändert von barnacle2k (04.03.12 um 17:49 Uhr)

    10Gbit Sammelthread
    Diagnose: Obsessive Computing Disorder....

  8. #6
    Leutnant zur See
    Registriert seit
    22.01.2005
    Ort
    Zweibruecken
    Beiträge
    1.062


    Standard

    Zitat Zitat von barnacle2k Beitrag anzeigen
    Die Preise sind "gebraucht und ohne garantie" preise.

    Das habe ich ja auch geschrieben das nur gebrauchtkauf in frage kommt.

    Als schmankerl benchmark von vor 2min:

    Code:
    NETIO - Network Throughput Benchmark, Version 1.26
    (C) 1997-2005 Kai Uwe Rommel
    
    TCP connection established.
    Packet size  1k bytes:  287196 KByte/s Tx,  337437 KByte/s Rx.
    Packet size  2k bytes:  343436 KByte/s Tx,  531674 KByte/s Rx.
    Packet size  4k bytes:  449715 KByte/s Tx,  615593 KByte/s Rx.
    Packet size  8k bytes:  531057 KByte/s Tx,  695901 KByte/s Rx.
    Packet size 16k bytes:  548053 KByte/s Tx,  733431 KByte/s Rx.
    Packet size 32k bytes:  587424 KByte/s Tx,  846875 KByte/s Rx.
    Done.
    Wow, wie geil, das will ich auch haben! Keinen Flaschenhals mehr, durch den sich alles durchquetscht.

    Ich hatte schon mal bei eBay n bissl rumgekuckt, bin aber doch nicht so richtig schlau draus geworden, was ich denn alles brauche.

    Die einzigen nach denen ich dann gekuckt habe, waren dann die Intel Karten, aber die kosten ja noch über 400€.
    2 Karten würden ja reichen, ich könnt ja ne Direktverbindung ohne Switch machen.
    Wenn ich so was für um die 300€ Komplett zusammenbekommen würde, könnt ich echt schwach werden.
    Hauptrechner: GA-X58A-UD5 Rev.2; i7 980x @ 4.13GHz 12GB; R9 390X; Samsung 840 Pro 128GB und 830 256GB; 1TB Velociraptor; 4TB WD Black
    Monitor: Dell 2709W A01 + Quato iColor Display
    Notebook: IBM T60p, Core 2 Duo 2.33GHz, 15" UXGA Flexview, FireGL 5200, 3GB, Samsung 830 128GB
    Server: Asrock M3A785GXH/128M; Phenom II 1100T; 8GB G.Skill 7-7-7-21; Solidata K5 64GB SLC; LSI 9260-16i mit 9*4TB Seagate NAS
    Digicam: EOS 60D; 24-105 4L IS USM; EF-S 10-22 USM; Sigma 18-35/1.8 DC HSM; EF 100/2.8 L IS USM Macro

  9. #7
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    Zitat Zitat von barnacle2k Beitrag anzeigen
    ..Es gibt "Normale" switches mit 24x Gibt und 1-2x 10Gb uplink...
    sind das die SFP Ports, in die Tranceiver Module installiert werden können?

  10. #8
    Bootsmann
    Registriert seit
    18.02.2009
    Ort
    Hamburg
    Beiträge
    722
    Themenstarter


    Standard

    Zitat Zitat von jumas Beitrag anzeigen
    Ich hatte schon mal bei eBay n bissl rumgekuckt, bin aber doch nicht so richtig schlau draus geworden, was ich denn alles brauche.
    Was du brauchst sind: 2 Optische Karten mit Transceivern und ein Glasfaserkabel.
    Von karten ohne transceivern kann ich nur abraten.
    Kosten dürte dich das etwa 350eur.

    Btw. solche fragen soll diese Thread beantworten.
    Ich werde versuchen das im Startpost deutlicher rüberzubringen was man denn nun wirklich benötigt.

    Zitat Zitat von dv2130n Beitrag anzeigen
    sind das die SFP Ports, in die Tranceiver Module installiert werden können?
    Das kommt sehr auf den Switch an.
    Die Modernen haben feste 10g uplink Ports (2-4) wo man dann einfach ein 10G SFP reinsteckt.
    Ältere haben ein oder zwei Erweiterungschächte wo man ein Stacking modul oder ein 10gbit modul einbauen kann.
    In das Stacking modul steckt man dann einen XFP oder Xenpak.
    (Es gibt aber auch viele CX4 module die man natürlich nicht wirklich brauchen kann)
    ABER ACHTUNG: ältere switches schaffen über diese Modulports manchmal nicht die vollen 10gbit.
    Geändert von barnacle2k (11.05.11 um 21:43 Uhr)

    10Gbit Sammelthread
    Diagnose: Obsessive Computing Disorder....

  11. #9
    Oberstabsgefreiter Avatar von josen
    Registriert seit
    09.04.2010
    Beiträge
    438


    Standard

    Öhm,

    du hast also keinen Server, für den du 10Gbit/sec brauchst.

    Ich hab auch schon desöfteren "just because" genullte UDP- und TCP-Pakete über unseren Campus gejagt (mehrfach 10GE). Aber eine Anwendung für zuhause sucht man doch bei den meisten Leuten vergeblich.

    Die Frage ist also: Wofür benutzt ihr 10GE zuhause?

    Grüße

  12. #10
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    Zitat Zitat von barnacle2k Beitrag anzeigen
    ...Das kommt sehr auf den Switch an.
    ....[/B]
    nun ja, ich hätte da (ohnehin) den draytek vigorswitch g2080 im auge gehabt
    ist ein managed layer 2 vlan switch (es gibt da bei mir nen server (den ich eigentlich mit dual gbit anbinden wollte), 4 clients (plus ein paar mobile teile)), 8 gbit ports, 2 sfp ports, aber schon ein älteres gerät
    (ausserdem ist er von der dt. draytek seite verschwunden, allerdings vereinzelt noch erhältlich ...)

    falls du einen vorschlag für so einen switch mit evtl. noch erträglicher preisgestaltung hättest ...

  13. #11
    Hauptgefreiter
    Registriert seit
    14.01.2011
    Beiträge
    213


    • Systeminfo
      • Storage:
      • 30TB
      • Monitor:
      • Eizo 2110, Eizo S1931, Eizo 2736
      • Netzwerk:
      • Cisco Catalyst, ASA, VMWareESX
      • Sound:
      • Focusrite
      • Betriebssystem:
      • OSX, Ubuntu, CentOS, Solaris
      • Notebook:
      • Apple Macbook
      • Photoequipment:
      • vieles...

    Standard

    @barnacle2k

    Respekt! Danke für die Infos.

    Als Switches könnte man die von Enterasys, Force10 und Cisco aufführen.

    Als PCI-X / PCI-E Kartenhersteller würde ich noch Mellanox mit aufnehmen, die machen auch 45gg ( 40Gbit )
    Switches findet man denen auch.

    Brocade = Foundry Networks , sind wohl gekauft worden.

    Im Heimbereich gibt es da sicherlich Anwendungen.
    Spontan fällt mir da HD Video ein.
    Im Bereich Fotografie kann der Zugriff auch nie schnell genug sein.
    10 Gbit machen mich schon an

    Kennte einer von euch einer sauber laufende Karte für OSX ?

    ---------- Beitrag hinzugefügt um 23:05 ---------- Vorheriger Beitrag war um 23:02 ----------

    Zitat Zitat von dv2130n Beitrag anzeigen
    nun ja, ich hätte da (ohnehin) den draytek vigorswitch g2080 im auge gehabt
    ist ein managed layer 2 vlan switch (es gibt da bei mir nen server (den ich eigentlich mit dual gbit anbinden wollte), 4 clients (plus ein paar mobile teile)), 8 gbit ports, 2 sfp ports, aber schon ein älteres gerät
    (ausserdem ist er von der dt. draytek seite verschwunden, allerdings vereinzelt noch erhältlich ...)

    falls du einen vorschlag für so einen switch mit evtl. noch erträglicher preisgestaltung hättest ...
    warum nicht da nicht diesen ?

    HP V1810-8G Switch Switch - 8 Anschlüsse - verwaltet - Englisch / Europa
    Geändert von xymos (11.05.11 um 23:05 Uhr)

  14. #12
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    Zitat Zitat von xymos Beitrag anzeigen
    wo sind'n da die sfp ports?
    Geändert von dv2130n (11.05.11 um 23:14 Uhr)

  15. #13
    Hauptgefreiter
    Registriert seit
    14.01.2011
    Beiträge
    213


    • Systeminfo
      • Storage:
      • 30TB
      • Monitor:
      • Eizo 2110, Eizo S1931, Eizo 2736
      • Netzwerk:
      • Cisco Catalyst, ASA, VMWareESX
      • Sound:
      • Focusrite
      • Betriebssystem:
      • OSX, Ubuntu, CentOS, Solaris
      • Notebook:
      • Apple Macbook
      • Photoequipment:
      • vieles...

    Standard

    @dv2130n

    OK, ist ein Argument. Hatte nicht so herausgedeutet, dass Du die brauchst.

  16. #14
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    Zitat Zitat von xymos Beitrag anzeigen
    @dv2130n

    OK, ist ein Argument. Hatte nicht so herausgedeutet, dass Du die brauchst.
    jo, ich hatt' mich ein bisschen dämlich ausgedrückt

  17. #15
    Hauptgefreiter
    Registriert seit
    14.01.2011
    Beiträge
    213


    • Systeminfo
      • Storage:
      • 30TB
      • Monitor:
      • Eizo 2110, Eizo S1931, Eizo 2736
      • Netzwerk:
      • Cisco Catalyst, ASA, VMWareESX
      • Sound:
      • Focusrite
      • Betriebssystem:
      • OSX, Ubuntu, CentOS, Solaris
      • Notebook:
      • Apple Macbook
      • Photoequipment:
      • vieles...

  18. #16
    Oberbootsmann
    Registriert seit
    28.03.2008
    Beiträge
    886


    Standard

    Leider fällt mir gerade der Hersteller nicht ein, aber es gibt PCI-E Infiniband Karten die auch 10GB-Ethernet können. Vielleicht kann man die gut gebraucht bekommen.

    Was habt ihr denn da für Storage-Systeme, dass ihr den Aufwand für 10GBit Verkabelung nicht scheut? Da scheitert der sinvolle Einsatz bei mir zumindest schon. Mehr als faktor 2 würde ich durch 10GBit nicht gewinnen.

  19. #17
    PowerShellAdmin
    Guest

    Standard



    Dann lieber ne 1Gbit DualPort-Karte an jedem Client, Trunking fähiges Switch und so 2Gbit je Client.
    => Saubere Netzwerkstruktur & saubere Leistung am Ende.

    10Gbit für Home - sinnvoll nein.
    Da die Peripherie diese Lasten nicht ausnutzen kann. Also in 99% aller Fälle nicht begründbar... aber spaß macht sowas schon....

    Also jungs...treibt die Nachfrage nach oben, so dass dann die 10Gbit Karten massentauglich werden =)
    Geändert von PowerShellAdmin (12.05.11 um 08:16 Uhr)

  20. #18
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    34.161


    Standard

    Kurze Anmerkung zu dem Thema noch von mir...

    Ich lese hier im Thread bis auf den Startpost immer von SFP Ports... Ihr müsst beachten, das es SFP+ Ports sein müssen. SFP+ Ports fressen idR auch nur 10GBit GBICs (also diese Module)
    Zumindest ist das so bei den größeren Herstellern die ich in den Fingern hatte. Bei Enterasys gibt es die Unterscheidung zwischen SFP und SFP+ Ports knallhart. Ein Switch mit 2x SFP und 2x SFP+ kann eben nur zwei mal 1GBit GBICs und zwei mal 10GBit GBICs aufnehmen. Es gehen weder vier 1GBit GBICs noch vier 10GBit GBICs.

    Des weiteren sollte man beachten, bei Verwendung eines Switches sollte die Backplane des Switches auch genügend Bumms bereit stellen.
    Da gibts haufenweise Switches die zwar erstmal augenscheinlich viele SFP+ Ports bieten. Aber dann Bandbreitentechnisch intern recht dünn besiedelt sind.


    Und noch ne persönliche Anmerkung...
    Ich halte im Moment 10GBit fürs Heimnetzwerk für deutlich überdiemensioniert. Gerade bei so ner Frickellösung von wegen zwei PCs direkt zu verbinden.
    Grund dafür ist das Storage System...
    Es gibt aktuell keine Hardware die wirklich flächendeckend diese Bandbreiten auslasten kann.
    Einfache Rechnung. 10min bei ~120MB/sec macht grob 70GB an Daten, die geschaufelt werden.
    ~120MB/sec schafft man mit "normaler" HDD Technik schon nicht durchgängig. Sprich es muss schon ein Raid her. Also mindestens Raid 0/10 oder Raid 5... Und das dann auf beiden Seiten. (sprich Server und PC)

    Wenn man das ganze jetzt mal weiter spinnt. Welche Daten sollen denn so performant täglich übertragen werden?
    70GB Video Material in exorbitannten Auflösungen?
    Klar das macht man einmal die Woche oder im Monat, aber nicht täglich.

    Was ich damit sagen will, der Zeiteinsparungsfaktor ist zwar prozentual gesehen sehr hoch. Bzw. kann sehr hoch sein, wenn das Storage mitspielt. Aber der absolute Zeiteinsparungsfaktor ist bei den im Homebereich üblicherweise gehändelten Datenmengen lächerlich gering.
    Was durchaus Sinn machen kann (auch im Heimbereich) wäre einen dicken Server zu haben und diesen via 10GBit an das Heimnetz anzubinden. Damit alle Clients möglichst volle Bandbreite zum Server haben. Nur sprengt wohl die Switchtechnik hier aktuell den Preisrahmen.
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  21. #19
    Bootsmann
    Registriert seit
    18.02.2009
    Ort
    Hamburg
    Beiträge
    722
    Themenstarter


    Standard

    Da ist man mal ein paar stunden nicht da und schon...

    1. Also alle switches die ihr da so fleißig vorschlagt haben nur SFP ports -> 1 Gbit.
    nochmal für alle:
    ES GIBT KEINE BEZAHLBAREN SWITCHES MIT 10GBIT
    ok ok, ich werde eine sektion für switches einfügen

    2. Ich dachte ich hätte im Startpost eindeutig klargemacht das es hier NICHT um sinnvoll oder Kosteneffizient geht! -> Wird noch geändert.

    Es geht um: Oh, mein Raid im Fileserver schafft 1GByte/sec. Read/Write
    DAS soll auch am Client ankommen.
    Wenn einem das ~300-400Eur wert ist...
    Geändert von barnacle2k (12.05.11 um 12:43 Uhr)

    10Gbit Sammelthread
    Diagnose: Obsessive Computing Disorder....

  22. #20
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    Zitat Zitat von fdsonne Beitrag anzeigen
    ... Ihr müsst beachten, das es SFP+ Ports sein müssen.
    ok, sfp+ ist also das zauberwort
    der draytek g2080 bietet tatsächlich laut handbuch nur sfp, also einen channel für einen 1Gbit fibre backbone
    vorteil liegt wohl darin, dass damit ganz wesentlich grössere entfernungen überbrückt werden können (also fürs homenetzwerk eher nicht von belang),
    während cat ja allemal nur bis 100m sicher spezifiziert ist


    Zitat Zitat von fdsonne Beitrag anzeigen
    ...von wegen zwei PCs direkt zu verbinden...
    kommt bei meinem netzwerk auch nicht in betracht, ich hatte, wie oben schon angedeutet, eher vor, vom server zum switch mehrfach leitungen (zweimal oder gar viermal gigabit) bis zum switch zu legen, um die gesamtbandbreite zu erhöhen und multiple/simultane anfragen der clients besser handeln zu können, während die clients selbst jeweils
    nur mit 1Gbit am switch hängen

    Zitat Zitat von fdsonne Beitrag anzeigen
    ...Was durchaus Sinn machen kann (auch im Heimbereich) wäre einen dicken Server zu haben und diesen via 10GBit an das Heimnetz anzubinden. Damit alle Clients möglichst volle Bandbreite zum Server haben. Nur sprengt wohl die Switchtechnik hier aktuell den Preisrahmen.
    wie sieht es denn mit dem hier mit 1x 10GBase xfp aus: 3Com Switch 4200G 12-Port managed ab 561.90 &euro; | heise online-Preisvergleich
    allerdings käme wohl noch ein xenpak modul (preis k.a.) dazu ...

  23. #21
    Stabsgefreiter Avatar von *mv*
    Registriert seit
    01.01.2010
    Ort
    Hamburg
    Beiträge
    285


    • Systeminfo
      • Systemname:
      • HP N36L
      • RAM:
      • 8GB ECC
      • Storage:
      • 1x VB0250EAVER + 4x WD20EARS
      • Sound:
      • Beyerdynamic MMX 101 iE Individual
      • Betriebssystem:
      • Debian Squeeze
      • Notebook:
      • Surface Pro 3
      • Photoequipment:
      • Sony A7II
      • Handy:
      • Huawei P8

    Standard

    auf was muss man denn achten um zwischen 2 switches oder zwischen switch und server mehrer ports bündeln zu können?

  24. #22
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    Zitat Zitat von *mv* Beitrag anzeigen
    auf was muss man denn achten um zwischen 2 switches oder zwischen switch und server mehrer ports bündeln zu können?
    port trunking feature in der switch firmware
    gewünschte anzahl nics am board
    zu nics (zb. intel) passende teaming software beim board

    ... und immer schön auf ordentliches kabel achten, zb. von Dätwyler uninet 5502 flex 4p

    aber eigentlich ist das ot, weil hier fibre thread
    Geändert von dv2130n (12.05.11 um 13:42 Uhr)

  25. #23
    Stabsgefreiter Avatar von *mv*
    Registriert seit
    01.01.2010
    Ort
    Hamburg
    Beiträge
    285


    • Systeminfo
      • Systemname:
      • HP N36L
      • RAM:
      • 8GB ECC
      • Storage:
      • 1x VB0250EAVER + 4x WD20EARS
      • Sound:
      • Beyerdynamic MMX 101 iE Individual
      • Betriebssystem:
      • Debian Squeeze
      • Notebook:
      • Surface Pro 3
      • Photoequipment:
      • Sony A7II
      • Handy:
      • Huawei P8

    Standard

    ok port trunking war das fehlende stichwort. danke!

    evtl. konkrete hardware empfehlungen für nen 16er bzw 24er switch

  26. #24
    Oberstabsgefreiter
    Registriert seit
    17.11.2010
    Beiträge
    436


    Standard

    Zitat Zitat von *mv* Beitrag anzeigen
    ..evtl. konkrete hardware empfehlungen für nen 16er bzw 24er switch
    da können mal die netzwerk profis was zu sagen,

    mir persönlich sagen die draytek zu, meine erfahrungen mit den routern von denen sind jedenfalls die allerbesten

  27. #25
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    34.161


    Standard

    @barnacle2k
    ich wollte auch nicht gegen das Thema wettern
    Sondern das spiegelt nur meine persönliche Meinung wieder... Aber sei es drum. Zurück zum Thema.


    @*mv*
    Bei manchen Geräten heist das noch anders. Enterasys schimpft Trunking beispielsweise Link Aggregation. Ich glaub Cisco auch...
    Bei Enterasys definiert man dann sozusagen Link Aggregation Groups.
    Bei Nortel bzw. Avaya heist das glaub ich direkt Trunking...

    Auf NIC Seite nennt man es oft Teaming... Und es wird Software benötigt.
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

Seite 1 von 116 1 2 3 4 5 11 51 101 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •