Alles in Allem habe ich das gefühl, das hier einige MBit/s und MByte/s verwechseln bzw durcheinander bringen...
Die Bandbreite eines Netzwerks wird in MBit angegeben. z.B:
54 MBit -> Wlan
100 MBit -> "normales" Lan
1000 MBit -> "normales Gigabit Lan"
Relevant für den Nutzer ist jedoch der Datendurchsatz des Netzwerks (genauer Netto-Datendurchsatz), welcher in MByte angegeben wird. Dazu teilt man die Bandbreite durch 8 (= Bruttorate) und zieht noch mal ca. 10% ab um auf die Nettorate zu kommen. Dadurch ergeben sich folgende theoretische maximalen Durchsätze
(0054 MBit/s) / 8 = 06,75MByte/s - 10% = 06,075 MByte/s
(0100 MBit/s) / 8 = 12,50MByte/s - 10% = 11,250 MByte/s
(1000 MBit/s) / 8 = 125,0MByte/s - 10% = 112,50 MByte/s
Wie gesagt, das sind die theoretischen Maxima die eine Leitung unter optimalen Bedingungen erreichen KANN. Je nach Leitungslänge (ab 100m wirds kritisch bei Netzwerkkabeln) bzw Entfernung bei Wlan geht die Bandbreite in den Keller. Auch andere Störfaktoren beeinflussen mehr oder minder stark die Bandbreite. Bei Kabeln bspw. wenn sie neben Stromleitungen in Kabelkanälen oder in der Wand verlaufen (Stichwort Induktion), auch zuviele Netzwerkleitungen bremsen sich gegenseitig aus (sgn. talk(ing)-over).
Um solche Fehler zu vermeiden empfielt es sich besser geschirmte Kabel zu verwenden, da die mit steigender Schirmung unempfindlicher gegen diese Effekte werden.
Greetz
Fire