Seite 92 von 260 ErsteErste ... 42 82 88 89 90 91 92 93 94 95 96 102 142 192 ... LetzteLetzte
Ergebnis 2.276 bis 2.300 von 6491
  1. #2276
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    33.229


    Standard

    Zitat Zitat von layerbreak Beitrag anzeigen
    Ich finde jetzt leider den verda... Link nicht mehr. Es ging speziell um ESXi und VLAN. Kann mich noch daran erinnern, dass sich VLAN über jede einzelne Hardware konfigurieren lässt, über den Sender und Empfänger oder als drittes einer Mischung aus den ersten Beiden.
    Also hatte ich mich daran versucht - bis ich auf kein Gerät mehr zugreifen konnte. Es half nur noch eine Neuinstall von ESXi und ein Factory-Reset des Switches. Dieses Chaos wollte ich jetzt gerne vermeiden.
    Dann war an der Konfig grundsätzlich was falsch... Und wenn du dazu den ESX neu installieren musst (wie auch immer man den so zersägen kann ) muss es gar richtig fatal falsch gewesen sein.
    Im Grunde ist es aber ganz einfach. Du musst dir das so vorstellen. Du hast ne Haustür, da steht ne Nummer drüber... Per default hat ein 24 Port Switch beispielsweise also 24 Haustüren. Jede trägt dabei die Nummer 1 (also VLAN 1)
    Das bedeutet soviel wie, egal durch welche Tür du gehst, also welchen Port du nutzt, du landest immer im Netz 1 (VLAN 1)

    Nun gehst du einher und sagst beispielsweise, Haustür 1 (Port 1 am Switch) bekommt anstatt Nummer 1 (VLAN 1) nun die Nummer 10 (VLAN 10). Gehst du nun durch die Haustür, befindest du dich aber im Netz 10 und kannst somit nicht mit dem Netz 1 aus den anderen Ports/Türen kommunizieren. Zumindest nicht direkt.
    Das umkonfigurieren des Ports beschreibt dabei aber immer das untagget Verhalten. Sprich jeglicher Traffic, der nicht markiert ist (sprich getagget ist), landet automatisch in dem VLAN, wo der Port drin ist.

    Nun besteht noch die Möglichkeit einen Port zu taggen. Heist soviel wie, du hast immernoch den Port/den Türrahmen, aber es gibt nun in diesem Türrahmen mehrere Klappen mit jeweils anderen Nummern. Nun klemmst den ESX dann an diesen Port und sagst ihm, das eine Portgruppe für VMs mit der VLAN ID 10 getagget wird, und beispielsweise eine weitere mit der VLAN ID 100, sowie eine dritte beispielsweise wird ohne tag durch die NIC gelassen.
    Der Switch macht nun folgendes. Der untagged Traffic der dritten Portgruppe läuft in das VLAN, was das default VLAN des Ports (untagged) ist. IdR die 1, wenn nicht umkonfiguriert.
    Der tagged Traffic von VLAN 10 läuft dabei durch die selbe Tür, geht aber in die Klappe mit Nummer 10, der Traffic von VLAN 100 geht dabei in die Klappe mit Nummer 100.

    Somit trennst du grundsätzlich physikalisch die Netze. VLANs auf einem Switch verhalten sich wie physisch getrennte Switchtechnik, nur das es eben alles auf einem Stück Hardware läuft.

    Mit VLANs zu arbeiten macht beispielsweise dann Sinn, wenn du mehr als einen Port am Host benötigst um direkt dort Gerätschaften anzuklemmen. Sprich sagen wir du baust ne DMZ und willst dort zwei Gerätschaften anstecken. Wie eben beispielsweise nen Router sowie eine weitere physische Servermaschine. Somit wäre zur Verbindung dessen mit dem Host direkt ein kleiner 5 Port Switch notwendig. Mit VLANs kannst du drei Ports eines vorhandenen Switch nehmen und trennst dennoch sauber zwischen DMZ LAN und dem Rest...



    Zitat Zitat von layerbreak Beitrag anzeigen
    Ich hatte es so verstanden, dass ich mehrere Nics bündeln kann um den Durchsatz zu verdoppeln, wenn ich z.B. eine/mehrere Dateien auf die VM schaufeln will.
    Also ging ich davon aus, an meiner Maschine die beiden Nics per Teaming zu koppeln, so wie @therealJMC geschrieben hatte, dem Switch mitteilen muss, dass z.B. Port1+2 (ESXi) und Port 16+17 (meinPC) zusammengehören. Zu guter letzt ESXi klar machen muss, dass vmnic4 und vmnic5 die Daten zusammen "verarbeitet".
    Ich würde gerne beim Kopieren von 70-80 MiB/s auf 140-160 MiB/s kommen.
    Wie gesagt, das ist so ne Sache. Du benötigst so oder so zwei gleichzeitige Transfers um 2x1GBit LACP auch nur im Ansatz auszufahren. Von einem einzigen Host zu einem einzigen Client bzw. umgekehrt besteht auch weiterhin diese Limitierung.
    Was mich aber wundert. Wenn du heute 70-80MB/sec hast, hast du wohl ein ganz anderes Problem 1GBit LAN geht bis theoretisch 125MB/sec. Und praktisch bei guter Hardware habe ich schon 115-120MB/sec gesehen...
    Geändert von fdsonne (18.01.13 um 17:23 Uhr)
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2277
    Kapitän zur See
    Registriert seit
    14.01.2010
    Beiträge
    3.518


    Standard ESX / ESXi - Hilfethread

    Zitat Zitat von Patric_ Beitrag anzeigen
    hab gerade 5.1 auf einen USB-Stick am DQ77MK installiert.
    Der rote LAN-Adapter wird nicht erkannt, der untere geht. Mehr kann ich noch nicht dazu sagen

    Momentan zickt das Board rum, mag nicht vom USB-Stick booten, es sei denn ich wähl ihn übers Bootmenü.
    Jetzt muss ich erstmal auf Festplatten warten, weil außer dem 9650SE und dem USB-Stick steckt noch nix im PC.
    Aktuellstes BIOS drauf? Hab mit USB Boot auf 2 Kisten im Büro kein Problem...

    Das mit der 2. NIC (die auch für rKVM benutzt wird) hab ich ja vermutet, den Treiber kann man aber afair nachrüsten oder vorher ins ISO basteln glaub ich
    Workstation/Gaming: Check - Laptop: Check - Server: Check

  4. #2278
    Bootsmann
    Registriert seit
    30.12.2010
    Beiträge
    547


    Standard

    Zitat Zitat von fdsonne Beitrag anzeigen
    Dann war an der Konfig grundsätzlich was falsch... Und wenn du dazu den ESX neu installieren musst (wie auch immer man den so zersägen kann ) muss es gar richtig fatal falsch gewesen sein.
    [snip]
    Richtig, war es. Ich bin nicht mehr auf die ManagementConsole gekommen.
    Das Prinzip von VLAN hab ich jetzt so im Groben verstanden. Danke für die Erklärung.

    Wie gesagt, das ist so ne Sache. Du benötigst so oder so zwei gleichzeitige Transfers um 2x1GBit LACP auch nur im Ansatz auszufahren. Von einem einzigen Host zu einem einzigen Client bzw. umgekehrt besteht auch weiterhin diese Limitierung.
    Was mich aber wundert. Wenn du heute 70-80MB/sec hast, hast du wohl ein ganz anderes Problem 1GBit LAN geht bis theoretisch 125MB/sec. Und praktisch bei guter Hardware habe ich schon 115-120MB/sec gesehen...
    Ich geh jetzt mal davon aus, dass Server-seitig kein Problem besteht.
    An meiner Kiste bremst vermutlich die HD das Ganze aus, denn wenn ich zwei verschiedene Kopiervorgänge auf zwei verschiedenen HDs anstoße komme ich bei dem 1. auf 55,4 MiB/s und beim 2. auf 63,4 MiB/s - gibt in Summe 118,8 MiB/s.
    Wobei beim 1. lauter kleinere Dateien (4-8GB) sind und beim 2. eine Grosse mit 24 GB.

    Ich frag jetzt nochmals doof.
    Du schreibst oben LACP.
    Bei meinem LevelOne kann ich Trunks einstellen "This page enables you to configure trunks on the Switch."
    Aber auch LACP "This page enables you to configure LACP on all or some ports. LACP (IEEE 802.3ad Link Aggregation Protocol) provides a way to set up aggregation automatically between switches."
    Dort kann ich Ports auswählen und denen einen KeyValue "(0..255, 0 means autogenerated key)" vergeben.
    Muss ich anstatt Trunks dann LACP nehmen?

    Langsam wirds mir peinlich - mein fehlendes Wissen.

  5. #2279
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    33.229


    Standard

    Das Problem mit den Begrifflichkeiten ist, die Hersteller verwenden unterschiedliche Bezeichnungen.

    LACP ist im Grunde das was du suchst... Sozusagen eine Portbündlung. Nur kann es passieren, das andere Hersteller es anders schimpfen
    Ist etwas undurchsichtig das ganze...
    Link Aggregation
    Scheint so, als meint dein Switch die Portbündlung mit LACP.
    Trunk scheint eher in Verbindund mit VLANs zu kommen...

    Für gewöhnlich definierst du eine Portgruppe am Switch und diese Portgruppe teilst du Ports zu. Das gleiche machst du dann am anderen Ende (sprich Client)


    PS: noch was anderes, eventuell macht es dennoch Sinn, dem Switch zu sagen, das er die Ports für den ESX via LACP Bündeln soll. Einfach aus dem Grund. Der ESX Server macht die Lastverteilung ggf. nur über mehrere VMs hinweg. Wenn es aber alles auf ein und die selbe Ziel VM geht, was ja so sein soll, wenn ich dich richtig verstehe, greift eventuell die Lastverteilung auf ESX Ebene nicht... Es sei denn, du gibst der VM zwei vNICs und verteilst die Last über zwei Transfers auf zwei virtuelle Netzwerkkarten (zwei IPs)
    Somit hättest du auch gleich zwei gleichzeitige Verbindungen...
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  6. #2280
    Kapitän zur See
    Registriert seit
    14.01.2010
    Beiträge
    3.518


    Standard

    Zitat Zitat von fdsonne Beitrag anzeigen
    Wie gesagt, das ist so ne Sache. Du benötigst so oder so zwei gleichzeitige Transfers um 2x1GBit LACP auch nur im Ansatz auszufahren. Von einem einzigen Host zu einem einzigen Client bzw. umgekehrt besteht auch weiterhin diese Limitierung.
    Das stimmt so ohne weiteres aber nicht für das was er eigentlich vorhatte: Teaming/Bonding/Trunking - ich hatte auf meiner alten Workstation ne Intel Dualport geteamt und von einem Server (ebenfalls geteamt) auf ein RAID10 (mit schnellen SAS HDDs, später ein RAID1 mit SSDs) regelmäßig recht große Daten gezogen. Da war deutlich mehr als die ~125MB drin die theoretisch möglich wären über 1Gbit - es waren halt 2 gebündelte Gbit Kanäle. Das braucht also bei entsprechendem Client nicht zwangsweise auch 2 Verbindungen. Und die hätte er ja auch wenn er seinen PC mit 2 NICs ebenfalls Teamen kann. Das seine HDD limitiert ist ja was anderes
    Workstation/Gaming: Check - Laptop: Check - Server: Check

  7. #2281
    Bootsmann
    Registriert seit
    30.12.2010
    Beiträge
    547


    Standard

    Also LevelOne sagt mir die Hilfe bei Trunk:
    Spoiler: Anzeigen

    und bei LACP:
    Spoiler: Anzeigen


    Ich hab jetzt mal spaßeshalber Port 6+7 (meinPC) und Port 10+11 (Server) aktiviert bei Key-Value nichts eingetragen, am ESXi nichts verändert. Dann bricht die Durchsatzrate beim Kopieren zusammen.
    Wenn ich am ESXi umstelle auf "Anhand des ip-Hashes routen", dann pendelt er sich zusammen gerechnet auf etwas mehr wie 100 Mib/s ein.
    Ohne LACP Änderung komm ich aber zusammen schon auf ca. 120 MiB/s.

    Ich weis jetzt nicht was besser ist.

    ---------- Post added at 19:02 ---------- Previous post was at 18:52 ----------

    Zitat Zitat von therealJMC Beitrag anzeigen
    Das stimmt so ohne weiteres aber nicht für das was er eigentlich vorhatte: Teaming/Bonding/Trunking - ich hatte auf meiner alten Workstation ne Intel Dualport geteamt und von einem Server (ebenfalls geteamt) auf ein RAID10 (mit schnellen SAS HDDs, später ein RAID1 mit SSDs) regelmäßig recht große Daten gezogen. Da war deutlich mehr als die ~125MB drin die theoretisch möglich wären über 1Gbit - es waren halt 2 gebündelte Gbit Kanäle. Das braucht also bei entsprechendem Client nicht zwangsweise auch 2 Verbindungen. Und die hätte er ja auch wenn er seinen PC mit 2 NICs ebenfalls Teamen kann. Das seine HDD limitiert ist ja was anderes
    Ich hab ja auch in meinem PC eine Dualport Nic drinne und die ist inzwischen ja auch geteamt und jetzt will ich vnic4 und vnic5 am ESXi auch teamen.
    Was meinst du jetzt mit "entsprechendem Client"?
    Mein PC ist halt Win7Pro, Server ESXi 5.1 und VM ist Openindiana.

    Die Kopieraktion habe ich mit zwei mal gestartetem SpeedCommander durchgeführt. Ob das jetzt eine Verbindung ist oder zwei - keine Ahnung.

    Was bremst ist mein PC da sicherlich die HD, IMHO nicht Openindiana, da der Pool aus 5 Mirrors besteht.

  8. #2282
    Kapitän zur See
    Registriert seit
    14.01.2010
    Beiträge
    3.518


    Standard

    Es ging darum, dass fdsonne sagte, dass man 2 Verbindungen braucht um über die 1Gbit Grenze zu kommen. Und das stimmt so nicht, zumindest im nicht-ESXi Umfeld

    Imho darf man auf den Ports auf denen der ESXi hängt nichts ändern am Switch. Aber garantieren kann ich es auch nicht Teaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.
    Workstation/Gaming: Check - Laptop: Check - Server: Check

  9. #2283
    Bootsmann
    Registriert seit
    30.12.2010
    Beiträge
    547


    Standard

    Zitat Zitat von therealJMC Beitrag anzeigen
    Es ging darum, dass fdsonne sagte, dass man 2 Verbindungen braucht um über die 1Gbit Grenze zu kommen. Und das stimmt so nicht, zumindest im nicht-ESXi Umfeld

    Imho darf man auf den Ports auf denen der ESXi hängt nichts ändern am Switch. Aber garantieren kann ich es auch nicht
    Es geht ja nicht nur darum, dass ich mit meinem PC über die 1Gbit kommen wollte, sondern auch wenn ich Dateien von meinem PC auf den Server hoch schiebe, dann sollen andere Rechner noch auf den Server zugreifen können und aber auch Daten geliefert bekommen und zwar so, dass es an diesen Rechnern nicht nur ruckelt.

    Egal ob ich am Switch die Serverports ändere zu Trunking oder LACP bricht entweder die Verbindung zum Server ab oder die Verbindung bricht zusammen also sinkt die Durchsatzrate.

    Teaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.
    Wenn ich so richtig verstanden habe, kann ich das Teaming, warum auch immer, vergessen.
    Da stells mir schon die Haare, wenn ich dran denke, dass 11 TB auf den Backupserver gesichert werden sollen. Das wird dauern und dauern.
    Geändert von layerbreak (18.01.13 um 21:43 Uhr)

  10. #2284
    Oberstabsgefreiter Avatar von MarV8501
    Registriert seit
    06.05.2011
    Ort
    Recklinghausen
    Beiträge
    485


    • Systeminfo
      • Motherboard:
      • ASROCK X79 Extreme 7
      • CPU:
      • Intel 3960X
      • Kühlung:
      • Corsair H100 (Enermax Cluster)
      • Gehäuse:
      • Cooler Master HAF932
      • RAM:
      • 4x8GB Corsair Vengeance LP
      • Grafik:
      • Asus HD7970 3GB
      • Storage:
      • Samsung SSD 128GB + SG SATA3 2TBB, SG SATA3 500G
      • Monitor:
      • 2 x HP LP2465
      • Netzwerk:
      • GBLAN / Sonicwall / UM150000
      • Sound:
      • HD 7.1
      • Netzteil:
      • Cougar GX 1050 v.2
      • Betriebssystem:
      • Win7 Ent. 64BIT
      • Sonstiges:
      • New iPad 32GB 4G
      • Notebook:
      • Lenovo TP T410
      • Photoequipment:
      • Casio EX-Z1200
      • Handy:
      • iPhone 4 Black 32GB

    Standard

    Jemand hier der unter ESXi 5.1.0 nen LSI 8344ELP laufen hat?
    Ich bekomm entweder direkt beim installieren schon nen schönen lila Bildschirm(PCIe Slot 2) oder er erkennt den Controller und das Array aber ich kann nix drauf schreiben und er schmeißt mir den kompletten Datastore bei 75% wieder raus(PCIe Slot 1). IOErrNo6

    -------------
    Edit:
    Okay, scheint am eingeschaltetem VT-d vom Board gelegen zu haben. Ohne VT-d läufts nun.

  11. #2285
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    33.229


    Standard

    Zitat Zitat von therealJMC Beitrag anzeigen
    Es ging darum, dass fdsonne sagte, dass man 2 Verbindungen braucht um über die 1Gbit Grenze zu kommen. Und das stimmt so nicht, zumindest im nicht-ESXi Umfeld

    Imho darf man auf den Ports auf denen der ESXi hängt nichts ändern am Switch. Aber garantieren kann ich es auch nicht Teaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.
    Was hat der ESXi mit den Standards in Sachen Link-Bündlung zu tun?
    Was natürlich sein kann, das beispielsweise Intel NICs propritäre Lösungsansatze fahren. Aber das ist ja nicht Sinn der Sache... Denn man hat A) am ESX nicht die Möglichkeiten wie man sie auf nem Windows/Linux zum Einstellen hat und B) verteilt der ESXi noch dazu nach VMs, die am vSwitch hängen.

    Ließ dich mal ein zum Thema LACP bzw. Link Aggregation. Das ganze läuft idR nach MAC Adressen, wenn man es so will. Da benötigt man nunmal schlicht zwei Transfers, sonst wird das nix. Wie gesagt, propritäre Lösungsansätze verschiedener Hersteller, die bestenfalls dann untereinander auch laufen, sind dabei aber absolut nicht Thema...


    Was aber für den TE ggf. noch viel einfacher zu machen ist. Warum nicht einfach der VM, die ja scheinbar das Ziel eines Copy/Backup Jobs ist, wenn ich layerbreak richtig verstehe, ne zweite virtuelle NIC mit ner seperaten IP geben? Ggf. noch nen seperaten DNS Namen im DNS registrieren um die Sache noch zu vereinfachen.
    Somit könnte alle Clients (wenn es heist, es ruckelt, gehe ich von irgendwelchen Videostreams oder ähnliches aus) direkt über den primären Adapter laufen, wärend das Backup über den sekundären Adapter läuft. Somit hat er zwar jeweils auch nur 1GBit/s, aber absolut keine Behinderung der anderen Clients, wärend ein Backup die Daten da drauf schiebt.
    Der ESXi verteilt dann die Last ohne dedizierte Switchkonfig auch über beide physische NICs am selben vSwitch und es entsteht dazu keine Behinderung.

    LACP in einer Workstation halte ich persönlich für quatsch. Einfach weil es eben nix bringt. Es macht dort Sinn, wo viele viele einzelne Connections aktiv sind (zwischen zwei Switches zum Beispiel) oder wo ein einziges System ansprechbar für viele andere Clients sein soll (einem Fileserver zum Beispiel)
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  12. #2286
    Kapitän zur See
    Registriert seit
    14.01.2010
    Beiträge
    3.518


    Standard ESX / ESXi - Hilfethread

    Zitat Zitat von fdsonne Beitrag anzeigen
    Was hat der ESXi mit den Standards in Sachen Link-Bündlung zu tun?
    Was natürlich sein kann, das beispielsweise Intel NICs propritäre Lösungsansatze fahren. Aber das ist ja nicht Sinn der Sache... Denn man hat A) am ESX nicht die Möglichkeiten wie man sie auf nem Windows/Linux zum Einstellen hat und B) verteilt der ESXi noch dazu nach VMs, die am vSwitch hängen.

    Ließ dich mal ein zum Thema LACP bzw. Link Aggregation. Das ganze läuft idR nach MAC Adressen, wenn man es so will. Da benötigt man nunmal schlicht zwei Transfers, sonst wird das nix. Wie gesagt, propritäre Lösungsansätze verschiedener Hersteller, die bestenfalls dann untereinander auch laufen, sind dabei aber absolut nicht Thema...
    Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.
    Workstation/Gaming: Check - Laptop: Check - Server: Check

  13. #2287
    Hauptgefreiter Avatar von struband
    Registriert seit
    26.08.2012
    Ort
    ::1/128
    Beiträge
    246


    Standard

    Zitat Zitat von therealJMC Beitrag anzeigen
    Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.
    Auch dann hättest du nur bei mehr als einem Tranfer 2GBit.

  14. #2288
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    33.229


    Standard

    Zitat Zitat von therealJMC Beitrag anzeigen
    Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.
    Das was das OS dort anzeigt, entspricht aber nicht unbedingt der Wahrheit... Es ist bekannt, das ein Team aus zwei NICs über eine Software eine Art virtuellen Adapter im OS einklingt, welcher sich mit 2GBit/s meldet. Heist aber nicht, das auch 2GBit/s da durch laufen. Und schon gar nicht, wenn nur ein Transfer.
    Meinst du ich sauge mir das aus dem Fingern?

    Mess einfach mal mit NetIO die Bandbreite zwischen Server (2NICs) und Client (2NICs)... Bei genau einem einzigen Datenstream!


    PS: Trunk ist auch nicht gleich Trunk!
    Da jeder Hersteller dort sein eigenes Süppchen kocht. Dafür gibt es definierte Standard. Und genau danach geh ich hier
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  15. #2289
    Bootsmann
    Registriert seit
    30.12.2010
    Beiträge
    547


    Standard

    Zitat Zitat von fdsonne Beitrag anzeigen
    Das ganze läuft idR nach MAC Adressen, wenn man es so will. Da benötigt man nunmal schlicht zwei Transfers, sonst wird das nix. Wie gesagt, propritäre Lösungsansätze verschiedener Hersteller, die bestenfalls dann untereinander auch laufen, sind dabei aber absolut nicht Thema...
    Dann müsste ich bei Lastausgleich "Anhand des Quell-Mac-Hashes routen" einstellen?

    Was aber für den TE ggf. noch viel einfacher zu machen ist. Warum nicht einfach der VM, die ja scheinbar das Ziel eines Copy/Backup Jobs ist, wenn ich layerbreak richtig verstehe, ne zweite virtuelle NIC mit ner seperaten IP geben? Ggf. noch nen seperaten DNS Namen im DNS registrieren um die Sache noch zu vereinfachen.
    Somit könnte alle Clients (wenn es heist, es ruckelt, gehe ich von irgendwelchen Videostreams oder ähnliches aus) direkt über den primären Adapter laufen, wärend das Backup über den sekundären Adapter läuft. Somit hat er zwar jeweils auch nur 1GBit/s, aber absolut keine Behinderung der anderen Clients, wärend ein Backup die Daten da drauf schiebt.
    Der ESXi verteilt dann die Last ohne dedizierte Switchkonfig auch über beide physische NICs am selben vSwitch und es entsteht dazu keine Behinderung.
    Bei OI_148 hatte ich 2 vnics eingerichtet. Das Problem war dann aber, dass das Eine oder Andere Mal die Clients keine Verbindung mehr hatten, da OI die Daten auf der zweiten IP gesendet hat. So meine Vermutung.
    @gea, schreibt ja auch, dass eine zweite vnic bei OI eher zu Problemen neigt, deshalb hab ich es bei der Neuinstallation schlicht weg gelassen. Als Laie denke ich, dass ich in OI "crossbow" oder link-aggregation dazu benutzen muss, dann hab ich aber immer noch die Eigenheiten von ESXi, die da dann eventl. nicht mitspielen.

    LACP in einer Workstation halte ich persönlich für quatsch. Einfach weil es eben nix bringt. Es macht dort Sinn, wo viele viele einzelne Connections aktiv sind (zwischen zwei Switches zum Beispiel) oder wo ein einziges System ansprechbar für viele andere Clients sein soll (einem Fileserver zum Beispiel)
    Zitat Zitat von therealJMC Beitrag anzeigen
    Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.
    Zitat Zitat von fdsonne Beitrag anzeigen
    Das was das OS dort anzeigt, entspricht aber nicht unbedingt der Wahrheit... Es ist bekannt, das ein Team aus zwei NICs über eine Software eine Art virtuellen Adapter im OS einklingt, welcher sich mit 2GBit/s meldet. Heist aber nicht, das auch 2GBit/s da durch laufen. Und schon gar nicht, wenn nur ein Transfer.
    Meinst du ich sauge mir das aus dem Fingern?

    Mess einfach mal mit NetIO die Bandbreite zwischen Server (2NICs) und Client (2NICs)... Bei genau einem einzigen Datenstream!


    PS: Trunk ist auch nicht gleich Trunk!
    Da jeder Hersteller dort sein eigenes Süppchen kocht. Dafür gibt es definierte Standard. Und genau danach geh ich hier
    Was mir jetzt klar geworden ist, ist dass bei einem normalen Win PC das Teaming unnötig ist, weil nicht das Netz der Flaschenhals ist, sondern die HDDs.
    Die Consumer HDD ist nicht schnell genug um mehr wie eine Verbindung auszulasten, außer man nutzt SASs oder SSDs mit entsprechendem Raid-Level.

  16. #2290
    Kapitän zur See Avatar von Patric_
    Registriert seit
    22.12.2005
    Ort
    Bayern
    Beiträge
    3.310


    • Systeminfo
      • Motherboard:
      • MSI H55M-ED55
      • CPU:
      • Core i3-530
      • Kühlung:
      • Ninja 2 Noiseblocker MF12P-S
      • Gehäuse:
      • Sharkoon Rebel9
      • RAM:
      • 2x4 GB DDR3 1333MHz
      • Grafik:
      • i3 integriert
      • Storage:
      • X25-M 80 GB, WD1001FALS 1 TB, diverse Externe
      • Monitor:
      • HP w2207
      • Netzwerk:
      • FB 7390, FB 7270, WRT54GL
      • Sound:
      • Onboard Realtek
      • Netzteil:
      • Corsair HX520
      • Betriebssystem:
      • Windows 7 Prof x64
      • Notebook:
      • Samsung NC10

    Standard

    Zitat Zitat von therealJMC Beitrag anzeigen
    Aktuellstes BIOS drauf? Hab mit USB Boot auf 2 Kisten im Büro kein Problem...

    Das mit der 2. NIC (die auch für rKVM benutzt wird) hab ich ja vermutet, den Treiber kann man aber afair nachrüsten oder vorher ins ISO basteln glaub ich
    ja, aktuelles Bios seit heute drauf. Aber keine Besserung.
    Ist das einzige wählbare Bootmedium im Bios, bootet aber trotzdem nicht. Drück ich F10 und wähle den Stick ausm Bootmenü gehts.
    Werde später mal einen anderen Stick probieren.

    Jap, mittlerweile sollte die Karte gehen - hab ich zumindest gelesen. Werds demnächst testen.
    Main Define R4 * Core i5-3750k * Z77MA-G45 * 8192 MB DDR3 PC3-10600 * MX100 256GB/512GB
    Zocken Core 3500 * Core i5-4690k * Z97 Gaming 5 * 8192 MB DDR3 PC3-10600 * RX580 * Samsung 840 * Crucial MX100 512GB
    Homeserver Q07R * Celeron G530 * DQ77KB * 8192 MB DDR3 PC3-10600 1.35V * Crucial M4 mSATA * FSP-150

    Stromspar-Quatsch-Thread | 6W Idle | 10W Idle | i3-2100T vs. i3-2100 vs. i5-2400 | DH57JG | GA-H55N-USB3

  17. #2291
    Kapitän zur See
    Registriert seit
    14.01.2010
    Beiträge
    3.518


    Standard

    Hast du den Stick denn als Boot Priority oben? Gibt afair auch ne Option Boot USB Devices First (oder ähnlich)
    Workstation/Gaming: Check - Laptop: Check - Server: Check

  18. #2292
    Kapitän zur See Avatar von Patric_
    Registriert seit
    22.12.2005
    Ort
    Bayern
    Beiträge
    3.310


    • Systeminfo
      • Motherboard:
      • MSI H55M-ED55
      • CPU:
      • Core i3-530
      • Kühlung:
      • Ninja 2 Noiseblocker MF12P-S
      • Gehäuse:
      • Sharkoon Rebel9
      • RAM:
      • 2x4 GB DDR3 1333MHz
      • Grafik:
      • i3 integriert
      • Storage:
      • X25-M 80 GB, WD1001FALS 1 TB, diverse Externe
      • Monitor:
      • HP w2207
      • Netzwerk:
      • FB 7390, FB 7270, WRT54GL
      • Sound:
      • Onboard Realtek
      • Netzteil:
      • Corsair HX520
      • Betriebssystem:
      • Windows 7 Prof x64
      • Notebook:
      • Samsung NC10

    Standard

    Jop, gibt ja auch nur das eine Laufwerk.
    Bei den "einfachen" Booteinstellungen im Bios taucht er als einziges Harddisk-Drive auf und die Reihenfolge steht auch auf HDD.
    UEFI ist aus, Boot USB first ist an. Removable und Optical ist aus. Spielt aber auch keine Rolle ob an oder aus. SecureBoot ist auch aus.
    Legacy Boot an.

    E: ach.. der Stick hat so eine "CD-ROM" Partition mit irgendwelcher Murkssoftware. Daran wirds wohl liegen. Hatte ich nciht gewusst, weil ich den nie an einem Windows-PC hatte...
    Geändert von Patric_ (21.01.13 um 11:46 Uhr)
    Main Define R4 * Core i5-3750k * Z77MA-G45 * 8192 MB DDR3 PC3-10600 * MX100 256GB/512GB
    Zocken Core 3500 * Core i5-4690k * Z97 Gaming 5 * 8192 MB DDR3 PC3-10600 * RX580 * Samsung 840 * Crucial MX100 512GB
    Homeserver Q07R * Celeron G530 * DQ77KB * 8192 MB DDR3 PC3-10600 1.35V * Crucial M4 mSATA * FSP-150

    Stromspar-Quatsch-Thread | 6W Idle | 10W Idle | i3-2100T vs. i3-2100 vs. i5-2400 | DH57JG | GA-H55N-USB3

  19. #2293
    Flottillenadmiral Avatar von LaMagra-X
    Registriert seit
    17.01.2004
    Ort
    127.0.0.1
    Beiträge
    5.657


    • Systeminfo
      • Motherboard:
      • ASUS Maximus III Formula
      • CPU:
      • Core i5 750 @ 4GHz
      • Systemname:
      • X
      • Kühlung:
      • Zalman 9900NT
      • Gehäuse:
      • Thermaltake Armor Super Tower
      • RAM:
      • 8GB Corsair Dominator 1600MHz
      • Grafik:
      • HD5850 PCS+
      • Storage:
      • Crucial RealSSD C300 256GB
      • Monitor:
      • Asus VN279QLB
      • Netzteil:
      • Cooltek RealPlug Power 600Watt
      • Betriebssystem:
      • Windows 10 Professional 64-Bit
      • Notebook:
      • Microsoft Surface Pro 4
      • Handy:
      • Microsoft Lumia 950

    Standard

    Zitat Zitat von therealJMC Beitrag anzeigen
    Richtig genau der

    So...der neue Controller ist drin...

    Welche Einstellung empfiehlt sich nun für ESXi als Default Write? Write Through, Always Write Back oder write Back with BBU?

    Und welche Stripe Size sollte man wählen beim Erstellen des RAIDs als ESXi Datastore?


    Grüße
    Angehängte Grafiken Angehängte Grafiken

  20. #2294
    Kapitän zur See
    Registriert seit
    14.01.2010
    Beiträge
    3.518


    Standard

    Wenn du auf einen evtl. Datenverlust (der Daten im Cache) gefasst bist (und damit die maximale Performance willst) dann ist Always Write Back die Wahl, hast du eine BBU dann wäre es Write Back with BBU
    Workstation/Gaming: Check - Laptop: Check - Server: Check

  21. #2295
    Flottillenadmiral Avatar von LaMagra-X
    Registriert seit
    17.01.2004
    Ort
    127.0.0.1
    Beiträge
    5.657


    • Systeminfo
      • Motherboard:
      • ASUS Maximus III Formula
      • CPU:
      • Core i5 750 @ 4GHz
      • Systemname:
      • X
      • Kühlung:
      • Zalman 9900NT
      • Gehäuse:
      • Thermaltake Armor Super Tower
      • RAM:
      • 8GB Corsair Dominator 1600MHz
      • Grafik:
      • HD5850 PCS+
      • Storage:
      • Crucial RealSSD C300 256GB
      • Monitor:
      • Asus VN279QLB
      • Netzteil:
      • Cooltek RealPlug Power 600Watt
      • Betriebssystem:
      • Windows 10 Professional 64-Bit
      • Notebook:
      • Microsoft Surface Pro 4
      • Handy:
      • Microsoft Lumia 950

    Standard

    Okay, danke. Und bei I/O? Direct oder Cached?

    Und Stripe Size ist wohl eher zu vernachlässigen, oder!?

    Grüße

  22. #2296
    Kapitän zur See
    Registriert seit
    14.01.2010
    Beiträge
    3.518


    Standard

    Stripe-Size: RAID-Analyse: Welche Blockgröße ist ideal? : Vergleich: Stripe-Größen bei RAID 0, 5 und 6

    I/O musst du selber entscheiden, hier nochmal der Link auf dem auch der Unterschied zwischen Cached und Direct angezeigt wird (auch wenn da m.M. nach ein Dreher drin ist!):
    direct IO or cache IO?

    Ich habs bei mir auf Cached stehen weil ich es damals so eingerichtet hab...
    Workstation/Gaming: Check - Laptop: Check - Server: Check

  23. #2297
    Flottillenadmiral Avatar von LaMagra-X
    Registriert seit
    17.01.2004
    Ort
    127.0.0.1
    Beiträge
    5.657


    • Systeminfo
      • Motherboard:
      • ASUS Maximus III Formula
      • CPU:
      • Core i5 750 @ 4GHz
      • Systemname:
      • X
      • Kühlung:
      • Zalman 9900NT
      • Gehäuse:
      • Thermaltake Armor Super Tower
      • RAM:
      • 8GB Corsair Dominator 1600MHz
      • Grafik:
      • HD5850 PCS+
      • Storage:
      • Crucial RealSSD C300 256GB
      • Monitor:
      • Asus VN279QLB
      • Netzteil:
      • Cooltek RealPlug Power 600Watt
      • Betriebssystem:
      • Windows 10 Professional 64-Bit
      • Notebook:
      • Microsoft Surface Pro 4
      • Handy:
      • Microsoft Lumia 950

    Standard

    Tausen Dank für die Links.
    Den THG Artikel kenn ich schon ..den anderen nicht! Hilft auf jeden Fall sehr weiter.

    VG

  24. #2298
    Kapitän zur See Avatar von Patric_
    Registriert seit
    22.12.2005
    Ort
    Bayern
    Beiträge
    3.310


    • Systeminfo
      • Motherboard:
      • MSI H55M-ED55
      • CPU:
      • Core i3-530
      • Kühlung:
      • Ninja 2 Noiseblocker MF12P-S
      • Gehäuse:
      • Sharkoon Rebel9
      • RAM:
      • 2x4 GB DDR3 1333MHz
      • Grafik:
      • i3 integriert
      • Storage:
      • X25-M 80 GB, WD1001FALS 1 TB, diverse Externe
      • Monitor:
      • HP w2207
      • Netzwerk:
      • FB 7390, FB 7270, WRT54GL
      • Sound:
      • Onboard Realtek
      • Netzteil:
      • Corsair HX520
      • Betriebssystem:
      • Windows 7 Prof x64
      • Notebook:
      • Samsung NC10

    Standard

    So, CDFS Partition ist weg, aber immer noch kein automatisches Booten von dem Stick. Werd mal einen anderen testen.

    Hab aber mal diesen Treiber mit dem ESXi-Customizer zum 5.1 hinzugefügt - und schon im Settings-Menü sehe ich jetzt 2 Karten... einzig das Booten dauert jetzt wesentlich länger als vorher (alles gleich, bis auf das angepasste Image - läd ewig bei "loading esxfw" - aber das stört mich jetzt erstmal weniger)

    auch hier schauts gut aus:


    E: nu bootet er... UEFI Boot auf "enabled" und dann gings... warum auch immer. Übers Bootmenü zeigt er mir ja auch kein UEFI-fähiges LW an, sondern nur "USB:" - und bootet trotzdem. Aber mir solls recht sein
    Geändert von Patric_ (21.01.13 um 15:57 Uhr)
    Main Define R4 * Core i5-3750k * Z77MA-G45 * 8192 MB DDR3 PC3-10600 * MX100 256GB/512GB
    Zocken Core 3500 * Core i5-4690k * Z97 Gaming 5 * 8192 MB DDR3 PC3-10600 * RX580 * Samsung 840 * Crucial MX100 512GB
    Homeserver Q07R * Celeron G530 * DQ77KB * 8192 MB DDR3 PC3-10600 1.35V * Crucial M4 mSATA * FSP-150

    Stromspar-Quatsch-Thread | 6W Idle | 10W Idle | i3-2100T vs. i3-2100 vs. i5-2400 | DH57JG | GA-H55N-USB3

  25. #2299
    Stabsgefreiter
    Registriert seit
    06.12.2005
    Ort
    Saarland
    Beiträge
    284


    • Systeminfo
      • Netzwerk:
      • AVM FRITZ!Box 7270v2
      • Betriebssystem:
      • Microsoft Windows 7 Pro
      • Notebook:
      • Lenovo ThinkPad T530
      • Photoequipment:
      • Panasonic Lumix DMC-TZ10
      • Handy:
      • Samsung Galaxy S2

    Standard

    Zitat Zitat von layerbreak Beitrag anzeigen
    Dann müsste ich bei Lastausgleich "Anhand des Quell-Mac-Hashes routen" einstellen?
    Siehe VMware KB: Sample configuration of EtherChannel / Link aggregation with ESXi/ESX and Cisco/HP switches "The only load balancing option for vSwitches or vDistributed Switches that can be used with EtherChannel is IP HASH."

  26. #2300
    Gefreiter
    Registriert seit
    30.06.2012
    Beiträge
    50


    Standard

    Habe gerade mal RDM getestet, das ist ja extrem cool
    Ich kann meine Festplatte ausreizen, (140MB/s) es ist einfach einzurichten und man spart sich einen extra Controller für Passthrough.

    Sobald ich aber Hotplug nutzen will, komm ich nicht um einen extra durchgereichten Controller/HBA herum, oder?

Seite 92 von 260 ErsteErste ... 42 82 88 89 90 91 92 93 94 95 96 102 142 192 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •