Dann war an der Konfig grundsätzlich was falsch... Und wenn du dazu den ESX neu installieren musst (wie auch immer man den so zersägen kann) muss es gar richtig fatal falsch gewesen sein.
Im Grunde ist es aber ganz einfach. Du musst dir das so vorstellen. Du hast ne Haustür, da steht ne Nummer drüber... Per default hat ein 24 Port Switch beispielsweise also 24 Haustüren. Jede trägt dabei die Nummer 1 (also VLAN 1)
Das bedeutet soviel wie, egal durch welche Tür du gehst, also welchen Port du nutzt, du landest immer im Netz 1 (VLAN 1)
Nun gehst du einher und sagst beispielsweise, Haustür 1 (Port 1 am Switch) bekommt anstatt Nummer 1 (VLAN 1) nun die Nummer 10 (VLAN 10). Gehst du nun durch die Haustür, befindest du dich aber im Netz 10 und kannst somit nicht mit dem Netz 1 aus den anderen Ports/Türen kommunizieren. Zumindest nicht direkt.
Das umkonfigurieren des Ports beschreibt dabei aber immer das untagget Verhalten. Sprich jeglicher Traffic, der nicht markiert ist (sprich getagget ist), landet automatisch in dem VLAN, wo der Port drin ist.
Nun besteht noch die Möglichkeit einen Port zu taggen. Heist soviel wie, du hast immernoch den Port/den Türrahmen, aber es gibt nun in diesem Türrahmen mehrere Klappen mit jeweils anderen Nummern. Nun klemmst den ESX dann an diesen Port und sagst ihm, das eine Portgruppe für VMs mit der VLAN ID 10 getagget wird, und beispielsweise eine weitere mit der VLAN ID 100, sowie eine dritte beispielsweise wird ohne tag durch die NIC gelassen.
Der Switch macht nun folgendes. Der untagged Traffic der dritten Portgruppe läuft in das VLAN, was das default VLAN des Ports (untagged) ist. IdR die 1, wenn nicht umkonfiguriert.
Der tagged Traffic von VLAN 10 läuft dabei durch die selbe Tür, geht aber in die Klappe mit Nummer 10, der Traffic von VLAN 100 geht dabei in die Klappe mit Nummer 100.
Somit trennst du grundsätzlich physikalisch die Netze. VLANs auf einem Switch verhalten sich wie physisch getrennte Switchtechnik, nur das es eben alles auf einem Stück Hardware läuft.
Mit VLANs zu arbeiten macht beispielsweise dann Sinn, wenn du mehr als einen Port am Host benötigst um direkt dort Gerätschaften anzuklemmen. Sprich sagen wir du baust ne DMZ und willst dort zwei Gerätschaften anstecken. Wie eben beispielsweise nen Router sowie eine weitere physische Servermaschine. Somit wäre zur Verbindung dessen mit dem Host direkt ein kleiner 5 Port Switch notwendig. Mit VLANs kannst du drei Ports eines vorhandenen Switch nehmen und trennst dennoch sauber zwischen DMZ LAN und dem Rest...
Wie gesagt, das ist so ne Sache. Du benötigst so oder so zwei gleichzeitige Transfers um 2x1GBit LACP auch nur im Ansatz auszufahren. Von einem einzigen Host zu einem einzigen Client bzw. umgekehrt besteht auch weiterhin diese Limitierung.
Was mich aber wundert. Wenn du heute 70-80MB/sec hast, hast du wohl ein ganz anderes Problem1GBit LAN geht bis theoretisch 125MB/sec. Und praktisch bei guter Hardware habe ich schon 115-120MB/sec gesehen...
Ergebnis 2.276 bis 2.300 von 6702
Thema: ESX / ESXi - Hilfethread
-
18.01.13, 17:22 #2276
Geändert von fdsonne (18.01.13 um 17:23 Uhr)
Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.
-
18.01.13, 17:51 #2277
- Registriert seit
- 14.01.2010
- Beiträge
- 3.532
ESX / ESXi - Hilfethread
Workstation/Gaming: Check - Laptop: Check - Server: Check
18.01.13, 17:57 #2278
- Registriert seit
- 30.12.2010
- Beiträge
- 578
Richtig, war es. Ich bin nicht mehr auf die ManagementConsole gekommen.
Das Prinzip von VLAN hab ich jetzt so im Groben verstanden. Danke für die Erklärung.
Wie gesagt, das ist so ne Sache. Du benötigst so oder so zwei gleichzeitige Transfers um 2x1GBit LACP auch nur im Ansatz auszufahren. Von einem einzigen Host zu einem einzigen Client bzw. umgekehrt besteht auch weiterhin diese Limitierung.
Was mich aber wundert. Wenn du heute 70-80MB/sec hast, hast du wohl ein ganz anderes Problem1GBit LAN geht bis theoretisch 125MB/sec. Und praktisch bei guter Hardware habe ich schon 115-120MB/sec gesehen...
An meiner Kiste bremst vermutlich die HD das Ganze aus, denn wenn ich zwei verschiedene Kopiervorgänge auf zwei verschiedenen HDs anstoße komme ich bei dem 1. auf 55,4 MiB/s und beim 2. auf 63,4 MiB/s - gibt in Summe 118,8 MiB/s.
Wobei beim 1. lauter kleinere Dateien (4-8GB) sind und beim 2. eine Grosse mit 24 GB.
Ich frag jetzt nochmals doof.
Du schreibst oben LACP.
Bei meinem LevelOne kann ich Trunks einstellen "This page enables you to configure trunks on the Switch."
Aber auch LACP "This page enables you to configure LACP on all or some ports. LACP (IEEE 802.3ad Link Aggregation Protocol) provides a way to set up aggregation automatically between switches."
Dort kann ich Ports auswählen und denen einen KeyValue "(0..255, 0 means autogenerated key)" vergeben.
Muss ich anstatt Trunks dann LACP nehmen?
Langsam wirds mir peinlich - mein fehlendes Wissen.
18.01.13, 18:10 #2279Das Problem mit den Begrifflichkeiten ist, die Hersteller verwenden unterschiedliche Bezeichnungen.
LACP ist im Grunde das was du suchst... Sozusagen eine Portbündlung. Nur kann es passieren, das andere Hersteller es anders schimpfen
Ist etwas undurchsichtig das ganze...
Link Aggregation
Scheint so, als meint dein Switch die Portbündlung mit LACP.
Trunk scheint eher in Verbindund mit VLANs zu kommen...
Für gewöhnlich definierst du eine Portgruppe am Switch und diese Portgruppe teilst du Ports zu. Das gleiche machst du dann am anderen Ende (sprich Client)
PS: noch was anderes, eventuell macht es dennoch Sinn, dem Switch zu sagen, das er die Ports für den ESX via LACP Bündeln soll. Einfach aus dem Grund. Der ESX Server macht die Lastverteilung ggf. nur über mehrere VMs hinweg. Wenn es aber alles auf ein und die selbe Ziel VM geht, was ja so sein soll, wenn ich dich richtig verstehe, greift eventuell die Lastverteilung auf ESX Ebene nicht... Es sei denn, du gibst der VM zwei vNICs und verteilst die Last über zwei Transfers auf zwei virtuelle Netzwerkkarten (zwei IPs)
Somit hättest du auch gleich zwei gleichzeitige Verbindungen...Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.
18.01.13, 18:40 #2280
- Registriert seit
- 14.01.2010
- Beiträge
- 3.532
Das stimmt so ohne weiteres aber nicht für das was er eigentlich vorhatte: Teaming/Bonding/Trunking - ich hatte auf meiner alten Workstation ne Intel Dualport geteamt und von einem Server (ebenfalls geteamt) auf ein RAID10 (mit schnellen SAS HDDs, später ein RAID1 mit SSDs) regelmäßig recht große Daten gezogen. Da war deutlich mehr als die ~125MB drin die theoretisch möglich wären über 1Gbit - es waren halt 2 gebündelte Gbit Kanäle. Das braucht also bei entsprechendem Client nicht zwangsweise auch 2 Verbindungen. Und die hätte er ja auch wenn er seinen PC mit 2 NICs ebenfalls Teamen kann. Das seine HDD limitiert ist ja was anderes
Workstation/Gaming: Check - Laptop: Check - Server: Check
18.01.13, 19:02 #2281
- Registriert seit
- 30.12.2010
- Beiträge
- 578
Also LevelOne sagt mir die Hilfe bei Trunk:
Spoiler: Anzeigen
und bei LACP:
Spoiler: Anzeigen
Ich hab jetzt mal spaßeshalber Port 6+7 (meinPC) und Port 10+11 (Server) aktiviert bei Key-Value nichts eingetragen, am ESXi nichts verändert. Dann bricht die Durchsatzrate beim Kopieren zusammen.
Wenn ich am ESXi umstelle auf "Anhand des ip-Hashes routen", dann pendelt er sich zusammen gerechnet auf etwas mehr wie 100 Mib/s ein.
Ohne LACP Änderung komm ich aber zusammen schon auf ca. 120 MiB/s.
Ich weis jetzt nicht was besser ist.
---------- Post added at 19:02 ---------- Previous post was at 18:52 ----------
Ich hab ja auch in meinem PC eine Dualport Nic drinne und die ist inzwischen ja auch geteamt und jetzt will ich vnic4 und vnic5 am ESXi auch teamen.
Was meinst du jetzt mit "entsprechendem Client"?
Mein PC ist halt Win7Pro, Server ESXi 5.1 und VM ist Openindiana.
Die Kopieraktion habe ich mit zwei mal gestartetem SpeedCommander durchgeführt. Ob das jetzt eine Verbindung ist oder zwei - keine Ahnung.
Was bremst ist mein PC da sicherlich die HD, IMHO nicht Openindiana, da der Pool aus 5 Mirrors besteht.
18.01.13, 20:50 #2282
- Registriert seit
- 14.01.2010
- Beiträge
- 3.532
Es ging darum, dass fdsonne sagte, dass man 2 Verbindungen braucht um über die 1Gbit Grenze zu kommen. Und das stimmt so nicht, zumindest im nicht-ESXi Umfeld
Imho darf man auf den Ports auf denen der ESXi hängt nichts ändern am Switch. Aber garantieren kann ich es auch nichtTeaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.
Workstation/Gaming: Check - Laptop: Check - Server: Check
18.01.13, 21:40 #2283
- Registriert seit
- 30.12.2010
- Beiträge
- 578
Es geht ja nicht nur darum, dass ich mit meinem PC über die 1Gbit kommen wollte, sondern auch wenn ich Dateien von meinem PC auf den Server hoch schiebe, dann sollen andere Rechner noch auf den Server zugreifen können und aber auch Daten geliefert bekommen und zwar so, dass es an diesen Rechnern nicht nur ruckelt.
Egal ob ich am Switch die Serverports ändere zu Trunking oder LACP bricht entweder die Verbindung zum Server ab oder die Verbindung bricht zusammen also sinkt die Durchsatzrate.
Teaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.
Da stells mir schon die Haare, wenn ich dran denke, dass 11 TB auf den Backupserver gesichert werden sollen. Das wird dauern und dauern.Geändert von layerbreak (18.01.13 um 21:43 Uhr)
19.01.13, 01:27 #2284Jemand hier der unter ESXi 5.1.0 nen LSI 8344ELP laufen hat?
Ich bekomm entweder direkt beim installieren schon nen schönen lila Bildschirm(PCIe Slot 2) oder er erkennt den Controller und das Array aber ich kann nix drauf schreiben und er schmeißt mir den kompletten Datastore bei 75% wieder raus(PCIe Slot 1). IOErrNo6
-------------
Edit:
Okay, scheint am eingeschaltetem VT-d vom Board gelegen zu haben. Ohne VT-d läufts nun.Geändert von MarV8501 (19.01.13 um 12:26 Uhr)
19.01.13, 15:40 #2285Was hat der ESXi mit den Standards in Sachen Link-Bündlung zu tun?
Was natürlich sein kann, das beispielsweise Intel NICs propritäre Lösungsansatze fahren. Aber das ist ja nicht Sinn der Sache... Denn man hat A) am ESX nicht die Möglichkeiten wie man sie auf nem Windows/Linux zum Einstellen hat und B) verteilt der ESXi noch dazu nach VMs, die am vSwitch hängen.
Ließ dich mal ein zum Thema LACP bzw. Link Aggregation. Das ganze läuft idR nach MAC Adressen, wenn man es so will. Da benötigt man nunmal schlicht zwei Transfers, sonst wird das nix. Wie gesagt, propritäre Lösungsansätze verschiedener Hersteller, die bestenfalls dann untereinander auch laufen, sind dabei aber absolut nicht Thema...
Was aber für den TE ggf. noch viel einfacher zu machen ist. Warum nicht einfach der VM, die ja scheinbar das Ziel eines Copy/Backup Jobs ist, wenn ich layerbreak richtig verstehe, ne zweite virtuelle NIC mit ner seperaten IP geben? Ggf. noch nen seperaten DNS Namen im DNS registrieren um die Sache noch zu vereinfachen.
Somit könnte alle Clients (wenn es heist, es ruckelt, gehe ich von irgendwelchen Videostreams oder ähnliches aus) direkt über den primären Adapter laufen, wärend das Backup über den sekundären Adapter läuft. Somit hat er zwar jeweils auch nur 1GBit/s, aber absolut keine Behinderung der anderen Clients, wärend ein Backup die Daten da drauf schiebt.
Der ESXi verteilt dann die Last ohne dedizierte Switchkonfig auch über beide physische NICs am selben vSwitch und es entsteht dazu keine Behinderung.
LACP in einer Workstation halte ich persönlich für quatsch. Einfach weil es eben nix bringt. Es macht dort Sinn, wo viele viele einzelne Connections aktiv sind (zwischen zwei Switches zum Beispiel) oder wo ein einziges System ansprechbar für viele andere Clients sein soll (einem Fileserver zum Beispiel)Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.
19.01.13, 16:48 #2286
- Registriert seit
- 14.01.2010
- Beiträge
- 3.532
ESX / ESXi - Hilfethread
Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.
Workstation/Gaming: Check - Laptop: Check - Server: Check
19.01.13, 16:49 #2287
19.01.13, 16:54 #2288Das was das OS dort anzeigt, entspricht aber nicht unbedingt der Wahrheit... Es ist bekannt, das ein Team aus zwei NICs über eine Software eine Art virtuellen Adapter im OS einklingt, welcher sich mit 2GBit/s meldet. Heist aber nicht, das auch 2GBit/s da durch laufen. Und schon gar nicht, wenn nur ein Transfer.
Meinst du ich sauge mir das aus dem Fingern?
Mess einfach mal mit NetIO die Bandbreite zwischen Server (2NICs) und Client (2NICs)... Bei genau einem einzigen Datenstream!
PS: Trunk ist auch nicht gleich Trunk!
Da jeder Hersteller dort sein eigenes Süppchen kocht. Dafür gibt es definierte Standard. Und genau danach geh ich hierWorkstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.
20.01.13, 15:28 #2289
- Registriert seit
- 30.12.2010
- Beiträge
- 578
Dann müsste ich bei Lastausgleich "Anhand des Quell-Mac-Hashes routen" einstellen?
Was aber für den TE ggf. noch viel einfacher zu machen ist. Warum nicht einfach der VM, die ja scheinbar das Ziel eines Copy/Backup Jobs ist, wenn ich layerbreak richtig verstehe, ne zweite virtuelle NIC mit ner seperaten IP geben? Ggf. noch nen seperaten DNS Namen im DNS registrieren um die Sache noch zu vereinfachen.
Somit könnte alle Clients (wenn es heist, es ruckelt, gehe ich von irgendwelchen Videostreams oder ähnliches aus) direkt über den primären Adapter laufen, wärend das Backup über den sekundären Adapter läuft. Somit hat er zwar jeweils auch nur 1GBit/s, aber absolut keine Behinderung der anderen Clients, wärend ein Backup die Daten da drauf schiebt.
Der ESXi verteilt dann die Last ohne dedizierte Switchkonfig auch über beide physische NICs am selben vSwitch und es entsteht dazu keine Behinderung.
@gea, schreibt ja auch, dass eine zweite vnic bei OI eher zu Problemen neigt, deshalb hab ich es bei der Neuinstallation schlicht weg gelassen. Als Laie denke ich, dass ich in OI "crossbow" oder link-aggregation dazu benutzen muss, dann hab ich aber immer noch die Eigenheiten von ESXi, die da dann eventl. nicht mitspielen.
LACP in einer Workstation halte ich persönlich für quatsch. Einfach weil es eben nix bringt. Es macht dort Sinn, wo viele viele einzelne Connections aktiv sind (zwischen zwei Switches zum Beispiel) oder wo ein einziges System ansprechbar für viele andere Clients sein soll (einem Fileserver zum Beispiel)
Die Consumer HDD ist nicht schnell genug um mehr wie eine Verbindung auszulasten, außer man nutzt SASs oder SSDs mit entsprechendem Raid-Level.
21.01.13, 11:04 #2290ja, aktuelles Bios seit heute drauf. Aber keine Besserung.
Ist das einzige wählbare Bootmedium im Bios, bootet aber trotzdem nicht. Drück ich F10 und wähle den Stick ausm Bootmenü gehts.
Werde später mal einen anderen Stick probieren.
Jap, mittlerweile sollte die Karte gehen - hab ich zumindest gelesen. Werds demnächst testen.Main Define R4 * Core i5-3750k * Z77MA-G45 * 8192 MB DDR3 PC3-10600 * MX100 256GB/512GB
Zocken Core 3500 * Core i5-4690k * Z97 Gaming 5 * 8192 MB DDR3 PC3-10600 * RX580 * Samsung 840 * Crucial MX100 512GB
Homeserver Q07R * Celeron G530 * DQ77KB * 8192 MB DDR3 PC3-10600 1.35V * Crucial M4 mSATA * FSP-150
Stromspar-Quatsch-Thread | 6W Idle | 10W Idle | i3-2100T vs. i3-2100 vs. i5-2400 | DH57JG | GA-H55N-USB3
21.01.13, 11:24 #2291
- Registriert seit
- 14.01.2010
- Beiträge
- 3.532
Hast du den Stick denn als Boot Priority oben? Gibt afair auch ne Option Boot USB Devices First (oder ähnlich)
Workstation/Gaming: Check - Laptop: Check - Server: Check
21.01.13, 11:38 #2292Jop, gibt ja auch nur das eine Laufwerk.
Bei den "einfachen" Booteinstellungen im Bios taucht er als einziges Harddisk-Drive auf und die Reihenfolge steht auch auf HDD.
UEFI ist aus, Boot USB first ist an. Removable und Optical ist aus. Spielt aber auch keine Rolle ob an oder aus. SecureBoot ist auch aus.
Legacy Boot an.
E: ach.. der Stick hat so eine "CD-ROM" Partition mit irgendwelcher Murkssoftware. Daran wirds wohl liegen. Hatte ich nciht gewusst, weil ich den nie an einem Windows-PC hatte...Geändert von Patric_ (21.01.13 um 11:46 Uhr)
Main Define R4 * Core i5-3750k * Z77MA-G45 * 8192 MB DDR3 PC3-10600 * MX100 256GB/512GB
Zocken Core 3500 * Core i5-4690k * Z97 Gaming 5 * 8192 MB DDR3 PC3-10600 * RX580 * Samsung 840 * Crucial MX100 512GB
Homeserver Q07R * Celeron G530 * DQ77KB * 8192 MB DDR3 PC3-10600 1.35V * Crucial M4 mSATA * FSP-150
Stromspar-Quatsch-Thread | 6W Idle | 10W Idle | i3-2100T vs. i3-2100 vs. i5-2400 | DH57JG | GA-H55N-USB3
21.01.13, 12:51 #2293
21.01.13, 13:02 #2294
- Registriert seit
- 14.01.2010
- Beiträge
- 3.532
Wenn du auf einen evtl. Datenverlust (der Daten im Cache) gefasst bist (und damit die maximale Performance willst) dann ist Always Write Back die Wahl, hast du eine BBU dann wäre es Write Back with BBU
Workstation/Gaming: Check - Laptop: Check - Server: Check
21.01.13, 13:07 #2295Okay, danke. Und bei I/O? Direct oder Cached?
Und Stripe Size ist wohl eher zu vernachlässigen, oder!?
Grüße
21.01.13, 13:13 #2296
- Registriert seit
- 14.01.2010
- Beiträge
- 3.532
Stripe-Size: RAID-Analyse: Welche Blockgröße ist ideal? : Vergleich: Stripe-Größen bei RAID 0, 5 und 6
I/O musst du selber entscheiden, hier nochmal der Link auf dem auch der Unterschied zwischen Cached und Direct angezeigt wird (auch wenn da m.M. nach ein Dreher drin ist!):
direct IO or cache IO?
Ich habs bei mir auf Cached stehen weil ich es damals so eingerichtet hab...Workstation/Gaming: Check - Laptop: Check - Server: Check
21.01.13, 13:21 #2297Tausen Dank für die Links.
Den THG Artikel kenn ich schon..den anderen nicht! Hilft auf jeden Fall sehr weiter.
VG
21.01.13, 15:11 #2298So, CDFS Partition ist weg, aber immer noch kein automatisches Booten von dem Stick. Werd mal einen anderen testen.
Hab aber mal diesen Treiber mit dem ESXi-Customizer zum 5.1 hinzugefügt - und schon im Settings-Menü sehe ich jetzt 2 Karten... einzig das Booten dauert jetzt wesentlich länger als vorher (alles gleich, bis auf das angepasste Image - läd ewig bei "loading esxfw" - aber das stört mich jetzt erstmal weniger)
auch hier schauts gut aus:
E: nu bootet er... UEFI Boot auf "enabled" und dann gings... warum auch immer. Übers Bootmenü zeigt er mir ja auch kein UEFI-fähiges LW an, sondern nur "USB:" - und bootet trotzdem. Aber mir solls recht seinGeändert von Patric_ (21.01.13 um 15:57 Uhr)
Main Define R4 * Core i5-3750k * Z77MA-G45 * 8192 MB DDR3 PC3-10600 * MX100 256GB/512GB
Zocken Core 3500 * Core i5-4690k * Z97 Gaming 5 * 8192 MB DDR3 PC3-10600 * RX580 * Samsung 840 * Crucial MX100 512GB
Homeserver Q07R * Celeron G530 * DQ77KB * 8192 MB DDR3 PC3-10600 1.35V * Crucial M4 mSATA * FSP-150
Stromspar-Quatsch-Thread | 6W Idle | 10W Idle | i3-2100T vs. i3-2100 vs. i5-2400 | DH57JG | GA-H55N-USB3
21.01.13, 19:42 #2299
- Registriert seit
- 06.12.2005
- Ort
- Saarland
- Beiträge
- 285
Siehe VMware KB: Sample configuration of EtherChannel / Link aggregation with ESXi/ESX and Cisco/HP switches "The only load balancing option for vSwitches or vDistributed Switches that can be used with EtherChannel is IP HASH."
22.01.13, 20:47 #2300
- Registriert seit
- 30.06.2012
- Beiträge
- 50
Habe gerade mal RDM getestet, das ist ja extrem cool
Ich kann meine Festplatte ausreizen, (140MB/s) es ist einfach einzurichten und man spart sich einen extra Controller für Passthrough.
Sobald ich aber Hotplug nutzen will, komm ich nicht um einen extra durchgereichten Controller/HBA herum, oder?
LinkBacks (?)
-
25.05.11, 12:55
-
17.05.11, 18:39
-
11.05.11, 12:44
-
05.05.11, 13:36
-
Untitled document
Refback This thread23.02.11, 07:45 -
22.02.11, 21:37
-
22.02.11, 14:15
-
Man lernt nie aus – Bad TCP Checksum in Wireshark richtig deuten | Meine Technik & ich
Refback This thread24.01.11, 14:39 -
20.01.11, 15:57