ESX / ESXi - Hilfethread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Keine Ahnung ob das vergleichbar ist, aber ich hatte immerhin das gleiche Symptom (hängt beim laden des Controller-Moduls):

Meine Kiste hing reproduzierbar mit einem m1015-Clon beim Laden des Moduls bei der ESXi-Installation oder danach auch beim Booten, wenn die Platten sich schlafen-gelegt hatten bzw. im Spindown waren. Wahrscheinlich hat der Controller keine Veranlassung gesehen, die - nur weil der ESXi drauf wartete - anzuwerfen... Ich hatte die Platten in einem separaten Gehäuse und musste das einfach kurz vor der Installation bzw. Booten einmal aus-und-wieder-an schalten, dann lief die Installation und der Bootvorgang durch und der Betrieb war dann problemlos.

Wenn Du die Möglichkeit hast, beeil' Dich mal mit'm Setup oder gib den Platten später/nochmal neu Strom. ;)
 
Zuletzt bearbeitet:
Hab nun mal alle Platten entfernt, aber das hat auch nicht geholfen. Werde mal ein paar BIOS Option durch probieren, hab irgendwie das Gefühl das liegt am Board. Ist ein ASUS P8Z77 mit Xeon E3-1230.

EDIT: Unter ESXi 5.5 läuft alles, selbe Treiberversion.
 
Zuletzt bearbeitet:
Dumme Frage: wenn man eine Platte über physical RDM in ESXi durch reicht, auf der sich bereits Daten befinden (single Disk ZFS Pool mit Dataset), werden dann die Daten darauf gelöscht oder findet die VM (in diesem Fall gleiche Solaris-Version) die Daten wieder (also lässt sich der Pool importieren)?
 
Ich nutze zwar kein RDM aber die Platte wird 1:1 an Solaris weitergereicht.
Solaris sollte den Pool problemlos importieren können.
 
Hi,
ich habe vor bald einen Homeserver zu bauen. Dazu würde ich gern ESXi benutzen. OMV soll meine primäre VM sein. Die anderen VMs sind eher zum Testen. Esxi deshalb, damit ich auch da meine Wissenslücke schließen kann. Jetzt aber zur Frage. Wie würdet ihr in meinem Fall die Festplatten durchreichen? Per vt-d (ist vorhanden), aber eine ssd ist nur für die vms geplant. Da vt-d nur komplette controller durchreichen würde, wäre hier die Frage, ob ich einen zusätzlichen kaufen soll oder nicht. Ist jeder controller dafür geeignet? Ist vt-d nicht empfehlenswert? Soll ich es lieber per rdm durchreichen oder vmdk? Meine Vorstellung war: 1 Usb Stick für Esxi, 1 SSD für die VMs, 2 Festplatten (für OMV - als Datenfestplatten mit ZFS).

Danke für eure Antworten! Grüße Stefan
 
Zuletzt bearbeitet:
Wenn man den Spass primär wegen ZFS macht, dann ist vt-d bei dem das Storage OS den eigenen Plattentreiber nutzen kann, die beste Wahl. (Wobei ich wenn ZFS die entscheidende Wahl ist, BSD oder Solaris als Storage VM einer Linux Lösung noch immer deutlich vorziehen würde) - zumal die Storage VM eh keine Dienste stellen sollte da sie auf unsicherem vmdk Storage liegt. Die sollte ausser FC/iSCSI, NFS, SMB Storage nichts machen und schnell wiederherstellbar sein. Dazu dann lieber eine VM auf ZFS anlegen. (BSD, Linux, OSX, Solaris, Windows je nach Service wie Webserver oder Mediaserver)

Als Controller nimmt man einen LSI HBA z.B.LSI 9207 oder alternativ 9211/IBM 1015 wobei man die auf die raidlose IT Firmware umflashen sollte die beim 9207 bereits enthalten ist (ZFS macht das Raid selber und dann sollte man auf Raid im Controller verzichten).

Physical RDM ist die zweitbeste Wahl. Auch da ist die Platte ZFS formatiert und portabel. Daten müssen halt sowohl durch den virtuellen Plattentreiber wie den ESXi Treiber.

VMDK formatierte Platten für ZFS Storage ist bähh
 
Zuletzt bearbeitet:
Hi gea, danke für die schnelle Antwort ;)
Wäre es auch möglich, den onboard Controller zur VM durchzureichen und die VM-SSD an einen günstigen Controller anzuschließen? Oder wäre es am Besten wirklich so einen guten (und teuren) Controller zu nehmen? Denn der Preis für diesen Controller ( ca. 200 Euro) ist für mich schon zu viel.

Irgendwo habe ich mal eine Empfehlung hier im Forum gelesen, dass es am Besten wäre, wenn das Durchreichen durch so wenige Instanzen durchgehen soll, wie es nur geht (es könnte auch sein, dass du es mal geschrieben hattest). Somit könnte man die Fehlermöglichkeiten stark einschränken, wenn das mit dem Extracontroller für die SSD gehen würde.

Was sind eigentlich die Vor-/Nachteile von dem Durchreichen eines Controllers im Vergleich zum physical RDM? Vielleicht würde das physical RDM mir dann doch reichen.

Warum ist VMDK für ZFS Storage Mist? ;)
 
Mist ist ein hartes Wort und @home gelten teils andere Regeln als bei professionell.

Grundsätzlich sehe ich das so
Virtualisierung ist gang und gäbe bei Server/ Service Virtualisierung. Da hat es nur Vorteile. Es gibt aber zwei Bereiche wo es wenig taugt und man daher bisher dedizierte Systeme nimmt. Das sind grafiklastige Anwendungen und Storage.

Bei Grafiklastigen Anwendungen ist der virtuelle Treiber normalerweise wirklich Mist im Vergleich zu einer echten Grafikkarte. Man kann dann eine Grafikkarte durchreichen oder eine "Shared Grafikkarte" nutzen wie es bei VDI Anwendungen gemacht wird.

Bei Storage kommt es auf Performance und Sicherheit an, z.B. transaktionssicheres Schreiben. Das geht eben nur mit Einschränkungen, wenn man das auf eine Basis aufsetzt, die das nicht durchreicht oder unterstützt. Ist wie ein Formel-1 Motor, den man auch nicht in einen Golf einbauen sollte wenn man Formel-1 Performance und Straßenlage möchte. Umgekehrt macht das deutlich mehr Sinn also z.B. unsichere Dateisysteme wie ext4, ntfs oder vmfs virtualisiert auf ZFS Storage mit sicherem sync write.

Ein billiger Controller und Sata/AHCI durchreichen ist eine Option, macht aber gern mal Probleme unter aktuellem ESXi. Ich würde nach einem gebrauchten LSI 1064/1068 suchen. Der ist perfekt sowohl für ESXi wie zum Durchreichen, kann aber nur Platten bis 2 TB.

Die Anforderungen an den Controller für die Storage VM sind eigentlich gering und Performance ist egal. Er muss nur unter ESXi laufen. Wie gesagt, das Konzept einer Storagevirtualisierung macht am meisten Sinn, wenn nur eine mini Storage VM ohne Extras virtualisiert wird, der Storage selber (Controller und Disks) nicht virtualisiert werden (und RDM ist Teilvirtualisierung da zum Zugriff ESXi genutzt wird) und alle "kritischen Serveranwendungs-VMs" ausschliesslich auf ZFS Storage (per NFS von der Storage VM) geliefert werden - schneller, sicherer und das hat Versionierung/vorherige Version was ESXi nicht bietet. Da sind einzelne Snaps nur als Kurzzeitsnaps tauglich.
 
Zuletzt bearbeitet:
Ich wusste nicht, wie ich ein Bähh in meinen Worten umschreiben könnte ;)

Sind billige Controller auch Controller mit einem Serverchipsatz (z.B. C232)?

Die gebrauchten LSI 1064 würden wohl wenig Sinn machen, da ich noch am Überlegen bin mir doch 3 TB Platten zu holen. Da würde es dann raus fallen.

Notfalls würde ich dann doch auf physical RDM zurückgreifen.
 
ESXi unterstützt kein Mainboard Software Raid (egal ob Desktop oder Serverchipsatz) sondern nur deren AHCI Modus.

Wenn man den Durchreichen kann - perfekt. Dann kann man einen LSI 106x zum Booten von ESXi und die Storage VM nehmen. Da ist eh eher eine 30-50 GB Platte/SSD angesagt.

Notfalls Physical RDM.
 
Ich wusste nicht, wie ich ein Bähh in meinen Worten umschreiben könnte ;)

Sind billige Controller auch Controller mit einem Serverchipsatz (z.B. C232)?

Die gebrauchten LSI 1064 würden wohl wenig Sinn machen, da ich noch am Überlegen bin mir doch 3 TB Platten zu holen. Da würde es dann raus fallen.

Notfalls würde ich dann doch auf physical RDM zurückgreifen.
 
Ich habe mir inzwischen auch mal ESXi auf USB + Solaris11.3-StorageVM auf SSD (allerdings Sata1 nicht 5) + 1TB SATA/AHCI (Sata3) mit RDM "durchgereicht" als TestPool eingerichtet.

Vorhandener Pool ließ sich schon mal importieren. Jetzt werde ich mal ein wenig Performance testen und insgesamt mal testweise ordentlich Last erzeugen. Da die Kiste bzw. StorageVM bei mir nur das Backup des baremetal Filers macht, ist die Performance nicht soooo wichtig. Nur Schreibfehler wären ziemlich doof... ;)

- - - Updated - - -

Hmm... Soeben verabschiedete sich der ESXi mit nem purple screen of death... PF exception 14 in world...

Vielleicht doch nicht das Gelbe vom Ei.
 
RDM auf Sata Platten macht im professionellen Einsatz niemand - im Gegensatz zu RDM auf SAN Storage.

Das hat zwei Konsequenzen:
- Es ist ein unsupported Feature (kein Support)
- Vmware wird da nicht zuviel Aufwand und Test auf unterschiedlicher Hardware reinstecken
 
SAN-storage = iSCSI LUNs?
 
Wenn man in vsphere >> ESXi > Konfiguration > Speicher > Speicher hinzufügen geht, steht da als Option:

- Fiber Channel Festplatte
- iSCSI Festplatte
- lokale SCSI Festplatte
- VMFS Volume

von Sata Platte steht da leider nichts und das geht dann auch nur manuell per ESXi Console
 
Kann man RDM mit jeder Hardware machen? Wenn ich die HDDs per RDM durchreiche, muss ich das auch über die Konsole machen?
 
1. Hardware
Versuch macht klug, kann klappen oder auch nicht

2. RDM mit Sata
Anleitung googeln mit "esxi physical rdm"
 
Eventuell auch über die onboard Sata Ports? Oder bräuchte man hierfür auch einen seperaten Controller?
 
Pass-through geht mit pci-e devices.
Onboard Sata mit allen Ports ist zunächst auch nur ein pci-e device.

Richtig problemlos geht pass-through aber mit LSI HBAs
 
Ich dachte da in Richtung RDM ;) sorry, dass ich es ned gleich dazu geschrieben hatte.
 
Egal ob Sata RDM oder Sata pass-through.
Beides ist von VMware nicht vorgesehen, ist aufgrund der Vielzahl von Hardwareoptionen "unsupported" - kann gehen muss aber nicht.
 
Moin zusammen,

könnt Ihr mir im Zusammenhang mit ESXI und dem HP ML10V2 einen günstigen und kompatiblen Raid-5 Controller empfehlen? Keine Beschränkung was die HDD angeht, also >2TB.
Ich blicke da langsam nicht mehr durch.
Klar, die Kompatibilitätsliste habe ich gesehen, aber welchen Controller würdet Ihr da nehmen für 4-8 HDD?
 
Adaptec ASR-5805 kann 8 HDDs. 8TB werden problemlos erkannt. Läuft problemlos mit ESXi zusammen. Hätte noch einen hier rumliegen.
 
Zuletzt bearbeitet:
ESXi vCenter-Management-Problem

Werte User!

Ich betreibe momentan in studentischer Neugier ein kleines Homelab aus alten Server-Teilen um mir mit Virtualisierung und ESXi etwas die Zeit zu vertreiben und zu basteln. Zuletzt hatte ich einen vCenter-Server installiert dessen Management über den Web-Browser aufrufbar ist. Beim Hinzufügen der ESXi-Maschine gibt es jedoch die Fehlermeldung "Kommunikation mit angegeben Host nicht möglich. Möglicherweise ist der Host im Netzwerk nicht verfügbar, es liegt ein Netzwerkkonfigurationsproblem vor, oder die Verwaltungsdienste auf diesem Host funktionieren nicht". Ich bin etwas mit meinem Latein am Ende und verstehe nicht ganz, warum diese Fehlermeldung zustande kommt. Das vCenter per Browser vom Privat-PC (Chrome, mittels account administrator@vsphere.local) findet weder esxi, noch esxi.xxx.local noch die IP (192.168.0.137).

Mein Setup sieht wie folgt aus

Router (Hitron)
IP: 192.168.0.1/24
Fungiert atm noch als DHCP-Server (Range 192.168.0.2-30)/WLAN-Access-Point für Smartphones, Smart-TV, etc pp

Am Router hängt atm ein Billig-Switch ohne Konfiguration, am Switch folgende Rechner:

ESXi-Server - esxi.xxx.local
ESXi 6.0.0-2494585
Xeon E3-1265 V2 @ 2.5 GHz
Asus P8CWS; Radeon HD 6450 als Pass-Through an den HTPC; 16 GB ECC-RAM
IP (static): 192.168.0.137/24
DNS: 192.168.0.237 (Windows AD/DNS)
Alternate DNS: 192.168.0.1 (Router)
Default Gateway: 192.168.0.237 (Windows AD/DNS)
Domain: xxx.local
Search-Domain: xxx.local
VM Storage-Network 192.168.0.140 mit MTU 9000


Auf dem Server befinden sich:
Code:
[b]AD/DC/DNS-Server[/b] - server1.xxx.local
Windows Server 2016 x64
2 vCPU, 4 GB RAM
IP (static): 192.168.0.237/24
DNS: 127.0.0.1
Alternate DNS: 192.168.0.1 (Router)
Default Gateway: 192.168.0.1 (Router)
-) AD-/Domain-Server

[b]Verwaltungs-Server[/b] - server2.xxx.local
Windows Server 2012 x64
2 vCPU, 4 GB RAM
IP (static): 192.168.0.238/24
DNS: 192.168.0.237 (Windows AD/DNS)
Default Gateway: 192.168.0.237 (Windows AD/DNS)
-) vCenter-Server
-) ESXi-Single-Sign-On
-) Apache-Webserver

[b]HTPC[/b] - kodibuntu
KodiBuntu 14.0; Ubuntu-Linux x64
2 vCPU, 2 GB RAM (all locked weil Passthrough sonst nicht klappt)
IP (static): 192.168.0.41/24
Default Gateway: 192.168.0.1 (Router)
[i](Noch) nicht in der Domäne eingefügt, Zugriff nur mittels Apps über direkte IP bis dato)[/i]

[b]NAS[/b] - freenas.xxx.local
FreeNAS 9.3; FreeBSD x64
2 vCPU, 8 GB RAM
IP (static): 192.168.0.240/24
DNS: 192.168.0.237 (Windows AD/DNS)
DNS2: 192.168.0.1 (Router)
Default-Gateway: 192.168.0.237 (Windows AD/DNS)
[i]Freigaben davon im Privat-PC bzw dem HTPC als Netzlaufwerk verbunden, Zugriffsregelung über AD-Rechte funktioniert.[/i]

plus ein paar Windows und Ubuntu-VMs die für die Konfiguration hier nicht relevant und auch nur selten online sind.

Privat-PC - mypc.xxx.local
Windows 10 x64; Asus P8P67Pro; 16 GB RAM
IP: dynamic
Default Gateway: 192.168.0.1 (Router)
DNS: 192.168.0.237 (Windows AD/DNS)
DNS2: 192.168.0.1 (Router)

Ich kann von ESXi-Server (per SSH-Shell), Server1 (per cmd) (Windows AD/DNS), Server2 (per CMD) (Verwaltung, vCenter), NAS (per Shell) und Privat-PC (per CMD) jeden der anderen Teilnehmner mit Ping (sowohl IP als auch FQDN) erreichen und finde alle Teilnehmer mit nslookup.

Bereits gemacht/überprüft:
-) ESX Admin group im AD, ESXi-Computer ist als Member dieser Gruppe eingetragen (kA ob notwendig)
-) ESXi-Rechner manuell im DNS eingetragen
-) vCenter user auf dem server2 ist Mitglied der ESX-Admin-Group
-) Abrufen der AD-Gruppen auf dem ESXi-Server über Permissions/Add User/Domain xxx.local funktioniert auch
-) Login auf dem ESXi-Server mittels vSphere per FQDN bzw. user@xxx.local und Passwort funktioniert
-) Unter vCenter bei Add host als Benutzername folgendes versucht: xxx.local\user, xxx\user, user@xxx, user@xxx.local, root - alles ohne Erfolg :/.
-) Lockdown-Mode nicht aktiv (lt. VMWare KB-Anleitung geprüft)
-) IPv6 ist auf allen Physischen und virtuellen Maschinen deaktiviert

Denkanstöße, Tips, Vorschläge gerne gehört - Danke im Voraus!

/edit: Nachträglich gesehen, dass das hier ja reines Hardware-Forum ist; wohin hat mich Google nur gelotst :o. Lasse den Post auf gut Glück trotzdem 'mal frecher Weise stehen.
/edit2: Um dem Hardware-Aspekt etwas gerecht zu werden: Kann man quasi sagen, dass Raid-Controller oder HBAs die nicht auf LSI basieren vollkommen untauglich sind für ESXi mit Nas + Passthrough? Die Kosten von so 'nem LSI-Adapter sind doch recht knackig.
 
Zuletzt bearbeitet:
Esxi mit der freien Lizenz oder 60 Tage Version ?

Den freien ESXi kann man nicht in ein vCenter aufnehmen.

Gesendet von meinem HTC EVO 3D X515m mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Das heißt, dass der Host, der verwaltet werden soll, gleichzeitig den vCenter Server hostet. Ist zwar etwas unglücklich, kann man aber in einer Heim-Umgebung machen.

Ich gehe stark davon aus, dass das etwas mit den virtuellen Switches zu tun hat - wie viele virtuelle Switches hast Du angelegt, und welche virtuellen Maschinen hängen mit welchen Netzwerkkarten an welchem Switch? Der Windows-Server, auf dem der vcenter Server läuft, muss den ESXi-Host per IP erreichen bzw. DNS auflösen können, sonst kann der den nicht einbinden. Kann der server2 den ESXi-Host pingen (IP oder DNS)? Den vSphere Client hast Du sicherlich auf deinem Privat-PC installiert, richtig? Installiere mal bitte den vSphere Client (nicht den vSphere Web Client, der ist schon installiert) auf dem server2 und versuche dich von dort aus direkt auf den Host zu verbinden. Das muss funktionieren, sonst kann der vCenter-Dienst den Host auch nicht einbinden.
 
Hi ihr,

ich würde demnächst vermutlich gerne ESXI nutzen.
Und zwar möchte ich darauf einmal OpenMediaVault als VM für NAS, Plex & ownCloud nutzen. Zudem eine VM mit Windows 10 Pro 32bit für meinen TV-Server (DVB Viewer Recording Service).
Als Mainboard nutze ich ein Asrock E3C226D2I, welches EINEN Sata-Controller hat & EINEN PCIe Slot für die TV-Karte.
Zudem werden 16gb Ram und ein Xeon e3 1230 v3 genutzt.

Nun meine Fragen:
- läuft das ganze von der Performance her so wie eine Bare Meta...? Oder zumindest ähnlich?
- ich möchte den kompletten Sata-Controller des Mainboards via VT-D an OMV durchreichen. Dann kann ich nur keine VMs auf Platten des SATA-Controllers packen... Aber wo kann ich dann die VMs hin installieren? Kann ich die VMs auf eine USB3-HDD packen??
- die TV-Karte soll auch per VT-D durchgereicht werden an Windows. Läuft das ohne Probleme?

So, ich hoffe ihr könnt mir helfen, vor allem bezuüglich der Performance und ob ich die VMs des ESXI problemlos auf eine USB3-HDD packen kann...

Vielen Dank im Voraus!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh