[Sammelthread] HP ProLiant G8 G1610T/G2020T/i3-3240/E3-1220Lv2 MicroServer

Wie ist denn bei dem mirror vdev die Performance gegenüber raid5 am Hardware controller? Jeweils bei 4 Platten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aktuell hat notebooksbilliger ssds im Angebot. Eignen sich gut als Cache devs für wenig Geld.

Gesendet von meinem XT1635-02 mit Tapatalk
 
Mirrored Stripes, also quasi RAID10 gibt dir sichere 6TB und stresst im Resilverfall die Platten weniger. ZFS: You should use mirror vdevs, not RAIDZ. JRS Systems: the blog
Der Vorteil liegt wo genau?
Wenn mehrer Mirrors in einem Pool zusammengefasst sind, darf bei dem Pool nur eine beliebige HDD ausfallen - genauso wie bei Raidz1.
Und beim Resilvern ist ausgerechnet die dann kritische HDD stark beansprucht, fällt die beiResilvern aus, ist der Pool zerstört.

Der einzige Vorteil von Raid 10 sind die höhheren IOPs >> zu Lasten der Nutzkapazität
Wenn man IOPs braucht, nimt man besser SSDs.
 
Zuletzt bearbeitet:
Hmmm .... ich hab mich doch gerade entschieden. ;)

Ich nehme an die Performance beim streamen eines HD Films oder ähnlichem dürfte auf beim Raidz1 völlig ausreichen? Oder beim kopieren übers GBit LAN?!
 
Jein ;) Ich empfehle wirklich den Blogpost: ZFS: You should use mirror vdevs, not RAIDZ. JRS Systems: the blog von Jim Salter

The only disk more heavily loaded than usual during a mirror vdev resilvering is the other disk in the vdev – which might sound bad, but remember that it’s no more heavily loaded than it would’ve been as a RAIDZ member. Each block resilvered on a RAIDZ vdev requires a block to be read from each surviving RAIDZ member; each block written to a resilvering mirror only requires one block to be read from a surviving vdev member. For a six-disk RAIDZ1 vs a six disk pool of mirrors, that’s five times the extra I/O demands required of the surviving disks.

Resilvering a mirror is much less stressful than resilvering a RAIDZ.
 
Resilvering a mirror is much less stressful than resilvering a RAIDZ
Nö!
Die zu lesende Datenmenge und die Anzahl der beteilgten HDDs ist geringer, nämlich der Inhalt von genau einer HDD im ggs. zu dem Inhalt multipler HDDs, aus denen die zu rekostruierenden Daten der zu schreibenden HDD vor dem Schreiben berechnet werden müssen.
Der Stress für die beteiligten (!) HDDs ist aber etwa gleich hoch (bei einem adäquat gefüllten Raid) - eventuell sogar etwas höher, da die Berechnungen wegfallen und die Datenblöcke 1:1 kopiert werden können und dadurch eine höhere Rebuildrate erfolgt.

1 Mann baut 1 Haus, 5 Männer bauen 5 Häuser, da kann man auch nicht sagen, daß die 5 Männer mehr belastet sind als der 1 Mann - Synergieefekte an dieser Stelle mal außen vor gelassen. Genau das behauptet der Artikel! Es wird nicht berücksichtigt, das die zu bearbeitende Datenmenge entsprechend höher ist.
 
Zuletzt bearbeitet:
Sorry, aber der Vergleich hinkt. :coffee: Ich versuche mal ohne höhere Mathematik deinen Denkfehler zu erklären:

Jede an einem technischen System beteiligte Systemkomponente hat eine typspezifische Ausfallrate. (Man kann davon ausgehen, dass eine "gestresste" Festplatte im Schnitt alle X-Tausend Betriebsstunden ausfällt.) Aus dieser Ausfallrate und der Dauer des Rebuilds lässt sich die exakte Ausfallwahrscheinlichkeit während des Rebuilds für genau diese Platte berechnen (z.B. 0,001). Die Wahrscheinlichkeit, dass die Platte in diesem Zeitraum NICHT ausfällt, liegt also bei 0,999 bzw. 99,9%.

Bei einem System, welches vom gleichzeitigen Funktionieren mehrerer unabhängiger Komponenten abhängig ist, entspricht die Gesamt-Überlebenswahrscheinlichkeiten dem Produkt der Überlebenswahrscheinlichkeiten seiner Komponenten. Gehen wir der Einfachheit mal davon aus, dass alle am Rebuild beteiligten Platten vom selben Typ sind und daher die selbe Ausfallwahrscheinlichkeit aufweisen.

Bei der Wiederherstellung eines Mirror-Raids kommt es auf das Überleben genau einer anderen Platte an.
Die Erfolgswahrscheinlichkeit liegt also bei 0,999 bzw. 99,9%.

Für die erfolgreiche Wiederherstellung eines RaidZ1 mit 6 Platten darf währenddessen keine einzige der 5 übrigen Platten kaputt gehen. Die Erfolgswahrscheinlichkeit liegt daher nur bei:
0,999 * 0,999 * 0,999 * 0,999 * 0,999 = 0,995000999 bzw. ca. 99,5%.

Wenn man dann noch annimmt, dass die Wiederherstellung eines RaidZ1 länger dauert, sinkt die Erfolgswahrscheinlichkeit noch weiter.

Und das ist keine graue Theorie sondern wird selbstverständlich bei der Konstruktion kritischer Systeme berücksichtigt. Ingenieure und Informatiker lernen das auch im Studium. Google mal nach Zuverlässigkeitsanalyse mittels Markov-Ketten, Fehlerbäumen, usw. Je komplexer das System desto höher die Gesamtausfallrate. Oder anders gesagt: Es macht schon etwas aus, ob ich von 5 oder nur von einer "gestressten" Festplatte abhängig bin.

Bezogen auf die 5 Männer: Natürlich steigt die Wahrscheinlichkeit, dass einer der Hausbauer während der Bauzeit einen Herzinfarkt erleidet, mit der Anzahl der Baustellen. Treib das mal auf die Spitze: 5.000 Männer bauen 5.000 Häuser. Da ist es plötzlich sehr wahrscheinlich, dass einer während dieser Zeit die Grätsche macht. Ich würde keine Wette darauf abschließen, dass alle 5.000 Häuser fertig werden. :asthanos:

edit: Ich betreibe selbst übrigens auch ein Raid5, weil ich zu geizig für größere Festplatten war, aber ich bin mir der höheren Ausfallwahrscheinlichkeit während des Rebuilds bewusst ... und ich mache Backups. :bigok:
 
Zuletzt bearbeitet:
Am Schluss isses ja Wurscht,geht beides, hat beides seine Vor- und Nachteile, sonst gäbe es das ja nicht ;)

Ich fühl mich aber in Zeiten von 14TB großen Platten mit dem Streß eines RAIDZ Resilvers einfach etwas unwohl. Und RAID/Mirror auch im Jahr 2018 kein Backup...
 
@Mangoheini: Vielen vielen Dank für die detailierte Erklärung. Ich kann mich zwar nicht erinnern, dass wir RAID-Level im Informatik Studium gehabt hätten, aber das ist natürlich Statistik Grundwissen. Und zu Ausfallwahrscheinleichkeiten im Allgemeinen war da sicher auch mal etwas dabei :d

@Digi-Quick: Nicht alles, was einem selbst unlogisch erscheint, ist automatisch auch falsch.

Um die trockene Zahlentheorie mal mit etwas mehr Leben zu füllen und auch den Vergleich zwischen RAID5 und RAID10 zu haben (letzteres hat ja auch eine Ausfallwahrscheinlichkeit): Nehmen wir mal an, dass aus jedem der beiden Pools (5 vs. 10) bereits eine Festplatte ausgefallen ist. Und nachdem man ja gerne vier gleiche Platten auf einmal bestellt, können sich die Platten in Lebensdauer, Produktionsfehlern usw. ähneln. Gehen wir also von einer sehr hohen Ausfallwahrscheinlich von 10% pro restlicher Platte aus.

Wie Mangoheini schon erklärt hat, beträgt die Wahrscheinlichkeit bei RAID5 sagenhafte 27.1% für einen weiteren Ausfall (1 - 0.9^3)

Wie sieht es nun bei RAID10 aus?
Nun, die 10%-ige Ausfallwahrscheinlichkeit der Platte im degraded RAID1 besteht natürlich ebenfalls. Aber wie ist es im anderen Pool? 10%? 5%? Nein, 1% (0.1 * 0.1 = 0.01).
Also 10% Ausfallwahrscheinlichkeit für das erste RAID1, 1% Ausfallwahrscheinlichkeit für das zweite RAID1. Das ist doch eine deutlich komfortablere Situation als die 27.1% beim RAID5.
Wenn die RAID0 Policy file-based ist, dann könnte man theoretisch sogar noch argumentieren, dass bei Ausfall der restlichen Platte im fehlerhaften RAID1 die Daten im zweiten RAID1 noch vorhanden sind.

Was außerdem überhaupt nicht in der Wahrscheinlichkeitsberechnung berücksichtigt ist:
- die Dauer für den Rebuild, der im RAID5 signifikant länger dauern wird und entsprechend auch die Ausfallwahrscheinlichkeit deutlich erhöht (hat Mangoheini ja auch schon angesprochen)
- die mechanische Belastung der Platten. Entgegen Digi-Quicks Meinung ist ein sequenzielles Lesen (auch bei hoher Datenrate) deutlich entspannter für die Platte, als ein ständiges Kopf-positionieren, weil abwechselnd Nutzdaten und Paritätsdaten gelesen werden müssen.


Und auch danke für Mangoheinis letzten Satz: Auch ich will RAID5 nicht verteufeln und auch ich habe kein Geld zu verschenken. Aber man sollte sich der Problematik und der anhängigen Wahrscheinlichkeiten bewusst sein.
Auch ein RAID1 steigert nur die Verfügbarkeit, nicht aber die Datensicherheit. Eine Überspannung kann auch ein fünffach-RAID1 restlos zerstören, eine vernünftige Backupstrategie ist also in jedem Fall Pflicht.

Die 10% Ausfallwahrscheinlichkeit waren natürlich übertrieben, aber wer kann schon etwas mit der dritten Stelle nach dem Komma anfangen? 99% Internet-Verfügbarkeit hören sich doch auch gut an. Bis das Geschäft wegen ausgefallenem Internet steht und der ISP einem freundlich erklärt, dass 99% Verfügbarkeit einem erlaubten Jahresausfall von dreieinhalb Tagen gleichkommt.

Nichts für ungut, soll jeder machen, wie er meint.

Viele Grüße
Martin
 
Zuletzt bearbeitet:
@Mangoheini
Es ging um die Belastung, nicht um Wahrscheinlichkeistrechnung!
Die Datenmenge in einem Raidzx ist erheblich höher als bei einem Raid1/Mirror - schon alleine daraus resultiert eine geringere Chance eines erfolgreichen Rebuilds

Belastung Pro Device = wieviele Daten müssen von jedem beteligten Device gelesen bzw. geschrieben werden / Anzahl der beteiligten Devices!

Für die Betrachtung der Wahrscheinlichkeiten nimmt man den Raid Kalkulator
RAID Reliability Calculator - Simple MTTDL Model - ServeTheHomeSTH – Server and Workstation Reviews

@Martingo
Ich wußte gar nicht, daß ein Raid0 eine Filebasierte Policy haben kann - die Info ist Neu. Problematisch dürften hier dann aber zB. die MFT (bei NTFS) sein.
(die eigentlich besseren IOPs kommen hierbei dann auch nicht ganz so erfolgreich zum Tragen, da Dateien nicht verteilt von mehreren Mirrorsets gelesen/geschrieben werden)
Daher gilt im Allhemeinem : Fällt in einem Raid 10 ein Kompletter Mirror aus, ist das Raid10 zerstört
Bei einem ZFS Pool aus mehreren Mirrors gilt das auf Jeden Fall - da spielt die geringe Ausfallwahrscheinlichkeit der intakten Mirrors keine Rolle!

Auch Ein ZFS Mirror wird bislang nicht sequentiell resilvered, da der Resilver Blockbasiert erfolgt und nur belegte Blöcke Resilverd werden.
Ausnahme ist hier tatsächlich bislang nur die aktuelle BetaVersion von Solaris.
Im Gegensatz dazu läuft bei einem Hardware RAiD der Rebuild immer Sequentiell weil sowieso die gesamte Platte rebuildet wird, egal ob Cluster belegt sind oder nicht
 
Zuletzt bearbeitet:
Hallo,

ich habe mir einen Hp Microserver Gen8 mit Intel Xeon und 16GB Ram gekauft.
Ich möchte Windows Server 2016 Essentials darauf installieren. Das System soll dabei auf einer SSD installiert werden, damit alle 4 anderen Plattenschächte verfügbar bleiben.

Also bin ich nach folgender Anleitung vorgegangen:

Zusammengefasst:
Ich nutze den Windows Boot Manager BCD um auf dem Internen USB-Stick den Bootmanager zu installieren.
Dieser leitet dann während des Bootvorgangs auf SATA5 um.

  1. Alle Festplatten in den Slots 1-4 entfernen.
  2. Intern keinen Stick und keine SD-Karte installieren.
  3. HDD an SATA5 anschließen
  4. Bios so einstellen, das vom USB Stick gebootet werden kann.
  5. Bios SATA Modus auf AHCI einstellen
  6. Die Windows Server 2012 R2 Installations-DVD auf einen USB-Stick kopieren.
  7. Den MicroServer von dem gerade erstellten Windows Server 2012 USB-Stick booten.
  8. Windows Server nun auf der SATA5 HDD installieren.
  9. Nach der Installation muss der Installations-USB-Stick entfernt werden.
  10. Der MicroServer müsste nun Windows Server 2012 R2 von SATA5 hochfahren.
  11. Einen mit FAT32 formatierten USB-Stick am internen Anschluss installieren.
  12. Bei mir hat das Windows Server System den Laufwerksbuchstaben C: und der am Internen USB-Anschluss angeschlossene Stick den Laufwerksbuchstaben D:
  13. Eine CMD mit Admin rechten starten.
  14. Folgenden Befehl ausführen: bcdboot C:\Windows /s D: /f ALL
  15. System herunterfahren.
  16. Platten in HDD SLOT 1-4 installieren.
  17. Fertig

Verändert ist bei mir nur, dass ich nicht Windows 2012 sondern 2016 installiert habe. Startet auch wunderbar von der SSD ohne Einschubplatten. Stecke ich dann eine neue einzelne 8TB Platte ein, sollte er ja von USB booten und dann auf die SSD umleiten. Aber er findet kein System, also bootet nicht. Ziehe ich die 8TB Platte wieder raus, bootet er wieder normal. In der Datenträgerverwaltung ist dann sowohl der USB Stick am interen Port als auch die SSD ganz normal sichtbar.
AHCI Modus ist natürlich im BIOS aktiviert.
Bootreihenfolge ist
1. USB (Laufwerk C)
2. HDD (Laufwerk C)

SATA Controller ist auch aktiviert und booten von USB ist auch aktiviert.
Was kann das noch sein? Bin am verzweifeln.

VG
Holger
 
Warum denn immer so kompliziert mit HDD rein, HDD raus.

Install Stick einstecken, von Booten, im Menü wo man die HDD zur Installation auswählen kann strg+F10 (oder shift+F10) drücken, in der cmd Diskpart eintippen. List Disk, dann sel Disk 1 (wenn das eine HDD ist), offline Disk. Wiederholen mit allen hdds, die man nicht verwenden will.

Dann die cmd zumachen, alt+k, dann die SSD markieren, einfach weiter drücken und installieren lassen. Der Windows Installer macht dann alles, wie er es braucht.

Im Windows dann cmd aufmachen, die Disks mit Diskpart und online Disk wieder aktivieren und fertig.

So schont man auch die SATA Ports...

Gesendet von meinem XT1635-02 mit Tapatalk
 
Zuletzt bearbeitet:
Ähm, was meinst du damit, bzw. wo?

Ich hab bei mir den USB-Stick erst mit diskpart auf active setzen müssen, damit der überhaupt bootbar wird.
Wenn ich mich recht erinnere, hab ich das damals nach derselben Anleitung gemacht wie du, und bei mir gings nicht, weil der Schritt in der Anleitung fehlt.
Das fiel mir aber erst auf nachdem ich den Kram in dem verlinkten englischsprachigen Forum mal durchgespielt hatte.


Warum denn immer so kompliziert mit HDD rein, HDD raus.

Weils schneller geht.
(Und man sich wirklich sicher sein kann, dass der Datenträger nicht verbunden ist.)
Und der Hauptgrund: Weil viele diese Möglichkeit bis gerade eben gar nicht kannten :d
 
Du möchtest mir also sagen, es geht schneller?

Dann Fang Mal an mit ILO zu installieren und die ISO zu mounten, statt erst die hampelei mitStick usw.

Also bitte... Und ich garantiere dir, mein weg ist schneller.

Gesendet von meinem XT1635-02 mit Tapatalk
 
Du möchtest mir also sagen, es geht schneller?

Im oben genannten Szenario: Ja, weil du eh vor der Kiste sitzt. Da dauerts keine 20 Sekunden den Stick einzustöpseln und dabei noch gleich die 4 Disks n Stück rauszuziehen. Und gross nachdenken musst dabei auch nicht.

Wenn das ganze über ILO geht mit ISO etc. und man möglicherweise noch in nem anderen Raum sitzt, ist das natürlich was anderes. Aber davon war nirgends die Rede.
 
Du planst aber die Zeit nicht ein um den Stick zu erstellen usw usw.

Also entweder betrachtest du bei beiden Abläufen den gesamten Intervall oder eben bei beiden nicht.

Sonst ist das eher nach dem Motto "ich traue nur Statistiken, die ich selbst gefälscht habe"...

P.S.:

Richtig fix geht's dann aber, wenn du pxe boot via 10gbit/s eingerichtet hast und dann von einem wds deployst. Da kann kein Stick der Welt mithalten :)

Gesendet von meinem XT1635-02 mit Tapatalk
 
Zuletzt bearbeitet:
Du planst aber die Zeit nicht ein um den Stick zu erstellen usw usw.

Also entweder betrachtest du bei beiden Abläufen den gesamten Intervall oder eben bei beiden nicht.

Sonst ist das eher nach dem Motto "ich traue nur Statistiken, die ich selbst gefälscht habe"...

Du änderst das Szenario ja grad genauso ;)
Oben war noch die Rede davon nen bestehenden Stick einzustecken. Nix mit ISO, Stick erstellen etc.

Wir schweifen ab. Und eigentlich sind wir ja derselben Meinung :d
 
Hab ja auch nirgends gesagt, dass das Szenario identisch ist, sondern explizit, dass das Szenario ungeschickt selbst gewählt ist und wie man es cleverer macht.

Gesendet von meinem XT1635-02 mit Tapatalk
 
Ich hab bei mir den USB-Stick erst mit diskpart auf active setzen müssen, damit der überhaupt bootbar wird.
Wenn ich mich recht erinnere, hab ich das damals nach derselben Anleitung gemacht wie du, und bei mir gings nicht, weil der Schritt in der Anleitung fehlt.
Das fiel mir aber erst auf nachdem ich den Kram in dem verlinkten englischsprachigen Forum mal durchgespielt hatte.
Was muss ich denn da machen mit Diskpart? Sorry, für die vieleicht blöde Frage
 
Kommandozeile als Admin öffnen.

diskpart
list disk
select disk X (hier die entsprechende Zahl eingeben)
select partition 1
active
exit
 
Kurze Frage! Wer hat hier welche Graka am laufen? Ich suche was potentes im Low Profile ( sollte schon rein passen ) um.ab und an mal was zu spielen. Keine Lust noch nen extra rechnen hin zu stellen. Geht da noch mehr als zb ne GTX1050i

Gesendet von meinem MI 6 mit Tapatalk
 
Kurze Frage! Wer hat hier welche Graka am laufen? Ich suche was potentes im Low Profile ( sollte schon rein passen ) um.ab und an mal was zu spielen. Keine Lust noch nen extra rechnen hin zu stellen. Geht da noch mehr als zb ne GTX1050i

Gesendet von meinem MI 6 mit Tapatalk

Hallo zusammen,
ich benötigen ebenfalls eine Grafikkarte im Gen8 Server. Das Gerät ist hierfür nicht vorgesehen aber laut mehreren Post`s hier im Forum haben manche wohl keine/weniger Probleme gehabt, andere dafür umso mehr.

Ich hab eine R5 230 geholt. Bei mir geht es nur um OpenGL2 Unterstützung daher einfach das billigste low profile Modell welches zu finden war.
Bisher läuft die Karte noch nicht.
Ich wollte am verlängerten Wochenende nochmal eine saubere Neuinstallation wagen.

Wenn du eine potente Graka suchst tippe ich mal darauf, dass auch eine stromintensive CPU verbaut hast.
Risikofaktoren wären dann Wärme und Strombedarf.

Vielleicht hat einer der Gen8 Spezialisten aktuelle Info`s zur Nutzung mit einer Grafikkarte auch wenn die wenigsten hier sich mit dem Gedanken anfreunden können :cool:
 
Ich will nur ne runde PUPG zocken und mein Xiaomi Pro Notebook ist etwas zu schwach auf der Brust

Gesendet von meinem MI 6 mit Tapatalk
 
Ich hab für meine GTX 750 ti nen 50er gebraucht bezahlt. Die macht ihre Sache gut in meinem Gen8.
Das einzige Problem ist hier nur, dass beim Spielen der große Lüfter im Rechner ziemlich aufdreht...
 
Zuletzt bearbeitet:
Hab noch mal nachgesehen, es war hpvsa-5.5.0-88

@sp4rt4n: Wenn DU noch mit aktuellster 6.5 testen willst und neue Erkenntnisse hast, dann bin ich gern dafür offen.


Update vom letzten Post:
Mit dem direkten ESXi 6.0.0 U3 scheint was nicht ok zu sein, bei mir laufend Probleme (s.o.). Eine alte Micro SD Card mit noch 6.0.0 U1 drauf lief problemlos, als ich sie zwischendurch mal geprüft hatte.
Kann sein das eine alte Version von U1 oder U2 mit Update auf U3 kein Problem verursacht, aber definitiv gerade bei mir wenn man nur 6.0.0 U3 neu installiert.
Sind hier nur meine aktuellen persönlichen Erfahrungen, muss nicht heissen das Andere dieses Problem auch haben.
Weitere Updates dann später.


------ Update 22.07. ------
Hier das versprochene Update zum Test mit den aktuellen Versionen von ESXi 6.0.0 U3 und 6.5.0d

getestete Images:
- HPE Custom Image for VMware ESXi 6.0 U3 Install CD (2017-07-11)
- HPE Custom Image for ESXi 6.5 Install CD (2017-07-11)

Meine Hardware (siehe Signatur):
abweichende Änderung: 1x WD 250GB HDD 3,5" und 1x WD 1TB 3,5" (meine Test-HDD's) und dazu den HP USB-Stick 2GB mit dem ESXi Image (alternativ noch 16GB MicroSD von Sandisk)


# Aufgefallene Merkmale/Probleme:
===============================

Problem beginnt schon beim Image auf USB-Stick (mit "rufus")
HPE Custom Image for VMware ESXi 6.0 U3 ==> Problem beim USB-Stick, lange Anforderung, lange Wartezeit, trotzdem vollständig.
HPE Custom Image for VMware ESXi 6.0 U2 oder andere ESXi Images ==> keine Probleme, sofortiges Beschreiben
HPE Custom Image for VMware ESXi 6.5 d ==> keine Probleme, sofortiges Beschreiben
Zw.-Fazit: vermutlich defektes Image von U3!?


# Installiertes VMware ESXi 6.0 U3:
+ vSphere Client:
Lange Ladezeiten der Datenspeicher / Hostspeichersystem aktualisieren (eingebundenen Festplatten)
Zeitüberschreitung, da der Remoteserver lange nicht reagiert hatte.

Eine Fehlermeldung:
Aufruf von "PropertyCollector.RetrieveContents" für Objekt "ha-property-collector" auf ESXi "<IP-Adresse>" ist fehlgeschlagen.

Gleichen Problem wie damals als die erste ESXi 6.0.0 Version rausgekommen ist. Hatte ich auch bei U2
Da gab es auch den Ladefehler/komplette vSphere Hänger.

Teilweise komplette Hänger des ganzen vSphere Clients
3x neu aufgesetzt, 3x das gleiche Problem. Getestet mit jeweils 2 verschiedenen Festplatten und jeweils einmal mit HP USB-Stick und MicroSDHC-Card.
(Tritt immer dann auf, wenn ein oder mehrmals die Datenspeicher/Festplatten aktualisiert werden) "....wird geladen...." Meldung



# Installiertes VMware ESXi 6.5:
(HPE-ESXi-6.5.0-iso-650.10.1.0.47)

- einwandfreie Installation, keine Hänger
- Reaktionen in der ESXi UI, schnell und ohne Probleme
- kein Abstürzen mehr, kein Rauswurf in den Loginscreen

Ein Problem trat jedoch auf:

Nach der Installation von Debian Test-VM und entfernen des ISO Images für den Neustart, ist die VM abgeschaltet. Fehlermeldung:
"Problem für Debian 8.8 (64-bit) auf esxi.<Dom> in ha-datacenter ermittelt: Configuration file has unexpected changes. Virtual machine has been terminated. Unregister and re-register virtual machine if the configuration file is correct." und
"Neukonfigurieren der virtuellen Maschine Debian 8.8 (64-bit) ist fehlgeschlagen. Der Vorgang ist im aktuellen Zustand nicht zulässig"
Die Debian VM kann derzeit nicht mehr verwendet werden. kann ein Einzelfall sein.

Ich teste aktuell noch eine Test-VM mit Windows Server und eine mit OMV
Bisher bei den beiden Systemen keinerlei Probleme, alles super.


# Fazit:
Die aktuellste Version ESXi 6.0.0 U3 kann ich persönlich gerade nicht empfehlen, da scheinbar fehlerhaft. (Meine Erfahrung)
Laufendes ESXi (U1/U2) mit Update auf U3 und ggf. angepasster Treiber (hpvsa-5.5.0-88) können vermutlich einwandfrei funktionieren.

Das neueste ESXi 6.5 (HPE-ESXi-6.5.0-iso-650.10.1.0.47) hat sich zu meiner Überraschung deutlich verbessert.
Bisher einwandfreie UI Funktionalität, keine Abstürze oder Probleme (Ausnahme die Debian-VM) das muss ich aber nochmals prüfen.

Performance-Tests folgen später.






------ Update 24.07. / Nachtrag ------

Der aktuelle ESXi 6.5.0 hat leider doch noch 2 Fehler, die hoffentlich bald mal gefixt werden.


# Wenn eine VM im laufenden Betrieb bearbeitet wird ( gelegentlich auch wenn im ausgeschalteten Zustand ) dann tritt folgender Fehler auf:

Arbeitsspeichergrenzwert akzeptiert nicht den negativen Wert -1048576
Grenzwert-Kästchen mit "-1048576" wird markiet angezeigt ( Einstellung bei VM Erstellung war: "Unbegrenzt" )

Drückt man Abbrechen dann --> bleibt man in Session und kann ggf. noch mal probieren.
Drückt man Speichern dann --> Exit ESXi Loginscreen
Ursache: TypeError: _vimTypes[configuration.config.scsis.Type] is not a constructor


# Beim markieren aller laufenden VM's und dann runterfahren --> Absturz der ESXi Weboberfläche, landet im Loginscreen

Unerwarteter Fehler ist aufgetreten / Unbehandelte Ausnahme

Ursache: TypeError: item is undefined
Version: 1.18.0
Build: 5270848


# Das oben genannte Linuxproblem, hat sich nicht noch mal ergeben-


# Fazit:
Auch wenn der ESXi 6.5 sich verbessert hat, so sind die beiden letzten Fehler doch ärgerlich und sollten bald mal gefixt werden.
Wenn man viel mit VM's experimentiert, Änderungen vornimmt oder sonstwie viel viel in der Weboberfläche aktiv ist, dann ist die aktuellste Version noch nicht ganz zu empfehlen.
Wenn man nur VM's installiert, laufen lässt und nicht laufend Anpassungen vornimmt (never touch a running system), ist die aktuelle Version durchaus eine Alternative zu 6.0



Ich hatte heute selbiges Problem:

Habe eine Install-ISO aus dem virtuellen Laufwerk der VM (vSphere 6.5 u1, HTML5 Webinterface (/ui)) entfernt:

Plötzlich war meine VM aus, ich konnte diese nicht mehr starten und in den VM-Settings wurde mir folgendes angeziegt:
ESXi6.5u1-VM-Bug.jpg
"Arbeitsspeichergrenzwert akzeptiert nicht den negativen Wert -1048576"

-> VM einschalten ging nicht mehr
-> VM Einstellungen bearbeiten ging nicht mehr
-> ESXi Host neustarten brachte keine Hilfe
-> VMX-Datei beinhaltete keine falschen Werte
-> Andere Browser halfen ebenfalls nicht

Lösung war:
VM aus dem Host Inventory entfernen und neuaufnahmen (Rechtsklick auf VM "Registrierung aufheben"; Rechtsklick im VM-Datastore auf die VMX-Datei "VM registrieren"). Danach konnte die VM ganz normal wieder gestartet werden.
 
Hallo, was ist im Moment eigendlich die aktuellste SPP für den Gen8?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh