Seite 261 von 263 ErsteErste ... 161 211 251 257 258 259 260 261 262 263 LetzteLetzte
Ergebnis 6.501 bis 6.525 von 6553
  1. #6501
    Hauptgefreiter
    Registriert seit
    21.09.2010
    Beiträge
    134


    • Systeminfo
      • Motherboard:
      • Gigabyte Z87-D3H
      • CPU:
      • Intel Corei5 4670K
      • Gehäuse:
      • Bitfenix Shinobi weiß
      • RAM:
      • GSkill 8GB DDR3-1600
      • Grafik:
      • Zotac GTX970 Omega Edition
      • Storage:
      • Crucial MX100 256GB, WD Blue 1TB, Qnap 24TB RAID5
      • Monitor:
      • BenQ XL2411Z
      • Netzwerk:
      • FritzBox Cable 6490
      • Sound:
      • 2x KRK Rokit G5
      • Netzteil:
      • Cougar 500Watt
      • Betriebssystem:
      • Windows 10 Pro 64 Bit
      • Notebook:
      • Macbook Pro Late 2011
      • Photoequipment:
      • Canon EOS 1200D, Tamron Tele, Canon FBW
      • Handy:
      • iPhone 6 64GB weiß

    Standard

    Hallo zusammen,

    gibts schon was neues bzgl. Intel Optane als RAM und entsprechendem Treiber?

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #6502
    Kapitän zur See Avatar von butcher1de
    Registriert seit
    20.08.2012
    Beiträge
    4.011


    • Systeminfo
      • Motherboard:
      • Asrock
      • CPU:
      • AMD Threadripper 1950X
      • Systemname:
      • Workstation
      • Kühlung:
      • Wasser
      • Gehäuse:
      • Akasa Alu
      • RAM:
      • 32 GB DDR4 3200 GSkill
      • Grafik:
      • Nvidia GTX 1080TI
      • Storage:
      • Samsung 850 EVO 2 TB
      • Monitor:
      • Philips BDM4065UC
      • Netzwerk:
      • 10 GBE Intel
      • Sound:
      • Creative Xfi Prof
      • Netzteil:
      • Enermax 850 Watt
      • Betriebssystem:
      • Windows 10
      • Handy:
      • MI Redmi 3S

    Standard

    Ich hätte da mal eine Frage. Mein Plan ist 1 x IBM M3 gegen ein TR4 System zu tauschen. Jetzt habe ich aber das Problem das ich dringend IPMI + KVM-over-LAN benötige. Gibt es außer die Aten Karten da etwas im Preisgünstigen Bereich (unter 100€). Oder muss ich mir da etwas basteln mit eine KVM Lösung und einer AVM Steckdose ?

    Ein Epyc System ist keine Option da ich sonst mein TR4 Sys nicht dafür einsetzen kann Die ECC Problematik mal außen vor.

    ESXI 6.5 läuft auf dem IBM und dann auch auf dem TR4 System.
    Geändert von butcher1de (03.01.18 um 16:39 Uhr)

  4. #6503
    Kapitänleutnant Avatar von AliManali
    Registriert seit
    07.03.2012
    Beiträge
    1.675


    Standard

    Hi

    Vor der Wahl stand ich auch. Ich habe mich aber dann doch für ein C612 System entschieden. Ich hatte mich hier und im vmware Forum zu Threadripper für vSphere informiert, mir wurde da durchgängig abgeraten.

    [Kaufberatung] Server Umbau ESXi - Board mit IPMI, CPU und ECC RAM

    Beispiel:

    Zitat Zitat von underclocker2k4 Beitrag anzeigen
    Threadripper sehe ich ehrlich gesagt als schwierig. TR ist eine reine GamingCPU/Plattform, dementsprechend sieht auch die MB-Landschaft aus.
    Sensoren auslesen ist eine Frage der Integration in den ESX, bzw. ob er den Sensorkontroller kennt und damit umgehen kann.
    Concole geht dort nur mittels TFT, da die Teile natürlich kein IPMI oder sowas haben. vPro als lightIPMI-Variante haben die schon garnicht, da Inteltechnologie.
    Bei AMD muss man daher, wenn es was ernstes sein soll, eigentlich auf SP3 gehen. Dort bekommt man einen 16C/32T Opteron für 666EUR. (die Zahl des Teufels )
    Die sind dann auch dualtauglich, womit man dann also schonmal für ein DualCPU-Setup vorbereiten kann, aber evtl nur einen am Anfang einbaut. (hier aber aufpassen, wie die PCIe-CPU Zuordnung ist, idR ist das MB auf beide CPU verteilt, ergo es geht am Anfang nur die Hälfte)
    SingleMBs sind mir spontan nicht bekannt. Evtl. mal schauen.

  5. #6504
    Kapitän zur See Avatar von butcher1de
    Registriert seit
    20.08.2012
    Beiträge
    4.011


    • Systeminfo
      • Motherboard:
      • Asrock
      • CPU:
      • AMD Threadripper 1950X
      • Systemname:
      • Workstation
      • Kühlung:
      • Wasser
      • Gehäuse:
      • Akasa Alu
      • RAM:
      • 32 GB DDR4 3200 GSkill
      • Grafik:
      • Nvidia GTX 1080TI
      • Storage:
      • Samsung 850 EVO 2 TB
      • Monitor:
      • Philips BDM4065UC
      • Netzwerk:
      • 10 GBE Intel
      • Sound:
      • Creative Xfi Prof
      • Netzteil:
      • Enermax 850 Watt
      • Betriebssystem:
      • Windows 10
      • Handy:
      • MI Redmi 3S

    Standard

    Danke für den Link, aber so richtig viele (verschiedene bzw Hilfreiche) Antworten hast du jetzt nicht bekommen. Und jetzt kommt noch die Intel CPU Problematik dazu Intel kämpft mit schwerer Sicherheitslücke im Prozessor-Design (Update: Windows-Benchmarks) - Hardwareluxx

    Von daher tendiere ich dann doch eher zu der TR4 Plattform. Ich habe ja immer noch einen Backup M3 um notfalls einen ESXI schnell wieder Online zu bringen. Wenn die Boards nicht so teuer wären bei SP3....

    Ich übernehme den IBM Controller mit in den TR4 Server, das sollte schon einmal viele Probleme vermeiden. Das Killer Argument ist allerdings im Moment der Speicher. 32 GB Non ECC auf TR4 Seite vs 144 GB Registered Ram im M3.

    Mit einer IPMI + KVM-over-LAN Karte wäre ich auf der Sicheren Seite.
    Geändert von butcher1de (03.01.18 um 21:36 Uhr)

  6. #6505
    Obergefreiter
    Registriert seit
    31.12.2013
    Beiträge
    127


    • Systeminfo
      • Betriebssystem:
      • SERVER 2012r2
      • Sonstiges:
      • VU+ Zero, VU+ Solo²

    Standard

    Hallo zusammen und eine gutes neues Jahr.

    ich lese nun schon seit einiger zeit hier mit und mir wurde auch schon oft geholfen durch die ganzen Post´s hier.

    Nun hab ich aber ein Problem, das ich noch nicht behoben hab...

    Auf meinem ESXI 6.5 laufen ein paar VM´s.
    Meine USV (APC BACK UPS 900 Pro) hängt an der FreeNAS VM. Die Verbindung steht.

    Das eigentliche Problem ist, das mein Shutdownbefehl falsch ist.
    Er soll eigentlich die VM´s und anschließend den Host herunterfahren.
    Sieht aktuell so aus: ssh [email protected] poweroff


    Musste ich heute feststellen als der FI rausgeflogen ist.

    Wie habt ihr das gelöst?
    SERVER = Supermicro SC815 | Supermicro X10SRI-F | Xeon E5-2630L | 32GB_ECC_RAM | 2x500GB_SSD_R1 | 2x3TB_R1_FreeNAS |

  7. #6506
    Fregattenkapitän
    Registriert seit
    31.05.2010
    Beiträge
    2.745


    • Systeminfo
      • Motherboard:
      • Asrock Z270M-ITX/AC
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • Noctua NH-L9i mit Noctua NF-A9
      • Gehäuse:
      • Dan's A4-SFX
      • RAM:
      • 32GB DDR4
      • Grafik:
      • GTX 1080Ti Founders Edition
      • Storage:
      • Samsung SM961 1TB M.2 PCIe SSD + 840 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 2x1GBit
      • Netzteil:
      • Corsair SF600 SFX
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Schenker A102, i7-3612QM, 32GB RAM, 256GB SSD

    Standard

    Falls es jemanden interessiert: ich hab hier mal ein kleines HowTo für den remote-shutdown eines (oder mehrerer) ESXi-Hosts mittels APCUPSD in einer CentOS-VM erstellt.

    Das wollte ich schon ewig mal einrichten und heute hatte ich endlich mal die Zeit dafür. Wie erwartet war das Ganze nicht direkt erfolgreich (es gibt 1 oder 2 wichtige Aspekte, die in den meisten HowTos nicht so beschrieben sind) und das hinfummeln dauert dann für so Laien wie mich dann wieder. Bevor ich mir das Ganze beim nächsten Mal dann wieder mühsam zusammenstochern muss, hab ich's mal festgehalten - in erster Linie zwar für mich selbst, aber vielleicht hilft's ja auch noch jemandem.
    Spoiler: Anzeigen

  8. #6507
    Obergefreiter
    Registriert seit
    31.12.2013
    Beiträge
    127


    • Systeminfo
      • Betriebssystem:
      • SERVER 2012r2
      • Sonstiges:
      • VU+ Zero, VU+ Solo²

    Standard

    Also wenn ich das richtig lese, dann passt das mit dem poweroff komando. Der Host sollte regulär ersteinmal die vm‘s runterfahren und dann sich selber.

    Ist das so richtig?
    SERVER = Supermicro SC815 | Supermicro X10SRI-F | Xeon E5-2630L | 32GB_ECC_RAM | 2x500GB_SSD_R1 | 2x3TB_R1_FreeNAS |

  9. #6508
    Matrose
    Registriert seit
    11.11.2017
    Beiträge
    27


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSL-CF
      • CPU:
      • Intel Xeon 1245 v6 3.7GHz
      • Kühlung:
      • Noctua NH-D9L
      • Gehäuse:
      • X-Case X445-C8 LCD. 4u
      • RAM:
      • 2 x 8GB, DDR4-2400, CL17
      • Grafik:
      • VGA
      • Storage:
      • 2xWD-Red 3TB, 2xWD Red 4TB, 128GB M2, 240GB SSD
      • Netzwerk:
      • 2 x 1GBit/s / 1 x IPMI
      • Netzteil:
      • BeQuiet Pure Power 630W
      • Betriebssystem:
      • ESXi 6.5

    Standard

    Zitat Zitat von mastersteve1 Beitrag anzeigen
    Also wenn ich das richtig lese, dann passt das mit dem poweroff komando. Der Host sollte regulär ersteinmal die vm‘s runterfahren und dann sich selber.

    Ist das so richtig?
    Ja, ich habe es gestern so mit 5 VMs eingerichtet. Wenn ich dem ESXi den Shutdown Befehl geben, dann fährt er die VMs in umgekehrter Reihenfolge runter. Allerdings ist das Einstellen der Priorität des VMs für Hoch-/Runterfahren im ESXi Webinterface ziemlich buggy. Man kann nur "Decrease Priority" sinnvoll verwenden und diese macht dann auch noch ein Increase der Priorität. Aber es funktioniert. Und wenn beim ersten Mal eine VM nicht heruntergefahren bzw. gestartet wird, dann muss man die VM einmal unregistern und dann wieder registern, danach gehts dann. Damit würde es eigentlich ausreichen, wenn der apcupsd dem ESXi ein Shutdown-Befehl sendet. Der Rest sollte dann von alleine passieren. Das mit dem apcupsd ist allerdings bei mir im Moment nur Theroie, da ich es noch nicht ausprobiert habe. Werde ich aber bestimmt in den nächsten Tagen nachholen.

  10. #6509
    Fregattenkapitän
    Registriert seit
    31.05.2010
    Beiträge
    2.745


    • Systeminfo
      • Motherboard:
      • Asrock Z270M-ITX/AC
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • Noctua NH-L9i mit Noctua NF-A9
      • Gehäuse:
      • Dan's A4-SFX
      • RAM:
      • 32GB DDR4
      • Grafik:
      • GTX 1080Ti Founders Edition
      • Storage:
      • Samsung SM961 1TB M.2 PCIe SSD + 840 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 2x1GBit
      • Netzteil:
      • Corsair SF600 SFX
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Schenker A102, i7-3612QM, 32GB RAM, 256GB SSD

    Standard

    Grundsätzlich lässt sich das nur mit Shutdown des Hosts machen, jedenfalls wenn ich das richtig verstanden habe: Edit Virtual Machine Startup and Shutdown Settings

    Bei einer Sache bin ich mir aber nicht sicher: was passiert, wenn eine VM „hängen“ bleibt? Offenbar fährt z.B. der Host sich selbst nur runter, wenn alle VMs aus sind. Wäre ja blöde wenn die ganze Kette in den default oder custom timern hängt, weil eine VM zwischendrin rumzickt?

    Für mich ist das A und O dass meine Storage-VMs sauber beenden. Die brauchen auch ein bisserl Zeit dafür. Da geb ich den anderen VMs lieber nur einen Zeitpuffer als eine logische „Erfolgsabhängigkeit“. Wenn das Host-OS oder andere VMs danach hinüber sind, egal - das ist schnell wieder aufgesetzt.

    Was man dann mit dem apcupsd macht, bleibt ja jedem selbst überlassen. Haupteinsatzziel ist für mich am Ende, mit nur dem einen direkten Anschluss per USB-Kabel mehrere VMs auf verschiedenen Hosts runterfahren zu können. Statt dem einen SSH-Befehl kann man ja auch mehrere in ein Script in der VM aufrufen, die die APCUPSD-VM dann auslöst.

    Einen automatischen Start bei „USV power back“ gibt es übrigens sowieso nicht bei mir: wenn einmal der Strom weg war, will ich checken, warum. Und wenn alles safe ist, wird wieder geordnet manuell hochgefahren. Das dümmste ist ja, wenn mehrmals hintereinander in kürzeren Zeitabständen der Strom zusammenbricht und dann beim „letzten“ Mal die USV nicht mehr genug Saft hat, damit alles wieder geordnet herunter fährt. Dann steh ich wieder so da wie ohne USV: mit einem gecrashten Host, mit gecrashten VMs und am besten korrupten Dateisystemen/Datenverlust auf allen Ebenen.

  11. #6510
    Matrose
    Registriert seit
    11.11.2017
    Beiträge
    27


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSL-CF
      • CPU:
      • Intel Xeon 1245 v6 3.7GHz
      • Kühlung:
      • Noctua NH-D9L
      • Gehäuse:
      • X-Case X445-C8 LCD. 4u
      • RAM:
      • 2 x 8GB, DDR4-2400, CL17
      • Grafik:
      • VGA
      • Storage:
      • 2xWD-Red 3TB, 2xWD Red 4TB, 128GB M2, 240GB SSD
      • Netzwerk:
      • 2 x 1GBit/s / 1 x IPMI
      • Netzteil:
      • BeQuiet Pure Power 630W
      • Betriebssystem:
      • ESXi 6.5

    Standard

    Habe heute per Zufall herausgefunden, dass ESXi ein Skript mitliefert, welches alle VMs runterfährt:

    /sbin/shutdown.sh

    Ich gehe davon aus, dass dieses Skript das ist, was ausgeführt wird, wenn man im Webinterface "Shutdown" klickt.

    Wenn man das mit poweroff verbindet, dann sollte eigentlich alles kontrolliert runterfahren.

    Das ganz funktioniert natürlich nur, wenn die vmware-tools auf allen VMs läuft.

    /sbin/shutdown.sh && /sbin/poweroff

    hat zumindest bei den ersten Tests problemlos funktioniert.
    Wenn das Skript jetzt zuverlässig sich nur dann beendet wenn alle VMs runtergefahren sind, dann sollte das grundsätzlich funktionieren. Allerdings hatte ich auch schon einige Ungereimtheiten mit vmware-tools. Jetzt scheinen diese aber auf alles 5 VMs
    stabil zu laufen. Werde das mal detaillierter testen...

  12. #6511
    Obergefreiter
    Registriert seit
    31.12.2013
    Beiträge
    127


    • Systeminfo
      • Betriebssystem:
      • SERVER 2012r2
      • Sonstiges:
      • VU+ Zero, VU+ Solo²

    Standard

    So....
    Ein Leichtsinn Fehler hatte sich eingeschlichen! Ich muss natürlich auch das Passwort hinter das ssh [email protected] setzen. Das hab ich getan und im esxi hätte ich noch eine Änderung im automatisch herunterfahren gemacht. Jetzt passt es.

    Ich bekomm eine E-Mail mit UPS on Batterie und er fährt dann wenn die usv die Batterie low Meldung bringt alles ganz ordentlich herunter. Für meinen privatgebrauch ist das völlig ausreichend.
    SERVER = Supermicro SC815 | Supermicro X10SRI-F | Xeon E5-2630L | 32GB_ECC_RAM | 2x500GB_SSD_R1 | 2x3TB_R1_FreeNAS |

  13. #6512
    Gefreiter
    Registriert seit
    24.04.2010
    Beiträge
    41


    Standard

    Guten Abend,

    ich beschäftige mich das erste Mal mit Virtualisierung und bin nun schon seit einiger Zeit am Lesen und Probieren. Als nächstes steht der Test von ESXI als Hypervisor an. Meine Frage bezieht sich nun auf die spätere Vorgehensweise bei der Aufsetzung des System, vorallem gedacht als NAS-Storage und diverse kleine VM`s. Ich habe mir überlegt ESXI + NappIT als Storage VM auf eine SSD zu installieren. Die restlichen VM sollen auf ein Raid1 (bestehend aus 2 SSD´s und ZFS als Dateisystem) kommen.Eine M.2 SSD eventuell als Cache, oder sollte ich die anderweitig nutzen? Restlicher Storage dann auf HDD´s. Die Frage die sich daraus ergibt ist,ob das so Sinn macht, bzw. ob es andere Lösungen gibt?

    Vielen Dank schonmal,und ich hoffe mal das ist der richtige Thread für meine Fragen.

    Mit freundlichen Grüßen,

    tekken321

  14. #6513
    Fregattenkapitän
    Registriert seit
    31.05.2010
    Beiträge
    2.745


    • Systeminfo
      • Motherboard:
      • Asrock Z270M-ITX/AC
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • Noctua NH-L9i mit Noctua NF-A9
      • Gehäuse:
      • Dan's A4-SFX
      • RAM:
      • 32GB DDR4
      • Grafik:
      • GTX 1080Ti Founders Edition
      • Storage:
      • Samsung SM961 1TB M.2 PCIe SSD + 840 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 2x1GBit
      • Netzteil:
      • Corsair SF600 SFX
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Schenker A102, i7-3612QM, 32GB RAM, 256GB SSD

    Standard

    Die spannende Frage ist einfach, was soll in den VMs laufen? Für normale Applilationen die vielleicht ein wenig rechnen (transkodieren) sollen, passt das mit Sicherheit mit den SSD ohne NVME als Cache. Aber wenn du wirklich richtig I/O-lastige Anwendungen fährst und die SATA-SSDs limitieren würde ich überlegen, dieser VM vielleicht auch die NVME-SSD (direkt) zu geben.

  15. #6514
    Bootsmann
    Registriert seit
    14.08.2014
    Beiträge
    576


    Standard

    Wenn IO-intensive VMs, dann evtl. gleich an eine Intel 900P denken.

  16. #6515
    Fregattenkapitän
    Registriert seit
    31.05.2010
    Beiträge
    2.745


    • Systeminfo
      • Motherboard:
      • Asrock Z270M-ITX/AC
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • Noctua NH-L9i mit Noctua NF-A9
      • Gehäuse:
      • Dan's A4-SFX
      • RAM:
      • 32GB DDR4
      • Grafik:
      • GTX 1080Ti Founders Edition
      • Storage:
      • Samsung SM961 1TB M.2 PCIe SSD + 840 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 2x1GBit
      • Netzteil:
      • Corsair SF600 SFX
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Schenker A102, i7-3612QM, 32GB RAM, 256GB SSD

    Standard

    Hehehe... und dann wären wir auch schon beim Thema Budget.

    Am besten machst Du einen Kaufberatungsthread auf mit Deinen genaueren Anforderungen, Budget usw.

  17. #6516
    Gefreiter
    Registriert seit
    24.04.2010
    Beiträge
    41


    Standard

    Hi, vielen Dank schonmal für die Antworten. Also es werden keine I/O lastigen Anwendungen drauf laufen,in Summe wohl auch nicht mehr als 6-7 VM.
    Also spricht soweit nix dagegen, ESXi & NappIT auf eine SSD und den Rest der VM als Raid1?

    Gesendet von meinem SM-G935F mit Tapatalk

  18. #6517
    Fregattenkapitän
    Registriert seit
    31.05.2010
    Beiträge
    2.745


    • Systeminfo
      • Motherboard:
      • Asrock Z270M-ITX/AC
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • Noctua NH-L9i mit Noctua NF-A9
      • Gehäuse:
      • Dan's A4-SFX
      • RAM:
      • 32GB DDR4
      • Grafik:
      • GTX 1080Ti Founders Edition
      • Storage:
      • Samsung SM961 1TB M.2 PCIe SSD + 840 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 2x1GBit
      • Netzteil:
      • Corsair SF600 SFX
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Schenker A102, i7-3612QM, 32GB RAM, 256GB SSD

    Standard

    Ja. Passt so.

  19. #6518
    Matrose
    Registriert seit
    11.11.2017
    Beiträge
    27


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSL-CF
      • CPU:
      • Intel Xeon 1245 v6 3.7GHz
      • Kühlung:
      • Noctua NH-D9L
      • Gehäuse:
      • X-Case X445-C8 LCD. 4u
      • RAM:
      • 2 x 8GB, DDR4-2400, CL17
      • Grafik:
      • VGA
      • Storage:
      • 2xWD-Red 3TB, 2xWD Red 4TB, 128GB M2, 240GB SSD
      • Netzwerk:
      • 2 x 1GBit/s / 1 x IPMI
      • Netzteil:
      • BeQuiet Pure Power 630W
      • Betriebssystem:
      • ESXi 6.5

    Standard

    Habe jetzt mal versucht von meiner OMV VM ein NFS4 Share in ESXi als Datastore zu mounten.
    Funktioniert auch erstmal. D.h. der Datastore wird erfolgreich eingebunden.
    Danach gibt es aber zwei Probleme:

    1. Der Datastore lässt sich nicht browsen, denn er taucht im Browser gar nicht auf
    2. Beim Reboot des ESXi Hosts kommt es zu einer längeren Wartezeit beim Starten des nfs4 Clients (vermutlich weil die Storage VM ja noch nicht gestartet ist). Wenns ESXi dann weiter startet, ist der NFS Datastore nicht gemountet und das bleinbt auch so. Ich kann ihn nur neu anlegen.

    Es lassen sich auch VMs auf dem NFS Datastore anlegen, d.h. Schreibberechtigung ist vorhanden.

    Ist das ein bekanntes Problem? Muss ich noch irgendwas bestimmtes einstellen, wenn der Datastore erst später (nach Start der Storage VM) gemountet werden soll?

    Danke für eure Hilfe ... (Die Suche hat leider nicht zum Erfolg geführt)

    VG
    André

  20. #6519
    Fregattenkapitän
    Registriert seit
    31.05.2010
    Beiträge
    2.745


    • Systeminfo
      • Motherboard:
      • Asrock Z270M-ITX/AC
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • Noctua NH-L9i mit Noctua NF-A9
      • Gehäuse:
      • Dan's A4-SFX
      • RAM:
      • 32GB DDR4
      • Grafik:
      • GTX 1080Ti Founders Edition
      • Storage:
      • Samsung SM961 1TB M.2 PCIe SSD + 840 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 2x1GBit
      • Netzteil:
      • Corsair SF600 SFX
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Schenker A102, i7-3612QM, 32GB RAM, 256GB SSD

    Standard

    Ja, es kommt zu teilweise sehr langen Wartezeiten, wenn die Storage-VM und damit die NFS-Freigabe weg ist. Das merkt man zum Teil dann auch recht stark (Minuten-Aussetzer) im ESXi Web-UI. Da ist dann Geduld gefragt.

    Das Phänomen, dass die NDS-Freigabe dauerthaft nicht erkannt wird, habe ich nicht. VMs die dort liegen werden als ungültig oder so gekennzeichnet, wenn die Storage-VM weg ist, aber wenn die wieder oben ist, kommen auch Storage und VM wieder (entweder wenn man die Ansicht im Web-UI wechselt oder auf „aktualisieren“ klickt.

    Nach einem Reboot genauso: Nach Verlassen des Wartungsmodus’ erst Storage-VM hochfahren und dann eben den Rest. Habe ich hier keine Probleme mit, habe das aber auch nicht automatisiert oder so, sondern mache das nach Reboots immer manuell übers Web-UI.

  21. #6520
    Matrose
    Registriert seit
    11.11.2017
    Beiträge
    27


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSL-CF
      • CPU:
      • Intel Xeon 1245 v6 3.7GHz
      • Kühlung:
      • Noctua NH-D9L
      • Gehäuse:
      • X-Case X445-C8 LCD. 4u
      • RAM:
      • 2 x 8GB, DDR4-2400, CL17
      • Grafik:
      • VGA
      • Storage:
      • 2xWD-Red 3TB, 2xWD Red 4TB, 128GB M2, 240GB SSD
      • Netzwerk:
      • 2 x 1GBit/s / 1 x IPMI
      • Netzteil:
      • BeQuiet Pure Power 630W
      • Betriebssystem:
      • ESXi 6.5

    Standard

    Es liegt wohl an der Kombination OMV und NFS4.
    Habe es jetzt mit napp-it getestet und es funktioniert perfekt.
    Und mit der entsprechenden Start-Priorität ist die Storage-VM verfügbar, bevor die VMs, die auf napp-it liegen, gestartet werden.
    Beim runterfahren des Hosts funktioniert es genauso vollautomatisch. D.h. jetzt ist der Umstieg auf napp-it besiegelt.

  22. #6521
    Obergefreiter
    Registriert seit
    08.06.2006
    Ort
    Unterfranken
    Beiträge
    115


    • Systeminfo
      • Motherboard:
      • P9X79 DELUXE
      • CPU:
      • Intel i7 3820
      • Kühlung:
      • Noctua NH-D14
      • Gehäuse:
      • Thermaltake Chaser MK-I
      • RAM:
      • 8x8192MB DDR3
      • Grafik:
      • Quadro K2200
      • Storage:
      • 1TB Samsung 850 Evo
      • Monitor:
      • 2x Samsung SyncMaster 2443BW
      • Betriebssystem:
      • Windows 7 Ultimate 64 Bit
      • Notebook:
      • Dell e6530 und Dell Precision 7520
      • Handy:
      • Galaxy S7

    Standard

    Hi,

    ich habe mir auch mal ein System mit ESXi aufgesetzt, leider habe ich da noch ein paar Probleme.

    System:
    Supermicro X10SDV-TLN4F Xeon-D 1541 8Core/16Thread
    2x Samsung DIMM 32GB, DDR4-2400, CL17-17-17, reg ECC M393A4K40BB1
    Dell Perc H310 geflasht mit LSI IT Firmware Version 20.00.07.00 zeigt jetzt LSI 9211-8i an, in ESXi und unter Windows wird es aber als DELL SAS 6GB erkannt
    1xSamsung 840, 250GB an SATA Port des Boards
    2xSeagate Nytro XF1230 1920GB am H310

    Installiert ist ESXi 6.5.0 Update 1 (Build 7388607) auf der Samsung SSD.

    Ich habe drei Datastores (VMFS6):
    -Store1: Einmal der von ESXi nicht benötigte Speicher auf der Samsung SSD, darauf liegt auch die einzige VM Windows Server 2016.
    -Store2 und Store3: jeweils der Speicher der Seagate SSDs


    Die VM hat eine 100 GB OS Partion auf Store 1 und je eine 1TB Partition auf Store2 und Store3.

    Kopiere ich jetzt eine Datei von Store2 nach Store3 bzw. von Store3 nach Store2 habe ich eine totale niedrige Übertragungsrate mit starken Einbrüchen.
    e nach f.JPG
    f nach e.JPG

    Kopieren von Store1 auf Store2/3 oder umgekehrt sieht ähnlich aus.

    Gleiche Konfig nur direkt unter Windows Server 2016 liefert konstant 460-490 MB/s. Die SSDs habe ich auch in einem anderen System getestet und dort auch keinerlei Probleme oder Einbrüche feststellen können, SMART etc. ebenfalls ohne Auffälligkeiten.

    Sind die Datastores tatsächlich so langsam?

    Vielleich kann mir jemand hier helfen.

    Viele Grüße

    Jürgen
    Geändert von snipor (14.01.18 um 23:33 Uhr)

  23. #6522
    Fregattenkapitän
    Registriert seit
    31.05.2010
    Beiträge
    2.745


    • Systeminfo
      • Motherboard:
      • Asrock Z270M-ITX/AC
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • Noctua NH-L9i mit Noctua NF-A9
      • Gehäuse:
      • Dan's A4-SFX
      • RAM:
      • 32GB DDR4
      • Grafik:
      • GTX 1080Ti Founders Edition
      • Storage:
      • Samsung SM961 1TB M.2 PCIe SSD + 840 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 2x1GBit
      • Netzteil:
      • Corsair SF600 SFX
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Schenker A102, i7-3612QM, 32GB RAM, 256GB SSD

  24. #6523
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.688


    Standard

    Ich denke das Hauptproblem ist, dass ESXi zwar so ziemlich den besten Virtualisierer macht, aber die ESXi internen Storagefeatures eher sagen wir mal mau sind. Das kann man teilweise durch einen High-End Storagecontroller mit RAM kompensieren. Im Pass-through Modus kommt es dann auf das Gastsystem an und Windows ist da nicht gerade Spitze wenn es um Storage Performance geht. Auch sind die Desktop Samsung SSDs ganz gut in Desktops aber eher weniger gut wenn es um dauerhafte Schreibperformance geht.

    ESXi selber möchte eher SAN Storage als lokalen Storage um schnell zu sein. Den kann man aber durchaus auch virtualisiert bereitstellen, vgl meine Tests unter http://napp-it.org/doc/downloads/opt...performane.pdf

    Vor allem RAM sofern das genutzt wird wie bei ZFS und in geringerem Umfang schnelle SSDs sind der Schlüssel.

  25. #6524
    Bootsmann
    Registriert seit
    14.08.2014
    Beiträge
    576


    Standard

    Datastores mit VMFS5/VMFS6 sind eigentlich durchaus performant, von dem gerade erwähnten Sata-AHCI-Problem abgesehen.
    Das geht durchaus in den Gbyte/s-Bereich, wenn die Speichergeräte es hergeben (also z.B. bei NVMe-SSDs wie der 960, Optane 900p, etc.)

    Aber insbesondere eine 840 Basic oder 840 Evo würde ich nicht wirklich in einem ESXI packen, deren TLC-Generation hat nicht gerade geglänzt. Einer 840pro/850pro kann man bei Dauereinsatz helfen, wenn man dem Controller genug GB an Platz zum rangieren der Blocks/Pages frei lässt, also z.B. bei einer 256er z.B. nur 200 GB als Partitiongröße nutzt.
    Eine 850Evo ist zwar gut zum Lesen, aber bei Dauerbelastung mit Schreiben limitiert deren arg begrenzter TurboWrite-Cache.
    Geändert von Trambahner (14.01.18 um 23:57 Uhr)

  26. #6525
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.688


    Standard

    Entscheidend ist ob ein Workload per Schreib/Lesecache aus dem RAM bedient werden kann. In dem Fall ist Plattenperformance absolut nicht relevant. Ansonsten gilt zumindest wenn es um Latenz oder iops geht

    RAM ist viel schneller als die neuen Optane Flash Laufwerke
    Optane (außer die kleinen 16/32GB Cache devices) ist viel schneller als Flash NVMe
    Flash NVMe ist viel schneller als Sata Flash
    Sata Flash ist viel schneller als mechanische Festplatten


Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •