[Kaufberatung] Server für 2 Windows VMs als Ersatz für TVS-871

Daimonion1980

Experte
Thread Starter
Mitglied seit
28.01.2017
Beiträge
66
Hallo

In meiner Freizeit betreue ich ein Hotel IT-technisch. (Bin da so reingerutscht. ;) ). Selbst bin ich kein Admin, aber ich seit doch nun schon einigen Jahren (ca. 20) immer wieder mal Systeme für Bekannte, Verwandte und Fremde. Von daher kenne ich den Markt und lese auch viel über alle möglichen Techniken.

Zum Thema:
Mein Vorgänger hatte vor einigen Jahren in dem Hotel als "Server" ein QNAP NAS TVS871 mit I7 und 16Gb Speicher installiert.

Da die Kiste zunehmend unter der Arbeitslast von zwei Windows 10 VMs (1xFirebird DB, 1xMSSQL DB) schnauft, sollen die VMs in einen neuen "Server" ausgelagert werden. Hauptsächlich schnauft die Kiste wegen zu wenig RAM (nur 16GB) und die Anbindung der SSDs ist auch langsam am Ende. (Raid bei den SSDs wird langsam auch dünn, da der Platz mit 8 Einschüben und "organischem" Plattenwachstum auch dünn ist.

Ergo, soll die Kiste auf ein FileServer degradiert werden und ein Virtualisierungsserver soll die Windows-Systeme aufnehmen.

Ich dachte an Proxmox (evtl. aber auch zu aufwendig) oder ESXI als Hostsystem.
CPU-seitig evtl ein Xeon Silver und für den Anfang mal 64Gb Ram.
Daten (pro VM ca. 512GB) könnten auf NVMe Platten drauf die im Raid laufen, so dass der Ausfall einer Platte kompensiert werden kann. (Raid5?,Raid6?)
Netzteil braucht nicht redundant sein. Da kann als Ersatz eins auf Halde gelegt werden, so dass eine Ausfallzeit minimiert wird. USV ist aktuell ne große APC vorhanden und wird auch gepflegt (sprich die Akkus werden getestet und ggfs. getauscht)

Platzmäßig existiert ein kleiner 12HE Serverschrank (Tiefe muss ich mal schauen) in dem 1-2HE für die Kiste verfügbar wären.

Könntet ihr mir mal eine erste Einschätzung geben, ob die Idee so im Großen und Ganzen hinhaut oder ob ich hier irgendwelche Denkfehler drin habe? Gibt es übliche Fallstricke bei dem Szenario?

Grundsätzlich dachte ich so an
- Board mIt Intel C (C621?) Chipsatz
- Xeon Silver
- 64GB ECC
- NVMe Controller für min. 3 NVMe so dass da RAID drauf laufen kann + NVMe auf dem Board für das Hostsystem

Ziel dieses Threads wäre idealerweise dass ich mit euch zusammen ein System zusammen bekommen kann.

Danke schon mal im Voraus für eure hilfreichen Tipps-

Grüße
Daimonion
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bei 1-2 HE würde ich eher auf einen 19" RACK-Server von den gängigen verdächtigen Herstellern gehen - die kann man auch mal mit nur 1 NT laufen lassen, auch wenn 2 besser sind - und auf jedenfall auch mit nur 1 CPU und passend RAM ausrüsten - würde denk ich halt mehr Sinn machen, als irgendwas selbst zusammenzuschustern.

I.d.R. gibt es immer mal gute Angebot, wo gleich noch eine passende ROK als Std. mitverkauft wird, damit kannste dann 2 Server Lizenzen für z.B. Win2022 legal für die 2VMs nutzen - macht auch mehr Sinn, wegen RAM und co, statt das auf nem Desktop-OS laufen zu lassen.
 
Danke für die Info.

Ja ich hab auch immer wieder mal bei den verdächtigen Firmen (Krenn, servershop24) geschaut, aber drifte dann immer wieder in ewig große Kisten ab. Aber ja, grundsätzlich bin ich auch dafür offen. Werde da nochmal etwas detaillierter suchen.
 
Danke für die Info.

Ja ich hab auch immer wieder mal bei den verdächtigen Firmen (Krenn, servershop24) geschaut, aber drifte dann immer wieder in ewig große Kisten ab. Aber ja, grundsätzlich bin ich auch dafür offen. Werde da nochmal etwas detaillierter suchen.
Kauf Neuware und nix gebrauchtes. Es geht hier um Hardware für ein Unternehmen und nicht für nen Homelab.
Wenn du kein gescheites Systemhaus in der Nähe hast, kannst du auch bei den größeren Herstellern wie Dell, HP, Lenovo auch direkt bestellen.
 
Ja ich hab auch immer wieder mal bei den verdächtigen Firmen (Krenn, servershop24) geschaut, aber drifte dann immer wieder in ewig große Kisten ab. Aber ja, grundsätzlich bin ich auch dafür offen. Werde da nochmal etwas detaillierter suchen.
Wenn es nur 64GB sein sollen, dann sind die großen Xeons tendenziell eher Overkill.

Schau dir vielleicht mal die E-2300 Plattform von Intel an, die dürfte für deine angegebenen Bedürfnisse passender sein. Da gibt's dann z. B. sowas hier: https://www.asrockrack.com/general/productdetail.asp?Model=1U2E-C252#Specifications
 
Kauf Neuware und nix gebrauchtes. Es geht hier um Hardware für ein Unternehmen und nicht für nen Homelab.
Wenn du kein gescheites Systemhaus in der Nähe hast, kannst du auch bei den größeren Herstellern wie Dell, HP, Lenovo auch direkt bestellen.
Ja, Neuware auf jeden Fall. Zum Stöbern und für Privat schaut man ja auch den Gebrauchtmarkt an.

Wenn es nur 64GB sein sollen, dann sind die großen Xeons tendenziell eher Overkill.

Schau dir vielleicht mal die E-2300 Plattform von Intel an, die dürfte für deine angegebenen Bedürfnisse passender sein. Da gibt's dann z. B. sowas hier: https://www.asrockrack.com/general/productdetail.asp?Model=1U2E-C252#Specifications
Danke für deine Einschätzung. Mir kamen die Xeon Silver auch eher fast zu groß vor, wollte euch und mich zu Beginn aber nicht direkt aus Unwissenheit einschränken. Das Asrockrack schau ich mir mal näher an.

So nachdem was ich bis jetzt so gesehen habe, habe ich gedanklich noch das größte Problem mit der NVMe konfig. Kann es sein, dass viele Boards nur 1-2 M.2 Slots bieten? Wahrscheinlich um die Hostsysteme zu installieren.
Wie würdet ihr NVMe als VM Storage im Raid anbinden?
 
Zuletzt bearbeitet:
Wie würdet ihr NVMe als VM Storage im Raid anbinden?
Zwei Enterprise U.2/U.3 SSDs und gut ist.

Wenn du unbedingt M.2 SSDs nutzen willst gibt's entsprechende PCIe Adapterkarten. Muss dann nur schauen, dass dein Board PCIe Bifurcation unterstützt. Typischerweise findest du aber wie beschrieben auf Serverboards maximal 1-2 M.2 Slots als OS-Storage, wenn überhaupt.
 
VmWare ESXi: sündhaft teuren NVME Raidcontroller kaufen welcher auch in der Hardware Spezifikation als kompatibel gelistet ist. Statt M.2 NVME nach einem Server mit U.2 Backplane schauen, da ist die Auswahl an Trimode Kontrollieren (Broadcom 9500 / 9600) größer aber immer noch teuer. Das Intel VROC (virtual Raid on CPU) welches die Xeon Silber beherrschen wenn der entsprechende Hardware Dongle vorhanden ist kann zumindest RAID1 für ESXi Boot. Ob Datastore auch geht weiß ich gerade nicht.
Proxmox: Software RAID mit den Boardmitteln deiner Wahl. Entweder ZFS und da ein RAIDZ1 oder MDAM und LVM.
 
bei 1-2 HE würde ich eher auf einen 19" RACK-Server von den gängigen verdächtigen Herstellern gehen - die kann man auch mal mit nur 1 NT laufen lassen, auch wenn 2 besser sind - und auf jedenfall auch mit nur 1 CPU und passend RAM ausrüsten - würde denk ich halt mehr Sinn machen, als irgendwas selbst zusammenzuschustern.
Kauf Neuware und nix gebrauchtes. Es geht hier um Hardware für ein Unternehmen und nicht für nen Homelab.
Wenn du kein gescheites Systemhaus in der Nähe hast, kannst du auch bei den größeren Herstellern wie Dell, HP, Lenovo auch direkt bestellen.
Das Problem dürfte sein, dass dort ein (12HE)Rack hängt, was eigentlich ein besser Schuhschrank aber eben kein Serverrack ist.
Soll heißen, für die üblichen Verdächtigen in der üblich verdächtigen Ausstattung müsste man vorher noch mit dem Boschhammer nen Durchbruch machen, damit das klappt.

Warum werden denn NVMe SSDs gefordert?
Welche extrem krasse IOPS werden denn gefordert?

Da reichen SAS SSDs 3x aus, SATA SSDs wohl auch.
NVMe macht in dem Kontext das System nur sündhaft teuer.
RAID Controller braucht man in der Regel eh wegen der Storage Tier(s).


Es gibt aber auch von den üblichen verdächtigen kleine Server, die ggf. passen könnten.
Was es aber auf jeden Fall gibt, sind Systeme von Supermicro. Und die wiederum werden von Systemhäusern geliefert.
Wenn man also mal den Use Case etwas präziser aufdröselt, mit (mech) SPECs, dann kann man auch da mal vorstellig werden.

EDIT:
Wie das dann mit dem Rest zusammenpasst, muss man sehen.
Beim Storage wäre ich bei
2x SATA RAID1 fürs Boot
3x SAS RAID5 für Storage (VMs) (gerne auch RAID1 oder mehr SSDs oder auch RAID6, je nach Geschmack)
Das Ganze in SFF Bays und gut ist.
NVMe würde ich nur mit passenden U.3 (ggf. noch U.2) Backplanes mit bunten Lämpchen machen.

PS:
Wir betreiben ESX stretched cluster mit SAS SSDs mit mittlerer 3-stelliger VM-Anzahl. Und da passiert nix.
Klar geht es auch schneller und besser. Aber NVMe ist kein Allheilmittel. Alles was nonHDD ist, ist für den KMU use ausreichend. Alles was in dem Kontext da drüber hinausgeht ist Spezialanwendung und gehört erst recht sauber, durch Profis, durchgeplant. Nur weil @home M.2 NVMe gerade der heiße Scheiß ist, muss man das nicht in Produktivumgebungen auch für alles mögliche aufwenden.

2ndEDIT:
Das verwenden wir als Boot Device.
Primär weil ESX 7 nicht mehr auf USB will und weil man beim VSAN nen separaten Controller will/braucht als bei der Storagetier..
Das ist zwar ein NVMe device, würde aber genauso ausreichen wie @ SATAoder @ SAS. Und das beste ist, dass man da nix machen muss. Der kann nur RAID1 und das ist immer an. Zusammenbauen, reinstecken, fertig.
 
Zuletzt bearbeitet:
Dell bspw R250 oder R350. Mit Blende vorne drauf recht genau 60er Tief (~599mm).
Ja das ist kein Ultrashort wie es mal bei den R210ern der Fall war, aber auch keine heutigen FullSize tiefen wie in nem richtigen DC wo es Richtung 900mm Tiefe geht (bspw R750 / xa Richtung)
 
Netzteil braucht nicht redundant sein. Da kann als Ersatz eins auf Halde gelegt werden, so dass eine Ausfallzeit minimiert wird.
Habt ihr denn mal eine BIA gemacht, wo das betrachtet wurde?
Was geht denn im Hotel noch, wenn der Server nicht geht?
Sprich also, der 40 Mann Bus mit der Renter Kaffeefahrt für Heizdecken fährt vor, die Traube steht am Check In und dann macht der Server die Grätsche, was passiert? Alle Mann in den Bus, und machen Bums Valdera?

In der Regel ist die Historie solcher Systeme wie folgt:
1. wir brauchen mal in bisschen IT, nichts relevantes, aber ein bisschen, soll nix kosten...
2. das System läuft 5 Jahre
3. wie haben eine neue App, die ist wichtig
4. oh, wie haben ja einen "Server", der hat noch Luft, da machen wir das drauf
5. das läuft so 2 Jahre
6. wir machen immer mehr mit der App, Karteikarten und Lochstreifen stampfen wir ein, das macht jetzt alles die App
7. 5 Jahre später steht die gesamte Bude, weil jemand den Kaffeebecher im Backoffice auf dem SPOF abgestellt hat und dann gegengerannt ist

Ich will nicht sagen, dass man jetzt den IBM Mainframe da hinstellen muss. Aber die Zeiten ändern sich und man sollte sich den Use Case genau anschauen und überlegen, was die geeignete Maßnahme ist.
Und wenn es heißt, da muss im Idealfall ein neues Rack hin, dann sollte man sich das anschauen. Muss ja nicht immer gleich Rittal sein. Aber ein normales flaches Rack gibt es für nen schmalen Taler. Sicherlich braucht man den Platz, dass muss man dann sehen.
 
Zuletzt bearbeitet:
Beispiel für nen R350
Hier fehlt noch das Datastorage Raid, das muss halt noch dazu. Da aber nicht bekannt was drauf laufen soll, hab ich das mal außen vor gelassen.
Ohne viel von den sonstigen Anforderungen zu wissen, wäre das so ca ein passables GoTo für nen KMU.
 
Ohne jetzt zu tief einsteigen und jetzt 100 Configs durchspielen nur 2 Sachen.
Das TPM-Ding ist nicht ganz unwichtig, Windows11 ist da ja sehr speziell. Wo man Win10 noch gefühlt auf einem Toaster hat installieren können, wird das bei Win11 eine Baustelle. Dann wären wir wieder bei @konfetti und dem WinSRV.
Und Win10 ist quasi schon EOL.
2. Die 10GBE NIC könnte man wohl weglassen. (aber auch hier wieder, der use case macht die Musik, was wird denn gefordert an Speed, wie ist das Gesamtsystem?)
 
Hi.
Vielen Dank mal für die Vorschläge, Tipps, Anmerkungen, Verbesserungen.
Ihr habt natürlich recht, dass hier der UseCase genau betrachtet muss. Genau dies tue ich seit den Beiträgen auch. Mittlerweile komme ich auch mit vielen Begriffen, gerade auch im Storage Bereich, klar und lese viel weiter um tiefer in die Thematik einzusteigen.
M.2 war so ein typisches Beispiel dafür, dass ich nicht wusste was im Serverbereich eher Standard ist. Und genau da werde ich mich nun auch tiefer einlesen.
Das Forum hier liefert mir dazu etliche Beiträge, die ich durcharbeite.
Von daher seht es mir nach, dass ich nicht auf eure Aussagen geantwortet habe.

Zum aktuellen Stand:

Das Hotel ist auf die Software, die in den Windows VMs läuft angewiesen. Natürlich ist ein Ausfall nicht gut, aber der Bus mit den 40 Rentnern kriegt der Hotelier auch ohne Software durch. (Schön ist das natürlich nicht)
Der Ausfall eines Netzteils ist durch den Austausch dessen innerhalb von Stunden total in Ordnung.
Wichtig ist die Datenintegrität, gerade auch fürs Finanzamt, denn die Bücher werden aktuell noch auf dem System geführt. D.h. Ein Ausfall einer Platte (egal welche) muss kompensiert werden können. Backups laufen natürlich jetzt schon täglich.

Der (Schuh)-Schrank ist aktuell gegeben und da schon die QNAP Kiste drin steht und erst mal auch weiter drin stehen bleiben soll, muss ich auf ein 19" Rack in 1-2 HE zurück greifen. Ich habe mir auch mal nen Dell Optiplex angeschaut aber das passt platztechnisch nicht so recht rein.

Aktuell bin ich dabei ein System durchzudenken, wie es hier auch ein Kollege aktuell macht:

Meine aktueller Konfigurationsstand ist dabei:
  • 19" Shorty 1/2 HE
  • Supermicro Board mit 2 x M.2 (mit einem Raid 1 gegen HW-Ausfall) muss natürlich in das Gehäuse passen....
  • nen kleiner Epyc 7232P
  • 128-256 GB RAM
  • HBA für Storage im IT Mode (da weiß ich noch nicht welchen Controller)
  • 4-6x Storage (was, muss ich noch schauen) ;)
Auf den M.2 soll dann ESXi free drauf laufen, und eine Storage VM, die den Storage durchgereicht bekommt, nen zfs Pool macht, wie in dem verlinkten Thread (ich hoffe ich habe das da richtig interpretiert), und diesen dann ESXi zur Verfügung stellt. ESXi kann dann auf diesem Pool die VMs anlegen...
Ja, das System ist dann wahrscheinlich für den ersten Moment ein ziemlicher Overkill für die Aufgabe. Aber soweit ich das bisher begriffen habe, das flexibelste.

Sollte ich da irgendwo einen Fehler im Ansatz haben, bin ich für eure konstruktive Kritik offen. So lange lese ich weiter, konfiguriere weiter und berichte hier auch.

Grüße Daimonion
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh