Virtualisierungshost gesucht, Neu oder Gebraucht

TICK-Stack kann man problemlos auf einer VM in Dockern oder zusammen lokal laufen lassen, hab ich auch. Telegraf braucht aber etwas mehr Ressourcen wenn man damit viele Informationsquellen gleichzeitig abgreift (REST APIs, SNMP, MQTT, RabbitMQm Kafka, usw.).

Ich werf mal noch das Asus KNPA-U16 + gebrauchten Eypc (Naples oder Rome, je nach Budget) ein, das KNPA-U16 dürfte gerade das günstigste SP3-Board sein und lässt sich auf Rome flashen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@tolga9009
Also beim E5 weiß ich das ein Server mit dieser CPU im Schnitt Rund 65 Watt benötigt. Mit einigen VMs.
Ist Passmarkt denn so wichtig als Referenz?

Der Ryzen hat ja nur 6 Kerne, wäre da nicht der Xeon vorzuziehen, da er 12 hat, wenn auch niedriger Takt aber ist der Takt so wichtig?
Die meißten VMs haben ja sehr wenig auslastung, verinzelt mal 30-50%

Hmm ja der Xeon ist recht teuer, dafür das er leider nur 6 Kerne hat :(
Ich tendiere Stark zum Xeon E5 da dieser 12 Kerne hat hmm

@sch4kal
Hmm was würde eine EPYC Konfiguration an strom verbauchen, die gönnen sich shcon deutlich mehr wie ein Xeon oder?

Danke euch für eure Ideen :)
 
Stromverbrauch ist ja auch sehr OS-abhängig. ESXi schluckt z.B. recht ordentlich, wie es aktuell bei Hyper-V aussieht, weiß ich leider nicht.
 
65W @idle mit einem E5 v3 geht vielleicht mit einem Tower im Selbstbau. Tower-Server von der Stange kommen da wieder mit 1U-Fans im Netzteil, IPMI usw., welches wieder das Ziel <100W schwierig machen. Zumal die Preise auf dem Gebrauchtmarkt für diese Systeme immernoch sehr hoch sind. 65W Idle mit 2011-3 halte ich für realistisch, nur wenn du ein gescheites 2011-3 Mainboard mit Remote-Zugriff findest und den Rest selbst bestückst. Auf Consumer-Plattformen mit X99 dürfte das einfacher gehen; die kommen aber ohne Remote-Zugriff.

Und ja, der Takt ist wichtig. Je schneller der Task abgehandelt ist, desto schneller können die Kapazitäten für andere Tasks freigegeben werden. Der E5-2650Lv3 ist eine 65W TDP CPU. Wenn du die voll belastest, gurkt er dir mit 1,8GHz vor der Nase rum. Auch darf man nicht vergessen, dass die Meltdown- / Spectre-Patches nochmal an Performance gefressen haben, die in alten Benchmarks nicht wiedergespiegelt werden.

Gut, wir können statt Passmark den Ryzen 1600 AF mit 6C/12T auch mal bei Cinebench R15 vergleichen: laut PCGH 1225 Multi-Core, 154 Single-Core. Der Xeon E5-2650Lv3 kommt laut Anandtech auf 1255 MC, 95 SC. Also ist der Ryzen 1600 AF ebenbürtig im Multi-Core, aber nochmal +50% schneller im Single-Core. Und dabei sparsamer.

Passmark nehme ich sehr gerne, da man fix einen groben Überblick bekommt, wo man die CPU-Gesamtperformance ungefähr mal einordnen kann, ohne sich jetzt auf spezifische Anwendungen festzusetzen. Klar muss man noch weitere Recherchen anstellen, aber wenn ich schon sehe, dass der 3900X mit 30k+ Punkten herkommt und der E5-2650Lv3 bei 10k, dann weiß ich, dass die CPUs in völlig anderen Ligen spielen.
 
Zuletzt bearbeitet:
Wurde Passmark nicht kürzlich erst angepasst? Wo sich dann die Verhältnisse zwischen den CPU-Wettbewerbern verschoben haben?

Bzgl. CPU-Auswahl muss man halt immer schauen, was die eigenen Anwendungen brauchen und wovon sie profitieren. Manche brauchen Takt, manche skalieren mit Kernen, manche sind komplett anspruchslos. Eine ideale generische Aussage gibts eigentlich nicht.
 
Japp, Intel wird etwas bevorzugt im Single-Thread Score (hier), aber für die grobe Einschätzung tut's seinen Job nach wie vor.
 
@sch4kal
Hmm was würde eine EPYC Konfiguration an strom verbauchen, die gönnen sich shcon deutlich mehr wie ein Xeon oder?

Danke euch für eure Ideen :)
Meine Naples CPU 50-60W unter ESXi im Idle (Mainboard, 4x RAM, CPU, CPU-Kühler, 3 Lüfter) ohne VMs, Erweiterungskarten oder angeschlossene Festplatten, ESXi auf microSD.
 
@tolga9009
Genau, beim Xeon war selbstbau gedacht mit Supermicro Board im Rack oder Tower Gehäuse.
Damit wären Systemverbrauch ohne HDD/SSD zu rechnen bei run 60 Watt im schnitt.
Naja das Mainboard Neu 300€ ist das teuerste die CPU wie gesagt um die 150€
Vom Händler mit Garantie.

Hmm bei den Ryzen gibts eine sehr geringe bzw. aktuell agrkeine Boards mit Fernwartung :/
@sch4kal
Wow das klingt auch gut, die Werte gelten für den Epyc in deiner Signatur (AMD Epyc 7351P ) gell?
Unter Windows Server sind bestimmt ähnliche Werte drinne.

Hmm dachte nicht, dass Epyc so sparsam ist. Wie ist es wenn die CPU 20-40% Auslastung hat so ungefähr also ein bisschen Last drauf kommt, wie viel Strom genehmigt sich die CPU dann?
Kannst dua uch was zur Vollast sagen?

Vielen Dank euch nochmal! Super Support :)
Hmm der Epyc 7281 bzw. 7351P schaut ganz interessant aus :)
Zum 7282 habe ich aber erschreckende IDLE Werte gefunden
IDLE 113 Watt

Hmm also lieberetwas sparen und einen der oben genannten EPYC holen?
Diese müssten ja deutlich potenter sein als der Xeon oder? bei relativ gleichem IDLE Verbruach?
Unter Last ist halt eine andere Frage, dafür mit 16 Kernen mega viel Spielraum etc.
 
@sch4kal
Wow das klingt auch gut, die Werte gelten für den Epyc in deiner Signatur (AMD Epyc 7351P ) gell?
Ja.

Unter Windows Server sind bestimmt ähnliche Werte drinne.
Vielleicht sogar sparsamer, ESXi ist nicht gerade das Energiesparbetriebssystem.

Hmm dachte nicht, dass Epyc so sparsam ist. Wie ist es wenn die CPU 20-40% Auslastung hat so ungefähr also ein bisschen Last drauf kommt, wie viel Strom genehmigt sich die CPU dann?
Kannst dua uch was zur Vollast sagen?
Keine Ahnung, hängt noch nicht an einer metered PDU oder einer USV, hier ein paar Ergebnisse von STH: https://www.servethehome.com/amd-epyc-7351p-single-socket-cpu-linux-benchmarks-and-review/3/
Mit neueren BIOS-Versionen/AGESA und Chipsatz-Treiber Updates (unter Windows) bzw. neueren ESXi-Versionen und gemäßigten Powereinstellungen im BIOS sind deutlich weniger als die beschriebenen 75W Idle drin.

Vielen Dank euch nochmal! Super Support :)
Hmm der Epyc 7281 bzw. 7351P schaut ganz interessant aus :)
Zum 7282 habe ich aber erschreckende IDLE Werte gefunden
IDLE 113 Watt
Erschreckend ist das nicht, da sind doppelt so viele RAM-Riegel drin wie bei mir + 2 SSDs, eine davon eine Optane. Die ziehen beide gut und gerne 15-20W. Der Tyan-Server ist ja auch ein ausgewachsener Rackserver mit redundanten Netzteilen, etc. und mein Build steckt in einem Consumer-Gehäuse mit 80+ Seasonic Titanium Netzteil (sehr gute Effizienz auch bei nur 10% Load). Am Meisten macht bei mir jedoch auch die Stromspar bzw. Performanceeinstellung im BIOS aus.

Hmm also lieberetwas sparen und einen der oben genannten EPYC holen?
Diese müssten ja deutlich potenter sein als der Xeon oder? bei relativ gleichem IDLE Verbruach?
Unter Last ist halt eine andere Frage, dafür mit 16 Kernen mega viel Spielraum etc.
Musst du wissen, die full fledged Server-Plattform bei AMD heißt nun mal EPYC, und nicht Ryzen.
Da gibts garantierten reg. ECC-Support, viele PCIe-Lanes, viele Kerne, garantiertes iKVM, etc.
Stromsparkönige sind solche Server natürlich nicht.
 
Danke dir für die schnelle Antwort!

Bezüglich den BIOS Energiespareinstellung hätte ich noch die Frrage inwieweit stark sich das auf die Leistung auswirkt, taktet die CPU dann nur den Standard Takt und verwendet keinen Boost oder wird sogar noch runtergetaktet?

Ich denke ich würde mich eher für eine richtige Serverplattform wie Epyc und Xeon entscheiden wollen als Ryzen.
Fernwartung ist mir doch sehr wichtig, genauso wie es schön flexibel ist sowie dass man viele PCI E Lanes hat und der Registred ram meißtens ja auch günstiger ist wenn ich das richtig sehe.

Bleibt nur die Frage ob Epyc oder Xeon.
Evtl auch ein anderer Xeon wie Beispielsweise
Der E5 2670 V3welcher im IDLE ähnliche Werte wie der L Prozessor hat aber man noch reserven hat.

Schwierige Entscheidung, denn es soll ja für möglichst viele Jahre halten auch auf den Hinblick des Energiesparens macht es sich ja bemerkbar ob ein System, welches im 24/7 Betrieb ist 50,100 oder gar 150 Watt im Scnitt verbraucht...
 
Du verennst dich zu sehr im Stromverbrauch.

Und ja der 2670 V3 wird im Leerlauf nur minimal weniger verbrauchen als der L, aber unter Last kann der problemlos doppelt soviel Leistung ziehen und dabei aber nicht auch doppelt so schnell sein weil je höher der Takt umso mehr Strom verbraucht man das heißt 10 Kerne mit 2 GHZ sind sparsamer als 5 Kerne mit 4 Ghz.

Aber das alles spielt am ende keine wirkliche Rolle.
Wichtig ist mehr wieviel das Mainboard schlockt und wenn dann eine Fernwartung 6 Watt schluckt dann sind das in 4 Jahren halt 60€ und gerade bei einen 'eher headless' OS wie Microsoft Hyper-V frage ich mich warum du umbedingt Fernwartung brauchst das administriert man nach der Installation von Natur aus eigentlich komplett Remote.

Auch würde ich mal nachforschen in wieweit Registred Ram mehr Strom verbraucht.

Wenn du geld sparen willst packe eine 4C/8T CPU in deinen T20, oder wenn du jetzt einen neuen Server kaufst schick wenigstens dein NAS in Rente und packe die platten in den Server.

Es bringt nichts wenn du am Ende ein NAS und einen Server hast die sich beide zu Tode langweilen und Stromfressen.
 
RDIMM braucht mehr Strom wie UDIMM, wenn dann wäre LRDIMM interessant - wird aber wiederum nicht immer unterstützt
Beitrag automatisch zusammengeführt:

Wichtig ist mehr wieviel das Mainboard schlockt und wenn dann eine Fernwartung 6 Watt schluckt dann sind das in 4 Jahren halt 60€ und gerade bei einen 'eher headless' OS wie Microsoft Hyper-V frage ich mich warum du umbedingt Fernwartung brauchst das administriert man nach der Installation von Natur aus eigentlich komplett Remote.
Das ist ja auch nicht das Einsatzszenario von Remote KVM!
Remote KVM nutzt man erst wenn das Betriebssystem nicht mehr erreichbar ist zum Troubleshooting.
 
Zuletzt bearbeitet:
Mal ein paar Werte zum Vergleich:
- Cisco C220M4 mit zwei Xeon E5-2660v3 unter Teillast (ca. 20-50% CPU Load), 768GB RAM in Form von 3*8*32GB RDimms, 2xVIC Karten (Dual Port 10G mit SFP+ Ports), Quadport Gigabit Karte und den default Onboard Dual Gigabit, ohne weiteren Rest laut CIMC Interface ca. 250W (~45W RAM, ~100W CPUs, Rest System)
- Cisco C220M4 mit zwei Xeon E5-2640v4 komplett Idle, 256GB RAM in Form von 1*8*32GB RDimms, 2xVIC Karten (Dual Port 25G mit SFP+ Ports), Quadport Gigabit Karte und den default Onboard Dual Gigabit, ohne weiteren Rest laut CIMC Interface ca. 150W (~5W RAM, ~35W CPUs, Rest System)
- Fujitsu RX1330M4 mit einem Xeon E-2136 unter minimalst Last, 64GB UDimm, PRaid420i + Batterie und Cache, 3xMicron 5200 480GB SSDs ca. 42W

Alle Systeme mit ESXi 6.7 aktueller Patchstand und jeweils redundante PSUs (frisst auch nochmal ein klein wenig)

So um mal ein paar Größenordnungen zu benennen...


Btw. mMn überschätzt du massivst die Notwendigkeit an CPU Ressourcen in diesem Umfeld... Ich weiß nicht was die Leute immer alle mit sonst wie vielen CPU Cores wollen, aber die erste Büchse, die ich da benannt habe ist eine von weiteren in einem Cluster, wo im Schnitt 40-70 VMs drauf laufen. Bei 2x10C phyisch und weit unter Vollast auf der CPU. Da läuft alles quer Beet, von Monitoring Systemen, Domain Controllern, Mailsystemen, viele Terminal Server usw. usf.
Das mit Abstand!! allerwichtigste im Bereich Virtualisierung ist ausreichend RAM - RAM ist nicht ohne weiteres sharebar, ist der RAM zu Ende, ist "Ende" mit Speed. Wenn man genug RAM hat kommt als zwei wichtigstes das Storage. Ein paar SSDs bzw. ein Flash Only Storage wirkt wunder auf das ganze System ggü. alten Disk Arrays oder gar lahmen SATA/nearline SAS Geschichten, vor allem wenn ein paar mehr VMs drauf laufen.
Wichtig ist auch, man sollte mit dem RAM nicht geizen! Moderne Betriebssysteme nutzen RAM als Disk Cache, das beschleunigt Zugriffe massivst, sorgt aber auch dafür, dass die Belastung auf das Storage zurück geht. Also immer für genug RAM sorgen und nicht auf Kante kalkulieren!
Wenn das soweit passt, kommt irgendwann mit weitem weitem weitem Abstand mal die CPU... Generell gilt, um so weniger vCPUs zugeweisen werden, desto besser! Alles was unnötig ist, wegkonfigurieren. Deine VMs mit 4xvCPUs haben im Schnitt ne Belastung von unter 25%? -> raus mit mindestens zwei der vCPUs... Das hilft Wunder, gerade bei so mickrigen Systemen wie dem T20.

Btw. den T20 habe ich hier auch stehen, da laufen aktuell zwei 2019 Std. DCs, ein 2016 Std. + Exchange 2016, eine 2012R2 "Managment Kiste", eine weitere 2019er VM, die nen Appliacation Server spielt, ne Hand voll Ubuntu 16/18 Systeme (Mailrelay, DNS Proxy, NTP und son Kram), und noch ne alte SBS 2011 Install, die aktuell gerade abgelöst wird -> Migration auf die neuen DCs + Exchange, die CA auf den App Server, wie auch die Fileshares und WSUS usw. usf.
Durchschnitts CPU Last liegt bei dem Teil im Stundenmittel bei unter 10% (ESXi in der Free kann das leider nicht rückwirkend für länger) -> der Spaß wird auf zwei MX100 günstig SSDs im Raid 1 + zwei Seagate SATA Disks im Raid 1 betrieben. Klar, CPU ist keine Rakete, aber es funktioniert schon...
 
Guten Morgen,

@Falo999
Hmm den T20 aufrüsten ist eher keine Option, da ich trotzdem nur 4 physische kerne hätte.
Eine neue CPU steht da in einem schlechten P/L Verhältnis..

@Digi-Quick
LRDIMM schaue ich mal ob die Boards und CPUS das können :)

@fdsonne

Danke dir für die Praxiserfahrungsberichte :)
Rund 100 Watt unter Teillast für zwei Xeons klingt ganz gut, ich nehme an, dass ein Xeon ca. die Hälfte braucht?

Also wenn auf meinem T20 rund 5 VMS laufen und ich in einer was mache geht die Host CPU dermaßen hoch und man merkt das das ding schon bisschen zu schaffen hat.
Aber ja da muss ich vielleicht heute mal die Kerne alle reduzieren...
5 VMS jeweils 4 Kerne war keine gute idee.
Wenn ich 4 Kerne einstelle wird immer gewartet bis alle 4 Frei sind bevor eine VM diese zugeordnet bekommt, richtig?
Wenn ich 2 VMs mit jeweils 2 kernen habe können diese Parrallel beide Kerne nutzen?


RAM habe ich übrigends 32GB und habe beim Host und den VMs sehr sehr großzügig RAM zugeordnet, leider hat das nicht viel gebracht :/
Alle VMs liegen auf einer SSD, vielleicht ist das auch ein Problem?
Es handelt sich allerdings um eine potente NVME SSD von Adata (Gammix S11 müsste es sein)

Schaue mir wie gesgat die VMs mal an denke aber 2 VCores sollten es schon sein oder?
 
@DerErzherzog
Denke fdsonne hat es richtig erklärt. CPU ist im Heimbereich eher selten das Limit, kann es aber schnell werden, wenn nicht richtig configuriert.
Ich habe zwar nicht richtig gefunden was du auf den VMs laufen hast. Aber jenachdem was da läuft kann halt HT schon super viel bringen oder garnix.

Lastest du die CPU/einen Kern voll aus, dh. die Piplines in der CPU sind wirklich VOLL mit z.B numbercrusch / rendering oder sowas, bringt HT garnix kann sogar schädlich sein. Hast du aber Teillast oder ein Prozess "steckt" dank langsamen IO/Ram fest, kann es halt super viel bringen, gerade bei Virtualisrung. Das "downgrade" von 1220v3 auf 1268L v3 hat bei mir merklich was gebracht. Klar nicht vergleich mit nem neuen Server/CPU, aber der würde sich noch mehr langweilen.

Wie gut die ADATA NVMe SSD wirklich ist kann ich nicht sagen, häufig habe die aber die Consumer SSDs Probleme bei viel Last (nicht sequenzelles schreiben).

Probiere halt erstmal die Kerne neu zu verteilen/stutze, wenn das schon was bringt wird HT sicher auch noch was bringen.

Weis nicht wie der T20 das mag ohne GPU aber so ein 1230/31 gibts gebraucht bei Ebay für echt vergleichsweise kleines Geld ~75€.

Andereseits: neuer Server macht halt doch immer mal wieder Spaß :-)
 
Ich würde das ganz pragmatisch machen: jede VM kriegt erstmal grundsätzlich 1 Core. Jede VM, die mit einem Core abkotzt, kriegt eine mehr. Usw.
 
Exakt so macht man das... ;)


Btw. weil ich gerade an der Kiste dran sitze, Fujitsu RX200S8, nur eine CPU bestückt, Xeon E5-2690v2, 192GB RAM in 3*4*16GB, Emulux LPe 12002 Dual Port FC Adapter, OnBoard Quadport Gigabit NIC, 2x10GBit SFP+ NIC, kein local Storage -> 92W idle

Vllt auch ne Option, weil die alten Ivy CPUs wirklich günstig sind... Teils deutlich unter 100€ zu haben... Gibt es bis 12C -> der 10C 2690v2 hat 3GHz base Clock und 3,3? Oder so Allcore Turbo, was nichtmal wenig ist.



Wegen der T20 GPU - der T20 hat ne OnBoard GPU -> er braucht die IGP der CPU nicht zwingend, bzw. eigentlich gar nicht. Das ist irgend so ne Matrox meine ich? Müsste ich schauen...

Was die Consumer SSDs angeht, stimmt... Da muss man bisschen aufpassen, wobei ich ehrlich sagen muss, ich hätte mir das echt schlimmer vorgestellt - meine beiden MX100 billig SSDs laufen 1a. Wobei das noch MLC ist - kein TLC oder gar nur QLC! Heutige günstig SSDs sind ja eher QLC, mit Glück TLC, was sich klar auswirkt, vor allem wenn der SLC Cache aufgebraucht ist...


Ansonsten, Thema Hyper-V, keine Ahnung was Microsoft da im Detail macht, der mMn größte Vorteil von Hyper-V ist, dass es eben Windows Unterbau ist, also die ganzen Treiber usw. normal funktionieren... Das ist bei Linux zwar teils auch gegeben (KVM und Co.) aber bei vSphere ESXi definitiv nicht immer. Andererseits säuft der Hyper-V auch mehr Hintergrundlast ggü. nem nakten Linux/ESXi.
Ich weiß nicht im Detail, wie Microsoft das mit dem Threadschubsen hinbekommt, aber bei VMware gibt es schöne Performance Counter die man sich dazu ansehen kann - und an denen mal ableiten kann, ob der Prozessor (unabhängig der CPU Core Load) am Limit ist oder nicht.

"Man sagt" so ungefähr 1:4-1:5 vom Verhältnis zwischen 1x physical Core zu 1x vCPU "kann" man fahren im Schnitt. Ich habe hier Hosts, da geht auch 1:7-1:9, ABER das sind dann größtenteils mini Linux Systeme mit maximal 1-2x vCPUs.
VMs mit vielen vCPUs sind performancetechnisch problematisch, VMs mit mehr vCPUs als physical Cores können das ganze Ding lahm legen. Also 4x vCPUs bei 4x physical Cores und dann noch mehrere davon -> absolut keine gute Idee ;)

Zumindest bei VMware funktioniert die Ressourcenzuweisung nach so einer Art drehenden Zeitscheibe - das Rad dreht sich und jede VM bekommt in einer Umdrehung ein gewisses Zeitfenster. Bei 4x vCPUs auf 4x physical Cores müssen sozusagen vier physische Threads auch bereit sein die Arbeit aufnehmen zu können. Ist das nicht der Fall, weil andere VMs Teile der Cores/Threads belasten, dann wartet der Spaß -> und diese Wartezeit merkt man massiv bis dahin, dass das ganze Ding komplett einzuschlafen droht.
 
Nein, der T20 hat keine Onboard GPU. Die Frage ist halt ob das System ohne auch startet.
Hatte mal nen T20, das aber nicht ausprobiert.
 
Du hast recht, der T20 hat das nicht - keine Ahnung wie ich da drauf kam, mir war so ;)
Normal müsste er aber auch ohne starten, hab das aber auch nie probiert.
 
Ich denke auch, dass hier ein Konfigurationsfehler vorliegt - bei einem T20 jeder VM und 4 Kerne zuweisen und RAM überbuchen funktioniert halt nicht
 
Stimmt bei Asus habe ich so direkt auch nichts gefunden was auf KVM hinweist.

Bei Asus mit Zusatzchip und bei Asrock gibs so eine Java App für KVM
 
Bei Asus mit Zusatzchip und bei Asrock gibs so eine Java App für KVM
Bei dem hier angepriesenem "ASUS Pro WS X570-ACE"
steht halt nur
  • Workstation Feature
    ProCool Power Connector
    ASUS Control Center (ACC)
und
  • Manageability
    WOL by PME, PXE
Nix mit iKVM - würde man bei einem Workstationboard auch nicht erwarten (das WS in der Bezeichnung steht für Workstation).
Das Asus Control Center ist daher nicht aussagekräftig, ob iKVM unterstützt wird (war bei ASWM Enterprise genausowenig, da ASWM Enterpris oder ACC auch Mainboards unterstützen, die nur einen ASPEED1xxx haben, der nur als BMC fungiert und kein KVM bereitstellen kann)
 
Dachte, es ging in dem Kontext um das Board mit "ASMB9-iKVM for KVM-over-Internet"
 
Guten Morgen,

ich habe mich gestern mal mit den VMs beschäftigt und bei allen Kerne reduziert, teilweise auf 1 Kern, Teilweise auf 2 Kerne.
1 Kern hat teilweise nicht so gut geklappt aber 90% läuft jetzt auf 2 Kernen.

Bei einer VM habe ich auf 3 Kerne erhöht, angefangen von einem Kern. Die Host Auslastung geht relativ hoch, sobald eine VM last hat, was halt dann denke ich daran liegt, dass es eben "nur" 4 Kerne sind, die zur Verfügung stehen und das Gesamte System dann schon was schafft :)

Zusätzlich habe ich die Tage auch Strommessteckdosen geordert, welche ich gestern in Betrieb genommen habe und T20 und NAS mal gemessen habe um so eine Übersicht zu bekommen, das hat mir auch ganz gut geholfen für eine Einschätzung.

Interessant ist das eine einzelne 1TB Festplatte (Die bei dem T20 dabei lag) alleine schon ca. 3 Watt ausmachen.
Meine 10 Gigabit Netzwerkkarte ebenfalls nochmal um die 5 Watt.

Der generelle Stromverbrauch beim T20 ist schon wirklich sehr niedrig, dafür halt "nur" 4 Kerne.

Ich denke das es trotzdessen, dass es jetzt schon etwas beser läuft trotzdem etwas kleines neus angeschafft wird da ich weitere VMs schon in Planung habe :)
Nur die Frage ob es wieder ein 4 Kerner wird oder eher doch was mit mehr kernen, zu dem ich auch tendiere, da man dan erstmal ruhe hat :)
 
Ansonsten, Thema Hyper-V, keine Ahnung was Microsoft da im Detail macht, der mMn größte Vorteil von Hyper-V ist, dass es eben Windows Unterbau ist, also die ganzen Treiber usw. normal funktionieren... Das ist bei Linux zwar teils auch gegeben (KVM und Co.) aber bei vSphere ESXi definitiv nicht immer. Andererseits säuft der Hyper-V auch mehr Hintergrundlast ggü. nem nakten Linux/ESXi.
Ich weiß nicht im Detail, wie Microsoft das mit dem Threadschubsen hinbekommt, aber bei VMware gibt es schöne Performance Counter die man sich dazu ansehen kann - und an denen mal ableiten kann, ob der Prozessor (unabhängig der CPU Core Load) am Limit ist oder nicht.
Nennt sich VM Ressource Metering bei MS, getriggert via PowerShell.
Mehr ins Detail geht's dann nur mit System Center bspw oder Veeam One. Wobei du nen Hyper-V Host auch in vSphere einbinden kannst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh