[Sammelthread] HPE ProLiant MicroServer Gen10 Plus G5420/E-2224

Bleiben die Fragen, welche für viele Heimanwender relevant sein dürfte:
Noise, Powerconsumption, S1,S3, S4
Beitrag automatisch zusammengeführt:

Bei HPPMSFan steht noch nix in der Signatur... Wann ist Liefertermin?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Noise ist von HP mit 26db angegeben aber genau wird sich das erst evaluieren lassen sobald die ersten davon bei jemanden angekommen sind.
 
Es gab ja auch mal jmd. der den FlashSpeicher im Gen8, welcher eigentlich für IP gedacht ist, beschreiben konnte. Das wäre auch noch ein Option die es zu klären gilt
Beitrag automatisch zusammengeführt:

Zur Info @Janero: Auf S.1 hast du 21dB angegben
 
Zuletzt bearbeitet:
Ich habe eine AB vom 27.02.2020, auf der eine Lieferzeit von 3 bis 4 Wochen angegeben ist. Ich schrei sobald was geht.

Update 07.04.2020: Verschoben dank *** auf Ende Mai 2020
 
Zuletzt bearbeitet:
Hi, da ich nicht der HP Spezi bin und mein Gen8 seit einigen Jahren problemlos läuft, mal die Frage in die Runde.
Weis jemand ob ich meinen aktuellen Raid Controller
hp-smart-array-p420-1gb-fbwc
Weiter verwenden kann?
Das integrierte Software Raid des Gen10+ wird hier performancetechnisch wohl nicht mithalten können^^

Danke
 
War auch eher an die, die täglich mit HP zu tun haben, ob was über die Kompatibilität bekannt ist. Dass der hardwaretechnisch passt ist schon klar ;)
 
 
Werde die Sachem später mal einpflegen.
 
Sieht schon echt lecker aus. Habe aber mittlerweile eine eigene Lösung gebaut und meinen überdimensionierten Stromschlucker, einen ML350p mit 2x 16c Xeons, in Rente geschickt.
So einen Xeon bräuchte ich aber noch...
 
Mit ESXI könnte der dank der serienmässigen 4fach NIC auch als sparsame, unauffällige Virtualisierung mit pfSense, kleinem ZFS-Filer und ggf. Datenbank dienen, falls sich die Sataports durchreichen liessen. Ggf mit der Pentium-Variante kaufen und dann nen günstigen i3-9100F rein.
Limitierend scheint i.w. das 180W NT zu sein.

Ein T40 ist halt deutlich günstiger und hat mehr Slots. Interessant wär ein T40 review bzgl. Idle Leistungsaufnahme zum Vergleich.
 
Was ich immer noch nicht verstehe: Wozu ist dieser DisplayPort-Out, wenn die iGPU der CPUs nicht verwendet wird?

700€ wären ok, wenn als Desktop und Hypervisor einsetzbar, ohne dGPU
 
Naja, der DP wird vmtl. durch einen kleinen Grafikkern im ILO-Chip selbst angetrieben; quasi nur für Mgmt-Zugriff mit Minimalst-Grafik. Muss so sein, da ja der E-2224 keinen Grafikchip hat.
Wie bei IPMI auch.

Aber mir ist für Mgmt DP viel viel lieber, weil Monitore mit VGA zumindest im privaten Umfeld rar werden. DP/HDMI/MiniDP hat aber mittlerweile jeder Monitor, keiner meiner normalen Monitore hat VGA mehr. Hab extra so einen kleinen portablen 10"-Zwerg mit VGA beschafft...

150-200 Euro weniger, und ich würde mir einen kaufen. Die jetzigen Premiumpreise zur Einführung sind mir zu hoch für das Gebotene und den Zweck.
 
Zuletzt bearbeitet:
Hallo zusammen,
Ich habe aktuell einen Gen8 mit 6 SSDs.
2 für das Hypervisor OS im Raid1 am b120i und 4 für Daten im Raid5 am P222 Controller.

So wie ich das sehe, ist im Gen10plus maximal Platz für 4 HDDs/SSDs, die beiden zusätzlichen, welche ich im Gen8 oben drin liegen hab, werde ich schon platztechnisch nicht unterbekommen...
Wäre eurer Meinung nach ein Einbau des P222 möglich?
Dann könnte ich wieder umverkabeln und die 4x SATA Steckplätze auf den P222 hängen?

Ebenso würde mich eine stärkere CPU interessieren, also wie bei ServeTheHome beschrieben.
Idee wäre also, die günstigere Pentium-Variante zu kaufen, um dann die CPU + RAM auf 64GB aufzurüsten...
 
So wie ich das sehe, wird man auch beim Gen10+ wieder den SAS-Expander vom Mainboard abziehen und an andere Hardware anstecken können, ja.
Platzprobleme für 2 zusätzliche 2,5" Laufwerke sehe ich da eher nicht. Anschließen lassen die sich sicherlich über eine SAS-Peitsche am Mainboard. Strom wird sich auch iwie lösen lassen.
Alternative ist einen Pcie->m.2 Adapter zu verwende, um via Bifurcation mehrere (2) schnelle M.2 für das OS zu verwenden.
 
Womit dann aber wieder keine 10G oder höher Karte mehr reinpasst.
Und der SFF8087 vom Käfig passt auch nit wirklich an aktuelle HBAs mehr; die brauchen ja 8643.
Wenns wenigstens einen Onboard M.2 PCIe slot noch gäbe.

Der ILO-Platz sieht zwar aus wie x1 PCIE, aber der dürfte wohl der Optik nach zu weit hinten liegen und damit für regläre Karten nicht nutzbar sein. Welche auch kaum mechanisch nach vorne Platz haben, weil da ja der HDD-Käfig ist.
 
Zuletzt bearbeitet:
Es gibt diesen M.2+10G-Adapter von Qnap. Der ist allerdings pcie2 und limitiert dann die m.2-pcie-SSDs.
Aber da kommt sicherlich auch noch mal ein anderer Hersteller von solchen Lösungen dahinter, dass hier ein Markt sein könnte.
 
Diese Karte finde ich maximal uninteressant für einen Server auf dem Level eines E-2224 oder gar höher wenn umgerüstet.
- PCI2.0x2 => 800 MB/s max
- keine Intel-NIC für Kupfer sondern AQC (damit Einschränkungen bzgl. OS-Wahl), geschweige SFP+ ; auch nur 2 Lanes Gen2.0. , d.h. sogar das limitiert.

=> viel zu große Kompromisse.
 
Zuletzt bearbeitet:
Ich hab die Qnap Karte hier aber imo kein 10 GBit Lan im haus ....

Gibt auch 4x 16x NVME Low Profile Controller mit einem PCIe Switch Chip drauf der die 16 lanes in 4x4x4x4 aufteilt. "Squid .... " Name entfallen. Wenn ich den finde Poste ich mal den Hersteller
 
Amfeltec. Sehr teuer da PLX-Chipsatz und mutmasslich kleine Stückzahlen. Den PLX braucht man aber nur, wenn passende Aufteilung per Bifurcation nicht zur Verfügung steht.
Bauste aber eine solche Karte ein, dann gibts wieder kein 10G... es fehlt einfach ein zweiter 4x bzw. 8x PCIe-Slot.
Das macht den Gen10Plus relativ stark eingeschränkt in Bezug auf sein CPU Performance-Potential und Preis.

Aber am Ende siegt bei mir vmtl. dann doch die Experimentier-Wut über die rationale Überlegung. Kenn mich ja auch, wie so was ausgeht.:whistle:
 
Zuletzt bearbeitet:
eine SSD über USB 3.2 Gen 2 wäre keine Option?
 
Was ich an USB-Adaptern kenne sind meist nur die sequentiellen Raten wirklich nah am Durchsatz eines dedizierten LAN-Ports
 
Und USB ist alles andere als zuverlässig ..... Hatte mal auf einigen USB3 Storages VMs laufen .... keine gute Idee....

Braucht man zuhause eigentlich 10G oder höher .....

Würden da nicht für die meisten unter uns diese 2.5G oder 5G USB3 Adapter ausreichen?

Ich hab auch nicht verstanden warum das Teil kein Thunderbolt hat .... Ist alles Intel als Lizenztechnisch ja kein Problem. Darüber könnte man dann wieder mehr Anschließen oder das 10G Problem lösen.

Warum hat HP die ILO nicht einfach mit einer Lizenz gelöst, oder mit einem Lan Anschluss auf dem Mainboard; oder nem Kombiport gelößt ...

Die Karte aus meinem N40L ist; weil sie mist war; ausgebaut und sammelt Staub
 
Und USB ist alles andere als zuverlässig ..... Hatte mal auf einigen USB3 Storages VMs laufen .... keine gute Idee....

Naja, auf eine mit USB3 angeschlossene Platte gleich den VM-Storage laufen lassen… Stimme ich dir zu, "keine gute Idee". 🙃
Doch es ging darum, eine Boot-Platte dran anzuschließen? Als Alterantive zum onboard-USB2-only Anschluss? Dann finde ich das durchaus eine praktikable Idee. Ich mein, bei einem 4-Kern-System will man ja vermutlich einen davon für das ESXi/Proxmox/wasauchimmer bestimmen – dann hat man "Platz" für drei Systeme. Höchstens. (Ich schließe Overprovisioning mal aus, wenn "USB3 ist nicht zuverlässig genug" im Raum steht.)
Selbst wenn man sich richtig reinhängt und eine andere/bessere CPU und SSD-RAID (mit dediziertem Controller, natürlich) reinmacht: Ganz ehrlich, fängt dann nicht der Schuh woanders an zu drücken? 1GB-Anschlüsse? Stromversorgung? Wenn man … sagen wir 6-8 Maschinen auf dem Gen10+ virtualisieren will, dann hat man doch ganz andere Probleme als "die Boot-Platte hängt an USB3" – oder verstehe ich was falsch?

Ganz ehrlich, ich überlege schon eine 6-Kern/12-Threads CPU zu kaufen (drüber würde ich nicht gehen, wegen begrenztem Strom-Budget) – was ich dann da drauf virtualisieren würde, dürfte dann aber nicht nur einen Thread haben. Ich hätte viel lieber VMs mit 1-Kern/2-Threads: Daraus folgt, dass selbst mit einer solchen CPUs maximal 5 VMs drauf liefen. Und dann … wenn's doch nur 4 sind, dann könnte jede VM einen dedizierten SATA-Anschluss und einen dedizierten GB-Link zugewiesen bekommen. Folge ich dieser Logik, dann scheint das Bild ja zu passen. Es fehlt "nur" der LAN-Anschluss für den Hypervisor – oh schau mal, da ist ja einer beim iLO drauf! 😊 – und ein Anschluss, um das Hypervisor-Medium zu booten.
Womit sich der Kreis schließt: Ich teile die Meinung, dass Onboard-USB2 (viel) zu schlecht ist (und m.2 schon cool gewesen wäre), aber der Workaround mit USB3 finde ich … akzeptabel. Zumal ich beim Hypervisor nicht erwarte bzw. eigentlich verlange, dass der nicht so viel Daten schreibt.

Würden da nicht für die meisten unter uns diese 2.5G oder 5G USB3 Adapter ausreichen?

That's the spirit: Brauchst man wirklich >7 VMs zuhause? 😜 Wobei, stopp, anders gefragt: Wenn jemand >7 VMs zuhause braucht, dann ist eher die Frage: Warum ein Microserver? Offenbar ist eine solche Person auf der Suche nach mehr als nur Gigabit. Oder 8-Kern-CPUs. Oder nur einem PCIe-Steckplatz. Oder mehr als 180W. 😊
 
Wenn ich zuhause mit VM-Images rumhantiere und schubse, die dutzende von GB haben, dann will ich definitiv 10G oder mehr. Und zwar Gbase-T, nicht Nbase-T was Switche oft nicht können. Mit regulären üblichen 10G-Karten, wo es kein Treibergefrickel oder gar Treibernot gibt. D.h. ACQ scheidet für mich aus.
USB als Datastore geht theoretisch, ist aber auch wieder unzuverlässiges/unsupportetes Gefrickel, was ggf. mit einem ESXI-Update wieder beim Teufel sein kann. Und mind. 1 wenn auch kleinen USB-Datastore braucht man auch für das AIO-Setup, dann.
10cm mehr Bauhöhe, etwas stärkere Stromversorgung und dafür 1 PCIe-Slot 3.0x4, M.2 PCIE 3.0x4 und 6x3,5" (für ein Raidz2); das wär soviel Mehrwert gewesen.
 
10cm mehr Bauhöhe, etwas stärkere Stromversorgung und dafür 1 PCIe-Slot 3.0x4, M.2 PCIE 3.0x4 und 6x3,5" (für ein Raidz2); das wär soviel Mehrwert gewesen.
Eigentlich hätten wahrscheinlich schon 4cm gereicht.
Ich fände PCIE 2x8 super, wegen mir auch umschaltbar auf 1x16 als slot, am besten mit Bifurcation.
Und noch extern 2x2.5. Hotswap sind sie ja eh nicht.
Als PSU nen FlexATX und das Ding wäre der Knaller und nicht viel größer.
Bei der Kiste rennt man einfach echt schnell in irgend einen Limit, PCIe, Strom, RAM.
4x3.5 finde ich hingegen in Ordnung. Da passen doch einige TB rein.
So ist man fast mit nem ITX Build von Supermicro oder Asrock besser dran und aktuell auch nicht viel teurer.
 
Man muss halt das HPE-Universum mögen..

2 SAS, also die Option 8 2,5“ vertikal, statt 4 3,5“ horizontal wäre für mich ein Gamechanger gewesen. So bin ich fast sicher auch noch länger ohne neuen Microserver leben zu können. Geht das Geld eher in ein Balkonkraftwerk, denke icv
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh