Synology DS3617xs oder Server Eigenbau

wit4r7

Profi
Thread Starter
Mitglied seit
21.09.2018
Beiträge
94
Hallo in die Runde,

ich möchte mir zeitnah einen neuen Server kaufen und benötige dabei noch etwas Input.

Ich nutze aktuell eine einfache Synology DS216+ii, welche ersetzt werden soll.

Was möchte ich mit dem neuen System machen:
- Dateisystem für Daten von 2-4 Personen inkl. Sharing
- Cloud Server
- Backupserver für 3 Macs
- Media Server (Foto, Musik und Videoverwaltung)
- E-Book Server
- Datenbankserver für 2-3 Datenbanken (Stand jetzt)
- Webserver für interne Dienste wie z.B. Webinterface für Datenbank
- Kontakte und Kalenderserver (CalDAV, CardDAV)
- Virtualisierung von verschiedenen Systemen (Win, Linux, Win-Server...) zum Testen und Ausprobieren
- Docker
- Git Server
- ...

Sonstige Anforderungen:
- Stromverbrauch soll im Rahmen sein (max. 150W im Dauerbetrieb, gerne weniger)
- Das Gerät muss eher leise sein, da es im Arbeitszimmer steht.
- kein wirklichen Platz für ein 19" Rack, daher eher Tower
- USV ist vorhanden.

Im Synology NAS würde ich folgende Platten verbauen:
- 4x 6TB WD Red oder Seagate Iron Wolf (Raid 10)
- 2x 500 GB SSD für VMs (Raid 1)
- 4x 750GB HDDs für die Backups der Macs (Platten sind gerade über)

Vielleicht zu meinem Hintergrund und Erfahrungsreichtum: Ich studiere Informatik, arbeite im IT Umfeld und habe bereits früher kleinere Linuxserver genutzt bzw. auch bei einem Linuxserver-Entwicklungsprojektes kleinere Teile übernommen. Gute Grundkenntnisse sollten also da sein sowie die Bereitschaft und ein technisches Verständnis für Neues.

Ich habe zwar ein Projekt von dieser Größe noch nicht umsetzen können, würde mir das aber zutrauen. Es gibt ja Internet, Youtube und Google :)

Ich hatte mich zu Anfang eher im Bereich Synology/QNAP umgeschaut, da mir diese Systeme vertraut sind. Bei QNAP hatte ich mir die TVS-1282-i5 angeschaut. Bei Synology die DS3617xs.

Die QNAP hat keinen ECC Ram und käme mit 32 GB RAM ca. 2.300€.
Die Synology hat ECC RAM und kommt mit 32 GB ECC RAM ca. 2.600€.

Ich würde aber aufgrund des ECC Faktors die QNAP ausschließen. Ich überlege also noch, ob ich nicht von der Preis/Leistung besser komme, wenn ich mir einen Server selber zusammenstelle bzw. einen Server (Dell, HP, ...) konfiguriere. Da ich leider keinerlei Erfahrung im Bereich von Serverhardware habe, bin ich hier und frage einfach mal in die Runde, was ihr für meine Anforderungen empfehlen würdet.

Preislich bewege ich mich im Rahmen von ca. 2.500 € ohne die Festplatten.


Vielen Dank schon Mal!
wit4r7
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Von selbst bauen würde ich die Fingerlassen. Die Synology sieht ganz gut aus und kann auch alles was du möchtest. Als alternative kannst du dir noch einen DELL Poweredge T440 anschauen, das haut Preislich hin und hat vorne 8x3,5 HDD und die beiden SSDs kannste an den internen Chipsatz im 5 1/4" Slot packen.
Im Stromverbrauch wird die Synology besser sein.
 
EDITh: CPU fehlte in der Konfiguration
Selbstbau ist flexibler was die Betriebssystem- und Softwarewahl angeht, und i.d. R. Leistungsfähiger bei geringeren Kosten

Da du offenbar einiges mit VMs vorhast, würde ich auf So 2011-3 mit einem XEON mit mehr Kernen gehen

Inter-Tech IPC-9008 5U ab 109,94 de (2018) | heise online Preisvergleich / Deutschland 110 €
2x Icy Dock MB074SP-1B Black Vortex ab Preisvergleich Geizhals Deutschland 140 €
Supermicro X10SRH-CF bulk (MBD-X10SRH-CF-B) ab 375,71 de (2018) | heise online Preisvergleich / Deutschland 400 €
Intel Xeon E5-2620 v4, 8x 2.10GHz, boxed (BX80660E52620V4) ab 401,89 de (2018) | heise online Preisvergleich / Deutschland 420
(Bei Vitualisierug sind mehr physische Kerne zumeist "wertvoller"als höherer Takt)
Kingston ValueRAM Intel DIMM Kit 32GB, DDR4-2400, CL17-17-17, ECC (KVR24E17D8K2/32I) ab 359,25 de (2018) | heise online Preisvergleich / Deutschland 360 €
(oder gleich auf teureren aber etwas stromsparenderen LRDIMM gehen : Crucial LRDIMM Kit 64GB, DDR4-2400, CL17, ECC (CT2K32G4LFD424A) ab 782,98 de (2018) | heise online Preisvergleich / Deutschland )
Netzteil (400 Watt sollten ausreichen) : 80 €
CPU Kühler : 60 €
Leisere Lüfter: 50 €

hab isch nochwas was vergessen?

ca. 1700 € mit reichlch Aufrüstpotential, falls noch mehr Leistung gefordert ist

Mit weniger Leistung z.B. kleinerer CPU entsprechnend günstiger - könnte man später immer noch Aufrüsten.

Als So1151 nochmals deutlich billiger zu realisieren, allerdings fehlt dort das Aufrüstpotential (CPU Kerne, RAM)

P.S. 8 HDDs und Leise ist relativ :)
 
Zuletzt bearbeitet:
Vielen Dank für euren Input. Ich habe gestern Abend dann auch noch etwas recherchiert und tendiere aktuell auch eher zu einem Eigenbau.

Ich habe natürlich auch den Hardware Ratgeber hier im Forum gelesen und habe mir danach folgenden Server zusammen gestellt: server build Preisvergleich Geizhals Deutschland (RAM überlege ich noch, ob 16 oder 32 GB Module).

Ich möchte wahrscheinlich ein Promox laufen lassen und dann alles per VMs lösen.
In dem Zusammenhang bin ich mir noch nicht 100% sicher, ob ich einen Hardware Raid benötige.

Das Gehäuse habe ich gewählt, da ich mir vermutlich das gleiche Gehäuse in einer anderen Farbe für meinen Desktop PC holen werde, dann sieht es etwas einheitlicher aus :wut:

1.300 € klingen an sich gut - 2.000 - 2.500 € sollten es aber schon sein :bigok:

Viele Dank!
wit4r7
 
10 Jahre alter Adaptec-Controller? Hmmm.....würde ich wirklich nicht mehr kaufen. Insbesondere unter dem Aspekt ZFS.

Ich würde eher was mit LSI/Avago/Broadcom (Chipsatz SAS2308/SAS3008) nehmen, die kannst Du umflashen zwischen Raid-Firmware (IR) und reinem HBA (IT) und bist damit a ) flexibel was HW oder SW-Raid betrifft und b ) sind diese Chipsätze der Goldstandard für ZFS (also z.B. Proxmox, Solaris, OmniOS, BSD (Xigmanas,FreeNas)).
Bei Supermicro findest Du einige Boards, die den 3008 für sehr wenig Geld onboard haben; das sind die Modelle die dann ein "C" im Postfix des Modellcodes haben.

Nachdem was Du an Services laufen lassen willst, diese auf alle Fälle virtualisieren. Neben Proxmox evtl. dafür auch mal ESXI anschauen.

Btw, AMD Epyc evtl. interessant? Mit dem H11SSL hat Supermicro eine Serie von Singlesocket-Boards dafür.
 
Zuletzt bearbeitet:
Danke für die Antwort.

Beim RAID stehe ich noch ganz am Anfang. Daher auch das alte Modell.

AMD Epyc ist grundsätzlich auch sehr interessant. Hatte mich zum einen auf den Ratgeber im Forum gestützt und zum andern haben meiner Erfahrung nach, die AMD CPUs einen etwas höheren Stromverbrauch. Daher war die Überlegung einen Xeon zu nehmen. Ich lasse mich aber auch sehr gerne vom Gegenteil überzeugen.


Edit: Ich sehe gerade, dass das Supermicro X11SPi-TF im C622 Chipsatz einen RAID Controller besitzt.
 
Zuletzt bearbeitet:
Hab das SPi-TF ja selbst (siehe signatur) - das ist nix anderes als Onboard/Chipsatz Raid und daher nix halbes und nix Ganzes. Naja, doch eher was Halbes aber so’n HBA ist schon was Feines in Kombination mit ESXi und ner ordentlichen Fileserver-VM.

Dazu schließe ich mich den Vorrednern an: nimm was von Broadcom und dann mit am besten 8, jedenfalls nicht mehr als 16 Ports (mit mehr Anschlüssen gibt’s ggf. Zicken mit dem ein oder anderen OS). Für den Einstieg und wenn nicht grad SSDs dran sollen kannste prima was günstiges gebraucht nehmen. Oder du investierst eben gleich in ein Mainboard, dass einen solchen Zusatzchip Onboard mitbringt (aber dann bitte nicht mit dem Chipsatz-RAID wie beim SPi verwechseln).

In Digi‘s Zusammenstellung fehlt auch noch die CPU. :)

Wenn Dein Budget bis 2.500 geht, würde ich Sockel 3647 nehmen und eben CPU nach Gusto aus dem Xeon Silver Regal (Gold ist im Zweifel Overkill). Oder eben Epyc, aber da musst Du vorher genauer recherchieren, ob dein Wunsch-OS (schon) entsprechenden Support mitbringt.
 
@ wit4r7: Vergiss diese ganzen Chipsatz-"Raids" in den Intel-Chipsätzen. Das ist eher was für die Spielwiese und i.W. nur Windows, damit können Virtualisierer und Serversysteme nichts anfangen.
Nicht umsonst werden die auch "Fake-RAID" genannt.

Hier findest Du einen Test des H11SSL-NC.
 
Zuletzt bearbeitet:
Noch zum RAM: Ich hab mich für zunächst 2x 32GB ECC RDIMMs entschieden. Mehr als 256GB werde ich wohl nie brauchen. Die zwei sehen allerdings in den 8 Bänken etwas verloren aus... ;)
 
Vielen Dank für die Hinweise - ich schau mir die Epycs mal an -Proxmos läuft wohl.

ESXi stößt man wohl relativ schnell an die Grenzen der "Free-Version". Deshalb tendiere ich eher zu Proxmox.


Ich hätte noch eine Frage zu der Konstellation der Festplatten:

Im Synology hatte ich geplant, das System auf die 4 WD Red zu installieren wo dann auch die Daten und einzelnen Applicationen laufen. Das Timemachine Backup auf die 4x750GB (RAID 0) sowie 2 SSDs für die Virtuellen Maschinen.

Ich überlege jetzt gerade, ob ich eine M.2 PCi für das System (Proxmox) nutze. Das OS im Raid ist ja nicht zwingend notwendig bzw. verursacht ja eher Probleme oder?
Und dann wäre die Frage, wie man die Server aufbaut. Also als Beispiel den Dateiserver. Nutzt für den eigentlichen Server eine SSD und lediglich HDDs für die Raid 5/10 Partionen als Dateispeicherort verwenden?
Oder ServerOS + Daten auf 4xHDDs mit Raid?

Vielen Dank!
 
Willst du wirklich Backups auf einem RAID0 aus 4 Platten speichern?

:d Ich wusste das die Frage kommen wird, als ich mir die Antwort selber gerade nochmal durchgelesen habe.

Die Situation ist folgende: Im Netz befinden sich ein MacBook Pro, ein iMac sowie ein iPad Pro. Die Arbeitsdokumente befinden entweder auf dem Dateiserver oder auf dem Cloudserver (was der gleiche Server sein wird) und wo ich Raid 5 oder 10 plane. Und wenn Sie nicht da liegen, liegen sie in der iCloud (Dokumente vom Desktop oder im "Dokumente" Ordner). Alle Einstellungen und Programme sind entweder synchronisiert oder sind schnell wieder installiert und eingerichtet.

Es geht also primär um die Snapshot Funktion von Dokumenten. Alles andere, ist anderweitig gesichert oder muss m.E. nicht gesichert werden.
Da der iMac und das MBP zusammen 1,5 TB haben und ich gerade 750 GB Platten hier habe, wollte ich die zu ~3TB Raid 0 Volume zusammenfassen.

VG wit4r7
 
Zu ESXi: Definiere Grenzen. ;) was hast du denn vor, wo du glaubst diese zu erreichen?
 
Zu ESXi: Definiere Grenzen. ;) was hast du denn vor, wo du glaubst diese zu erreichen?

Eine gute Frage. Aktuell läuft es eher noch auf einen "Home-Bedarf" hinaus. Da ich mich in den Server/Netzwerkbereich weiter vertiefen will (auch durch mein Studium) ist denkbar, dass ich eben auch Business Funktionen nutzen werde. Als Bsp. Clustering, Load Balancing oder ähnliches. Zwar eher ein einer Lab Umgebung, als in einer Produktiven, aber man weiß ja nie, was noch kommt.

Die Grenzen als solches kann ich so nicht konkret aufzeigen - habe aber mehrere Artikel von unterschiedlichen Leuten gelesen und der Grundtenor war immer der, dass sie "irgendwann" an die Grenzen der Free-Funktion gestoßén sind.
 
Mal abgesehen von vielleicht Proxmox und Linux Grundfunktionen wirst Du bei allen Hypervisoren mit den freien Editionen an Grenzen stoßen, gerade was Cluster, Live-Migration & Co. angeht. Ist auch normal, da man sonst ja für den professionellen Einsatz nichts mehr kaufen müsste... Sonst schau dich halt mal nach Studi-Lizenzen für die Vollversionen um, die müsste es bei deinem Studiengang ja irgendwo geben.

Oder nimm Proxmox.
 
Die größte 'Einschränkung' der ESXi Free ist dass HA, hot VM/Storage Move und zentrales Management vieler ESXi Server da nicht enthalten ist. Ist für Lab use aber eher unerheblich.

Dafür ist es ultraschnell erstmals oder nach Crash aufgesetzt, trennt VM Server, Storage und VMs perfekt und bietet den geringsten Overhead und die beste Unterstützung aller denkbarer Betrierbssystenme, inkl Unix (BSD, MacOS, Solarish) und Windows sowie problemloses Storage und PCie pass-through neben Raw disk Mapping.
 
Danke für den Input. Ich schaue mir ESXi nochmal näher an. Und auch gleich in dem Zuge nochmal Hyper-V.

Wo ich aktuell noch nicht entschlossen bin, ist die Situation mit den Festplatten & SSDs.

Das System auf ne 2x Sata SSD mit Raid 1 oder auf ne einfach M.2?

Aktuelle mögliche Konfig (inkl. Platten) server build Preisvergleich Geizhals Deutschland
 
Zuletzt bearbeitet:
Bezüglich RAM, wäre es nicht sinvoller direkt auf 6 Module zu gehen somit könntes du in den 6 Channel genuss kommen. (zb. 6 x 16GB)
 
Bezüglich RAM, wäre es nicht sinvoller direkt auf 6 Module zu gehen somit könntes du in den 6 Channel genuss kommen. (zb. 6 x 16GB)

Wo genau liegt der Vorteil von 6 Modulen?

Darf ich frage, was dein Storage 1 System an Strom verbraucht?

VG wit4r7
 
Kurz gesagt ist die RAM Performance (Der Durchsatz) am Besten wenn die CPU pro Channel einen Dimm zur ferfügung hat.

Wenn du 2 Module instalierst kann die CPU gleichzeitig auf zwei Module zugreifen bei 6 Modulen endsprechend auf 6 Dimms. Baust du aber beisielsweise 8 Module ein sinkt die Bandbreite pro Riegel da die CPU nur 6 Memmory Channel hat.

Storage 1 liegt bei ca. 210 Watt keine große CPU Last HDDs laufen aber.

Ohne HDDs Liegt der Server bei ca 110 Watt, allerdings braucht zb. alleine die Expander Backplane des Gehäuses knapp 30 Watt.
 
Zuletzt bearbeitet:
Ah ok :)

Vielen Dank - sowohl für die Erklärung, als auch die Infos über den Stromverbrauch. Ich sollte also mit rund 100W hinkommen, bei nem Towergehäuse mit 2 HDDs und 2 SSDs. Zumindest für den Anfang oder?
 
Ja das sollte machbar sein.

Kommt halt stark auf die Nutzung bzw ausstattung an, beispielsweise braucht mein "Hardware" Raid Controller auch mal 10 - 15W.
 
@Digi-Quick: Hast du eine CPU in der Liste?
Ups, nachgepflegt :)

- - - Updated - - -

Zu deiner Zusammentsellung:
Vergiß die Samsung Pro SSDs als VM-Store, zumindest wenn du diese via NFS von einer Storage-VM (z,B. Gea's Napp-inOne, XigmaNAS, OMV) zur Verfügung stellen willst.
Die Performance ist unterirdisch, selbst mit Sync-Write=Off. (Ich hatte die selber genau dafür genutzt)
Als Systemlaufwerk für Single-OS Arbeitsplatz-PCs sind die gut.
Lieber sowas: Solid State Drives (SSD) mit Hersteller: Intel, Kapazitt ab 480GB, Schnittstelle: SATA, IOPS 4K lesen: ab 75k IOPS, IOPS 4K schreiben: ab 25k IOPS, Besonderheiten: Power-Loss Protection Preisvergleich Geizhals Deutschland

In das von dir gewählte Gehäuse passen nur 6 HDDs rein - ohne Hot-/Coldswap Einschübe, bzw. bis zu 9 bei zusätzlichem Einbau einer 3in2 Backplane in die beiden 5,25" Schächte

Das gewählte Mainboard hat keinen zusätzlichen SAS-Controller, den man problemlos an eine Storage-VM weiterreichen könnte. Den Chipsatzcontroller kannst du nur durchreichen, wenn nicht davon gebootet werden soll - z.B. USB-Boot (ESXi und Storage VM auf Boot Stick)
Bei Verwendung von Proxmox irrelevant, da braucht es keine Storage VM, da Proxmox selbst ZFS kann - mWn Verwaltung von ZFS dann aber nur via Konsole ohne WebGUI.
Für So 3647 scheint es da aber derzeit nur ein Dual-CPU Board zu geben und scheint auch nur bei einem Händler in Östereich zu geben, Der Preis ist allerdings nicht ganz uninteressant. Ein SAS-Controller/HBA mit LSI/Broadcom 2008/3008 Controllerchip kostet ja auch ab etwa 150 € bei Seriösen Händlern. Gebrandete Controller lassen sich meistens auf original LSI/Broadcom Firmware umflaschen.
Sie anderen Beiden Boards haben einen Propietären Formfaktor und passen vermutlich nur in bestimmte SM-Gehäuse.
Intel Xeon mit Sockel: Sockel 3647, SAS gesamt: ab 8x Preisvergleich Geizhals Deutschland
 
Vielen Dank für den Hinweis.
Werde das X11SPH-nCTF nehmen.

Hatte zwar kurz überlegt, die vorgeschlagene Variante mit dem Xeon E5 zu nehmen, aber tendiere doch eher zum 4110.

Werde 6x6TB SAS Exos Platten verbauen (7200 RPM). Die >10000 RPM sind zwar echt super, aber sprengen für den Anfang doch den Rahmen.
Werde auch die von dir vorgeschlagene SSD wechseln. Dafür aber nur 1. Die Redundanz ist mir an der Stelle nicht so wichtig.

Das Case ist so ok. Hab dann zwar ohne Wechselrahmen keine Erweiterungsmöglichkeit für 3,5" Platten, aber so richtig Alternativen gibt es nicht ohne auf 19" zu gehen, wofür ich aktuell keinen Platz habe.

Ich überlege, ob ich Proxmox auf einer separaten HDD installiere (z.B. WD Gold 1-2TB) und dann die Exos Platten durchrreiche? Oder macht das keinen Sinn?

Vielen DanK!
 
AHA, mit Fiter "SAS Gesamt=8x" kommen nur 3 Mainboads raus, mit Filter "Storage=SAS" sind es dann 12 Mainboards.....
Und selbst dann tauchen die von dir verlinkten Boards nicht auf, GH ist definitiv fehlerhaft.

Wobei das bei den ASUS-Boards ja schon wieder gelogen ist, da hier eine Zusatzkarte nötig wäre. (Ob die SATA Ports dann tatsächlich auf SAS Protokoll laufen?)

Danke für den Hinweis!

- - - Updated - - -

Hatte zwar kurz überlegt, die vorgeschlagene Variante mit dem Xeon E5 zu nehmen, aber tendiere doch eher zum 4110.
Ist auf jeden Fall die aktuellste Platform :-)
Kostentechnisch nimmt sich das nicht allzuviel (Überschlagsweise gerechnet 200 € teurer)

Das Case ist so ok. Hab dann zwar ohne Wechselrahmen keine Erweiterungsmöglichkeit für 3,5" Platten, aber so richtig Alternativen gibt es nicht ohne auf 19" zu gehen, wofür ich aktuell keinen Platz habe.
Eine Gangbare Lösung hatte ich dir aufgezeigt, das Gehäuse sieht halt nicht ganz so "Gamermäßg" aus *scnr*

Bie 8 HDDs vielelicht noch nicht ganz so tragisch, aber ohne Backplane funktioniert kein staggered Spinup, mir ist jedenfalls kein Netzteil bekannt, bei dem in den SATA Steckern der Pin 11 unbeschaltet ist >>> Das Netzteil muß Größer sein als eigentlich erforderlich, da der gesamte Anlaufstrom aller HDDs gedect werden muß, im laufenden Betrieb daher schlechterer Wirkungsgrad

Ich überlege, ob ich Proxmox auf einer separaten HDD installiere (z.B. WD Gold 1-2TB) und dann die Exos Platten durchrreiche? Oder macht das keinen Sinn?
Das Boot-OS grundsätzlich von den Daten trennen.
Bei Proxmox bräuchtest du auch keinen zusätzlichen HBA (LSI/Broadcom), den du an eine Storage-VM weiterreichst, da Proxmox selber ZFS kann und somit Hypervisor und Storageserver in einem wäre.
Da könntest du sogar mit einem ASUS Z11Pxxxxx auskommen, verbaust dir aber u.U. die Möglichkeit auf ESXi mit einer Storage-VM umzuschwenken.
(wenn der Marvell Controller vom "Z11PA-D8" bootfähig ist und von ESXi unterstützt wird, was ich bezweifle, könte man den Intel Chipsatzcontroller an die Storage-VM durchreichen. Beim Z11PR-D16 könnte man ESXi und Storage-VM auf eine PCIe-M2-SSD schieben. "2 x M.2 connector (2280/2260/2242) (SATA 6Gb/s & PCI-E Gen3 x4 link)")
 
Zuletzt bearbeitet:
Eine Gangbare Lösung hatte ich dir aufgezeigt, das Gehäuse sieht halt nicht ganz so "Gamermäßg" aus *scnr*

Bie 8 HDDs vielelicht noch nicht ganz so tragisch, aber ohne Backplane funktioniert kein staggered Spinup, mir ist jedenfalls kein Netzteil bekannt, bei dem in den SATA Steckern der Pin 11 unbeschaltet ist >>> Das Netzteil muß Größer sein als eigentlich erforderlich, da der gesamte Anlaufstrom aller HDDs gedect werden muß, im laufenden Betrieb daher schlechterer Wirkungsgrad

Naja das Inter-Tech bietet auch nicht so viel mehr Platz oder? Es hat zwar 8x5,25 Schächte, aber mit Wechselrahmen komm ich auch nur auf max. ca. 8-9 Platten (3,5"). Und auch dann nur, wenn ich kein optisches Laufwerk o.Ä verbaue. Oder übersehe ich da was?
Vorteil ist natürlich wie du schreibst, Backplane. Das hatte ich bisher nicht berücksichtig (da nicht gewusst). Ich schau unter dem Aspekt nochmal.

Das Boot-OS grundsätzlich von den Daten trennen.

Ich würde dafür eine HGST Ultrastar C10K1800 300GB, 512n, SAS 12Gb/s (HUC101830CSS200/0B28810) ab Preisvergleich Geizhals Deutschland nutzen? Oder was würdest du dafür empfehlen?
Das Hauptsystem wäre dann auf einer etwas schnelleren SAS Platte.

EDIT: Oder macht ein SataDOM Sinn für Proxmox? Vermute aber, dass die Speicherzellen zu schnell durch sind (ähnlich zur SSD).

Vielen Dank ansonsten für deine Antwort(en).

wit4r7
 
Zuletzt bearbeitet:
Bie 8 HDDs vielelicht noch nicht ganz so tragisch, aber ohne Backplane funktioniert kein staggered Spinup, mir ist jedenfalls kein Netzteil bekannt, bei dem in den SATA Steckern der Pin 11 unbeschaltet ist >>> Das Netzteil muß Größer sein als eigentlich erforderlich, da der gesamte Anlaufstrom aller HDDs gedect werden muß, im laufenden Betrieb daher schlechterer Wirkungsgrad

Da irrst du dich leider. Netzteile arbeiten im Bereich zwischen 40 und 60% Last am effizientesten. Einfach mal "Wirkungsgrad Netzteile" googeln, es gibt dazu viele Tests.
 
Da irrst du dich leider. Netzteile arbeiten im Bereich zwischen 40 und 60% Last am effizientesten. Einfach mal "Wirkungsgrad Netzteile" googeln, es gibt dazu viele Tests.

deswegen schrieb ich, daß das bei 8 HDDs noch nicht so ganz relevant ist.
Bei 24 HDDs brauchts du ohne staggered Spinup mindestens ein Netzteil, welches mind. 50 A auf der 12 V Schiene kann (48 A für die HDDs) und auch noch den Rest versorgen kann, unter 750 Watt könnte das eng werden,
Wenn das System dann im Idle 150 Watt braucht, sind das gerade mal 20% und da haben viele Netzteile schon einen deutlich schlechteren Wirkungsgrad.
Mit Staggered Spinup versorge ich das Gleiche System mit einem 400-500 Watt Netzteil und lande dann im Idle bei besagter 40-60% Last
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh