[Sammelthread] HP ProLiant N36L/N40L/N54L Microserver

Hat jemand hier die Synology Software als System auf seinem HP installiert? Würde mich interessieren, wie das läuft und welche Möglichkeiten es bietet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab WH2011 drauf und bin damit einfach nicht zufrieden.
Deswegen denke ich drüber nach zu wechseln und xpenology klingt interessant.
War das das OS, dass nicht auf SSDs installiert werden soll?
 
Wie funktioniert das denn mit der Festplattengröße ( VM) ? Ist die im Nachhinein noch zu ändern?
Oder vergrößert sie sich sogar automatisch wie bei anderen virtuellen Betriebssystemen ?
 
Ich habe bisher erst einen Machbarkeitstest gemacht und dafür ein paar VHDs erstellt. Später sollen die Platten komplett an diese VM gehen. Mehr kann ich dir dazu nicht sagen.
Aber ob sich die Festplatte vergrössern oder nicht, legst du eigentlich fest, wenn du die VHDs erstellst.
 
Ok danke !
Kann mal jemand ausprobieren ob DSM mit flexiblen VHDs zurecht kommt? (Also Platten die ihre Größe selbst anpassen)
 
ECC hat Vorteile ja, aber zfs ist auch so gut.
ZFS ohne ECC ist ein Risiko, da haben schon einige ihren Pool wegen RAM Fehlern verloren. Ich würde es nicht machen.

Die einfachste und günstigste Variante wäre also ein eSATA auf SATA Kabel zu kaufen und den rückseitigen Anschluss nach innen zu verlegen.
Eine elegantere Lösung wäre dieses hier.
Da musst Du aber trotzdem ein eSATA-SATA Kabel nehmen um die beiden SATA Ports für zwei Platten bedienen zu können, oder einen SATA Host Controller nachrüsten.
 
Ich habe einen HP 2GB Riegel 669237-071 aus einem Gen8. Links steht noch die Bezeichnung MT9KSF25672AZ-1G6K1ZE

Kann ich den zu dem originalen 2GB Riegel in meinem N54L stecken?

Gruß Jens
 
ZFS ohne ECC ist ein Risiko, da haben schon einige ihren Pool wegen RAM Fehlern verloren. Ich würde es nicht machen.

Da musst Du aber trotzdem ein eSATA-SATA Kabel nehmen um die beiden SATA Ports für zwei Platten bedienen zu können, oder einen SATA Host Controller nachrüsten.



ich zitiere mal gea aus einem anderen Thread:

Würde ich absolut nicht so unterschreiben.

ZFS nutzt Speicher sehr intensiv, deshalb ist ein Dateifehler durch einen Speicherfehler bei ZFS ewas wahrscheinlicher als bei ext oder NTFS.

Stille Plattenfehler sind aber ahnlich wahrscheinlich und können nur mit ZFS erkannt und repariert werden.
Storage ist aber üblicherweise 1000x größer als Speicher. In der Abwägung werden dadurch mehr Probleme beseitigt als geschaffen.

Ist aber schon blöd, wenn man das geringe Restrisiko wegen 10 gesparten Euros beim RAM in Kauf nehmen muss. Mit jedem OS übrigens. Es ist ja nicht so, dass Windows bei einem Speicherfehler keinen Schrott schreiben würde.

...
 
Moin

ich habe exakt das selbe Problem wie hier beschrieben!
Bist Du schon weiter gekommen?

Hallo

Das habe ich gerade eben versucht. jedoch befürchte ich, dass es nicht ganz geklappt hat.

zunächst: im Diskmanager zeigt er meine 4 "alten" Platten an, dann 0 frei und 0 Hotspare. Ich konnte nirgends meine neu angeschlossenen HDs entdecken. siehe Screenshot: http://metal-shot.de/stuff/N45L_DSM_diskproblem.gif


un nun der Reihe nach, ich habe mit PuTTY geladen, gebe meine Diskstation IP ein, klicke auf open. Als Benutzer gebe ich meinen beim Einrichten erstellten User, sammt Passwort ein und folge dann sturr dieser Anleitung.
Jedoch bekomme ich dann eine fehlermeldung, nachdem ich abschließend das :WQ eintippe und enter
http://metal-shot.de/stuff/N45L_DSM_diskproblem_putty.gif

generell sieht mir, ich habe jedoch bis vor 5minuten noch nie mit SSH gearbeitet, das etwas komisch aus, weil ich scheinbar inmitten der Datei anfange etwas rumzuschreiben.

Direkt nach dem ich den Benutzer+Pass eingegeben habe (also im Screenshot außerhalb des scroolbereiches) bekomme ich eine Meldung "login as: admin
admin@192.168.178.250's password:
Could not chdir to home directory /var/services/homes/admin: No such file or directory"

das ganze Putty:
Code:
login as: admin
admin@192.168.178.250's password:
Could not chdir to home directory /var/services/homes/admin: No such file or directory


BusyBox v1.16.1 (2014-05-29 11:29:41 CST) built-in shell (ash)
Enter 'help' for a list of built-in commands.

DiskStation> vi /etc/synoinfo.conf
esataportcfg=0x30

internalportcfg=0xf

usbportcfg=0x1FC0
unique="synology_bromolow_3612xs"
company_title="Synology"

# system options
timezone="Amsterdam"
language="def"
maillang="enu"
codepage="enu"
defquota="5"
defshare="NAS"
defgroup="users"
defright="writeable"
eventsmtp=""
eventmail1=""
eventmail2=""
eventauth="no"
eventuser=""
eventpasscrypted=""
admin_port="5000"
secure_admin_port="5001"
pswdprotect="no"
supportweb="yes"
supportphoto="yes"
support_download="yes"
supportmysql="yes"
supportquota="yes"
supportitunes="yes"
supportddns="yes"
supportfilestation="yes"
supportssl="yes"
supportssh="yes"
supportHTTPS="yes"
supportNFS="yes"
supportrsrcmon="yes"
supportmemtest="yes"
supportmount="yes"
support_fw_security="yes"
support_directory_service="yes"
support_power_schedule="yes"
"/etc/synoinfo.conf" File is read only
esataportcfg=0x30
gin as: admin
admin@192.168.178.250's password:
Could not chdir to home directory /var/services/homes/admin: No such file or dir


internalportcfg=0xf

usbportcfg=0x1FC0
unique="synology_bromolow_3612xs"
company_title="Synology"

# system options
timezone="Amsterdam"
language="def"
maillang="enu"
codepage="enu"
defquota="5"
defshare="NAS"
defgroup="users"
defright="writeable"
eventsmtp=""
eventmail1=""
eventmail2=""
eventauth="no"
eventuser=""
eventpasscrypted=""
admin_port="5000"
secure_admin_port="5001"
pswdprotect="no"
supportweb="yes"
supportphoto="yes"
support_download="yes"
supportmysql="yes"
supportquota="yes"
supportitunes="yes"
supportddns="yes"
supportfilestation="yes"
supportssl="yes"
supportssh="yes"
supportHTTPS="yes"
supportNFS="yes"
supportrsrcmon="yes"
supportmemtest="yes"
I /etc/synoinfo.conf [Readonly] [Modified] 5/332 1%


wo liegt der Fehler?
Nach einem Neustart ist meine neue HDD natürlich immernoch nicht auffindbar.

Danköh


edit:
ok... also root anmelden, nicht mit meinen Nutzer "admin"... mal schauen ob es klappt, er rebootet grade :d




edit2:
ok, habe es mit root noch einmal durchexerziert... auch in der .default... jedoch klappt es nicht.
Wenn ich jedoch einfach nur vi /etc/... eingebe und mit den pfeiltasten runter scroole und äugisch die Einträge suche, stehen dort andere Werte (Adressen?) drin, als die eingetippten - muss das so? kann ich es auch dort einfach ändern?



edit3:
Habe nun wie in edit2 geschrieben zeile für Zeile die conf im /etc/ sowie /etc.defaults/ gesucht und geändert.
Nach einem Neustart habe ich abermals geschaut, ob nun die richtigen Adressen dort so drin stehen, wie ich sie abgespeichert habe- ja

Dennoch wird mir die HD am Sata-ODD nicht angezeigt. Beim Booten wie gesagt, ist sie da.
Es wird alles noch genau so angezeigt, wie oben in dem Eingangsscreenshot


*Ideenlos*
 
ich zitiere mal gea aus einem anderen Thread:
Dann sind wir ja einer Meinung, nur das würde ich nicht so pauschal unterschreiben: "Stille Plattenfehler sind aber ahnlich wahrscheinlich" Die Platten haben alle eine ECC und die erkennt Lesefehler sehr zuverlässig. Die Raten unerkannter Lesefehler, wenn also die Daten falsch sind und trotzdem zur ECC (die ggf. ebenfalls falsch gelesen wurde) passen, ist bei HDDs extrem gering. Dann wird auch bei SATA eine CRC über je maximal 8k bei der Übertragung gebildet und einige Consumer HDDs haben auch gewissen Sicherungen der internen Datenpfade, womit auch dort Bitfehler auffallen sollten. Der kritischste Punkt für Silent-Dara-Corruption beim Heimanwender ist und bleibt das RAM! Wer ZFS will um Silent-Data-Corruption zu vermeiden, sollte erst mal auf ECC RAM setzen, sonst ist es als würde man die Haustür mit 3 Schlössern verriegeln um Einbrecher abzuhalten, aber die Fenster geöffnet lassen.
 
Habe folgendes Problem:
Soeben folgenden Lüfter eingebaut: Noiseblocker NB-eLoop B12-P 120mm, 800-2000rpm, PWM und beim Start dreht sich der Lüfter nicht und vom Bios erhalte ich die Meldung : FAN Missing und das System schaltet sich nach 15sek aus.

Kann da wer helfen?

Lüfter wurde am Rechner getestet und funktioniert einwandfrei, daher kann ich den Defekt des Lüfters ausschließen.
 
Zuletzt bearbeitet:
kann mir jemand jetz auf die schnelle nen guten raidcontroller empfehlen

und hd s sas oder sata?

, ich möchte halt ein raid 5 aufbauen das auch mal ohne grossen aufwand in einen neuen server umziehen kann ?

big tHX im vorraus :)
 
kann mir jemand jetz auf die schnelle nen guten raidcontroller empfehlen
, ich möchte halt ein raid 5 aufbauen das auch mal ohne grossen aufwand in einen neuen server umziehen kann ?
Gar keinen. Also Software-RAID. FreeNAS mit raidz1 (so heißt RAID-5 bei ZFS).
Die 4 Platten im Käfig sind eh schon verdrahtet, eine 5. kannst Du statt des DVD-Laufwerks einbauen und eine 6. an den externen eSATA-Port hängen. Und diese 4, 5 oder 6 Platten kannst Du problemlos in beliebiger Reihenfolge in einen beliebigen anderen Server stecken, FreeNAS booten und den zpool mounten...
 
Ich kann den Einwand von fesh schon nachvollziehen.
Wenn ein dedizierter Controller kaputt gehen sollte, bräuchtest du einen baugleichen um auf das RAID zugreifen zu können.
Aber RAIDs sind ja bekanntlich sowieso kein 100%-Fallback !

Auf Seite 1 findest du eine Auswahl. Den erst genannten 3WARE 9650SE-4LPML Raid-Controller hab ich sehr günstig bei ebay "geschossen". (~ 70 Tocken)
Bin sehr zufrieden damit. Meine 4x 3TB WD Red laufen darüber im RAID5, und 2x 2.5" 500GB WD AV-25 für System am internen im RAID1.
 
Zuletzt bearbeitet:
@al_bepone: Welches Betriebssystem soll den zum Einsatz kommen ?
@TheLordy: Und dieser Controller setzt 18 Watt in Wärme um, schon die 12 Watt eines P212 / P410 sind in dem kleinen Würfel eigentlich zuviel.
Wie lange läuft der Controller den schon bei Dir bei welcher Umgebungstemperatur ?
 
Zuletzt bearbeitet:
Seit Juni 2014 im 24/7-Modus. (Ein Turnus-Reboot zu Jahresbeginn)
Kein Temp.-Sensor am Controller, CPU bei 20% Last ~ 30°C (bei 70-80% Last ~ 45°C). Die HDDs auch so um 30-32°C. Umgebungstemperatur=Raumtemperatur.

Wie du als eifriger Leser dieses Threads aber ja weißt, habe ich in der vorderen Tür einen zusätzlichen 10cm Lüfter,
über einer FanMate II parallel mit dem ersetzten hinteren 12cm Lüfter.
 
Zuletzt bearbeitet:
Dann sind wir ja einer Meinung, nur das würde ich nicht so pauschal unterschreiben: "Stille Plattenfehler sind aber ahnlich wahrscheinlich" Die Platten haben alle eine ECC und die erkennt Lesefehler sehr zuverlässig. Die Raten unerkannter Lesefehler, wenn also die Daten falsch sind und trotzdem zur ECC (die ggf. ebenfalls falsch gelesen wurde) passen, ist bei HDDs extrem gering. Dann wird auch bei SATA eine CRC über je maximal 8k bei der Übertragung gebildet und einige Consumer HDDs haben auch gewissen Sicherungen der internen Datenpfade, womit auch dort Bitfehler auffallen sollten. Der kritischste Punkt für Silent-Dara-Corruption beim Heimanwender ist und bleibt das RAM! Wer ZFS will um Silent-Data-Corruption zu vermeiden, sollte erst mal auf ECC RAM setzen, sonst ist es als würde man die Haustür mit 3 Schlössern verriegeln um Einbrecher abzuhalten, aber die Fenster geöffnet lassen.

Silent Data errors werden nicht vom Rechner durch fehlerhaftes RAM erzeugt, sondern entstehen von alleine mit einer statistischen Wahrscheinlichkeit so wie Eisen an der Luft anfängt zu rosten, daher auch die triviale Übersetzung Datenrost. Und man spricht auch erst dann von Silent Errors wenn man beim Lesen durch Datenprüfsummen auf OS / Dateisystem-Ebene feststellt, dass die Daten verändert sind - trotz Platten ECC das den Fehler eben nicht korrigieren konnte. Fehlerhafter RAM erhöht allenfals die Häufigkeit falscher Daten - dummerweise manchmal vom OS mit der richtigen Prüfsumme versehen - Trügerische ZFS Sicherheit als Folge.

siehe (die Cern Studie ist alt, aber ich kenne halt nichts aktuelleres)
Data corruption is worse than you know | ZDNet

Meine Aussage bezog sich aber mehr auf die häufige Aussage, wenn ZFS dann ausschließlich mit ECC oder garnicht. Das ist so, wie wenn man fragt ob ein sicheres Auto einen Sicherheitsgurt und ESP haben sollte - na klar sagt da jeder. Die Diskussion bei ZFS läuft aber oft so: Wenn du kein ESP hast, dann brauchst du auch keinen Sicherheitsgurt.
 
Zuletzt bearbeitet:
Update Treiberpaket fuer Win7 x64 / Server 2008 R2 / WHS 2011 vom 17.01.2015

Meine aktualisierte eigene Zusammenstellung an Treibern für Win7 x64 / Server 2008 R2 / WHS 2011:

Bitte sehr

Einfach nach "C:\" entpacken, danach befinden sich unter C:\Drv\hppms_g7\ alle genannten Treiber.

Code:
Verzeichnis	Version		Treiberdatum	Beschreibung

amdraid:	3.3.1540.40	10.12.2012	Treiber für den AMD SATA Controller im RAID-Modus
						Dieser Treiber stammt aus der Datei 13.151-130819a-161838C-EDG_Direct.zip
						ebenso wie die Verwaltungssoftware dazu
amdrd_sw:	3.3.1540.24	-		Verwaltungssoftware für den AMD SATA Controller im RAID-Modus


amdsata:	1.2.1.376	23.09.2014	Treiber für den AMD SATA Controller im AHCI-Modus

amdsmbus:	5.12.0.0015	16.03.2011	Treiber für Gerätemanager -> Systemgeräte -> ATI SMBus

aspeed:		6.0.10.99	21.10.2013	Treiber für den Grafikchip auf der Remote Access Card (RAC)

radeon_4200hd:	8.970.100.1100	29.04.2013	Treiber für die integrierte AMD Radeon Mobility 4200HD Grafik
						Dieser Treiber stammt aus der Datei 13-9-legacy_vista_win7_64_dd_ccc_whql.exe

nc107i:		16.6.0.4	07.04.2014	Treiber für den onboard Gigabit Netzwerkanschluss NC107i

sa_drv:		6.28.0.64	28.10.2013	Treiber für den opionalen HP Smart Array Controller (P212, P410, P411)
sa_event:	6.38.0.64	-		Software, um Ereignisse des optionalen HP Smart Array Controllers ins Windows-Log aufzuzeichnen
sa_hpacu:	9.40.12.0	-		Die "alte" Verwaltungssoftware für den optionalen HP Smart Array Controller (HP Array Configuration Utility)
sa_hpssa:	2.0.23.0	-		Die "neue" Verwaltungssoftware für den optionalen HP Smart Array Controller (HP Smart Storage Administrator)
 
Naja also ich möchte schon das raid mit einem Hardware Controller erstellen
Wer Windows drauf laufen lässt, für den macht das vielleicht durchaus Sinn, sonst aber nicht, denn unter Linux ist ein SW-RAID sinnvoller.

Silent Data errors werden nicht vom Rechner durch fehlerhaftes RAM erzeugt, sondern entstehen von alleine mit einer statistischen Wahrscheinlichkeit so wie Eisen an der Luft anfängt zu rosten, daher auch die triviale Übersetzung Datenrost.
Doch natürlich, denn unter Silent Data Corruption versteht man Fehler die sich unbemerkt einschleichen und da ist RAM ohne ECC die Hauptursache und nur wenige User haben zuhause durchgehend Systeme nur mit ECC RAM. Da ist das Größte Risiko das Kopieren der Daten vom oder zum Server an einem Rechner ohne ECC RAM. Raubt man dem N54L noch sein ECC RAM, so ist auch dort das Risko von Bitfehlern im RAM vorhanden, denn alle OS nutzen RAM als Puffer beim Kopieren von Daten.

Und man spricht auch erst dann von Silent Errors wenn man beim Lesen durch Datenprüfsummen auf OS / Dateisystem-Ebene feststellt, dass die Daten verändert sind - trotz Platten ECC das den Fehler eben nicht korrigieren konnte.
Windows hat so eine Prüfsumme nicht, die müsste man extra anlegen und wenn das ECC der Platten den Fehler eben nicht meldet, dann wurden die Daten mit sehr hoher Wahrscheinlichkeit falsch geschrieben oder beim Auslesen ins RAM soeben verfälscht. Die Wahrscheinlichkeit das die ECC einen Fehler nicht erkannt, ist extrem minimal, ebenso die Verfäschung beim Übertragen per SATA, da auch dort pro 8k eine CRC zum Einsatz kommt. Außerdem dem RAM kommen noch die internen Datenpfade der Platte, die sind Enterprise Platten (HDDs wie SSDs) besser gesichert und der Host Controllers in Betracht. Aber vergiss die Idee das ein paar Bits eines Sektors kippen und die ECC der Platte das nicht merkt, das ist extrem unwahrscheinlich, dagegen sind normale Bitfehler im RAM ohne ECC und selbst bei RAM mit einfachem ECC viel wahrscheinlicher.

siehe (die Cern Studie ist alt, aber ich kenne halt nichts aktuelleres)
Data corruption is worse than you know | ZDNet
Ohne geneu Beschreibung der verwendeten HW, Testmethode und vor allem wie die Fehler erkannt wurden, ist das schwer zu beurteilen:
The program The analysis looked at data corruption at 3 levels:

Disk errors.The wrote a special 2 GB file to more than 3,000 nodes every 2 hours and read it back checking for errors for 5 weeks. They found 500 errors on 100 nodes.
Single bit errors. 10% of disk errors.
Das dürfte Übertagungsfehler z.B. auf den internen Datenpfanden der HDD sein oder RAM Bitfehler. Es ist zwar von ECC RAM die Rede, aber ist das wirklich überall aktiv? Nur ECC RAM einzubauen, reicht ja nicht. Der ECC einer Platte wäre so einzelnes Bit aber garantiert aufgefallen.
Sector (512 bytes) sized errors. 10% of disk errors.
Hier dürften wohl von der Platte dann auch Lesefehler gemeldet worden sein, denn das ist der Effekt der UBER und gegen die nur ein RAID, also Redundanz und Scrubbing, also regelmäßige Kontrolle und ggf. Wiederherstellung der Integrität der Daten des RAIDs. (RAID 0 ist kein RAID, das ist nur ein AID.)
64 KB regions. 80% of disk errors. This one turned out to be a bug in WD disk firmware interacting with 3Ware controller cards which CERN fixed by updating the firmware in 3,000 drives.
Das war nun ein spezieller Fall, kann aber überall lauern, vor allem bei exoitischen Kombinatinen von HDD und Controller, am Chipsatz sollte das Risiko geringer sein.

RAID errors. They ran the verify command on 492 RAID systems each week for 4 weeks. The RAID controllers were spec'd at a Bit Error Rate of 10^14 read/written.
RAID Controller? Das ist die typische Angabe für Consumer HDDs, die haben aber auch keinen guten Schutz der internen Datenpfade und wenn er das verwechselt hat und die Angaben von der Platte sind, dann wären die 1 Bit Fehler auch schnell erklärt. Wenn jemand eine solche Angabe für einen RAID Controller selbst finden, dann poste er bitte den Link zum entspechenden Datenblatt des Controllers.
The good news is that the observed BER was only about a 3rd of the spec'd rate. The bad news is that in reading/writing 2.4 petabytes of data there were some 300 errors.
Was zu erwarten war, denn die unkorrigierbaren Bitfehler sind ein reales Problem und führen eben dazu, dass die Platte auch dann eine Lesefehler meldet, womit es also keine Silent Data Corruption ist.
Memory errors. Good news: only 3 double-bit errors in 3 months on 1300 nodes. Bad news: according to the spec there shouldn't have been any. Only double bit errors can't be corrected.
Das ist einfache ECC und das die nicht alle Fehler verhindert, ist auch bekannt, ebenso das RAM Fehler öfter vorkommen als die meisten User glauben. Das ECC RAM war für mich ein sehr gewichtiges Argument für den N54L und auch gegen ein normales NAS.

Erweiterte ECC RAM Techniken wie IBM's Chipkill, Sun Microsystems' Extended ECC, Hewlett Packard's Chipspare und Intel's Single Device Data Correction wurden ja nicht zum Spaß entwickelt, sondern weil auch einfache ECC noch immer Fehler zulässt, selbst unbemerkte, aber eben um Größenordnungen weniger als RAM ohne ECC.

Bzgl. ZFS und ECC muss das jeder mit sich ausmachen, unsere kleinen HP Würfel unterstützen ECC und damit ist der einzige Vorteil von Nicht-ECC RAM, der Preis, schon mal geringer weil die Plattform ja schon kann. Sonst ist der Aufpreis für eine ECC fähige Plattform ja meist höher als der für das RAM selbst ist. Bei normalen Filesystemen gibt es nur dolche Fehler:
Deshalb kommt da auch kaum einer als RAM Fehler. Beim ZFS was ja viel im RAM ablegt, kann es einem den ganze Pool zerlegen wenn RAM Fehler auftreten, ZFS ist für ECC RAM in Enterprise HW entwickelt worden:
ZFS does not rely on the quality of individual disks. It uses parity to verify that disks don't lie about the data stored on them (data corruption).

But ZFS can't verify the contents of RAM memory, so here ZFS relies on the reliability of the hardware. And there is a reason why we use RAID or redundant power suplies in our server equipment: hardware fails. RAM fails too. This is the reason why every server product by well-known vendors like HP, Dell, IBM and Supermicro only support ECC memory. RAM memory errors do occur more frequent than you may think.

ECC (Error Checking and Correcting) RAM corrects and detects RAM errors. This is the only way you can be fairly sure that ZFS is not fed with corrupted data. Keep in mind: with bad RAM, it is likely that corrupted data will be written to disk without ZFS ever being aware of it (garbage in - garbage out).

Please note that the quality of your RAM memory will not directly affect any data that is at rest and already stored on your disks. Existing data will only be corrupted with bad RAM if it is modified or moved around. ZFS will probably detect checksum errors, but it will be too late by then...

To me, it's simple. If you care enough about your data that you want to use ZFS, you should also be willing to pay for ECC memory. You are giving yourself a false sense of security if you do not use ECC memory. ZFS was never designed for consumer hardware, it was destined to be used on server hardware using ECC memory. Because it was designed with data integrity as the top most priority.

There are entry-level servers that do support ECC memory and can be had fairly cheap with 4 hard drive bays, like the HP ProLiant MicroServer N54L.

I wrote an article about a reasonably priced CPU+RAM+MB combo that does support ECC memory starting at $360.

If you feel lucky, go for good-quality non-ECC memory. But do understand that you are taking a risk here.
RAM Fehler beim Scrubbing werden Dir dann die schleichende Datenkorruption erzeugen, gegen die Du sich absichern wolltest. Wenn Du kein Scrubbing macht, passiert die Datenkorruption aber auch irgendwann.

Um bei Deinem Autobeispiel zu bleiben: Wenn ich ESP (ZFS) habe, kann ich ja ruhig auch im Winter bei Eis und Schnee mit komplett abgefahreren Reifen wie ein besenkter durch die Kurven fahren, das ESP wird es schon richten. Aber wären ein angemessener Fahrstiel und frische Winterreifen viel besser, denn wenn die Haftung zur Straße fehlt, dann nutzt ESP nichts mehr.
 
Zuletzt bearbeitet:
Mangels einer ausreichend umfassenden Studie wieviel Datenkorruption auf

1.
- Langzeitveränderung der Daten auf dem Datenträger
- Transfer Fehler
- Elektromagnetische Interferenzen
- Firmware Bugs
- Software Bugs
- Schlechte Stromversorgung
- Controller Probleme
- ..

oder auf 2.
- Fehler die durch unerkannte RAM Fehler durch Verzicht auf ECC entstehen

bleibe ich bei meiner Aussage.
Wenn einem Daten wichtig sind, muss man beides Bekämpfen.

Man kann aber nicht beides gegeneinander stellen in der Art, wenn ich
Probleme von 2. nicht verhindern/erkennen kann, dann muss ich auf
alle Massnahmen wie ZFS mit CopyOnWrite und Prüfsummen verzichten die
gegen 1. gerichtet sind. (Wenn kein ECC dann auf keinen Fall ZFS).

Dies wäre nur dann korrekt, wenn die große Mehrzahl aller Datenfehler bei
ZFS auf RAM zurückzuführen wären. Dass dem nicht so ist weiss jeder, der trotz
ECC Speicher gar nicht mal so selten Reparaturen beim ZFS Scrubbing feststellt -
ohne dass unentdeckte RAM Fehler schuld sein können. Auch die Cern Studie
legt dies nahe.


Ansonsten:
Niemand behauptet dass ECC RAM ein überflüssiges Sicherheitsfeature ist.
(und das mal ganz unabhängig vom OS oder Dateisystem)

Auch ZFS Storage braucht Backups (Wobei ich die in der Vor-ZFS Zeit öfters
gebraucht habe und seit zwei Jahren nur um auf Langzeit-Snaps zuzugreifen).
 
Zuletzt bearbeitet:
also bitte steinigt mich nicht !!! ist der n36 stark genug für ein esxi? macht es überhaupt sinn ? wollte halt freenas und so ein windows server 2012 essentials drauf hauen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh