Neue Server Firmennetz

MIT drauf machen hab ich geschrieben. ESXi OS drauf, rest vom Platz für vms
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was sagt dir denn nicht zu?
waren nur Vorschläge, kann man natürlich ändern :-)
Beim Board würde ich gerne bei Supermicro bleiben. Hatte mit denen noch nie Probleme.
HW Raid Controller ist mit ZFS ein no-go daher auch ein HBA in meiner Konfig.
Ansonsten ist die Konfiguration bis auf den RAM ja sehr ähnlich (abgesehen vom Hersteller).
Würde trotzdem lieber meine 2011-3 2,5" Konfiguration beibehalten mit der Änderung der CPU und eventuell noch 4x SSD für die VMs und dafür einen USB+SataDom für ESXI und Napp-IT.
 
Ich würde zwei Sockel 2011v3 basierende Systeme verwenden und einrn günstigen Management-Server (physikalisch) dazu.

Für dein Vorhaben dürfte RAM wichtif sein, 32GB pro Server ist sicher in Ordnung (du hast recht viele Rollen/Services).

Zur Virtualisierung kannst du auch mal XEN anschauen, das ist sehr etabliert, kostenlos und bietet viele Funktionen die bei der Konkurrenz teuer wären.

Ich kenns einfach von etwas grösseren Firmen.

SAMBA und Linux LDAP sind zur Administration nicht grade komfortabel.

Da fährst du ganz Windows basiert halt etwas besser.
Und Server selber bauen im Produktiven Umfeld? Ne.

Du wirst dich später herrlich aufregen über fehlende Wartungsverträge.
Ich überbeisse jeweils schon fast wenn ich bei HP oder Partnern Ersatz-Disks bestellen muss, das ist sogar MIT Wartungsvertrag nervig und raubt Zeit die man als IT Admin eigentlich für andere Dinge braucht.
 
Zuletzt bearbeitet:
Ich würde einen Barebone kaufen, z.B. SuperServer 2028R-C1R4+ (für 2,5") oder SuperServer 6028R-WTR(für 3,5"). Da passen Board und Chassis zusammen und die Kühllösung stimmt auch mit passendem Airshroud. Wenn der Platzbedarf nicht gigantisch gestiegen ist, würde ich SSDs im RAID 1 verwenden. Bisher waren ja wohl nur 750 GB vorhanden.
 
So, nach einer etwas längeren Pause durch das warten auf die Entscheidung des Bosses wird sich denke ich doch einiges ändern.
Es ist nun geplant, den Server selber zu bauen (ist die Entscheidung vom Chef an der sich auch nichts machen lässt).
Nun soll der Server auch geleased werden (hier mit muss ich mich zum Glück nicht beschäftigen, das hat sich der Chef selber auf die Kappe geschrieben).
Nun zu meiner eigentlichen Frage.

Vernünftig wäre eigentlich die Empfehlung eine andere Firma zu suchen.
Machst du bei euch bei 15 Leute nur EDV? Ok, dann kann man mit dem Projekt auch Vollzeit ausgelastet werden.

Dein Problem ist nicht allein die Hardware.

Versuche noch mal dem Chef den Selbstbau auszureden. Never ever bei einem Server. Wenn der irgendwo spinnt musst du ergründen, von welchen Teil es herkommt.
Und wer soll das überhaupt verleasen?
Schon die 60 Varianten... da hätte ich als Chef auch keine Bock.
Dringend! Systemhaus . Denn den schönen SBS 2008 gibts halt so nicht mehr. 5 Jahre Ruhe hast du nur durch einen neuen Server nicht, da die Software aus dem Support läuft.

Wer Supported den Server wenn du im Urlaub bist? Der Chef? Da will er doch keine Frickel-Lösung haben. Da will er bei HP/Dell oder wo auch immer anrufen, das Teile getauscht werden.

Grobe Richtschnur:
z.b. Dell T430 mit 2x E5 und 64-128GB ram. 2x 300GB 10K als Boot und 12x 1,2TB 10K als R10/50 für die VM's + 2x Hotspare. Gerne auch Read Intense SSD's. Kommt halt aufs Budget an?!

Zweiter Server für Backup. Das wird so nicht mehr auf einer Kiste laufen. Und wenn > Frickel. Kann ja ein kleiner sein, mit billig SATA HDD's und da dann das LTO für Backups? Oder von mir aus USB Platten. Aber da liegen dann die Backups der VM's.

Neue Lizenzen für Exchange, AD und Clients. Sowie Anzahl X an Windows OS. Wohl auch neues Arcserve ? Besser noch gleich Veeam nehmen.

Hypervisor der Wahl. Meine Empfehlung Vmware. die 400€ für Essentials lohnen.

Da hättest du schon ein gutes/größeres Paket zum anfragen, um gute Preise auszuhandeln. Je nach Firma gleich inkl. Dienstleistung.

Weiter kommt ja noch die Datenmigration.

So schön sich einen neuer Server "zusammenklickt"... die Probleme liegen doch an viel mehr Fronten.
 
Als Bemerkung noch: ESX nicht auf nem USB - Stick. Das geht nicht lange gut, zumindestens das Ding nicht als LOG-Ziel verwenden.
Warum möchte der Chef denn Selbstbau? Ein ordentlicher, selbstgebauter Server ist nicht unbedingt günstiger, als ein z.B. DELL Poweredge oder HP ProLiant.
Nen ordentlichen R730 / R530 bekommt man auch schon recht günstig, dann hat man auch beim RAM noch Ausbaumöglichkeiten, falls es mal eng wird.
Tipp: Bei 30 Usern braucht das AD / der DC nicht unbedingt fett resourcen, am besten als Core Install aufsetzen, ein wenig RAM, gut ist. Diesen natürlich als separate VM.

Hardware Raid: Warum Abneigung hier? Ich habe da sehr gute Erfahrungen mit gemacht, Software Raid ist irgendwie....naja...:)

TL;DR: Setze auf einen Markenhersteller mit Supportcontract, gerade bei so kleinen Firmen ist sonst, wenn der Laden steht, der ITler schnell der Böse, auch wenn vorher der Boss alles gut fand :)
 
warum soll ein USB-Stick nicht auf dauer gut sein?
klar legt man das Log auf das Raid.

zum Raid Thema geb ich dir absolut recht


Würde aber auch einen fertigen Server kaufen, egal ob Dell, HP oder Intel ...
Support ist alles wenns mal brennt ...
 
USB Stick: Persönliche Erfahrung. Wir hatten hier, leider Standortübergreifend, USB Sticks im Einsatz und die sind alle nach kurzer Zeit "verbrannt" (trotz Log Move). Jetzt nutzen wir die SD - Cards von DELL im Mirror (kleine Steckkarte für den Server, intern) oder, ganz "dekadent", 2x300 GB SAS im R1 für den Hypervisor.
 
2. Stick zur Sicherheit oder LiveImage machen?
wenn man Pech mit einem STick hatte, kann ich das verstehen

machen das schon seit Jahren in unterschiedlichen System, bis jetzt neie Probleme (nutze allerdings nur einen bestimmten Stick)
 
So, nach kurzer Krankheit komme ich nun wieder zum Antworten.

Ich würde auch lieber einen fertigen Server kaufen. Der Chef sagt aber nein, was will man machen...
Zum Thema Hardware-Raid: Vor einigen Jahren (war da noch nicht in der Firma, keine Ahnung obs stimmt) gab es wohl mal einen Controller Ausfall, der damit einiges geschrottet hat.
Software-Raid mit ZFS sehe ich sogar als ausgereifter an als HW Raid.

Wir hatten auch ein Angebot von Fujitsu angeholt, sitzen 30 Minuten weit weg, HW Support etc wäre dabei gewesen. Wurde von der Chefetage abgelehnt.

Support für den Server wenn ich mal nicht da bin soll der Junior-Chef machen, ich traue es ihm zwar nicht zu, aber er sagt er macht das. Habe ja auch für jeden kleinen Schritt Dokus die selbst nen Dummie verstehen kann und Images etc sind auch alle da. Das sollte also kein Problem sein. Ewig plane ich aber auch nicht zu bleiben.

Lizenzen etc sind alle schon geplant.
 
Das Thema Selbstbau vs. Markenserver habe ich grad selber am Wickel!!

Die "White-Box" wurde letztes Jahr zusammengesbaut und lief ca. ein 1/2 Jahr mit (un)regelmässigen) Störungen, die sich eigentlich immer auf den LSI-Controller reduzieren liessen.

Es ging damit los, daß der Xeon Gen 6 nicht mit dem Board lief, da BIOS Version zu alt >> Neuen BIOS Chip von AsrockRack bekommen.

Als nächstes schon bei der Inbetriebnahme festgestellt, das der LSI Controller (LSI3008) auf dem Mainboard zu heiß wird. (ohne wirkliche Last nach ca. 15-20 Minuten ausgestiegen) >> also einen kleinen 40er Lüfter mit ordentlichem Kuftdurchsat auf den Kuhlkorper montiert.

System Instaliert
- ESXi mit Nas4Free als Storage-VM mit durchgereichtem LSI Controller und 4 SSD Mirror-Pools (VM Storage via NFS an ESXi, Exchange Log und Exchange Data via iSCSI an Exchange VM sowie Data für SMB/Cifs)


Mindestens 1x pro Woche hat die N4F VM die Karten gelegt weil der LSI Controller rumgespackt. Damit hat der ESXi den Kontakt zum NFS Datastore verloren, die Exchange VM den Kontakt zum Log & Data Device und sämtliche VMs sind abeschmiert.
Wenn ich Glück ahtte und das schnell genug bemerkt habe, konnte ich die VMs noch anhalten, und brauchte nur die N4F VM rebooten.
Die Reklamation des Mainboards zieht sich mittlerweile 5 Monate hi - typisch: "Kein Fehler festgestellt"
Beim 2. Anlauf ist jetzt das Board ausgetaucht worden, ich fange aber wieder von vorne an >> altes BIOS *grrr*

Ausfühlicher: ESXi Whitebox - ARRRGHHH! - VMware-Forum


Der Ersatzserver, der kurzfristig gekauft wurde (Lenovo) wure installiert und läuft seitdem ohne eine einzige Störung (Allerdings mit ESXi native Storage, ohne ZFS StorageVM)

Der Lenove war rein von den Hardwarekosten rund doppelt so teuer, Die Supportkosten für den Selbsbau haben diesen Vorteil aber bei weitem überschritten.

Andererseits hatten wir davor mit den gekauften fertigen Servern von ICO ebenfalls massive Probleme gehabt, da war Cheffe allerdings mit dran Schuld (billige Fake-Raidcontroller statt vernünftiger Hardware-Raidcontroller -es nützte auch nichts, daß die von Adaptec waren und relativ teurer waren als Promise, SiL etc.).
 
Zuletzt bearbeitet:
OK, wenn der Chef entschieden hat, dann muss er es halt auf die harte Methode lernen :)
Naja, Whitebox kann natürlich auch gutgehen, wir werden sehen.

HW Raid: Also Raid ist nur Ausfallsicherheit, keine "Datensicherheit", dafür gibt es Backups (Mein Chef: Backups sind nicht wichtig, Hauptsache Restore funktioniert :) ) Bisher laufen meine HW Raids alle wunderbar (diverse R5, R6, R1, R10), einen Test mit SW Raid war bisher nicht so toll (Windows, ich bin zu doof für Linux, vllt ist es da wirklich besser, habe ich noch nicht probiert). Wenn ein Controller aussteigt, sollte ein ähnlicher Controller vom gleichen Hersteller die Daten / Raid Infos wieder einlesen können ("Foreign Config Import" bei DELL, gerade vom H710 -> H310 ausprobiert, ging gut)

Bitte berichten, wie der Aufbau am Ende ausgegangen ist, würde mich interessieren.
 
Mich würde auch eine Rückmeldung während / nach dem ersten Ausfall interessieren :fresse:

Leider ist es häufig so, dass Chefs von IT wenig bis keine Ahnung haben. Brauchen sie ja auch nicht, da es dafür entsprechendes Personal bzw. Dienstleister gibt und der Chef sich um seine Aufgaben kümmern sollte. Dennoch glauben Chefs regelmäßig, dass "IT ja nicht so schwer sein kann" und sie es deshalb auch könnten *seufz*

Du kannst deinem Chef ja mal die Kosten für einen Server mit entsprechendem SLA hinlegen und ihm dann mal vorrechnen, wie viel Geld er für jeden Tag Stillstand verliert.
Das fängt an mit Aufträgen, die verloren gehen / nicht erfüllt werden, da ja keine Mails mehr ankommen bzw. verschickt werden, über Außendienstler die nicht mehr an ihre Daten kommen, da das VPN tot ist sowie Innendienstler, die nur noch däumchen drehen können, aber trotzdem ihre Arbeitszeit bezahlt haben wollen. Erweitere diese Liste nach belieben, dass sollte den Chef schnell auf den harten Boden der Tatsachen aufschlagen lassen.

Um dir dazu mal ein praxisnahes Beispiel zu nennen: Bei mir in der Firma gab es früher auch mal ein selbstbau Storage. Irgendwann hat der Raidcontroller wahrlos Platten verloren. Bis zum vollständigen Abschalten der Kiste war dann dieser Port "tot" und erkannte keine Platte mehr. Nach ein paar Minuten ohne Strom funktionierte der dann meistens wieder für eine Zeit von X bis der selbe oder ein anderer Port wieder abgeschmiert ist. Es hat damals ettliche Monate mit regelmäßigen Ausfällen, hunderte Euro für neue Platten, Controller, Kabel usw. und natürlich meine Arbeitszeit gekostet um festzustellen, dass das Problem nicht die Platten, Controller, Kabel usw. waren.
Nachdem sich dann auch noch mehrere Ports pro RAID gleichzeitig verabschiedet hatten, ich so terabyteweise Daten von den Tapes restoren durfte und die Mitarbeiter in dieser Zeit mehr oder weniger arbeitsunfähig waren ist dann bei den Chefs auch endlich der Groschen (oder besser gesagt das Budget für eine neue Maschine mit Servicevertrag) gefallen.

Wenn da jetzt was mit ist, hat innerhalb der SLA Frist ein Techniker auf der Matte zu stehen und muss sich darum kümmen, dass die Kiste wieder rennt. Wie er das schafft, kann mir in dem Moment egal sein. Ich hatte da auch schon mal den Fall, dass ein Ersatzteil extra eingeflogen werden musste oder die mir am nächsten Tag eine Austauschmaschine geliefert haben.

HW vs. SW Raid: Software Raid unter Windows kann man knicken. Unter Linux mit mdadm ist es aber durchaus brauchbar und performant. Getoppt wird das ganze nur noch von ZFS, wenn mans richtig macht. Da du aber unter ESXi virtualisieren willst, bleibt aber eh nur ein Hardwareraid und darauf dann der VMFS Datastore oder eine StorageVM mit NFS oder iSCSI Freigabe.

Und um zu guter letzt mein Beispiel noch aufzulösen: Es war die Backplane. Leider hatte die Ersatzbackplane den gleichen Fehler...
 
Wir haben nur Server in Vollwartung und hatten ans Systemhaus folgende Aufgabe gestellt: Mehr Performance für ein Applikation.
Leider skaliert die Applikation anders als erwartet - trotz Abtausch der untergelegt Hardware (VM auf ESX, alter Server Xeon 2xxx mit 8x 2,8GHz - Nachfolgeserver Xeon 2xxx-V3 mit 12x2,66GHz) war die Applikation deutlich langsamer. - einzelne Kurztests mit verschiedenen Benchmarks haben zwar belegt, das die neue CPU mehr Leistung hat, aber ging halt nicht - am Ende hat uns das Systemhaus nun ein Server mit Xeon -v3 und 8x 3.2GHz hingestellt - und die Applikation läuft hui ;) - Aufwand unsererseits: 2PT - Laufzeit bis zur Zufriedenstellenden Leistung 6 Wochen - extern übers Systemhaus mit verschiedenen Konfigurationen getestet - Bezahlt haben wir nur die Differenz der CPUs, da die 3.2GHz Xeons 600€ Aufpreis (insgesamt) ausmachten.

Wenn ich mir vorstelle, das alles selber machen zu müssen, zumal vermutlich die Kosten für verschiedene CPUs und deren eher schwerlicher Wiederverkauf noch mit reinkommen, dann steigt der Aufwand ganz schnell in Bereiche, in denen sich auch der Chef die Frage gefallen lassen muss, wo ist da der RoI ? - hast Du ihm den denn mal vorgerechnet?
 
Wir haben nur Server in Vollwartung und hatten ans Systemhaus folgende Aufgabe gestellt: Mehr Performance für ein Applikation.
Leider skaliert die Applikation anders als erwartet - trotz Abtausch der untergelegt Hardware (VM auf ESX, alter Server Xeon 2xxx mit 8x 2,8GHz - Nachfolgeserver Xeon 2xxx-V3 mit 12x2,66GHz) war die Applikation deutlich langsamer. - einzelne Kurztests mit verschiedenen Benchmarks haben zwar belegt, das die neue CPU mehr Leistung hat, aber ging halt nicht - am Ende hat uns das Systemhaus nun ein Server mit Xeon -v3 und 8x 3.2GHz hingestellt - und die Applikation läuft hui

Nun, das hätte wohl vielen passieren können. dein alter Xeon E5-2680/2690 v1 nehme ich mal an hat halt einen wesentlich höheren Turbo-Takt erreicht als der wahrscheinliche E5-2685 v3. Bei allen CPUs macht der halt nur 2 Turbo-Stufen, ergo 2,8Ghz. der E5-2690 v3 wäre da mit 5 wesentlich besser.
Unter Vmware kann man sich gleich nur den Allcore Turbo anschauen. Sprich in den Listen bei Wikipedia ganz links.
Leider sind die Infos zum Teil gar nicht so einfach zu finden. Zumeist wird nur der max turbo bei einem Kern genannt. Ist ja vom Marketing auch besser.

List of Intel Xeon microprocessors - Wikipedia

List of Intel Xeon microprocessors - Wikipedia

Aber das ist dann doch am Thema vorbei... also schnell wieder back to topic. :d
 
Zuletzt bearbeitet:
Ich hole den Thread mal kurz hoch; ich stehe vor einer ähnlichen Aufgabe und bin mir bei der Plattformwahl bzw. dem RAM nicht sicher. Was ergibt für die hier angesprochenen Aufgaben mehr Sinn: DDR4-ECC oder DDR4-Reg-ECC? Ich benötige eigentlich wenig CPU-Leistung.
 
Registered nimmt man, wenn man VIIIEEEEL RAM braucht - so ab 4x32 GB, bei 4x16 GB darf man mal vorsichtig darüber nachdenken, darunter nicht.
RDIMM ist langsamer als UDIMM.
 
Reg. nimmt man, wenn es unterstützt wird, also ab Xeon E5. Die Funktionssicherheit ist halt etwas höher. Es erlaubt größere Module und ist, da unbuffered ECC ein Nieschenprodukt ist, oft günstiger. Manche größere Serverbretter unterstützen gar keinen unbuffered RAM. Der Geschwindigkeitsunterschied ist minimal.
 
Wenn man 4GB Module im Preis vergleicht mag das stimmen. Ab dem 8GB Modul kosten unbuffered ECC ein mehrfaches des registered ECC. Und die Sache mit dem Stromverbrauch stimmt auch nicht. Auf registered Speichern werden RAM Chips eingesetzt, deren Treiber auf den Datenleitungen anders dimensioniert sind, da der einzelne Chip nur den Weg bis zum Register mit Energie versorgen muss. Nur Das Register (der Buffer) muss die Energie aufbringen um den Bus bis zur CPU zu versorgen. Da es sich hier um Hochfrequenz im Gigahertzbereich handelt, wo es auf Signalqualität ankommt (am Ende des Übertragungswegs sollte also noch ein Rechteck ankommen) wird für den Weg vom DIMM Sockel bis zur CPU entsprechend mehr Leistung benötigt als innerhalb des DIMMs.
 
Ein Blick in die Datenblätter von RDIMM und DIMM zum Thema Leistung in Watt ist alles was man braucht - oder was glaubst du warum jetzt LRDIMM entwickelt wurde?
Bestimmt nicht weil RDIMM so schön sparsam ist.

Wobei FB-DIMM schlimmer waren!

RDIMM belastet die Ausgangstreiber vom Speichercontroller weniger und sind daher für Vollbestückung mit großen Speicherriegen unabdingbar.
mit 4 Riegeln a'32 GB sind die Ausgangstreiber der Speichercontroller der CPU Leistungstechnisch am Limit, daher ist es auch bei 4x32GB breits empfehlenswer RDIM einzusetzen, mit dem angenehmen Nebeneffekt, daß die Geschichte auch bei Dauerbtrieb absolut stabil läuft.
Die gleiche Konfiguration mit UDIMM läuft tendenziell instabil, da am Limit

AL12M72B8BKH9S
4 GByte DDR3, Registered, ECC, 2 Rank, Speicherchips mit 256Mx8 Organisation (2 Gbit Chips) 2,934 Watt 0,73 Watt/GByte

AQ12M72E8BKH9S
4 GByte DDR3, Unbuffered, ECC, 2 Rank, Speicherchips mit 256Mx8 Organisation (2 Gbit Chips) 2,214 Watt 0,55 Watt/GByte
 
Zuletzt bearbeitet:
Vielen Dank für die Rückmeldung; wenn der Unterschied nicht so groß ist (nicht so wie ECC ja/nein), dann konzentriere ich mich auf andere Eigenschaften.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh