Freeman303 Workstation Fragethread

freeman303

Enthusiast
Thread Starter
Mitglied seit
01.08.2006
Beiträge
631
Ort
Schwarzwald/Bodensee (z.Zt. auf bestimmte Zeit bei
Hallo,

ich möchte mich bei Euch nach einem vernünftigen Systemlaufwerk für meine Workstation erkundigen.

Die Software:
Als Betriebssystem läuft auf meiner Workstation der Windows Server 2008 R2 umkonfiguriert auf Workstation-Use.

Gearbeitet wird hauptsächlich mit der folgenden Software:
Visual Studio 2015 (C#, C++, Web Anwendungen, Datenbank Anwendungen)
Microsoft SQL Server Standard (Datenquelle für Visual Studio Projekte)
Adobe Photoshop (Fotobearbeitung von Bildern die aus einer Nikon D810 kommen = 36 Megapixel im RAW Format)

Oft wird gearbeitet mit:
Microsoft Office und Web-Browser (Mozilla & IE)

Manchmal wird gearbeitet mit:
Auto CAD
VMware Workstation (zum Testen von Software, für Linux und Kleinigkeiten)
Elektronik CAD-Programme und Elektronik Simulationen wie PSpice, etc.

Eher selten wird gespielt:
Starcraft 2, Diablo 3, Anno, Half Life, DOOM, etc.

Die aktuelle Hardware ist die folgende:
Intel Xeon E3-1271v3 Haswell
32 GB RAM DDR3 ECC
AMD Radeon HD 7970 3GB
Samsung 840 Pro 256GB
Seagate 2,5“ 750GB 7.200rpm SATA

Sollte mal der Hauptspeicher von 32 GB nicht mehr ausreichen, was manchmal vorkommt, möchte ich ein Upgrade durchführen.

Entweder auf einen Xeon E3 Skylake oder auf einen Xeon E5 Haswell, da damit ein maximaler RAM von 64 bis 128 GB ermöglicht wird.

Im gleichen Zug möchte ich dann den Systemdatenträger tauschen, da die Samsung 840 Pro mit 256GB mir zu klein ist und sich auch nicht mehr so wirklich schnell anfühlt (ggf. Gewohnheit?).

Es kämen drei mögliche SSDs zur Auswahl:

eine Samsung 850 Pro 512GB oder 1TB

oder eine Samsung SM863 480GB oder größer.

oder gleich eine Intel SSD 750 mit 400GB.

Welche SSD sollte bei obiger Softwareausstattung und genanntem Anwendungsschwerpunkt gewählt werden?

Ob ich von der Intel 750 booten kann, weiß ich nicht. Das wäre aber wichtig.

Die Samsung SM863 ist eine Server/Workstation SSD und hat Power-Loss Protection, wie die Intel 750 auch.

Die Samsung 850 PRO ist eine Desktop-SSD ohne Power-Loss Protection. Sie hat auf dem Papier mehr IOPs, als die SM863.

Interessant wäre, wie sich beide Samsungs beim Steady State verhalten? Allerdings ist noch interessanter, ob ich mit meinen Anwendungen überhaupt in den Steady State reinkomme. Wie kann ich das genau unter Windows prüfen?

Vermutlich wären die SATA-Modelle weniger problematisch, als die PCIe Lösung, da dann keine NVMe Unterstützung nötig wäre.

Ist meine oben genannte Nutzung der Workstation eher was für eine Intel 750 oder Samsung SM863 oder eher was für die Samsung 850 Pro? Also eher was für eine Server/Workstation SSD oder eher was für eine Desktop SSD? Wo zieht man da die Grenze?

Angenommen ich nehme eine Server-SSD (wie die Intel 750 oder SM863). Hätte ich mit einer Intel 750 oder SM863 Geschwindigkeitseinbußen im Vergleich zu einer Samsung 850 Pro zu befürchten, wenn ich diese Server-SSDs irgendwann in einer reinen Office + Web-Browsing-Umgebung einsetzen würde, wofür eigentlich die Samsung 850 Pro vorgesehen ist?

Welche Vorteile und Nachteile hätte ich, wenn ich für die obige Workstation eine Samsung 850 Pro nehmen würde?

Würde mich freuen, wenn ihr eingrenzen könntet, ob man hier bereits im Bereich von Server/Workstations SSDs liegt oder immer noch bei Desktop SSDs?

Die Wahl einer SSD wäre auch hilfreich, sowie die Begründung für die Auswahl.

Aber vielleicht gibt es da noch andere SSDs, die ich nicht berücksichtigt habe? Bin gerne für Vorschläge offen.

Freue mich auf Eure Antworten.

Grüße
Freeman303
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Als Betriebssystem läuft auf meiner Workstation der Windows Server 2008 R2 umkonfiguriert auf Workstation-Use.

Hattest du zuviel Geld oder bekommst du das OS geschenkt?
Ich kann in deiner Anwendungsliste kein Programm entdecken, welches ein ServerOS erfordert!

Ansonsten ist Frage doch ganz einfach zu beantworten, benötigst du zwingend "PowerlossProtection". Das ist durchaus auch eine Frage der Backupstrategie.

Lass dich nicht von der IOPS Zahl blenden, bei Consumer SSDs wird hier der "Best-Case" angegeben, bei Enterprise quasi eine Art Mittlelwert bzw. ein dauerhafter (sustained) sozusagen garantierter Wert.
 
Ich habe diese Lizenzen von der Firma geschenkt bekommen, als sie auf Unix umstellten.

Verwende das Server-BS sogar auf dem Notebook. Läuft deutlich stabiler, als Win7 davor darauf lief. Mich wundert das sehr, zumal Win7 und Server 2008 R2 den gleichen Kernel verwenden sollen. Einen bleuen Screen habe ich seitdem nicht mehr zu Gesicht bekommen.

An Workstations hängt eine USV. Ob da Powerloss-Protection ein MUSS ist, denke eher nicht.

Das mit den IOPs weiß ich. Deshalb schreibe ich hier. Ich habe nämlich Probleme die drei genannten SSDs zueinander vergleichbar zu machen.
 
Jetzt auf Xeon E5 Haswell umsteigen, oder unbedingt auf E5 Broadwell warten?

Hallo,

ich habe momentan einen Server auf Xeon E3 Quadcore Haswell Basis mit 32 GB RAM.

Problem ist, dass immer öfter das RAM knapp wird.

Jetzt habe ich zwei Möglichkeiten:

Server auf Xeon E3 Skylake Quadcore mit 64 GB RAM Basis bauen.

ODER

Server auf Xeon E5 Haswell Hexacore bzw. Octacore mit 64 MB oder 128 MB ECC RAM bauen.

ODER

Server auf Xeon E5 Broadwell Hexacore bzw. Octacore mit 64 MB oder 128 MB ECC RAM bauen.
Wenn da das Problem nicht wäre, dass E5 Broadwell nicht verfügbar ist und keiner genau sagen kann, wann die Broadwell-Xeons in DE verfügbar werden.

Was würdet ihr tun, wenn ihr die Preise für E5 Haswell Komponenten auf dem Gebrauchtmarkt bedenkt und auch die vermutlichen Neupreise der E5 Broadwell CPUs?

Ich hätte dazu noch die folgenden Fragen bzw. Denkanstöße:

* Energieverbrauch von E3-Skylake, E5-Haswell, E5-Broadwell. Gibt es irgendwo im Netz die Idle-Verbräuche nachzusehen von den entsprechenden E3 und E5 Xeons? Macht sich die geringere Strukturbreite von 14nm im Skylake bemerkbar, wen es um den Idle Verbrauch geht?

* Der Skylake hat wohl einen bösen Performance Bug (PI-Berechnungen für Prime-Tests). Wird dieser Bug mal durch ein Microcode-Update der CPU behoben (zumindest bei Server-Hersteller-Boards wie Supermicro) oder kommt dann gleich eine neue Prozessorversion. Z.B. E3-1240v5 wird durch E3-1241v5 ersetzt, wie wir es vom Haswell kennen? Ich hoffe nicht, dass ich bei Vollast auf dem Server mit einem E3-Skylake-Xeon irgendwann in den Genuss komme ständig mit Abstürzen rechnen zu müssen. Das wäre eine Katastrophe.

* Wofür ist der DMI und macht der Unterschied zwischen 5 und 8 GT/s sich irgendwie bemerkbar?

* Der E5 Haswell/Broadwell-EP hat einen Quad Channel RAM Controller, der 68GB/s erreicht. Wird das zu merken sein? Der Unterschied zwischen Dual und Quad Controller? Würden meine 8-12 VMs von dem höheren Speicherdurchsatz des E5 Systems profitieren?

Ich erinnere mich an Benchmarks, als noch früher der DDR3 RAM mit z.B. 1333 und 1800 MHz oder ein DDR2(?)-Ram mit 800 und 1333 MHz verglichen wurde. In den Benchmarks wurde natürlich der höhere Durchsatz der Speicherriegel angezeigt. Aber alle Tester durchweg sagten, dass die höhere RAM-Geschwindigkeit nicht beim Arbeiten zu spüren sei.

* Welche Vorteile hätte ein E5 Broadwell System im Vergleich zum E5 Haswell?

Würdet ihr auf einen E5 Broadwell warten oder jetzt zum E5 Haswell greifen? Was wären die Gründe für die Entscheidung?

Grüße
Freeman303
 
Fragen zu RDIMM und UDIMM ECC RAM DDR4

Hallo,

wo liegen genau die Vorteile und Unterschiede zwischen den DDR4 Modulen die als UDIMM ECC und RDIMM ECC in mein Mainboard eingesetzt werden können? Soll ein E5 Haswell Mainboard werden.

In der Anleitung steht, dass beide RAM-Typen verwendet werden können.

Welche sollte man nehmen, wenn man die Wahl hat? die ECC UDIMM oder die ECC RDIMM?

Gruss
Freeman303
 
UDIMM = Unregistered
RDIMM = Registered

Ich zitiere mal aus dem wikipedia-Artikel über RDIMM:
Registered Speichermodule besitzen zusätzliche (meist zwei) Register-Chips, durch die die Signale der Adressleitungen geführt werden, um die elektrische Belastung für den Mainboard-Chipsatz zu reduzieren.
Somit bekommt man mit RDIMM in den allermeisten Fällen mehr RAM auf ein Board als mit UDIMM, wenn der Speichercontroller beide Arten unterstützt (z.B. mit UDIMM kann man maximal 64 GB RAM einsetzen, während man mit RDIMM auf dem selben Board mit der selben CPU 128 oder gar 256 GB RAM einsetzen kann). Dafür sind RDIMMs auch teurer.
 
Würde mir nen e5 v2 kaufen gibt's gebraucht günstig. Oder kann broadwell was was die anderen nicht können?
 
Stromverbrauch! Das Ding läuft bei mir Rund um die Uhr 365 Tage im Jahr.

Ich denke, der Haswell hat einen geringeren Idle-Stromverbrauch, als die Ivy Bridge. Die Frage ist, wie ist der Idle-Stromverbrauch beim Broadwell im Vergleich zum Haswell?
 
Hast Du mal die Preise von RDIMM und UDIMM - beide ECC, beide DDR4 - verglichen?

Gestern war ein 16 GB Riegel Samsung RDIMM nur 10-15 EUR teurer als ein entsprechendes UDIMM. War ein DDR4 2133 Typ.

Was sagt die Praxis? RDIMM nehmen oder UDIMM?
 
Wenn Du die gewünschte Kapazität mit UDIMM RAMs realisieren kannst, dann mach es. RDIMM und LRDIMM nimmt man um größere Speicherkapazitäten als mit UDIMM zu realisieren, weil durch das Register die interne Organisation der RAMs versteckt wird und so größere Kapazitäten als mit UDIMMs machbar sind, etwa indem mehr / größere Chips verwendet werden, als der RAM Controller eigentlich ansprechen kann.
 
Normalerweise ist W7 genauso stabil wie Server 2008 R2. Welche Version hast Du? Die Normale unterstützt nur 32 GB. Bei den SSDs wirst Du kaum einen Unterschied merken, außer beim Entpacken von vielen kleinen Dateien.
Hast Du schonmal über nen Skylake mit Samsung 950 Pro nachgedacht? Mehr SSD Performance wirst Du kaum (bezahlbar) kriegen können. Aber eben, man merkt das kaum. Bei Visual Studio allerdings, was ich als quälend langsam empfinde, könnte es bemerkbar sein.
 
ich kann freeman303 verstehen, hab auch einige "normale" Rechner mit nem Win 2012r2 Server laufen als Workstation .... die Lizenzen bekommt an ab und an kostenfrei und das ist günstiger als kaufen :) .... außerdem sind sie "sauberer" in Bezug auf Microsoft Interaktion

außerdem recht einfach zu "konvertieren" : http://www.win2008workstation.com/forum/viewtopic.php?f=63&t=2499 (nur bei Intel 2xx-V Lan Adaptern und Intel Bluetooth muss man "tricksen")


zu den SSds

guck ab und an mal .... die OCZ Vector 180 240GB, SATA (VTR180-25SAT3-240G) gabs/gibts in letzter Zeit öfters um die 80€ ... dafür sind es tolle SSDs mit einem super Vorabtausch in den 5 Jahren

erst gab es sie in der Conrad Gruppe (aka Conrad, Völkner, Digitalo etc) und zuletzt bei EBay im WOW
... atm leider wieder auf normalpreis (der nicht lohnt, da die 850Pro da zu nahe dran ist)
 
Zuletzt bearbeitet:
Da gibts sicherlich Tests im Netz zu finden, wo der Verbrauch zu erfahren ist. Kommt drauf an was du da genau holen willst ...

So ein kleiner, recht neuer E5-2603v3 wird sich von der Rechenleistung sogar gegen die E3 nicht durchsetzen können.
Dagegen wird ein älterer E5-2667v2 die ganze E3 Reihe verpflücken. Kommt drauf an was man machen will, und was man ausgeben will sowie kann.

Ich benutze Haswell EP, die Leistung ist je nach Prozessor aktuell quasi ungeschlagen und der Stromverbrauch ist sogar für Zuhaus in Ordnung. (Bin da bei 40-50W, fast Idle)
Nur kostete mein E5-2683v3 auch eine Summe an Geld, zusätzlich muss man dann noch ein passendes Board sowie Arbeitsspeicher aus der Hardwarekompatiblen Liste jenes heraussuchen.
Der Quadchannel für den Arbeitsspeicher macht sich eher weniger bemerkbar, denn der kommt nur zum Einsatz wenn entsprechende Mengen an Speicher vorhanden sind,
die Prozessoren unterstützen ja immerhin bis über 700 GB, je nach Modell. Außerdem wollen die Prozessoren ab DDR4 Speicher eben auch nur 2133 MHz Module annehmen, was höhere Bandbreiten benötigt.
 
wenn dir nur das Ram knapp wird, lauf fix zu Mindstar :) die haben grad 2Stück im Angebot)

Intel Xeon E5-1620v3 4x 3.50GHz So.2011-3 TRAY ... 234€ ist ein ordentlicher Preis, dazu ein günstiges Board und "ram frei"

z.B. https://geizhals.de/fujitsu-d3348-b-a1315062.html?hloc=at&hloc=de oder für SM Jünger https://geizhals.de/supermicro-x10sri-f-retail-mbd-x10sri-f-o-a1164779.html?hloc=at&hloc=de (wobei FS meist sparsamer ist)


zum Verbrauch:

ja der S2011-3 ist im idle gefräßiger als ein 1150/1151 , bietet dafür aber 40 PCIe lanes (Xeon Prozzis) und wesentlich mehr max Ram

20W Idle MEHR bei 24/7/365 (also daueron) sind ca 40€ pro JAHR ... also wird überschätzt (das geeignete OS kann auch schon locker mal 10W ausmachen :) )
 
Zuletzt bearbeitet:
vorab hallo und gleich die peitsche: http://www.hardwareluxx.de/communit...nbedingt-auf-e5-broadwell-warten-1106599.html

beschränk dich doch auf einen Thread zum gleichen Thema oder close den Anderen

da du "viel Ram" im anderen Thread wolltest solltest du ECC reg nehmen (wurde hier aber auch schon gesagt)

zu beachten: immer 4 Module nutzen um die Quadchannel fähigkeit des 2011-3 auch zu nutzen .... aka 4*16GB, 4*32GB, 4*64GB etc (mit 8 Slots dann im Rahmen der QVL oder Hersteller Kompa listen auch später upgradebar)

die QVL des Mainboards bietet dir schonmal einen hinweis


ohne Garantie von mir: https://geizhals.de/samsung-dimm-16gb-m393a2g40db0-cpb-a1151329.html?hloc=at&hloc=de laufen auf vielen Boards gut wenn du erstmal 64GB nutzen magst
 
Zuletzt bearbeitet:
Sorry für's Multiposting. Habe das eigentlich extra so gemacht, weil ich die Postings thematisch in den Threads auseinanderhalten wollte. Leider greifen die Themen ineinander überein.

Speichermäßig ist es so, dass ich momentan 32 GB habe und es immer öfter zu wenig ist. Daher werden 64 GB der erste Ausbauschritt sein. Dann ggf. verdoppelung auf 128 MB. Mehr geben die 8 RAM-Sockel nicht her. Ausser ich würde erst gleich auf 128 GB gehen und dann auf 256 GB upgraden.

Ich bin der Supermicro-Mensch. Daher auch Supermicro Board. Auch wegen dem IPMI und nicht zuletzt inzwischen fast familär gewordenem Supermicro Support ;-) Wir schicken uns bald Ostergrußkarten...

Bei den in frage kommenden Boards ist es so geregelt, dass RDIMM von E5-16xx CPUs unterstützt werden. Um LRDIMM zu nutzen, muss aber mindestens ein E5-26xx eingebaut werden. Offensichtlich sind die RAM-Controller in diesen beiden CPU-Modellen unterschiedlich.

Ich habe mich gestern zu RDIMM und LRDIMM belesen, aber konnte kein entscheidendes Argument für oder gegen Verwendung von der einen oder anderen Technologie finden. Wie ist der Stromverbrauch? Verbraucht RDIMM oder LRDIMM mehr?

Ähm, wofür sollte ich mich entscheiden?

UDIMMS gehen nur bei E3-12xx Xeons. Bei den E5-Xeons werden UDIMMs wohl kaum oder nicht unterstützt. Da ich mich nun beim Server auf E5 festlegte, kommen für mich nur RDIMM oder LRDIMM in Frage.
 
Auf grund von einigen VMs die bei mir immer laufen, ist der Grund für mich auf E5 zu gehen die höhere mögliche Core-Anzahl in der CPU.

Darum würde ich eher zu einem E5 mit 6 oder 8 echten Cores tendieren mit einem Basistakt von besser um die 3.0 GHz oder mehr.

Speicherausbau wäre zuerst 64 GB auf 4 Module verteilt.

Eine Frage zum Thema hätte ich noch. Die Supermicro Boards ermöglichen es einen E5-16xx oder E5-26xx CPU in einem SINGLE-Socket-Mainboard zu installieren. Welchen Vorteil habe ich, wenn ich in einem Single-Socket Board einen E5-26xx installiere, der eigentlich für 2-CPU-Systeme gemacht ist?

Das Einzige was ich sicher weiß, ist dass nur ein E5-26xx das LRDIMM unterstützt, ein E5-16xx hingegen nicht!

Welche Vorteile hat noch ein Multicore E5 Xeon in einem Single Socket System?
 
@pumuckel: Genau so habe ich das gemacht. Auch der Workstation-Link ist mir bekannt und mit seiner Hilfe habe ich die Workstations aufgesetzt. Funktioniert toll, auch wenn im Notebook das Bluetooth fehlt, weil der Win Server R2 keinen Bluetooth-Stack hat.

Als SSD wird es glaube ich die Samsung 850 oder SM863 werden, bzw. die Intel SSD 750.

Wobei ich soeben im anderen Thread lesen musste, dass die Intel SSD 750 in Xeon E5 Systemen nicht funktionieren soll...
 
die samsung pro sind ok (als workstation) aber die Vector 180 sind fast gleich auf (und haben PLP und ne fixere garantie)
 
Zuletzt bearbeitet:
Netzwerkfrage: Bei 1 GBit Kupfer bleiben oder auf 10 GBit Kupfer wechseln?

Hallo!

Ich bin gerade dabei mir einen Server und Workstation(s) auf Basis von Xeon E5 und Xeon E3 einzurichten. Das zur Vorgeschichte.

Bei der Wahl der Mainboards habe ich mich auf Supermicro beschränkt, weil ich deren IPMI sehr gut finde und auch seit Jahren gerne nutzen.

Sowohl für das E3 Skylake-System, sowie das E5 Haswell-System gibt es Mainboards, die entweder 2 LAN Schnittstellen mit 1Gbit integrieren, als auch welche mit 4x LAN 1GBit, sowie auch 2x 10GBit Schnittstellen.

Meine Fragen dazu:

10 GBit LAN ist noch recht teuer, wenn man die Preise der NICs, der Switche, etc. anschaut. Ich stecke da leider nicht so drin, wie Ihr. Wie dürften sich die Preise für 10 GBit-Netzwerk in den nächsten Monaten bis 2-3 Jahren verhalten? Werden die Preise eher so bleiben, wie sie sind oder ist mit einem Preissturz bis auf sagen wir mal das doppelte Niveau von 1 GBit LAN zu rechnen, weil z.B. ein Nachfolger für 10 GBit LAN schon in Planung ist? Insbesondere was die Switche anbelangt...

10 GBit würde ich hier wenn überhaupt dann über Kupfer verkabeln. Die verbauten Kabelkanäle lassen Lichtfaserleiter wegen den Biegungen nicht zu.

Sollte ich daher, wenn ich schon ein neues Mainboard kaufe, darauf achten, dass sich eine oder zwei 10 GBit LAN Schnittstellen darauf befinden oder einfach diese später mit einer NIC nachrüsten, wenn es soweit sein sollte?

Die Mainboards von Supermicro, welche 10 GBit LAN anbieten, sind meistens ca. 200 EUR teurer, als das Pendant mit ein oder zwei 1 GBit Schnittstellen. So kostet ein Board mit 2x 1GBit LAN ca. 300 EUR, während das gleiche Modell mit 2x 10GBit LAN ca. 500 – 550 EUR kosten tut.

Würdet ihr Euch zur jetzigen Zeit für oder gegen 10 GBit LAN entscheiden?

Momentan benötige ich mehr als 1 GBit LAN lediglich dann, wenn ich z.B. ein Backup vom Haupt-Server auf einen Backup-Server mache. Da ich die unterschiedlichen 1 GBit NICs am Server unterschiedlichen IP-Adressen zugeordnet habe, starte ich den Backup-Vorgang am Backup-Server mit zwei unterschiedlichen IPs, die auf Grund der Konfiguration zwei unterschiedliche NICs auslasten müssen! So kopiere ich Daten meines Datengrabes mit zwei parallelen Verbindungen mit jeweils ca. 100 MB/s. Man kann das auch sehen und nachvollziehen. 10 GBit LAN würde ich vermutlich nicht auslasten können, auch nicht beim Backup.

Das Maximale was ich beim Backup schaffen könnte, ist das Kopieren von Daten von einem RAID-6, welches aus z.B. 5 Festplatten der Marke Seagate Enterprise NAS 4TB stammt. Also im Bestfall mit ca. 500-600 MB/s, eher aber im Schnitt ca. 300 MB/s.

Auf Grund meiner aktuellen LAN-Verkabelung im Haus, könnte ich zur Zeit maximal mit 4 Unterschiedlichen Connections auf den Server zugreifen, also mit 4 einzelnen 1 GBit Verbindungen, somit ca. 400 MB/s. Es ist zwar ein Workaround, aber machbar.

Trotzdem die Frage, ob Ihr Euch, wenn ihr an meiner Stelle sein würdet, Euch bei den genannten Mainboard-Aufpreisen für oder gegen 10 GBit LAN entscheiden würdet.

Dann besteht auch noch das Problem, dass die meisten Switche, die heute 10 GBit bereitstellen, dies nur an zwei Ports tun, die auch noch nur zum Stacking genutzt werden sollen. Um alle meine Workstations mit 10 GBit zu vernetzen, bräuchte ich einen Switch, der min. 4 Ports mit 10 GBit bereitstellt und diese vier Ports müssten nicht nur zu Stacking genutzt werden dürfen.

Das waren meine Gedanken dazu. Bitte nun um die Euren...

Grüße
Freeman303
 
Also ich würde ja die nehmen, mit denen ich am weitesten komme ohne austauschen zu müssen bei späterem Upgrade...
 
warum 200% mehr ausgeben für 2 cores ?
 
Es gibt dazu schon zwei Threads:

10Gbit allgmein
10Gbase-T (Kupfer) speziell

Vielleicht findest Du ja noch zusätzliche hilfreiche Infos.

Zur Preisentwicklung kann dir wohl kaum einer was sagen, das ist alles Kaffeesatzleserei.

Grundsätzlich gibt es meiner Meinung nach keine "preiswertere" Methode auf 10Gbit zu gehen, als von vornherein Motherboards mit den Dingern "on board". Die 200 Euro Aufpreis sind im Vergleich ein Witz: das kostet die billigste single-port NIC mit 'nem solala supporteten Tehuti Chipsatz. Die Mainboards bringen aber die schönen Intel x540 mit, für die so ziemlich jedes OS Treiber von Haus aus mitbringt.

Stellt sich dann die weitere Frage, was Du vor hast / was es Dir bringt. Das und die weiteren nötigen Komponenten hängen halt von mehreren Faktoren ab. Einen Switch *brauchst* Du nicht unbedingt, wenn Du immer 2-Port NICs benutzt (bis natürlich auf die "End-PCs" der Kette), etwas frickelst (alles Kettenglieder zwischen den Enden müssen ggf. promiscious mode die anderen Kisten routen/durchreichen) oder eben nur 2 Kisten miteinander verbinden willst...

Ich habe jetzt im letzten Jahr die Reise in die 10Gbit-Welt (mit Kupfer) gemacht und ... naja... echter Mehrwert für @home würde ich mal doch bezweifeln, wenn man nicht wirklich häufiger große Datenmengen verschiebt UND das Storage hat, um die Geschwindigkeit auszureizen... letzteres fängt dann wohl so bei 8-10 HDDs / 4 SSDs im Raid oder NVMe an Spaß zu machen, ahja, UND die Gegenstellen es auch nutzen (d.h. z.B. die Clients/Server rechnen entweder wie blöde an irgendwas rum oder haben selbst flottes Storage lokal).

Mir bringt's bisken was, weil ich ein flottes 4er-SSD-Storage im File-Server hab, auf das regelmäßig zwei Server und 1 Client zugreifen und mit dem 4er HDD-Raidz so um die 350MB/s erreiche, also schon einmal alle versorgten PCs darauf flotter als eine lokale HDD zugreifen und gleichzeitig die Vorteile von ZFS/RaidZ nutzen können.

Allerdings ist das dann eben auch so eine Sache: 10Gbit ist echt flott und definitiv noch kein Mainstream. Da muss man sich mit den Treibern beschäftigen, Einstellungen ausprobieren und und und... bei 1gbit ist - egal was man macht - quasi immer das Netz der Flaschenhals. Das sieht bei 10gbit bisweilen eben anders aus und dann die Ecken und Kanten auszubügeln, kostet Zeit... :d

Aber: brauch ich's? Nääh. Echter "Mehrwert" im Sinne von Beschleunigung vorher schier unerträglich langsamer Vorgänge? Nääh. Teu(r)er als 1gbit? Jopp... Lauter als 1gbit? Jopp! Den Switch willst Du nicht hören (egal wo in der Wohnung außer vielleicht (!) im Keller)...

Fazit: im Mainboard würde ich's auf jeden Fall mitnehmen. Dann vielleicht zum Spielen eine NIC dazu zum rumprobieren und die eben in die Workstation/server, mit der Du testen willst - je nach OS auf der Workstation könntest Du da sogar auch eine Tehuti-NIC für nehmen. Macht 400 Euro für eine Testumgebung.

Wenn Du aber Geld und Zeit über, und Spaß am Frickeln hast, go for it.... es sei denn Dein Fokus liegt quasi exklusiv auf "Storage", dann schau wahrscheinlich direkt mal bei 100Gbit Infiniband & Co... ;) ... damit kenne ich mich aber 0 aus...
 
Zuletzt bearbeitet:
Danke. Ich werde mir sie noch genauer anschauen. Sind die OCZ bisher ok oder gibt es wieder hinweise auf Probleme, wie in manchen OCZ SSDs der Vergangenheit?

ocz gibts schon lange nicht mehr ist nun Toshiba

guck einfach mal das an:

Bauform: Solid State Drive (SSD) • Formfaktor: 2.5" • Schnittstelle: SATA 6Gb/s • lesen: 550MB/s • schreiben: 530MB/s • IOPS 4K lesen/schreiben: 95k/90k • NAND: MLC (19nm, Toshiba) • TBW: 91.25TB • MTBF: 2.3 Mio. Stunden • Controller: Indilinx Barefoot 3 M00 (IDX500M00-BC) • Cache: 512MB • Protokoll: AHCI • Leistungsaufnahme: 3.70W (Betrieb), 0.85W (Leerlauf) • Abmessungen: 99.7x69.75x7mm • Besonderheiten: Power-Loss Protection, 256bit AES-Verschlüsselung, inkl. Acronis True Image HD, 3.5"-Adapter • Herstellergarantie: fünf Jahre

und das mit Shield = Vorabtausch
 
Zuletzt bearbeitet:
Ich sehe 10G vor allem bei zwei Sachen als wichtig an

1. Arbeiten vom NAS
Ein gutes NAS hat Versionierung, ist viel sicherer als lokales Storage und ein Virus mit Adminrechten kann nicht einfach alles verschlüsseln oder löschen. Wenn man dann aber so schnell wie auf einer lokale Platte arbeiten will dann:

Lokale SSD: bis 500 MB/s
Lokale NVMe: 1000-2000 MB/s

Netzwerk 1G: bis 100 MB/s
Netzwerk 10G: bis 1000 MB/s

1G Netzwerk ist damit 10x langsamer als eine aktuelle NVMe, 10G etwa gleich schnell.


2. Backup
Mehrere Terabyte via 1G umkopieren/sichern ist grenzwertig.

Dagegen spricht nur der Preis.
Die neuen Mainboards mit 10G onboard sind eine relativ günstiger Einstieg.
Switche mit 2 x 10G oder ein Netgear XS708 mit 8 x 10G sind halbwegs bezahlbar, da ist aber noch Luft nach unten.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh