Aktuelles

Intel-Roadmap zeigt Skylake-X und Kaby Lake-X als Nachfolger von Broadwell-E in Q2/2017

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
1.735
Intel-Roadmap zeigt Skylake-X und Kaby Lake-X als Nachfolger von Broadwell-E in Q2/2017

<p><img src="/images/stories/logos-2015/intel3.jpg" alt="intel3" style="margin: 10px; float: left;" />Erst vor zwei Tagen hat Intel mit dem <a href="index.php/artikel/hardware/prozessoren/39186-core-i7-6950x-im-test-dicker-motor-alte-karosse.html" target="_blank">Core i7-6950X die neue Broadwell-E-Plattform</a> offiziell vorgestellt und schon gibt es neue Informationen zu den möglichen Nachfolgeren. Laut einer jüngst aufgetauchten Roadmap wird man demnach das Namensschema für seine High-End-Modelle ändern. Zukünftig sollen die High-End-Modelle mit dem Namenszusatz „X“ versehen werden. Laut der Roadmap soll der Nachfolger von Broadwell-E auf die Bezeichnung Skylake-X respektive Kaby Lake-X hören. Als Starttermin plane man nach aktuellen Stand das zweite Quartal 2017 und somit...<br /><br /><a href="/index.php/news/hardware/prozessoren/39375-intel-roadmap-zeigt-skylake-x-und-kaby-lake-x-als-nachfolger-von-broadwell-e-in-e2-2017.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Tzk

Ich Horst
Mitglied seit
13.02.2006
Beiträge
17.108
Ort
Koblenz
Also gibts KabyLake zusammen mit Zen. Mal sehen wer da mehr überzeugen kann... :)
 

mrcs

Enthusiast
Mitglied seit
24.03.2003
Beiträge
5.233
Ort
Essen
Wenn Intel dann wieder nur 2% mehr Leistung bringt, ist das doch vollkommen egal ;-)
 

Tzk

Ich Horst
Mitglied seit
13.02.2006
Beiträge
17.108
Ort
Koblenz
Das wäre sogar sehr gut, da so der Abstand von Zen zu KabyLake nicht so groß wird...
Ein Grund mehr einen AMD zu kaufen :d
 

thegian

Enthusiast
Mitglied seit
08.08.2005
Beiträge
5.869
Ort
Zürich
kein PCI-E 4.0?
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
21.369
PCie 4.0 ist doch noch gar nicht endgültig verabschiedet, oder doch? Die finale Spezifikation sollte erst Ende 2016 fertig werden, HW auf Basis von Entwürfen einer Spezifikation ist die beste Voraussetzung für spätere Kompatibilitätsprobleme und dann muss das in die Chips rein. Wenn irgendwann 2017 noch die erste PCIe 4.0 HW erscheint, können wir froh sein.
 

thegian

Enthusiast
Mitglied seit
08.08.2005
Beiträge
5.869
Ort
Zürich
Genau in dem Artikel steht ja "könnte im Skylake-E" dabei sein. Da jetzt Skylake E so eine Verspätung hat, hätte ich schon damit gerechnet das PCIE4 dabei sein wird.
 

DragonTear

Enthusiast
Mitglied seit
06.02.2014
Beiträge
14.292
Ort
Im sonnigen Süden
Ist doch irgendwo nicht notwendig. PCIE3 ist ja noch kaum ausgelastet. Einziger Vorteil von einer neuen Version wäre dass man dann eventuell weniger Leitungen braucht und das MB kompakte werden könnte.
 

jdl

Enthusiast
Mitglied seit
09.04.2011
Beiträge
1.867
Ist doch irgendwo nicht notwendig. PCIE3 ist ja noch kaum ausgelastet.
PCIe 3 ist bei 100GbE NICs ein echtes Problem, weil man an einem x16 Slot nur eine SinglePort Karte sinnvoll betreiben kann. DualPort Karten fehlt einfach die notwendige Bandbreite. Deshalb PCIe 4 ist zwingend notwendig.
 

fideliovienna

Enthusiast
Mitglied seit
12.12.2008
Beiträge
1.968
Ort
Wien
Die Relevanz von 100 GbE NICs bei Workstations (nicht Server oder Datencenteranwendung) ist wirklich minimalst
 

Tzk

Ich Horst
Mitglied seit
13.02.2006
Beiträge
17.108
Ort
Koblenz
Und mit welchen Medien will man 100GbE auslasten? Mit einer M.2 SSD jedenfalls nicht...
 

jdl

Enthusiast
Mitglied seit
09.04.2011
Beiträge
1.867
Und mit welchen Medien will man 100GbE auslasten? Mit einer M.2 SSD jedenfalls nicht...
Das eine ist Kommunikation zwischen Programmen im Netz z.B. beim verteilten Rechnen, hier ist die Latenz der entscheidende Faktor. Daher wird man hier eher Infiniband oder Omnipath einsetzen, da Ethernet eine höhere Latenz erzeugt. Bei Mellanox hat man den direkten Vergleich, da die IB EDR Karten auch 100GbE können und man das per Software umschalten kann. Ein anderes Beispiel ist der Anschluß von Beschleunigerkarten wie etwa nVidias neue GP100. Da PCIe3 zu langsam ist wurde NVLink entwickelt.

Bei Servern/Workstations sind ohnehin U.2 und keine M.2 SSD üblich. Aber selbst mit normalen Festplatten ist das kein Problem, wenn man ein paralleles Filesystem nutzt, und das geht mittlerweile mit Standard NFS. Denn ab der NFS Version 4.1 unterstützt es nun pNFS, so daß man hier mehrere Fileserver parallel nutzen kann. BeeGFS, Hadoop FS, GPFS2, Lustre, OrangeFS sind andere parallele Filesysteme; faktisch alle können mit SSD Caches arbeiten. Die IOPS im Netz sind von der Latenz der Switches und der Metadatenserver abhängig, das Schreiben/Lesen großer Dateien ist ohnehin kein Problem.

Sobald es in Server PCIe 4 gibt, wollen natürlich die Gamer es für die Grafikkarten haben. Ob es sinnvoll ist, ist ein anderes Thema.

100GbE? Wenn die Chipsätze denn endlich mal mit 10GbE kommen würden, knallen bei mir schon die Korken, denn Intel bietet selbst beim Pentium-D1507 für gerade mal 103USD Listenpreis zwei davon an.
10GbE im Chipsatz? Ich habe da meine Zweifel, da 10GBaseT nicht der Weisheit letzter Schluß ist. Die Zahl der Serverboards mit 10GBaseT nimmt zu, persönlich würde ich aber immer SFP+ vorziehen. Der Stromverbrauch ist deutlich geringer und man hat die Option deutlich längere Strecken versorgen zu können. Solange es keinen sehr deutlichen Preisvorteil für 10GBaseT gibt, wird sich daran auch nichts ändern. Da aber die Preise für 10GbE Glasswitche momentan ebenfalls stark fallen, sehe ich da nicht den großen Vorteil für 10GBaseT. Aber in normalen Desktops SFP+ als Standard Port? Ich habe da so meine Zweifel.
 

Phantomias88

Banned
Mitglied seit
19.04.2008
Beiträge
8.459
Ort
StuggiTown

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
21.369
Die Zahl der Serverboards mit 10GBaseT nimmt zu, persönlich würde ich aber immer SFP+ vorziehen. Der Stromverbrauch ist deutlich geringer und man hat die Option deutlich längere Strecken versorgen zu können.
Es geht doch bei 99% der Anwendungen und gerade bei Heimanwendern nicht um lange Stecken und auf kurzen Strecken ist Glasfaser zu teuer und 10GBASE-T genau richtig und braucht auch nicht viel Storm, wie ich anhand meines Supermichro mit Xeon-D selbst prüfen kann. SFP+ treibt für 10GbE nur unnötig die Kosten in die Höhe und ist für Heimanwender sowas von total daneben, außer sie können "kostengünstig übriggebliebe HW von der Firma" dafür mit noch Hause nehmen.
Solange es keinen sehr deutlichen Preisvorteil für 10GBaseT gibt, wird sich daran auch nichts ändern. Da aber die Preise für 10GbE Glasswitche momentan ebenfalls stark fallen, sehe ich da nicht den großen Vorteil für 10GBaseT.
Die Preise der Switches sind noch ein Problem, aber vergleiche nicht nur den Preis der Switsch alleine, zwischen zwei 10GBASE-T Ports kann man ein billige Cat6 Kabel hängen und kommt etliche Meter weit damit, bei SFP+ muss einies mehr ausgeben um zwei Ports zu verbinden. Für den Heimanwender würd es ein 5 Port 10GBASE-T Switch tun und der dürfte eben nicht mehr als 300€ besser nur 200€ kosten, sowas fehlt aber noch, die ganze 1GbE HW ist noch sehr teuer weil nur auf die Enterpriseanwendungen ausgerichtet und solange es eben keine Mainbaords und NAS mit 10GbE Ports für Consumer (zuerst mal die Prosumer und Enthusiasten) gibt, wird sich das eben auch nicht ändern.
Aber in normalen Desktops SFP+ als Standard Port? Ich habe da so meine Zweifel.
Das wird es sicher nicht, aber 10GBASE-T, denn SFP+ braucht zuhause keiner und will auch niemand wirklich haben. Die Entfernungen die selbst ein Cat5e Kabel schafft, reichen doch zu 90%, die mit Cat6 für 99% der Heimanwender aus und wer so ein großes Anwesen hat das dies doch nicht reicht, kann es sich auch leisten eine tolle Glasfaser und 100GbE und mehr verlegen zu lassen :d
 

jdl

Enthusiast
Mitglied seit
09.04.2011
Beiträge
1.867
Die Preise der Switches sind noch ein Problem, aber vergleiche nicht nur den Preis der Switsch alleine, zwischen zwei 10GBASE-T Ports kann man ein billige Cat6 Kabel hängen und kommt etliche Meter weit damit, bei SFP+ muss einies mehr ausgeben um zwei Ports zu verbinden.
Es gibt aber kaum bezahlbare 10GBaseT Switche! Ich habe auf die Schnelle zwei Switche für ca. 800,- gefunden und einen für 1kEUR, der Rest ist deutlich teurer, und dazu von Anbieter die nicht unbedingt Begeisterungsstürme bei mir auslösen.

P.S. Es gibt konfektionierte SFP+ Kabel, so daß man eben nicht zwei Transceiver und Glasfaser benötigt und doch einiges einsparen kann.
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
21.369
Sage ich ja, aber die sind eben auch beide nicht wirklich für Heimanwender gedacht, nur werden die Anbieter kein Modelle für Heimanwender bringen, solange es dafür praktisch keinen Markt gibt und wird es keine größere Nachfrage aufkommen, solange man 200 bis 300€ für eine Karte zum Nachrüsten hinlegen muss, denn wer das tut zahlt im Zweifel auch 800€ für den Switch oder verbindet eben nur den PC mit dem Heimserver über einen direkten Link.
 
Oben Unten