> > > > IDF 2014: Intel stellt Xeon-E5-v3-Familie vor

IDF 2014: Intel stellt Xeon-E5-v3-Familie vor

DruckenE-Mail
Erstellt am: von

idf2014Zum Start des IDF hat Intel heute seine neue Xeon E5-v3-Produktfamilie angekündigt. Die neuen Prozessoren Xeon E5-2600/1600 v3 sind für den Einsatz in rechenintensiven Umfeldern und Datacentern gedacht und sollen gegenüber der Vorgänger-Generation eine bis um den Faktor 3 gesteigerte Leistung bieten. Darüber hinaus hat Intel weiter die Effizienz verbessert und die Sicherheitsfeatures optimiert – so sollen den immer weiter steigenden Ansprüchen in der Cloud Rechnung getragen werden. 

Die verschiedenen „pools" der IT verschieben sich deutlich durch die Zugang zur Cloud. Entsprechend setz Intel bei der neuen Plattform auf Software Defined Infrastructur. Auf diesem Weg soll eine deutlich gesteigerte Flexibilität für große Firmen geboten werden. Ebenso kann die Plattform nun besser überwacht werden. Der neue Xeon E5 v3 besitzt 22 verschiedene Datenpunkte, sodass die IT-Abteilung einen besseren Überblick über den aktuellen Zustand der Systeme hat. So kann der Stromverbrauch, die Temperaturen, aber auch der Airflow, CPU-, Speicher und I/O-Ausnutzung überwacht werden. Ebenso kann der Cache ins Monitoring aufgenommen werden.

Die neue Speerspitze der Xeon E5-2600 v3-Familie bietet 18 Kerne und kann einen 45 MB großen Last-Level-Cache vorweisen. In beiden Bereichen hat Intel gegenüber der Vorgänger-Generation um 50 Prozent zugelegt. Die neue Intel AVX2-Erweiterung bietet darüber hinaus eine gegenüber AVX1 von 128 auf 256 bit erweiterte Anbindung im Bereich der Vector-Integer-Anweisungen. So kann die Leistung besser auf den Bereich gelenkt werden, der die Performance aktuell benötigt Intel verspricht sich an dieser Stelle eine um den Faktor 1,9 gesteigerte Leistung. Entsprechend dem Einsatzbereich hat Intel Wert darauf gelegt, auch die Virtualisierungsleistung zu steigern, die um 70 Prozent zugelegt haben soll. Im Bereich der Sicherheit hat Intel ebenso an der Ent- und Verschlüsselung gearbeitet und möchte an dieser Stelle eine deutliche höhere Leistung bieten.

Gefertigt wird die neue Prozessoren-Familie im 22-nm-Verfahren mithilfe der Trigate-3D-Transistoren. Die TDP der Prozessoren hat Intel noch nicht bekannt gegeben – hier werden wir bald ein Update liefern können.

Xeon E5 v3 - ab jetzt mit maximal 18 Kernen

Neuerungen gibt es im Bereich der Speicheranbindung, denn Intel kombiniert die Xeon-v3-Generation mit der DDR4-Speichertechnik, die wir consumerseitig erstmals bei Haswell-E auf dem Desktop angetroffen haben. So wird nicht nur die Bandbreite erhöht, sondern auch der Stromverbrauch gesenkt. Gleichzeitig hat Intel auch hier neue Sicherheitsfeatures eingebaut. Entsprechend setzt Intel auch hier auf den neuen Speichercontroller. Die neuen Xeon-Prozessoren müssen mit dem 89xx-Chipsätzen kombiniert werden.

Neuerungen gibt es auch im Bereich der Netzwerk-Anbindung denn Intel hat den XL720-Netzwerk-Controller vorgestellt, der mit 10/40 GBit nun die doppelte Leistung zur Verfügung stellt.

Intel startet die Xeon E5-2600 v3-Generation 26 verschiedenen Prozessoren. Der Preis liegt zwischen 213 und 2703 US-Dollar bei der Abnahme von 1000 Einheiten. Die Workstation-Iteration Xeon E5-1600 liegt preislich zwischen 295 und 1723 US-Dollar. Für Großkunden bietet Intel zum Start über 35 verschiedene Speziallösungen, die auf den Kunden zugeschnitten wurden.

 

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (19)

#10
Laut Heise.de sind nicht nur die turbostufen verringert. Der E5-2699 v3 soll bei AVX code nur noch mit 1.9GHz anstelle von 2.3GHz getaktet sein. Das sind mal eben 20% unter base clock. Ich finde das ist schon ein erheblicher Unterschied. Das bei code der die AVX einheiten benutzt deutlich mehr Wärme entsteht ist ja nicht wirklich neu, aber einerseits so viele Cores auf ein die zu klatschen und das dann unter laste nicht mehr Kühlen oder versorgen zu können und daher den Takt zu drosseln finde ich schon ein bisschen daneben.
Bei manchen codes gewinne ich mit AVX flags keine 20% Leistung weil ein großer Teil eben nicht Vektoroperationen sind. Sehen Entwickler und Tester dann, dass solcher code ohne vektorisierung auf der Hardware schneller läuft? Oder ist das vielleicht noch von der Temperatur abhängig? Da spielen auf einmal mehr Faktoren mit, das wird gerade bei parallelisierter Software irgendwann unübersichtlich und schlechter vergleichbar.
#11
customavatars/avatar38538_1.gif
Registriert seit: 12.04.2006

Bootsmann
Beiträge: 598
Zitat Tonmann;22612962
Ich denke die Frage sollte man eher dir stellen?
Ich hatte einige Xeons unter den Fingern und die letzten mir bekannten Xeons für Dual CPU Anwendungen mit offenem Multi liefen noch auf Sockel 1366/ EVGA SR-2 (von E-Samples abgesehen!)
Wie emperator schon schreibt: Das EVGA SR-x wäre wohl kaum so gefloppt wenn es auch nur einen E5 2xxw mit offenem Multi gegeben hätte :hmm:


Du hast recht, ich widerrufe die Aussage. Hab mich da mit dem E5 26xxW v1/v2 von den hwbot.org Ergebnissen verwirren lassen. Hatte den "all core turbo" nicht mehr auf dem Schirm und hab aus dem erhöten Multi die falschen Schlüsse gezogen.
#12
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9058
Ach.. schön waren die Zeiten als sich Intel das OC nicht noch zusätzlich bezahlen ließ... -_-'
#13
Registriert seit: 27.11.2005

Stabsgefreiter
Beiträge: 362
Ich bin mal gespannt, wie Asus das mit dem Z10PE-D8 WS macht mit dem übertakten. Die schreiben was von 10%.
Naja in den News steht auch nix von dem Board....
Aber mir persönlich gefällt es schonmal gut.

BTW ich glaube was gelesen zu haben, dass die den Takt nur bei diesen AVX dingend anpassen und sonst die normalen Specs laufen. Kann mich aber auch irren.....
#14
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat [email protected];22613940
Laut Heise.de sind nicht nur die turbostufen verringert. Der E5-2699 v3 soll bei AVX code nur noch mit 1.9GHz anstelle von 2.3GHz getaktet sein.

Das ist richtig. Allerdings im Allcore Turbomode taktet der E5-2699v3 mit nonAVX 2.8GHz und mit AVX 2.6GHz. D.h. der Unterschied wird durch den Einsatz des Turbos geringer.

Zitat [email protected];22613940

Bei manchen codes gewinne ich mit AVX flags keine 20% Leistung weil ein großer Teil eben nicht Vektoroperationen sind.

Die Compiler vektorisieren von selbst, wenn der Programmcode das erlaubt. Bei typischen HPC Code braucht man im Grunde gar nichts zu machen, da ohnehin auf Vektoren und Matrizen gearbeitet wird und die Einzeloperationen echt parallel ausgeführt werden können. In Fortran gibt es extra elemental Funktions, die anzeigen, daß sie parallel auf Vektoren, Matrizen angewandt werden können.

Zitat [email protected];22613940

Sehen Entwickler und Tester dann, dass solcher code ohne vektorisierung auf der Hardware schneller läuft?

Es gibt für solche Fälle extra Werkzeuge z.B. Intels VTune Amplifier.
#15
Naja man muss dem compiler schon die richtigen flags mitgeben damit der neuere Vektoreinheiten auch benutzt.

Ich hab bisher mit älteren VTune Versionen gearbeitet, hab mich damals immer gern an die walltime gehalten. Kann man in der neuen Version dann clock cycle count irgendwie mit dem zu dem Zeitpunkt aktuellen Takt verknüpfen? Da hatten wir aber auch nur eine Hardwareplattform zum rechnen zur Verfügung jetzt sinds schon ohne Haswell EP drei.

Wenn mal alle HPC codes in fortran geschrieben wären und nur Vektoren und Matrizen als Datenstrukturen kennen würden... Wir haben teilweise abartige Konstrukte in C/C++ die in speziellen Anwendungen auch bis zu 90% Speicher sparen können. Punkte gleichen Zustands in einem 3D System werden da mit pointern ersetzt. In der nächsten Subroutine kann es aber auch mal wieder eine gut vektoeisierbare Aufgabe geben. Das ganze ist dann auch noch von den Eingabedaten abhängig.
Soll aber am ende von einer Zentralen Installation auf 3 Hardwareplattformen für Probleme unterschiedlicher Größenordnungen benutzt werden.
Und da probiert nicht jeder nochmal aus ob für seine Rechnung jetzt die version mit oder ohne AVX flotter läuft. Vielleicht mal für einzelne Fälle die wochen oder Monate laufen.
Fast genauso schlimm wird es bei Komerziellen Programmen mit Nutzer subroutinen oder fast allem wo man irgendwelche fremden Bibliotheken hantiert, die nicht im Quelltext vorliegen sondern in irgend einer vor 5 Jahren vorkompilierten Version.
Ja auch solche Software landet auf dem ein oder anderen hpc cluster. Je mehr da kooperiert und vor allem zugekauft wird, destso schlimmer manchmal die flickschusterei.
Das alles ist auch so schon schlimm genug ohne schwankenden Takt.

Vor allem was soll die Absenkung, wenn man allcore turbo mit AVX ja scheinbar deutlich mehr fahren kann.
#16
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat [email protected];22620512

Wenn mal alle HPC codes in fortran geschrieben wären und nur Vektoren und Matrizen als Datenstrukturen kennen würden... Wir haben teilweise abartige Konstrukte in C/C++ die in speziellen Anwendungen auch bis zu 90% Speicher sparen können. Punkte gleichen Zustands in einem 3D System werden da mit pointern ersetzt. In der nächsten Subroutine kann es aber auch mal wieder eine gut vektoeisierbare Aufgabe geben. Das ganze ist dann auch noch von den Eingabedaten abhängig.

Das ist immer das Problem, daß man Datenstrukturen suchen muß, die optimal fürs Problem sind. Kompakte Datenstrukturen sind meist schlecht fürs Rechnen. Mir ist bisher auch keine Quadratur des Kreises bekannt, und man muß es einfach ausprobieren. Unter Umständen ist es sinnvoller vollständige Matrizen zu nutzen, obwohl man weiß das sie nur dünnbesetzt sind. Mit Zeiger herum zu hantieren ist bei den modernen CPUs reines Gift, weil die Zahl der Cache Hits in den Keller geht.

Zitat [email protected];22620512

Vor allem was soll die Absenkung, wenn man allcore turbo mit AVX ja scheinbar deutlich mehr fahren kann.

Es gibt in den Slides Hinweise darauf, daß die Taktrate mit AVX sehr stark von der Wärmeentwicklung abhängt. Solange die Boards die Stromversorgung gewährleisten können, muß "nur" eine ausreichende Kühlung verbaut haben. Die Doku der Xeon E5 spricht von >200W Leistungsaufnahme unter Spitzenlast. Mal sehen wieviel Strom die E5v3 ziehen, die Doku ist noch nicht öffentlich verfügbar.
#17
Ja ich halte von der pfuscherei mit pointern auch nichts. Aber bei extrem dünn besetzten Matrizen und hohem speicherbedarf kann man sich halt teilweise an ~8 fache Systemgröße wagen. Dauert zwar was länger aber irgendwann sind auch die Ergebnisse da.

Ja kühlbar solls ja auch bleiben, schon bei den E5-2670 erreiche ich mit AVX codes knapp über 80°CPU temperatur bei 22°C Lufttemperatur an der Server front. Die Schattenseite dicht gepackter Systeme.
Ohne AVX sinds locker 10° weniger.
Ich denke mal für solche workloads sind die Xeon EPs mit weniger Cores interessanter, die werden nicht so schnell ans limit kommen. Dann nimmt man halt nen paar kisten Mehr pro Simulation.
Bis 8 cores hängen die Caches ja scheinbar noch an einem Ringbus ohne Switches dazwischen. Trozdem mit 4 Kanal Speicheranbindung.
Aber da kommt man ja auch auf den Gedanken, dass man eben so gut single Socket Systeme mit 16 Cores nehmen könnte. Wobei da wohl wieder die TDP pro socket limmitiert.
Echt nicht so einfach diese Generation.
#18
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat [email protected];22625680

Aber da kommt man ja auch auf den Gedanken, dass man eben so gut single Socket Systeme mit 16 Cores nehmen könnte. Wobei da wohl wieder die TDP pro socket limmitiert.
Echt nicht so einfach diese Generation.

Die üblichen HPC Knoten sind ohnehin DualSocket Systeme, und man sollte das Preisoptimum heraussuchen, d.h. über den kompletten Knotenpreis das Maximum an Leistung/Preis. Notfalls startet man weniger MPI Ranks pro Knoten, durch den Turbomode taktet dann die CPU ohnehin schneller.
#19
Naja genau da lohnt es meist eher die CPU mit weniger cores zu kaufen, weil die auch so schon höher takten und eben deutlich günstiger angeboten werden.
Sobald man halt mehr als 1 Knoten nutzt muss man auch wieder das Kommunikations- und Skalierungsverhalten der codes ein bisschen kennen und eine Sinvolle Topologie für die Anzahl der Knoten wählen.
Aber da sollte man schon wissen was man ausgeben kann um sinvoll zu Planen. Infiniband Hardware kann recht schnell ein großer Kostenfaktor werden. Nonblocking Architekturen werden ab eine gewissen größe richtig teuer, da kann man echt froh sein, wenn man darauf verzichten kann.

Ich persönlich bin ja eher ein Fan davon die Anzahl der Knoten geringer zu halten indem man die einzelnen Knoten gut ausstattet.
Bedeutet weniger Geld für Infrastruktur, Monitoring, Wartung, eine bessere Auslastung des zur verfügung stehenden Speichers und kleinere Netzwerke :-)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]