> > > > Intel plant angeblich Broadwell-EP-CPUs mit maximal 5,1 GHz

Intel plant angeblich Broadwell-EP-CPUs mit maximal 5,1 GHz

DruckenE-Mail
Erstellt am: von

Intel Xeon E3 1200Intel-Xeon-Prozessoren mit mehr als 4 GHz? Was im Desktop-Segment schon länger Realität ist, lässt den Server-Administratoren auf dem ersten Blick sicherlich die Augenbrauen nach oben zucken, denn in diesem Jahr könnte dies tatsächlich erfolgen. Wenn es nach den Informationen von news.mydrivers.com geht, plant Intel spezielle Xeon-Prozessoren auf Basis der Broadwell-EP-Serie einzelne Modelle, die eine Taktfrequenz bis 5,1 GHz aufweisen sollen.

Zumindest ein hochgezüchteter Prozessor soll der Xeon-E5-2600-v4-Familie angehören und im Detail auf die Bezeichnung "Xeon E5-2602 v4" hören. So wird der 14-nm-Prozessor laut dem Bericht mit vier Kernen inklusive Hyper-Threading ausgestattet sein, deren Takt bis 5,1 GHz reichen soll. Vermutlich ist hier allerdings die Turbo-Taktfrequenz gemeint, die unter voller Last nicht auf allen vier Kernen anliegen würde. Durch die erhöhte Wärmeentwicklung soll sich die TDP bei 165W belaufen. Der L3-Cache soll dagegen mit 10 MB beziffert werden.

AMD hat mit dem FX-9590 bereits eine Desktop-CPU auf den Markt gebracht, deren Grundtakt bei 4,7 GHz liegt und mit dem Turbo-Modus bis auf 5 GHz steigt. Lässt man den IPC-Vorteil (Instructions per Cycle) der Broadwell-Architektur außer Acht, beträgt der TDP-Unterschied noch immer 55 Watt. AMD hat den FX-9590 bekanntlich mit einer TDP von 220W spezifiziert.

Sollten sich diese Informationen bewahrheiten, könnte der Xeon-E5-2602-v4 auch bei den Enthusiasten auf Interesse stoßen. Wie es bei den in diesem Jahr kommenden vier Broadwell-E-Prozessoren der Fall ist, werden die Broadwell-EP-CPUs ihre Arbeit ebenfalls auf dem Sockel LGA2011v3 verrichten und könnten durchaus nach einem verpflichtenden BIOS-Update auf X99-Platinen lauffähig sein.

Social Links

Kommentare (45)

#36
customavatars/avatar97158_1.gif
Registriert seit: 19.08.2008
Magdeburg
Oberbootsmann
Beiträge: 862
Zitat DragonTear;24237868
Also ich glaube, wenn es diese CPUs überhaupt frei verfügbar geben wird, werden sie schweineteuer (>3k) und sich gegenüber Haswell E nicht lohnen.
Der Punkt bei Xeons ist ja dass sie ihren dienst garantiert und zuverlässig verrichten. Das lässt sich Intel natürlich vergolden.
Als Gamer, etc. braucht man dieses Optimum eigentlich nicht wirklich so dass zumindest die allermeisten mit gut übertakteten "normalen" CPUs klar kommen weil keine Millionen von der Zuverlässigkeit abhängt...
Und ob 4.6 Ghz oder 5.1Ghz ist auch wieder egal, wenn wir ehrlich sind >_> Davon abgesehen dass die 5.1Ghz wenn es wirklich kommen sollte, sicher nur Singlecore turbo ist.


Widerspruch: 4,6 oder 5,1Ghz sind nicht für alle Gamer egal. Es gibt Spiele, wenn zu viele NPCs in der Gegend (Blickfeld) sind
dann kann die CPU die GPUs nicht mehr versorgen, weil sie selbst bei 4,9Ghz zu langsam ist
#37
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9052
Zitat 2ultima4;24239573
Widerspruch: 4,6 oder 5,1Ghz sind nicht für alle Gamer egal. Es gibt Spiele, wenn zu viele NPCs in der Gegend (Blickfeld) sind
dann kann die CPU die GPUs nicht mehr versorgen, weil sie selbst bei 4,9Ghz zu langsam ist

Welche Spiele?

Das einzige Game das mir einfällt das einen aktuellen modernen [email protected] wirklich sinnvoll auslastet ist Star Citizen seit der alpha. Das Game lastet dabei aber auch alle Kerne gut aus. Wenn die CPU begrenzt weil ausschließlich ein kern belastet wird, dann ist das schlicht schlecht programmiert...
#38
Registriert seit: 20.12.2003
Karlsruhe
Korvettenkapitän
Beiträge: 2468
Zitat 2ultima4;24239573
Widerspruch: 4,6 oder 5,1Ghz sind nicht für alle Gamer egal. Es gibt Spiele, wenn zu viele NPCs in der Gegend (Blickfeld) sind
dann kann die CPU die GPUs nicht mehr versorgen, weil sie selbst bei 4,9Ghz zu langsam ist


Also ich glaube nicht, dass du die 4 respektive 10% an Mehrtakt (=/=Mehrleistung) in irgendeinem Spiel bemerkst, es sei denn du spielst Benchmarks. Diese CPU gibts für den hochfrequenten Börsenhandel wo es um Millionen gehen kann wenn man das eine oder andere Qäntchen früher mit kaufen/verkaufen dran ist, zwar verrückt, aber so ist die Welt.
#39
Also ich habe schon einen Unterschied bemerkt ob ich meine CPU mit 4 oder 4.5 GHz betrieben habe. Diese pauschale Aussage das 10% eh keiner bemerkt halte ich für Schwachsinn.
Ich behaupte mal das der 0815 user davon mehr bemerkt als von 4 weiteren Threads durch HT oder ein paar cores mehr.
Ich kenne genug Software die schlecht genug skaliert um hohe Preise für hoch getaktete CPUs mit wenig Threads zu rechtfertigen.
Und natürlich ist der 0815 user nicht die Zielgruppe.
#40
customavatars/avatar97158_1.gif
Registriert seit: 19.08.2008
Magdeburg
Oberbootsmann
Beiträge: 862
Das ist schon wie Religion!
Natürlich kann ich jedes meiner Spiele grafisch so abspecken, dass es läuft.
Möchte ich aber nicht, ich hätte gerne die maximal mögliche und auch visuell erfassbare Grafikleistung.

Und da hinken GPU und ganz besonders CPU hinterher.
Ein SLI auszulasten erfordert schon ein potente CPU.

Ich spiele seit 2011 hauptsächlich Skyrim und modde unentwegt. Komm jetzt bitte nicht mit schlechter Engine. Das wäre dann ja auf alle Spiele übertragbar, wenn man die Grafikleistung aufbohrt.
Es geht darum das 2 GPUs auf die CPU warten müssen. Wenn ich z.B. die RealVision ENB auf max. habe bei einem 3440x1440 Monitor und gehe in einen Bereich mit vielen NPC. Dann schuftet die CPU ohne Ende und es ruckelt bis zu Standbildern.

Eine Community von Moddern wie z.B. auf Nexus, kann schon Grafik, Physikengine usw. so perfekt umsetzen, dass die vorhandene HighEnd Hardware vollends in die Knie geht, voran die CPU Leistung.
#41
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31552
Zitat DragonTear;24239786
Das einzige Game das mir einfällt das einen aktuellen modernen [email protected] wirklich sinnvoll auslastet ist Star Citizen seit der alpha. Das Game lastet dabei aber auch alle Kerne gut aus. Wenn die CPU begrenzt weil ausschließlich ein kern belastet wird, dann ist das schlicht schlecht programmiert...


Damit machst du es dir aber etwas zu einfach... Nur weil etwas nicht ausgelastet ist, ist die Software schlecht programmiert?
Viel eher ist das IMMER eine Frage von Aufwand/Nutzen. Was nutzt es, riesen Aufwand zu betreiben für eine Software, die so oder so mit Mainstream Modellen im PC Bereich auskommen muss? Sprich wo noch niedrig getaktete Dualcores mindestens mal genau so oft vertreten sind, wie "potente" acht+ Thread CPUs?
Um so höher die Auslastung der CPU bei normalen Settings, desto bescheidener die Performance bei langsameren CPUs... Und das fällt wohl immernoch mehr Leuten auf die Füße (Stichwort Negativpresse), als ein paar "Freaks" mit viel CPU Power das letzte bisschen CPU Reserven zu entlocken.

Simples Beispiel, schau dir CoD:BO3 an -> frisst sau viel VRAM, weil es viele Daten dort rein kippen kann. Schiebt dir dabei spielend die 12GB der TitanX zu -> Presse meint, scheiße programmiert oder nicht sauber optimiert -> und da gibts noch nen Schalter, der das verhindert ;)
Wie sähe das nun aus, wenn die Spiele nur noch mit acht Thread CPUs bei (annähernd) 100% CPU Load laufen würde??

Zitat 2ultima4;24242284
Ich spiele seit 2011 hauptsächlich Skyrim und modde unentwegt. Komm jetzt bitte nicht mit schlechter Engine. Das wäre dann ja auf alle Spiele übertragbar, wenn man die Grafikleistung aufbohrt.
Es geht darum das 2 GPUs auf die CPU warten müssen. Wenn ich z.B. die RealVision ENB auf max. habe bei einem 3440x1440 Monitor und gehe in einen Bereich mit vielen NPC. Dann schuftet die CPU ohne Ende und es ruckelt bis zu Standbildern.


Beim Modding von Titeln kommt übrigens noch erschwärend hinzu, dass die Spiele gewisse Rahmenbedingungen vorgeben, die sich durch bisschen Modkits und leichte Änderungen an irgendwelchen Configfiles nur bedingt aushebeln lassen. Gerade RPGs sind da oft ein Problemkind. Skyrim mit zu vielen Mods vollgeblasen bringt dich gern mal in RAM Probleme, weil die Software selbst nicht so viel Speicher verwalten kann -> dafür müssen dann erst wieder dedizierte Lösungen gefunden werden.
Auch Gothic 3 ist so ein Beispiel... Das skaliert sogar bei >5GHz auf der CPU noch, wenn man die Sichtweite sowie Darstellungsdistanz ausfährt... Das Schlimme dabei ist leider, dass man oft die eingedrehten Werte klar auf dem Schirm sieht. Bei CPU und/oder GPU Power am Limit aber nicht weiter ausfahren kann. Selbst ein altbackenes G3 von 2006 macht so einigen aktuellen RPGs in Sachen Sichtweite und Fernsicht noch gut einen vor. Skaliert dabei genau NULL über die CPU Breite und packt selbst mit 2x2er Downsampling und zusätzlichem 8xSGSSAA keine Volllast auf 1-2 halbwegs aktuellen HighEnd GPU(s) :fresse:
#42
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9052
Zitat fdsonne;24242366
Damit machst du es dir aber etwas zu einfach... Nur weil etwas nicht ausgelastet ist, ist die Software schlecht programmiert?

Moment, das hast du falsch verstanden. Ich hab auf 2ultima4's Komentar geantwortet bezüglich dass sein i7 nicht ausreicht.
Die Software ist eben dann schlecht programmiert wenn sie auf einem i7 mit >4.5Ghz nicht läuft und 2ultima4 hat ja behauptet es gäbe solche Software.
Wenn die Software eben mehr Leistung braucht, dann soll sie die anderen Kerne nutzen - genau das macht z.b. Star Citizen relativ gut soweit ich gehört habe, weswegen ich das angeführt hab.

EDIT: Hab erst jetzt den neuen Komentar gelesen.
URGH.. Modding .. das sollte man meiner Meinung nach von solchen Vergleichen ausklammern >_>
Sicher, man kann immer alles ans Limit bringen, aber die Verhältnismäßigkeit (Spielerlebnis vs Anforderungen) ist da einfach nicht mehr gegeben.
#43
Registriert seit: 09.08.2015

Obergefreiter
Beiträge: 112
Bin jedenfalls mal gespannt..
#44
Registriert seit: 05.07.2010

Admiral
Beiträge: 11425
Zitat DragonTear;24243042
Wenn die Software eben mehr Leistung braucht, dann soll sie die anderen Kerne nutzen
Wobei es aber eben auch Algorithmen gibt, die man eben einfach nicht parallelisieren kann, da geht es beim besten Willen einfach nicht. Ob das bei der jeweiligen SW so ist oder nur der Faulheit/Unfähigkeit der Programmierer geschuldet ist das etwas nicht parallel läuft, kann auch natürlich auch nicht sagen. Wobei ich bei Spielen eher geneigt bin letzteres zu unterstellen, aber auch da passieren ja nicht wenige Dinge die direkt voneinander abhängen und wo man eben das eine nicht machen kann bevor das andere nicht erfolgt ist und immer dann wenn eines vom Ergebnis des anderen abhängt, geht es nicht beides parallel auszuführen. Außer man rechnet halt alle Varianten der anderen Aktion durch und verwirft die nachträglich als falsch erkannten, was bei zwei Möglichkeiten noch machbar ist, aber bei deutlich mehr Möglichkeiten dann nicht mehr praktikabel ist.
#45
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31552
Zitat Holt;24254777
Wobei ich bei Spielen eher geneigt bin letzteres zu unterstellen, ...


Das würde ich so nicht sagen... Je nachdem, was man da genau macht, existiert ein himmelweiter unterschied zwischen Multithreading und Multithreading. ;)
Wenn du x verschiedene Sachen gleichzeitig machst, ist das genau so Multithreading wie wenn du eine Sache durch x verschiedene Teilschritte gleichzeitig berechnest... Ersteres ist das einfachste auf der Welt und funktioniert auch absolut schmerzfrei in Spielen. Letzteres ist genau das, was die Leute hier wollen, funktioniert aber eben nicht bedingungslos und überall.

Das Problem ist allerdings, wenn die Basis nicht schnell genug ist und sich nicht durch MT optimieren lässt (wie du selbst sagst), dann nutzt dir mehr Berechnung durch mehr Lastthreads abgefackelt durch MT auch nix...
Und hier kommt wie oben erwähnt zum tragen, dass die Entwickler auf gewisse Märkte abzielen. Eine Software, die nur mit den allerbesten CPUs überhaupt funktioniert, wird sich nicht verkaufen. Und eine Software, die so gar nichts von MT versteht und nur das aller notwendigste überhaupt berechnet (mit allen optischen Nachteilen) lässt Performance liegen...

Schaut man sich mal auf den Konsolen um, so existieren dort acht Threads... Die Entwickler werden also irgendwo mit 6-8 Lastthreads rumspielen... Viel viel mehr wird nicht auf absehbare Zeit notwendig sein. Und viel viel weniger lässt Potential liegen. Das sagt uns am Ende aber absolut gar nix über die notwendige Basisperformance aus. In der einen Software muss das ein Quadcore sein, in der anderen reicht ein Dualcore. Anhand des Lastzustands den "Optimierungsgrad" festzumachen, wie es oben getätigt wurde, halte ich für fadenscheinlich. Vor allem, wenn man nicht weis, was da genau passiert ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]

AMD nennt architektonische Details zu Zen - Summit Ridge mit Broadwell-E...

Logo von IMAGES/STORIES/LOGOS-2016/AMD-ZEN

Alle Journalisten, die von Intel auf das IDF eingeladen wurden, bekamen von AMD eine Einladung für ein eigenes Event im Hotel gegenüber. Also machte sich der Tross auf den Weg, um in einer Pressekonferenz neue Details über AMDs kommende Zen-Architektur und die Prozessoren zu erfahren. Erstmals... [mehr]