> > > > Informationen zu Intels Skylake-EP sowie Cannonlake-(EP) durchgesickert

Informationen zu Intels Skylake-EP sowie Cannonlake-(EP) durchgesickert

DruckenE-Mail
Erstellt am: von

intel3Der Chipriese Intel plant für das Jahr 2017 den Start der „Cannonlake“-Plattform. Geht es nach den aktuellen Gerüchten, werden die Prozessoren nicht nur im 10-Nanometer-Prozess hergestellt, sondern sollen auch mehr Rechenkerne bieten. Demnach sollen die CPUs nicht wie bei den bisherigen Prozessoren-Generation im Consumer-Bereich maximal vier Rechenkerne besitzen, sondern mindestens sechs oder sogar acht Kerne zur Verfügung stellen. Diese Information soll direkt von einem Intel-Ingenieur stammen, der Prozessoren aus der Cannonlake-Plattform mit 4, 6 und 8 Rechenkernen entwickelt.

Bisher hatte Intel die Prozessoren mit mehr als vier Rechenkernen nur in seiner Extrem-Edition angeboten. Somit mussten Kunden für eine höhere Anzahl an Rechenkernen auch einen saftigen Preisaufschlag zahlen. Dies soll sich jedoch mit Cannonlake ändern. Zum aktuellen Zeitpunkt ist allerdings noch nicht bekannt, ob Intel tatsächlich auch Modelle mit acht Rechenkernen im Consumer-Bereich anbieten wird oder die Grenze bei sechs Kernen zieht. Diese Frage wird sich wohl auch erst in einigen Monaten klären lassen. Eventuell kann der Chipriese diese Frage selbst noch nicht beantworten, da die Entwicklung der CPUs noch nicht abgeschlossen ist und der Produktionsprozess erst einmal anlaufen muss.

Skylake-EP und Purley-Plattform

Neben den Informationen zu den Prozessoren aus dem Consumer-Bereich, gibt es aber auch Neuigkeiten aus dem Server-Bereich. Die Skylake-EP-Prozessoren aus der Purley-Plattform sollen nicht nur eine höhere Rechenleistung bieten, sondern auch höhere DDR4-Geschwindigkeiten unterstützen. Zudem wird der direkte Nachfolger Cannonlake-EP erstmals im 10-nm-Prozess hergestellt, wodurch sich die Effizienz nochmals steigern soll. Die High-End-Modelle sollen eine TDP von bis zu 145 Watt besitzen, jedoch sollen auch Spezialversionen mit bis zu 160 Watt geplant sein. Während die Skylake-EP-Prozessoren den DDR4-Standard bis zu einer Geschwindigkeit von 2667 MHz unterstützen sollen, soll Cannonlake-EP nochmals eine Schippe drauflegen und bis zu 2933 MHz unterstützten. Darüber hinaus wird auch ein Omni Path Port zur Verfügung gestellt und bei Cannolake-EP sogar gleich zwei Ports.

intel skylake ep cannonlake ep

Die weiteren Gerüchte sprechen von bis zu 48 PCI-Express-Lanes, die direkt an die CPU angebunden sind. Weitere 20 PCI-Express-3.0-Lanes werden über den Lewisburg-Chipsatz realisiert, sodass insgesamt bis zu 68 PCI-Express-Lanes genutzt werden können. Diese lassen sich frei konfigurieren und können zum Beispiel für M.2-Slots eingesetzt werden. Weiterhin sollen 14 SATA-Ports integriert sein und damit sollten immer genügend Schnittstellen für Laufwerke zur Verfügung stehen.

Geht es nach dem aktuellen Zeitplan, könnten die Skylake-EP-Prozessoren mit bis zu 28 Rechenkernen im ersten Halbjahr 2017 zur Verfügung stehen, wohingegen Cannonlake-EP erst für Ende 2018 geplant ist. 

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (16)

#7
Registriert seit: 08.08.2005
Zürich
Flottillenadmiral
Beiträge: 4326
Schade das man sich mit dem Skylake E soviel Zeit lässt :(
#8
customavatars/avatar6035_1.gif
Registriert seit: 03.06.2003
Bochum
Oberbootsmann
Beiträge: 994
Ich glaube nicht, dass sich Intel Zeit lässt. Viel eher ist davon auszugehen, dass sie den Fertigungsprozess nicht wirklich im Griff haben. - Wie sonst sind die homöopathischen Dosen zu erklären, mit denen bspw. Core i7-6700k auf den Markt tröpfelt? - Jetzt einfach mal einen Chip vom Band laufen zu lassen, der im gleichen Fertiungsverfahren gefertigt wird, aber noch größer ist, wird in noch katastrophaleren Resultaten münden. - Intel bzw. die Verantwortlichen dort, wissen das und werden daher hübsch abwarten, bis die Probleme beim "kleinen" Skylake ausgeräumt sind, bevor man sich an die E-Variante heranwagt.
#9
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5531
Da klafft dann die Architekturspalte zwischen dem Mainstream/Performance und dem High End Sockel wieder auseinander, sogar etwas mehr denn je.
Haswell E(/P) kam ja Aug. 2014 raus wo Haswell am Sockel 1150 noch aktuell war. Das aber wohl auch nur weil Broadwell verzögert kam.
Jetzt kommt ja irgendwann 2016(?) erst mal Broadwell-E und erst in der ersten Hälfte 2017 Skylake-E. Da gibt's dann vielleicht schon Cannonlake am Mainstream Sockel wenn Intel bis dahin das mit 10nm Fertigung im Griff hat.

Naja was soll's, die ersten Gerüchte hören sich schon mal nicht schlecht an. 48 PCI-E Lanes an der CPU und nochmal bis zu 20 am Chipsatz bieten schon mal ordentlich was für's Erweiterungsherz. Als Enthusiast kann man sich da 3 Grafikkarten und diverse M.2 SSDs reinpacken ohne Kompromisse. Und im Serversektor bietet das auch genug für diverse Controller (SAS/RAID) oder Schnittstellenkarten.
Die 28 Kerne (wirklich Skylake-EP oder doch eher -EX ?) sind Serverseitig bestimmt auch interessant.

Zitat jrs77;23928348
Cannonlake wird es nicht mit mehr als 4C/8T geben für den Mainstream-Bereich.

Wie meinst Du das? Daß keine 4C/8T Cannonlake am Mainstream Sockel kommen werden sondern nur noch mit mehr Kernen, oder meinst Du es werden keine Cannonlake mit mehr Kerne als 4C/8T (also keine 6 und 8 Kerner) am Mainstream Sockel kommen?
Beide Aussagen halte ich für unwahrscheinlich.

Denn zu 1) - auch in Zukunft will man doch Celeron und Pentium CPUs haben. Daß diese mit Cannonlake schon mehr als 2 Kerne haben werden bezweifle ich zwar, aber 2 + HTT oder 4 ohne HTT sind durchaus denkbar.
Und zu 2) nach oben sind 6 Kerner (als i5? ohne HTT oder vielleicht nur i7) auch durchaus denkbar.

Gerade wenn AMD wirklich nächstes Jahr mit Zen etwas aufschließen kann und eventuell wieder viele Kerne in preislich niedrigen Regionen bringt muß Intel etwas machen.

Zitat jrs77;23928348

Mehr Kerne sind auch in den allermeisten Fällen schlichtweg unnötig, da es kaum Software gibt, die davon profitieren würde. 3d-Rendering ist fast das einizige wo man von mehr Kernen profitiert, aber da gibt es mittlerweile auch Render-Engines, welche die GPU benutzen und wesentlich schneller sind. Dazu kommt noch, daß man die TDP der Mainstream-CPUs unterhalb der 100W-Marke halten will, und was man bei der CPU durch einen kleineren Fertigungsprozess einspart wird dann eher in die iGPU oder die MHz/Kern (IPC) gesteckt.

Also auf die MHz/Kern wird man nicht mehr so setzen können. Sieh Dir mal die vergangenen Jahre an, da gab' es mehrfach kleinere Fertigungsprozesse aber kaum mehr Taktraten. Und mit OC sieht man ja bei jeder Architektur ganz gut wo in etwa das realistische Maximum liegt. Da liegen Sandy, Ivy, Haswell und Skylake so ziemlich auf Augenhöhe (letztere geköpft). Tendenz zu höheren Taktraten eher bei Sandy.
Was glaubst Du warum die Leute alle heulen daß es da kaum einen Leistungsfortschritt in den letzten Jahren gibt, wenn die Kernanzahl (am Mainstream Desktop) gleich bleibt und die Taktraten nur minimalst nach oben gehen? Alleine mit der IPC kann man sich keine Wunder erwarten, da sind 10-15% Steigerung schon toll.
#10
Registriert seit: 14.02.2011
Deutschland
Bootsmann
Beiträge: 650
Ein kleiner Denkanstoß für die Leute, die auf mehr Takt bestehen.
Ab nem gewissen Punkt steigt die Vcore unverhältnismäßig an für nen stabilen Takt.
Die CPU auf höhere Taktraten auszulegen ist weitaus schwerer als mehr Kerne hinzuzufügen.
Stichwort Tunnelströme etc. Kann man sich in etwa vorstellen wie bei nem Auto.
Bis sagen wir mal 100km/h steigt der Spritverbrauch leicht an, darüber gehts je nach Wagen rapide hoch.

Zu Singlecorezeiten wurde beißerisch versucht, den Takt weiter hohzuzüchten, bis der Punkt erreicht, dass man bemerkt hat, es viel einfacher ist, 2 Kerne in eine CPU zu packen.
Es ist sowohl aus energietechnischer Sicht als auch aus Entwicklungssicht rentabler, Richtung Mulicore zu gehen.
Mehr Takt wird je weiter man hoch geht immer schwieriger stabil zu bekommen und das noch ohne den Verbrauch durch die Decke schießen zu lassen.
Kleinere Fertigungsverfahren für kürzere "Schaltwege", um die Verlustleistung zu minimieren und Multicore sind der way to go.
#11
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5531
@Quantum Luke
Ja leider ist es so wie Du sagst. Mit den aktuellen Technologien kommt man taktmäßig nicht mehr viel weiter ohne die Spannungen und somit den Verbrauch unverhältnismäßig in die Höhe zu treiben.
Intel wollte ja mit dem Pentium IV in GHz Regionen weit über 5GHz (von bis zu 10GHz war mal die Rede). Allerdings hat man dann ab 4GHz gemerkt daß die Effizienz nachlässt und es mit der Wärmeabfuhr problematisch wird. Bis zum P IV waren die CPU Kühler meist auch noch recht klein und noch selten aus Kupfer. Was ich mich so erinnere kamen eben erst mit den schnelleren P IV die dicken CPU Kühler in Tower Form und mit Heatpipes. Die eigneten sich natürlich auch gut am Sockel 462 (A) aber so richtig notwendig waren die beim P IV. Der Boxed Kühler meines P IV 2.8 GHz (Prescott) war eine Frechheit was Leistung aber vor allem Lautstärke anging.

Tja wie dem auch sei, schon damals war man knapp bei 4GHz ... und wo sind wir heute? ;)
#12
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31552
Zitat Quantum Luke;23956556
Zu Singlecorezeiten wurde beißerisch versucht, den Takt weiter hohzuzüchten, bis der Punkt erreicht, dass man bemerkt hat, es viel einfacher ist, 2 Kerne in eine CPU zu packen.
Es ist sowohl aus energietechnischer Sicht als auch aus Entwicklungssicht rentabler, Richtung Mulicore zu gehen.


Mehr Cores klappt von 1 auf 2 oder von 2 auf 4 ja noch im Alltag. Wobei letzteres schon fast nicht aufgeht. Nach deiner Sysinfo hast du nen Quadcore Core2. Schau dir doch mal deine Alltagslast im Taskmanager an... Und dann rechne dir selbst aus, was passiert, wenn du da nochmal ne Coreverdopplung drauf packst -> es wird nicht schneller. Die Szenarien, die mit der CPU Breite skalieren sind heute relativ dünn. Und davon sind viele dabei, die einfach klar ausschließlich darauf ausgelegt sind. Da ist dann nicht bei acht oder 12 Cores schluss. Sondern das geht bis der Arzt kommt. Wie viel dieser Software betreibt Otto Normal Bürger wirklich bei der tag täglichen Arbeit? Und vor allem, wer solche Software intensiv nutzt, kauft auch entsprechend breite CPU Modelle.

Aus meiner Sicht kommt man heute relativ gut im Alltag mit nem kleinen Mobile Dualcore + SMT aus. Für die normalen Sachen muss der Takt auch nicht da sein. Wichtig ist, das das Modell in der Lage ist, Lastspitzen durch einen aggresiven Turbo abzufedern. Das klappt bei den kleinen i5/i7 Mobile Modellen ja aktuell super. Bei den dicken Boliden ala S2011 nicht wirklich -> denn da wirkt der Turbo nicht richtig und das merkt man einfach. Vor allem, wenn man noch OC drauf hat und der fehlende Takt drastisch hoch ist...


Mit mehr Cores erschlägst du definitiv das Problem nicht. Und dass jede Software in Zukunft 1A auf MT skaliert, halte ich für Wunschdenken. Es ist einfach heiden viel Aufwand jeden "Pfiff" auf MT zu programmieren, zumal es auch bei weitem nicht überall geht. Vor allem, wenn man davon eigentlich gar keinen wirklichen Mehrwert zur Zeit der Erstellung hat. -> und schon fängt man über die Monate und Jahre an zu merken, wo der Hase krankt. Nämlich an dem Punkt, wenn es leistungstechnisch schnellere CPU Modelle (pro Takt/pro Thread) gibt.
Mal im Vergleich, ich hab hier noch aktiv eine Kiste zu stehen mit nem Phenom I 9550 -> das Teil ist mit ner 830er Samsung SSD bestückt und nutzt Win 8.1 x64 als OS. Rein vom Feeling her ist damit deutlich weniger fluffiges Arbeiten drin als mit einem i5-4200U im Surface 2 Pro, was ich als Vergleich hier habe. Beide mit vier Threads, letzterer aber mit den deutlich dickeren Cores und mauem SMT im Vergleich zu vier gleichen Cores mit höherem Takt...
Das Problem beim Erkennen solcher Sachen ist einfach, du wirst weniger stark merken, wenn es schneller wird. Aber du merkst es extrem stark, wenn es nicht mehr gewohnt schnell funktioniert ;) Sprich aufrüsten merkt man nur, wenn die Lücke riesig ist. Beim Abrüsten hingegen kann/wird dir das deutlich eher auf die Füße fallen!
#13
Registriert seit: 14.02.2011
Deutschland
Bootsmann
Beiträge: 650
@fdsonne
Also ich habe zahlreiche Games, wo 3-4 Kerne am Limit sind.
Daher wird mein Q9550 auch rausfliegen, bisher fehlte das Geld.

Ich habe halt oft verschidene Games gleichzeitig offen, teilweise aufgrund des chats. Dazu dann noch diverse streamingseiten, youtube, twitch, an sich viele offene tabs.
Da merkt man dann schonmal, dass 1 oder 2 Kerne mehr nicht schaden würden.
Gut, die niedrige IPC meiner CPU spielt natürlich auch ne gewisse Rolle bei der Sache, ich halte es jedoch für sehr sehr unwahrscheinlich, dass next-gen Spiele Kerne mit ner derzeitigen IPC und mehr als 4GHz brauchen, um flüssig zu laufen. Wenn man sich mal die Konsolen ansieht, kann ne Entwicklung zum Hexacore nicht mehr lange dauern.
Wie gesagt, ein Quad ist das allermindeste fürs Gaming, wenn noch viel im Hintergrund läuft, kann es knapp werden.
Aber in der Hinsicht ist ja jeder anders gestrickt, einer hat permanent zahllose tabs offen und Hintergrundprogramme am laufen, der andere spielt ausschließlich ein Spiel.
#14
customavatars/avatar39948_1.gif
Registriert seit: 10.05.2006

Kapitänleutnant
Beiträge: 2029
Du widersprichst dir doch selbst. Erst sagst du, dass du nen Quad hast und mehrere Spiele gleichzeitig offen, dann sagst du, dass QuadCore das Minimum sei für "Gaming".
#15
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31552
Zitat Quantum Luke;23958847
Aber in der Hinsicht ist ja jeder anders gestrickt, einer hat permanent zahllose tabs offen und Hintergrundprogramme am laufen, der andere spielt ausschließlich ein Spiel.


Das ist aber nur die halbe Wahrheit. Es zählt nicht, was offen ist, sondern es zählt, was Leistung benötigt. Ich nutze die Tabs meines Browsers als quasi permanente Bookmarks. Da kommen über die Monate gern mal 150 Tabs zusammen, die sind halt offen, wenn der Browser offen ist. Das kostet mich genau NULL CPU Performance, sondern einfach nur RAM.
Wo ich mir allerdings die Frage stelle, wozu braucht man xx viele Programme, wenn man so oder so gerade spielt, womöglich sogar im Vollbildmodus? Das hat überhaupt keinen Sinn und erschließtlich sich im Grunde jeglicher Logik.

Mal als Beispiel, auf meiner Workstation laufen aktuell gerade ~1500 Threads. Die sind da und laufen einfach... Während ich hier den Text tipper. Die CPU hat eine Load von 1-2%, verteilt auf alle 16 Threads. Der Leistungsbedarf kommt einfach in meinem Fall aus dem Grund, dass ich diverse Tools zur Überwachung offen habe, so läuft ein Afterburner Fenster mit Diagrammen für die GPUs, es läuft das Corsair Link Tool zur Lüfter/Temp Überwachung, ggf. auch Verbrauchsüberwachnung. Es läuft idR der Taskmanager zur CPU Load Überwachung usw. usf.

Das alles würde ein Singlecore mit SMT spielend abdecken können. SMT/CMT deshalb, weil das Ansprechverhalten bei einem einzigen Threads grausig ist.
Wozu soll ich nun künstlich viele Programme öffnen, die Leistung kosten können, obwohl man diese gar nicht aktiv nutzt, wenn ich diese im Bedarfsfall einfach dann aufmachen könnte? Dank SSD und genügend RAM auch ohne wirkliche Verzögerung beim Öffnen?
Mehrere Spiele gleichzeitig offen zu halten, halte ich für sehr konstruiert um mehr CPU Power zu rechtfertigen ;)


Auch ist es nicht so, dass die Games auf die Cores hin optimiert werden. Sondern es läuft genau der gegenteilige Prozess. Man nutzt die Cores/Threads für mehr Berechnungen. Das sieht für den Außenstehenden zwar dann im Endeffekt gleich aus (also kommt aufs selbe Resultat), der Hintergrund ist aber Grundverschieden. Wenn nämlich einfach mehr Sachen berechnet werden, dann bringt eine breite CPU einfach gerade mal eine gewisse Basisleistung um dieses "Mehr" an Berechnungen ausführen zu können. Ist die CPU nicht breit genug, dann sinkt die Leistungs, teils drastisch.
Mit den Konsolen hat das aber einfach mal überhaupt nichts zu tun... Denn es behebt das Grundsätzliche Problem nicht. Und das ist einfach, dass eine gewisse Basisperformance notwendig ist, damit das Spiel erstmal rund läuft... Alles was an CPU Performance oben drauf kommt, ist quasi nettes Beiwerk, aber nicht zwingend notwendig. Mit mehr Cores erhöhst du die Leistung des Spiels also einfach nicht. Zumindest nicht ab dem Punkt, wo die CPU grundsätzlich breit genug ist.
Anders schaut das beim API Overhead aus. Je nach GPU (AMD oder NV) kann es hier drastische Unterschiede geben. Eine vier Thread Mittelklasse CPU ala Intel i3 oder AMD Athlon X4 ist selbst mit einer Lower Level API ala Mantle, ggf. auch DX12 nicht zwingend in der Lage, maximale FPS aus einer HighEnd GPU zu quetschen, obwohl nachweislich die Spiele die CPU lange nicht ans Limit treiben müssen. Das liegt dann wiederum aber nicht am Spiel, sondern am Treiber und den Optimierungen. Ebenso gibt es eine extrem klaffende Lücke zwischen NV und AMD in dem Bereich. Wo die AMD GPU deutlich mehr CPU Power braucht um in Fahrt zu kommen, ist das bei der NV GPU deutlich eher der Fall, obwohl beide eigentlich in etwa gleich schnell sein sollten und das Spiel absolut keinen Unterschied zwischen AMD und NV GPU in Sachen Gameberechnungen machen kann/sollte.


Wo ich dir aber zustimme, zumindest zum Großteil, ein Quad sollte man schon haben, wenn man wirklich die neueren Titel spielen will und dazu noch ne relativ große GPU hat. Das liegt aber wie erwähnt nicht am Spiel, sondern viel eher zu einem großen Teil am API Overhead und an den Zusatzberechnungen, die einfach in neueren Titeln immer mehr anzutreffen sind...
Theoretisch wäre es gar denkbar, dass die Entwickler deutlich mehr Cores ansprechen für ihren Zusatzspaß. KI Berechnung kann bspw. extrem komplex und zugleich extrem gut auf MT skaliert werden. Damit bekommst du theretisch gar 8, 12 oder 16 Threads klein und da ist lange noch nicht schluss... Nur warum sollte man das als Entwickler tun? Der heimische Mitteklasse PC hat 4-8 Threads, die er abdecken kann. Ein Spiel, was damit nicht klar kommt, verkauft sich einfach nicht... Ergo ein absolutes NoGo. Ebenso hat der Spielemarkt in Zukunft an der Stelle noch das ganz dezente Problem, dass die Lücke zwischen breiten CPUs und im Alltag notwendigen CPUs immer weiter auseinander klaffen wird. Das heist, die Spieleentwickler müssen sich da einfach mal was einfallen lassen...
#16
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5531
@Quantum Luke
Bis Anfang des Jahres habe ich ein sehr ähnliches System wie Du als Haupt PC genutzt (Core2Quad Xeon @ 4GHz, EP45-UD3P, 8GB DDR2 @ 1000+ MHz CL5, 840 Pro SSD, GTX 680 OC [Leistung vergleichbar einer 280X], Win7 64Bit)
Dank der schnellen GPU und SSD konnte ich mit dem Sys noch so alles mit recht hohen Einstellungen/FPS spielen. Allerdings achte ich darauf daß beim Spielen eher alles unnötige geschlossen ist. Da interessiert es mich nicht ob ich gerade eine Email, sonstige Nachrichten bekomme und schaue auch keine Videos/höre keine Musik etc. daneben. Liegt bestimmt auch an der Art der Spiele die man spielt.
Bin dann auf einen 6 Kern i7 umgestiegen weil ich mir keinen Quad (auch mit HT als i7 a'la 4790K) mehr kaufen wollte. Und JA - man merkt einen Unterschied. In einigen Bereichen (z.B. Videokonvertierung) enorm, in anderen etwas (Spiele wie z.B. BF4 laufen nun etwas flüssiger) und in einigen aber so gut wie gar nicht (Office, Surfen etc.)
Das zeigt auch schön welche Anwendungen bzw. Anwendungsgebiete was für Anforderungen bzw. Nutzung der Kerne mit sich bringen. Wenn Du jetzt tatsächlich z.B. ein (oder mehrere) Spiel(e) spielst die das System schon gut auslasten (Bei BF4 hatte ich permanent fast 100% Last auf allen 4 Kernen beim C2Q) aber daneben noch Streamen etc. willst kann es da bei einem Quad schon recht knapp werden.
Bei vielen anderen Spielen die z.B. nur 2-3 Kerne nutzen und vielleicht auch nicht permanent 100% abfordern kommt man mit einem Quad bestimmt auch noch gut zurecht.
Und wie fdsonne schon schrieb kommt es nicht darauf an wie viel man offen hat (das geht eher in Richtung RAM) sondern wieviel davon wirklich aktiv ist und Last erzeugt.

Um auf's Thema zurück zu kommen, ich kann mir gut vorstellen daß es vielleicht schon mit Cannonlake mehr als 4 Kerne am Mainstream Sockel geben könnte. Allerdings wird es bestimmt auch Varianten mit wieder nur 2 Kerne geben, eben weil der Markt es verlangt. Bei Zen denke ich ebenfalls in diese Richtung. Die Hersteller müssen die Nachfrage abdecken und auch in 2 Jahren wenn dann Cannonlake kommt bzw. Zen hoffentlich auch schon breit am Markt ist werden für kleine Officemühlen oder günstige Notebooks 2 Kern CPUs (teils halt mit HTT) benötigt.
Und bzgl. Spiele die mehr als 4 Kerne nutzen (und auch zum Konsolenthema weshalb dies vermutet wird), JA - es kommen bestimmt Spiele die das nutzen und davon profitieren. Bis das jedoch die Mehrzahl ist werden wohl noch einige Jahre vergehen. Solange es noch so viele Dual Core Systeme gibt bzw. welche die 4 Threads/Kerne haben werden die Entwickler darauf Rücksicht nehmen müssen. Man will sich ja keine Käufergruppen ausschließen wenn z.B. das Spiel auf 4 oder weniger Kernen nicht mehr spielbar läuft. Und aktuell ist das noch eine sehr große Anzahl.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]

AMD nennt architektonische Details zu Zen - Summit Ridge mit Broadwell-E...

Logo von IMAGES/STORIES/LOGOS-2016/AMD-ZEN

Alle Journalisten, die von Intel auf das IDF eingeladen wurden, bekamen von AMD eine Einladung für ein eigenes Event im Hotel gegenüber. Also machte sich der Tross auf den Weg, um in einer Pressekonferenz neue Details über AMDs kommende Zen-Architektur und die Prozessoren zu erfahren. Erstmals... [mehr]