> > > > Intels Skylake-Nachfolger Kaby Lake soll erst 2017 kommen

Intels Skylake-Nachfolger Kaby Lake soll erst 2017 kommen

DruckenE-Mail
Erstellt am: von

intel3Intel hatte bereits bei der Broadwell-Serie mit Verzögerungen zu kämpfen. Anscheinend betrifft dies auch den direkten Skylake-Nachfolger Kaby-Lake sowie die Cannonlake-Prozessoren. Wie eine Quelle aus Asien meldet, soll die Skylake-Serie wohl noch etwas länger im Handel bleiben als ursprünglich geplant. Der Grund: Zwar sollen erste Kaby-Lake-Prozessoren bereits Ende 2016 in den Handel kommen, die Produktpalette aber soll erst Anfang 2017 komplettiert werden. Wie auch Skylake, wird Kaby-Lake den 14-nm-Prozess nutzen, jedoch mit einer verbesserten Architektur an den Start gehen. Die Entwicklung der neuen Architektur sei so komplex, dass Intel zu diesem Schritt gezwungen sei. Zudem unterstützen die CPUs erstmals nativ HDCP in der Version 2.2 und auch dies soll Intel vor eine Herausforderung stellen.

Wie auch schon bei Skylake wird Intel seine Prozessoren in verschiedenen Phasen veröffentlichen. Den Anfang soll die Kaby-Lake-U-Serie mit 2+2 Rechenkernen im vierten Quartal 2016 machen. Ebenfalls im vierten Quartal sei Kaby-Lake-Y mit 2+2 geplant. Die Prozessoren mit nativer HDCP-2.2-Untersützung hingegen sollen erst Ende 2016 ausgeliefert werden und frühstens Anfang 2017 im Handel zu finden sein. Die Desktop-Version der Prozessoren wird dabei auf den aktuellen Sockel LGA1151 zurückgreifen und ist sowohl mit dem Chipsatz Z170 sowie dem direkten Nachfolger Z180 kompatibel.

Intel Kaby Lake SKUs

Weiterhin wird als Grund für die Verzögerung die schlechte Ausbeute der 10-nm-Produktion genannt. Die Cannonlake-Plattform wird erstmals im 10-nm-Prozess gefertigt und anscheinend ist die Ausbeute momentan so gering, dass Intel diese von Anfang 2017 auf Ende 2017 verschieben musste. Damit der Hersteller sein Tick-Tock-Prinzip einhält, hat sich Intel für die Anpassung des Zeitplans entschieden und neben Kaby-Lake auch Cannonlake entsprechend verschoben.

Social Links

Kommentare (57)

#48
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18686
Also bleibt der 8 Kern Haswell Extreme das non plus Ultra 2 Jahre lang :)
#49
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 14877
Zitat Tiedemann1210;23962914
Bin jetzt auch nicht vom Gaming ausgegangen sondern von der Gesamtperformance. Nutz mein sys nämlich nicht nur für Gaming sondern auch als Workstation.


Dann isses ja wieder was anderes, mein sys ist nur zum Zocken, menie Workstation steht auf der arbeit, da fliesst kein provates Geld rein.
AG hat das Teil geleast und alle 4 Jahre gibtsn neuen Rechner mit Monitor :)

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Janex;23963121
Soll doch jeder die CPU kaufen bzw. behalten die zu seinen Ansprüchen passt, einfach ein unnötiger Kleinkrieg.

Aber wo wir grad dabei sind, ich fahr BMW der Rest ist kacke.


Ganz klar Ford FTW, soalnge ein Pony im Grill hängt ;)
#50
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5601
Na dann hoff ich mal daß AMD Zen möglichst schnell und nicht allzu spät 2016 bringt. Die Leistung sollte halt passen und der Preis unter vergleichbaren Intel CPUs liegen. Dann muß Intel sich zumindest preismäßig auch anpassen was für uns Kunden nur gut ist.

Generell würde ich mir wünschen daß die breiten AMD CPUs dann massig Leistung haben bei guten Preisen und Intel vielleicht auch zumindest 6 Kerner am Mainstream Sockel bringt. Klar braucht das aktuell vielleicht kaum wer, soll heissen die breite Masse wird damit nichts anfangen können, aber vielleicht entwickeln dann die Softwarehersteller auch verstärkt Multithreaded.
Aktuell beisst sich die Katze in den Schwanz ... wozu als normaler Anwender mehr als 4 Kerne kaufen wenn es kaum genutzt wird. Und andersrum wird kaum auf mehr optimiert/entwickelt wenn es so wenige Kunden nutzen.

Wie will man denn aktuell sonst mehr Leistung von einem neuen System bekommen? Die Taktraten werden nur noch minimal ansteigen da man mit der aktuellen Technik anscheinend schon jahrelang am Sweet Spot was Effizienz anbelangt hängt. Schnellere SSDs, bessere Anbindungen (mehr PCI-E Lanes, USB 3.1, TB, M.2 etc.) und bessere RAMs (DDR4 mit Potential zu hohen Taktraten, weniger Verbrauch und größeren Modulen) sind zwar schön und gut, aber die meisten Anwender merken da die Unterschiede auch kaum.
Die IPC steigt, aber wie früher ja auch schon oft nur minimal. Früher waren die Unterschiede halt größer weil auch Taktraten und dann Kerne mit angestiegen sind.
Wenn dann mal Anwendungen für die breite Masse (z.B. Spiele) auf 6 oder 8 Kerne optimiert sind und man damit einen großen Unterschied zu 4 Kern CPUs bzw. auf jeden Fall 4 Thread (2 Kern + HTT oder 2 Module) CPUs sieht und merkt wird sich etwas tun und die Leute werden auch dementsprechende CPUs kaufen.

@UHJJ36
Zumindest bis Broadwell-E irgendwann nächstes Jahr kommt. Bin schon gespannt wie die aussehen.

@Tiedemann1210
Naja der 5820K ist aktuell etwa gleich auf mit einem Top Mainstream Sys a'la 4790K oder 6700K. Je nach Threadnutzung und Taktraten mal vorne/mal hinten. Allerdings hat man am Sockel 2011-3 noch die Möglichkeit aufzurüsten. Zwar nicht sehr günstig aber vielleicht kommen ja mit Broadwell-E interessante Modelle.
Am Sockel 1150 und 1151 kann man nur takten was das Zeug hält und auch Kaby Lake wird wohl nur Skylake mit eventuell mehr Takt und kleinen Verbesserungen sein.
#51
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31944
Zitat Bucho;23963960
Klar braucht das aktuell vielleicht kaum wer, soll heissen die breite Masse wird damit nichts anfangen können, aber vielleicht entwickeln dann die Softwarehersteller auch verstärkt Multithreaded.
Aktuell beisst sich die Katze in den Schwanz ... wozu als normaler Anwender mehr als 4 Kerne kaufen wenn es kaum genutzt wird. Und andersrum wird kaum auf mehr optimiert/entwickelt wenn es so wenige Kunden nutzen.


Sehe ich nicht ganz so. Die Katze beist sich nicht in den Schwanz, weil die Software nicht mehr Threads ansprechen kann, sondern weil einfach idR nicht mehr Leistung benötigt wird.
Oder welche Software im Alltag hat den Bedarf nach vier+ Threads, weil diese permanent auf Volllast laufen?

Ich sehe bestenfalls da generische Volllastjobs, welche sowas aktuell fabrizieren. Aber auch diese sind heute schon (ja sogar schon länger) auf MT ausgelegt und machen auch lange nicht bei acht Threads schluss... Eine CPU mit 12 oder 16 Threads bekommst du mit der Software heute schon klein. Und dort wo du die Leistung brauchst, kaufst du einfach die Leistung. Im Endeffekt zählt idR doch Zeit = Geld. Und wenn du für nen Aufpreis mehr Leistung kaufen kannst und es dich somit schneller macht, kann man das durchaus überlegen.

Andererseits, wer braucht im Mainstream solche CPUs? Und wo soll der Bedarf in Zukunft her kommen? Für Spiele? Möglicherweise... Allerdings sind wir doch nicht alle samt ausschließlich Gamer.
Ich stelle mir sowas immer gern unter dem Gesichtspunkt des Businessbereiches vor. Wenn ich das bei mir auf der Arbeit ansehe, dann sind die kleinen i5 Mobile CPUs da in den Notebooks alle samt ausreichend. Ja sogar eigentlich noch überdimensioniert. Einzig der Fakt, dass die größeren Modelle durch einen aggresiven Turbo Lastspitzen effizient abfedern lässt die Wahl zu diesen Modellen fallen anstatt noch kleiner und somit günstiger einzuchecken.
Was soll sich in der Situation in Zukunft ändern? Mir ist stand heute keine einzige Software bekannt, die A) derart lange ST Last erzeugt, dass es auffallend nervig ist und B) die man im Alltag permanent verwenden muss/müsste.
Lass ich B) weg, wirds nicht besser, denn da fällt mir spontan genau eine einzige Software(suite) ein -> und das ist Autodesks AutoCAD, welches selbst in der aktuellsten Version bei größeren Zeichnungen noch massiv ins ST Limit rennt, vor allem bei 2D only und somit ohne direkte GPU Beschleunigung. Das hat dann aber so gar nix mehr mit Alltag zu tun.


Zumal du es dir aus meiner Sicht etwas zu einfach mit den MT Optimierungen machst ;) MT zu programmieren ist grundsätzlich nicht sonderlich schwer. Nur muss der Aufwand in einem Verhältnis stehen. Wenn das gewünschte Ergebnis genügend schnell in einem Thread läuft, warum den Aufwand betreiben? Es ist ja nicht so, als müsse man dazu nur einen Schalter umrammeln und es kommt MT optimierter Code hinten bei rum... Ganz im Gegenteil. Da müssen Sachen beachtet werden, welche dir als Programmierer möglicherweise das Leben durchaus schwer(er) machen können... Steht dann der Mehrwert nicht im Verhältnis, machts imho keinen Sinn, sowas zu fabrizieren.

Was halt nicht vergessen werden sollte bei der Sache, MT ist im Grunde von der Idee her nicht für mehr Leistung von einer Aufgabe gedacht. Sondern für mehr Leistung durch mehr Aufgaben... -> aktuell verfolgt man den Weg aber mehr oder weniger und stellt immer wieder fest, dass es nicht direkt aufgeht. Bei Games hat man das mittlerweile sogar schon erkannt. Denn hier kommen idR mehr Aufgaben dazu, welche dann durch MT abgearbeitet werden können. Nur steigt die Leistung dabei nicht, sondern es verschiebt sich einfach die Basis nach hinten. Geht man aber mal von Games weg, ist die reine CPU Power oftmals gar nicht das direkte Problem. Sondern viel eher das Zusammenspiel zwischen CPU und System bzw. System und Anbindung. Wenn die Daten bspw. aus dem INet kommen ists egal, ob ich da nun zwei oder 16 Threads auf der CPU habe. Oder wenn die Daten von der HDD kommen usw.
#52
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5601
@fdsonne
Ist mir alles durchaus klar, eben daß es nicht so einfach ist MT zu programmieren und daß es durchaus Anwendungen gibt wo man viele Threads gut auslasten kann und man das kaufen kann. Auch daß aktuell kleine Dual Cores mit ggf. Turbo oder HTT für den Alltag und Durchschnittsuser ausreichend sind.

Deshalb habe ich ja auch dann als Beispiel für die breite Masse z.B. ein Spiel hergenommen. mMn sind wir in Spielen noch immer weit von wirklicher Interaktion entfernt. Was ich damit meine ist z.B. die Veränderbarkeit der Umgebung, eine wirklich gute AI, realistisches Verhalten der Objekte miteinander uvm. Und das brauch Unmengen an CPU Power. Problematisch ist hier vielleicht nur daß dies ja dann ein spielbestimmendes Element wird und man das nicht einfach abschalten oder drastisch reduzieren/vereinfachen kann um z.B. auch auf langsameren bzw. mit weniger Kernen ausgestatteten System laufen zu lassen. Einige Spiele gehen schon ein wenig in die Richtung, bei Shootern war z.B. Bad Company 2 eines der ersten mit wirklich merkbar veränderbarer(zerstörbarer) Umgebung. BF4 hat es noch einen Schritt weiter getrieben. Das und der Fakt der vielen Spieler auf einer Karte benötigt CPU Power wie man sieht.
Der Single Player Benchmark von BF4 ist für die CPU nicht so fordernd und zeigt eigentlich eher die GPU Leistung auf. Wenn sich dann richtig im MP etwas tut kann aber aus dem vielleicht gutem Ergebnis des SP Benches schon ein Trauerspiel mit enormen FPS Drops werden, und das liegt dann nicht an der GPU sondern alleine CPU.
Nighteyes liebstes Beispiel Star Citizen zeigt ebenfalls was machbar ist und was das dann aber auch an Leistung kosten kann.

Und leider ist es wirklich so wie Du sagst daß viele Anwendungen einfach nicht MT programmiert/optimiert sind weil es kaum notwendig ist. Ein Excel Formular oder Makro rennt ja auf einem schnellen System sowieso nicht ewig -> deshalb hat sich M$ so lange Zeit gelassen das zu implementieren (ich glaube ab Vesion 2007 geht das erst).

Etwas besser sieht es da im mobilen Sektor aus, also auf Smartphones, Tablets & Co. Denn dort ist es eher üblich Mehrkern (ARM) CPUs zu haben, als schnelle Single Cores. Dementsprechend sind dort Anwendungen eher auf mehrere Threads ausgelegt. Der Trend sollte auch am PC Einzug finden. Wobei es am mobilen Sektor mit der Ausnahme einiger Dienste sowieso eher auf eine aktive Anwendung hinausläuft. Viele Betriebssysteme frieren ja Apps im Hintergrund ein.

Meine Angst ist es halt daß es von nun an am PC Sektor mit der Leistungssteigerung so weiter gehen wird wie in den letzten Jahren. Vielleicht sogar noch schlechter. Für den durchschnitts PC wird es lange bei 2-4 Kernen bzw. Threads bleiben. Takt wird sich nicht mehr gravierend steigern. Die Architekturen werden zwar besser, aber mehr als 5-10% je Generation ist nicht zu erwarten, und das ist schon viel.

Wenn man duch mehr Kerne keine/kaum Mehrleistung im Alltag bekommt wird es auch kaum wer kaufen.
Und da sehe ich trotzdem eher die Verantwortung bei den Softwareentwicklern. Denn Hardware kann man schon jahrelang kaufen, und das teils nicht mal sooo teuer (Phenom X6, FX 6xxx und 8xxx Modelle, i7 mit HT oder mehr als 4 Kernen, Xeons etc.)
#53
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31944
Das Problem ist nicht, dass es nicht geht. Es geht und das auch relativ einfach... Das Problem ist eher, dass es nix bringt.
Wenn wir über Spiele sprechen, müssen wir in erster Linie erstmal unterscheiden, was da überhaupt Last erzeugt oder besser, was da überhaupt limitiert. Das was in der Community als CPU Limit bezeichnet wird, ist im Grunde eigentlich "unsinn". Denn es gibt kein CPU Limit in dem eigentlichen Sinne dieses Gesichtspunktes. Das Bild setzt sich immer zu einem Teil aus CPU Rechenzeit und aus GPU Rechenzeit zusammen. Da das eine nicht ohne das andere kann und sich somit die Rechenzeiten addieren, kann es kein CPU Limit von der Seite her geben. Es ist immer eine Kombination aus beiden... Klingt vielleicht komisch. Ist es aber eigentlich gar nicht.
Mal als fiktives Rechenbeispiel, du hast 20ms Zeit, welche die GPU braucht und 5ms Zeit, welche die CPU braucht, so kommst du auf 25ms aka 40 FPS. Mit einer Verdopplung der GPU Power kommst du auf fiktive 10ms GPU Zeit -> und somit auf angenommen 15ms aka 66,66 FPS. Ne Verdopplung der CPU Power würde bei der langsameren GPU aber auch zu mehr Leistung führen. Allerdings aufgrund des geringeren Zeitanteils eben in weniger absolute FPS.
Das bezieht sich in erster Linie erstmal auf den API/Treiber Part und die GPU Berechnungen.

Das, was du mit AI/KI Berechnung ansprichst, ist aber ein völlig anderes paar Schuhe und setzt genau dort an, was ich open ansprach -> man wird einfach mehr Berechnungen dran bauen um mehr MT Power ausnutzen zu können. Nur behebt das eben das eigentliche Grundproblem nicht, es wird damit einfach nicht schneller. Sondern es verschiebt die notwendige Basisperformance nach oben. Mehr aber auch nicht...

Die Frage ist am Ende, wo krankt es bei den Games genau? Es ist ja unnötig, xx hundert FPS durch die CPU zu ereichen, da diese so oder so nicht ankommen. Die FPS Bereiche, die man anstrebt, sind seit Jahren, ja sogar Jahrzenten schon im gleichen Bereich. Was auch nicht ganz so schlecht ist von der Warte her. In die Röhre schauen nur die Leute, welche mit 120 oder 144Hz im Sync spielen wollen. Denn das ist idR einfach nicht drin... Die Programmierung und die Berechnungen sind dafür idR nicht ausgelegt und es kommt häufig so viel überhaupt nicht bei raus... -> das deckst du aber mit mehr MT Power auch nur bedingt ab. Hier brauch es eher einer zentralen Stelle, welche sowas steuert. Sprich was ist zum gegenwertigen Zeitpunkt marktüblich. Gibt man das den Entwicklern in die Hand, werden die nen Teufel tun, dahin zu optimieren -> sondern einfach Leistung in BQ oder sonstwo verblasen, denn davon hat dann wiederum jeder was ;)


Was den Part mit den Anwendungen angeht, wie gesagt, der Bedarf ist aus meiner Sicht nicht gegeben... Der auch ein Excel 2016 arbeitet sequenziellen Code von Macros mit MT ab. Wie soll das auch gehen? Es mag sein, dass die Macros in einzelnen Threads laufen, aber deswegen werden sie nicht schneller. Dafür musst du als Codeschreiber einfach selbst sorgen. Mit oben besagten Mehraufwand und ggf. mit Schwierigkeiten, die es an der Stelle abzuwegen gilt.
Mal als einfaches Beispiel, du hast ne Liste von 100 Werten und willst pro Wert prüfen, ob dieser Text nun eine bestimmte Zeichenfolge beinhaltet, sowie das Ergebnis ausgeben. Technisch würde sich nun anbieten, das ganze MT auszuführen. Sprich Wertetabelle splitten und gleichzeitig die Prüfung durchführen... -> nur stellt sich die Frage, was bringt es dir am Ende? Nehmen wir an, du nutzt ein Windows OS und .Net als Basis. -> da hast du schöne Fensteranimationen, welche ganz paar ms Zeit benötigen, bis da eine Darstellung am Ende bei raus kommt. -> wenn du nun mit MT die benötigte Rechenzeit von angenommen 10ms auf 2ms senken könntest, die Animation aber 500ms braucht, bis der Text schön klicki bunti like auf dem Schirm ankommt, was hast du da gewonnen?
-> das Beispiel und die Zahlen erheben natürlich keinerlei Anspruch auf 100% Richtigkeit, es soll an der Stelle viel eher beleuchten, dass dort noch ganz andere Sachen der Leistungsskalierung in die Suppe spucken und vor allem, den Sinn am Ende völlig fraglich machen.

Wenn du mich fragst, wo die Reise hingehen wird, ich denke man wird sich nun noch viel mehr auf Energieeffizienzsteigerung hinbewegen... Da ist noch ne ganze Menge Potential. Wenn du ne kleine vier Core CPU, ggf. noch mit SMT in 10-15W pressen willst, kommst du heute nicht so wirklich weit. Also bspw. das, was die kleinen "Y" Modelle heute als DC + SMT sind, könnte morgen ein Quadcore + SMT sein. Damit geht dann auch eine sehr große Leistungssteigerung in diesen Bereichen einher und es hilft der Alltagsanwendung am Ende, noch besser zu arbeiten, weil du durch Turbo und Co. Lastspitzen noch besser abgefedert bekommst.


PS: das Thema Smartphone und CPU Load täuscht übrigens auch ;)
Denn da ist bei weitem nicht so wirklich viel auf MT hin optimiert... Ich würde gar sagen, so viel mehr als im PC Bereich ist das nicht. Nur kann man dort die Modelle noch an den Mann bringen, weil die Leute weniger Möglichkeiten haben, die Sinnhaftigkeit am Ende auch wirklich zu erkennen. So ein Okacore Samsung irgendwas im Tablet, was ich Zuhause habe bringt mir genau NULL mehr Performance ggü. dem Quadcore Smartphone (ebenso Samsung), ja selbst meines Vorgänger Smartphones mit dem Dualcore. -> das, was beschissen auf dem DC läuft, läuft auf dem Quadcore oder Oktacore auch nicht besser. Die CPU Load ist idR kein Problem, fehlende MT Optimierung hingegen schon eher... Leider haben solche Modelle noch ganz andere Probleme wie beschissene Treiber oder allgemein verhunzte Oberflächen (Samsung TouchWiz) -> und das macht mehr gefühlte Performance kaputt als es dir durch irgend ne MT Optimierung reinbringt.
#54
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5601
Zitat fdsonne;23967084
...
Das, was du mit AI/KI Berechnung ansprichst, ist aber ein völlig anderes paar Schuhe und setzt genau dort an, was ich open ansprach -> man wird einfach mehr Berechnungen dran bauen um mehr MT Power ausnutzen zu können. Nur behebt das eben das eigentliche Grundproblem nicht, es wird damit einfach nicht schneller. Sondern es verschiebt die notwendige Basisperformance nach oben. Mehr aber auch nicht...

Aber genau das (mehr Berechnungen) will ich ja dadurch erreichen. Ich hatte nie gesagt ich will mehr FPS bzw. es schneller haben. Wenn auf einem aktuellen System z.B. BF4 im Schnitt 60-70 FPS erreicht ist das ja schon in Ordnung. Durch eine bessere AI/KI und eventuell eine erhöhte Anzahl davon, und dann noch wesentlich mehr Interaktionsmöglichkeit mit der Umgebung würde auf dem gleichen Sys die CPU Last erhöhen und die FPS würden fallen.
Leistung ist ja Arbeit/Zeit, und wenn ich mehr Arbeit in gleicher Zeit verrichten kann dann kann das Spieleerlebnis realer werden.

Zitat fdsonne;23967084

... Gibt man das den Entwicklern in die Hand, werden die nen Teufel tun, dahin zu optimieren -> sondern einfach Leistung in BQ oder sonstwo verblasen, denn davon hat dann wiederum jeder was ;)

Ist ja gut so - so wie die BQ und Grafik gesteigert wird und das immer schnellere GPUs erfordert sollte sich auch der "Inhalt" bzw. das Spiel steigern, auch wenn das mehr CPU Power bzw. breitere CPUs fordert.
Für den User ist es zwar erfreulich mit einer CPU die bereits Jahre alt ist noch jedes aktuelle Spiel gut spielen zu können, aber Fortschritt ist es keiner. Ich mein ich kann mit meinem Core2Quad (Xeon Release Ende 2007 [!], Desktop 2008) mit potenter GPU jedes aktuelle Spiel brauchbar spielen. Rechnet man fairerweise 2008 dann sind das 7 Jahre. Nimm diese Zeit irgendwann vor 2006-2007 (also Core2 Zeit) und rechne von beliebigen Datum zurück. Mit jeder CPU die zu dem Zeitpunkt 7 Jahre alt war konnte man sich zu dem Zeitpunkt brausen gehen.

Zitat fdsonne;23967084

Wenn du mich fragst, wo die Reise hingehen wird, ich denke man wird sich nun noch viel mehr auf Energieeffizienzsteigerung hinbewegen... Da ist noch ne ganze Menge Potential. Wenn du ne kleine vier Core CPU, ggf. noch mit SMT in 10-15W pressen willst, kommst du heute nicht so wirklich weit. Also bspw. das, was die kleinen "Y" Modelle heute als DC + SMT sind, könnte morgen ein Quadcore + SMT sein. Damit geht dann auch eine sehr große Leistungssteigerung in diesen Bereichen einher und es hilft der Alltagsanwendung am Ende, noch besser zu arbeiten, weil du durch Turbo und Co. Lastspitzen noch besser abgefedert bekommst.

Nur wenn es so weiter geht mit der Entwicklung macht so wie Du sagst "morgen" auch ein Quadcore + SMT keinen Sinn weil man in den meisten Anwendungen keine Mehrleistung erhält. Wenn die Anwendungen weiterhin auf wenige Threads ausgelegt sind ist dann wohl eine DC + SMT mit hohem Turbo besser dran als ein QC + SMT mit aber weniger Takt/Turbo.

Es ist schon in Ordnung und gut daß die Effizienz steigt, früher haben CPUs ja auch weit weniger Energie verbraten obwohl die ja noch die meiste Arbeit hatten (pre 3D Grafikkarten). Bis zum 486er mit 33MHz wurde ja sogar oft nicht mal ein CPU Kühler verbaut.
Ist klar daß es nicht nur nach oben gehen kann und Intel geht nun eh schon Schritt für Schritt wieder zurück. Aber die Leistung sollte halt nicht stagnieren. (Tut sie aktuell ja eh nicht, aber die Schritte nach oben sind halt sehr klein)

Zitat fdsonne;23967084

PS: das Thema Smartphone und CPU Load täuscht übrigens auch ;)
Denn da ist bei weitem nicht so wirklich viel auf MT hin optimiert...

Ja das stimmt schon. Wie ich ja auch schon schrieb sind da ja sowieso meist nur eine App und ein paar Dienste gleichzeitig aktiv. Aber immerhin haben wir dort schon eine gewisse Hardwarebasis die mit MT gut zurecht kommt/kommen würde. Das fehlt eben im PC Sektor noch etwas wenn die breite Masse nach wie vor Dual Cores kauft.
Glücklicherweise gibt es so gut wie keine Single Cores mehr, denn ein hoch getakteter Single Core Skylake (+ eventuell HTT) würde eventuell für den ein oder anderen Durchnittsrechner und bestimmt viele Office PCs auch noch ausreichen.
#55
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Fregattenkapitän
Beiträge: 3022
Zitat Thrawn.;23962800
Der bringt dir auch wenig wenn dafür ne Spargraka das Sys bremst ;)


Das ist wirklich aller unterste Schublade - 290 als Spargraka zu bezeichnen. Dein Gesicht will ich mal sehen, wenn D3D12 von den meisten Games unterstützt wird, oder Dir einer der billigen Mosfets abraucht, die meistens sogar ungekühlt sind(vielleicht mit Absicht?).
Ich hatte letztens eine 780 im Testsystem und alleine schon wegen dem nervtötenden Summen der halbierten SPARspulen, wusste ich, warum ich um NVidia erstmal einen Bogen mache, solange AMD halbwegs hinterher kommt. Außerdem machte das Bild in Unigine Heaven Benchmark einen deutlich unruhigeren Eindruck.
AMDs Treiber sind zwar Schrott, übertakten kann man auch kaum was, das wird aber in Zukunft nicht mehr wichtig sein, weil die Software direkt auf der GPU läuft und sich dann die bessere Hardware auswirkt.

Zum Prozessor: Weder AMD noch Intel können riesige Sprünge machen. Viel kleiner als 10nm wird nicht machbar sein. Da kann man nur die Anzahl der Kerne erhöhen.
Der 5820k ist meiner Ansicht momentan vom P/L Verhältnis zum zocken top. Bei 2 Grafikkarten, spricht man mit 16x, 8x an, bleiben 4x für die 32Gbit/s SSD. Die Soundkarte bekommt dann PCIe V2 ab. Die Daten werden bei den meisten Leuten auf dem NAS liegen, so ist man die Vibrationen und das Geräusch los. Und Leute, die kein NAS haben, wird es auch nicht interessieren, ob ihre Grafikkarte mit 8x oder 4x läuft.
Effektiv verzichtet man also in den meisten Konstellationen nur bei einer Grafikkarte auf 8 Lanes. Das ist sicherlich nicht 200€ Aufpreis wert.
#56
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
Zitat Thrawn.;23963155
@john4711+0815:Sagt der Frischling, lol mit sowas streite ich mcih doch nicht ,der pc is nebensache mittlerweile, das wirkliche Geld fliesst ins Muscle Car kleiner.
Verplappert ? Joa wenn du meinst, kanns ja verstehen wenn du mit deiner Unterklassekarte Frusst schiebst, aber bitte lass den doch woanders raus ,danke.


uiuiui. hab ich da etwa einen nerv getroffen?

wieso sollte ich frust schieben?
ich definiere mein selbstwertgefühl nicht darüber mit dicker hardware online prahlen zu können. solange mir meine billigkarte zum zocken reicht ist alles in ordnung. dann ist sie halt langsam und billig. und jetzt?
ganz im gegensatz zu dir wie mir scheint.

klar ist der pc nur nebensache. klar geht deine ganze richtige kohle in deine vielen tollen muscle cars.

dich anderen überlegen fühlen weil du angeblich die teurere hardware besitzt. sagt einiges über dich aus.
#57
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 14877
Nerv getroffen, nö. Mich kotzt es nur an wenn nen dahergelaufener newbie nem 10 Jährigen Luxx Mitglied unterstellt seine Hardware wäre nur erfunden.
Nicht mehr und nicht weniger ,da kannst jetzt auch deinen Interpretationsschlüssel wieder einpacken.
Ich fühle mcih garkeinem überlegen und besitze (wie auch geschrieben) nur ein Muscle Car, nur wenn du jemanden so angehst brauchst dich ob der Reaktion nicht wundern.

Von meiner Seite ist das jetzt erledigt, Entschuldigung braucht man ja Heutzutage keine mehr erwarten.
Over and Out
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]

Intel Core i7-7700K (Kaby Lake) nun ebenfalls in Benchmark gesichtet

Logo von IMAGES/STORIES/LOGOS-2015/INTEL3

Mittlerweile sind die ersten Benchmarks zum kommenden Intel Core i7-7700K (Kaby Lake) aufgetaucht und ergänzen damit die Werte zum Core i7-7500U. Die Ergebnisse wirken durchaus sehr glaubhaft, denn sie sind in der offiziellen Datenbank von Geekbench 4 zu finden. Getestet wurde der neue Prozessor... [mehr]

AMD nennt architektonische Details zu Zen - Summit Ridge mit Broadwell-E...

Logo von IMAGES/STORIES/LOGOS-2016/AMD-ZEN

Alle Journalisten, die von Intel auf das IDF eingeladen wurden, bekamen von AMD eine Einladung für ein eigenes Event im Hotel gegenüber. Also machte sich der Tross auf den Weg, um in einer Pressekonferenz neue Details über AMDs kommende Zen-Architektur und die Prozessoren zu erfahren. Erstmals... [mehr]