Aktuelles

LGA1700: Foto zeigt Rückseite eines Alder-Lake-Prozessors

Thread Starter
Mitglied seit
06.03.2017
Beiträge
3.878
Erst vor wenigen Tagen hat Intel das Erscheinen der nächsten Core-Generation alias Rocket Lake für das erste Quartal 2021 bestätigt. Auf Rocket Lake wird Alder Lake folgen. Alder Lake wird einen signifikanten Wechsel im Aufbau der Prozessoren nach sich ziehen, denn anstatt vier, acht, zehn oder bis zu 28 identische Kerne in einen Prozessor zu packen, wird Alder Lake ein sogenanntes Hybrid-Design aus einer bestimmten Anzahl an großen und leistungsstarken und einer bestimmten Anzahl an kleineren und effizienten Kernen sein.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Zombiez

Enthusiast
Mitglied seit
22.01.2010
Beiträge
27
Ist die Timeline für nächstes Jahr realistisch? Ein halbes Jahr nach Einführung von pcie4 kommt der Sprung auf pcie5?!
 

Holzmann

Enthusiast, The Saint
Mitglied seit
02.05.2017
Beiträge
21.067
Ort
50.969

Jedi123

Enthusiast
Mitglied seit
22.12.2007
Beiträge
348
Naja dies performance Gracemont-Kerne sollen ja speziell auf den Desktop optimiert werden, und nichts mehr mit Lakefield zu tun haben. Also mal schauen.

Gibt es dann eigentlich kein HT mehr, oder wie muss man sich das vorstellen ab Alder Lake?
 

MS1988

Urgestein
Mitglied seit
03.10.2009
Beiträge
5.471
Habe irgendwie die Sorge, dass es zu ähnlichen Problemen kommen könnte wie damals mit smt.

Gerade halt bei games. Wird eventuell einige Zeit in Anspruch nehmen bis diese cpu's wirklich ihr Potenzial entfalten könnte .
 

DeckStein

Experte
Mitglied seit
08.05.2018
Beiträge
3.149
Habe irgendwie die Sorge, dass es zu ähnlichen Problemen kommen könnte wie damals mit smt.

Gerade halt bei games. Wird eventuell einige Zeit in Anspruch nehmen bis diese cpu's wirklich ihr Potenzial entfalten könnte .
Sollte wohl am sheduler liegen. Wenn das ganze OS gedöhns und bloat auf den 4 luschen läuft, blieben die 4 thermonuklearen ja recht frei.
 

drakrochma

Enthusiast
Mitglied seit
21.07.2006
Beiträge
4.444
Ort
Mainz-KH
Wäre schön, wenn Intel wieder mithalten könnte.
Dass die Teile wirklich so gut sind, glaube ich erst, wenn was verfügbar ist.
Dafür gab es einfach zu viele Ankündigungen und Störfeuer ohne dass irgendwas wirklich geliefert wurde.

Mit Fortschritt hatte es intel in letzter Zeit ja nicht unbedingt..
 

Tzk

Legende
Mitglied seit
13.02.2006
Beiträge
14.817
Ort
Koblenz
Ist die Timeline für nächstes Jahr realistisch?
Ich tippe eher auf Anfang 2022, wenn auch AMD mit Sockel AM5, PCIe 5.0 und DDR5 kommt. 2021 dürfte DDR5 noch unerschwinglich sein.

Wenn das ganze OS gedöhns und bloat auf den 4 luschen läuft, blieben die 4 thermonuklearen ja recht frei.

Ich stelle mir ernsthaft die Frage wie das Lastszenario für Intel aussieht:
* Was genau soll man am Desktop machen, das nicht von den "großen" Kernen erledigt werden kann?
* Kann man alle 8 Kerne unabhängig und parallel betreiben?
* Haben alle 8 Kerne das gleiche Featureset? Also bekommen die Luschen AVX?
 

mcmarky

Enthusiast
Mitglied seit
18.09.2008
Beiträge
202
Oh je, ob dann auch noch neue Kühler bzw. Befestigungen nötig werden....
 

Morrich

Enthusiast
Mitglied seit
29.08.2008
Beiträge
3.440
Das Big.Little Prinzip macht aus meiner Sicht in nem Desktop keinen Sinn.
Hier steht die ganze Zeit eine satte Stromversorgung zur Verfügung. Da braucht es keine abgespeckten CPU Kerne, die Akkulaufzeit schonen.
Im Desktop will ich Leistung haben.
Und selbst wenn man nicht gleich 8 oder 16 leistungsstarke Kerne braucht, kauft man sich eben ne kleinere CPU.
 

DeckStein

Experte
Mitglied seit
08.05.2018
Beiträge
3.149
Das Big.Little Prinzip macht aus meiner Sicht in nem Desktop keinen Sinn.
Hier steht die ganze Zeit eine satte Stromversorgung zur Verfügung. Da braucht es keine abgespeckten CPU Kerne, die Akkulaufzeit schonen.
Im Desktop will ich Leistung haben.
Und selbst wenn man nicht gleich 8 oder 16 leistungsstarke Kerne braucht, kauft man sich eben ne kleinere CPU.
Das prolem ist doch nicht der strom. Sieh dir mal die temperaturen an wenn intel wirklich allcore 5.2ghz anlegt. Das packt doch kaum ein kühler.

Und dann willst du als user mehr ipc was mehr transistoren bedeutet und mehr kerne.
 

hostile

Urgestein
Mitglied seit
09.12.2004
Beiträge
7.085
Ort
im chaos
Wenn die Strukturen immer kleiner werden, dann ist auf immer enger werdendem Raum die Temperatur abzuführen. Oder auf dem gleichen Raum mehr Temperatur. Das wird ein Problem, denke ich.

gruß
hostile
 

Latiose

Experte
Mitglied seit
11.06.2019
Beiträge
1.402
Tya Intel scheint das wohl mit dem big little Konzept wohl ernst zu meinen, das heißt dann wohl weniger leistung am Ende für die wo richtige Anwendungen nutzen oder will Intel dann diese zu der workstation hinlotzen so das diese little nur für gamer konzeptiert ist. Was ja eben schrecklich ist, das es so kommen wird.
 

sch4kal

Experte
Mitglied seit
18.07.2016
Beiträge
2.037
Sagt mal, lest ihr eigentlich den Artikel oder nur die Überschrift ?

[...]und zudem sind offenbar Varianten geplant, die nur auf die schnellen Golden-Cove-Kerne setzen.[...]
 

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
32.817
Diese 8+8- und 6+0-Konfigurationen stammen aus internen Intel-Dokumenten. Ich würde also schon erwarten, dass es solche geben wird.
 

Tzk

Legende
Mitglied seit
13.02.2006
Beiträge
14.817
Ort
Koblenz
@sch4kal
Wie meinst du? Für mich ergibt es irgendwie wenig Sinn Silizium für ein Feature zu verschwenden, was man dann im Desktop eh deaktiviert... Bei dem Produktionsvolumen von Intel und im Anbetracht der Tatsache das man bisher etliche Masken für diverse Varianten aufgelegt hat, kann ich mir nicht vorstellen das man ernsthaft einen Octacore im Desktop verkauft und dort die "Krüppel" dauerhaft lahmlegt anstatt direkt einen kleineren Chip ohne kleine Kerne zu bringen. Und die "große" Verbrauchsersparnis durch die kleinen Kerne (vs. runtergetaktete große Kerne) sehe ich auch nicht.

Abwarten...
 

iLLuminatusANG

Urgestein
Mitglied seit
05.01.2008
Beiträge
4.801
Ort
Heilbronn
Es gab doch mal eine "Folie" die Konzepte für verschiedene Ausführungen gezeigt hat. Gamer, Creator, Office usw.
Interessant wird das Thema auf jeden Fall. Aber nicht die ganzen Sockelwechsel bis dahin
 

DeckStein

Experte
Mitglied seit
08.05.2018
Beiträge
3.149
Das Big.Little Prinzip macht aus meiner Sicht in nem Desktop keinen Sinn.
Hier steht die ganze Zeit eine satte Stromversorgung zur Verfügung. Da braucht es keine abgespeckten CPU Kerne, die Akkulaufzeit schonen.
Im Desktop will ich Leistung haben.
Und selbst wenn man nicht gleich 8 oder 16 leistungsstarke Kerne braucht, kauft man sich eben ne kleinere CPU.
Du verstehst hier etwas falsch.

75% des endkundenmarktes sind mobilgeräte
Und da kommt es massiv auf effizienz an. Sieh dir mal an was man von sandy brifge bis heute da geschafft hat.

Der weitere grosse schwerpunkt sind Server, und da ist effizienz verdammt nochmal wichtig.

Wir desktop gamer sind doch resteverwertung.

Wollte dich da nicht anfixen. Nur musste es gesagt werden befor fdsonne mit seinen tastaturorgasmen daherkommt ^^
 

Luebke

Enthusiast
Mitglied seit
26.03.2010
Beiträge
1.985
Wäre schön, wenn Intel wieder mithalten könnte.
können sie doch. wo ist das problem? ein 10600k hält ganz problemlos mit nem 3600XT mit und ein 10700k mit einem 3800XT. nur bei der kernzahl an der spitze verliert intel, aber das soll alder lake ja auch nicht beheben.
amd war mit bulldozer jedenfalls sehr viel weiter im rückstand als intel aktuell mit skylake++++++ und wenn intel jetzt was neues auf den markt bringt, machen sie auch wieder nen schritt nach vorne, gerüchten zufolge sogar ähnlich groß wie zen3 zu zen2 und damit bleibt es weiterhin spannend an der spitze.

zu dem big/little-prinzip: ich sehe da für den desktopbereich keinen nutzen und für notebooks auch eher mäßig. die stromsparmechanismen sind mittlerweile so effektiv, das muss ein die mit mehr chipfläche und entsprechend höherem spannungsbedarf erstmal toppen können. am ende muss es die zeit zeigen, obs was bringt, aber ich bin skeptisch
 
Zuletzt bearbeitet:

Hyrasch

Experte
Mitglied seit
10.12.2012
Beiträge
2.638
Warum soll Intels Hyper-Threading wegfallen?
8 Kerne auf Mikro(architektur) x (die leistungsstarken) haben Intels HT und die anderen 8 auf Mikro(architektur) y eben nicht.

Jo, Effizienz wird der entscheidende Faktor sein.
16 Kerne auf 5 GHz sprengen die 200 W-Marke, aber 8 leistungsstarke bei 100 W und 8 kleinere bei 2 W eben nicht ;)

@sch4kal
... kann ich mir nicht vorstellen das man ernsthaft einen Octacore im Desktop verkauft und dort die "Krüppel" dauerhaft lahmlegt anstatt direkt einen kleineren Chip ohne kleine Kerne zu bringen. Und die "große" Verbrauchsersparnis durch die kleinen Kerne (vs. runtergetaktete große Kerne) sehe ich auch nicht.

Abwarten...
Genau das macht eben Sinn. Weil Prozessorkern 13, auf Basis gleicher Mikro(architektur) wie Prozessorkern 7, einfach nur runterzutakten, nicht gleich so effizient und leistungsstark macht wie den anderen Prozessorkern 13 auf anderer Mikro(architektur). Prozessoren auf Arm Basis in Smartphones und co. beweisen es schon lange.
TigerLake zeigt auch wie effizient diese sein können.
Und der Punkt mit den Laptops im mobilen Bereich wurde schon erwähnt.

Auch kann man z.B. bei den Ryzens entweder die Spannung oder den Takt der nicht ausgelasteten Kerne nicht endlos herunterschrauben; ab einem bestimmten Punkt funktionieren diese einfach nicht "ordentlich".
2 GHz im Laptop kann schon zu viel sein, wenn 500 MHz bereits ausreichen.

Proezssoren mit intergrierter GPU-Einheit sind eig. auch SoCs - auch wenn diese APUs genannt werden.
Und Tigerlakes GPU Xe-LP gen 12 ist verdammt schnell. Und genau hier bekommen die Beschäftigten bei Intel momentan mächtig Konkurrenz von denen bei Amd.
Und dies wird sich noch verstärken. Momentan steckt in Amds 5000er APus nämlich noch eine Vega gpu bei 1750 MHz (welche auf wundersamer Weise deutlich effizienter ist als alles was man von Desktop Vega so kennt). :haha:
Man prognostiziert bei Intel also korrekterweise in 1 - 2 Jahren noch mehr konkurrieren zu müssen.

Und generell geht der Weg bei Intel sowieso in Richtung der heterogenen Architektur. Die Zusammenfassungen kann man hier bei Luxx nachlesen.
Der passive Interposer war ja nur ein Zwischenschritt. Bei Foveros und TigerLake gibt es ja den aktiven. AMD forscht an aktivem Interposer als EMIB-Gegenstück
Aber auch hier wird dieser zukünftig wegfallen. Weiß nicht mehr wo ich die Nachricht gelesen habe, aber bei tmsc kommenden 3D-stacking und zukünftigen Designs ist auch der großer Interposer der gleich alle Chips miteinander kommunizieren lässt, nur ein Zwischenschritt.

Übrigens kommt die Idee auf was bei Amds Patent der Infintiy Cache sein könnte. Denn man hat sich nur den Markennamen patentieren lassen.
Bis das eigentliche Produkt/Technik etc. eingesetzt wird, dauert es noch ein paar Jahre.
Dieser Infinity Cache von 128 MB wäre zu klein um auf der rdna2 Gpu irgendwas konkretes zu bewerkstelligen und zu groß für Zen 3.
Bei Amd werkelt man auch schon lange am heterogenen Prrozesor-Design (big+little) https://www.techspot.com/community/...copy-of-intels-lakefield-architecture.264219/
Die Überlegung ist das z.B. mit Zen4 genau dieser sehr große Infinity Cache Einzug hält.
 

Goldeneye007

Dönertier
Mitglied seit
03.12.2006
Beiträge
2.687
Ort
Eppstein
ich vermute einfach auch mal was ^^

Die 8Kerne laufen dann nur für das Game auf 5,2Ghz und die restlichen kleinen Kerne kümmern sich nur um Windows und Hintergrund.
Effizienz ist gar nicht das Thema, sondern Aufgabenverteilung. Die haben dann höchstens dabei im Kopf, dass man den 8 großen Kernen extrem viel Saft geben will und wie weit sich die 8 kleinen Kerne drosseln lassen, um die 125/150W nicht zu überschreiten.
Und jetzt kenn ich mich auch nicht so aus, aber wenn man die Chipfläche erhöht und zeitgleich kleiner fertigt, dann passt doch schon ordentlich mehr rauf auf den Chip, oder?
Und wenn die Chipfläche größer ist, dann ist doch auch mehr Fläche da, wovon man die Hitze abnehmen kann?

Ist es eigentlich abwegig zu sagen, dass eine CPU in Zukunft auch mal 300W haben darf? Muss man sich halt von dem ganzen etablierten Aufbau und Kühlkonzept eines PCs mal lösen. Aber einen Kühlkörper auch für die CPU zu entwickeln, der auch hier 300W+ weg kühlt sollte auf jeden Fall nicht total unmöglich erscheinen?
 
Zuletzt bearbeitet:

Hyrasch

Experte
Mitglied seit
10.12.2012
Beiträge
2.638
Warum zukünftig? Gibt es bei Intel schon heute mit dem 10-Kerner comet lake :ROFLMAO:
Die Xeons und Epycs schlucken auch 400 W.

" Und wenn die Chipfläche größer ist, dann ist doch auch mehr Fläche da, wovon man die Hitze abnehmen kann? "
Ja. Davon auszugehen das man die Hitze dank größerer Fläche, ergo mehr Wärmeleitung schneller wegbekommt, muss nicht sein.
Siehe Wärmedichte.

Effizienz ist gar nicht das Thema, sondern Aufgabenverteilung.
Warte mal; umgekehrt wird ein Schuh draus. Threadverteilung, wechseln der Prozesse/Speicherinhalt, branch prediction etc. wird in Hardware gelöst, während der Scheduler von Windows hier mithalten muss.
Wenn du mit "kein Thema" gleich "kein Problem bei der Umsetzung" meinst, muss man die Beschäftigten bei Windows fragen.
Ryzen kam 2017 und erst seit 2019 laufen Ryzens halbwegs ordentlich auf Windoof. :hust:

Der Hauptgrund die Prozessoren auf den heterogenen Aufbau umzustellen, genauer genannt "Asymmetric Multi-Core, ist die Effizienz zu steigern.
Z.B. In-Order- oder Out-of-Order Execution https://courses.cs.washington.edu/courses/csep548/06au/lectures/introOOO.pdf

Der Link führt auch zu dieser sehr lehrreichen pdf Computer ArchitectureLecture 31: Asymmetric Multi-Core
Auf Seite 13 geht es um die "Caveats of Parallelism" mit diesem selbsterklärendem Bild. Darauffolgend warum Assymetrischer Chip Multiprozessor die Lösung ist.
Kurz gesagt wurde es schon vor vielen Jahren so geschlussfolgert und der Weg geebnet. Das was man jetzt sieht hat aus Forschung & Entwicklung schon vor 2014 angefangen.
Schon alleine aus dem Grund da es mit Moore's Law schon seit 10 - 15 Jahren vorbei ist.
Weiterhin steigen die Kosten exponentiell. Auch bei Intel hat man längst keine Lust mehr auf solch große Dies.
speedup.jpg
 

mgr R.O.G.

Urgestein
Mitglied seit
05.01.2008
Beiträge
8.900
Ort
Thüringen

Raziel_Noir

Neuling
Mitglied seit
25.03.2020
Beiträge
27
Ort
München
Ich frage mich eher, was bei dem big.LITTLE-Prinzip in mehrkernfähigen und optimierten Programmen passiert?
Als ich vom i7 4770k auf den 8700 umgestiegen bin, hat sich die Rechenzeit von dbpoweramp beim Batchkonvertieren meiner Musiksammlung aus dem FLAC auf Mp3 von knapp 8h auf etwas unter 4h reduziert. 1/3 mehr Threats und eine höhere Ausführungsgeschwindigkeit des 8700 gegenüber dem 4770k zeigen, was bei gut skalierenden Programmen möglich ist. Interessant wäre noch gewesen, für beide Läufe jeweils den Strombedarf zu messen...

Aber wie das beim einem Alder-Lake S mit 8/8-Bestückung dann ausschaut, da bin ich sehr gespannt. Denn auch wenn der grösste Teil diese Performance nie benötigt, interessert diejenigen die z. Bsp Videoschnitt betreiben durchaus, was die CPU auf Dauerlast schafft.
 

Tzk

Legende
Mitglied seit
13.02.2006
Beiträge
14.817
Ort
Koblenz
Und wenn die Chipfläche größer ist, dann ist doch auch mehr Fläche da, wovon man die Hitze abnehmen kann?
Ja. Mehr Fläche für den Wärmeübergang = mehr abführbare Wärme bei gegebenem Temperaturdelta. Das sieht man übrigens schon bei Zen2, da werden die kleinen Chiplets nämlich ordentlich warm, weil die Abwärme nicht gut genug vom Chiplet über den IHS zum Kühler abfließt. Deshalb lassen sich GPUs mit 300W auch vergleichsweise gut kühlen - deren Chips sind einfach größer. Ein guter Vergleich wäre die Abwärme auf den Quadratmillimeter an Chipfläche zu beziehen, da sieht man das dann gut.
 
Oben Unten