Chipgröße von Nova Lake: 144 MB an L3-Cache kosten 40 mm²

Auf den nachfolgenden AMD-Plattformen erwarte ich ähnliche Improvements. Und mit dem X3D-Cache ist ein Gamer bestens beraten.
Intel scheint nicht so ganz dazulernen zu wollen: Anstatt auf den X3D-Zug aufzuspringen, wird stattdessen der anachronistische SRAM, der Hauptverursacher ist für den enormen Leistungshunger, in noch größeren Stückzahlen montiert. Ein ökologisches Bewusstsein, eine idealistische Diversifikation scheint bei Intel nicht angekommen zu sein. Die Prämisse von solchen Kleptrokraten liegt stets in dem Intendieren, aus wenig Aufwand viel Umsatz zu generieren.
Und das Gleiche kreide ich NVIDIA an, wo es noch immer nicht verstanden wird, dass Technologien wie der HBM die Zukunft bestimmen werden.

Wir wissen doch momentan noch gar nicht, ob die kommenden CPUs wirklich so "hungrig" sind.
Auf diese 700W Gerüchte gebe ich nichts und sind für Gaming Betrieb eh irrelevant
Ein bisschen Hoffnung darf ja da sein, dass die bLLC Modelle das X3D "Gegenstück" sind.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf den nachfolgenden AMD-Plattformen erwarte ich ähnliche Improvements. Und mit dem X3D-Cache ist ein Gamer bestens beraten.
Intel scheint nicht so ganz dazulernen zu wollen: Anstatt auf den X3D-Zug aufzuspringen, wird stattdessen der anachronistische SRAM, der Hauptverursacher ist für den enormen Leistungshunger, in noch größeren Stückzahlen montiert. Ein ökologisches Bewusstsein, eine idealistische Diversifikation scheint bei Intel nicht angekommen zu sein. Die Prämisse von solchen Kleptrokraten liegt stets in dem Intendieren, aus wenig Aufwand viel Umsatz zu generieren.
Und das Gleiche kreide ich NVIDIA an, wo es noch immer nicht verstanden wird, dass Technologien wie der HBM die Zukunft bestimmen werden.

Nö kb auf AMD viel zu dicker Heatspreader immer auf 95 grad auf Krampf boosten
 
Nach den bisherigen Watt Angaben erscheint Nova-Lake möglicherweise so:

Konsumer = 8P+16E+4LPE+bLLC, ein Compute-Tile
HEDT/Server = 16P+32E+4LPE, zwei Compute-Tiles
 
Der Übergang ist doch schon seit Jahren nicht mehr existent. 48 +X Threads sehe ich auf jeden Fall nicht im Privatbereich für Tante Inge. Vor 10 Jahren war das 8 Kern Spielzeug auf S2011 noch HEDT.

Bei Intel ist vor allem das Problem der zwei Compute Tiles. Zen6 wird ja wenigstens 12Kerne auf einem Chip haben. Da kommt ganz viel MT-Leistung auf uns zu aber für Spieler wird das eher ein kleiner Sprung.
 
Ein CPU Tile reicht ja auch aus und das sollte schon passen von der effizient her.
Ggf. ist der AMD 12 Kerner etwas besser im Stromverbrauch, aber hat dann vielleicht weniger Anwenderleistung.
Glaube auch nicht, dass man plötzlich zum Gamen mehr als 8 P-Cores benötigen wird.
Viele zocken auch mit 6 P-Cores und haben keine Einbußen.

Gibt auch Games wie Battlefield die sehr gut mit hybriden CPU´s performen.
BF2042 und BF6 arbeitet wirklich sehr gut mit P-und E-Cores zusammen, aber das können nur wenige Games.
Die meisten arbeiten nur mit den P-Cores. Wichtig für mich ist ne ordentliche IPC Steigerung und natürlich profitieren vom Cache,
aber schauen wir uns das erstmal an was da rum kommt.

Sonst aber sowohl der AMD wie auch der Intel mit zwei CPU Tile wüsste ich nicht sinvoll zu nutzen.
Ich kann manche aber verstehen ich hatte damals auch Sockel 2011-3 und 6900K gekauft statt Z170 und 7700K.
Hat mir nichts genutzt, aber irgendwann kommt mal die Phase wo man sowas einfach haben möchte.
Deshalb kann ich das durchaus verstehen.
 
Genau, so sieht es. Den großen 2CT (2 Compute-Tile) braucht keiner und schafft keiner im Desktop, Office, Gaming ansatzweise auszulasten. Den würde ich mir nur kaufen wenn ich die Compute-Last tatsächlich brauchen würde, für Wissenschaft oder irgendwie um damit Geld zu verdienen.

Bei den neuen AM5 wird es ähnlich aussehen. Bereits jetzt hat man große Schwierigkeiten die zwei CCDs mit Lasten auszulasten, im Desktop, Office, Gaming laufen die praktisch leer. Nur für Wissenschaft und Geld verdienen kaufen die Stücke.

Bei den neuen 12 und 24 Kernern ist es ähnlich. Dort ist der Griff zum 12 Kerner, also einem CCD noch einfacher. Den großen 24 Kerner kriegt man praktisch nicht ausgelastet und der läuft nur leer.
 
Genau, so sieht es. Den großen 2CT (2 Compute-Tile) braucht keiner und schafft keiner im Desktop, Office, Gaming ansatzweise auszulasten. Den würde ich mir nur kaufen wenn ich die Compute-Last tatsächlich brauchen würde, für Wissenschaft oder irgendwie um damit Geld zu verdienen.

Bei den neuen AM5 wird es ähnlich aussehen. Bereits jetzt hat man große Schwierigkeiten die zwei CCDs mit Lasten auszulasten, im Desktop, Office, Gaming laufen die praktisch leer. Nur für Wissenschaft und Geld verdienen kaufen die Stücke.

Bei den neuen 12 und 24 Kernern ist es ähnlich. Dort ist der Griff zum 12 Kerner, also einem CCD noch einfacher. Den großen 24 Kerner kriegt man praktisch nicht ausgelastet und der läuft nur leer.
Für Leute wie dich gibts ja die i5 und i3 :p
 
Ich hatte ja den 7950X3D und hab "downgraded" auf den 9800X3D.
Klar fürs reine Gaming an sich nicht schlecht aber gerade bei so Spielen wie Battlefield wünsche ich mir dann doch wieder mehr als nur 8 Kerne.
BF2042 hatte sich damals auch mehr als nur die 8 X3D Kerne gegönnt und man hatte Reserven für anderen Kram, der nebenbei lief.

Mein Schlachtplan ist wenn Intel abliefert ganz klar einer der größten CPUs oder eben halt 10950X3D
 
Ich hatte ja den 7950X3D und hab "downgraded" auf den 9800X3D.
Klar fürs reine Gaming an sich nicht schlecht aber gerade bei so Spielen wie Battlefield wünsche ich mir dann doch wieder mehr als nur 8 Kerne.
BF2042 hatte sich damals auch mehr als nur die 8 X3D Kerne gegönnt und man hatte Reserven für anderen Kram, der nebenbei lief.

Mein Schlachtplan ist wenn Intel abliefert ganz klar einer der größten CPUs oder eben halt 10950X3D
Dito, bzw schon der 9950X3DV2 kommt da vorher in Frage je nach dem wann sie den raushauen (und es keine zu grossen Interconnect Nachteile gib im Gaming).
Alleine schon de/komprimieren von Daten die mit dem 9800er mal ne Stunde dauert,da nimmt man soviele Kerne mit wie es geht.
 
Intel hingegen ist technisch weit hinten dran und bläst hier nur den Chip auf. Die Lage auf dem Base-tile hätte wenigstens die Kosten nicht explodieren lassen.
Wieso sollte Intel technisch dahinter liegen? Die Packen schon länger die Tile auf ein Basetile, während AMD noch immer die Dies wie BGA Chips auf die Trägerplatine lötet und nur das zusätzliche L3 Cache direkt Die auf Die kontaktiert wird, während es bei Intel alle Tiles sind. Was die Kosten angeht, dürften die wegen 150mm² statt 110mm² zwar höher sein, aber nicht gleich explodieren.

Bei den Preisen werden viele lange Gesichter machen.
Erstens kennen wir dies Preise noch nicht und zweitens verlangt AMD für die X3D Modelle auch einen deutlichen Aufpreis.

Anstatt auf den X3D-Zug aufzuspringen, wird stattdessen der anachronistische SRAM, der Hauptverursacher ist für den enormen Leistungshunger, in noch größeren Stückzahlen montiert.
Der zusätzliche L3 Cache ist wie das native L3 Cache bei AMD ebenfalls anachronistisches SRAM und versuchst dort also offenbar ebenso einen enormen Leistungshunger. Dumm nur, dass es eben leider keine Alternative zu SRAM gibt, die eben bzgl. der Latenzen mithalten kann.

Die Existenz von zwei Entwicklungsteams für die Kerne wird früher oder später von der wirtschaftlichen Realität eingeholt.
Intel hatte über Jahrzehnte zwei Entwicklungsteams die in Konkurrenz zueinander standen, eines in den USA und eines in Israel, und hat dann die bessere Lösung ging dann in Serie.
Genau, früher hieß es da kommen zwei Compute-Kacheln, aber ohne 3D-Cache, da nicht genug Platz dafür. Also zwei Compute-Kacheln, eine Compute-Kachel mit 3D-Cache, und eventuell eine einfache Compute-Kacel ohne 3D-Cache.
Nein, es hieß, dass es entweder zwei 8+16 CPU Tiles ohne großen L3 Cache, oder eine 8+16 mit dem großen L3 Cache oder eine 8+16 ohne großen L3 Cache oder eben ein kleines, vermutlich 6+8 Tile für die kleinen Modelle geben wird. Für zwei 8+16 mit großem L3 Cache sollte angeblich der Platz nicht reichen, aber vielleicht hat sich das ja nun geändert, nachdem es Gerüchte um solche Modelle mit 288MB L3 Cache gibt.
Doch, die 3D-Cache werden ganz teuer. Der SRAM, der der 3D-Cache ja ist, wird ebenfalls teuer und dann zwei Compute-Kacheln und man ist bei 1T EUR. Das ist doch keine Spekulation sondern kommt doch 100% so.
Erstens wird es bei Intel kein 3D Cache sein, da der Cache ja direkt auf dem gleichen Die ist, nicht darunter oder darüber und zweitens sind um die 1000USD Listenpreise für das Spitzenmodell zwar durchaus im Bereich des Möglichen, aber dennoch sind alle Preise bisher nur Spekulation. Außerdem wird es wohl auch mindestens ein Modell mit 8+16 und großem L3 Cache geben, welches dann deutlich günstiger sein wird, so wie ein 9800X3D ja auch deutlich günstiger als ein 9950X3D ist.

Ich rede schon von dem Stück mit zwei Compute-Kacheln. Arrow Lake hatte ja 400 W als ein Powerlimit 3 oder 4, nicht 1 oder 2. Zweimal davon sind es 800 W, dann etwas niedriger diese 700 W. Leider bleibt der Kühlerlochabstand gleich groß, das kleine Ding wird richtig schwer zu kühlen werden mit zwei Hotspots, eben der Compute-Kacheln dann.
Aber nur wenn man ihn so extrem übertakten will, dass man auch an diese Grenze kommt, was dann aber weit von einer alltagstauglichen Konfiguration entfernt ist. Außerdem werden die beiden CPU Tiles wohl direkt nebeneinander liegen und nicht so weit voneinander entfernt wie bei den RYZEN mit zwei CPU Chiplets.
Das gute wird sein, dass man vermutlich und hoffentlich alles dynamisch im Gegensatz zu Grafikkarten einstellen kann.
Die einstellbaren Power Limits hatte schon mit Z97 Board, wieso sollte sich das ändern?

Wir wissen doch momentan noch gar nicht, ob die kommenden CPUs wirklich so "hungrig" sind.
Da sie eine neuere, modernere Fertigung bekommen, entweder Intel 18A oder TSMC N2P, werden sie effizienter sein als ihre Vorgänger und Arrow Lake kann extrem effizient sein, wenn man ihn mit geringeren Power Limits betreibt:

Arrow Lake 285K Power Limit Skalierung.png

Auf diese 700W Gerüchte gebe ich nichts und sind für Gaming Betrieb eh irrelevant
Eben, die 700W dürften das absolute Limit für Extrem OC sein, was weder etwas über die Leistungsaufnahme beim Spielen aussagt noch für normale Systeme im Alltag relevant ist. Die Leistungsaufnahme eines 285K beim Spielen bleibt meist bei unter 100W und damit deutlich unter der eines Raptor Lake.

Konsumer = 8P+16E+4LPE+bLLC, ein Compute-Tile
HEDT/Server = 16P+32E+4LPE, zwei Compute-Tiles
Das sind alle Consumer CPUs und einige Modelle mit iGPU werden wohl wie bisher auch für Workstation Einsatz vorgesehen sein, zusammen mit dem W Chipsatz dann mit ECC RAM Unterstützung.
Nova Lake ist kein Workstation- oder Server-Design.
Jein, die konkurrieren nicht direkt mit den großen Xeons, aber sie dienen auch für die Einstiegs Workstations. So steht z.B. beim 285K:
Bei Intel ist vor allem das Problem der zwei Compute Tiles. Zen6 wird ja wenigstens 12Kerne auf einem Chip haben. Da kommt ganz viel MT-Leistung auf uns zu aber für Spieler wird das eher ein kleiner Sprung.
Gerade bei Anwendungen die von viel Multithreadperformance profitieren, ist es kein Problem wenn die Kerne über zwei CPU Tiles verteilt sind. Was Spiele angeht, muss man schauen wie hoch die Latenz zwischen den Kernen der beiden Tiles dann ausfallen wird.

Für Leute wie dich gibts ja die i5 und i3 :p
Ultra 5 und Ultra 3.
 
Zuletzt bearbeitet:
12 Kerne mit SMT. Der ganze Ansatz von Intel ist früher oder später zum scheitern verurteilt. Die Existenz von zwei Entwicklungsteams für die Kerne wird früher oder später von der wirtschaftlichen Realität eingeholt. Da werden einfach ohne Ende Ressourcen verbrannt. Gegenüber dem günstigen Ansatz von AMD stehen dann nicht mal entscheidende Vorteile bei Verbrauch und Flächeneinsparung im Raum.
Generell finde ich haben die E-Kerne für die einfachen Threads die sich aus den Systemdiensten ergeben schon absolut auch ihre Berechtigung, und sind innovativer als das AMD Ryzen Konzept.

Aber ich finde das es Intel ein bisschen mit der Zahl der E-Kerne übetreibt, pro Compute-Tile lieber 10P + 8E Kerne statt 8P + 16E Kerne würde ich sinnvoller finden.
 
Generell finde ich haben die E-Kerne für die einfachen Threads die sich aus den Systemdiensten ergeben schon absolut auch ihre Berechtigung
Nicht nur dafür, wobei dafür bei Nova Lake die LPE Kerne zuständig sein werden, sondern generell sind die e-Kerne nützlich, wenn man Anwendungen hat die viele Kerne auslasten und von ihnen profitieren.
pro Compute-Tile lieber 10P + 8E Kerne statt 8P + 16E Kerne würde ich sinnvoller finden.
Sinnvoller wofür? Dies 10+8 Die hätte weniger Multithreadperformance als das 8+16 Die, zumal bei gleicher Leistungsaufnahme und wie viele Spiele würden dann profitieren? Es ist ja nicht so, also würde kein Game mit den e-Kernen was anfangen können oder mit vorhandenen e-Kernen langsamer laufen. Es gibt auch genug die mit den e-Kernen schneller laufen als wenn man sie deaktiviert.
 
Natürlich sind zusätzliche E-Kerne schonmal besser als garkeine zusätzlichen Kerne, aber trotzdem denke ich das vorallem Games aber auch etliche produktive Aufgaben wie anspruchsvolle Bild- und Videobearbeitung noch mehr von zusätzlichen P-Kernen profitieren würden.
 
Das könnte man ausprobieren, etwa indem man einen Alder, Raptor oder Arrow Lake mit 8P und mindestens 8e Kernen mal nur mit deaktivieren e-Kernen und dann mit 6 aktiven P und 8 e-Kernen mit diesen Programmen und Spielen vergleicht. Dann würde man ja sehen ob sie von 2 zusätzlichen P Kernen mehr profitieren als von 8 e-Kernen. Soweit ich mich an alte Tests erinnere, haben da nicht einmal die Hälfte der Games mit abgeschalteten e-Kernen besser performt als mit den e-Kernen, bei einigen war es egal und nicht wenige waren mit den e-Kernen schneller. Das war aber eben vor Jahren, als Alder Lake noch neu war und tendenziell dürften auch bei Games die neuen Versionen besser auf die Hybridarchitektur angepasst werden und von den e-Kernen profitieren können. Dazu kommt, dass die Umgebung besser geworden ist, der Task Scheduler von Windows und auch Intels Thread Director sollten inzwischen besser verstehen, wann welche Threads auf welchen Kernen laufen sollen und es gibt den Intel APO mit einer ganzen Liste von unterstützten Spielen.

Wie Bild- und Videobearbeitung von mehr P statt e-Kern Clustern profitieren sollten, wenn wir doch wissen das ein Cluster aus 4 e-Kernen eben schon bei Alder Lake grob die doppelte Leistung hat, bei Arrow Lake noch deutlich mehr, musst du mir echt mal erklären. Ich habe das Gefühl viele haben sich ihre Meinung zu den e-Kernen aus den Erfahrungen der Anfangszeit von Alder Lake gebildet und diese nie hinterfragt, als die Entwicklung weitergegangen ist.
 
Core Ultra 5 245K mit allen 6P + 8E Kernen gegen einen Core Ultra 7 265K mit 8P Kernen aber abgeschalteten E Kernen wäre durchaus intressant.
 
Dann teste es doch, wenn es dich interessiert und wenn Du selbst testest, kannst Du auch selbst bestimmen, welches Anwendungen, Benchmarks und Spiele verwendet werden. Wenn man Tests auf dem Netz nimmt, muss man mit dem zufrieden sein, was da verwendet wurde und bekommt dumme Kommentare wenn es Cinebench und nicht das Lieblingsspiel des Idioten war, der den dummen Kommentar abgegeben hat.
 

Compute-Tile kompakter als gedacht​

Update vom 16. Februar 2026: Der chinesische Leaker Golden Pig Upgrade, der häufiger mit Hardware-Prognosen auffällt, berichtete auf Weibo, dass die Fläche des Nova-Lake-Compute-Tiles etwas kompakter ausfallen soll. Der Leaker HXL sprach bekanntlich von 110 mm² beim Compute-Tile der Chips in der Ausführung mit 8 + 16 Kernen, während Golden Pig Upgrade eine Fläche von 14,8 × 6,6 mm in Aussicht stellt, was in knapp 98 mm² resultieren würde.
 
Laut Wikipedia ist das Compute Tile von Arrow Lake 117,241 mm² groß, das Graphics tile 23 mm², das SoC tile 86,648 mm², das I/O tile 24,475 mm² und die sind auf einem 302,944 mm² Base tile untergebracht. Die eigentliche Frage ist, wie groß das Base tile maximal sein kann um hergestellt werden zu können und noch unter den HS zu passen. Zwei 150mm² große Compute Tiles mit bLLC würden alleine schon fast die Fläche es Basetiles von Arrow Lake beanspruchen und auch wenn die Dies am Ende 10% kleiner sind als von Leaker @9950pro behauptet, ändert dies nicht viel. Das Base tile für die Modelle mit 228MB müsste also viel größer werden oder auf Dinge wie die iGPU und / oder die NPU verzichten.

Aber ob es 98mm² oder 110mm² für das Compute Tile ohne bLLC sind, so dürften die Kerne deutlich aufwendiger werden, den bei AMD soll ja das Zen6 Die mit 76 mm² nur 7% größer als das Zen 5 Die ausfallen, trotz 50% mehr Kernen und entsprechend mehr L3 Cache. Auch wenn der Sprung da von N4 auf N2 geht und nicht wie bei Intel von N3 auf N2. Es könnte also stimmen, dass bei Nova Lake alle Kerne AVX10.2 bekommen und einen deutlich verbesserte Architektur.

Wobei die ganzen Werte sowieso nicht zu stimmen scheinen, denn der N2 Prozess von TSMC soll eine SRAM Dichte von 38Mb/mm² haben, was 4,75 MB/mm² sind und damit würden 144MB eine Fläche von 30,3mm² beanspruchen. Bei Arrow Lake hat das 8+16 Die 36MB L3 Cache, wenn dies auch bei Nova Lake so bleibt, wären es 108MB zusätzlich bei den bLLC Tiles und dies würde 22.7mm² beanspruchen. Da kommt dann vermutlich noch etwas für ECC dazu, denn die CPUs werden ja auch mit ECC Unterstützung für den Workstationeinsatz verwendet werden, aber nicht so viel um ein 40mm² größere Die zu erklären.
 
Vielleicht gibt es 2 Versionen vom Sockel 1954 und 1954 Pro oder Max und die großen Cpus sind vlt dann einfach größer
 
2 Varianten des Mainstream Sockels halte ich für extrem unwahrscheinlich. Dann würde ich eher vermuten, dass Intel die iGPU und/oder NPU entfallen lässt. Wobei die iGPU bei den Desktop CPUs sowieso immer nur das kleine Modell ist und dies belegt ja nicht viel Platz.
 
Ich kann manche aber verstehen ich hatte damals auch Sockel 2011-3 und 6900K gekauft statt Z170 und 7700K.

Habe damals auch überlegt. Da ich mir zu dem Zeitpunkt aber gerade einen reinen Spielerechner zusammenbauen wollte, habe ich mich dann für den i7-7700K entschieden, und diesen nach ca. 1 Monat "Probebetrieb" geköpft (und somit bewusst auf mögliche, zukünftige Garantieansprüche verzichtet). Habe den dann stabil auf alle Kernen permanent mit 4,9GHz luftgekühlt auf/in einem Mini-ITX Board/Gehäuse betrieben. Und kam selbst unter Volllast nie auf mehr als 60-65°C (Stresstest 70°C) CPU-Temperatur. Und das bei kaum (nur wenn man mit dem Ohr direkt daneben war, und keine Soundausgabe stattfand) wahrnehmbarer Lautstärke...
Damit habe ich damals gemodete "Giga-Maps" (ca. 4x so groß wie die größte originale) bei Civ 6 in der Hälfte der Zeit geöffnet als in diversen Test von zb. PCGH (ca. 2,5min statt 5min) mit der gleichen CPU... das Teil hatte damals echt Power... :love:
Habe den dann vor einigen Jahren an eine Freundin weitergegeben, und dort rennt er heute noch problemlos. Sie nützt ihn aber auch "nur" für Final Fantasy, was anderes zockt sie nicht... wenn ich voraussichtlich 2027 meinen i9-12900K durch einen Nova Lake oder Zen6 ersetze, wird der i9-12900K dann wahrscheinlich den 7700K bei ihr ablösen... zumindest wäre das mal ein grober Plan, schauen wir mal wie sich der Markt bis dahin wirklich entwickelt...
 
Die idee mit den 2 Sockeln halte ich persönlich auch für gar nicht so unwahrscheinlich. Threadripper und X3D haben ja ebenfalls verschiedene Sockel so wie ich das sehe. Klar sind das verschiedene Einsatzgebiete, aber könnte das bei Intel nicht auch so kommen? bzw war das ja schon so, xeons und "normale" cpus.
 
Aber cpu-monkey.com hat die Cinebench R23 Singlethread Ergebnisse für alle RYZEN Generationen.
Die sind aber nicht taktbereinigt und der maximale Takt, der ja bei singlethreaded immer anliegt, ist vom 1800X zum 9950X schon um 39% gestiegen, von 4,1GHz auf 5,7GHz, ebenso ist der maximale RAM-Takt schon ohne OC von DDR4-2666 auf DDR5-5600 gestiegen, die Bandbreite ist also um 110% gewachsen.
Ohne mich jetzt genau damit befasst zu haben, würde ich auch behaupten, dass neuere Ryzen-Generationen bei Cinebench R23 von neuen Instruktionen profitieren, die ältere Generationen nicht haben.

Diese werte sind also weit davon entfernt, den IPC-zuwachs zu zeigen.
 
Die idee mit den 2 Sockeln halte ich persönlich auch für gar nicht so unwahrscheinlich.
Also ich halte sie für sehr unwahrscheinlich, weil Intel ja schon sogar zwei große Sockel für die Xeons hat, LGA 4710 und LGA 7529 und auch gerade erst die Xeon 600 aka Granite Rapids-WS für LGA4710 Boards mit dem W890 Chipsatz vorgestellt hat. Außerdem gibt es keinerlei Gerüchte in die Richtung und der Platz unter dem HS sollte auch für zwei Compute Tiles mit je 150mm² reichen, das Base Tile wird dann nur recht groß.
 
Also ich halte sie für sehr unwahrscheinlich, weil Intel ja schon sogar zwei große Sockel für die Xeons hat, LGA 4710 und LGA 7529
Okay, das war mir nicht bekannt. Das macht die Sache tatsächlich weniger wahrscheinlich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh