RTX-GPU-Chiplets und Custon-Xeons: NVIDIA und Intel arbeiten zukünftig zusammen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob wir zukünftig dann eine Intel/nVidia-APU für Konsolen sehen werden? Das wäre doch mal was!
 
Ob wir zukünftig dann eine Intel/nVidia-APU für Konsolen sehen werden? Das wäre doch mal was!
Für die nächste Generation wohl nicht aber für mobile workstations wäre es doch was.
 
Zumindest Intel CPU + GPU die gab es in der Vergangenheit schonmal mit dem Intel i7-8809G (AMD GPU).
Das war damals Kaby Lake-G und die hatten neben dem normalen Kaby Lake Chip auch eine AMD GPU und einen HBM, waren also viel größer als normale Kaby Lake CPUs und auch recht teuer. Es gab damals Gerüchte diese wären auf Wunsch von Apple für ihre nächsten Macbook Pro entstanden, aber am Ende hat Apple die wohl nie verbaut und Intel sie in ihre eigenen Hades Canyon NUC gepackt und es gab wohl auch das eine oder andere Notebook damit.

Am Ende hat sich das aber nicht durchgesetzt und es gab nie Nachfolger. Das Problem dürfte auch der Preis sein, denn bei iGPUs hat man immer das Problem der limitierten Speicherbandbreite und Leistungsaufnahme der iGPU. Wie sehr die Speicherbandbreite limitiert, konnte man gut anhand der GT1030 sehen, die es mit GDDR5 oder DDR4 RAM gibt (oder gab) und wo die GDDR5 Varianten etwa die doppelte Leistung hat, weil sie auch die doppelte Speicherbandbreite hat. Bei Kaby Lake-G hat Intel das Problem eben mit HBM gelöst, aber HBM ist teuer und dazu kommt, dass man es immer auf einen Halbleiter Interposer installieren muss, da man nur so die Verbindungen realisieren kann und dies treibt die Kosten weiter. Das dürfte billiger sein eine Graka zu verbauen, zumal man dafür in Notebooks genug Platz hat und es auch flexibler ist.

Solche Konstruktionen wie Kaby Lake-G sind daher nur interessant, wenn der Platz knapp ist und Preis keine große Rolle spielt, also vielleicht für KI. Aber das wäre dann für die Frontends und hier geht es ja laut der News um die spezielle Xeons um viele GPUs schnell anbinden zu können, also die Backupseite.
 
Das war damals Kaby Lake-G und die hatten neben dem normalen Kaby Lake Chip auch eine AMD GPU und einen HBM, waren also viel größer als normale Kaby Lake CPUs und auch recht teuer. Es gab damals Gerüchte diese wären auf Wunsch von Apple für ihre nächsten Macbook Pro entstanden, aber am Ende hat Apple die wohl nie verbaut und Intel sie in ihre eigenen Hades Canyon NUC gepackt und es gab wohl auch das eine oder andere Notebook damit.

Am Ende hat sich das aber nicht durchgesetzt und es gab nie Nachfolger. Das Problem dürfte auch der Preis sein, denn bei iGPUs hat man immer das Problem der limitierten Speicherbandbreite und Leistungsaufnahme der iGPU. Wie sehr die Speicherbandbreite limitiert, konnte man gut anhand der GT1030 sehen, die es mit GDDR5 oder DDR4 RAM gibt (oder gab) und wo die GDDR5 Varianten etwa die doppelte Leistung hat, weil sie auch die doppelte Speicherbandbreite hat. Bei Kaby Lake-G hat Intel das Problem eben mit HBM gelöst, aber HBM ist teuer und dazu kommt, dass man es immer auf einen Halbleiter Interposer installieren muss, da man nur so die Verbindungen realisieren kann und dies treibt die Kosten weiter. Das dürfte billiger sein eine Graka zu verbauen, zumal man dafür in Notebooks genug Platz hat und es auch flexibler ist.

Solche Konstruktionen wie Kaby Lake-G sind daher nur interessant, wenn der Platz knapp ist und Preis keine große Rolle spielt, also vielleicht für KI. Aber das wäre dann für die Frontends und hier geht es ja laut der News um die spezielle Xeons um viele GPUs schnell anbinden zu können, also die Backupseite.
Ich verstehe bis heute nicht warum die Boards nicht GDDR Speicher kompatibel sind und man nicht, wenn schon nicht mit dynamisch bestückbaren Riegeln einfach vordefinierte aufgelötete von mir aus nach JEDEC Spezifikation drauf gebaut hätte. 2-4GB wären Problemlos schon vor 10 Jahren realisierbar gewesen.
Dank PCIE SAM, wäre das auch per PCIE Erweiterung theoretisch realisierbar gewesen ... ich weiß aber nicht woran es gescheitert ist. Vielleicht die Latenz zu hoch?
 
GDDR hat höhere Latenzen, dafür aber mehr Bandbreite und Grakas brauchen vor allem die Bandbreite. Deswegen haben Grakas ja auch breitere RAM Interfaces als die bei Mainstream CPUs üblichen 128 Bit (Dual Channel) um die Bandbreite weiter zu steigern, eine RTX 5090 hat 512 Bit Datenbreite, was 8 RAM Channels entspricht. CPUs brauchen mehr die geringere Latenz und Arrow Lake zeigt ja was passiert, wenn die RAM Latzen auch nur etwas höher als beim Vorgänger ist, vor allem wenn es um die Gamingperformance geht. GDDR einfach auf jede Board zu löten, würde diese teurer machen, einmal für das GDDR selbst, aber auch weil die Sockel dann natürlich viel mehr Pins haben müsste um die RAMs auch ansprechen zu können und dann würden am Ende nur CPUs mit iGPU profitieren, was sie aber eben schon wegen des Power Limits dann doch nur ein Stück näher an die Leistung dedizierter Grakas bringen würde. Sie haben aber nie die Chance Graks zu überholen, denn selbst eine NVIDIA RTX 5070 hat eine TDP von 250W und willst Du die noch extra unter dem HS der CPU haben?
 
Ich glaube ihn stört dass Nvidia "nur" 94% Marktanteil bei dedizierten GPU,s hat.
Er ist scheinbar Millionär und will das sich der durchschnittsmensch keine GPU,s mehr leisten kann.
Daher hofft er wohl das AMD bald 0% Marktanteil hat und Pleite geht.

Wieso immer Pleite geht ?
Man kann auch mit vollen Taschen auf 0% Marktanteil kommen.

Wie vermutlich auch Intel mit Ihrer dedizierten GPU bzgl. ARC.
 
… aber auch weil die Sockel dann natürlich viel mehr Pins haben müsste um die RAMs auch ansprechen zu können …
Keineswegs! Die Xeon Max zeigen doch wie man das umsetzen könnte. HBM Speicher, Xeon Cores und nVidia GPU auf einem Die. Für den normalen Hauptspeicher braucht man dann nicht unbedingt mehr Kontakte. Der Chip selbst wird größer und braucht physisch einfach mehr Platz und einen größeren Kühlkörper. Wenn nVidia in der Lage ist wie beim GraceHopper bzw. GraceBlackwell Superchip GPU und CPU physisch voneinander zu trennen, denn muss der Sockel die NVLinks beeinhalten. Wie man an nVidias Superchips sieht ist das keine unlösbare Aufgabe.
 
Das ganze KI zeugs ist doch ARM was bringt da jetzt die x86 xeons per nvlink zu haben ? Ich meine gut ist zumindest eine alternative aber den Knaller seh ich da jetzt auch nicht.
 
Das ganze KI zeugs ist doch ARM
Der KI Krempel läuft auf den GPUs, die CPUs werden nur dazu benutzt die Daten hin- und herzuschieben. Dazu läuft das OS auf der CPU. Der Vorteil von x86 ist, dass normaler Windows Code darauf läuft bzw. die Performance pro Core besser ist. Die Neoverse Kerne von ARM sind nämlich nicht so der Knaller. Schau Dir mal die Benchmarks an, die nur auf der nVidia Hopper CPU oder auf den Ampere CPUs laufen, die sehen gegen AMDs EPYCs kein Land.
 
Die Xeon Max zeigen doch wie man das umsetzen könnte. HBM Speicher, Xeon Cores und nVidia GPU auf einem Die.
Die Xeon Max haben aber keine iGPU, sondern es sind einfach Sapphire Rapids Xeons mit zusätzlichen 64GB HBM, also zusätzlichem Cache ähnlich wie AMD es bei den X3D Desktop CPUs und einigen EYPC Modellen anbietet.
Für den normalen Hauptspeicher braucht man dann nicht unbedingt mehr Kontakte.
Für den normale Hauptspeicher nicht, aber es ging ja darum GDDR auf das Mainboard zu löten um die Performance der iGPU zu verbessern und da GDDR nicht für CPU (sondern eben für GPUs) optimiert ist, nicht gesockelt werden kann und wir uns wohl kaum künftig Mainboards mit fest verlötetem RAM wünschen sollten, wäre es dann zusätzliches RAM und bräuchte daher zusätzliche Pins im Sockel um es ansprechen zu können.
Wenn nVidia in der Lage ist wie beim GraceHopper bzw. GraceBlackwell Superchip GPU und CPU physisch voneinander zu trennen, denn muss der Sockel die NVLinks beeinhalten.
Keine Ahnung was NVidia bei GraceHopper oder GraceBlackwell macht, deren Chips interessieren mich nicht, ich bin kein Gamer und finde KI wird weitgehend überbewertet, aber wenn man NVLinks in die CPU führt, worum es ja bei der News geht zu der dieser Thread gehört, dann braucht man immer noch die "Graka(s)" die man dort anschließt und dies ist dann die Backendseite und nichts mit der Idee aus dem Post von n3cron zu tun auf die ich geantwortet hatte. Ich dachte dies wäre auch ohne Zitat klar, weil sein Beitrag direkt über meiner Antwort stand.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh