Schmufix
Profi
Gibt es Neuigkeiten von der Intel GPU Sparte?
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Gibt es Neuigkeiten von der Intel GPU Sparte?
Für die nächste Generation wohl nicht aber für mobile workstations wäre es doch was.Ob wir zukünftig dann eine Intel/nVidia-APU für Konsolen sehen werden? Das wäre doch mal was!
Das war damals Kaby Lake-G und die hatten neben dem normalen Kaby Lake Chip auch eine AMD GPU und einen HBM, waren also viel größer als normale Kaby Lake CPUs und auch recht teuer. Es gab damals Gerüchte diese wären auf Wunsch von Apple für ihre nächsten Macbook Pro entstanden, aber am Ende hat Apple die wohl nie verbaut und Intel sie in ihre eigenen Hades Canyon NUC gepackt und es gab wohl auch das eine oder andere Notebook damit.Zumindest Intel CPU + GPU die gab es in der Vergangenheit schonmal mit dem Intel i7-8809G (AMD GPU).
Ich verstehe bis heute nicht warum die Boards nicht GDDR Speicher kompatibel sind und man nicht, wenn schon nicht mit dynamisch bestückbaren Riegeln einfach vordefinierte aufgelötete von mir aus nach JEDEC Spezifikation drauf gebaut hätte. 2-4GB wären Problemlos schon vor 10 Jahren realisierbar gewesen.Das war damals Kaby Lake-G und die hatten neben dem normalen Kaby Lake Chip auch eine AMD GPU und einen HBM, waren also viel größer als normale Kaby Lake CPUs und auch recht teuer. Es gab damals Gerüchte diese wären auf Wunsch von Apple für ihre nächsten Macbook Pro entstanden, aber am Ende hat Apple die wohl nie verbaut und Intel sie in ihre eigenen Hades Canyon NUC gepackt und es gab wohl auch das eine oder andere Notebook damit.
Am Ende hat sich das aber nicht durchgesetzt und es gab nie Nachfolger. Das Problem dürfte auch der Preis sein, denn bei iGPUs hat man immer das Problem der limitierten Speicherbandbreite und Leistungsaufnahme der iGPU. Wie sehr die Speicherbandbreite limitiert, konnte man gut anhand der GT1030 sehen, die es mit GDDR5 oder DDR4 RAM gibt (oder gab) und wo die GDDR5 Varianten etwa die doppelte Leistung hat, weil sie auch die doppelte Speicherbandbreite hat. Bei Kaby Lake-G hat Intel das Problem eben mit HBM gelöst, aber HBM ist teuer und dazu kommt, dass man es immer auf einen Halbleiter Interposer installieren muss, da man nur so die Verbindungen realisieren kann und dies treibt die Kosten weiter. Das dürfte billiger sein eine Graka zu verbauen, zumal man dafür in Notebooks genug Platz hat und es auch flexibler ist.
Solche Konstruktionen wie Kaby Lake-G sind daher nur interessant, wenn der Platz knapp ist und Preis keine große Rolle spielt, also vielleicht für KI. Aber das wäre dann für die Frontends und hier geht es ja laut der News um die spezielle Xeons um viele GPUs schnell anbinden zu können, also die Backupseite.
Ich glaube ihn stört dass Nvidia "nur" 94% Marktanteil bei dedizierten GPU,s hat.
Er ist scheinbar Millionär und will das sich der durchschnittsmensch keine GPU,s mehr leisten kann.
Daher hofft er wohl das AMD bald 0% Marktanteil hat und Pleite geht.
Keineswegs! Die Xeon Max zeigen doch wie man das umsetzen könnte. HBM Speicher, Xeon Cores und nVidia GPU auf einem Die. Für den normalen Hauptspeicher braucht man dann nicht unbedingt mehr Kontakte. Der Chip selbst wird größer und braucht physisch einfach mehr Platz und einen größeren Kühlkörper. Wenn nVidia in der Lage ist wie beim GraceHopper bzw. GraceBlackwell Superchip GPU und CPU physisch voneinander zu trennen, denn muss der Sockel die NVLinks beeinhalten. Wie man an nVidias Superchips sieht ist das keine unlösbare Aufgabe.… aber auch weil die Sockel dann natürlich viel mehr Pins haben müsste um die RAMs auch ansprechen zu können …
Der KI Krempel läuft auf den GPUs, die CPUs werden nur dazu benutzt die Daten hin- und herzuschieben. Dazu läuft das OS auf der CPU. Der Vorteil von x86 ist, dass normaler Windows Code darauf läuft bzw. die Performance pro Core besser ist. Die Neoverse Kerne von ARM sind nämlich nicht so der Knaller. Schau Dir mal die Benchmarks an, die nur auf der nVidia Hopper CPU oder auf den Ampere CPUs laufen, die sehen gegen AMDs EPYCs kein Land.Das ganze KI zeugs ist doch ARM
Die Xeon Max haben aber keine iGPU, sondern es sind einfach Sapphire Rapids Xeons mit zusätzlichen 64GB HBM, also zusätzlichem Cache ähnlich wie AMD es bei den X3D Desktop CPUs und einigen EYPC Modellen anbietet.Die Xeon Max zeigen doch wie man das umsetzen könnte. HBM Speicher, Xeon Cores und nVidia GPU auf einem Die.
Für den normale Hauptspeicher nicht, aber es ging ja darum GDDR auf das Mainboard zu löten um die Performance der iGPU zu verbessern und da GDDR nicht für CPU (sondern eben für GPUs) optimiert ist, nicht gesockelt werden kann und wir uns wohl kaum künftig Mainboards mit fest verlötetem RAM wünschen sollten, wäre es dann zusätzliches RAM und bräuchte daher zusätzliche Pins im Sockel um es ansprechen zu können.Für den normalen Hauptspeicher braucht man dann nicht unbedingt mehr Kontakte.
Keine Ahnung was NVidia bei GraceHopper oder GraceBlackwell macht, deren Chips interessieren mich nicht, ich bin kein Gamer und finde KI wird weitgehend überbewertet, aber wenn man NVLinks in die CPU führt, worum es ja bei der News geht zu der dieser Thread gehört, dann braucht man immer noch die "Graka(s)" die man dort anschließt und dies ist dann die Backendseite und nichts mit der Idee aus dem Post von n3cron zu tun auf die ich geantwortet hatte. Ich dachte dies wäre auch ohne Zitat klar, weil sein Beitrag direkt über meiner Antwort stand.Wenn nVidia in der Lage ist wie beim GraceHopper bzw. GraceBlackwell Superchip GPU und CPU physisch voneinander zu trennen, denn muss der Sockel die NVLinks beeinhalten.