> > > > ISSCC 2018: Prototyp einer dedizierten GPU von Intel zeigt sich (Update)

ISSCC 2018: Prototyp einer dedizierten GPU von Intel zeigt sich (Update)

Veröffentlicht am: von

intelAuf der International Solid-State Circuits Conference 2018 (ISSCC 2018) hat Intel einen neuen Prototypen einer dedizierten GPU präsentiert. Es handelt sich dabei aber noch nicht um die vollständige Neuentwicklung unter der Leitung von Raja Koduri, die als Konkurrenz zu NVIDIA und AMD etabliert werden soll. Stattdessen scheint Intel beim namenlosen Prototypen verschiedene Technologien testen zu wollen.

Der nun gezeigte Prototyp wird in 14 nm gefertigt und kommt bei einer Chipfläche von 64 mm² auf 1,542 Milliarden Transistoren. Zum Vergleich: Die aktuellen High-End-Lösungen von AMD und NVIDIA besitzen mehr als 10 Milliarden Transistoren, sind aber natürlich auch deutlich größer.

Die GPU-Architektur des Prototypen basiert auf der Gen9LP-Architekur. Diese wird derzeit mit 18 EUs (Execution Units) in den Gemini-Lake-Prozessoren verwendet. Diese 18 EUs werden auch beim Prototypen verwendet und damit bewegt sich dieser eher am unteren Ende des Ausbaus, denn bei der Iris Pro Graphics P580 kommen beispielsweise 72 EUs zum Einsatz.

Wie gesagt, der Prototyp soll offenbar eine neuartige Strom- und Spannungsversorgung testen. Um die Effizienz zu steigern verwendet Intel gleich zwei: Digitally Controlled Low Dropouts (DLDO) sowie Switched Capacitor Voltage Regulators (SCVR).

Mit dieser Maßnahme will Intel die einzelnen EUs getrennt voneinander takten und versorgen können. Das Power Gating sorgt dafür, dass nur die Bereiche des Chips versorgt werden, die gerade auch zum Einsatz kommen. Dies hilft Strombedarf und Abwärme zu verringern – macht die also GPU effizienter. Bei Verwendung von zwölf EUs will Intel mit dieser Maßnahme auch eine um bis zu 30 % höhere Leistung erreichen. Ein Power Gating in der GPU verwendet AMD seit der Polaris-Architektur und auch für Vega. Bei den Prozessoren ist dies ein übliches Vorgehen, um einzelne Bereich abzuschalten. Damit hat auch Intel schon einige Erfahrung sammeln können.

Wie auch bei den Prozessoren gilt bei diesem speziellen Gen9LP-Prototypen: Werden nur einige wenige EUs benötigt, können diese höher takten als bei der Verwendung der kompletten integrierten GPU. Dies kennen wir von den Prozessoren durch die All-Core-, bzw. abgestuften Boost-Taktraten für die Verwendung einzelner Kern-Paare.

Etwas verdutzt waren wir aufgrund des FPGAs, welcher sich ebenfalls auf dem Package befindet. Allerdings scheint dies ein übliches Vorgehen von Intel für einen solchen Prototypen zu sein. Da die dedizierte GPU in ein ein System eingebettet werden muss, stellt Intel über die FPGA die notwendigen Verbindungen zur Ansteuerung bereit.

Man darf nun gespannt sein, in welcher Form die Entwicklungsergebnisse in den geplanten dedizierten GPUs von Intel auftauchen werden. Beim gezeigten Prototypen geht es nur darum die besagte Strom- und Spannungsversorgung zu testen. Bis wir hier die ersten Ergebnisse sehen, wird es aber noch einige Zeit dauern. Intel hat die Entwicklungsteams offenbar bereits zusammengestellt, einige Jahren werden aber sicherlich vergehen.

Update:

Wir wollen die Meldung rund um den Prototypen noch einmal etwas relativieren. Zunächst einmal sei gesagt, dass es sich bei dem Prototypen nicht um ein neues GPU-Design handelt. Er dient schlicht und ergreifend der Erprobung der Strom- und Spannungsversorgung und legt keinen Fokus auf die 3D-Leistung. Erkenntnisse aus der Entwicklung und Erprobung des Prototypens werden aber sicherlich bei zukünftigen dedizierten GPU-Designs eine Rolle spielen.

Intel hat zudem folgende Stellungnahme veröffentlicht:

"Last week at ISSCC, Intel Labs presented a research paper exploring new circuit techniques optimized for power management. The team used an existing Intel integrated GPU architecture (Gen 9 GPU) as a proof-of-concept for these circuit techniques. This is a test vehicle only, not a future product. While we intend to compete in graphics products in the future, this research paper is unrelated. Our goal with this research is to explore possible, future circuit techniques that may improve the power and performance of Intel products."

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (21)

#12
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 7941
Zitat shaderfetischGTxXx;26169214
warum behält AMD das nicht exklusiv und bietet es zusammen mit Ryzen an? Ein Ryzen 2700G, mit dieser Vega und sechs Kernen. Natürlich müsste man das alles auf einen Chip bekommen.


Weil sie so mehr davon absetzen können. Vega ist damit ausverkauft und das trotz sie so schlecht ist und keiner haben will, finde ich ne ganz gute Leistung. :D
#13
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 7941
Hier gibt's schon mehr Infos:
Skylake-Technik: Intel erklärt ersten Prototypen einer eigenen GPU - ComputerBase

Nich das es am Ende wieder an den Treibern scheitert bei Intel, das wäre wichtig wenn sie in dem Segment Fuß fassen wollen ... ;)

Oder wie wäre es, wenn Intel sich gleich komplett auf Mining-GPUs spezialisiert, hätten alle was von?
#14
Registriert seit: 01.01.1970


Beiträge:
Zitat shaderfetischGTxXx;26169214
Ich frage mich auch was AMD macht oder ob die Miner alle Karten missbrauchen, es sind ja keine mehr kaufbar.

Missbrauch ist das natürlich nicht, wenn die Karten gemessen am Preis höchste Hashraten erreichen.

Die Frage ist wofür wurde Vega10 entwickelt, hatte AMD dabei schon den Miningmarkt mit im Auge, vermutlich. Vega10 hat eine Zwitterstellung (Gaming/Pro/Instinct) inne, die Stärken liegen dabei eher in bestimmten professionellen Anwendungsszenarien.

Für Fans die gehofft haben man könnte Nvidia damit direkt schlagen - enttäuschend, für Fans die nichts anderes erwartet haben, alltagstauglich.

Zitat shaderfetischGTxXx;26169214
Intel dGPU dürfte eher was für den professionellen Markt sein. Mich wundert schon dass AMD und Intel (Totfeinde?) kooperieren und eine Intel-CPU mit AMD-Grafikkarte bringen. Das ist mal zukunftsweisend.

Totfeinde eher nicht, AMD war ja sozusagen Intel (das sehen nur Fans so)!

Intel braucht weitere Standbeine, denke man profitiert voneinander. Vega kommt in Intel CPUs und in den Mobilemarkt, Intel bekommt Patente/Lizenzen/Starthilfe um dGPUs zu bauen. Win-Win-Strategien sind oft sinnvoll und für die Beteiligten vorteilhaft. Intel wird dabei verschont zu viele Marktanteile an andere zu verlieren und muss nicht mit einem Gegenpart von AMD zu jedem ihrer Produkte rechnen, da knabbert Qualcomm & Co sowieso schon genug umher.
#15
customavatars/avatar210347_1.gif
Registriert seit: 18.09.2014
Gelsenkirchen
Stabsgefreiter
Beiträge: 353
[QUOTE=satuan;26169441]Missbrauch ist das natürlich nicht, wenn die Karten gemessen am Preis höchste Hashraten erreichen.

Die Frage ist wofür wurde Vega10 entwickelt, hatte AMD dabei schon den Miningmarkt mit im Auge, vermutlich. Vega10 hat eine Zwitterstellung (Gaming/Pro/Instinct) inne, die Stärken liegen dabei eher in bestimmten professionellen Anwendungsszenarien.

Für Fans die gehofft haben man könnte Nvidia damit direkt schlagen - enttäuschend, für Fans die nichts anderes erwartet haben, alltagstauglich.


Totfeinde eher nicht, AMD war ja sozusagen Intel (das sehen nur Fans so)!

Intel braucht weitere Standbeine, denke man profitiert voneinander. Vega kommt in Intel CPUs und in den Mobilemarkt, Intel bekommt Patente/Lizenzen/Starthilfe um dGPUs zu bauen. Win-Win-Strategien sind oft sinnvoll und für die Beteiligten vorteilhaft. Intel wird dabei verschont zu viele Marktanteile an andere zu verlieren und muss nicht mit einem Gegenpart von AMD zu jedem ihrer Produkte rechnen, da knabbert Qualcomm & Co sowieso schon genug umher.[/QUOTE

#
Nicht nur das. Intel ist Ja nicht mehr der Größte Hersteller von Microchips der Rang hat Samsung jetzt Inne. Zu dem Plant China eine Investition von 100MRD Doller und will 2-3 Fabriken Bauen. Damit will China weiter ihr Einfluss Natürlich ausbauen und zum Andren die Stätige werden nachfrage an Chips, Silizium und Co. Decken können. Und dann wird Intel auf rang 3 oder 4 Landen.
#16
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 7941
Also interessant wäre echt schon auch mal eine dritte Partei im GPU Segment. Falls dort dann Gaming GPUs das Ziel sind, wird Intel genau wie AMD ziemliche Probleme dank Nvidias Gameworks bekommen, glaube dass in letzter Zeit immer mehr Spiele Teile davon implementieren...ganz zu schweigen von der Unreal Engine, die Nvidia Karten extrem bevorzugt...
#17
Registriert seit: 01.01.1970


Beiträge:
Zitat Holzmann;26169643
...ganz zu schweigen von der Unreal Engine, die Nvidia Karten extrem bevorzugt...

Hm, bist du dir da sicher, immer hin unterstützen sie die PS4 und XOX mit gezieltem Support?
#18
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 7941
nach meinem wissen schon, aber vielleicht liege ich mal wieder daneben ;)
Unreal Engine | NVIDIA Developer
#19
Registriert seit: 01.01.1970


Beiträge:
Ich glaube schon...;)

Tim Sweeney receiving Vega Nano at AMD event. - YouTube
#20
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 7941
Zitat satuan;26169709
Ich glaube schon...;)

Tim Sweeney receiving Vega Nano at AMD event. - YouTube


SHOCKING interview with AMD about the Vega GPU (Parody) - YouTube :bigok:
#21
Registriert seit: 01.01.1970


Beiträge:

Ausgeleiert...

Der Programm- und Engineguide ist offen, AMD sucht sich seine Partner auch (Dice, Bethesda).

Programming Guide | Unreal Engine

Vermutlich profitiert Nvidia mehr von ihrem Treiber- und geringerem Overhead im CPU-Limit unter DX11, dass bleibt AMDs Baustelle, daran ändert auch Epic Games mit Unreal nichts.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Logo von IMAGES/STORIES/2017/GEFORCERTX2080

Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

AMD Radeon RX Vega 64 im mGPU-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

In den letzten Tagen war es so weit. Wir hatten endlich Hard- und Software zusammen, um die Radeon RX Vega 64 im mGPU testen zu können. Zum einen halten wir die ASUS ROG Strix Radeon Vega 64 OC Edition in Händen, zum anderen hat AMD den Radeon Software Crimson ReLive Edition 17.9.2... [mehr]