> > > > ISSCC 2018: Prototyp einer dedizierten GPU von Intel zeigt sich (Update)

ISSCC 2018: Prototyp einer dedizierten GPU von Intel zeigt sich (Update)

Veröffentlicht am: von

intelAuf der International Solid-State Circuits Conference 2018 (ISSCC 2018) hat Intel einen neuen Prototypen einer dedizierten GPU präsentiert. Es handelt sich dabei aber noch nicht um die vollständige Neuentwicklung unter der Leitung von Raja Koduri, die als Konkurrenz zu NVIDIA und AMD etabliert werden soll. Stattdessen scheint Intel beim namenlosen Prototypen verschiedene Technologien testen zu wollen.

Der nun gezeigte Prototyp wird in 14 nm gefertigt und kommt bei einer Chipfläche von 64 mm² auf 1,542 Milliarden Transistoren. Zum Vergleich: Die aktuellen High-End-Lösungen von AMD und NVIDIA besitzen mehr als 10 Milliarden Transistoren, sind aber natürlich auch deutlich größer.

Die GPU-Architektur des Prototypen basiert auf der Gen9LP-Architekur. Diese wird derzeit mit 18 EUs (Execution Units) in den Gemini-Lake-Prozessoren verwendet. Diese 18 EUs werden auch beim Prototypen verwendet und damit bewegt sich dieser eher am unteren Ende des Ausbaus, denn bei der Iris Pro Graphics P580 kommen beispielsweise 72 EUs zum Einsatz.

Wie gesagt, der Prototyp soll offenbar eine neuartige Strom- und Spannungsversorgung testen. Um die Effizienz zu steigern verwendet Intel gleich zwei: Digitally Controlled Low Dropouts (DLDO) sowie Switched Capacitor Voltage Regulators (SCVR).

Mit dieser Maßnahme will Intel die einzelnen EUs getrennt voneinander takten und versorgen können. Das Power Gating sorgt dafür, dass nur die Bereiche des Chips versorgt werden, die gerade auch zum Einsatz kommen. Dies hilft Strombedarf und Abwärme zu verringern – macht die also GPU effizienter. Bei Verwendung von zwölf EUs will Intel mit dieser Maßnahme auch eine um bis zu 30 % höhere Leistung erreichen. Ein Power Gating in der GPU verwendet AMD seit der Polaris-Architektur und auch für Vega. Bei den Prozessoren ist dies ein übliches Vorgehen, um einzelne Bereich abzuschalten. Damit hat auch Intel schon einige Erfahrung sammeln können.

Wie auch bei den Prozessoren gilt bei diesem speziellen Gen9LP-Prototypen: Werden nur einige wenige EUs benötigt, können diese höher takten als bei der Verwendung der kompletten integrierten GPU. Dies kennen wir von den Prozessoren durch die All-Core-, bzw. abgestuften Boost-Taktraten für die Verwendung einzelner Kern-Paare.

Etwas verdutzt waren wir aufgrund des FPGAs, welcher sich ebenfalls auf dem Package befindet. Allerdings scheint dies ein übliches Vorgehen von Intel für einen solchen Prototypen zu sein. Da die dedizierte GPU in ein ein System eingebettet werden muss, stellt Intel über die FPGA die notwendigen Verbindungen zur Ansteuerung bereit.

Man darf nun gespannt sein, in welcher Form die Entwicklungsergebnisse in den geplanten dedizierten GPUs von Intel auftauchen werden. Beim gezeigten Prototypen geht es nur darum die besagte Strom- und Spannungsversorgung zu testen. Bis wir hier die ersten Ergebnisse sehen, wird es aber noch einige Zeit dauern. Intel hat die Entwicklungsteams offenbar bereits zusammengestellt, einige Jahren werden aber sicherlich vergehen.

Update:

Wir wollen die Meldung rund um den Prototypen noch einmal etwas relativieren. Zunächst einmal sei gesagt, dass es sich bei dem Prototypen nicht um ein neues GPU-Design handelt. Er dient schlicht und ergreifend der Erprobung der Strom- und Spannungsversorgung und legt keinen Fokus auf die 3D-Leistung. Erkenntnisse aus der Entwicklung und Erprobung des Prototypens werden aber sicherlich bei zukünftigen dedizierten GPU-Designs eine Rolle spielen.

Intel hat zudem folgende Stellungnahme veröffentlicht:

"Last week at ISSCC, Intel Labs presented a research paper exploring new circuit techniques optimized for power management. The team used an existing Intel integrated GPU architecture (Gen 9 GPU) as a proof-of-concept for these circuit techniques. This is a test vehicle only, not a future product. While we intend to compete in graphics products in the future, this research paper is unrelated. Our goal with this research is to explore possible, future circuit techniques that may improve the power and performance of Intel products."

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (21)

#12
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
BannedForEveR
Beiträge: 6268
Zitat shaderfetischGTxXx;26169214
warum behält AMD das nicht exklusiv und bietet es zusammen mit Ryzen an? Ein Ryzen 2700G, mit dieser Vega und sechs Kernen. Natürlich müsste man das alles auf einen Chip bekommen.


Weil sie so mehr davon absetzen können. Vega ist damit ausverkauft und das trotz sie so schlecht ist und keiner haben will, finde ich ne ganz gute Leistung. :D
#13
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
BannedForEveR
Beiträge: 6268
Hier gibt's schon mehr Infos:
Skylake-Technik: Intel erklärt ersten Prototypen einer eigenen GPU - ComputerBase

Nich das es am Ende wieder an den Treibern scheitert bei Intel, das wäre wichtig wenn sie in dem Segment Fuß fassen wollen ... ;)

Oder wie wäre es, wenn Intel sich gleich komplett auf Mining-GPUs spezialisiert, hätten alle was von?
#14
Registriert seit: 01.01.1970


Beiträge:
Zitat shaderfetischGTxXx;26169214
Ich frage mich auch was AMD macht oder ob die Miner alle Karten missbrauchen, es sind ja keine mehr kaufbar.

Missbrauch ist das natürlich nicht, wenn die Karten gemessen am Preis höchste Hashraten erreichen.

Die Frage ist wofür wurde Vega10 entwickelt, hatte AMD dabei schon den Miningmarkt mit im Auge, vermutlich. Vega10 hat eine Zwitterstellung (Gaming/Pro/Instinct) inne, die Stärken liegen dabei eher in bestimmten professionellen Anwendungsszenarien.

Für Fans die gehofft haben man könnte Nvidia damit direkt schlagen - enttäuschend, für Fans die nichts anderes erwartet haben, alltagstauglich.

Zitat shaderfetischGTxXx;26169214
Intel dGPU dürfte eher was für den professionellen Markt sein. Mich wundert schon dass AMD und Intel (Totfeinde?) kooperieren und eine Intel-CPU mit AMD-Grafikkarte bringen. Das ist mal zukunftsweisend.

Totfeinde eher nicht, AMD war ja sozusagen Intel (das sehen nur Fans so)!

Intel braucht weitere Standbeine, denke man profitiert voneinander. Vega kommt in Intel CPUs und in den Mobilemarkt, Intel bekommt Patente/Lizenzen/Starthilfe um dGPUs zu bauen. Win-Win-Strategien sind oft sinnvoll und für die Beteiligten vorteilhaft. Intel wird dabei verschont zu viele Marktanteile an andere zu verlieren und muss nicht mit einem Gegenpart von AMD zu jedem ihrer Produkte rechnen, da knabbert Qualcomm & Co sowieso schon genug umher.
#15
customavatars/avatar210347_1.gif
Registriert seit: 18.09.2014
Gelsenkirchen
Stabsgefreiter
Beiträge: 325
[QUOTE=satuan;26169441]Missbrauch ist das natürlich nicht, wenn die Karten gemessen am Preis höchste Hashraten erreichen.

Die Frage ist wofür wurde Vega10 entwickelt, hatte AMD dabei schon den Miningmarkt mit im Auge, vermutlich. Vega10 hat eine Zwitterstellung (Gaming/Pro/Instinct) inne, die Stärken liegen dabei eher in bestimmten professionellen Anwendungsszenarien.

Für Fans die gehofft haben man könnte Nvidia damit direkt schlagen - enttäuschend, für Fans die nichts anderes erwartet haben, alltagstauglich.


Totfeinde eher nicht, AMD war ja sozusagen Intel (das sehen nur Fans so)!

Intel braucht weitere Standbeine, denke man profitiert voneinander. Vega kommt in Intel CPUs und in den Mobilemarkt, Intel bekommt Patente/Lizenzen/Starthilfe um dGPUs zu bauen. Win-Win-Strategien sind oft sinnvoll und für die Beteiligten vorteilhaft. Intel wird dabei verschont zu viele Marktanteile an andere zu verlieren und muss nicht mit einem Gegenpart von AMD zu jedem ihrer Produkte rechnen, da knabbert Qualcomm & Co sowieso schon genug umher.[/QUOTE

#
Nicht nur das. Intel ist Ja nicht mehr der Größte Hersteller von Microchips der Rang hat Samsung jetzt Inne. Zu dem Plant China eine Investition von 100MRD Doller und will 2-3 Fabriken Bauen. Damit will China weiter ihr Einfluss Natürlich ausbauen und zum Andren die Stätige werden nachfrage an Chips, Silizium und Co. Decken können. Und dann wird Intel auf rang 3 oder 4 Landen.
#16
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
BannedForEveR
Beiträge: 6268
Also interessant wäre echt schon auch mal eine dritte Partei im GPU Segment. Falls dort dann Gaming GPUs das Ziel sind, wird Intel genau wie AMD ziemliche Probleme dank Nvidias Gameworks bekommen, glaube dass in letzter Zeit immer mehr Spiele Teile davon implementieren...ganz zu schweigen von der Unreal Engine, die Nvidia Karten extrem bevorzugt...
#17
Registriert seit: 01.01.1970


Beiträge:
Zitat Holzmann;26169643
...ganz zu schweigen von der Unreal Engine, die Nvidia Karten extrem bevorzugt...

Hm, bist du dir da sicher, immer hin unterstützen sie die PS4 und XOX mit gezieltem Support?
#18
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
BannedForEveR
Beiträge: 6268
nach meinem wissen schon, aber vielleicht liege ich mal wieder daneben ;)
Unreal Engine | NVIDIA Developer
#19
Registriert seit: 01.01.1970


Beiträge:
Ich glaube schon...;)

Tim Sweeney receiving Vega Nano at AMD event. - YouTube
#20
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
BannedForEveR
Beiträge: 6268
Zitat satuan;26169709
Ich glaube schon...;)

Tim Sweeney receiving Vega Nano at AMD event. - YouTube


SHOCKING interview with AMD about the Vega GPU (Parody) - YouTube :bigok:
#21
Registriert seit: 01.01.1970


Beiträge:

Ausgeleiert...

Der Programm- und Engineguide ist offen, AMD sucht sich seine Partner auch (Dice, Bethesda).

Programming Guide | Unreal Engine

Vermutlich profitiert Nvidia mehr von ihrem Treiber- und geringerem Overhead im CPU-Limit unter DX11, dass bleibt AMDs Baustelle, daran ändert auch Epic Games mit Unreal nichts.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

ZOTAC GeForce GTX 1080 Ti Mini: 1080-Ti-Leistung auf gerade einmal 21 Zentimeter

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-MINI-LOGO

Wir haben uns bereits mehr als ein Dutzend verschiedene Modelle der GeForce GTX 1080 Ti angeschaut. Mit von der Partie waren standard-luftgekühlte und wassergekühlte Modelle, mit All-in-One-Wasserkühlung und Custom-Open-Loop – die Vielfalt lässt sicherlich kaum Wünsche offen. ZOTAC hat nun... [mehr]