> > > > Intel und AMD gemeinsam: Core H mit Radeon-Grafik und HBM2 (Update)

Intel und AMD gemeinsam: Core H mit Radeon-Grafik und HBM2 (Update)

Veröffentlicht am: von

intelNach Monaten der Gerüchte ist es nun offiziell: Intel greift für die integrierte Grafik einiger Core-Prozessoren der H-Serie auf das Wissen und die Technologie von AMD zurück. Beide Unternehmen haben dies in einer offiziellen Pressemitteilung bestätigt. Die dabei zum Einsatz kommende Fertigungstechnik namens Embedded Multi-Die Interconnect Bridge (EMIB) soll dabei helfen zukünftige Prozessoren in den Notebooks deutlich leistungsstärker zu machen. Zugleich sollen noch dünnere Notebook-Designs möglich werden.

Die Core-H-Prozessoren sind teil der 8. Core-Generation und vereinen die CPU-Technologie von Intel mit einer Grafikeinheit von AMDs Radeon Technologies Group – gepaart mit High Bandwidth Memory der zweiten Generation (HBM2). Es soll sich bei der Grafikeinheit um einen neuen "Semi-Custom Graphics Chip" handeln. Genaue technische Details, beispielsweise welche Architektur zum Einsatz kommt, gibt es nicht. Aufgrund des HBM2 dürften wir hier aber von der Vega-Architektur sprechen.

Unbekannt ist derzeit auch, welche CPU-Architektur seitens Intel zum Einsatz kommt. All diese Informationen sollen zu einem späteren Zeitpunkt bekanntgemacht werden.

Wichtiges Element für die Core-H-Prozessoren ist laut Intel die Entwicklung der Embedded Multi-Die Interconnect Bridge. Diese beschreibt den Aufbau verschiedener Dies auf einem Trägersubstrat. Dieses sogenannte 2,5D-Design kann die verschiedensten Dies untereinander verbinden und stellt dank Through Silicon Vias (TSVs) einen schnellen Interconnect her. Nebenbei erhöht sich natürlich die Packdichte für die einzelnen Komponenten, was den Platzbedarf auf dem PCB verringert und hier für mehr Flexibilität sorgt.

Ähnliche Argumente gibt es bereits im Zusammenspiel mit High Bandwidth Memory, der ebenfalls direkt mit dem Prozessor auf einem Interposer untergebracht wird und mittels Through Silicon Vias (TSVs) verbunden wird. Der schnelle Speicher setzt einen ebenso schnellen Interconnect voraus – dies gilt auch bei den Intel-Core-H-Prozessoren. Mit der EMIB-Technologie lassen sich Dies mit unterschiedlichen Fertigungsgrößen gemeinsam unterbringen. So wäre es möglich die CPU-Part in 10 nm zu fertigen, die GPU aber kommt weiterhin in 14 oder 12 nm von Globalfoundries. Zudem reduziert die Technik im Vergleich zum Silicon-Interposer deutlich die Kosten. Weitere Details zu EMIB hat Intel auf dem letzten Meeting der Technology and Manufacturing Group verraten.

Die zusätzliche Komponente, also der eigentliche CPU-Part, wird von Intel aber nicht nur hinsichtlich der Fertigung eingebunden, sondern auch auf Ebene der Software bzw. des Treibers. Die richtige Balance für die Leistungsaufnahme zwischen CPU und GPU ist wichtig und entscheidend für die Leistung des Gesamtsystems. Die Zuteilung der Leistung mit eventuell vorhandenen Reserven in den Boost-Mechanismen soll aber nicht nur automatisch möglichst ideal erfolgen, sondern sich auch manuell einstellen lassen.

Heute kündigen beide Unternehmen ihre Zusammenarbeit an, ohne konkrete Produkte vorzustellen. Dies soll im ersten Quartal 2018 geschehen.

Stellungnahme von AMD

“Our collaboration with Intel expands the installed base for AMD Radeon GPUs and brings to market a differentiated solution for high-performance graphics,” sagt Scott Herkelman, Vice President und General Manager, AMD Radeon Technologies Group. “Together, we are offering gamers and content creators the opportunity to have a thinner-and-lighter PC capable of delivering discrete performance-tier graphics experiences in AAA games and content creation applications. This new semi-custom GPU puts the performance and capabilities of Radeon graphics into the hands of an expanded set of enthusiasts who want the best visual experience possible.”

Wenige technische Details bekannt

Bisher sind nur wenige technische Details bekannt. Von Intel und AMD gibt es wie gesagt noch gar keine offiziellen Angaben. Aus zahlreichen Leaks scheint aber klar zu sein, dass es mindestens drei Prozessoren der Core-H-Serie geben wird. Diese hören auf den Namen Core i7-8705G, i7-8706G und i7-8809G. Allesamt sollen diese über vier Kerne verfügen. Unterschiede soll es bei der Taktung der CPU-Kerne geben, die von 3,6 bis 4,1 GHz reicht.

Die integrierte Grafikeinheit arbeitet mit 1,0 bis 1,2 GHz. An Speicher stehen offenbar 4 GB zur Verfügung, die mit 700 und 800 MHz arbeiten. Aber auch 8 GB wären denkbar. Leider gibt es derzeit keinerlei Informationen darüber, wie viele Compute Units AMD verbaut und als Custom-Design an Intel liefert.

In obigem Bild haben wir die Rendering von Intel einmal entsprechend beschriftet. Ganz rechts ist die CPU von Intel zu sehen. In der Mitte befindet sich die GPU von AMD und links ist der HBM2 angedeutet, der vermutlich in zwei Stacks ausgeführt ist.

In den kürzlich von AMD angekündigten Ryzen-Mobile-Prozessoren alias Raven Ridge, in denen AMD die Zen-CPU-Architektur mit der Vega-GPU-Architektur vereint, verbaut AMD acht bzw. 10 CUs, demzufolge 512 oder 640 Shadereinheiten. Dies dürfte bei den Intel-Prozessoren recht ähnlich sein.

Update:

Es ist ein erstes echtes Foto und kein 3D-Rendering eines Core H aufgetaucht. Auf dem Bild ist der Chip sozusagen kopfüber zu sehen. Von links nach rechts zu sehen ist die CPU, in der Mitte folgt die GPU und ganz rechts ist der HBM2-Speicherstack platziert. Links und unter dem Chip-Package sind die Spannungsphasen der Strom- und Spannungsversorgung zu sehen. Diese wirkt recht ähnlich zu dem, was wir von den Radeon-RX-Vega-Karten kennen.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (94)

#85
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3847
Zitat mr.dude;25941769
Aber eben keine, die an bestimmte Abmessungen und an ein bestimmtes Gewicht gebunden sind.


Aber nicht bei dGPUs, die ebenfalls auf HBM setzen.


Wir reden von CPU+iGPU vs CPU+dGPU. :rolleyes: Letztes ist einfach ineffizienter bei vergleichbarer CPU- und GPU-Architektur.


Was du nicht alles weisst. Praktisch nichts. LOL.

https://www.computerbase.de/2017-11/kaby-lake-g-nuc-vega-hbm2/

Übrigens, selbst 15W brauchen keine besonders aufwändige Kühlung. Und Modelle mit weniger TDP erst recht nicht.


Bestimmte Abmessungen? Nenn ein Beispiel. Der Constraint an die Größe ist bei den meisten Notebooks mit starker GPU/CPU der Kühlung geschuldet. Etwas weniger pcb verringert nicht massiv das nötige Volumen der Kühlung.


"iGPU". Nochmal, nur weil die gpu nun näher an der cpu ist, wird der verbrauch nicht weniger. Ne 1536 shader Vega verbraucht bei gleichem Takt gleich viel, egal ob sie auf der EMIB liegt oder am anderen Ende des PCB.


Die bisherige KBL-G NUC Platine ist deutlich größer als bisherige NUCs. Schau dir die IO an, das Teil ist fast mITX.
Und mit Tablets/Convertibles hat das auch nichts zu tun. Ja 15W sind da kühlbar, aber KBL-G in der bekannten Konfiguration wird weeeeeit über 15W liegen. Zeig mir doch mal ein Convertible mit 100W TDP.

Sent from OP3T
#86
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6272
Zitat Powl;25942709
Bestimmte Abmessungen? Nenn ein Beispiel. Der Constraint an die Größe ist bei den meisten Notebooks mit starker GPU/CPU der Kühlung geschuldet. Etwas weniger pcb verringert nicht massiv das nötige Volumen der Kühlung.

Ach Jungchen, ich hab jeden Tag mit etlichen Notebooks verschiedenster Hersteller zu tun. Am meisten verkauft sich das, was kompakt und einfach in der Umsetzung ist. Da haben Hersteller weder Platz noch Budget für aufwändige dGPU Umsetzungen.

Zitat Powl;25942709
Nochmal, nur weil die gpu nun näher an der cpu ist, wird der verbrauch nicht weniger.

Das hat auch keiner gesagt. Man ist trotzdem effizienter, da zum einen ein PCB wegfällt und zum anderen Signallaufzeiten kürzer sind und Stromsparmechanismen etwas effektiver implementiert werden können. Noch effizienter wäre man natürlich, wenn alles auf einem Die implementiert ist.

Zitat Powl;25942709
Die bisherige KBL-G NUC Platine ist deutlich größer als bisherige NUCs.

Selbst wenn dem so wäre, irrelevant. NUC ist NUC. Aber ich merke schon, Einsicht besitzt du keine. Anstatt deine falsche Behauptung einfach mal zuzugeben, suchst du lieber nach billigen Ausflüchten. Echt abartige Diskussionskultur!

Zitat Powl;25942709
Und mit Tablets/Convertibles hat das auch nichts zu tun. Ja 15W sind da kühlbar, aber KBL-G in der bekannten Konfiguration wird weeeeeit über 15W liegen. Zeig mir doch mal ein Convertible mit 100W TDP.

Natürlich sind auch Tablets/Convertibles möglich. So eine Combo ermöglicht Packages <15W.
#87
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3847
"nuc ist nuc".

Die ganze diskussion geht um platzeinsparung. Wenn das ding GRÖSSER ist als vorher, dann ist eben nicht nuc gleich nuc.



Oh, es wird minimal effizienter weil die signallaufzeit kürzer ist. Also noch kleinlicher geht ja nicht. Das eine Watt machts jetzt fett oder was?


Aufwändige dgpu umsetzungen? Mit dem hybriden hier wird das nicht nennenswert weniger aufwändig? Pcb wird etwas kleiner, dafür wird kühler und layout um die EMIB rum schwieriger. Und die kühlung wird halt nicht kleiner als sie bisher schon möglich wäre.


Was soll ich dir noch belegen? Was willst du? Man sieht dass das aktuelle KBL G NUC pcb größer ist. Soll ich das foto anders rotieren? Bei gleichem verbrauch wird die kühlung nicht kleiner werden, als sie es schon jetzt ist. was soll ich dir da belegen? Willst du dem widersprechen? Dann solltest du lieber schleunigst beweisen, wie du plötzlich die physik aushebelst.


Und wie zum henker stellst du dir nen hybriden wie das hier mit <15w vor???? allein die gpu wird jenseits der 50w fressen...
Wenn du das hier auf <15w skalierst, machts absolut keinen sinn mehr, weil dann die leistung auch nicht mehr höher ist als bisheriger tablet lösungen...


Und DU willst was von abartiger Diskussionkultur erzählen! Du argumentierst nur, um "dagegen" zu sein.

Sent from OP3T
#88
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5292
Zitat Powl;25945949
Allein die GPU wird jenseits der 50W fressen

Wie kommst Du denn auf sowas? Die Notebookversion von Raven Ridge hat 1,6 TFLOPS GPU-Leistung und GPU+CPU nehmen zusammen maximal 25W auf. Wenn ich das mal verdopple, bin ich bei max. 50W. Der HBM kommt noch dazu, somit vielleicht 60W. Selbst wenn ich es verdreifachen würde, wären wir bei 75W, wobei jedoch kein 12-Core kommen wird, sodass man für die CPU wieder viel abziehen muss. Wir bewegen uns hier somit zwischen 50 und 80W für das ganze Package, vielleicht.

Wenn die Polaris-GPU, wie hier angegeben, mit nur 1190MHz taktet, und die gleichen Optimierungen wie Vega bekommt, wird sie auch voll im Sweetspot landen - genauso wie Vega in Raven Ridge mit bis zu 1300MHz.

Wenn man eine GPU für den Desktop mit den ganzen Bauteilen, die heiß werden, mit so einem kleinen Ding vergleicht, was selbst gar keine Verlustleistung durch Spannungswandler abgibt, macht man meiner Meinung nach einen großen Fehler in der Einschätzung. Man braucht zwar eine große Fläche, damit so kleine Dinger weiterhin ihre Wärme gut abgeben können und wird deshalb wahrscheinlich erst sehr spät die absolute HighEnd-Hardware dadurch ersetzen können, aber wenn man es richtig anstellt, lässt sich die Energieeffizienz dadurch im Welten verbessern.
#89
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3847
Wieso vergleichst du mit dem Desktop? Ich vergleiche mit dGPUs in bisherigen Laptops. Wieso nimmst du an, der kram in laptops hat keine verlustleistung? Ne 50W gpu hat in nem laptop genauso viel wandlerverluste wie als eigenständige karte mit gleicher vrm ausstattung. Wieso nimmst du an, dass plötzlich faktoren wegfallen, die rein garnichts mit der geräteklasse zu tun haben?

Bzw verbrauch. Die bisherige Info spricht von 1536 shader bei 1-1.2ghz. wenn ich das linear interpoliere von polaris oder vega, komme ich auf 60W. Klar skalierts nicht linear, aber ist die einfachste Näherung. Von RR hochrechnen ist ein denkfehler, denn das wird bei last auf gpu+cpu nicht den vollen takt halten können, zumindest wenns so ist wie bei jeder ULV sku seit nem Jahrzehnt. Und selbst wenn hat RR was, 640 shader? Wir haben also fast drei mal so viele shader und nur etwas weniger max takt. 50W min für die gpu sind da nicht unrealistisch.

Cpu kommt da noch dazu und Core H kann fröhlich 20W aufwärts nehmen bei Last.

Sent from OP3T
#90
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6272
Zitat Powl;25945949
Die ganze diskussion geht um platzeinsparung. Wenn das ding GRÖSSER ist als vorher, dann ist eben nicht nuc gleich nuc.

Doch.

Zitat Powl;25945949
Oh, es wird minimal effizienter weil die signallaufzeit kürzer ist. Also noch kleinlicher geht ja nicht. Das eine Watt machts jetzt fett oder was?

Das hat nichts mit Kleinlichkeit zu tun. In kleinen Formfaktoren zählt jedes Watt.

Zitat Powl;25945949
Aufwändige dgpu umsetzungen? Mit dem hybriden hier wird das nicht nennenswert weniger aufwändig?

Doch, für Systemhersteller deutlich. Kühlung und Layout wird vereinfacht, und nicht schwieriger, wie du fälschlicherweise behauptest.

Zitat Powl;25945949
Und wie zum henker stellst du dir nen hybriden wie das hier mit <15W vor???? Allein die GPU wird jenseits der 50W fressen...

Nein. Nach unten kann man immer problemlos skalieren. Oder brauchen die mobilen Raven Ridges 100W? :rolleyes:

Zitat Powl;25945949
Wenn du das hier auf <15W skalierst, machts absolut keinen Sinn mehr, weil dann die Leistung auch nicht mehr höher ist als die bisheriger tablet lösungen...

Doch, aus Sicht von Intel schon.

Zitat Powl;25945949
Und DU willst was von abartiger Diskussionkultur erzählen! Du argumentierst nur, um "dagegen" zu sein.

Nein, das machst DU! Kurzzeitgedächtnis? DU warst derjenige, der meine Beiträge angegriffen und behauptet hat, dass 'ne dGPU in gleichen Formfaktoren möglich wäre, die Lösung hier nicht bei NUCs geht und ähnliches, was ja mittlerweile widerlegt ist. Also komm mal von deinem Egotrip runter und betrachte die Sache objektiv und unvoreingenommen!
#91
Registriert seit: 15.11.2017

Matrose
Beiträge: 15
wow das ist ja echt cool
#92
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3847
Zitat mr.dude;25950897
Doch.

Nein. Größer =/= gleich.

Zitat mr.dude;25950897

Das hat nichts mit Kleinlichkeit zu tun. In kleinen Formfaktoren zählt jedes Watt.

Aber nicht bei 70W vs 71W.

Zitat mr.dude;25950897

Doch, für Systemhersteller deutlich. Kühlung und Layout wird vereinfacht, und nicht schwieriger, wie du fälschlicherweise behauptest.

Wo wird Kühlung vereinfacht? Gleiches Kühlvolumen nötig, nur statt zwei Kontaktflächen mit Heatpipes dazwischen wirds eine große Kontaktfläche.

Zitat mr.dude;25950897

Nein. Nach unten kann man immer problemlos skalieren. Oder brauchen die mobilen Raven Ridges 100W? :rolleyes:

problemlos nach unten? scherzkeks. sicher nicht. und nochmal: wofür? <15w hat intel schon längst mit eigenen effzienz-optimierten lösungen abgedeckt. was für ein hybride soll da sinn geben? winziger vega die, der dann nicht mehr nennenswert schneller ist als hd>
Zitat mr.dude;25950897

Doch, aus Sicht von Intel schon.

Nein. Siehe oben. Welchen Sinn hat es für Intel, eine aufwändigere (i.e. größere) Lösung für etwas zu haben, was sie schon davor abgedeckt hatten?

Zitat mr.dude;25950897

Nein, das machst DU! Kurzzeitgedächtnis? DU warst derjenige, der meine Beiträge angegriffen und behauptet hat, dass 'ne dGPU in gleichen Formfaktoren möglich wäre, die Lösung hier nicht bei NUCs geht und ähnliches, was ja mittlerweile widerlegt ist. Also komm mal von deinem Egotrip runter und betrachte die Sache objektiv und unvoreingenommen!

Ha. "Widerlegt". Widerlegt hast du garnichts. Wie auch immer, ich bin hier durch. Wir drehen uns im Kreis. Einfach abwarten, wir werden demnächst ja sehen wer Recht hat ;)
#93
customavatars/avatar67285_1.gif
Registriert seit: 02.07.2007

Kapitän zur See
Beiträge: 3176
Mal nebengefragt was isn zur zeit die stärkste onboard grafik? meinte gelesen zu haben vor nem halben etwa um eine 750ti rum.Desweiteren zweigen onboardgrakas ihren Speicher nicht vom Ram ab?

mal ne kleine Spinnerei: Kennt ihr noch zu 775er Zeiten oder früher,die Mobos mit North und Southbrigde,diesem 4eckigen kleine Quadrat dass manchmal nen extra Lüfter hatte.Das könnte man doch als Grafikslot nehmen oder? (also quasi als sockel ummodeln) Die Hersteller würden nur die reinen Grafikchips (GPUs) verkaufen.Ob AMD oder Nvidia wäre egal,da es nur einen Sockelstandard geben wird.Einsetzen fertig.Speicher wird der normale Ram verwendet,denn die intel uhd grafic 620 können davon bis zu 32 GB abzwacken.(auf deutsch systemreserviert 10GB,Rest in Graka)
Denke aber das es an der Stromversorgung hapern wird.
#94
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 17354
Das mit der Leistung um die 750Ti rum hab ich auch gelesen, aber nirgendwo belegt bekommen, im Gegenteil, selbst an einer R7 250 hatte sich intels IGP im Broadwell die Pins ausgebissen.

Eine 750Ti ist also noch durchaus etwas, was eine IGP erst mal schlagen muss.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

16 Threads für 550 Euro: AMD RYZEN 7 1800X im Test

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Eine neue Ära – so beschreibt AMD selbst den Start der RYZEN-Prozessoren. Die dazugehörige Zen-Architektur soll ein Neustart für AMD sein und das auf allen wichtigen Märkten. Den Anfang machen die RYZEN-Prozessoren auf dem Desktop. Die Zen-Architektur soll AMD aber auch zu einem Neustart auf... [mehr]

AMD Ryzen 7 1700 im Test und übertaktet - der interessanteste Ryzen

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Mit dem Ryzen 7 1800X und Ryzen 7 1700X haben wir uns die beiden neuen Flaggschiff-Prozessoren von AMD näher angeschaut. Nun fehlt nur noch das dritte Modell im Bunde, das für viele Umrüst-Interessenten sicherlich der interessanteste Ryzen-Prozessor ist. Die Rede ist natürlich vom Ryzen 7 1700... [mehr]

Intel vs. AMD, Akt 2: Skylake-X und Kaby-Lake-X im Test gegen Ryzen

Logo von IMAGES/STORIES/2017/7900AUFMACHER

In den letzten Monaten wurde die CPU-Vorherrschaft von Intel gebrochen und den Prozessormarkt durcheinandergewirbelt. Nach dem Ryzen-Tornado blieb Intel nichts anderes über, als mit schnell vorgestellten neuen Multikern-Prozessoren aus der X-Serie auf sich aufmerksam zu machen. Mit dem Core i9... [mehr]

Coffee Lake: Intel Core i7-8700K, i5-8600K und i5-8400 im Test

Logo von IMAGES/STORIES/2017/INTEL8GEN

Der sechste und letzte (?) CPU-Launch in diesem Jahr kommt von Intel: Mit den unter dem Codenamen Coffee Lake zusammengefassten Core-i7- und i5-Modellen kommen bei Intel erstmals Sechskern-Prozessoren in den Mainstream-Markt. Bedanken darf man sich aber wohl nicht bei Intel, sondern bei der... [mehr]

Threadripper: AMDs Ryzen Threadripper 1950X und 1920X im Test

Logo von IMAGES/STORIES/2017/THREADRIPPER_TEASER

AMD strotzt vor Selbstbewusstsein: Wie lässt es sich sonst erklären, dass man ein Produkt mit einem so coolen Namen ausstattet? Die als "Threadripper" bezeichneten Ryzen-Prozessoren sollen AMD in den Benchmarks an den ersten Rang katapultieren - zumindest in Thread-intensiven Benchmarks. Wir... [mehr]

AMDs Ryzen 7 1700X im Test: Der beste Ryzen?

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

In unserem ausführlichen Testbericht zu AMDs Ryzen 7 1800X in der letzten Woche hatten wir bereits angekündigt, dass wir weitere Artikel rund um AMDs neues Flaggschiff bringen werden. Den Anfang macht ein Kurztest zum Ryzen 7 1700X, der mit knapp 120 Euro weniger Kaufpreis momentan als das... [mehr]