Aktuelles

Keine APU im Chiplet-Design für Ryzen 3000 geplant

Thread Starter
Mitglied seit
06.03.2017
Beiträge
30.088
ryzen-3rdgen.jpg
Die Vorschau auf die Ryzen-3000-Serie alias Matisse auf der CES ist wie die Präsentation der Radeon VII ein wahrer Paukenschlag gewesen. Nach den EPYC-Prozessoren der zweiten Generation setzt AMD auch im Desktop auf das Chiplet-Design. Das CPU-Package besteht aus einem in 7 nm gefertigten CPU-Die mit acht Zen-2-Kernen sowie einem in 14 nm gefertigten I/O-Die. Das...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

senbei

Enthusiast
Mitglied seit
23.05.2011
Beiträge
652
Schraubt endlich HBM oder GDDR mit aufs Package und fertig. Dann hat auch die Speicherverkrüppelei durch die gekauften OEMs ein Ende.
 

RAZ0RLIGHT

Enthusiast
Mitglied seit
19.08.2007
Beiträge
15.031
Ort
Bayern
Schade, wüsste aber gerne, woran es scheitert.
 
Zuletzt bearbeitet:

DeckStein

Experte
Mitglied seit
08.05.2018
Beiträge
3.189
oder will.

villeicht reichen die jetzigen kapazitäten an apus aus und man will den 7nm prozess auf gewinnträchtigeren produkte investieren.

und gleichzeitig muss man die alten abnahmeverträge an 12nm oder sonstwas erfüllen.
 

Paddy92

Enthusiast
Mitglied seit
23.08.2010
Beiträge
1.928
Schade, wüsste aber gerne, woran es scheitert.

Ich vermute, dass die Infinity Fabric zu wenig Bandbreite hat, um eine GPU schnell genug mit Daten versorgen zu können und so diese stark einbremsen würde. Das GPU-Chiplet hätte ja keinen direkten Zugriff auf den Ram, sondern die Kommunikation läuft über die IF -> I/O-Chip -> Ram.

Keine Ahnung, vielleicht ist es AMD derzeit noch nicht möglich oder zu teuer Speicher wie HBM in ein GPU-Chiplet zu integrieren.
 

RAZ0RLIGHT

Enthusiast
Mitglied seit
19.08.2007
Beiträge
15.031
Ort
Bayern
@Paddy92 Bandbreite der IF ist auch meine Vermutung.
Wird wohl erst mit aktivem Interposer funktionieren und wenn HBM günstig genug ist um es mit auf das Package zu bauen.

DDR ist jetzt schon viel zu langsam für die APUs.
 
Zuletzt bearbeitet:

easy1991

Experte
Mitglied seit
20.03.2012
Beiträge
2.132
Don, hätte ich mal vorher den Text oder die Überschrift gelesen ^^


Schade einfach nur...
 

DeckStein

Experte
Mitglied seit
08.05.2018
Beiträge
3.189
@rszir, das problem sind die latenzen. mit einem hbm direkt neben der gpu hast du einfach deutlich kürzere signallaufzeiten.
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Das war so zu erwarten!

Das gezeigte MCM ist für eine 2te CPU-Die vorbereitet, das kann man aber nicht für eine GPU verwenden.
Würde man ein MCM für so eine APU entwickeln, dürde das Dualchannel DDR4-Speicherinterface die iGPU ziemlich stark limitieren.

HBM2 geht sich auf dem Package aber nicht mehr aus und so ein Interposerdesign ist für so einen Sockel auch absolut ungeeignet!

Schraubt endlich HBM oder GDDR mit aufs Package und fertig.
Wie willst du das mit HBM2 bitte lösen?
Wie soll sich das mit GDDR platzmässig ausgehen?
 

Nimrais

Enthusiast
Mitglied seit
29.01.2010
Beiträge
3.566
Ort
CH
Wie willst du das mit HBM2 bitte lösen?
Wie soll sich das mit GDDR platzmässig ausgehen?

GPU und Uncore auf dem I/O Die, CPU Kerne in einer Die und 4GB HBM auf einem Chip. Kenne die Grössenverhältnisse nicht, könnte aber knapp passen.
Ich denke APUs mit angebautem HBM werden schon bald erscheinen aber nicht gesockelt sondern so wie bei Intel auf einem grossen Substrat für Notebooks und AIO Rechner.
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Da darf der HBM dann aber nicht mit dem HS verlötet werden und eigentlich darf er ihn nichtmal berühren!

aber nicht gesockelt
Das ist schon eher möglich, weil da nicht vorgesehen ist, daß ein User selbst etwas an der Kühlung herumfrickelt!
 
Mitglied seit
01.01.2017
Beiträge
670

unl34shed

Enthusiast
Mitglied seit
05.11.2007
Beiträge
3.675
Ort
Neckar-Odenwald Kreis
Ich vermute, dass die Infinity Fabric zu wenig Bandbreite hat, um eine GPU schnell genug mit Daten versorgen zu können und so diese stark einbremsen würde. Das GPU-Chiplet hätte ja keinen direkten Zugriff auf den Ram, sondern die Kommunikation läuft über die IF -> I/O-Chip -> Ram.

Keine Ahnung, vielleicht ist es AMD derzeit noch nicht möglich oder zu teuer Speicher wie HBM in ein GPU-Chiplet zu integrieren.

Die Bandbreite des Infinity Faric war bei allen Zen aktuell genau die RAM-Bandbreite, also selbst wenn das IF schneller wäre, würde der RAM limitieren... IF ist nicht das Problem.


Finde es auch schade, da hätten locker 16 moderat getaktete CUs hin gepasst haben :(
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Weil man mit dem Monate des Kühlkörpers das Package zerstören würde, der SI-Interposer hält diese Belastung nicht aus.

- - - Updated - - -

Der angebliche Ryzen 9, von dem AdoredTV gesprochen hat, ist also auch nur eine Erfindung von denen.
Dort hat AdoredTV ja immerhin 125/135W TDP angegeben, dem widerspricht AMD ja gerade!

Auch der Ryzen 3 3300 mit 50W TDP scheint eine Erfindung von denen zu sein, weil der laut AMD ja auchn nicht kommen dürfte, aufgrund der TDP-Stufe, die es bei Ryzen 2000 nicht gibt...
 

Paddy92

Enthusiast
Mitglied seit
23.08.2010
Beiträge
1.928
Die Bandbreite des Infinity Faric war bei allen Zen aktuell genau die RAM-Bandbreite, also selbst wenn das IF schneller wäre, würde der RAM limitieren... IF ist nicht das Problem.

Mir ist schon klar, dass die RAM-Bandbreite zu gering ist und eine GPU limitiert. Durch die IF wird dieses Bottleneck aber noch einmal verstärkt..
 

Nimrais

Enthusiast
Mitglied seit
29.01.2010
Beiträge
3.566
Ort
CH
Bei den Intel Cores mit Iris Pro ist integrierter RAM scheinbar immer noch üblich. Trotz nur 128MB Grösse erscheint mir das Die in den Bildern immer ziemlich gross. Mit etwas über 50GB/s auch nicht extrem schnell und doch bringt es scheinbar sehr viel.
Eine APU mit 4GB shared HBM für CPU und GPU für Laptops könnte imo was reissen.
@Gamerkind: Da bin ich bei dir. Die grossen APUs auf der Tabelle waren zu schön um wahr zu sein :(
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Beim Hades Canyon geht's doch auch mit HBM2.
Und?
Seit wann ist das für einen Comsumer-Sockel, den man selbst bestückt?

Sie müssen das Package für APU und dessen Anordnung ändern. Die Chiplets sind winzig, die finden ihren Platz.
Toll, aber trotzdem geht das auf AM4 rein technisch einfach nicht.
Einmal Druck auf den HS und das Package ist ein Totalschaden...
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
22.928
Schraubt endlich HBM oder GDDR mit aufs Package und fertig. Dann hat auch die Speicherverkrüppelei durch die gekauften OEMs ein Ende.
Dies muss man erstmal Können, denn erstens ist da auch nicht so viel Platz zweitens braucht man für HBM zwingend einen Interposer und weder Interposer noch HBM sind billig.

Außerdem braucht man dafür Platz. Schau Dir mal Kaby Lake-G an. Ganz links sind 4GB HBM2, daneben die AMD GPU und rechts die 4 Kern Kaby Lake CPU die wohl alleine ungefähr 125 mm2 haben dürfte:

kaby_lake_g_%28front%29.png


Der IO Chip im RYZEN 3000 ist etwa 123mm² groß, das Chiplet und die Chiplets haben etwa 80mm²:


cpu44_678x452.jpg



So ein HBM2 Modul ist größer als ein Chiplet, es würde also eng unter dem HS werden und zumindest die Kondensatoren müssten anders angeordnet sein.
Ich vermute, dass die Infinity Fabric zu wenig Bandbreite hat, um eine GPU schnell genug mit Daten versorgen zu können und so diese stark einbremsen würde. Das GPU-Chiplet hätte ja keinen direkten Zugriff auf den Ram, sondern die Kommunikation läuft über die IF -> I/O-Chip -> Ram.
Kann sein, aber die Bandbreite der IF ließe sich einfacher erhöhen als die RAM Bandbreite. Beim AM4 kann man nicht einfach mehr RAM Kanäle realisieren, denn dazu braucht man viel mehr Pins. Manche meinen ja man könnte einfach von Dual Channel mit 2 DIMM pro Channel einfach zu Quad Channel wechseln, aber dem ist nicht so. Bei 2 DIMM pro Channel braucht man im Prinzip nur einen Pin mehr um zwischen beiden umzuschalten, weshalb die Bandbreite ja auch nicht steigt wenn man beide bestückt hat, aber für Quad Channel braucht mal praktisch doppelt so viele Pins im Sockel wie für Dual Channel.

Wie wichtig die RAM Bandbreite für die Performance der APUs/iGPUs sieht man doch beim Vergleich des 2200G mit dem 2400G, wo die GPU Leistung längst nicht im Verhältnis zu der Anzahl der CUs steigt oder bei den Intel iGPUs die mit dem eDRAM deutlich mehr leisten als ohne. Mit Ice Lake-U sollen die iGPUs dann ja deutlich mehr EUs bekommen und brauchen dann auch mehr RAM Durchsatz:
Für Dual Channel ist dies schon echt eine ganz schöne Hausnummer.
Keine Ahnung, vielleicht ist es AMD derzeit noch nicht möglich oder zu teuer Speicher wie HBM in ein GPU-Chiplet zu integrieren.
Vermutlich beides, den letztlich bleibt eine APU mit derart viel GPU Leistung ein Nischenprodukt, denn es wäre teuer und könnte trotzdem nie mit einer richtigen Graka mithalten, schon der Resourcen wegen, schau Dir an was die Grakas zu teil an Leistung verbraten, die locker ist mehr als der AM4 Sockel überhaupt erlaubt und die CPU muss ja auch noch etwas davon abbekommen, obendrein noch umso mehr je mehr auch die GPU leisten kann damit diese auch beschäftigt wird.
@rszir, das problem sind die latenzen. mit einem hbm direkt neben der gpu hast du einfach deutlich kürzere signallaufzeiten.
Die Latenzen bei GBM fallen nicht wegen der kurzen Entfernungen, sondern weil man bei HBM die Column Address und Row Address parallele über getrennte Verbindungen überträgt, während man bei DDR RAM beides nacheinander über die gleichen Pins überträgt um nicht zu viel Verbindungen zwischen RAM Riegel und RAM Controller ziehen zu müssen.

Dazu kommt die Bandbreite durch die viele Bits, bis zu 1024 Bit statt 64 (bei ECC 72) eines normalen DRAM Riegels und beides zusammen erfordert eben sehr viele Verbindungen zwischen RAM Controller und dem RAM, weshalb HBM nur über Interposer angeschlossen werden kann, auch wenn immer mal irgendwelche Spinner von HBM auf normalen RAM Riegel träumen.
GPU und Uncore auf dem I/O Die, CPU Kerne in einer Die und 4GB HBM auf einem Chip. Kenne die Grössenverhältnisse nicht, könnte aber knapp passen.
Zum Stacking von Dies hat Intel ja mit Fovoros eie Lösungen präsentiert und auf der CES mit Lakefiled ein erstes Produkt, aber im absoluten Low-Power Bereich: "is designed to have a 2 mW standby power". Die Kühlung dürfte nicht ohne sein und der I/O Chip auch eine Menge Leistungsaufnahme haben, schau Dir an was der Uncore einer 2700X so an Leistung aufnimmt, dies sind schnell über 25W, selbst bei Last auf wenigen Kernen. Beim 8700K sind es nicht mal 10W, die Ringbusse sind im Vergleich zur IF (ein 2990WX kann über 60W alleine im Uncore verbrauchen gegenüber etwa 45W bei 2950X) oder auch dem Mesh (beim 7980XE nimmt der Uncore bis zu knapp 40W) wirklich sehr sparsam. Außerdem hat der I/O Chip PCIe 4.0, was gegenüber PCIe 3.0 sicher auch mehr Leistungsaufnahme bewirkt und die kann er ja auch nicht wirklich durch Fertigung kompensieren, denn er wird ja weiterhin bei GF gefertigt.

Ich denke APUs mit angebautem HBM werden schon bald erscheinen aber nicht gesockelt sondern so wie bei Intel auf einem grossen Substrat für Notebooks und AIO Rechner.
Das könnte sein und würde dann auch Sinn machen, denn so richtig passt das wohl nicht unter den normalen HS von AM4 CPUs und der Markt für sowas ist eher bei den Rechnern in ganz kompakten Gehäusen zu finden, wo gesockelte CPUs die Ausnahme sind. Das ist bei Kaby Lake-G, der meines Wissens bisher einzigen CPU mit iGPU und HBM ja auch nicht anderes. Trotzdem dürfte es eine kleine Nische sein und ob es sich für AMD lohnt diese zu besetzen, dürfte davon abhängen ob man einen konkreten Kundenauftrag dafür bekommen, etwa für die Spielkonsolen.

APUs werden aber immer irgendwo Krücken bleiben, die Kosten für Lösungen mit HBM sind hoch, die Leistung kann trotzdem nie mit der einer CPU und getrennten Graka mithalten, damit bleibt eben nur die Nische bei der die kompakten Abmessungen dies kompensieren können. Meine Meinung ist, dass man abgesehen von solchen Nischenanwendungen eigentlich nur eine iGPU braucht die gerade mal den Desktop von Windows zeigen kann, wer mehr will, wird früher oder später sowieso eine Graka verbauen. Solch eine iGPU wäre billig und würde der CPU nicht viele Resourcen wegnehmen.
Die Bandbreite des Infinity Faric war bei allen Zen aktuell genau die RAM-Bandbreite, also selbst wenn das IF schneller wäre, würde der RAM limitieren... IF ist nicht das Problem.
Zumindest ist der Takt der beide ja bei den bisherigen Zen gekoppelt.

Schade, hätte mich auf so eine APU gefreut :(((
Wozu? Ehrlich, was soll der Sinn einer leistungsstärkeren APU sein? Geld gegenüber einer Lösung mit Graka zu sparen? Gerade wenn die APU dann über Chiplets realisiert wird, ist es doch sehr fraglich wie weit da überhaupt Kosten gegenüber der Lösung diese Chiplet gespart wird, erst recht wenn man dann noch HBM und damit einen Interproser verbaut. Außerdem kennen ich keinen Chip mit Interposer der einen verlöteten HS hat, denn durch die Verlötung ist der Die oben fest mit dem HS verbunden und spätestens wenn man zwei verlötet, aber nur einer warm wird und sich ausdehnt, droht er den anderen regelrecht vom Interposer zu rumpfen. Was glaubt ihr wohl raum bei TR und auch bei Rome die Chips möglichst weit voneinander entfernt auf der Trägerplatine sitzen? Nur geht es bei einem Interposer ins Geld, der kostet pro mm² mehr überproportional mehr Geld und deshalb sitzen die Dies direkt nebeneinander da drauf, weshalb auch klar ist, dass weder RYZEN 3000 noch Rome Interposer haben.
Bei den Intel Cores mit Iris Pro ist integrierter RAM scheinbar immer noch üblich. Trotz nur 128MB Grösse erscheint mir das Die in den Bildern immer ziemlich gross. Mit etwas über 50GB/s auch nicht extrem schnell und doch bringt es scheinbar sehr viel.
Wobei das eDRAM auch nur als Cache arbeitet. Aber es zeigt wie sehr iGPUs von der RAM Bandbreite abhängen. Man sieht dies auch bei der kleinen NVidia GT1030 (64 Bit RAM Interface, also wie Singlechannel), von der gibt es ja nun auch eine Version mit GDDR5 RAM und auch eine mit DDR4 RAM welches ja nur einen Bruchteil des Speicherdurchsatzes schafft und damit fällt die Leistung auf die Hälfte und selbst hinter der einer 2400G APU zurück.

Eine APU mit 4GB shared HBM für CPU und GPU für Laptops könnte imo was reissen.
Wobei die bei den Gamerlaptops dann immer noch in Konkurrenz zu den Modelle mit einer Graka stehen würde und die schlagen sie dann alleine mit das die Leistungsaufnahme auf zwei getrennte Chips verteilt wird und so leichter mit den dort zwangsläufig zu flachen und kompakten Kühlern und Lüftern zu kühlen ist. Es ist ein Nischenprodukt für einen Nischenmarkt der derzeit schon von Intel mit den Kaby Lake-G bedient wird und auch die sind nicht gerade weit verbreitet, denn neben den NUC listet Geizhals gerade mal 9 Notebooks der Convertible Klasse mit den Kaby Lake-G die bei ab € 1633€ beginnen. Die Nische dürfte zu klein sein um dafür Resourcen zu opfern und außerdem verdient AMD an jedem Kaby Lake-G ja mit, da dessen GPU ja von AMD stammt. Die Desktop RYZEN 3000 APUs dürften genau wie die mobilen RYZEN 3000 APUs aussehen, also ein Die in 12nm von GF gefertigt und sich gegenüber den Vorgänger vor allem durch etwas mehr Takt auszeichnen.
 

ecth

Enthusiast
Mitglied seit
24.03.2009
Beiträge
317
Ort
Stuttgart
@Holt:
Schöner Rundumschlag ;)
Ich sagte nicht, ich will so eine APU, bei der die Grafikleistung xy übersteigt.
1. Ich sitze auf nem 3930k, der Strom frisst, sobald er über 4 GHz kommt. Ich habe gehört, 7nm ist da sparsamer :P
2. Es darf ruhig eine super kleine iGPU sein, die kaum die letzten Raven Ridges übertrifft, aber eben mit modernerer Technik -> allen aktuellen Standards und architekturbedingen Leistungssteigerungen (5-10%? Vollkommen in Ordnung), sowie 7nm -> weniger Verbrauch.

Einen Use-Case habe ich. Desktop Betrieb mit seichtem Gaming. Klingt nach klassischem APU Käufer.

Was für Alternativen bleiben mir? Ne "alte" Raven Ridge mit 4C8T zu kaufen (oder eben den angekündigten 12nm Refresh).
Aber es widerstrebt mir einfach, die Threadzahl in dem Bereich herunterzuschrauben... Ich nutze Tools, die gern mal Kerne auslasten und ich sehe auch abseits davon 8C16T als baldigen Mainstream. Ich brauche noch lange nicht mehr Kerne (obwohl man immer will :d), aber ich hätte gern etwas, wovon ich überzeugt bin, dass es ein Weilchen hält..
 

unl34shed

Enthusiast
Mitglied seit
05.11.2007
Beiträge
3.675
Ort
Neckar-Odenwald Kreis
Zumindest ist der Takt der beide ja bei den bisherigen Zen gekoppelt.

Oh sorry, ich vergaß, bei AMD arbeiten nur Idioten, die werden natürlich beim neuen Zen einen ungeraden Teiler wählen (2/3?), damit man neben weniger Bandbreite auch noch zusätzliche Latenzen in das System bekommt. :(
Das ganze gepaart mit den von dir Prognostizierten geringeren Taktraten als Ryzen 2000... :stupid:
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
22.928
ecth, das Problem ist doch nicht die Leistung der GPU, die könnte man verzehnfachen und hätte doch so gut wie nichts davon, weil einfach das RAM Interface zu lahm ist. GPUs brauchen RAM Durchsatz, deshalb haben die doch so breite RAM Interfaces und schnelles GDDR RAM oder eben das bzgl. des Taktes zwar lahme aber in der Bitbreite extreme HBM. Die AMD Radeon RX 590 hat ein 256 Bit breites RAM Interface (also wie Quadchannel RAM) mit GDDR5 bei 4GHz (was also 8000er RAM wäre) und zumindest theoretisch 256GB/s RAM Durchsatz ergibt, was mehr als Faktor 5 über dem liegt was eine AM4 APU oder CPU erreicht. Die Leistung der iGPU ist also nur wirklich signifikant zu steigern, wenn man der deutlich mehr RAM Durchsatz ermöglicht, was aber über den AM4 Sockel nicht geht, der kann nur Dual Channel und HBM, welches man eben mit auf die Trägerplatine der CPU integrieren könnte, braucht einen Interposer, Platz und treibt die Kosten gewaltig in die Höhe und man landet in der Nische und ebenso eine Nische wäre wohl auch eine APU bei der man neben dem Chiplet mit 8 Kernen einfach nur ein kleine iGPU verbaut die nicht mehr kann als die in den aktuellen Raven Ridge, sonst würde AMD sowas ja vielleicht auch anbieten. Aber offenbar achten sie darauf das CPU und GPU Performance in einem bestimmten Verhältnis zueinander stehen und möchten deshalb keinen fetten 8 Kerner mit einer schwachbrüstigen iGPU kombinieren.

Die 3000 Desktop APU dürften also wie die mobilen 3000er APUs aussehen und sich von denen nur über den TDP und damit die Taktraten, vor allem den Basistakt, unterscheiden.

unl34shed, der Takt der Kerne hängt doch nicht an dem Takt der IF und damit des RAM Controllers :shot:
 
G

Gelöschtes Mitglied 285234

Guest
Das meiste was adorable TV geleaked hat trug nur dazu bei um den Hype für AMD zu steuern.

Der Mann wird doch von AMD als Marketinginstrument genutzt.
 

M2209

Einsteiger
Mitglied seit
06.09.2016
Beiträge
383
Klar, deshalb hat er auch Vega kritisiert. Das macht sehr viel Sinn.
 

ecth

Enthusiast
Mitglied seit
24.03.2009
Beiträge
317
Ort
Stuttgart
@Holt
Mit "Leistung der GPU" meinte ich, was hinten rauskommt. Es ändert nichts daran, dass ich gerne ein APU Produkt in 7nm mit VII Technologie hätte, statt etwas, was halt n Paar Jahre auf dem Buckel hat.
Features, die heute noch fast unnötig erscheinen, werden mit höherem Alter der GPU wichtiger und deshalb will ich das Neueste kaufen und nicht heute, was vor 1-2 Jahren möglich war. Warum? Weil ich jetzt eine tolle, immernoch akzeptabel starke 7970 GE habe, die aber nicht mal Freesync unterstützt (und sicher 1-2 Codecs..).

Siehe mein Punkt 2:
Es darf ruhig eine APU sein, die nur die üblichen 5-10% stärker ist, als der heutige 2400G. Aber es wäre eben nett, wenn die GPU ebenfalls in 7nm wäre und es wäre nett von 6 nicht auf 4 Cores sondern auf 8 zu.. "upgraden".

Was du schreibst wurde hier schon mehrfach wiederholt. Ist okay. Meine Illusion von vor der Präsi ist dahin. Keine richtig starke APU. Schade.

Nun will ich nur eine mit aktueller Technik. Wenn mit Ryzen 3xxx bis zu 16 Cores auf Mainstream-Boards landen könnten (sicherlich, ähnlich, wie die 5GHz Bulldozer damals, nur für Boards, die eine TDP auch bringen können), dann will ich ne APU mit 8, um eben im Mainstream- und nicht Budget-Segment zu sein.

Sinn für AMD? Naja, wie hier ebenfalls mehrfach erwähnt wurde, würde zu viel Leistung tatsächlich eigene GPUs kannibalisieren. Aber eine "schwache" iGPU (immer noch stärker, als die Intel HD Chips) gepaart mit einem 8-Kerner zu einem guten Preis. Das klingt für fast jedes Szenario, wie ein Intel-Killer. Die hatten diese Fallback-iGPU die letzten Jahre in ihren stärksten Mainstream-CPUs drin.
 
Oben Unten