> > > > European Processor Initiative will HPC-Infrastruktur 'Made in EU' aufbauen

European Processor Initiative will HPC-Infrastruktur 'Made in EU' aufbauen

Veröffentlicht am: von

epiDer Kampf um die Vorherrschaft auf dem Technologiemarkt ist voll entbrannt. Das Aussperren von Huawei aus weiten Teilen der Geschäftsbereiche zeigt dies sehr deutlich. Die Abhängigkeiten vieler Unternehmen und Industrien von zentralen Unternehmen kann so schnell zu Problemen führen.

Die EU hat sich daher bereits vor einiger Zeit dazu entschieden, mit der European Processor Initiative (EPI) ein Konsortium zu erschaffen, welches eine eigene Prozessor-Architektur entwickeln und auf den Markt bringen soll. Letztendlich sollen die Bereiche High Performance Computing (HPC) bzw. ein General-Purpose-Prozessor, Beschleunigerhardware und Automotive abgedeckt werden.

Am Konsortium beteiligt sind Unternehmen wie Infineon, das Forschungszentrum Jülich, das Frauenhofer Institut, die BMW Group und das Karlsruher Institut für Technologie beteiligt. Benannt haben wir nur die deutschen Unternehmen, es kommen aber noch viele aus weiteren europäischen Ländern hinzu – insgesamt 23 Partner aus zehn Ländern sind daran beteiligt. Insgesamt wird das Projekt mit 1 Milliarde Euro von der EU gefördert. Etwa die Hälfte soll für die Entwicklung verwendet werden. Die zweite Hälfte soll für den Aufbau eines erstes Supercomputers genutzt werden.

Bereits 2021 soll das erste Design fertig sein. Es hört auf den Namen Rhea und wird eine General-Purpose-Architektur sein. Damit soll ein Pre-Exascale-Supercomputer aufgebaut werden, der etwa 100 TFLOPS erreicht. Zum Vergleich: Ebenfalls 2021 erwartet werden die ersten EFLOPS-Supercomputer mit Hardware von AMD (Frontier) und Intel (Aurora). Auch ein erster Automotive-Prozessor soll dann bereits fertig sein.

Bereits 2022 oder 2023 soll dann die zweite Generation fertig sein. Diese hört auf den Namen Cronos. Ab 2024 oder etwas später folgt dann bereits die dritte Generation, die allerdings noch keinen Namen hat.

Basis der Prozessoren soll zum einen ARM-IP sein, was dem Anspruch der Unabhängigkeit natürlich entgegensteht. Aber auch der offene RISC-V-Befehlssatz spielt neben weiterer externer IP eine Rolle. Bisher hat die European Processor Initiative aber noch keine technischen Details veröffentlicht. Insgesamt scheint das Projekt noch sehr am Anfang zu stehen und derzeit lässt sich schwer abschätzen, ob daraus tatsächlich Produkte entstehen werden, die den Markt erreichen.

Update:

In einer Präsentation gibt die EPI weitere Informationen zum geplanten Design. Offenbar plant mit einem Chiplet-Design bestehend aus mehrere Komponenten. Diese befinden sich immer auf einem Package-Substrat, auf dem wiederum ein passiver Interposer befindet. Darauf befinden sich wiederum die unterschiedlichsten Chiplets, nebst HBM-Speicher.

Social Links

Kommentare (34)

#25
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Oberleutnant zur See
Beiträge: 1345
Okay, zusammenfassend: Wir haben die Technologie, das Personal, die Produktionskapazitäten und dank Open Source auch eine Platform, um das ganze auch beim Endkunden laufen zu lassen.

Ergo kann es - wenn es scheitern sollte - dann nur am Missmanagement liegen, richtig?
#26
Registriert seit: 23.05.2011

Bootsmann
Beiträge: 648
Zitat Shevchen;26981721
Mal ne Frage: wie weit sind wir in der EU eigentlich von 7nm EUV entfernt?

Die Gesamtanlagen verkauft ASML aus den Niederlanden, die Belichtungstechnik kommt von "Zeiss" aka Jenoptik und wird für diese von einigen Dienstleistern der Automotivebranche entwickelt/konstruiert -> im Endeffekt sind die Anlagen ab 14/12nm und kleiner made in Germany. Die EU ist hier definitiv ganz vorne dabei bzw. Spitze.

Das größte Problem wird hier aber das Projektmanagement sein da (wie üblich) wieder viele Holzköpfe aus der Politik mitreden werden und so am Schluss der dümmste Kompromiss gebastelt werden wird, anstatt von wenigen Experten einen richtigen Anforderungskatalog schreiben zu lassen und diesen dann effizient umzusetzen.
#27
Registriert seit: 15.01.2015

Kapitän zur See
Beiträge: 3396
Zitat Shevchen;26982647

Ergo kann es - wenn es scheitern sollte - dann nur am Missmanagement liegen, richtig?


Oder daran, dass es den kapitalspendenden Herrschaften hier zu teuer ist ;). Und das liegt sicher nicht nur an der Politik, denn im Perlflussdelta möchtest du auch nicht leben (und dort findet vermutlich jeder, der Arbeit möchte, auch welche – insofern: geh hin :wink:).

Zum Thema: wir können das nicht: [1906.00478] Ara: A 1 GHz+ Scalable and Energy-Efficient RISC-V Vector Processor with Multi-Precision Floating Point Support in 22 nm FD-SOI (ETH Zürich – ist auch dabei...)

Und zum Clustering kann ich nur sagen: bei dem Umfang sind da eh unterschiedliche Teams beschäftig und während die einzelnen Teams durchaus zusammen organisiert sein sollten (und auch sind), dürfte es ziemlich egal sein, ob die Menschen mit dem Elektronenmikroskop 1 oder 2000km von den Menschen, die die Leistungsteile designen oder den Verilog-Code schreiben, entfernt sind. Auf Teammitgliedsebene ist die Spezialisierung da ohnehin so hoch, dass es weitgehend sinnlos ist, die Leute direkt an einen Tisch zu setzen...
#28
Registriert seit: 30.06.2007
bei Stuttgart
01010101
Beiträge: 824
Vom Grundgedanken her lobenswert, aber das ganze Projekt ist leider zum scheitern verurteilt.
Andere sind da Technologisch einfach viel weiter, das holt man nicht mal eben in ein paar Jahren auf.
Und Deutschland hat da leider längst den Anschluss verloren.

Nachtrag :

Zitat senbei;26982754
Das größte Problem wird hier aber das Projektmanagement sein da (wie üblich) wieder viele Holzköpfe aus der Politik mitreden werden und so am Schluss der dümmste Kompromiss gebastelt werden wird, anstatt von wenigen Experten einen richtigen Anforderungskatalog schreiben zu lassen und diesen dann effizient umzusetzen.


Ja, und GENAU DARAN wird es letztendlich scheitern.
#29
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Oberleutnant zur See
Beiträge: 1345
(Erstmal Danke euch für die konstruktive Diskussion - ohne blöde Unterstellungen und persönliche Angriffe. :) Ich habs ja kaum noch für möglich gehalten)

Zitat senbei;26982754
Die Gesamtanlagen verkauft ASML aus den Niederlanden, die Belichtungstechnik kommt von "Zeiss" aka Jenoptik und wird für diese von einigen Dienstleistern der Automotivebranche entwickelt/konstruiert -> im Endeffekt sind die Anlagen ab 14/12nm und kleiner made in Germany. Die EU ist hier definitiv ganz vorne dabei bzw. Spitze.

Hmm... Es gibt aber trotz gleicher ASML Anlagen (Die stehen sowohl bei TSMC, Samsung etc) doch noch messbare Qualitätsunterschiede hinsichtlich der resultierenden Chipqualität (Frequenz, Verbrauch, Yields...) Ich nehme an, das hängt an den restlichen Produktionszyklen wie zum Beispiel Materialzusammensetzung? Wir sehen ebenfalls (Da hat Intel mal ein paar schöne Slides rausgebracht), dass der Yield innerhalb weniger wochen sich von sowas wie 70% auf 85% verbessern kann - und das nur auf Grund von "Parametertuning". Um das anfassen zu können braucht man wohl auch wieder eine eigene Fertigungsstrecke und ein paar technikaffine Optimierungsfetischisten an der Produktionsstrecke. Mir fällt bei ner schnellen Suche sowas wie STM (Niederlande), GloFo in Dresden und Infineon ein. Irgendwie scheint Bosch da auch was zu machen, aber was genau - kein Plan.

Wir haben also Kapazitäten - nur erinnere ich mich daran, dass TSMC und Samsung (Und Intel) mehrere hundert Milliarden an Investitionen in ihre neuen Produktionshallen gesteckt haben, um auf 7nm zu kommen und der ausbau auch mehrere Jahre dauert. Der Gesamtumsatz der 3 EU-Hersteller zusammen ist geringer als diese Investition allein. Deswegen ist ja auch GloFo raus aus dem Rennen, weil sie schlichtweg nicht mehr das Kapital hatten um mit den großen Fischen mitbieten zu können.

ASML wird auch nicht einfach ihre Lithographiegeräte verschenken, nur damit wir es "irgendwie" stemmen können. Allein um das Geld aus solchen Investitionen rauszubekommen, müsste man schon global agieren (Auch im Consumer-Bereich - denn aus dem Server Bereich wissen wir, dass dort die Uhren der Umstellung sehr sehr langsam ticken).

Wie gesagt, bevor ich an den Erfolg von so einem Projekt glaube, möchte ich da ne richtig etablierte Firma a la AMD/Intel sehen und nicht irgendein Joint Venutre. Von mir aus auch durch einen Zusammenschluss von Halbleiterproduzenten, die dann nicht nur Chips für Drittanbieter fertigen, sondern wie AMD damals auch was eigenes bauen.

Zitat senbei;26982754
Das größte Problem wird hier aber das Projektmanagement sein da (wie üblich) wieder viele Holzköpfe aus der Politik mitreden werden und so am Schluss der dümmste Kompromiss gebastelt werden wird, anstatt von wenigen Experten einen richtigen Anforderungskatalog schreiben zu lassen und diesen dann effizient umzusetzen.

Jupp, volle Zustimmung.
#30
Registriert seit: 15.01.2015

Kapitän zur See
Beiträge: 3396
Zitat Shevchen;26982822
Deswegen ist ja auch GloFo raus aus dem Rennen, weil sie schlichtweg nicht mehr das Kapital hatten um mit den großen Fischen mitbieten zu können.


Lustig, wie du dich von: wir können das nicht, wer baut in Europa Prozessoren (→STM, wie ich schon ganz am Anfang darauf hingewiesen habe und du jetzt ohne einmal die Projektseit besucht zu haben, von selbst draufkommst) ganz langsam zu: das wird eh nix, weil die Organisation nicht klappt, wandelst...
Glofo fertigt ganz wunderbar 22nm. Und das reicht (auch heute noch) von Effizienz und Leistungsdichte sehr gut für alle relevanten Anwendungen (v.a. für die, bei denen Unabhängigkeit von globalen Lieferketten bei der Nutzung von Endprodukten wünschenswert ist - bspw. Steuerung + minimal-Versorgung mit Kommunikationsgeräten). Der einzige Grund, 7nm zu implementieren liegt im Moment scheinbar darin, die Kosten zu drücken (weniger Material), Hochleistungsgeräte mit extrem geringem idle-Power zu produzieren (immer unwartbarere Handys/Notebooks) und im relativ sinnlosen Argument, dass man ja eine minimal bessere Leistung/Watt hat (sinnlos, weil die ganzen Investitionen nur sinnvoll sind, wenn der Markt weiter wächst, d.h. der Gesamtenergievebrauch absolut auch massiv steigt (für was?))
#31
Registriert seit: 23.05.2011

Bootsmann
Beiträge: 648
Zitat Shevchen;26982822
Hmm... Es gibt aber trotz gleicher ASML Anlagen (Die stehen sowohl bei TSMC, Samsung etc) doch noch messbare Qualitätsunterschiede hinsichtlich der resultierenden Chipqualität (Frequenz, Verbrauch, Yields...) Ich nehme an, das hängt an den restlichen Produktionszyklen wie zum Beispiel Materialzusammensetzung? Wir sehen ebenfalls (Da hat Intel mal ein paar schöne Slides rausgebracht), dass der Yield innerhalb weniger wochen sich von sowas wie 70% auf 85% verbessern kann - und das nur auf Grund von "Parametertuning". Um das anfassen zu können braucht man wohl auch wieder eine eigene Fertigungsstrecke und ein paar technikaffine Optimierungsfetischisten an der Produktionsstrecke. Mir fällt bei ner schnellen Suche sowas wie STM (Niederlande), GloFo in Dresden und Infineon ein. Irgendwie scheint Bosch da auch was zu machen, aber was genau - kein Plan.

Parametertuning ist das wichtigste überhaupt -> Chemie auf einem eigenen Level. Intel hat bei 10nm wohl ein halbes Jahr verloren weil ein Sparfuchs aus dem Einkauf eine "günstige" Produktionsflüssigkeit gekauft hat die falsch polarisiert war und somit nur noch Schrott vom Band fiel, sich das aber niemand erklären konnte weil der Einkauf niemandem im Labor/Testbetrieb bekannt war^^.

Zitat Shevchen;26982822
Wir haben also Kapazitäten - nur erinnere ich mich daran, dass TSMC und Samsung (Und Intel) mehrere hundert Milliarden an Investitionen in ihre neuen Produktionshallen gesteckt haben, um auf 7nm zu kommen und der ausbau auch mehrere Jahre dauert. Der Gesamtumsatz der 3 EU-Hersteller zusammen ist geringer als diese Investition allein. Deswegen ist ja auch GloFo raus aus dem Rennen, weil sie schlichtweg nicht mehr das Kapital hatten um mit den großen Fischen mitbieten zu können.

Glofo hat sich durch unterirdische Performance selbst aus dem Rennen gekickt. Sich als Mühlstein an den Hals von AMD zu ketten reicht halt nicht aus.

Zitat Shevchen;26982822
ASML wird auch nicht einfach ihre Lithographiegeräte verschenken, nur damit wir es "irgendwie" stemmen können. Allein um das Geld aus solchen Investitionen rauszubekommen, müsste man schon global agieren (Auch im Consumer-Bereich - denn aus dem Server Bereich wissen wir, dass dort die Uhren der Umstellung sehr sehr langsam ticken).

Rein theoretisch könnte man für derartige militärisch nutzbare Hochtechnologie auch ganz schnell Exportstops einführen -> Preise sänken sehr schnell(Firmen würden aber wohl schnell Bankrott gehen). Mit gewissen Daumenschrauben oder Drohungen damit sollte sich ein vernünftiger Preis aushandeln lassen, sofern man das möchte.

Zitat Shevchen;26982822
Wie gesagt, bevor ich an den Erfolg von so einem Projekt glaube, möchte ich da ne richtig etablierte Firma a la AMD/Intel sehen und nicht irgendein Joint Venutre. Von mir aus auch durch einen Zusammenschluss von Halbleiterproduzenten, die dann nicht nur Chips für Drittanbieter fertigen, sondern wie AMD damals auch was eigenes bauen.

Kalray macht das doch schon.
#32
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Oberleutnant zur See
Beiträge: 1345
Zitat flxmmr;26982850
Lustig, wie du dich von: wir können das nicht, wer baut in Europa Prozessoren (→STM, wie ich schon ganz am Anfang darauf hingewiesen habe und du jetzt ohne einmal die Projektseit besucht zu haben, von selbst draufkommst) ganz langsam zu: das wird eh nix, weil die Organisation nicht klappt, wandelst...


Das nennt sich Diskussion und Meinungsbildung. Funktioniert am besten, wenn man es konstruktiv macht. Siehst ja selbst. ;)

edit: Ich halte weiterhin nix von einem Joint Venture. Und zwar, weil ich es selbst mal erlebt habe, wie sowas abläuft. Ging um einen Pflegeroboter-Prototypen für alte Menschen, wo ein französischer Zulieferer einfach einen Metallkasten drangehängt hat und innen drinne war ne Wii versteckt. Dafür haben die mehrere Millionen abkassiert. Ich vertraue solchen Projekten nicht mehr.

Edit 2: Ich habe die Projektseite schön 3x gelesen. Warum du solche Unterstellungen nötig hast, ist hingegen dein persönliches Bier.

Zitat flxmmr;26982850
Glofo fertigt ganz wunderbar 22nm. Und das reicht (auch heute noch) von Effizienz und Leistungsdichte sehr gut für alle relevanten Anwendungen (v.a. für die, bei denen Unabhängigkeit von globalen Lieferketten bei der Nutzung von Endprodukten wünschenswert ist - bspw. Steuerung + minimal-Versorgung mit Kommunikationsgeräten). Der einzige Grund, 7nm zu implementieren liegt im Moment scheinbar darin, die Kosten zu drücken (weniger Material), Hochleistungsgeräte mit extrem geringem idle-Power zu produzieren (immer unwartbarere Handys/Notebooks) und im relativ sinnlosen Argument, dass man ja eine minimal bessere Leistung/Watt hat (sinnlos, weil die ganzen Investitionen nur sinnvoll sind, wenn der Markt weiter wächst, d.h. der Gesamtenergievebrauch absolut auch massiv steigt (für was?))


7nm hat gleichzeitig auch noch ein gehöriges Leistungsplus. Je mehr Transistoren ich auf eine bestimmte Fläche bringen kann, desto mehr theoretische Rechenpower hab ich (hängt natürlich auch vom Design ab). Die Leute kaufen AMD ja derzeit nicht nur weils billiger ist, sondern weil Preis/Leistung stimmt. Man kann bestimmt ne CPU für 10€ auf den Markt werfen. Wenn die aber keine 60FPS in Spielen bei Standardanforderungen schafft, ist sie zu schlecht - egal wie billig. Es gibt da einen schönen Begriff von Charlie (Semiaccurate), der sich "Good enough computing" nennt. Es muss gut genug sein, DANN entscheidet der Preis. Ich sehe halt kaum bis gar keinen Rechner im Privatbereich, wo ein Celeron drin steckt - obwohl der fürs Facebook-Surfen bestimmt auch ausreichen würde.

Und genau hier batteln sich grad Intel und AMD. AMD hat im Design mit Intel praktisch gleichgezogen und hat die bessere Node - das Resultat kann man beispielsweise an den Mindfactory-Statistiken ablesen. 14nm+++ reicht nicht mehr. Ich bezweifle deswegen, dass 22nm "gut genug" sind. Aber GloFo kann doch 12nm, oder? (Da werden ja auch noch die APUs gefertigt - DAS ist noch "gut genug. Oder war das mit 22nm von dir ein Schreibfehler?)

Ansonsten: Kostenreduktion ist da definitiv auch ein Faktor - viel wichtiger ist aber, nicht abgehängt zu werden. Und das sind wir aus EU Sicht zur Zeit, da wir keine eigene "General Purpose CPU" haben.

Zitat senbei;26982879
Parametertuning ist das wichtigste überhaupt -> Chemie auf einem eigenen Level. Intel hat bei 10nm wohl ein halbes Jahr verloren weil ein Sparfuchs aus dem Einkauf eine "günstige" Produktionsflüssigkeit gekauft hat die falsch polarisiert war und somit nur noch Schrott vom Band fiel, sich das aber niemand erklären konnte weil der Einkauf niemandem im Labor/Testbetrieb bekannt war^^.

Klasse Aktion. :D Das klingt so typisch amerikanisch.


Zitat
Glofo hat sich durch unterirdische Performance selbst aus dem Rennen gekickt. Sich als Mühlstein an den Hals von AMD zu ketten reicht halt nicht aus.

Und das irgendwie ohne Not... Für mich riecht es bis heute wie Fehlmanagement. Da wurde in der Technik abgebaut und auf einmal hatten die nicht mehr genug Fachpersonal, um "Parameteroptimierung" durchzuführen. Bumm, abgehängt. Genau am falschen Ende gespart.

Zitat
Rein theoretisch könnte man für derartige militärisch nutzbare Hochtechnologie auch ganz schnell Exportstops einführen -> Preise sänken sehr schnell(Firmen würden aber wohl schnell Bankrott gehen). Mit gewissen Daumenschrauben oder Drohungen damit sollte sich ein vernünftiger Preis aushandeln lassen, sofern man das möchte.

Ich fürchte, das geht eher nach hinten los. Huawei zieht sich ja gerade selbst mit dem Zopf aus dem Sumpf. Und wenn die damit fertig sind, verpuffen jegliche Drohungen der Amerikaner/EU im Nichts, und sie haben ihre eigene unangreifbare Infrastruktur. China allein reicht aus um das Unternehmen über Wasser zu halten - und ich denke, da wird es in Zukunft eine entsprechende Antwort geben. Die vergessen nicht so schnell, wie mit ihnen umgegangen wurde.

Zitat
Kalray macht das doch schon.

Die höre ich zum ersten Mal. *Suchfuchs anwerf*
#33
Registriert seit: 15.01.2015

Kapitän zur See
Beiträge: 3396
Zitat Shevchen;26982936
Das nennt sich Diskussion und Meinungsbildung. Funktioniert am besten, wenn man es konstruktiv macht. Siehst ja selbst. ;)
...
Edit 2: Ich habe die Projektseite schön 3x gelesen. Warum du solche Unterstellungen nötig hast, ist hingegen dein persönliches Bier.

Schön, und doch warst du am Anfang der Meinung, dass ja eh niemand CPUs in Europa bauen kann ;) – und auch als ich dich darauf hingewiesen habe, dass STM da bei dem Projekt drin steht

Zitat Shevchen;26982936

7nm hat gleichzeitig auch noch ein gehöriges Leistungsplus. Je mehr Transistoren ich auf eine bestimmte Fläche bringen kann, desto mehr theoretische Rechenpower hab ich (hängt natürlich auch vom Design ab).

So, hat man das? Im wesentlichen ist die Leistung/Kern in etwa gleich geblieben und mehr Kerne hat man in erster Linie über riesige Sockel realisiert, weil man langsam an den Limits der Kühllösungen angekommen ist (und die IO-Pins für immer mehr Kerne eben auch mehr Platz brauchen...). Wenn man mal von metallischen Interconnects weggekommen wäre, wäre man in Europa dann wohl definitv abgehängt ;).

Zitat Shevchen;26982936
Ich sehe halt kaum bis gar keinen Rechner im Privatbereich, wo ein Celeron drin steckt - obwohl der fürs Facebook-Surfen bestimmt auch ausreichen würde.

Das ist schön für dich, scheinbar kennst du sehr wenige Leute. Ich kenne außerhalb meines Gaming-Zirkels kaum Leute, die sich einen PC neu kaufen, weil der alte "zu langsam" ist. Meist geht die Festplatte (!) kaputt und i.d.R wird dann auch ein Atom Celeron/Pentium gekauft, wenn man nicht mich fragt...

Zitat Shevchen;26982936

Und genau hier batteln sich grad Intel und AMD. AMD hat im Design mit Intel praktisch gleichgezogen und hat die bessere Node - das Resultat kann man beispielsweise an den Mindfactory-Statistiken ablesen. 14nm+++ reicht nicht mehr. Ich bezweifle deswegen, dass 22nm "gut genug" sind. Aber GloFo kann doch 12nm, oder? (Da werden ja auch noch die APUs gefertigt - DAS ist noch "gut genug. Oder war das mit 22nm von dir ein Schreibfehler?)

Sag mal, musst du eigentlich in jede Debatte irgendwelche sinnlosen anderen Stichworte (zuerst Huawei, jetzt AMD vs. Intel) einbauen, die einfach mal nix damit zu tun haben... Die 22nm hättest du sehr schnell gefunden, denn das ist die Strukturbreite, mit der der Rest RISC-V aus dem Arxiv-Paper synthetisiert wurde ;). Und ja das ist gut genug, wenn man den Preis dafür zahlen möchte (es kostet nämlich mehr, weil man mehr Silicium braucht und kleinere Serien fährt ;)).

Das ganze Spiel ist halt freier Markt im Kapitalismus in Reinform: wir müssen iwie dauerhaft billiger werden als die Konkurrenz, die Marktsättigung ist noch nicht erreicht → Fixkosten sind da, im wesentlichen unabhängig, ob 150nm oder 10nm → bei kleineren Strukturen/größeren Wafern brauchen wir weniger Silizium/Maschinen → es wird gemacht. Und das ganze im Moment eigentlich nur auf der (imho relativ hohlen) Prämisse, dass man mit KI as a Service (zur Erinnerung: Windows konnte schon mit XP Tablet-Edition brauchbare Handschriftenerkennung und auch die Dragon-Diktiersoftware scheint für manches Sekretariat gereicht zu haben) irgendein Problem lösen kann (nachdem das ganze allerdings immer mehr Energie verbrauchen wird, bezweifle ich, dass das so sinnvoll ist)

Zitat Shevchen;26982936

Ansonsten: Kostenreduktion ist da definitiv auch ein Faktor - viel wichtiger ist aber, nicht abgehängt zu werden. Und das sind wir aus EU Sicht zur Zeit, da wir keine eigene "General Purpose CPU" haben.

Wenn man denn eine zukunftsfähige Nische findet (also eher nicht: Diesel...), wo man weiterhin Spitze ist, reicht da aber definitiv auch die Produktion von 22nm-HPC-CPUs, um nicht abgehängt zu werden... Wirklich bahnbrechende Neuerungen gab es nämlich in den letzten Jahren nicht wirklich...


Zitat Shevchen;26982936

Ich fürchte, das geht eher nach hinten los. Huawei zieht sich ja gerade selbst mit dem Zopf aus dem Sumpf. Und wenn die damit fertig sind, verpuffen jegliche Drohungen der Amerikaner/EU im Nichts, und sie haben ihre eigene unangreifbare Infrastruktur. China allein reicht aus um das Unternehmen über Wasser zu halten - und ich denke, da wird es in Zukunft eine entsprechende Antwort geben. Die vergessen nicht so schnell, wie mit ihnen umgegangen wurde.

Wenn China ausreicht, um Unternehmen über Wasser zu halten, sollten die 510 Mio. [email protected] BPI Kaufkratparität (vs. 20000USD in China) ja nach deiner Logik auch ausreichen ;). Ich würde ja erstmal warten, was passiert, wenn das letzte Schwein wegen der Schweinepest gekeult wurde und die Reserven an Prozessoren bei Huawei ausgegangen sind und sie unlizensierte Designs am Weltmarkt verkaufen wollen (geht vmtl. mit den Raffkes bei uns auch...)


Zitat Shevchen;26982936

Die höre ich zum ersten Mal. *Suchfuchs anwerf*

Auch gut sichtbar auf der Projektseite
#34
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Oberleutnant zur See
Beiträge: 1345
Zitat flxmmr;26983885
Schön, und doch warst du am Anfang der Meinung, dass ja eh niemand CPUs in Europa bauen kann ;) – und auch als ich dich darauf hingewiesen habe, dass STM da bei dem Projekt drin steht

Und warum hats denn bisher niemand gemacht? Warum muss die EU das erst mit einem Milliardenprojekt subventionieren, wenn die Industrie es laut eigenen Angaben selbst haben will, damit sie nicht komplett abhängig werden? Könnte es sei, dass da die Profitgier sich selbst im Wege steht und der Industrie das völlig egal ist, wo sie ihre Chips einkaufen, so lange die Margen groß und und das Risiko gering ist - unabhängig davon, ob es langfristig dem EU-Standort die Beine bricht?

Die sind ja schließlich global tätig. Warum sollten sie auch in der EU was produzieren lassen, wenns in Malaysia viel billiger geht? Das Geld aus dem "Fond" wird aufgebraucht und dann kaufen die wieder bei den Chinesen ein.

Klar *könnten* wir hier auch ne CPU entwickeln und produzieren. Wurde aber nicht gemacht. Bevor da nicht die Ursachen gelöst sind, kannst du Billionen da reinpumpen und es würde nix bringen.


Zitat
So, hat man das? Im wesentlichen ist die Leistung/Kern in etwa gleich geblieben

Weil Intel keinen Bedarf an einer Steigerung hatte - schließlich waren sie praktisch konkurrenzlos.

Zitat
und mehr Kerne hat man in erster Linie über riesige Sockel realisiert

So wie der kommende 16 Kerner von AMD auf AM4, der vorher nur per Threadripper realisierbar war? Oh, und AM4+/5 kommt dann in 2 Jahren.

Zitat
, weil man langsam an den Limits der Kühllösungen angekommen ist

Wie der EPYC 64 Kerner, der nur 225W verbraucht und dank 7nm damit locker auch von Consumer-Kühllösungen betrieben werden könnte?

edit:
Luftkühlungen können derzeit 320W abtransportieren (Beispiel: Silver Arrow ITX-R | Kühler | Thermalright.de) und AiO Wasserkühlungen bis ~450W mit entsprechender Radiatorfläche, bevor die Hitze bei den Consumersockeln nicht mehr effektiv von Wasser abtransportiert werden kann. Mit etwas getweake und Direct-Die Kühlung kommt man da noch weiter, da verlassen wir aber das, was sich Hugo Horst schnell im Laden zusammenkaufen kann betreten Selbstgebautes.

Selbstgebaute hochgezüchtete WaKüs können ~800W an der CPU abtransportieren und dann erreichen wir auch schon so langsam den Bereich, wo die Oberfläche zu klein ist, als dass das Wasser die Hitze noch effektiv abtransprtieren kann. Ist aber noch "Consumer" - auch wenns nicht mehr Massenmarkt ist. ;)

Ich hab hier 4x480 im push+push/pull Betrieb verbaut. Damit könnte ich >2kW Wärme abtransportieren und meine Hardware wäre immer noch kühl. Brauchen tuts kein Schwein - aber es gibt auch Leute die zum Hobby Oldtimer restaurieren. Aber zurück zum Thema...

Zitat
(und die IO-Pins für immer mehr Kerne eben auch mehr Platz brauchen...).

Komisch, warum hat AMD nochmal den I/O Die entwickelt und kann deswegen jetzt den 16 Kerner befeuern? Auch: AM4 wird bis 2020 supportet. Was meinste, kommt danach?

Zitat
Wenn man mal von metallischen Interconnects weggekommen wäre, wäre man in Europa dann wohl definitv abgehängt ;).

Ja, von optischen Lösungen wurde ja lange Zeit geredet. Kam aber bisher nix und daran wird sich die nächsten 10 Jahre auch kaum was ändern, weils ja noch "gut genug" ist.

Zitat
Das ist schön für dich, scheinbar kennst du sehr wenige Leute. Ich kenne außerhalb meines Gaming-Zirkels kaum Leute, die sich einen PC neu kaufen, weil der alte "zu langsam" ist. Meist geht die Festplatte (!) kaputt und i.d.R wird dann auch ein Atom Celeron/Pentium gekauft, wenn man nicht mich fragt...

Scheinbar ist ein tolles Argument. In meinem Dunstkreis sind die Leute selbstkritisch genug um zu verstehen, dass sie "keine Ahnung" haben und fragen Leute, die es wissen. Ich habe keine Ahnung von Holzverarbeitung, kenne aber einen der sich damit auskennt. Er hat keine Ahnung von Computern und fragt mich dann, was "gut und günstig" ist.

Scheinbar kennen wir unterschiedliche Leute und scheinbar überträgst du viel und scheinbar nimmst du sehr viele Dinge einfach an.

Zitat
Sag mal, musst du eigentlich in jede Debatte irgendwelche sinnlosen anderen Stichworte (zuerst Huawei, jetzt AMD vs. Intel) einbauen, die einfach mal nix damit zu tun haben..

Das nennt sich Vergleich. Mit Vergleichen kann man Sachverhalte übertragen und differenzierter analysieren, als wenn man diese nur von einem Punkt aus betrachtet.

Zitat
Die 22nm hättest du sehr schnell gefunden, denn das ist die Strukturbreite, mit der der Rest RISC-V aus dem Arxiv-Paper synthetisiert wurde ;). Und ja das ist gut genug, wenn man den Preis dafür zahlen möchte (es kostet nämlich mehr, weil man mehr Silicium braucht und kleinere Serien fährt ;)).

Ich bin mir sicher, dass die Ryzen 3000 Serie auf dem Prozess "fast genauso" gut performen würde - nicht. Aber da brauchst du nicht mit mir streiten, streite lieber mit den Leuten, die das hauptberuflich machen und daran aktiv forschen. Zum Beispiel hier: http://semiengineering.com

Und hier/ werkeln die Asiaten schon kräftig auf ihren 5nm Prozess. Aber 22nm ist noch "gut genug".

Ich machs mal anders rum: Glaub ich nicht, beweise mir das Gegenteil.

Zitat
Das ganze Spiel ist halt freier Markt im Kapitalismus in Reinform: wir müssen iwie dauerhaft billiger werden als die Konkurrenz, die Marktsättigung ist noch nicht erreicht → Fixkosten sind da, im wesentlichen unabhängig, ob 150nm oder 10nm → bei kleineren Strukturen/größeren Wafern brauchen wir weniger Silizium/Maschinen → es wird gemacht. Und das ganze im Moment eigentlich nur auf der (imho relativ hohlen) Prämisse, dass man mit KI as a Service (zur Erinnerung: Windows konnte schon mit XP Tablet-Edition brauchbare Handschriftenerkennung und auch die Dragon-Diktiersoftware scheint für manches Sekretariat gereicht zu haben) irgendein Problem lösen kann (nachdem das ganze allerdings immer mehr Energie verbrauchen wird, bezweifle ich, dass das so sinnvoll ist)

Na endlich kommen wir auf den springenden Punkt. Da musste ich seitenlang argumentieren und jetzt machst du es wunderbar selbst.

Unser Wirtschaftssystem ist global und die Masse an Investitionen, die man reindrücken muss um technologisch mithalten zu können erzeugt einen Gravitationseffekt, wo am Ende nur noch "die großen" sinnvoll auf Masse produzieren können, damit das Geld auch wieder reinkommt. Für ein paar tausend Chips an einen Kleingerätehersteller brauche ich keine halbe Billion für einen neuen Prozess investieren - das Geld kommt nicht mehr raus.

Zitat
Wenn man denn eine zukunftsfähige Nische findet (also eher nicht: Diesel...), wo man weiterhin Spitze ist, reicht da aber definitiv auch die Produktion von 22nm-HPC-CPUs, um nicht abgehängt zu werden... Wirklich bahnbrechende Neuerungen gab es nämlich in den letzten Jahren nicht wirklich...

Warum immer Automotive? Wir könnten in der EU auch ein Kybernetikstandort aufbauen, wo wir mit Hochtechnologie Implantate (Augen, Ohren, Arme, Beine) herstellen könnten. Wäre auch ein möglicher Anwendungsbereich. Die Dinger brauchen für ne gute Signalverarbeitung ordentlich Rechenpower - je mehr desto besser und desto genauer. Da ist die Grenze nach oben nur, wie viele Daten dein Hirn verarbeiten kann - und sensorisch könnten wir sogar zusätzliche Sinne hinzufügen, wie der Neuro-KI-Chip von IBM schon gezeigt hat.

Automotive hier, Automotive da - als wenn es das Einzige ist, was wir können.


Zitat
Wenn China ausreicht, um Unternehmen über Wasser zu halten, sollten die 510 Mio. [email protected] BPI Kaufkratparität (vs. 20000USD in China) ja nach deiner Logik auch ausreichen ;).

Jupp, sollten sie - wenn sie das auch kaufen und nicht wieder wegen "ist billiger" in China einkaufen. Tun sie aber. "Made in Germany" finde ich nicht mehr, weil alles aus China kommt. Das wird hier vielleicht designt, aber in China produziert. Vor allem, weil die Chinesen so langsam eigenes Know-How hochziehen, weil sie ihren eigenen Binnenmarkt bedienen wollen - und der hat so langsam auch Qualitätsansprüche.

Wenn da nicht diese "geiz ist geil" Mentalität wäre, könnte man so eine EU-CPU sogar hochziehen. Ob ich nun 300€ für ne Top-End CPU von AMD/Intel bezahle, oder 350 für eine aus der EU - dafür könnte ich mich sogar noch breitschlagen lassen. Bedeutet aber: Die Firmen müssten da halt auf ihre Marge verzichten (die dann halt nicht 100% sondern nur 20% beträgt) und das wird kein Aktionär mitmachen - der investiert dort, wo die Margen hoch sind.

Und Schwupps sind wir wieder am Anfang.


Zitat
Ich würde ja erstmal warten, was passiert, wenn das letzte Schwein wegen der Schweinepest gekeult wurde und die Reserven an Prozessoren bei Huawei ausgegangen sind und sie unlizensierte Designs am Weltmarkt verkaufen wollen (geht vmtl. mit den Raffkes bei uns auch...)

Grauimporte sind ja keine Seltenheit mehr - aber warum unlizensiert? Lineage OS würde im Übergang auch funzen.


Zitat flxmmr;26983885
Auch gut sichtbar auf der Projektseite
Ja, und vom angucken eines Logos kenne ich dann per Osmose instantan das ganze Unternehmen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Intel Core i9-9900K im Test: Acht Kerne mit Luxuszuschlag

    Logo von IMAGES/STORIES/2017/INTEL_CORE_I9-9900K

    Nach monatelangen Spekulationen und zahlreichen durchgesickerten Informationen hat Intel vor knapp zwei Wochen seine neunte Generation der Core-Prozessoren vorgestellt. Ins Rennen werden mit dem Core i5-9600K, Core i7-9700K und Core i9-9900K zunächst drei Modelle geschickt, die nicht nur... [mehr]

  • AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

    Logo von IMAGES/STORIES/2017/AMD_THREADRIPPER_2950X

    Pünktlich zum ersten Geburtstag startet AMD den Ryzen-Threadripper-Generationswechsel. Und wie schon im Frühjahr beim Sprung von Ryzen 1 zu Ryzen 2 vertraut man auf zwei Dinge: mehr Kerne und einen geringeren Preis. Beide sollen dabei helfen, dem Dauerrivalen Intel im... [mehr]

  • Intel mit eigenen Benchmarks zum i9-9900K, i9-9980XE und i9-9900X (5. Update)

    Logo von IMAGES/STORIES/2017/INTEL

    Am gestrigen Nachmittag präsentierte Intel die kommenden Produktlinien bei den Desktop-Prozessoren. Besonders interessant sind dabei natürlich die Core-Prozessoren der 9. Generation, die mit dem Core i9-9900K nun auch ein Modell mit acht Kernen und 16 Threads beinhalten. Im November wird es... [mehr]

  • AMD Ryzen 3000: Acht Zen-2-Kerne mit PCIe 4.0 ab Mitte 2019

    Logo von IMAGES/STORIES/2017/RYZEN3000-CES19

    Neben der Vorstellung der Radeon Vega 7 als erste Gaming-GPU aus der 7-nm-Fertigung hat AMD eine Vorschau auf die Ryzen-Prozessoren der 3000er-Serie gegeben. Die als Matisse geführten Desktop-Prozessoren werden im Sockel AM4 Platz finden, basieren aber auf der neuen Zen-2-Architektur und bieten... [mehr]

  • AMD soll Ryzen 7 2800X mit 10 Kernen in Vorbereitung haben

    Logo von IMAGES/STORIES/2017/AMD_RYZEN_TEASER_100

    Auf der spanischen Seite El chapuzas Informatico ist ein Bild aufgetaucht, welches die Cinebench-Ergebnisse eines Ryzen 7 2800X zeigen soll. Derzeit lässt sich die Echtheit des Screenshots nicht bestätigen und bisher sind auch noch keine weiteren Informationen zu einem Ryzen 7 2800X... [mehr]

  • Intel Coffee Lake Refresh: Overclocking-Check

    Logo von IMAGES/STORIES/2017/INTEL_CORE_I9-9900K

    Nach dem Start der neuen Generation der Intel-Core-Prozessoren stellt sich die Frage, wie es um die Overclocking-Eigenschaften bestellt ist. Erste Ergebnisse lieferte bereits der Test des Core i9-9900K. Doch wie schon in den vergangenen Jahren soll ein umfangreicher Check zeigen, an welchen... [mehr]