Nach 28 Jahren: CPU-Architekt Ronak Singhal verlässt Intel

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.668
Das Personalkarussell bei Intel dreht sich weiter. Nachdem man diese Woche Änderungen in der oberen Chefetage verkündet hat, folgte gestern bei CRN die Meldung, dass mit Ronak Singhal ein echtes Urgestein das Unternehmen zum Jahresende verlassen wird. Singhal war 28 Jahren im Unternehmen und dort als CPU-Architekt tätig. Inzwischen hat er den Titel des Senior Fellow und verantwortete zuletzt die Entwicklung sämtlicher CPU-Architekturen bei Intel.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Mitarbeiter war also für die CPU-Designs aus den USA verantwortlich, die aber sich in den letzten 10 Jahren nie gegen die Designs aus Israel durchsetzen konnten. Das sind halt genau die Art von Abteilungen, welche für Intels Krise verantwortlich sind - hohe Kosten ohne spürbaren Nutzen. Intel hat 30 Jahre am Stück Geld verdient wie gedruckt und sich daran fettgefressen. AMD hatte 2024 28.000 Mitarbeiter, während Intel rund 110.000 im selben Jahr hatte - und trotz 4x so viel Mitarbeiter keine technisch Konkurrenzfähigen Prozessoren hat, keine konkurrenzfähige Fertigung (trotz Weltmarktführerschaft bis 2015) und keine konkurrenzfähigen KI Produkte.

Ich denke bis 2030 hat Intel seine Personalstärke nochmals halbiert...
 
Wenn er 28 Jahre bei Intel war, dürfte er auch schon nicht mehr der Jüngste sein.
Aber wenn ich lese, daß Intel-intern eine Art Wettkampf um die beste Architektur zwischen USA und Israel stattgefunden hätte, dann habe ich immer im Hinterkopf, daß die israelische Abteilung Intel schon vor 20 Jahren den A..... gerettet hat. Damals hatte sich das "Mutterschiff" in den USA auf die Netburst-Architektur konzentriert, die angeblich extrem hohe Taktraten erreichen sollte. Von bis zu 10 GHz am Ende der Entwicklung war damals schon die Rede.

Es kam anders, und der Pentium4 war ein echter Rohrkrepierer, der nur mittels der puren Marktmacht von Intel und wettbewerbswidrigen Absprachen überhaupt am Markt gehalten werden konnte. In praktisch allen technischen Belangen (IPC, Stromverbrauch, Hitzeentwicklung) war der Netburst der Konkurrenz von AMD unterlegen.

Nur im sich damals rasant entwickelnden Mobilbereich hatte Intel damals noch ein echtes Pfund in Form des Pentium M, der aber trotz des Namens reinweg nichts mit dem Pentium 4 zu tun hatte. Vielmehr basierte der M auf der alten Prozessorarchitektur P6, die im Jahr 1995 auf den Markt kam. Der Pentium M und später der Core entstammten einer parallelen Entwicklung, die in Israels Abteilung stattfand.

Und da ist der Haken an der Geschichte, denn der Nehalem, der im Artikel genannt wurde, mag vielleicht in den USA entwickelt worden sein, baut aber genau auf dieser Parallelentwicklung aus Israel auf. Die ganze Core-Microarchitektur hätte es mit der US-Abteilung allein möglicherweise nie gegeben.
 
Eventuell plaudert er ja in ein paar Jahren aus dem Nähkästchen.
Zu einigen Punkten würde ich gerne lesen was er meint.

Hoffen wir mal das er sich eine gute Auszeit gönnen kann und dann was findet was Spaß macht.
Nach 20+ Jahren im selben Unternehmen ist bei ihm bestimmt die Luft raus.
 
Ich denke bis 2030 hat Intel seine Personalstärke nochmals halbiert...

Abwarten, das hängt im wesentlichen davon ob bzw. dass die foundry Sparte in die Spur kommt.

Auf die Idee dass für den Betrieb von fabs/packaging sites ein paar Mitarbeiter nötig sind könnte man auch selbst kommen.

Bei AMD ist die Produktion und das Packaging "outgesourced".

Bei TSMC bzw. TF-AMD Microelectronics wird der Job aber auch nicht von "Mainzelmännchen" erledigt.
 
Zuletzt bearbeitet:
Der Mitarbeiter war also für die CPU-Designs aus den USA verantwortlich, die aber sich in den letzten 10 Jahren nie gegen die Designs aus Israel durchsetzen konnten. Das sind halt genau die Art von Abteilungen, welche für Intels Krise verantwortlich sind - hohe Kosten ohne spürbaren Nutzen. Intel hat 30 Jahre am Stück Geld verdient wie gedruckt und sich daran fettgefressen. AMD hatte 2024 28.000 Mitarbeiter, während Intel rund 110.000 im selben Jahr hatte - und trotz 4x so viel Mitarbeiter keine technisch Konkurrenzfähigen Prozessoren hat, keine konkurrenzfähige Fertigung (trotz Weltmarktführerschaft bis 2015) und keine konkurrenzfähigen KI Produkte.

Ich denke bis 2030 hat Intel seine Personalstärke nochmals halbiert...
Die letzten Designs waren halt Brechstange.
Vielleicht waren seine Konservativer, wir wissen es nicht.
 
Die letzten Designs waren halt Brechstange.
Und das ja nicht zum ersten Mal.
Pentium4/Netburst war ja im Grunde genommen von Anfang an "Brechstange". Man hat ständig die Taktraten und Spannungen (und damit Verbrauch und Hitze) erhöht, um mit AMD halbwegs Schritt halten zu können, die ihr Augenmerk auf die IPC gelegt hatten, die eine höhere Gesamtleistung bei niedrigerem Takt ermöglichte. Am Ende kreierte Intel sogar ein neues Gehäuse/Motherboard-Design namens BTX, um die dabei entstehende Hitze überhaupt vernünftig mit Luft wegkühlen zu können:


Die ganze Werbekampagne baute ja auch darauf auf, wo in Anzeigen von Computershops regelmäßig von "echten Gigahertz" gesprochen wurde, was aber eben nichts über die reale Rechenleistung aussagte. Später kam heraus, daß Intel diese Werbekampagnen (mit dem Logo "Intel inside") finanziell unterstützt hatte, und daß außerdem mit Handelsketten und OEMs heimliche Exklusivverträge geschlossen wurden, die diese Zahlungen an die Bedingung knüpften, daß keine AMD-basierten PCs mehr angeboten würden.

So gewann Intel Zeit, um am Ende mit der in Israel weiterverfolgten P6-Architektur wieder an die Spitze zu kommen. Core, eben.
Später hat man sich dann wieder auf diesen Lorbeeren ausgeruht, weil AMD, das erheblich weniger Kapazitäten hatte, sich mit dem Bulldozer-Design vertan hatte. Und die Reaktion auf Zen war dann eben wiederum "Brechstange", bis hin zu den CPUs der 13./14. Generation, die teilweise schon in der Garantiezeit degenerieren, was bei Verbräuchen bis über 400 Watt (14900 KS) ... auch kein Wunder ist.
 
Zuletzt bearbeitet:
Und das ja nicht zum ersten Mal.
Pentium4/Netburst war ja im Grunde genommen von Anfang an "Brechstange". Man hat ständig die Taktraten und Spannungen (und damit Verbrauch und Hitze) erhöht, um mit AMD halbwegs Schritt halten zu können, die ihr Augenmerk auf die IPC gelegt hatten, die eine höhere Gesamtleistung bei niedrigerem Takt ermöglichte. Am Ende kreierte Intel sogar ein neues Gehäuse/Motherboard-Design namens BTX, um die dabei entstehende Hitze überhaupt vernünftig mit Luft wegkühlen zu können:


Die ganze Werbekampagne baute ja auch darauf auf, wo in Anzeigen von Computershops regelmäßig von "echten Gigahertz" gesprochen wurde, was aber eben nichts über die reale Rechenleistung aussagte. Später kam heraus, daß Intel diese Werbekampagnen (mit dem Logo "Intel inside") finanziell unterstützt hatte, und daß außerdem mit Handelsketten und OEMs heimliche Exklusivverträge geschlossen wurden, die diese Zahlungen an die Bedingung knüpften, daß keine AMD-basierten PCs mehr angeboten würden.

So gewann Intel Zeit, um am Ende mit der in Israel weiterverfolgten P6-Architektur wieder an die Spitze zu kommen. Core, eben.
Später hat man sich dann wieder auf diesen Lorbeeren ausgeruht, weil AMD, das erheblich weniger Kapazitäten hatte, sich mit dem Bulldozer-Design vertan hatte. Und die Reaktion auf Zen war dann eben wiederum "Brechstange", bis hin zu den CPUs der 13./14. Generation, die teilweise schon in der Garantiezeit degenerieren, was bei Verbräuchen bis über 400 Watt (14900 KS) ... auch kein Wunder ist.
Aktuell ist es aber schon auch so das es wieder einen guten Schlagabtausch gibt und durchaus einige neue Innovationen die Jahrelang etwas haben warten lassen...

Ich bin gespannt auf AMDs UDNA (Endlich wieder Workstation und Gaming vereint) und was AM6 und Intels nächste Gen nach dem Refresh bringt. 2026/2027 werden wieder sehr spannend.
 
Tatsächlich kamen die besseren Designs meist von den Israelis und die unterschiedlichen Teams haben auch manchmal zu seltsamen Ergebnissen geführt (Spannungswandler rein, dann wieder raus, dann wieder rein), trotzdem das Prinzip seine Stärken. Einen guten Eindruck macht der personelle Aderlass nicht, mal sehen wie es weitergeht... langweilig wird es bei Intel jedenfalls nicht.
 
Zuletzt bearbeitet:
Der Mitarbeiter war also für die CPU-Designs aus den USA verantwortlich, die aber sich in den letzten 10 Jahren nie gegen die Designs aus Israel durchsetzen konnten.
Lies noch mal genau was im Text steht:
Zuletzt wurden die meisten CPU-Architekturen ausschließlich in Israel entwickelt. Ronak Singhal wollte das Team in den USA aber neu aufbauen, sodass es wieder einen unternehmensinternen Wettbewerb um die beste CPU-Architektur geben konnte.
Also nach meinem Verständnis gab es da in den letzten Jahren keinen Wettbewerb mehr, weil es kein Team mehr in den USA gab, sonst gäbe es ja keinen Grund warum Singhal dies wieder aufbauen wollte. Aber Lesen und Verstehen ist für manche hier schwerer als Haßtriaden abzulassen!
 
Aber Lesen und Verstehen ist für manche hier schwerer als Haßtriaden abzulassen!
Finde es toll, wie Du Dich selbst in einem Satz beschrieben hast, es ist ein Anfang und kein persönlicher Angriff auf Dich. Du bist einfach so.

Zum Thema:

Das Ronak Singhal das Unternehmen zum Jahresende verlassen wird, dürfte die Entscheidung des neuen Intels CEO Lip-Bu Tan sein.

Manchmal ist ein neuer Impuls beim Design von CPUs nötigt, man wollte daher wohl einen anderen CPU-Architekten.

Man darf nicht vergessen, dass die damals Jim Keller geholt haben, um einen Impuls zu bekommen.
 
Zuletzt bearbeitet:
So schlecht war der Northwood P4 doch nicht was Verbrauch und Leistung angeht Rudi. Die Presse und der Willi waren die schlechten Varianten, so habe ich es in Erinnerung.
 
@Draco

Na ja.... Der Northwood profitierte von der Verkleinerung der Fertigung, die Leckströme waren aber immer noch katastrophal, und die Leistungsaufnahme wurde noch mal gesteigert.
Es hatte schon seine Gründe, warum Intel mit dem P4 die Temperaturüberwachung einführte - eben damit die CPU die Reißleine ziehen konnte, statt einfach ihren Hut zu nehmen.... :sneaky:

Das alles änderte aber eben nichts am Grundfehler von Netburst - laaaange Pipeline und nur mit mehr Takt auf Leistung zu trimmen. Und das ging eben nur mit der Spannungs-Brechstange.
 
Die Core Architektur die danach kam war richtig stark, da hatte AMD erstmal nichts mehr anzu melden.
 
Äh doch, Prescott war der letzte mit Netburst.
 
Du meintest bestimmt 65nm Presler mit Cedar-Mill Kernen. Das dürften die letzten mit Nb gewesen sein. Danach kam dann C2/C2D. ;)
 
Ist das jetzt gut oder schlecht für Intel?
 
Zuletzt bearbeitet:
Ist das jetzt gut oder schlecht für Intel?
Kommt darauf an⁉️

Wenn er für die bisherigen, verkorksten Architekturen verantwortlich war, dann ist es gut für INTEL.

Wenn aber jemand anderer dafür verantwortlich war, dann ist es schlecht für INTEL‼️

Es stellt sich die Frage auch, wer für die utopischen Entwicklungsschritte in der Foundry-Sparte verantwortlich war❓❓

Wie bereits erwähnt, manchmal benötigt man auch einen neuen Impuls in der Firma,

viele waren zu lange in der Firma und sind auch mittlerweile betriebsblind.

Jetzt müssen Korrekturen her.
 
Zuletzt bearbeitet:
Hmm, glaube da haben wir ein Missverständniss. Ich bezog mich auf Deine Aussage, dass die Core Generation nach Prescott kam. Das stimmt natürlich, mit dem P M und C2D. Ich hatte da die Core i Generationen vor Augen. Mein Fehler.

Hatte selbst C2D ausgelassen, und bin direkt auf LGA 1366 gegangen.
 
Ja aber stimmt schon ich meine Ronak Singhal war auch erst für das was nach Core kam verantwortlich, also Nehalem was aber auch teilweise auf Core aufbaut.
 
Das war nur noch ein Prescott shrink, nix neues.
Nö. Smithfield 90nm (D8xx) hatte Presskopf Kerne. Presler 65nm (D9xx) aber Cedar-Mill Die's. Das war meines Wissens nach auch die letzte Gen mit Netburst.
Auch wenn sich Presskopf und Cedar-Mill meinetwegen ähneln, so hatte Cedar-Mill doch schon tiefergreifende Verbesserungen. Netburst war leider bei beiden include. Und wenn du jetzt schreibst, Cedar-Mill sei nur ein Shrink von Prescott, dann müsste Prescott selbst ja nur ein Shrink von Willamette/Northwood sein, demzufolgen können wir ja gleich zurück gehen bis Pentium I. Alles nur Shrinks. ;)
Danach kam Core Gen2, bekanntermaßen Duo, Quad, Extreme (Edition) und da gab es ja damals das Gerücht, dass Core2 in Teilen auf die alte Pentium 3 Architektur, nur halt ohne diesen fatalen Netburst Krempel aufsetzt, Intel also den rettenden Rundumschlag schon lange in der Schublade hatte. Ob was daran war, keine Ahnung.

ps: Kannst du, wenn du möchtest, u.a. auch bei Wiki nachlesen.
 
Zuletzt bearbeitet:
Nun denn. Intel Vorstand will sich keine mehrere Teams mehr leisten. Singhai wollte das unbedingt machen -> getrennte Weg.

Ich weiß nur nicht wie das damit zusammenpasst...
 
Nö. Smithfield 90nm (D8xx) hatte Presskopf Kerne. Presler 65nm (D9xx) aber Cedar-Mill Die's. Das war meines Wissens nach auch die letzte Gen mit Netburst.
Auch wenn sich Presskopf und Cedar-Mill meinetwegen ähneln, so hatte Cedar-Mill doch schon tiefergreifende Verbesserungen. Netburst war leider bei beiden include. Und wenn du jetzt schreibst, Cedar-Mill sei nur ein Shrink von Prescott, dann müsste Prescott selbst ja nur ein Shrink von Willamette/Northwood sein, demzufolgen können wir ja gleich zurück gehen bis Pentium I. Alles nur Shrinks. ;)
Danach kam Core Gen2, bekanntermaßen Duo, Quad, Extreme (Edition) und da gab es ja damals das Gerücht, dass Core2 in Teilen auf die alte Pentium 3 Architektur, nur halt ohne diesen fatalen Netburst Krempel aufsetzt, Intel also den rettenden Rundumschlag schon lange in der Schublade hatte. Ob was daran war, keine Ahnung.

ps: Kannst du, wenn du möchtest, u.a. auch bei Wiki nachlesen.
Was waren denn die tiefergreifenden Verbesserungen bei Cedar-Mill im Vergleich zum Prescott ?
Laut wikipedia sieht das alles gleich aus bis auf den shrink und den dadurch niedrigeren Stromverbrauch.
 
Naja, dass spuckt dir grob eigentlich schon Google aus.
Cedar-Mill @ Presler hatte rund 1/3 mehr (in Millionen) Transistorschaltungen auf kleinerer Fläche als Prescott @ Smithfield,
War allgemein leichter zu kühlen ebend wegen gesunkener TDP und auch performanter Leistung per Watt. Prescott war im Grunde auch nur eine überarbeitete Mikroarchitektur des Northwood, teils mit Vorteilen aber halt auch Rückschritten wie zb. nochmals verlängerten Pipelines ggü. Northwood, was Northwood teils sogar gebencht ggü. Prescott leistungsfähiger machte. Dafür waren die Prescotts allgemein höher taktbar und Taktraten waren bei Inel immer ein "Steckenpferd". Man wollte hohe Taktraten, egal zu welchen Preis.
 
Es bleibt derselbe Kern, also meine Wikipedia sagt dazu:

Pentium 4F​

  • Prescott-2M built on 0.09 μm (90 nm) process technology
  • 2.8–3.8 GHz (model numbers 6x0)
  • Introduced February 20, 2005
  • Same features as Prescott with the addition of:
  • Cedar Mill built on 0.065 μm (65 nm) process technology
  • 3.0–3.6 GHz (model numbers 6x1)
  • Introduced January 16, 2006
  • Die shrink of Prescott-2M
  • Same features as Prescott-2M
  • Family 15 Model 4

Dann soll der Cheddar Käse der letzte Netburst sein, ist mir auch recht weil jetzt wenig Lust ist um weiter über 20 Jahre alten scheiss zu streiten.
 
... und da gab es ja damals das Gerücht, dass Core2 in Teilen auf die alte Pentium 3 Architektur, nur halt ohne diesen fatalen Netburst Krempel aufsetzt, Intel also den rettenden Rundumschlag schon lange in der Schublade hatte. Ob was daran war, keine Ahnung.
Ich denke, hier hat man direkt auf Core aufgesetzt, das ja die Weiterentwicklung von Pentium M, P6 war, also PIII. Und das war ja die Schiene, die die israelische Abteilung gefahren war. Die große Neuerung des Nehalem, und damit Core2 war, daß analog zu AMD der Speichercontroller in die CPU rückte, und somit der ganze Umweg FrontSideBus/Northbridge wegfiel. Beim P4 wurden ja bspw, sogar die Mehrkerne über den FSB verbunden, waren also trotz gemeinsamem Gehäuse eigentlich zwei getrennte CPUs. Früher saßen die auch in zwei getrennten Sockeln.

Witzig war aber, daß der Nehalem auch noch irgendwie "P4-Gene" hatte, denn er verbrauchte mehr Strom, als die ersten Tests auswiesen. Einige Tester wunderten sich, wieso die CPU throttlete, ehe sie ihre TDP erreicht hatte (ja, damals spielte die TDP auch bei Intel noch eine Rolle!). Es stellte sich heraus, daß der Nehalem sich nicht nur aus dem "P4"-Stecker mit Strom versorgte, sondern auch wieder die 3,3/5V-Schiene anzapfte, mit der der "UnCore"-Bereich versorgt wurde. Also der RAM-Controller etc. Blöderweise war das nirgendwo dokumentiert worden.

Eine PC-Zeitschrift titelte damals "Prescott reloaded?" Irgendwie auch typisch, daß die US-Abteilung die Entwicklung aus Israel adaptierte - und gleich wieder (etwas) Mist baute... :geek:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh