News und Artikel durchsuchen
{{#data.error.root_cause}}
{{/data.error}}
{{^data.error}}
{{#texts.summary}}
[{{{type}}}] {{{reason}}}
{{/data.error.root_cause}}{{texts.summary}} {{#options.result.rssIcon}} RSS {{/options.result.rssIcon}}
{{/texts.summary}} {{#data.hits.hits}}
{{#_source.featured}}
FEATURED
{{/_source.featured}}
{{#_source.showImage}}
{{#_source.image}}
{{/_source.image}}
{{/_source.showImage}}
{{/data.hits.hits}}
{{{_source.title}}} {{#_source.showPrice}} {{{_source.displayPrice}}} {{/_source.showPrice}}
{{#_source.showLink}} {{/_source.showLink}} {{#_source.showDate}}{{{_source.displayDate}}}
{{/_source.showDate}}{{{_source.description}}}
{{#_source.additionalInfo}}{{#_source.additionalFields}} {{#title}} {{{label}}}: {{{title}}} {{/title}} {{/_source.additionalFields}}
{{/_source.additionalInfo}}
HBM4
-
Intel und Sk Hynix: MRDIMM Gen 2 für Diamond Rapids und HBM4 für Jaguar Shores
Auf dem AI Summit von Intel in Seoul hat das Unternehmen zusammen mit einigen seiner Partner über zukünftige Produkte gesprochen. Einer der Partner auf der Bühne war SK Hynix, der neben DRAM auch HBM anbietet – neben Samsung und Micron ist man einer von drei Herstellern für diesen Speichertyp. So wird Intel für Jaguar Shores, dem ursprünglich nach Falcon Shores erwarteten KI-Beschleuniger, HBM4 von SK Hynix zum Einsatz bringen... [mehr]. -
HBM- und KI-Chip-Projektion: Bis zu 15 kW und gigantische HBM-Kapazitäten
Die Universität KAIST (Korea Advanced Institute of Science and Technology) in Südkorea, beziehungsweise das dazugehörige Terala (Terabyte Interconnection and Package Laboratory) hat einen aufsehenerregenden Workshop veranstaltet (PDF bei Google Drive), in dessen Rahmen eine HBM-Roadmap oder besser eine Projektion dessen, was in den kommenden Jahren zu erwarten ist, präsentiert wurde. Die hier genannten Zahlen für Bandbreiten, Kapazitäten,... [mehr] -
Advancing AI 2025: AMD nennt erste Details zum Instinct-MI400-Beschleuniger
Neben der Vorstellung der Instinct-MI350-Familie auf Basis der CDNA-4-Architektur gab AMD auf den "Advancing AI 2025"-Event auch einen Ausblick auf das, was danach kommen soll. Dabei hält AMD auch an der Kadenz von etwa 12 Monaten für immer neue Instinct-Generationen bei, denn schon 2026 sollen die Instinct-MI400-Beschleuniger auf den Markt kommen. Bisher kann AMD seine Beschleuniger nur in Gruppen von bis zu acht GPUs über Infinity... [mehr] -
36 GB 12-High: Micron liefert ersten HBM4 aus
Micron hat verkündet, dass man den ersten HBM4 mit 12 DRAM-Stacks und (12-High) und einer Kapazität von 36 GB pro Chip fertigen wird. Erste Samples sollen nun an Kunden ausgeliefert werden. Die wahrscheinlichsten Vertreter sind hier sicherlich NVIDIA und AMD. Die Rubin-GPU wird bei NVIDIA ab der zweiten Jahreshälfte 2026 auf HBM4 setzen. AMD wird vermutlich erst mit der Instinct-MI400-Serie auf HBM4 setzen. Dazu werden wir womöglich in wenigen... [mehr] -
ECTC 2025: Intel stellt EMIB-T für HBM4 erneut ins Schaufenster
Zur Intel Foundry Direct Connect 2025 präsentierte Intel mit EMIB-T eine Erweiterung seines EMIB-Packaging, die sich den Schachstellen der integrierten Silicon-Bridge annehmen soll und somit auch für externe Kunden interessant werden soll. Auf der Electronic Components Technology Conference (ECTC) wiederholte Intel viele der schon auf der Hausmesse genannten Punkte. Die Kollegen von Toms Hardware waren auf der ECTC und bieten die dazugehörigen... [mehr] -
12-Layer HBM4: SK Hynix liefert die ersten Samples aus
Aktuell stürzt sich der Markt auf alles an HBM3(E)-Chips, was von den Herstellern ausgeliefert werden kann. Zusammen mit dem Packaging ist dies einer der größten Flaschenhälse in der Chipfertigung aktuell. Vor allem NVIDIA ist einer der größten Kunden – sowohl in der Fertigung als auch der Verarbeitung der Chips – sprich dem Packaging. SK Hynix hat nun angekündigt, dass man die ersten Samples eines HBM4 mit zwölf Layern an seine Kunden... [mehr] -
Interposer mit 12x HBM4: TSMC CoWoS soll ab 2027 riesige Packages ermöglichen
Auf dem Open Innovation Platform (OIP) Forum sprach TSMC über seine zukünftigen Pläne hinsichtlich des Packaging, genauer dem Chip-on-Wafer-on-Substrate (CoWoS) und definierte dabei die bisherigen Ziele zur Größe des verwendeten Interposer etwas genauer. Aktuell wird das CoWoS-Packaging im Bereich des dreifachen, des sogenannten Reticle-Limits limitiert, also der maximalen Größe, in der ein monolithischer Chips gefertigt werden kann. In... [mehr] -
NVIDIAs Roadmap: NVIDIA präsentiert Blackwell Ultra, Rubin und Rubin Ultra
Auf der Keynote auf der Computex in Taipei gab NVIDIA einen Ausblick auf die zukünftige Datancenter-Roadmap. Die in diesem Jahr vorgestellte Blackwell-GPU mit Blackwell-Architektur wird um Blackwell Ultra ergänzt. Dabei handelt es sich vermutlich um den B200-Beschleuniger mit Blackwell-GPU, aber HBM3e mit 12 Stacks anstatt acht Stacks, wie es im ersten Schritt geplant ist. Damit steigt der Speicherbaus von 192 auf 244 GB an. Die... [mehr] -
HBM4: SK hynix und TSMC vereinbaren Zusammenarbeit
Der Speicherhersteller SK hynix und TSMC haben eine engere Zusammenarbeit in der Entwicklung von HBM4 sowie für zukünftige Packaging-Technologien verkündet. SK hynix plant die Entwicklung von HBM4, der dann sechsten Generation der HBM-Familie, ab 2026 in Serie zu produzieren. Dem südkoreanischen Hersteller geht es vor allem darum, in der Zusammenarbeit zwischen Produktdesign, der Fertigung und dem eigenen Interesse... [mehr] -
2 TB/s über breiteres Speicherinterface: Samsung will HBM4 schon 2025 einführen
Auch wenn HBM (High Bandwidth Memory) bei Endkundenhardware kaum mehr eine Rolle spielt, so ist dieser schnelle Speichertyp aus dem Datacenter und hier der Beschleunigerhardware kaum mehr wegzudenken. Entsprechend schritt die Entwicklung in den vergangenen 24 Monaten schnell voran. Nachdem die ersten Beschleuniger mit HBM3 in diesem Jahr ausgeliefert wurden und werden sollen, soll im kommenden Jahr bereits HBM3E zum Einsatz kommen. In der unten... [mehr] -
HBM4 von Sk hynix: 2026 soll es mit 32 GB losgehen
Aktuell werden die ersten AI-Beschleuniger mit HBM3 bestückt. Dazu gehören NVIDIAs H100, aber auch der Radeon Instinct MI300A und MI300X von AMD. Lieferanten des schnellen Speichers sind Samsung und Sk hynix – beides in Südkorea ansässige Unternehmen. Laut BusinessKorea hat Sk hynix auf einem Investoren-Event seine Bestrebungen bestätigt, diesen Speicherbereich in diesem und dem kommenden Jahr weiter auszubauen. Zwar macht der HBM... [mehr]