News und Artikel durchsuchen
{{#data.error.root_cause}}
{{/data.error}}
{{^data.error}}
{{#texts.summary}}
[{{{type}}}] {{{reason}}}
{{/data.error.root_cause}}{{texts.summary}} {{#options.result.rssIcon}} RSS {{/options.result.rssIcon}}
{{/texts.summary}} {{#data.hits.hits}}
{{#_source.featured}}
FEATURED
{{/_source.featured}}
{{#_source.showImage}}
{{#_source.image}}
{{/_source.image}}
{{/_source.showImage}}
{{/data.hits.hits}}
{{{_source.title}}} {{#_source.showPrice}} {{{_source.displayPrice}}} {{/_source.showPrice}}
{{#_source.showLink}} {{/_source.showLink}} {{#_source.showDate}}{{{_source.displayDate}}}
{{/_source.showDate}}{{{_source.description}}}
{{#_source.additionalInfo}}{{#_source.additionalFields}} {{#title}} {{{label}}}: {{{title}}} {{/title}} {{/_source.additionalFields}}
{{/_source.additionalInfo}}
Rubin CPX
-
GTC 2026: Groq LPU erhielt gegenüber Rubin CPX den Vorzug
Gemeinsam mit der Rubin-Plattform stellte NVIDIA auf der GTC 2026 die Groq 3 LPU 3 als zusätzlichen Beschleuniger vor, der dafür sorgen soll, dass auch bei großen Modellen und Kontextfenstern noch ein effizientes Inferencing möglich ist. Für die Rubin-Generation ist dies der LP30-Chip (Groq 3). Mit Rubin Ultra soll dann schon der auf NVFP4 optimierte LP35 folgen. Im vergangenen Jahr stellte NVIDIA mit dem Rubin CPX einen eigenen Beschleuniger... [mehr] -
NVIDIA Rubin CPX: Größeres Kontext-Fenster für KI-Anwendungen der Zukunft
Mit dem Fortschritt von den ersten LLMs über feinabgestimmte Modelle (Fine-tuning), Mixture-of-Experts-Architekturen (MoEs) und den ersten Reasoning-Modellen hin zu leistungsfähigen KI-Agents werden Anfragen kontinuierlich komplexer. Die Aufgaben verlangen immer größere Kontextfenster, mehr Token und steigende Rechenleistung – wodurch der Energiebedarf der Systeme stetig wächst. Moderne KI-Modelle benötigen zunehmend längere Kontext-Fenster,... [mehr]