Werbung
Schon 2019 stellte Qualcomm seine erste dedizierte AI-Beschleunigerhardware vor. Die Cloud-AI-100-Hardware kam aber allenfalls im Edge-Segment zum Einsatz und spielt für den aktuellen KI-Hype quasi keinerlei Rolle. Nun hat Qualcomm nicht nur neue KI-Beschleuniger vorgestellt, sondern will diese ab dem kommenden Jahr auch gleich als komplette Rackscale-Lösung anbieten.
AI200 lautet der Name einer ersten, neuen Generation auf Basis der Hexagon-NPU-Technologie, die ab dem kommenden Jahr erhältlich sein soll. AI250 soll dann schon der Nachfolger folgen. Auch Qualcomm richtet sich also auf eine jährliche Kadenz ein, um entsprechend auf die immer veränderlichen Anforderungen an die KI-Hardware reagieren zu können.
Sowohl die AI200- wie auch die AI250-Hardware sind nicht auf das Training neuer KI-Modelle ausgelegt, sondern sollen ein möglichst effizientes Inferencing ermöglichen.
Viel ist zur Hardware nicht bekannt. Pro Karte spricht Qualcomm von 768 GB LPDDR-Speicher. Mehr verrät man zum aktuellen Zeitpunkt aber noch nicht. Hinsichtlich der Skalierung der Hardware im Rack spricht Qualcomm von PCI-Express für das Scale-Up (die Verbindung der KI-Beschleuniger innerhalb des Racks) und von Ethernet für das Scale-Out (die Verbindung mehrerer Racks miteinander). Die Racks sollen eine Leistungsaufnahme von 160 kW aufweisen, was im Rahmen dessen liegt, was auch die High-End-Racks von AMD und NVIDIA abverlangen.
Für die AI250-Hardware sieht Qualcomm die Near Memory Computing (NMC) als entscheidenden Faktor. Damit soll die effektive Speicherbandbreite um den Faktor zehn angehoben werden können und der Datenaustausch zwischen den Recheneinheiten und dem Speicher wird deutlich effizienter.
Viele technische Details stehen aber noch aus. Vermutlich wird Qualcomm seine Racks neben den PCI-Express-Karten mit AI200-Hardware auch mit den hauseigenen Serverprozessoren ausstatten, zu denen es aber ebenfalls bisher kaum Informationen gibt. Für 2026 hat Qualcomm also viel auf dem Zettel.