> > > > ISC19: Intel sieht HPC-Markt im Wandel – neuer HPL-AI-Benchmark für mehr Klarheit

ISC19: Intel sieht HPC-Markt im Wandel – neuer HPL-AI-Benchmark für mehr Klarheit

Veröffentlicht am: von

intelRegelmäßig zur Supercomputing im November und zur International Supercomputing Conference im Juni wird eine neue Liste der Top500-Supercomputer vorgestellt. Dies ist auch am gestrigen Tag, dem ersten der ISC19 in Frankfurt geschehen. In Gesprächen mit einigen Herstellern ist schnell zu spüren, dass die Top500-Liste zunehmend in den Hintergrund des Interesses rückt und dies hat gleich mehrere Gründe. Zudem gibt es einen Wandel in der Auslegung vieler Systeme, was natürlich Auswirkungen auf die Hard- und Softwareanbieter hat.

Unter anderem haben wir mit Patricia A. Damkroger, Vice President der Data Center Group bei Intel, gesprochen. Damkroger zufolge müssen die HPC-Systeme heute deutlich flexibler als zuvor sein. Dies hängt unter anderem damit zusammen, dass es nicht mehr nur die eine wichtige Anwendung für solche Supercomputer gibt. Waren früher staatliche Institutionen die Hauptauftraggeber und beispielsweise die Simulation von Atomexplosionen der Hauptanwendungsbereich, hat sich dies stark gewandelt. Inzwischen sind etwa 50 % aller Supercomputer privat finanziert, bzw. werden von privaten Unternehmen in Auftrag gegeben und auch von diesen betrieben.

Zwar werden die schnellsten Rechner noch immer von staatlichen Organisationen betrieben oder zumindest unterstützt, das Auftauchen von Supercomputern an der Grenze zu den Top 10 zeigt aber sehr deutlich, dass ein Wandel im Gange ist. So ist der Pangea III Supercomputer von Total mit 19,8 PFLOPS bereits auf Platz 11 eingestiegen. Der Hauptanwendungsbereich ist die seismische Bildgebung und der Pangea III ist derzeit das weltweit größte industrielle HPC-System.

Die Top500-Liste bildet aber längst nicht mehr die Realität im Supercomputing-Segment ab. Amazon, Microsoft, NVIDIA, Apple, Beidu, Tencent und viele Unternehmen betreiben längst riesige Serverfarmen, die hinsichtlich ihrer Leistung deutlich schneller sind, als das, was öffentlich an Systemen geführt wird. Amazon hat das EC2 C5 Instance Cluster us-east-1a in die Top500 aufnehmen lassen. Bestückt mit 2.304 Xeon Platinum 8124M mit jeweils 18 Kernen erreicht die Amazon-Cloud eine Leistung von 1,93 PFLOPS und landet damit auf Platz 136.

Private Unternehmen haben häufig gar kein Interesse, die Leistung ihrer Systeme derart öffentlich zu kommunizieren. So müssen die Systeme heruntergefahren, bzw. der High Performance Linpack (HPL) mit allen Optimierungen ausgeführt werden. Läuft das System nicht, können die Unternehmen damit für diesen Zeitraum kein Geld verdienen.

Weg von HPL, hin zu HPL-AI

Doch es gibt noch weitere Punkte, die für eine differenziertere Betrachtung der Leistung solcher Systeme sprechen. So führt die Top500-Liste die Systeme nach ihrer Leistung im High Performance Linpack (HPL) auf. Dabei handelt es sich um Gleitkomma-Berechnungen mit einer Genauigkeit von 64 Bit (FP64). Doch wir sind längst an einem Punkt angekommen, an dem immer weniger Anwendungen FP64-Leistung in Anspruch nehmen.

Und somit spricht sich Intel dafür aus, hier eventuell eine weitere Methode zur Beurteilung der Leistung in Betracht zu ziehen. Auch Intel selbst hat natürlich ein Interesse daran, denn die eigene Hardware wird immer stärker auf die Beschleunigung von INT8- (Stichwort DL-Boost oder VNNI) oder BFloat16-Berechnungen ausgelegt.

NVIDIA spricht sich ebenfalls offen für eine neue, bzw. weitere Methodik aus. Diese wird derzeit als HPL-AI bezeichnet, Details dazu sind jedoch nicht bekannt. Man arbeitet offenbar bereits daran, erste Daten zu gewinnen. So soll der Summit des Oak Ridge National Laboratory als aktuell schnellster Supercomputer neben einer HPL-Leistung von 148,6 PFLOPS eine HPL-AI-Leistung von 445 PFLOPS erreichen – in diesen Anwendungen also um den Faktor drei schneller sein.

Bereits Ende 2018 wurde dazu ein Papier veröffentlicht, welches die Ansätze von HPL-AI beschreibt. Anstatt von FP64-Berechnungen rücken hier FP16-Berechnungen in den Fokus. Mit INT8 und INT16 sowie BFloat16 gibt es aber auch noch Integer- und spezielle Floating-Point-Datenbasen, die ebenfalls immer öfter zum Einsatz kommen. Man wird hier also noch etwas differenzierter werden müssen, um dem Thema gerecht zu werden.