> > > > GTC 2010: Mit Jen-Hsun Huang im Gespräch - Erklärungsversuch für Fermi-Fehlstart

GTC 2010: Mit Jen-Hsun Huang im Gespräch - Erklärungsversuch für Fermi-Fehlstart

Veröffentlicht am: von

NVIDIA_GTCHeute hatten wir die Gelegenheit in einer kleinen Gruppe ein Gespräch mit NVIDIAs CEO Jen-Hsun Huang zu führen. Dabei sollte natürlich das Thema GPGPU eine wichtige Rolle spielen, befinden wir uns doch auf der GTC. Doch bevor wir näher darauf eingehen wollen, versuchte Jen-Hsun Huang auch erstmals die Verspätungen und Probleme rund um den Fermi-Launch zu erklären. Um die Problematik zu verstehen, muss die Architektur erst einmal bekannt sein. NVIDIA verwendete sogenannte SMs (Streaming-Multiprozessoren), die über einen Interconnect untereinander und mit dem Speicher kommunizieren. Die Verbindungen zwischen den SMs und dem Speicher werden über ein "Fabric", ein Gewebe aus feinen Drähten (Wires), hergestellt. Da diese Verbindungen mit extrem hohen Taktraten arbeiten müssen, kommt es aufgrund der räumlichen Nähe der einzelnen Verbindungen zu elektromagnetischen Interferenzen.

Jen-Hsun_1_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Moderne Chips und auch CPUs und GPUs werden in Software entwickelt und simuliert. Diese Tools können aber nicht alle physikalischen Gegebenheiten abdecken und so entstand eine enorme Diskrepanz zwischen den aus den Tools bekannten Werten und der Realität. Als dann der erste Fermi-Chip die Farbik verließ, funktionierten die SMs einzeln betrachtet ohne größere Probleme. Doch sie konnten weder untereinander noch mit dem Speicher kommunizieren. Maßgeblich aus diesen Gründen benötigte NVIDIA eine Entwicklung bis zum A3-Stepping. Warum dieses Problem überhaupt entstehen konnte, ist eine fehlende Kommunikation zwischen den zwei verantwortlichen Entwicklergruppen. NVIDIA will aus diesen Fehlern für Kepler und Maxwell aber gelernt haben.

Jen-Hsun Huang ging auch noch einmal auf die gestern präsentierte Roadmap genauer ein. Die dort abgebildeten Performance-Werte für Dual-Precession für Kepler und Maxwell beruhen auf der Tatsache, dass sich die Leistung derzeit pro Jahr vervierfacht. Man solle darauf aber keine Rückschlüsse auf den Desktop-Markt ziehen, denn dieser setze anderen Gegebenheiten in der Architektur voraus. Zudem erwähnte er auch noch einmal, dass man sich für zukünftige Architekturen den Einsatz von Preemption und virtuellem Speicher sehr gut vorstellen könne. Allerdings müsse man sich den Markt zu gegebener Zeit noch einmal anschauen.

Auf die Frage wie man die derzeitige Entwicklung bei AMD und Intel bei NVIDIA sehe, antwortete NVIDIAs CEO in zwei unterschiedliche Richtungen. Zum einen wolle man die CPU nicht ersetzen, sondern nur sinnvoll ergänzen. CPUs seien auf absehbare Zeit noch der beste Weg um mehr oder weniger Single-Threaded-Anwendungen zu berechnen. Auf der anderen Seite sei man mit der GPU in einer sehr guten Position für Multi-Threaded-Anwendungen. Der Raum zwischen diesen Einsatzgebieten will man in den nun folgenden Jahren füllen. Aber auf einen Angriff auf AMD und Intel wollte Jen-Hsun Huang auch nicht ganz verzichten. Für ihn ist sowohl AMDs Fusion, wie auch Intels Sandy-Bridge eine schlechte Kombination aus guter GPU und schlechter CPU bzw. guter CPU und schlechter GPU. "Fusion is not very good", so Jen-Hsun.

Jen-Hsun_2_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Aber auch das für NVIDIA weit wichtigere Thema, das GPU-Computing sollte noch einige Zeit in Anspruch nehmen. Auf der GTC 2010 ist viel von CUDA-C zu hören. Zwar ist hin und wieder auch die Rede von OpenCL, doch CUDA-C scheint derzeit die größere Durchsetzung innerhalb der Entwicklergemeinde zu haben. Als einheitlichen Standard sieht aber auch Jen-Hsun Huang noch immer OpenCL an der Spitze. Gründe für die Dominanz von CUDA-C ist der direktere Zugang für die Entwickler, die bereits auf den Universitäten dieser Art der Programmierung näher gebracht werden, sowie die Tatsache, dass CUDA-C weiter entwickelt ist in technologischer Hinsicht.

Auf die Frage hin wo er die Zukunft des GPU-Computing sieht, antwortete Jen-Hsun Huang, dass er das High-Performance-Computing gerade erst am Anfang sehe. Entsprechende Hardware wird auch noch einige Zeit lokal bei den Entwicklern und auch den anwendenden Unternehmen bleiben. Cloud-Dienste, auch beim HPC werden noch einige Zeit auf sich warten lassen, da die Bandbreite hier noch eine entscheidende Rolle spielt. Diese sei nicht unendlich und das Datenaufkommen sei weiterhin im Wachstum.

Weitere Links: