> > > > GTC 2010: Mit Jen-Hsun Huang im Gespräch - Erklärungsversuch für Fermi-Fehlstart

GTC 2010: Mit Jen-Hsun Huang im Gespräch - Erklärungsversuch für Fermi-Fehlstart

Veröffentlicht am: von

NVIDIA_GTCHeute hatten wir die Gelegenheit in einer kleinen Gruppe ein Gespräch mit NVIDIAs CEO Jen-Hsun Huang zu führen. Dabei sollte natürlich das Thema GPGPU eine wichtige Rolle spielen, befinden wir uns doch auf der GTC. Doch bevor wir näher darauf eingehen wollen, versuchte Jen-Hsun Huang auch erstmals die Verspätungen und Probleme rund um den Fermi-Launch zu erklären. Um die Problematik zu verstehen, muss die Architektur erst einmal bekannt sein. NVIDIA verwendete sogenannte SMs (Streaming-Multiprozessoren), die über einen Interconnect untereinander und mit dem Speicher kommunizieren. Die Verbindungen zwischen den SMs und dem Speicher werden über ein "Fabric", ein Gewebe aus feinen Drähten (Wires), hergestellt. Da diese Verbindungen mit extrem hohen Taktraten arbeiten müssen, kommt es aufgrund der räumlichen Nähe der einzelnen Verbindungen zu elektromagnetischen Interferenzen.

Jen-Hsun_1_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Moderne Chips und auch CPUs und GPUs werden in Software entwickelt und simuliert. Diese Tools können aber nicht alle physikalischen Gegebenheiten abdecken und so entstand eine enorme Diskrepanz zwischen den aus den Tools bekannten Werten und der Realität. Als dann der erste Fermi-Chip die Farbik verließ, funktionierten die SMs einzeln betrachtet ohne größere Probleme. Doch sie konnten weder untereinander noch mit dem Speicher kommunizieren. Maßgeblich aus diesen Gründen benötigte NVIDIA eine Entwicklung bis zum A3-Stepping. Warum dieses Problem überhaupt entstehen konnte, ist eine fehlende Kommunikation zwischen den zwei verantwortlichen Entwicklergruppen. NVIDIA will aus diesen Fehlern für Kepler und Maxwell aber gelernt haben.

Jen-Hsun Huang ging auch noch einmal auf die gestern präsentierte Roadmap genauer ein. Die dort abgebildeten Performance-Werte für Dual-Precession für Kepler und Maxwell beruhen auf der Tatsache, dass sich die Leistung derzeit pro Jahr vervierfacht. Man solle darauf aber keine Rückschlüsse auf den Desktop-Markt ziehen, denn dieser setze anderen Gegebenheiten in der Architektur voraus. Zudem erwähnte er auch noch einmal, dass man sich für zukünftige Architekturen den Einsatz von Preemption und virtuellem Speicher sehr gut vorstellen könne. Allerdings müsse man sich den Markt zu gegebener Zeit noch einmal anschauen.

Auf die Frage wie man die derzeitige Entwicklung bei AMD und Intel bei NVIDIA sehe, antwortete NVIDIAs CEO in zwei unterschiedliche Richtungen. Zum einen wolle man die CPU nicht ersetzen, sondern nur sinnvoll ergänzen. CPUs seien auf absehbare Zeit noch der beste Weg um mehr oder weniger Single-Threaded-Anwendungen zu berechnen. Auf der anderen Seite sei man mit der GPU in einer sehr guten Position für Multi-Threaded-Anwendungen. Der Raum zwischen diesen Einsatzgebieten will man in den nun folgenden Jahren füllen. Aber auf einen Angriff auf AMD und Intel wollte Jen-Hsun Huang auch nicht ganz verzichten. Für ihn ist sowohl AMDs Fusion, wie auch Intels Sandy-Bridge eine schlechte Kombination aus guter GPU und schlechter CPU bzw. guter CPU und schlechter GPU. "Fusion is not very good", so Jen-Hsun.

Jen-Hsun_2_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Aber auch das für NVIDIA weit wichtigere Thema, das GPU-Computing sollte noch einige Zeit in Anspruch nehmen. Auf der GTC 2010 ist viel von CUDA-C zu hören. Zwar ist hin und wieder auch die Rede von OpenCL, doch CUDA-C scheint derzeit die größere Durchsetzung innerhalb der Entwicklergemeinde zu haben. Als einheitlichen Standard sieht aber auch Jen-Hsun Huang noch immer OpenCL an der Spitze. Gründe für die Dominanz von CUDA-C ist der direktere Zugang für die Entwickler, die bereits auf den Universitäten dieser Art der Programmierung näher gebracht werden, sowie die Tatsache, dass CUDA-C weiter entwickelt ist in technologischer Hinsicht.

Auf die Frage hin wo er die Zukunft des GPU-Computing sieht, antwortete Jen-Hsun Huang, dass er das High-Performance-Computing gerade erst am Anfang sehe. Entsprechende Hardware wird auch noch einige Zeit lokal bei den Entwicklern und auch den anwendenden Unternehmen bleiben. Cloud-Dienste, auch beim HPC werden noch einige Zeit auf sich warten lassen, da die Bandbreite hier noch eine entscheidende Rolle spielt. Diese sei nicht unendlich und das Datenaufkommen sei weiterhin im Wachstum.

Weitere Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (11)

#2
customavatars/avatar51109_1.gif
Registriert seit: 08.11.2006
Hannover
Moderator
BIOS Bernhard
Lutz
Beiträge: 33765
kein flame angriff, aber lustig finde ich den satz:
"Fusion is not very good"
^^
Dennoch interessant zu sehen wieso der Fermi eigentlich so ein "schweren" start hatte. Mir war das so noch nicht untergekommen
#3
customavatars/avatar121568_1.gif
Registriert seit: 18.10.2009
Braunschweig
Anlauf Alter, Anlauf!
Beiträge: 4888
Zitat Reaver1988;15368665
kein flame angriff, aber lustig finde ich den satz:
"Fusion is not very good"
^^
...

Jaja, die Erleuchtungen dieses Mannes, ich weiß noch wie er erst noch gesagt hatte das er ja ganz genau wisse wo das Problem bei ATi/AMD liegt und er dann damit aber richtig auf die :fresse: geflogen ist....
#4
customavatars/avatar51109_1.gif
Registriert seit: 08.11.2006
Hannover
Moderator
BIOS Bernhard
Lutz
Beiträge: 33765
ich denke mal er hat noch mehr gesagt, aber nur dieser eine satz klingt halt arg naiv, da nicht begründet und einfach so in den Raum gestellt. Bzw schon fast trotzig, dass nvidia keine cpu/gpu hat xX
#5
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33151
Der Part mit guter GPU und schlechter CPU ist aber sehr Interessant aus seinem Mund...
Einerseits schreibt man der Konkurenz gute Arbeit zu in Sachen GPU und andererseits zieht man über eine schlechte CPU her, wo man doch selbst nix besseres hat ;)
#6
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat
Die dort abgebildeten Performance-Werte für Dual-Precession für Kepler und Maxwell beruhen auf der Tatsache, dass sich die Leistung derzeit [COLOR="Red"]pro Jahr[/COLOR] vervierfacht. Man solle darauf aber keine Rückschlüsse auf den Desktop-Markt ziehen, denn dieser setze anderen Gegebenheiten in der Architektur voraus


Hab ich die letzten Jahre was verpasst,mir ist nicht so das Fermi der G200 Architektur um das 4fache davonrennt

Da können meines Erachtens auch die "optimierten" DP Werte nicht mit einspielen,denn weitere solche extremen Sprünge wird es bei der doppelten Genauigkeit so schnell auch nicht wieder geben,denn diese 1D Shaderarchitektur ist nun ja konsequent auf GPGPU ausgelegt worden,und das Rad kann man nicht zweimal erfinden.


Und was er da über den Desktop Markt sagt,könnte bedeuten das in Zukunft??? Highendgamer/Workstation doch getrennte Wege gehen.

Denn die anderen Gegebenheiten waren bei Fermi zwischen GTX und Tesla mal abgesehen von ECC Speicher und geringeren Taktraten doch ebenfalls nicht existent

Leider ists nicht konkret genug von Huang und nur Vermutung
#7
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33151
Zitat scully1234;15373336
Hab ich die letzten Jahre was verpasst,mir ist nicht so das Fermi der G200 Architektur um das 4fache davonrennt


rein auf DP bezogen sogar mehr als das vierfache zwischen Fermi Tesla in der größten Ausbaustufe (pro Karte/pro GPU) und der G200 Tesla (pro Karte/pro GPU)
#8
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;15373674
rein auf DP bezogen sogar mehr als das vierfache zwischen Fermi Tesla in der größten Ausbaustufe (pro Karte/pro GPU) und der G200 Tesla (pro Karte/pro GPU)


Sicher nur ist das eine "Einmalaktion" gewesen;)


weitere Optimierungen werden sicherlich nicht mehr in solchen agressiven Leistungssprüngen enden wie es bei der ersten konsequent auf GPGPU getrimmten Fermi der Fall war

Was Huang allerdings im Hinterstübchen neues plant und möglicherweiße??? seine jetzt getätigten Aussagen darauf auslegt wissen wir ja leider nicht
#9
Registriert seit: 11.02.2008

Admiral
Beiträge: 10258
Zitat
Für ihn ist sowohl AMDs Fusion, wie auch Intels Sandy-Bridge eine schlechte Kombination aus guter GPU und schlechter CPU bzw. guter CPU und schlechter GPU. "Fusion is not very good", so Jen-Hsun.
nein sind Sie nicht, durch den Fusion Chip hat man auch gleich eine GPU abgesetzt, der Marktanteil steigt mit jeder verkauften CPU die eine GPU beeinhaltet, Nvidias Marktanteil geht in Zukunft runter weil man niemals alternativen im x86 Fusion Markt anbieten kann, ich sehe hier AMD & Intel ganz klar im Vorteil :wink:
#10
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33151
Zitat Duplex;15373764
nein sind Sie nicht, durch den Fusion Chip hat man auch gleich eine GPU abgesetzt, der Marktanteil steigt mit jeder verkauften CPU die eine GPU beeinhaltet, Nvidias Marktanteil geht in Zukunft runter weil man niemals alternativen im x86 Fusion Markt anbieten kann, ich sehe hier AMD & Intel ganz klar im Vorteil :wink:


Und was hat das jetzt mit dem Thema zu tun?

Mal ganz davon ab, Marktanteil ist nicht alles, die Sache muss auch Gewinne bringen und ganz ehrlich, ich für meinen Teil brauch keine sonst wie schnelle GPU auf meiner CPU, es kommt sowieso ne dedizierte Grafikkarte hinzu.
Ebenso dürfte für den Großteil der Käuferschichten die schlussendliche Geschwindigkeit der GPU ziemlich schnurtz egal sein, weil sowieso nur der 2D Desktop läuft. Unterm Strich muss sich also noch zeigen, ob eine derartige Lösung nun wirklich brauchbar am Markt absetzbar ist, es wird viele geben, welche einfach nicht bereit sind, für sowieso uninteressante GPU Features draufzuzahlen. Also entweder überzeugt die CPU ansich durch massiv gute Leistung oder AMD muss den Preis versuchen sehr niedrig zu halten um die CPUs inkl. GPU attraktiv am Markt platzieren zu können.

Man muss sich nur mal anschauen, was am Markt so alles verkauft wird, im Firmenumfeld (und das ist denke ich sogar deutlich größer als der privat Otto Normalo Endkundenmarkt) spielt die GPU Leistung keine Rolle, da spielt niemand und da interessiert auch Videobeschleunigung und Co. nicht.
Und wenn dann wird ne dicke Karte zugekauft...

Es bleibt also abzuwarten wie das ganze sich entwickelt. Ich könnte mir hingegen vorstellen, das beispielsweise Hersteller A mit der schnelleren CPU und langsameren GPU bei gleichem Kaufpreis deutlich mehr Käufer findet als Hersteller B mit einer schnelleren GPU aber dafür langsameren CPU.
#11
customavatars/avatar121568_1.gif
Registriert seit: 18.10.2009
Braunschweig
Anlauf Alter, Anlauf!
Beiträge: 4888
Der Markt an HTPCs / Multimedia PCs im privaten Bereich wächst gewaltig und das Augenmerk auf GPU Berechnungen / Unterstützung ebenso.

Für einen Office PC ist eh wurscht ob nun AMD CPU + GPU oder Intel CPU + GPU. Da kann die Intel CPU noch so schnell sein, Word, Outlook, Powerpoint werden dadurch nicht schneller werden.

Aber Animationen durch Flash o.ä. Techniken, HD Videos etc ziehen auch in die Arbeitswelt ein, wo genau hier GPU Unterstützung eingeführt wird, genauso wie sogar Browser zukünftig auf die GPU setzen.
Dann ist es mir bei einem Arbeitstier lieber das er noch irgendwelche Multimedia Formate durch die GPU beschleunigt und diese sinnvoll nutzt und die CPU entlastet wird, die mit anderen Aufgaben beschäftigt ist.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Computex 2017: Die neuen Gehäuse und Kühler

Logo von IMAGES/STORIES/LOGOS-2017/BE_QUIET_COMPUTEX_03_806C3817DA6249FFA945BED79171A26A

Die Computex ist die wohl wichtigste Komponentenmesse - und entsprechend zahlreich waren dann auch in diesem Jahr wieder die Neuvorstellungen in den Bereichen PC-Gehäuse und Kühlung. Unser Vor-Ort-Team konnte unseren Lesern die meisten Neuheiten gleich in einer ganzen Reihe von Videos... [mehr]

be quiet! zeigt zur Computex zwei neue Netzteile, ein Gehäuse und zwei Kühler...

Logo von IMAGES/STORIES/2017/BEQUIET

Die Computex nutzt be quiet!, um in den unterschiedlichsten Kategorien neue Produkte auszustellen. Wir konnten uns zwei neue Netzteile, ein Gehäuse und zwei Kühler ansehen. Das Highlight ist sicherlich die neue Netzteilserie Straight Power 11. Die einzelnen Modelle decken das Leistungsspektrum... [mehr]

Cooler Master belebt Cosmos- und HAF-Serie und stellt weitere Neuheiten vor...

Logo von IMAGES/STORIES/2017/COOLERMASTER

Im Test zum Cosmos II 25th Anniversary Edition hofften wir noch darauf, dass Cooler Master die Cosmos-Serie weiter ausbaut. Und tatsächlich hatte der Hersteller zur Computex ein neues Modell. Und auch die beliebte HAF-Serie wird in gewisser Weise wiederbelebt. Doch das sind noch längst nicht... [mehr]

MSI: X299-Lineup, GTX 1080 Ti Lightning Z und GT75VR Titan vorgestellt (inkl....

Logo von IMAGES/STORIES/2017/MSI

Der MSI-Stand auf der Computex war ziemlich gut besucht, allerdings auch nicht ohne Grund. Denn MSI hat zur Computex jede Menge Hardware-Neuheiten mitgebracht und der Öffentlichkeit vorgestellt. So konnten wir uns einen ersten Eindruck auf das X299-Mainboard-Lineup, auf die neue GeForce GTX 1080... [mehr]

250 US-Dollar pro Ticket: Spielemesse E3 öffnet sich für alle

Logo von IMAGES/STORIES/LOGOS-2017/E3_LOGO

Die Electronic Entertainment Expo – kurz E3 – in Los Angeles ist eines der wichtigsten Ereignisse der Spielebranche. In den vergangenen Jahren aber hat die Leitmesse an Wichtigkeit verloren – immer mehr Publisher und Hersteller blieben ihr fern und stellten ihre Neuheiten abseits der... [mehr]

CES Asia 2017: Drohnen und VR sind nicht mehr angesagt

Logo von IMAGES/STORIES/2017/CES_ASIA

Im dritten Jahr ist die CES Asia weiter klar auf Wachstumskurs. Im Vergleich zum Vorjahr konnte die Ausstellungsfläche um etwa 20 % vergrößert werden, die Zahl der Aussteller wuchs ebenfalls. Zudem konnten namhafte Unternehmen für Keynotes gewonnen werden. Ein etwas bitterer Nachgeschmack... [mehr]