> > > > GTC17: NVIDIA sieht sich mit Moores Law am Ende zweier Wege angekommen

GTC17: NVIDIA sieht sich mit Moores Law am Ende zweier Wege angekommen

Veröffentlicht am: von

nvidia-gtc

Das Highlight der heutigen Keynote der GPU Technology Conference war sicherlich die Vorstellung der Volta-Architektur. Der Weg bis zur Volta-Architektur ist aber eine Geschichte, die NVIDIA ebenfalls erzählen möchte und dabei nimmt das Unternehmen auch Bezug auf Moores Law. Zuletzt sprach auch Intel über die entsprechenden Herausforderungen.

Laut NVIDIA hat Morres Law nur noch durch die Parallelisierung in den vergangenen Jahren bestand. Die Instruktion Pipelines wurden immer größer, um die Single-Threaded-Anwendungen zu beschleunigen. Weitere Optimierungen wie Caches-Hirarchien und Instruktionen wurden ebenfalls immer komplexer, um diese Bedürfnisse zu erfüllen.

Neue Fertigungstechnologien machen gleichzeitig immer kleinere Strukturen möglich, die Anzahl der Transistoren stieg immer weiter an. Bei der GV100-GPU werden 21 Milliarden Transistoren auf einer Fläche von 812 mm² verwendet. Doch dieser Trend wurde in den vergangenen Jahren spürbar verlangsamt. Wuchs die Single-Threaded-Leistung zwischen 1990 bis 2005 noch um fast 50 % pro Generation und Jahr an, reduzierte sich diese Steigerung auf 10 % und weniger.

NVIDIA sieht das Ende zweier Straßen gekommen – „We have reached the end of two roads“.GPUs hingegen konnten ab 2005 ein Leistungswachstum von 50 % pro Generation und Jahr halten. Bis 2025 geht NVIDIA davon aus, dass sich dies so fortsetzen lässt.

Vor zehn Jahren legte NVIDIA daher große Teile der finanziellen Ressourcen und Manpower des Unternehmens neu aus. Man orientierte sich in eine Richtung, die heute als gemeinsame Hardware-Plattform im GeForce-Segment und professionellen Bereich die Früchte erntet. Basis dafür ist aber auch die Software. Fast 7.000 Mitarbeiter hat NVIDIA alleine im Software-Bereich. Dem stehen nur 2.000 Ingenieure im Hardware-Bereich gegenüber.

Deep Learning bleibt das Hauptthema

Über Deep-Learning-Netzwerke spricht NVIDIA nun bereits seit einiger Zeit und inzwischen hat sich diese Technik auch in weite Bereiche des Alltags ausgebreitet. In verschiedenen Forschungsbereichen trainieren sich Deep-Learning-Netzwerk gegenseitig, fordern sich gegenseitig in bestimmten Aufgaben heraus und werden damit immer besser.

Deep-Learning für Ray Tracing soll das Rauschen beim Prozess des Ray Tracing schneller entfernen können. Die Berechnung von mehreren Tausend oder sogar Millionen Light Rays benötigt auch auf moderner Hardware seine Zeit. Die noch ausstehenden Bereiche der Berechnung werden durch ein Rauschen dargestellt. Da der Renderer aber nicht weiß, welche Objekte einer Szene am wichtigsten sind, berechnet er die Rays einfach in einer für ihn logischen Reihenfolge. Um die Wartezeit auf das fertige Bild zu reduzieren und das Rauschen schneller entfernen zu können, errechnen Deep-Learning-Algorithmen die wichtigen Bereiche des Bildes und berechnen diese schneller.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (10)

#1
Registriert seit: 19.06.2011

Matrose
Beiträge: 3
Auweia, da wird der grammar nazi in mir ja ganz nervös.

"Paralleliserung"

gleich zwei Fehler in einem Wort: "Kleinre"

"Wuchs die Single-Threaded-Leistung zwischen 1990 bis 2005 noch um fast 50 % pro Generation und Jahr an, reduzierten sich diese Steigerungen auf 10% und weniger." wäre hier richtig

"Die Berechnung von mehreren tausend" Tausend wird groß geschrieben.

Bis 2025 geht NVIDIA davon aus, dass sich dies so fortsetzen "ließe". klingt einfach besser

Hardware-Plattform Hardware-Bereich und Software-Bereich kann man auch zusammenschreiben.

#2
customavatars/avatar194341_1.gif
Registriert seit: 10.07.2013

Kapitän zur See
Beiträge: 3384
[video=youtube;-JvNAzj0iKk]https://www.youtube.com/watch?v=-JvNAzj0iKk[/video]
Hier hab die Keynote ja aufgenommen, kann sich wer nachträglich anschauen wer möchte.
#3
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
Europäische Union - Bairischer Sprachraum
Korvettenkapitän
Beiträge: 2181
Müssen eben die Chips größer werden oder neue Materialien genutzt werden, darüber liest man leider nur wenig - vielleicht zurecht.
#4
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 10964
Zitat lll;25536431
Müssen eben die Chips größer werden oder neue Materialien genutzt werden, darüber liest man leider nur wenig - vielleicht zurecht.

Alle Versuche mit anderen Materialien existieren bislang leider nur in laboren...
Problem ist, diese könnten nur mit Taktraten punkten (oder enorm niedrigeren Stromverbrauch) und leider hat es ja auch bei Silizium mehr als ein Jahrzehnt gedauert bis 4Ghz ab Werk möglich waren.

Bislang sind größere Chips und Parelisierung wohl die einzige Möglichkeit. Sagte ja auch NV. Die haben dabei noch Glück, denn Grafikkarten kann man sehr gut parallel aufbauen ohne dass sich die Softwareentwickler deutlich umstellen müssen.
Das ist bei CPUs ja leider nicht so.
#5
Registriert seit: 12.06.2011

Hauptgefreiter
Beiträge: 213
Was da auch sehr Interessant war und leider nicht im Artikel steht ist das 33 Tesla´s mit 150 Watt Pro Karte 1000 aktuelle Intel Server Ersetzten können. Das würde die Platz und Stroms Versorgun´s Problematik erst mal wieder nach hinten stellen. Das wird Intel aber nicht sehr Begeistern^^
#6
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 4607
Ein 800mm²- Chip ist aktuell nur mit Taktraten zu kühlen, die im Profibereich vorkommen - um vor allem die Stabilität zu sichern. Das kannst Du im normalen PC mal voll vergessen, da wird dann das Verhältnis zwischen dem Aufwand und der Leistung viel zu schlecht - das Teil wird unbezahlbar und ist in vielen Spielen dann schlechter als ein kleinerer Chip.

Und erst vor ein paar Tagen habe ich es ja geschrieben, nach dem Release von Vega sehe ich erst mal ein wenig schwarz. 8 Kerne mit 16 Threads und ca. 4.000 Shadern (bei beiden Herstellern) werden wohl irgendwann ausgelastet werden. Aber noch mehr Shader nahezu 1:1 auszulasten, wird ewig dauern. Damit meine ich Spiele, nicht Computing - wo auch mehr Shader noch problemlos Sinn haben.

Es ist aber schon erstaunlich, dass Nvidia so offen zugibt, dass es spätestens nach der 7nm- Fertigung ein Problem gibt. Deshalb ist es besonders wichtig, dass Nvidia sein Geschäftsfeld ausgeweitet hat.

Wie auch schon erwähnt, sehe ich dann vor allem die Zukunft in der Verkleinerung dieser Leistung und geringerem Stromverbrauch. Mit den kommenden Fertigungsverfahren wird das für AMD wahrscheinlich die Hauptrolle spielen, sie haben die besten Voraussetzungen, mit HBM mit kleineren Fertigungsverfahren immer stärkere APUs zu schaffen, die irgendwann die Grafikkarte im normalen Heimrechner ersetzen. Deshalb sehe ich langfristig keine Konkurrenz zwischen Nvidia und AMD. Nvidia hat die ARM-Schiene eingeschlagen und wird sich auf mobile Geräte konzentrieren. Natürlich muss sich dann AMD auch irgendwann neue Geschäftszweige erschließen, könnte dann natürlich auch in ARM-Architektur weiter einsteigen und so doch wieder zu einem Konkurrent für Nvidia werden.
#7
customavatars/avatar128299_1.gif
Registriert seit: 29.01.2010

Fregattenkapitän
Beiträge: 2747
Zitat oooverclocker;25536892
Nvidia hat die ARM-Schiene eingeschlagen und wird sich auf mobile Geräte konzentrieren. Natürlich muss sich dann AMD auch irgendwann neue Geschäftszweige erschließen, könnte dann natürlich auch in ARM-Architektur weiter einsteigen und so doch wieder zu einem Konkurrent für Nvidia werden.


Gibt es den aktuelle Tegras noch für Mobil Geräte? Der Parker ist ja mit 30 Watt "etwas" überdimensioniert für Handys und Tablets.
#8
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 4607
Damit meine ich etwas größere moblie Geräte, wie Autos ;). Wobei da fast schon die Grenze verschmilzt, sodass man auch kleinere Befehlssätze(amd64) mit mehr Leistung einsetzen könnte. Aber auch in größeren Drohnen wäre zum Beispiel die ARM-Architektur denkbar, wenn es um automatisierte Flugbahnberechnung geht etc.
#9
Registriert seit: 30.04.2008
Civitas Tautensium, Agri Decumates
Oberbootsmann
Beiträge: 796
Zitat HWL News Bot;25536002
Laut NVIDIA hat Morres Law nur noch durch die Parallelisierung in den vergangenen Jahren bestand. Die Instruktion Pipelines wurden immer größer, um die Single-Threaded-Anwendungen zu beschleunigen. Weitere Optimierungen wie Caches-Hirarchien und Instruktionen wurden ebenfalls immer komplexer, um diese Bedürfnisse zu erfüllen.


Seit wann hat Moore's Law (keine Ahnung, wer Morres ist) was mit Parallelisierung, Instruktion Pipelines oder Cache-Hirarchien zu tun?
Da geht es um die Verdopplung der Anzahl der Transitoren pro Fläche in einer gewissen Zeiteinheit und um nichts anderes!

Zitat oooverclocker;25537122
Damit meine ich etwas größere moblie Geräte, wie Autos


:lol:
#10
Registriert seit: 10.03.2005

Leutnant zur See
Beiträge: 1107
is ja nix neues. auch sieht man ja an der Größe der Chips dass es iwann auch sli/cf sein wird um noch weiter in die breite zu gehen. mit dx12 ist da der grundstein gelegt, das sollte man mal wieder in angriff nehmen, wenn mikroruckler bekämpft sind und das ganze halbwegs skaliert finde ich multi gpu immernoch sinnvoll, vor allem kann man die abwärme räumlich verteilen. viel mehr als 3-400W sind aus einem chip einfach nicht vernünftig rauszukühlen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

US Navy wegen Software-Piraterie auf fast 600 Millionen US-Dollar...

Logo von IMAGES/STORIES/LOGOS-2016/US-NAVY

Die US Navy ist von dem deutschen 3D-Softwareentwickler Bitmanagement wegen Software-Piraterie verklagt worden. Wie The Register berichtet, hat Bitmanagement bei dem US Court of Federal Claims Klage eingereicht, und fordert nicht weniger als 596.308.103 US Dollar Schadensersatz. Laut Klageschrift... [mehr]

AMD-Grafikkarten-Hersteller VTX3D verschwindet vom Markt

Logo von VTX3D

Vor allem für AMD-Partner sind schwere Zeiten angebrochen: Während der gesamte PC-Markt mit einer weltweit schwächelnden Nachfrage zu kämpfen hat, haben es die ersten Polaris-Grafikkarten gegen NVIDIAs Pascal-Modelle nicht leicht. Zwar kann die Radeon RX 480 leistungsmäßig durchaus mit der... [mehr]

Amazon Prime Day: Um Mitternacht geht es los

Logo von IMAGES/STORIES/LOGOS-2016/AMAZON_PRIMEDAY

Nach dem großen Erfolg im letzten Jahr legt Amazon den Prime Day auch in Deutschland wieder neu auf. Ab Mitternacht soll es alle fünf Minuten neue Deals geben, ab 6:00 Uhr des morgigen Dienstags sollen stündlich 100 weitere Blitzangebote hinzukommen. Zugriff auf die Angebote aber werden nur... [mehr]

Amazon Prime Day: Interessante Technik-Deals im Überblick (Anzeige)

Logo von IMAGES/STORIES/LOGOS-2016/AMAZON_PRIMEDAY

Wie angekündigt hat der Online-Versandhändler Amazon um Mitternacht den zweiten deutschen Prime Day gestartet. Seitdem hagelt es bei Amazon ein Angebot nach dem anderen. Seit Mitternacht gibt es alle fünf Minuten neue Deals, seit 6:00 Uhr kommen stündlich 100 weitere Blitzangebote hinzu.... [mehr]

AMD mit guten Quartalszahlen – Vega und Naples für Q2 bestätigt (Update)

Logo von IMAGES/STORIES/2017/AMD

AMD hat die ersten Quartalszahlen veröffentlicht, die nach dem Verkaufsstart der RYZEN-Prozessoren zusammengestellt wurden. Darin zeichnet das Unternehmen einen deutlichen Anstieg beim Umsatz aus, muss bisher aber noch auf Gewinne verzichten. Weitaus wichtiger aber ist, dass AMD in seinen... [mehr]

Amazon Drive mit unbegrenztem Speicherplatz kostet 70 Euro im Jahr

Logo von IMAGES/STORIES/LOGOS-2015/AMAZON

Amazon bietet ab sofort seinen Speicherdienst Drive mit unbegrenztem Speicherplatz für 70 Euro im Jahr an. Dabei kann der Kunde unbegrenzt viele Daten auf den Cloud-Service hochladen und muss auf keine Begrenzung achten. Das Angebot kann laut Amazon für drei Monate kostenlos getestet werden –... [mehr]