> > > > GTC17: NVIDIA sieht sich mit Moores Law am Ende zweier Wege angekommen

GTC17: NVIDIA sieht sich mit Moores Law am Ende zweier Wege angekommen

Veröffentlicht am: von

nvidia-gtc

Das Highlight der heutigen Keynote der GPU Technology Conference war sicherlich die Vorstellung der Volta-Architektur. Der Weg bis zur Volta-Architektur ist aber eine Geschichte, die NVIDIA ebenfalls erzählen möchte und dabei nimmt das Unternehmen auch Bezug auf Moores Law. Zuletzt sprach auch Intel über die entsprechenden Herausforderungen.

Laut NVIDIA hat Morres Law nur noch durch die Parallelisierung in den vergangenen Jahren bestand. Die Instruktion Pipelines wurden immer größer, um die Single-Threaded-Anwendungen zu beschleunigen. Weitere Optimierungen wie Caches-Hirarchien und Instruktionen wurden ebenfalls immer komplexer, um diese Bedürfnisse zu erfüllen.

Neue Fertigungstechnologien machen gleichzeitig immer kleinere Strukturen möglich, die Anzahl der Transistoren stieg immer weiter an. Bei der GV100-GPU werden 21 Milliarden Transistoren auf einer Fläche von 812 mm² verwendet. Doch dieser Trend wurde in den vergangenen Jahren spürbar verlangsamt. Wuchs die Single-Threaded-Leistung zwischen 1990 bis 2005 noch um fast 50 % pro Generation und Jahr an, reduzierte sich diese Steigerung auf 10 % und weniger.

NVIDIA sieht das Ende zweier Straßen gekommen – „We have reached the end of two roads“.GPUs hingegen konnten ab 2005 ein Leistungswachstum von 50 % pro Generation und Jahr halten. Bis 2025 geht NVIDIA davon aus, dass sich dies so fortsetzen lässt.

Vor zehn Jahren legte NVIDIA daher große Teile der finanziellen Ressourcen und Manpower des Unternehmens neu aus. Man orientierte sich in eine Richtung, die heute als gemeinsame Hardware-Plattform im GeForce-Segment und professionellen Bereich die Früchte erntet. Basis dafür ist aber auch die Software. Fast 7.000 Mitarbeiter hat NVIDIA alleine im Software-Bereich. Dem stehen nur 2.000 Ingenieure im Hardware-Bereich gegenüber.

Deep Learning bleibt das Hauptthema

Über Deep-Learning-Netzwerke spricht NVIDIA nun bereits seit einiger Zeit und inzwischen hat sich diese Technik auch in weite Bereiche des Alltags ausgebreitet. In verschiedenen Forschungsbereichen trainieren sich Deep-Learning-Netzwerk gegenseitig, fordern sich gegenseitig in bestimmten Aufgaben heraus und werden damit immer besser.

Deep-Learning für Ray Tracing soll das Rauschen beim Prozess des Ray Tracing schneller entfernen können. Die Berechnung von mehreren Tausend oder sogar Millionen Light Rays benötigt auch auf moderner Hardware seine Zeit. Die noch ausstehenden Bereiche der Berechnung werden durch ein Rauschen dargestellt. Da der Renderer aber nicht weiß, welche Objekte einer Szene am wichtigsten sind, berechnet er die Rays einfach in einer für ihn logischen Reihenfolge. Um die Wartezeit auf das fertige Bild zu reduzieren und das Rauschen schneller entfernen zu können, errechnen Deep-Learning-Algorithmen die wichtigen Bereiche des Bildes und berechnen diese schneller.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (10)

#1
Registriert seit: 19.06.2011

Matrose
Beiträge: 3
Auweia, da wird der grammar nazi in mir ja ganz nervös.

"Paralleliserung"

gleich zwei Fehler in einem Wort: "Kleinre"

"Wuchs die Single-Threaded-Leistung zwischen 1990 bis 2005 noch um fast 50 % pro Generation und Jahr an, reduzierten sich diese Steigerungen auf 10% und weniger." wäre hier richtig

"Die Berechnung von mehreren tausend" Tausend wird groß geschrieben.

Bis 2025 geht NVIDIA davon aus, dass sich dies so fortsetzen "ließe". klingt einfach besser

Hardware-Plattform Hardware-Bereich und Software-Bereich kann man auch zusammenschreiben.

#2
customavatars/avatar194341_1.gif
Registriert seit: 10.07.2013

Kapitän zur See
Beiträge: 3688
[video=youtube;-JvNAzj0iKk]https://www.youtube.com/watch?v=-JvNAzj0iKk[/video]
Hier hab die Keynote ja aufgenommen, kann sich wer nachträglich anschauen wer möchte.
#3
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€uropäische Union - Bairischer Sprachraum
Fregattenkapitän
Beiträge: 2611
Müssen eben die Chips größer werden oder neue Materialien genutzt werden, darüber liest man leider nur wenig - vielleicht zurecht.
#4
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11743
Zitat lll;25536431
Müssen eben die Chips größer werden oder neue Materialien genutzt werden, darüber liest man leider nur wenig - vielleicht zurecht.

Alle Versuche mit anderen Materialien existieren bislang leider nur in laboren...
Problem ist, diese könnten nur mit Taktraten punkten (oder enorm niedrigeren Stromverbrauch) und leider hat es ja auch bei Silizium mehr als ein Jahrzehnt gedauert bis 4Ghz ab Werk möglich waren.

Bislang sind größere Chips und Parelisierung wohl die einzige Möglichkeit. Sagte ja auch NV. Die haben dabei noch Glück, denn Grafikkarten kann man sehr gut parallel aufbauen ohne dass sich die Softwareentwickler deutlich umstellen müssen.
Das ist bei CPUs ja leider nicht so.
#5
Registriert seit: 12.06.2011

Hauptgefreiter
Beiträge: 247
Was da auch sehr Interessant war und leider nicht im Artikel steht ist das 33 Tesla´s mit 150 Watt Pro Karte 1000 aktuelle Intel Server Ersetzten können. Das würde die Platz und Stroms Versorgun´s Problematik erst mal wieder nach hinten stellen. Das wird Intel aber nicht sehr Begeistern^^
#6
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5273
Ein 800mm²- Chip ist aktuell nur mit Taktraten zu kühlen, die im Profibereich vorkommen - um vor allem die Stabilität zu sichern. Das kannst Du im normalen PC mal voll vergessen, da wird dann das Verhältnis zwischen dem Aufwand und der Leistung viel zu schlecht - das Teil wird unbezahlbar und ist in vielen Spielen dann schlechter als ein kleinerer Chip.

Und erst vor ein paar Tagen habe ich es ja geschrieben, nach dem Release von Vega sehe ich erst mal ein wenig schwarz. 8 Kerne mit 16 Threads und ca. 4.000 Shadern (bei beiden Herstellern) werden wohl irgendwann ausgelastet werden. Aber noch mehr Shader nahezu 1:1 auszulasten, wird ewig dauern. Damit meine ich Spiele, nicht Computing - wo auch mehr Shader noch problemlos Sinn haben.

Es ist aber schon erstaunlich, dass Nvidia so offen zugibt, dass es spätestens nach der 7nm- Fertigung ein Problem gibt. Deshalb ist es besonders wichtig, dass Nvidia sein Geschäftsfeld ausgeweitet hat.

Wie auch schon erwähnt, sehe ich dann vor allem die Zukunft in der Verkleinerung dieser Leistung und geringerem Stromverbrauch. Mit den kommenden Fertigungsverfahren wird das für AMD wahrscheinlich die Hauptrolle spielen, sie haben die besten Voraussetzungen, mit HBM mit kleineren Fertigungsverfahren immer stärkere APUs zu schaffen, die irgendwann die Grafikkarte im normalen Heimrechner ersetzen. Deshalb sehe ich langfristig keine Konkurrenz zwischen Nvidia und AMD. Nvidia hat die ARM-Schiene eingeschlagen und wird sich auf mobile Geräte konzentrieren. Natürlich muss sich dann AMD auch irgendwann neue Geschäftszweige erschließen, könnte dann natürlich auch in ARM-Architektur weiter einsteigen und so doch wieder zu einem Konkurrent für Nvidia werden.
#7
customavatars/avatar128299_1.gif
Registriert seit: 29.01.2010
CH
Fregattenkapitän
Beiträge: 2865
Zitat oooverclocker;25536892
Nvidia hat die ARM-Schiene eingeschlagen und wird sich auf mobile Geräte konzentrieren. Natürlich muss sich dann AMD auch irgendwann neue Geschäftszweige erschließen, könnte dann natürlich auch in ARM-Architektur weiter einsteigen und so doch wieder zu einem Konkurrent für Nvidia werden.


Gibt es den aktuelle Tegras noch für Mobil Geräte? Der Parker ist ja mit 30 Watt "etwas" überdimensioniert für Handys und Tablets.
#8
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5273
Damit meine ich etwas größere moblie Geräte, wie Autos ;). Wobei da fast schon die Grenze verschmilzt, sodass man auch kleinere Befehlssätze(amd64) mit mehr Leistung einsetzen könnte. Aber auch in größeren Drohnen wäre zum Beispiel die ARM-Architektur denkbar, wenn es um automatisierte Flugbahnberechnung geht etc.
#9
Registriert seit: 30.04.2008
Civitas Tautensium, Agri Decumates
Oberbootsmann
Beiträge: 886
Zitat HWL News Bot;25536002
Laut NVIDIA hat Morres Law nur noch durch die Parallelisierung in den vergangenen Jahren bestand. Die Instruktion Pipelines wurden immer größer, um die Single-Threaded-Anwendungen zu beschleunigen. Weitere Optimierungen wie Caches-Hirarchien und Instruktionen wurden ebenfalls immer komplexer, um diese Bedürfnisse zu erfüllen.


Seit wann hat Moore's Law (keine Ahnung, wer Morres ist) was mit Parallelisierung, Instruktion Pipelines oder Cache-Hirarchien zu tun?
Da geht es um die Verdopplung der Anzahl der Transitoren pro Fläche in einer gewissen Zeiteinheit und um nichts anderes!

Zitat oooverclocker;25537122
Damit meine ich etwas größere moblie Geräte, wie Autos


:lol:
#10
Registriert seit: 10.03.2005

Leutnant zur See
Beiträge: 1271
is ja nix neues. auch sieht man ja an der Größe der Chips dass es iwann auch sli/cf sein wird um noch weiter in die breite zu gehen. mit dx12 ist da der grundstein gelegt, das sollte man mal wieder in angriff nehmen, wenn mikroruckler bekämpft sind und das ganze halbwegs skaliert finde ich multi gpu immernoch sinnvoll, vor allem kann man die abwärme räumlich verteilen. viel mehr als 3-400W sind aus einem chip einfach nicht vernünftig rauszukühlen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Lohnt das Mining für den Privatanwender noch?

Logo von IMAGES/STORIES/2017/ETHEREUM

Bestimmte Grafikkartenmodelle sind schlecht verfügbar und einige Hersteller präsentieren sogar spezielle Mining-Modelle – bestes Anzeichen dafür, dass eine neue Mining-Welle anrollt. Ethereum basiert wie Bitcoins auf einer Blockchain-Technologie. Ethereum ist aber keine reine Kryptowährung,... [mehr]

Deutschen Bahn trainiert Mitarbeiter in der virtuellen Realität

Logo von IMAGES/STORIES/2017/DEUTSCHE_BAHN

Nicht nur das autonome Fahren auf der Straße spielt auf der GPU Technology Conference in München eine Rolle, auch die Deutsche Bahn hielt einen Vortrag, der sich mit dem Training von Mitarbeitern in einer virtuellen Umgebung befasste. Autonome Züge spielten jedenfalls keine Rolle, auch wenn in... [mehr]

Bitcoin droht der Hard Fork – Ethereum weiter auf niedrigem Kurs

Logo von IMAGES/STORIES/2017/ETHEREUM

Bereits in der vergangenen Woche deuteten sich einige Änderungen bei den Kryptowährungen an. Nach einem wochenlangen Hoch brach der Kurs des Ether auf weit unter 200 US-Dollar ein. Die Gründe dafür sind nicht immer ersichtlich. Oftmals gibt es auch Wechselwirkungen zwischen den einzelnen... [mehr]

AMD mit guten Quartalszahlen – Vega und Naples für Q2 bestätigt (Update)

Logo von IMAGES/STORIES/2017/AMD

AMD hat die ersten Quartalszahlen veröffentlicht, die nach dem Verkaufsstart der RYZEN-Prozessoren zusammengestellt wurden. Darin zeichnet das Unternehmen einen deutlichen Anstieg beim Umsatz aus, muss bisher aber noch auf Gewinne verzichten. Weitaus wichtiger aber ist, dass AMD in seinen... [mehr]

Apple Pay weiterhin nicht in Deutschland vorgesehen

Logo von IMAGES/STORIES/2017/APPLE_PAY

Apple Pay ist das drahtlose Bezahlsystem des iPhone-, iPad- und Mac-Herstellers, welches am 20. Oktober 2014 startet, bisher aber noch immer nicht den Weg nach Deutschland gefunden hat. Inzwischen hat Apple für viele Nachbarländer Apple Pay bereits eingeführt, Deutschland aber ist nach wie vor... [mehr]

Epyc und Vega: AMD packt ein PFLOP pro Sekunde in ein Serverrack

Logo von IMAGES/STORIES/2017/AMD-PROJECT47

AMD hat mit den Eypc-Serverprozessoren und Radeon-Instinct-GPU-Beschleunigern zwei sicherlich potente Hardwarekomponenten vorgestellt, die teilweise auch schon im Handel verfügbar sind oder in den kommenden Wochen und Monaten auf den Markt kommen werden. Mit den Epyc-Prozessoren greift AMD den... [mehr]