> > > > Super Real Time: NVIDIAs AI-Netzwerke werden komplexer und dennoch schneller

Super Real Time: NVIDIAs AI-Netzwerke werden komplexer und dennoch schneller

Veröffentlicht am: von

nvidia-gtc

Auch wenn auf der GPU Technology Conference auf deutschem Boden das Thema Automotive dominiert, so führt für NVIDIA natürlich alles durch die notwendige Rechenleitung auf die eigenen GPUs zurück. Auch auf der Keynote waren die stetig wachsenden und dennoch immer schneller werdenden Deep-Learning-Netzwerke daher ein wichtiges Thema.

Bilder-Netzwerke wie das erste AlexNet wuchsen stetig an, haben mit ResNet-50 eine Tiefe von 50 Iterationen erreicht und sind selbst damit nicht mehr die größten Netzwerke dieser Art. Inception-v4 als derzeit größtes Netzwerk dieser Art umfasst mehrere Milliarden Bilder und verlangt nach der 350fachen Menge an Speicher und Bandbreite im Vergleich zu den ersten Netzwerken. Auch solche für das Erkennen von Sprache sind inzwischen um das 30fache komplexer und solche für Übersetzungen in nahezu Echtzeit um den Faktor zehn.

Dabei haben sich inzwischen auch schon vier unterschiedliche Arten von Deep-Learning-Netzwerken entwickelt. Die ersten waren die sogenannten Convolutional Networks. Grundsätzlich besteht die Struktur eines klassischen Convolutional Neural Networks aus einem oder mehreren Convolutional Layern, gefolgt von einem Pooling Layer. Diese Einheit kann sich prinzipiell beliebig oft wiederholen, bei ausreichend Wiederholungen spricht man dann von Deep Convolutional Neural Networks. Vor allem solche Netzwerke die sich mit Bildern oder Videos beschäftigen verwenden Convolutional Networks.

Recurrent Networks entsprechen in etwa dem, wie unser Gehirn funktioniert. Hier gibt es direkte Verbindungen zwischen den verschiedenen Ebenen, sodass sich solche Netzwerke beispielsweise für die Sprach- oder Handschrifterkennung eignen. Dritte Kategorie sind die Generative Adversarial Networks, bei denen zwei Deep-Learning-Netzwerke gegeneinander arbeiten, um sich gegenseitig zu verbessern. Während das eine Netzwerk beispielsweise versucht ein bestimmtes Verhalten nachzuahmen, versucht das zweite Netzwerk nachzuweisen, dass es sich dabei um künstlich erstellte Daten handelt. Ein Beispiel wäre ein Netzwerk welches versucht einen berühmten Maler nachzuahmen, während das zweite Netzwerk versucht diese als Fälschung nachzuweisen.

Dritte und für AI-Anwendungen die wichtigste Kategorie sind die Reinforcement Networks, die durch Trial und Error auf das richtige Verhalten schließen und sich Schritt für Schritt weiterentwickeln.

Kaum ein Unternehmen kann laut NVIDIA auf die Entwicklung solcher Netzwerke verzichten, da es kaum Anwendungsfelder gibt, in denen dies nicht sinnvoll erscheint. Neben den wichtigsten Frameworks unterstützt NVIDIA die Entwickler auch mit solchen Konferenzen wie der GTC.

NVIDIA immer mit der richtigen (Hardware)-Antwort

Aktuell basiert vieles von NVIDIAs Hardware-Strategie auf den High-End-Trainingswerkzeugen. Dazu gehören natürlich die Tesla V100 mit Volta-Architekturen, aber auch die dazugehörigen Inferencing-Karten. Welche Vorteile der Einsatz der eigenen GPUs bieten soll, erläutert NVIDIA anhand einer Demo, bei der ein Bildnetzwerk mit Blumen einmal durch einen aktuellen High-End-Prozessor (auf Nachfrage das Topmodell von Skylake-X) und einmal auf einer Tesla V100 trainiert wird.

Anstatt zwischen 4 und fünf Bildern pro Sekunde, kann das Netzwerk mit einer Tesla V100 über 500 Bilder pro Sekunde analysieren. NVIDIA sprach in Zusammenhang mit der gebotenen Leistung von Super Realtime, wenngleich eine Echtzeit eben Echtzeit ist und nicht noch einmal beschleunigt werden kann.

Die hohe Rechenleistung auf kleinerem Raum soll sich für die Kunden von NVIDIA auszahlen. So kann in einem Datacenter ein Kabinett aus vier Serverschränken und 160 CPUs für 45.000 Bildern pro Sekunde und einer Leistungsaufnahme von 65 kW durch ein HGX-1 mit acht Tesla V100 ersetzt werden, der ebenfalls 45.000 Bildern pro Sekunde verarbeiten kann, dafür aber nur 3 kW an Leistung benötigt.

Ein ähnlicher Ansatz ist auch das Drive-PX-Pegasus-Modul, welches eine Rechenleistung von 320 TOPS aus 500 W bietet und damit kleiner und sparsamer ist, als die Testhardware, die aktuell von den Herstellern für das Level 5 des autonomen Fahrens verwendet wird. Diese verbraucht mehreren tausend Watt und füllt den kompletten Kofferraum eines Fahrzeugs.

Allerdings erkauft sich NVIDIA die Rechenleistung des Drive PX Pegasus mit einer Verschlechterung der TOPS/W. Liegt die Effizienz mit dem Drive PX 2 noch bei 0,1 TOPS/W, konnte NVIDIA dies mit dem Xavier SoC auf 1 TOPS/W steigern. Drive PX Pegasus kommt allerdings nur noch auf 0,64 TOPS/W. Viel hilft viel – so das Motto um den Bedarf an Rechenleistung für das Level 5 des autonomen Fahrens in einer ersten Version realisieren zu können. Bis wir solche Systeme allerdings in der Praxis sehen, wird es noch einige Jahre dauern und NVIDIA hat daher Zeit die Effizienz wieder zu verbessern.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Lohnt das Mining für den Privatanwender noch?

Logo von IMAGES/STORIES/2017/ETHEREUM

Bestimmte Grafikkartenmodelle sind schlecht verfügbar und einige Hersteller präsentieren sogar spezielle Mining-Modelle – bestes Anzeichen dafür, dass eine neue Mining-Welle anrollt. Ethereum basiert wie Bitcoins auf einer Blockchain-Technologie. Ethereum ist aber keine reine Kryptowährung,... [mehr]

Deutschen Bahn trainiert Mitarbeiter in der virtuellen Realität

Logo von IMAGES/STORIES/2017/DEUTSCHE_BAHN

Nicht nur das autonome Fahren auf der Straße spielt auf der GPU Technology Conference in München eine Rolle, auch die Deutsche Bahn hielt einen Vortrag, der sich mit dem Training von Mitarbeitern in einer virtuellen Umgebung befasste. Autonome Züge spielten jedenfalls keine Rolle, auch wenn in... [mehr]

Bitcoin droht der Hard Fork – Ethereum weiter auf niedrigem Kurs

Logo von IMAGES/STORIES/2017/ETHEREUM

Bereits in der vergangenen Woche deuteten sich einige Änderungen bei den Kryptowährungen an. Nach einem wochenlangen Hoch brach der Kurs des Ether auf weit unter 200 US-Dollar ein. Die Gründe dafür sind nicht immer ersichtlich. Oftmals gibt es auch Wechselwirkungen zwischen den einzelnen... [mehr]

AMD mit guten Quartalszahlen – Vega und Naples für Q2 bestätigt (Update)

Logo von IMAGES/STORIES/2017/AMD

AMD hat die ersten Quartalszahlen veröffentlicht, die nach dem Verkaufsstart der RYZEN-Prozessoren zusammengestellt wurden. Darin zeichnet das Unternehmen einen deutlichen Anstieg beim Umsatz aus, muss bisher aber noch auf Gewinne verzichten. Weitaus wichtiger aber ist, dass AMD in seinen... [mehr]

Epyc und Vega: AMD packt ein PFLOP pro Sekunde in ein Serverrack

Logo von IMAGES/STORIES/2017/AMD-PROJECT47

AMD hat mit den Eypc-Serverprozessoren und Radeon-Instinct-GPU-Beschleunigern zwei sicherlich potente Hardwarekomponenten vorgestellt, die teilweise auch schon im Handel verfügbar sind oder in den kommenden Wochen und Monaten auf den Markt kommen werden. Mit den Epyc-Prozessoren greift AMD den... [mehr]

Apple Pay weiterhin nicht in Deutschland vorgesehen

Logo von IMAGES/STORIES/2017/APPLE_PAY

Apple Pay ist das drahtlose Bezahlsystem des iPhone-, iPad- und Mac-Herstellers, welches am 20. Oktober 2014 startet, bisher aber noch immer nicht den Weg nach Deutschland gefunden hat. Inzwischen hat Apple für viele Nachbarländer Apple Pay bereits eingeführt, Deutschland aber ist nach wie vor... [mehr]