> > > > Custom-Chip: Google entwickelte eigene TPU für Deep-Learning-Netzwerke

Custom-Chip: Google entwickelte eigene TPU für Deep-Learning-Netzwerke

DruckenE-Mail
Erstellt am: von

google cloud platformAndroid N, Android Wear 2.0 oder Daydream, das waren die oberflächlichen Themen der gestrigen Eröffnungsveranstaltung der Google I/O 2016. Doch wie so oft sind die kleinen, nebensächlichen Erwähnungen der interessante Teil einer solchen Präsentation und dies war auch am gestrigen Abend der Fall. Der Sieg von AlphaGo gegen seinen menschlichen Gegner zeigte zuletzt, dass Google große Ambitionen beim Machine Learning hegt.

Gestern präsentierte Google nun die bisher geheime Entwicklung einer Tensor Processing Unit (TPU). Dabei handelt es sich um einen Custom-ASIC (Application Specific Integrated Circuit), der speziell auf das Machine Learning mittels TensorFlow zugeschnitten ist. Das bisher geheime Projekt wird bereits seit Jahren bei Google ausgeführt, die Hardware läuft bereits seit mehr als einem Jahr in den eigenen Data-Centern. Die Rechenleistung bzw. das Verhältnis aus Rechenleistung und Leistungsaufnahme soll dabei um Größenordnungen besser sein, als der Einsatz anderer Hardware. Laut eigenen Angaben ist man der übrigen Hardware um sieben Jahre voraus – oder anders gesagt drei Generationen von Moore's Law.

Googles Tensor Processing Unit (TPU)
Googles Tensor Processing Unit (TPU)

Die TPU ist wie gesagt speziell auf das Training und die Auswertung von Deep-Learning-Netzwerken hin ausgelegt. Dazu ist eine weitaus geringere Genauigkeit notwendig, als dies bei sonst üblichen Compute-Anwendungen erforderlich ist. FP16-Berechnungen sind dafür besonders wichtig und eben darauf ist die TPU von Google ausgelegt. Das Board der Tensor Processing Unit ist dabei nur so groß wie eine 2,5-Zoll-SSD.

Laut Google ist die TPU auch ein gutes Beispiel dafür, wie schnell heutzutage die Entwicklung einer solchen Hardware ablaufen kann. Vom Test des ersten Chips nach den Tape Out bis zur aktuellen Anwendung in den eigenen Rechenzentren sollen gerade einmal 22 Monate vergangen sein. Dabei setzt Google die TPU bereits in zahlreichen Anwendungen ein. Dazu gehört unter anderem RankBrain, ein Netzwerk welches die Auswertung der Resultate in Google Street View und die Navigation übernimmt. Außerdem wurden die Deep-Learning-Netzwerke von AlphaGo auf diesen TPUs trainiert.

Googles Tensor Processing Unit (TPU) in einem Rechenzentrum für AlphaGo
Googles Tensor Processing Unit (TPU) in einem Rechenzentrum für AlphaGo

Die Hard- und Software für solche Deep-Leaning- oder Machine-Learning-Netzwerke wird immer wichtiger und in Zukunft werden unsere Systeme auch immer abhängiger von solchen Netzwerken. NVIDIA adressiert das Thema bereits seit einigen Jahren und hat spätestens mit der GPU Technology Conference 2015 die Entwicklung der eigenen Hardware auf diese Bedürfnisse umgestellt. In diesem Jahre präsentierte man mit dem Tesla P100 GPU-Beschleuniger die wohl potenteste Hardware für Deep-Leaning-Netzwerke. Die dort verwendete GP100-GPU basiert auf der Pascal-Architektur, die auch bei der GeForce GTX 1080 und GTX 1070 verwendet wird und wird zudem in 16 nm gefertigt. 15,3 Milliarden Transistoren und der Einsatz von HBM2 haben die Rechenleistung auf ein neues Niveau gehoben. Allerdings kann NVIDIA die eigne Hardware und vor allem die Architektur nicht nur auf das Deep Learning ausrichten und somit werden Custom-Chips, wie eben die TPU von Google, in Zukunft eine immer wichtigere Rolle spielen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (1)

#1
customavatars/avatar234185_1.gif
Registriert seit: 08.11.2015
Foxconn Headquarter
Oberbootsmann
Beiträge: 792
Die ASIC ist doch nur blah blah. Google setzt selber atm auf P100.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]