> > > > Custom-Chip: Google entwickelte eigene TPU für Deep-Learning-Netzwerke

Custom-Chip: Google entwickelte eigene TPU für Deep-Learning-Netzwerke

Veröffentlicht am: von

google cloud platformAndroid N, Android Wear 2.0 oder Daydream, das waren die oberflächlichen Themen der gestrigen Eröffnungsveranstaltung der Google I/O 2016. Doch wie so oft sind die kleinen, nebensächlichen Erwähnungen der interessante Teil einer solchen Präsentation und dies war auch am gestrigen Abend der Fall. Der Sieg von AlphaGo gegen seinen menschlichen Gegner zeigte zuletzt, dass Google große Ambitionen beim Machine Learning hegt.

Gestern präsentierte Google nun die bisher geheime Entwicklung einer Tensor Processing Unit (TPU). Dabei handelt es sich um einen Custom-ASIC (Application Specific Integrated Circuit), der speziell auf das Machine Learning mittels TensorFlow zugeschnitten ist. Das bisher geheime Projekt wird bereits seit Jahren bei Google ausgeführt, die Hardware läuft bereits seit mehr als einem Jahr in den eigenen Data-Centern. Die Rechenleistung bzw. das Verhältnis aus Rechenleistung und Leistungsaufnahme soll dabei um Größenordnungen besser sein, als der Einsatz anderer Hardware. Laut eigenen Angaben ist man der übrigen Hardware um sieben Jahre voraus – oder anders gesagt drei Generationen von Moore's Law.

Googles Tensor Processing Unit (TPU)
Googles Tensor Processing Unit (TPU)

Die TPU ist wie gesagt speziell auf das Training und die Auswertung von Deep-Learning-Netzwerken hin ausgelegt. Dazu ist eine weitaus geringere Genauigkeit notwendig, als dies bei sonst üblichen Compute-Anwendungen erforderlich ist. FP16-Berechnungen sind dafür besonders wichtig und eben darauf ist die TPU von Google ausgelegt. Das Board der Tensor Processing Unit ist dabei nur so groß wie eine 2,5-Zoll-SSD.

Laut Google ist die TPU auch ein gutes Beispiel dafür, wie schnell heutzutage die Entwicklung einer solchen Hardware ablaufen kann. Vom Test des ersten Chips nach den Tape Out bis zur aktuellen Anwendung in den eigenen Rechenzentren sollen gerade einmal 22 Monate vergangen sein. Dabei setzt Google die TPU bereits in zahlreichen Anwendungen ein. Dazu gehört unter anderem RankBrain, ein Netzwerk welches die Auswertung der Resultate in Google Street View und die Navigation übernimmt. Außerdem wurden die Deep-Learning-Netzwerke von AlphaGo auf diesen TPUs trainiert.

Googles Tensor Processing Unit (TPU) in einem Rechenzentrum für AlphaGo
Googles Tensor Processing Unit (TPU) in einem Rechenzentrum für AlphaGo

Die Hard- und Software für solche Deep-Leaning- oder Machine-Learning-Netzwerke wird immer wichtiger und in Zukunft werden unsere Systeme auch immer abhängiger von solchen Netzwerken. NVIDIA adressiert das Thema bereits seit einigen Jahren und hat spätestens mit der GPU Technology Conference 2015 die Entwicklung der eigenen Hardware auf diese Bedürfnisse umgestellt. In diesem Jahre präsentierte man mit dem Tesla P100 GPU-Beschleuniger die wohl potenteste Hardware für Deep-Leaning-Netzwerke. Die dort verwendete GP100-GPU basiert auf der Pascal-Architektur, die auch bei der GeForce GTX 1080 und GTX 1070 verwendet wird und wird zudem in 16 nm gefertigt. 15,3 Milliarden Transistoren und der Einsatz von HBM2 haben die Rechenleistung auf ein neues Niveau gehoben. Allerdings kann NVIDIA die eigne Hardware und vor allem die Architektur nicht nur auf das Deep Learning ausrichten und somit werden Custom-Chips, wie eben die TPU von Google, in Zukunft eine immer wichtigere Rolle spielen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (1)

#1
Registriert seit: 08.11.2015

Banned
Beiträge: 1381
Die ASIC ist doch nur blah blah. Google setzt selber atm auf P100.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Coffee Lake: Intel Core i7-8700K, i5-8600K und i5-8400 im Test

Logo von IMAGES/STORIES/2017/INTEL8GEN

Der sechste und letzte (?) CPU-Launch in diesem Jahr kommt von Intel: Mit den unter dem Codenamen Coffee Lake zusammengefassten Core-i7- und i5-Modellen kommen bei Intel erstmals Sechskern-Prozessoren in den Mainstream-Markt. Bedanken darf man sich aber wohl nicht bei Intel, sondern bei der... [mehr]

Intel kämpft mit schwerer Sicherheitslücke (Update: Intel veröffentlicht...

Logo von IMAGES/STORIES/2017/INTEL

Vor, während und zwischen den Feiertagen herrschte ein wildes Treiben in der Linux-Community. Zunächst war nicht ganz klar, was hier genau vor sich geht, inzwischen aber scheinen die Auswirkungen deutlich zu werden: Intel hat nach einer Lücke in der Management Unit eines jeden... [mehr]

Coffee Lake: Overclocking-Check

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Nach dem ausführlichen Overclocking-Check für Skylake-Prozessoren sowie dem Overclocking-Check für Kaby Lake-Prozessoren ist es nach Veröffentlichung der neuen Generation mit Codenamen Coffee-Lake erneut Zeit für einen Overclocking-Check. Wir werfen einen Blick auf die Übertaktbarkeit... [mehr]

Gelungener Feinschliff: AMD Ryzen 7 2700X und Ryzen 5 2600X im Test

Logo von IMAGES/STORIES/2017/AMD_RYZEN_7_2700X

Rund ein Jahr nach dem Start der Ryzen-Prozessoren legt AMD nach und bringt die zweite Generation in den Handel. Die soll schneller und effizienter arbeiten und den Druck auf Intel weiter erhöhen. Allerdings lautet die Devise Evolution statt Revolution, statt gravierender Änderungen gibt es vor... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G im Test: Die Lücke ist gestopft

Logo von IMAGES/STORIES/2017/AMD_RYZEN_5_2400G

Während Notebook-Käufer sich bereits seit einigen Wochen von den Vorzügen der Zen-basierten Raven-Ridge-APUs überzeugen können, musste sich das Desktop-Lager noch gedulden. Nun aber heißt es auch hier: Intel erhält neue Konkurrenz. Und die könnte einen noch größeren Einfluss als die... [mehr]

AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

Logo von IMAGES/STORIES/2017/AMD_THREADRIPPER_2950X

Pünktlich zum ersten Geburtstag startet AMD den Ryzen-Threadripper-Generationswechsel. Und wie schon im Frühjahr beim Sprung von Ryzen 1 zu Ryzen 2 vertraut man auf zwei Dinge: mehr Kerne und einen geringeren Preis. Beide sollen dabei helfen, dem Dauerrivalen Intel im... [mehr]