1. Hardwareluxx
  2. >
  3. News
  4. >
  5. Hardware
  6. >
  7. Prozessoren
  8. >
  9. Chips designen Chips: Machine Learning übernimmt das Floorplanning

Chips designen Chips: Machine Learning übernimmt das Floorplanning

Veröffentlicht am: von

googleaiMit dem Chip Design with Deep Reinforcement Learning haben einige Forscher bei Google AI, genauer gesagt dem Brain Team, eine selbstlernende Methode für das Floorplaning von Chips vorgestellt. Moderne Chip-Architekturen befinden sich über Jahre in der Entwicklung. Je nach Größe des Projekts und der Auslegung vergehen zwischen zwei und fünf Jahren.

Heute bereits zu wissen, welche Anforderungen in zwei bis fünf Jahren an das Design gestellt werden, ist allerdings alles andere als einfach. Den Chip Design Cycle zu verkürzen, ist also eine entscheidende Maßnahme in der Chipentwicklung, um schnell auf neue Anforderungen reagieren zu können.

Das Floorplaning ist ein zeitraubender Prozess in der Chipentwicklung. Ein Chip, sei es ein Prozessor, eine GPU oder ein Spezialchip zur Beschleunigung bestimmter Rechenaufgaben, besteht aus dutzenden Blöcken unterschiedlichster Komponenten. In einem einfachen Beispiel haben wir die Rechenkerne eines Prozessors, die verschiedenen Caches, Speichercontroller und ein halbes Dutzend Interfaces. Alles muss untereinander verbunden werden und auch die Interconnects selbst können nicht beliebig durch den Chip geführt werden.

Trotz jahrzehntelanger Forschung und einem gewissen Automatismus im Design ist es noch immer notwendig, dass Ingenieure teilweise wochen- und monatelang am Floorplaning sitzen, um bestimmte Probleme zu lösen, die den vielfältigen Design-Kriterien entsprechen. Die Komplexität dieses Problems ergibt sich aus der Größe des sogenannten Netlist Graphen und kann Millionen bis Milliarden von Knoten beinhalten. Selbst nach einer manuellen Positionierung benötigt die Analyse von Power, Performance und Area (PPA) dann noch Stunden oder Tage mit den Design Automation Tools.

Das Chip Design with Deep Reinforcement Learning soll darauf trainiert werden die Blöcke und das Routing selbständig zu verbessern. Dazu wird ein Graph Neural Network verwendet. Es handelt sich dabei um eine bestimmte Form eines Deep-Learning-Netzwerks. Details dazu führt Google in seinem Blog aus.

Das neuronale Netzwerk wird mit verschiedenen Vorgaben gefüttert, so dass beispielsweise Interface-Komponenten am Rand des Chips platziert werden. Außerdem gibt es natürlich logische Vorgaben wie die Länge der einzelnen Verbindungen so kurz wie möglich zu halten und Kreuzungen weitestgehend zu vermeiden.

Macro placements of Ariane, an open-source RISC-V processor, as training progresses.

Interessanterweise zeigte sich während der ersten Simulationen folgendes: Je komplexer der Aufbau des simulierten Netlist Graphen, desto besser wurden die Ergebnisse im Hinblick auf die Kosten, die für das Placement aufgewendet werden mussten.

Google AI trainiert das System derzeit an verschiedenen Varianten von Chips. Zu erkennen sei aber bereits, dass das Chip Design with Deep Reinforcement Learning auf eine breite Masse an unterschiedlichsten Anforderungen angepasst werden kann. Natürlich zielt Google zunächst auf die Nutzung für die eigenen Beschleuniger-Chips. Man sehe aber durchaus auch die Möglichkeit das System für alle Chipdesign-Prozesse anzuwenden. Für den ersten eigenen Smartphone-SoC kommt die neue Methode aber wohl zu spät. Auch die bisherigen Tensor Processing Units (TPU) hat man noch klassisch entwickelt.

Google sieht im Chip Design with Deep Reinforcement Learning durchaus eine Möglichkeit den Chip Design Cycle deutlich zu verkürzen. Dies könnte dabei helfen schneller neue Chips zu entwickeln.

Welche ist die beste CPU?

Unsere Kaufberatung zu den aktuellen Intel- und AMD-Prozessoren hilft dabei, die Übersicht nicht zu verlieren. Dort zeigen wir, welche Prozessoren aktuell die beste Wahl darstellen - egal, ob es um die reine Leistungsfähigkeit oder das Preis-Leistungs-Verhältnis geht.


Social Links

Das könnte Sie auch interessieren:

  • AMD Ryzen 5 3600 im Test: Ohne X noch viel besser

    Logo von IMAGES/STORIES/2017/AMD_RYZEN_5_3600_TEST-TEST

    Gegenüber dem AMD Ryzen 5 3600X aus unserem letzten Test, der trotz seiner Einstufung in die Mittelklasse ältere Topmodelle schlägt, ist der AMD Ryzen 3600 ohne das X-Kürzel nur 200 bis 300 MHz niedriger getaktet und mit einer TDP von 65 W sparsamer klassifiziert, was einen... [mehr]

  • AMD Ryzen 7 3800X im Test: Ein hungriger Lückenfüller

    Logo von IMAGES/STORIES/2017/AMDRYZEN93900X

    Kurz vor dem Start des lange ersehnten AMD Ryzen 9 3950X und der kommenden Threadripper-Modelle schließen wir eine weitere Lücke in unserer Testdatenbank und stellen den AMD Ryzen 7 3800X auf den Prüfstand, der über acht Kerne verfügt, gegenüber seinem kleinen Schwestermodell jedoch in einer... [mehr]

  • In Spielen König, sonst eher ein kleiner Prinz: Intel Core i5-10600K und Core...

    Logo von IMAGES/STORIES/2017/INTEL-CML-S

    Heute ist es soweit und wir dürfen die ersten Leistungsdaten des Core i5-10600K und des Core i9-10900K präsentieren. Damit öffnet Intel seine Comet-Lake-Prozessoren für den Markt, denn ab heute sind die ersten Modelle im Handel verfügbar. Die Kernkompetenzen der neuen Prozessoren liegen vor... [mehr]

  • AMD hängt Intel weiter ab: Der Ryzen 9 3950X im Test

    Logo von IMAGES/STORIES/2017/RYZEN-3950X

    Besser spät als nie – so ließe sich das Timing für unseren Test des Ryzen 9 3950X wohl am besten zusammenfassen. Zum Ursprünglichen Termin der Tests konnte uns AMD kein Sample zur Verfügung stellen und so mussten wir uns etwas gedulden, bis auch wir den 16-Kerner testen konnten. Der... [mehr]

  • Insider-Gerüchte: Intel streicht 10-nm-Pläne für den Desktop komplett

    Logo von IMAGES/STORIES/2017/INTEL

    Aus Insiderkreisen haben wir einige exklusive Informationen zu zukünftigen Desktop-Prozessoren von Intel erhalten. Die Quelle hat sich in der Vergangenheit zu CPU-Themen bereits mehrfach aus treffsicher erwiesen. Dennoch sollte wie bei allen Gerüchten dieser Art eine gewisse Vorsicht an den... [mehr]

  • Schneller dank Zen 2: Ryzen Threadripper 3960X und 3970X im Test

    Logo von IMAGES/STORIES/2017/RYZEN-THREADRIPPER-3RDGEN

    Nachdem sich AMD auf dem klassischen Desktop mindestens auf Augenhöhe zu Intel sieht, will man nun den bereits vorhandenen Vorsprung im High-End-Desktop weiter ausbauen. Den Anfang machen der Ryzen Threadripper 3960X mit 24 und der Ryzen Threadripper 3970X mit 32 Kernen. Zum Vorgänger... [mehr]