1. Hardwareluxx
  2. >
  3. News
  4. >
  5. Hardware
  6. >
  7. Prozessoren
  8. >
  9. Chips designen Chips: Machine Learning übernimmt das Floorplanning

Chips designen Chips: Machine Learning übernimmt das Floorplanning

Veröffentlicht am: von

googleaiMit dem Chip Design with Deep Reinforcement Learning haben einige Forscher bei Google AI, genauer gesagt dem Brain Team, eine selbstlernende Methode für das Floorplaning von Chips vorgestellt. Moderne Chip-Architekturen befinden sich über Jahre in der Entwicklung. Je nach Größe des Projekts und der Auslegung vergehen zwischen zwei und fünf Jahren.

Heute bereits zu wissen, welche Anforderungen in zwei bis fünf Jahren an das Design gestellt werden, ist allerdings alles andere als einfach. Den Chip Design Cycle zu verkürzen, ist also eine entscheidende Maßnahme in der Chipentwicklung, um schnell auf neue Anforderungen reagieren zu können.

Das Floorplaning ist ein zeitraubender Prozess in der Chipentwicklung. Ein Chip, sei es ein Prozessor, eine GPU oder ein Spezialchip zur Beschleunigung bestimmter Rechenaufgaben, besteht aus dutzenden Blöcken unterschiedlichster Komponenten. In einem einfachen Beispiel haben wir die Rechenkerne eines Prozessors, die verschiedenen Caches, Speichercontroller und ein halbes Dutzend Interfaces. Alles muss untereinander verbunden werden und auch die Interconnects selbst können nicht beliebig durch den Chip geführt werden.

Trotz jahrzehntelanger Forschung und einem gewissen Automatismus im Design ist es noch immer notwendig, dass Ingenieure teilweise wochen- und monatelang am Floorplaning sitzen, um bestimmte Probleme zu lösen, die den vielfältigen Design-Kriterien entsprechen. Die Komplexität dieses Problems ergibt sich aus der Größe des sogenannten Netlist Graphen und kann Millionen bis Milliarden von Knoten beinhalten. Selbst nach einer manuellen Positionierung benötigt die Analyse von Power, Performance und Area (PPA) dann noch Stunden oder Tage mit den Design Automation Tools.

Das Chip Design with Deep Reinforcement Learning soll darauf trainiert werden die Blöcke und das Routing selbständig zu verbessern. Dazu wird ein Graph Neural Network verwendet. Es handelt sich dabei um eine bestimmte Form eines Deep-Learning-Netzwerks. Details dazu führt Google in seinem Blog aus.

Das neuronale Netzwerk wird mit verschiedenen Vorgaben gefüttert, so dass beispielsweise Interface-Komponenten am Rand des Chips platziert werden. Außerdem gibt es natürlich logische Vorgaben wie die Länge der einzelnen Verbindungen so kurz wie möglich zu halten und Kreuzungen weitestgehend zu vermeiden.

Macro placements of Ariane, an open-source RISC-V processor, as training progresses.

Interessanterweise zeigte sich während der ersten Simulationen folgendes: Je komplexer der Aufbau des simulierten Netlist Graphen, desto besser wurden die Ergebnisse im Hinblick auf die Kosten, die für das Placement aufgewendet werden mussten.

Google AI trainiert das System derzeit an verschiedenen Varianten von Chips. Zu erkennen sei aber bereits, dass das Chip Design with Deep Reinforcement Learning auf eine breite Masse an unterschiedlichsten Anforderungen angepasst werden kann. Natürlich zielt Google zunächst auf die Nutzung für die eigenen Beschleuniger-Chips. Man sehe aber durchaus auch die Möglichkeit das System für alle Chipdesign-Prozesse anzuwenden. Für den ersten eigenen Smartphone-SoC kommt die neue Methode aber wohl zu spät. Auch die bisherigen Tensor Processing Units (TPU) hat man noch klassisch entwickelt.

Google sieht im Chip Design with Deep Reinforcement Learning durchaus eine Möglichkeit den Chip Design Cycle deutlich zu verkürzen. Dies könnte dabei helfen schneller neue Chips zu entwickeln.

Welche ist die beste CPU?

Unsere Kaufberatung zu den aktuellen Intel- und AMD-Prozessoren hilft dabei, die Übersicht nicht zu verlieren. Dort zeigen wir, welche Prozessoren aktuell die beste Wahl darstellen - egal, ob es um die reine Leistungsfähigkeit oder das Preis-Leistungs-Verhältnis geht.


Social Links

Das könnte Sie auch interessieren:

  • Der König ist bezwungen: AMD Ryzen 9 5900X und Ryzen 5 5600X im Test

    Logo von IMAGES/STORIES/2017/AMD_RYZEN_9_5900X_5600X_REVIEW-TEASER

    Seit heute sind die ersten Ableger der neuen Ryzen-5000-Familie erhältlich. Mit ihnen will AMD die letzte Intel-Bastion zu Fall bringen und endlich auch bei der Spieleleistung wieder ganz vorne mitspielen, nachdem man dem Konkurrenten mit seinen Matisse-Ablegern in Sachen Preis und... [mehr]

  • Generations-Nachzügler: AMD Ryzen 9 5950X und Ryzen 7 5800X im Test

    Logo von IMAGES/STORIES/2017/AMD_RYZEN_9_5950X_5800X-TEASER

    Wie angekündigt hat uns AMD pünktlich zum gestrigen Marktstart der ersten vier Ryzen-5000-Modelle inzwischen auch mit den noch fehlenden zwei Modellvarianten versorgt. Wir komplettieren die Testreihen daher nun um das Topmodell mit 16 Kernen, den AMD Ryzen 9 5950X, und um den AMD Ryzen 7 5800X... [mehr]

  • Prozessor non grata: Rocket Lake-S als Core i7-11700K im Vorab-Test (Update)

    Logo von IMAGES/STORIES/2017/COREI7-11700K

    Gut einen Monat vor dem offiziell geplanten Verkaufsstart konnte jeder Nutzer bereits den Core i7-11700K erstehen. Mindfactory verkaufte den Prozessor tagelang und jeder der wollte, konnte diesen auch bestellen. Auch wir haben die Gelegenheit ergriffen und präsentieren bereits heute einen... [mehr]

  • Günstiger 10-Kern-Einstieg: Intel Core i9-10850K im Test

    Logo von IMAGES/STORIES/2017/INTEL-CML-S

    Ende Juli stellte Intel in einem kleinen, zweiten Schwung einige weitere neue Modelle an Comet-Lake-S-Prozessoren vor. Die wichtigste Neuvorstellung ist dabei sicherlich der Core i9-10850K, der sich knapp unter dem Core i9-10900K aufstellt. Zehn Kerne, etwas niedrigere Taktraten, dafür ein um... [mehr]

  • Refresh-Nachzügler: AMD Ryzen 7 3800XT und Ryzen 5 3600XT im Test

    Logo von IMAGES/STORIES/2017/AMD_MATISSE_REFRESH_TRIPLE-TEASER

    Wenige Tage nach unserem Test zum AMD Ryzen 9 3900XT versorgte uns die Chipschmiede mit den beiden kleineren Serienvertretern der Matisse-Refresh-Generation, die dank zahlreicher Verbesserungen im Fertigungsprozess und etwas höherer Taktraten die Effizienz gegenüber den bestehenden Modellen... [mehr]

  • Zen 2 optimiert: So funktioniert der ClockTuner for Ryzen (Update)

    Logo von IMAGES/STORIES/2017/CTR

    Bereits vor einigen Wochen wurde der ClockTuner for Ryzen (CTR) angekündigt. Ab heute ist er nun für Jedermann verfügbar und kann ausprobiert werden. 1usmus, der Entwickler hinter dem DRAM Calculator for Ryzen, hat auch den ClockTuner for Ryzen entwickelt. Durch einen Custom... [mehr]