> > > > SC16: AMD baut die Radeon Open Compute Platform weiter aus (Update)

SC16: AMD baut die Radeon Open Compute Platform weiter aus (Update)

DruckenE-Mail
Erstellt am: von

AMD ROCmAMD verfolgt bereits seit einiger Zeit einen offenen Ansatz, wenn es um die Compute-Schnittstellen zur eigenen Hardware geht. GPUOpen richtet sich dabei vor allen an die Entwickler von Spielen und entsprechenden Engines und soll in diesem Bereich eine Open-Source-Alternative zu CUDA und GameWorks sein. Damit möchte AMD vor allem für die Entwickler weitere Anreize schaffen die eigene Hardware zu verwenden. Weite Teile der zur Verfügung stehenden Software sollen weiter verbessert und teilweise als Open-Source angeboten werden bzw. sind dies schon, damit diese Verbesserungen schneller und auch durch externe Entwickler getrieben eingebaut werden können.

Nun wählt AMD einen ähnlichen Ansatz auch GPU-Computing-Bereich bzw. weitet die bisher bestehenden Anstrengungen, wie zum Beispiel die Bolzmann-Initiative, aus. Die Supercomputing Conference 2016 nutzt AMD zur Vorstellung der Radeon Open Compute Platform oder kurz ROCm. Sie soll Basis für moderne Heterogeneous-HPC-Strukturen im Zusammenspiel mit HSA (Hyper Scale Accelerator) für Großprojekte sein.

AMD sieht vier Bausteine für ROCm vor. Da wäre zunächst der sogenannte Graphics Core Next Headless Linux 64 Bit Treiber. Damit umschreibt AMD eine bereits angekündigte Entwicklung bei den Linux-Treibern, die eine geringe Latenz, weniger Overhead und damit schnelleres HSA für die diskrete GPU ermöglichen sollen. Die Ansätze hinsichtlich des Zugriffs auf die Ressourcen der Hardware sind mit denen moderner Grafik-APIs Mantle und DirectX 12 vergleichbar. Ein zweiter wichtiger Faktor ist die Unterstützung und Anpassung der Compiler auf die eigene Hardware. Auch hierzu präsentierte AMD vor genau einem Jahr bereits erste Ansätze – den Heterogenious Compute Compiler. Dabei handelt es sich um einen Open-Source-Compiler für C++, der Code für GPUs zusammenstellen soll. Unter anderem wird damit der sogenannte HIP realisiert. Dabei handelt es sich um einen Konverter, der CUDA-Code zu C++ konvertiert, der dann auch auf AMD-GPUs ausgeführt werden kann.

Die dritte Komponente ist die Integration weiterer und neuer HSA-Strukturen in Hard- und Software. Inzwischen wird HSA sowohl von den GPUs wie auch den APUs vollständig unterstützt, spielt aber noch immer keine allzu große Rolle in GPU-Compute-Segment. Dies soll sich durch eine tiefergehende Integration jedoch ändern. Vierter Punkt ist das Angebot an Open-Source-Tools, Programmen und Bibliotheken, die einen freuen und einfachen Zugang gewährleisten sollen.

Eine große Rolle im Gesamtkonzept kommt dem Compilern zu, denn sie sollen beliebigen Code auf der eigenen Hardware schnellstmöglich ausführen können. Dazu hatte AMD bereits im vergangenen Jahr einen neuen LLVM-Compiler veröffentlicht, der für die CPU-Berechnungen den Code entsprechend aufarbeiten soll. Da die GPUs aber den wesentlich höheren und damit wichtigeren Anteil bei entsprechenden Berechnungen haben, sorgt ein GCN-Compiler für die Anpassungen am GPU-Code. Dieser ist speziell auf die Graphics-Core-Next-Architektur hin optimiert und wendet diese Optimierungen auch im Zielcode an. Für jeden Zielcode wie OpenCL, CUDA, ISO C++ oder Python hat AMD eine entsprechende Schnittstelle entwickelt.

Die erste Version von ROCm wurde um April 2016 vorgestellt und bot unter anderen die Unterstützung für die Fiji-GPUs. Mit ROCm im August wurden dann auch die Unterstützung für die Hawaii-GPUs hinzugefügt und Version 1.3 im November soll nun auch den Support für die Polaris-GPUs bieten. Außerdem ist der LLVM-Compiler nun in einer finalen Version enthalten. Damit werden auch die ab November verfügbaren Karten wie die Radeon Pro WX 4100, 5100 und 7100 vollständig unterstützt.

Der Open-Source-Gedanke soll aber auch dazu beitragen, dass mehr und mehr andere Hersteller auf den Zug aufspringen. Zunächst einmal aber will man die eigene Zen-Architektur ab dem kommenden Jahr integrieren – natürlich erst, wenn auch die ersten Produkte verfügbar sind. Man ist aber offenbar auch mit Herstellern wie Cavium (ARM-Prozessoren), IBM (Power8-Prozessoren) sowie im I/O-Bereich mit GenZ, CCIX und der OpenCAPI Foundation in Gesprächen bzw. Gründungsmitglied der beiden erstgenannten Initiativen. Inzwischen scheint man sich bei AMD auch bewusst zu sein, dass Deep-Learning ein wichtiger Faktor in diesem Bereich ist und wird sich auch in diesem Segment entsprechend ausrichten.

Update:

Heute hat AMD wie versprochen den Radeon Pro Software Enterprise-Treiber veröffentlicht, der die neuen Funktionen und Leistungsverbesserungen enthalten soll. Der 16.Q4 Enterprise Driver kann direkt bei AMD bezogen werden. Der Treiber ist kompatibel zur Radeon-Pro-WX-Serie, Radeon Pro Duo, AMD-FirePro-W-Serie und einigen AMD-FirePro-S-Karten und unterstützt Windows 7/10 sowie Linux.

Leistungsverbesserungen durch den AMD Radeon Software Enterprise Drive 16.Q4
Leistungsverbesserungen durch den AMD Radeon Software Enterprise Drive 16.Q4

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (12)

#3
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Flottillenadmiral
Beiträge: 5412
Die Marketingausrichtung mittlerweile ist wirklich nicht schlecht.

Das alles bringt aber nichts wenn sie nicht bald High End Hardware liefern.

Q1 Zen (Gerüchte März) und H1 Vega (also wohl eher Q2) sind schon mal deutlich später als zunächst erwartet.
Und wer so ein "freches" Marketingauftreten darbieten will der soll dann bitte auch (wenn auch später als erwartet) ordentlich zu liefern!


Überhöhte Erwartungen zu schüren (war bei RX 480 seitens AMD nicht der Fall aber sehr wohl bei Fiji) wird denen nicht nochmal gut tun.
#4
Registriert seit: 30.04.2008
Civitas Tautensium, Agri Decumates
Bootsmann
Beiträge: 687
"AMD verfolgt bereits seit einiger Zeit einen offenen Ansatz"

Dafür mag ich AMD und kann den proprietären Ansatz von Nvidia nicht leiden.
Wirtschaftlich scheint es sich aber eher für Nvidia auszuzahlen, die Nutzer damit an sich zu binden....
#5
Offene Software ist für viele Interessierte schon recht interessant.
Aber man sollte nicht vergessen, dass es bereits optimierte versionen der Bibliotheken gibt.

Wer massiv davon profitiert auf Grafikkarten zu rechnen und den portierungsaufwand nicht scheut nutzt vermutlich schon eine andere Lösung.

Das ganz kann nur Erfolg haben wenn die Hardware Konkurenzfähig ist. Sonst wird kaum jemand seine Software anpassen.

Vielleicht hätte man den Aufwand doch lieber in die Entwicklung der Hardware stecken sollen. Sowohl im CPU als auch GPU Bereich warten einige Leute seit Monaten auf Konkurenzfähige Hardware von AMD.
#6
customavatars/avatar259313_1.gif
Registriert seit: 24.08.2016

Banned
Beiträge: 745
Zitat
Vielleicht hätte man den Aufwand doch lieber in die Entwicklung der Hardware stecken sollen.

Haben sie doch getan, aber bei solchen Dingen hast du offensichtlich Wissensdefizite...
#7
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Flottillenadmiral
Beiträge: 5412
Zitat [email protected];25072624
Offene Software ist für viele Interessierte schon recht interessant.
Aber man sollte nicht vergessen, dass es bereits optimierte versionen der Bibliotheken gibt.

Wer massiv davon profitiert auf Grafikkarten zu rechnen und den portierungsaufwand nicht scheut nutzt vermutlich schon eine andere Lösung.

Das ganz kann nur Erfolg haben wenn die Hardware Konkurenzfähig ist. Sonst wird kaum jemand seine Software anpassen.

Vielleicht hätte man den Aufwand doch lieber in die Entwicklung der Hardware stecken sollen. Sowohl im CPU als auch GPU Bereich warten einige Leute seit Monaten auf Konkurenzfähige Hardware von AMD.


Ohne den Softwarepart bringt die ganze tolle Hardware aber nichts. Dann würde kaum einer drauf setzen egal wie viel Rechenleistung theoretisch erreicht werden könnte.
Ohne tolle Hardware bringt die Software aber natürlich auch nichts.

Da Nvidia der Platzhirsch ist ist der Angriff über Open Source die einzige Möglichkeit.

Die Proprietäre Haltung bei CUDA macht aus Sicht von Nvidia auch ohne böse Absichten in vielen belangen Sinn! Nvidia kann schnell Änderungen beifügen, hat selbst den überblick über alles und muss z.B. bei Änderungen auf keien zuarbeiten von externen warten. Wenn Entscheidungen getroffen werden müssen kann Nvidia diese einfach selbst tätigen.

Proprietäre Software sit genauso wie proprietäre Software ein zweischneidiges Schwert. Nvidia kann die Macht ausnutzen und wie man bei Gameworks ja gut sieht Konkurrenten steine in den weg legen.
#8
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Kapitän zur See
Beiträge: 3333
Zitat [email protected];25072624
Das ganz kann nur Erfolg haben wenn die Hardware Konkurenzfähig ist. Sonst wird kaum jemand seine Software anpassen. Vielleicht hätte man den Aufwand doch lieber in die Entwicklung der Hardware stecken sollen. Sowohl im CPU als auch GPU Bereich warten einige Leute seit Monaten auf Konkurenzfähige Hardware von AMD.


Die Hardware ist im Computing- Bereich mehr als konkurrenzfähig, jedenfalls die Grafikkarten. Die Fury X war mit 8,6 TFLOPS FP32 schon längst da, wo jetzt beispielsweise die GTX 1080 ist(8,9 TFLOPS SP) und Vega wird das ganze nochmals deutlich toppen. AMD hat zwar bisher in der aktuellen Generation nur kleine GPUs herausgebracht, im Consumer- wie auch Profisegment, aber das wird sich logischerweise mit Vega völlig ändern und so ist dann auch FP8- Hardwaresupport mit an Bord, den bisher nur die neueste Titan hat.

Es hat bisher nur am Support durch entsprechende Software gemangelt und wenn AMD nun mit dem ROCK- Treiber OpenCL in die Kerneltreiber integriert, sehe ich von Seiten AMDs keinen Versuch unterlassen, die nötige Infrastruktur zu schaffen - nämlich eine, die sogar noch jeder mit verbessern kann, wenn ihm gute Ideen einfallen.
Ich sehe auch keinen ernsthaften Portierungsaufwand für bestehende Projekte, wenn der HIP- Compiler den bestehenden CUDA- Code in OpenCL- Code umwandelt. Ein paar kleine Anpassungen und CUDA kann man direkt rausschmeißen, während das Programm mit OpenCL auf jeder Hardware gut läuft - mit der AMD- GPU auf Linux dann sogar ohne irgendeine Treiberinstallation - das würde out of the Box einfach nur funktionieren -> CD rein, Betriebssystem installieren, Software starten, fertig.
Zumal ja ohnehin die meisten wie zum Beispiel Adobe, größtenteils auf OpenCL umgestiegen sind oder umsteigen.(Wobei Adobe mit Linux ja sowieso nichts am Hut hat, und man auf Windows weiterhin erst Treiber installieren muss, damit es läuft - nicht, dass das jemand falsch versteht.)
Auf GPUOpen.com informiert AMD mittlerweile außerdem regelmäßig über Neuigkeiten, bietet kleine Artikel mit Tutorials, antwortet teilweise auf Kommentare etc., also wenn man das nicht mal Kundenservice nennt, dann weiß ich auch nicht.

Meiner Meinung nach hat AMD die eigene Situation sowas von gut analysiert. Nvidia betreibt einen immensen Aufwand, um ihre eigene Software zu entwickeln, zu promoten, und sich von der AMD- Hardware abzuschotten. Mit so einem einfachen Tool wie dem HIP- Compiler hat AMD all das faktisch kaputt gemacht. Und sie haben sogar eine noch logischere und löbliche Konsequenz gezogen: Es ist schlecht für die Allgemeinheit, wenn hinter verschlossenem Code eventuell die Grafikqualität leidet, Konkurrenzhardware in ein schlechtes Licht gerückt wird, oder alte Modelle ausgebremst werden, damit man sich was neues kaufen muss. Ich will niemandem direkte Unterstellungen machen, aber die Skepsis bleibt bei Closed Source immer.
Und so verfolgt nun AMD den Ansatz, Transparenz und einfache Benutzbarkeit durch offene Software zu bieten, und bekommt im Gegenzug aus Dankbarkeit noch Verbesserungen und Ideen gratis von der Community, interessierten Unternehmen, kommerziellen Softwareentwicklern etc., um noch viel bessere Treiber und Entwicklertools allgemein zugänglich zu machen, als sie überhaupt könnten, wenn sie es alleine täten. Dafür können sie noch mehr Ressourcen in noch leistungsstärkere und stromsparendere Hardware investieren. Für jemanden, der nur durch die verkaufte Hardware sein Brot verdient, kann es doch gar keinen sozialeren und gleichzeitig eigennützigeren Ansatz geben.
#9
Registriert seit: 01.07.2013

Hauptgefreiter
Beiträge: 146
Zitat NasaGTR;25073104
Die Proprietäre Haltung bei CUDA macht aus Sicht von Nvidia auch ohne böse Absichten in vielen belangen Sinn! Nvidia kann schnell Änderungen beifügen, hat selbst den überblick über alles und muss z.B. bei Änderungen auf keien zuarbeiten von externen warten. Wenn Entscheidungen getroffen werden müssen kann Nvidia diese einfach selbst tätigen.


Open source bedeutet nicht automatisch, dass man auf externe warten muss oder den Überblick verliert. Man kann auch rein selber entwickeln wie bisher und dann nur halt den Code für die Ergebnisse bereitstellen. Für die Nutzer hat das die Vorteile, dass sie direkt in den Code schauen können, wenn etwas nicht ganz klar ist, und im Zweifelsfall notwendige Änderungen in ihrer Version schnell umsetzen können. Der Mehraufwand für nvidia muss nicht mehr sein als das Veröffentlichen des Codes.

Natürlich könnte dann die Konkurrenz genauso die Bibliotheken weiterentwickeln, so dass sie auch bei ihnen (gut) laufen.
#10
Wo ist denn das konkurenzfähige Compute-Produkt? Sprecht ihr hier von Grafikkarten mit 4GB RAM? Damit kann man toll Passwörter knacken, aber für die Simulation größerer Systeme sind die nicht sonderlich geeignet.

Ich sehe die Situation vielleicht zu sehr aus meiner Perspektive. Für die HPC Anwendungen die mir so unterkommen gibt es bisher wenig interessante Produkte zu kaufen.
Angekündigt oder nach Gerüchten demnächst verfügbar ist dagegen eine ganze Menge.
#11
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Kapitän zur See
Beiträge: 3333
Aktuell hat AMD sein 14nm- Lineup nicht voll gebracht, sondern erst einen nennenswerten Chip(Polaris 10) mit ca. 5,8 TFLOPS, der fast nur 1/3 so groß ist, wie der der Fury X, sodass es noch kein Konkurrenzprodukt gibt. Jetzt kannst Du dieses Drittel auf ein Ganzes aufskalieren und landest irgendwie um ca. 15 TFLOPS. Was nicht bedeutet, dass sie gleich 15 bringen, sondern es kann auch gut sein, dass sie erst mal mit 10 anfangen, da sie auf dem Consumermarkt auch nicht so viele Shader raushauen können, weil für Spiele(nicht für Computing) sonst das P/L- Verhältnis in den Keller geht.
#12
Würde es Vega Grafikkarten mit 16 oder 32GB HBM2 zu kaufen geben fände ich es ja toll wenn die Software zur Nutzung der Hardware nachgereicht wird. Aber im Moment wäre es mir lieber man könnte die Hardware zeitnah im Laden kaufen und dafür gäbe es eben noch keine aufpolierten Bibliotheken.
Es ist ein großer Aufwand so eine Software in guter Qualität zu entwickeln und zu pflegen. Das bindet qualifiziertes und damit auch teures Personal. Und das langfristig. Solche Software anzukündigen und nach 3 Jahren wieder einzustellen wäre ein Eigentor.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]