> > > > AMDs GPUOpen-Initiative gegen CUDA und GameWorks

AMDs GPUOpen-Initiative gegen CUDA und GameWorks

Veröffentlicht am: von

AMD Logo 2013Bereits im Dezember des vergangenen Jahres kündigte AMD seine GPUOpen-Initiative an und sprach sich darin für einen Open-Source-Gedanken für die Nutzung von Programmierschnittstellen aus. Damit möchte AMD vor allem für die Entwickler weitere Anreize schaffen die eigene Hardware zu verwenden. Weite Teile der zur Verfügung stehenden Software sollen nun weiter verbessert und teilweise als Open-Source angeboten werden, damit diese Verbesserungen schneller und auch durch externe Entwickler getrieben eingebaut werden können. Dies betrifft bestimmte Bibliotheken der SDKs (LiquidVR, FireRender, DX-11- und DX-12-Examples) ebenso wie Tools für bestimmte visuelle Effekte (TressFX 3.0, ShadowFX und GeometryFX). Insgesamt soll die Entwicklung damit effizienter und einfacher werden.

AMD GPUOpen-Initiative
AMD GPUOpen-Initiative

Der zum damaligen Zeitpunkt noch recht weit gefasste Ansatz wurden nun etwas genauer ausgeführt und betrachtet dabei die Nutzung bei der Spieleentwicklung und Grafikeffekten im Besonderen. Den Fokus rückt AMD dabei auf spezielle SDKs wie AO FX, GeometryFX, ShadowFX, TressFX und LiquidVR. Damit stellt AMD diese in direkter Konkurrenz zu den zahlreichen GameWorks-SDKs aus dem Hause NVIDIA. Sie sind als Blackbox und durch ihre proprietäre Natur immer wieder in der Kritik - nicht nur zwischen AMD und NVIDIA, sondern auch zwischen den verschiedenen Unterstützergruppen in Form von Spieleentwicklern. GPUOpen soll ein Gegenpol zu dieser Strategie sein. Allerdings ist AMD nun darauf angewiesen, dass Entwickler die Vorteile auch für sich erkennen und verstärkt auf eine Unterstützung solcher freien Technologien setzen. So lange NVIDIA einige Entwickler aber direkt an sich und an die Unterstützung von GameWorks bindet, dürfte dies recht schwer werden.

Neben dem Open-Soure-Gedanken bei den Entwicklungs-Bibliotheken für Spiele sieht AMD die Vorteile aber vor allem im professionellen Bereich. Auch hier soll recht weitläufig freie Software eingesetzt werden. Vom Treiber, über das Training für Deep Learning, bis hin zu Anwendungen in den verschiedenen Industriebereichen. Ein Beispiel ist der Headless-64-Bit-Treiber, der für geringere Latenzen und weniger Overhead sorgen soll - seine Entwicklungsbasis ist inzwischen veröffentlich worden. Den Grundgedanken aber am besten beschreiben kann der HCC – Heterogenious Compute Compiler. Dabei handelt es sich um einen Open-Source-Compiler für C++, der Code für GPUs zusammenstellen soll. Unter anderem wird damit der sogenannte HIP realisiert. Dabei handelt es sich um einen Konverter, der CUDA-Code zu C++ konvertiert, der dann auch auf AMD-GPUs ausgeführt werden kann.

AMD GPUOpen-Initiative
AMD GPUOpen-Initiative

Bis wir erste Ergebnisse der GPUOpen-Initiative sehen werden, wird es aber noch einige Zeit dauern. Die Entwickler müssen sich auf die neue Strategie bei AMD erst einstellen und entsprechend ihre Projekte umsetzen. AMD geht es aber sicherlich auch vermehrt darum eine andere Gedankenwelt in die aktuell recht geschlossenen Entwicklersysteme zu bekommen. Ob man die dazu notwenige Durchdringung wird aufbringen können, steht allerdings in den Sternen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (24)

#15
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32997
Stimmt...

Aber nein, DX ist eine Schnittstelle. Keine Physikbibliothek. Das ist ein Himmelweiter Unterschied ;)
#16
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6677
Aber können diese Physikeffekte nicht zu DirectX Features werden?
Oder liegt PhysX eher auf Ebene der Grafikengine?
#17
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32997
Eine Physikengine bzw. Physikbibliothek wie PhysX ist eben eine Engine/Bibliothekensammlung, wie es bspw. die Unreal Engine im visuellen Bereich ist -> nur eben für die Simulation von was auch immer. ;) DX ist "nur" die Schnittstelle zwischen Hardwarebene und Software. Es ist somit eher eine zusätzliche Abstraktionsschicht um eine ganzheitliche Kompatibilität zu gewährleisten. -> Analog dazu OpenGL/Vulkan oder auch Mantle.

Das Problem hier ist wie so oft, die Leute wissen gar nicht über was sie sich da versuchen zu unterhalten ;) Eine Physikengine wird NIE Bestandteil einer Schnittstelle wie OpenGL/DirectX werden. Warum auch? Es sind zwei völlig verschiedene paar Schuhe.

PS: Die Diskusion gabs übrigens früher schon mehrfach. Mit dem Auftreffen von DirectCompute wurde letztmalig der Durchbruch für eine GPU Beschleunigte Physikberechnung gehypt. Passiert ist genau nichts in der Richtung.
Ich stelle es mir auch reichlich schwer vor. Man kann von Gameworks/PhysX halten was man will. Aber da steckt 15 Jahre KnowHow dediziert für solche Simulationen dahinter. Das heist keineswegs, dass es nicht "besser" geht, ganz im Gegenteil. Aber es ist für jeden Entwickler von Software eben "einfacher", sich sowas einzukaufen, als das Pferd neu zu erfinden. Denn letzteres kostet Geld, Zeit und Ressourcen... Und das ist nicht ohne! Ab dem Punkt, wo der Zukauf so einer Lösung einfach billiger ist, als es selbst zu erstellen, wird man nicht mehr überlegen ;)

Mal als kleiner Vergleich dazu: vor 20 Jahren konnte noch eine einzige Person ein optisch sowie spielerisch ansprechendes Spiel innerhalb überschaubarer Zeit entwickeln. Mal den Vertriebskanal außen vor, war das faktisch kein wirkliches Problem. Schau es dir heute an. Da sitzen in den größeren Spieleschmieden 30, 40 oder mehr Entwickler, die sich trotzdem noch die KnowHow wie bspw. eine Grafikengine einkaufen anstatt es selbst zu programmieren. Das ist schon bezeichnend, wo die Reise hingeht! Wir kommen aber auch nicht mehr weg von diesem Punkt, denn der Anspruch an die Software wie Spiele steigt mit jedem Jahr. Vorrangig der optische Anspruch! Trotzdem kommt immer mehr "Grütze" bei raus... Mit OpenSource löst man das Grundproblem aus meiner Sicht definitiv NICHT.
#18
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11471
Wieso löst es das Problem nicht? Wenn die leistungsstarken Engines fuer jeden verfuegbar waeren, gaebe es auch noch mehr indie entwickler. DIE UE hat es ja eigentlich vorgemacht.
#19
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32997
Weil Kostenfrei nunmal kein Geld einspielt... Wer gibt dann noch Support? Wer soll die Dinger weiterentwicklen? Wie soll sich das Produkt (also die Engine) dann noch halten am Markt?
Wenn man ohne Support könnte, dann würde es keinen Support geben... Aber ohne Support gehts idR nicht.

Und klar machts die UE vor. Aber auch dort gehts ums Geld. Schau dir mal die Lizenzbestimmungen an, Stichwort Kommerzielle Nutzung ;) Nur weil du es als privat Person nutzen kannst, ist es nicht für jeden für Umme zu haben...
Die Welt könnte so einfach sein, wenn nichts im Softwaremarkt Geld kosten würde. Aber wie schon erwähnt, da sitzen auch "nur" Menschen, und die müssen ihren Lebensunterhalt verdienen... OpenSource und für jeden Frei ist nunmal nicht. Wovon sollen die Leute dann leben?

Das Problem hier ist weiterhin doch auch, dass man denkt, alles für lau bekommen zu können. Wenn sich ein Unternehmen entscheidet, für ihr Produkt Geld und Lizenzen zu verlangen, dann gibst halt nur zwei Optionen -> kaufen oder nicht nutzen. Die Entscheidung steht und fällt mit den Alternativen. Für GPU based Physik gibts aktuell keine Alternative zu Gameworks, mit Ausnahme der Haar/Fellsimulation TressFX von AMD.
Unterm Strich muss das jeder für sich selbst entscheiden... Aber als Entwickler sehe ich das klar kritischer als so manch Anderer hier. Vor allem, weil ich einschätzen kann, was da für Aufwände hinter stehen. Wenn du mal ein Jahr lang mehrere Stunden am Tag für "lau" arbeiten sollst, damit irgend ein Dritter glücklich ist, weist du was ich meine.
#20
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6069
Zitat NasaGTR;24269679
Aber können diese Physikeffekte nicht zu DirectX Features werden?
Oder liegt PhysX eher auf Ebene der Grafikengine?

Gute Frage, bei den neuen Titel die auch Mantle Support haben ist jede Menge Physik dabei, auch ohne nvidia PhysX.
Von daher wird sowas schon möglich sein, Vulkan allen voran: https://www.khronos.org/assets/uploads/developers/library/overview/vulkan-overview.pdf

Da sind auch alle involviert und tauschen sich die Engine gegenseitig aus als Lizenzen zu erwerben. ;)

Zitat
Ground-up design of a modern open standard API for driving high-efficiency graphics and compute on GPUs used across diverse devices
#21
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6677
Das typische Mantle Spiel Battlefield 4 hat seine Physikeffekte meines Wissens nach komplett von Havok.
#22
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6069
Zitat NasaGTR;24273259
Das typische Mantle Spiel Battlefield 4 hat seine Physikeffekte meines Wissens nach komplett von Havok.

So genau weiß ich es nicht, da müsste ich selbst erst Nachlesen.
Aber das ist nicht nur bei BF4 so, auch bei Thief, Dragon Age Iq., PvZ Warfare und Sid Meier's Civilization: Beyond Earth.
Zudem lässt sich nv PhysX bei den Spiele aktivieren (die es können), bisher habe ich noch keine unspielbare Szenen gesehen. :d

z.B. http://abload.de/img/borderlands2_nv_physxr0sn9.png
#23
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6677
Borderlands 2 kam raus, kurz bevor Nvidida die PhysX effekte exklusiv gemacht hat, das PhysX wird dort komplett auf der CPU ausgeführt und sorgt für extreme Frameeinbrüche bei starker Nutzung! Eben wie die CPU damit überfordert ist.
#24
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6069
Zitat NasaGTR;24273983
Borderlands 2 kam raus, kurz bevor Nvidida die PhysX effekte exklusiv gemacht hat, das PhysX wird dort komplett auf der CPU ausgeführt und sorgt für extreme Frameeinbrüche bei starker Nutzung! Eben wie die CPU damit überfordert ist.

Wie geschrieben hab bisher keine Probleme damit inGame, bei Benchmarks die auch die Ladezeiten berücksichtigen kann das aber trotzdem vorkommen.
Das nv PhysX klappt auch bei Metro LL Redux. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]