> > > > AMD greift mit Kaveri-APU und Mantle NVIDIAs PhysX an

AMD greift mit Kaveri-APU und Mantle NVIDIAs PhysX an

DruckenE-Mail
Erstellt am: von

AMD Gaming EvolvedAls AMD seine Low-Level-API Mantle auf Hawaii auf seinem #GPU14-Event vorstellte, war eines klar: Die Softwareindustrie muss bereit sein mit einer Technologie zu arbeiten, die exklusiv mit dem kleineren Anbieter eines Duopols im Grafikkartenmarkt läuft. Dazu hat sich AMD einige Entwicklerstudios ins Boot geholt, unter anderen DICE von Electronic Arts welches Battlefield 4 mit Mantle nachträglich ausstatten will und Eidos Montreal, welches mit dem Spiel Thief ein Produkt auf den Markt bringt, das Mantle von Start an unterstützen wird.

 

AMD Mantle Kaveri Physik

 

Nun versucht AMD anscheinend die PhysX-Technologie des Hauptkonkurrenten NVIDIA mit seinen vorgestern vorgestellten Kaveri-APUs anzugreifen. Mit dem neuen 14.1-Beta-Treiber soll es nämlich möglich sein - unter Voraussetzung, dass eine Kaveri-APU gepaart mit einer GCN-Grafikkarte im System verwendet wird - die APU mithilfe der HSA-Features wie hQ (Heterogenous Queuing) und hUMA mit den Physik-Berechnungen zu betrauen. Damit kann vor allem die CPU entlastet werden. Das entsprechende Spiel muss jedoch aller Voraussicht nach die Mantle-API unterstützen. Im von AMD genutzten Beispiel wird das Gras wohl mit TressFX 2.0 auf der APU berechnet und der Rest von der dedizierten Grafikkarte.

 

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (35)

#26
customavatars/avatar183273_1.gif
Registriert seit: 01.12.2012
Rheinhessische Schweiz
Kapitänleutnant
Beiträge: 1935
Zitat fdsonne;21715678
Nur was willst du mit so einem "System"?
Stell dir ne anständige CPU + Board Kombo hin und drück ne anständige GPU als dGPU dazu -> fertig.
Die APU braucht dort eigentlich keiner... Das ist der Knackpunkt. Die APU macht genau dort Sinn, wo du keine dGPU zustecken willst oder kannst. Nur halte ich dort den Weg, noch mehr Berechnungen auf die so schon lahme GPU zu packen für äußerst fatal, wenn nicht gar falsch. Einfach weil diese ohne dedizierte GPU so schon viel zu schwach ist.

Beispiel gefällig, hier worde ja oben TressFX erwähnt:
Tomb Raider PC mit DirectX 11 und TressFX: Grafikkarten-Benchmarks - Update: Neuer Patch, erste Ergebnisse
Wenn ich mir da ansehe, was popliges FXAA bei aktivem TressFX mit ner schon oberen Mittelklasse ala HD7870/HD7850 schafft, kann ich das ehrlich gesagt nicht sonderlich gut heißen... Und da bei TR gehts imho nur um "Haare"...

Mir scheint, das viele hier einfach sich vom Marketinggeblubber blenden lassen. Die Berechnungen für TressFX sind doch alle "nur" OpenCL Code. -> es spricht absolut nichts dagegen, den Spaß auf ner dedizierten GPU ausführen zu lassen. Außer das man aktuell nicht wählen kann, wo die Berechnungen laufen sollen. Wenn AMD hier (so interpretiere ich das aus der News raus) den Spaß "nur" mit ihren APUs bundeln will, sehe ich echt massiv tiefschwarz für so ein Vorhaben. Eine dGPU mit anständig Performance wird deutlich vor den paar ALUs von Kaveri agieren können. Und hätte obendran noch Luft nach oben. Im übrigen sehe ich auch nicht, wo hier AMD PhysX "angreifen" würde... PhysX ist eine vollständige Physikbibliothek und hat so erstmal gar nix mit Mantle geschweige denn mit TressFX zu tun. Irgendwie steht da auch nichts davon, das Mantle + TressFX nun eine Physikbibliothek ersetzen kann/wird. :wink: Es wird wohl mal wieder lange nicht so heiß gegessen, wie man real kocht ;)


Er meint es so, dass dank der iGPU das System inkl. der dGPU entlastet werden kann. Anders wie bei den iGPUs von Intel, können die iGPUs der APUs mit den dGPUs zusammenarbeiten und somit mehr Leistung bieten. Wenn dann die CPU noch Intel-Niveau erreichen würde, und der Preis bei maximal 170 € bliebe (für die APU), dann wäre diese Kombo von dir von Nachteil. Sie wäre teurer und langsamer, für den Preis.
Aber das steht noch in den Sternen.
#27
Registriert seit: 23.09.2009

Kapitänleutnant
Beiträge: 1917
Zitat fdsonne;21716035
Da hast du freilich pauschal erstmal recht... Die viel interessantere Frage ist, wie viel Zeit benötigt die reine Berechnung und wie viel Zeit benötigt der "Datentransfer"!? Um so länger die Berechnungszeit, desto weniger wirkt sich die Transferzeit am Ende aus. Und ich bezweifle aktuell irgendwie stark, das die APU mit ihren 512 ALUs vom TopDog massiv viel mehr Berechnungen schaffen sollte, als eine anständige Performancekarte, die eben noch einen Teil ihrer Leistung in die Bildberechnung stecken muss...
Zumal ja die TressFX Berechnungen eben "nur" OpenCL ist, was potentiell eben auch auf der dGPU laufen kann und wird wird (sofern man es nicht künstlich deaktiviert)
Hier sehe ich eben ein weiteres "Problem". Auch die APU kommt an ihre Grenzen. Und das aufgrund der reinen Rohleistung deutlich früher... Sicher kann hier HSA helfen um Flaschenhälse zu minimieren. Nur wenn die Einheiten nicht schneller berechnen können, gehts sowohl mit als auch ohne HSA nicht schneller :wink: Hier sehe ich die Gefahr, dass man die Berechnungen gerade so optimal auslegt, das es für die APU dann passt. PhysX setzt die Berechnungen teils so hoch an, das die CPU eben nicht mitkommt, obwohl da dankt ausgeknipsten MCPU Support noch 75% Luft ist (Quadcore)


Der libre Office Test hat doch schon mal einen guten Ansatz gegeben, was alles möglich ist und auch wieviel Overhead bei OpenCL dabei sein muss, bzw an was OpenCL krankt.

Page 5 - AMD Kaveri A10-7850K and A8-7600 review: Was it worth the wait for the first true heterogeneous chip? | ExtremeTech

Ich würde das ganze mal abwarten, bis es wo getestet wurde, Letztendlich darfst du dann auch nicht dGPU vs iGPU rechnen, sondern dGPU vs dGPU+iGPU und da bietet kaverie nun mal ~12% der Rohleistung einer R9 290x. Im Midrange bereich ist das verhältnis sogar noch größer und genau hier wird kaverie dann seine stärken ausspielen können (sofern die spiele Schmieden mitziehen).
#28
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Zitat SkyL1nE;21718532
Er meint es so, dass dank der iGPU das System inkl. der dGPU entlastet werden kann. Anders wie bei den iGPUs von Intel, können die iGPUs der APUs mit den dGPUs zusammenarbeiten und somit mehr Leistung bieten. Wenn dann die CPU noch Intel-Niveau erreichen würde, und der Preis bei maximal 170 € bliebe (für die APU), dann wäre diese Kombo von dir von Nachteil. Sie wäre teurer und langsamer, für den Preis.
Aber das steht noch in den Sternen.


Das Problem ist, dass das was die iGPU der APU der 290x an Arbeit abnehmen könnte diese locker selber erledigen könnte. Die Rechenleistung die eine 290x mit einem Kaveri Quad liegen lässt dürfte weit größer sein als die Rechenkapazität
der iGPU...
#29
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 2832
PhysX ist eh tot, alle neuen Engines (CE3, UE4, FB3 usw) können das, was PhysX brachte, selbst effizienter regeln, als es PhysX je könnte. Wenn man sich die PhysX-Spiele anschaut sind das überwiegend UE3-Spiele und ein paar A4-Games. Alles was mit neuer Technik kommt braucht PhysX (oder Havok) nicht mehr.
#30
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat why_me
Der libre Office Text hat doch schon mal einen guten Ansatz gegeben, was alles möglich ist und auch wieviel Overhead bei OpenCL dabei sein muss, bzw an was OpenCL krankt.


Ja gute Ansätze bei selbst programmierten Code. Wie sieht das aber in er Praxis aus?
Ich finde AMD hätte lieber mehr Ressourcen in eine ordentliche CPU Power stecken sollen und HSA noch etwas rausschieben sollen, denn bisher zählt immernoch die eigentliche Rohleistung und die ist schwach.
Man steht aktuell P/L mäßig weit hinter einem Intel i3, jener liefert 30 bis 40% mehr Spieleleistung und ist selbst in Anwendungen etwas überlegen und das bei einem Preisunterschied zum AMD Topmodell von 50 Euro, hier kann man dann auch eine dgpu kaufen und ist in jeder Metrik vorne.

Selbst gegen einen Pentium hat man es schwer und das liegt einzig und alleine an der Singlethreadperformance, welche mit Kaveri !gesunken! ist.

AMD ist weiter weg denn je. ~6% mehr IPC bei den 95 Watt Modellen in Spielen ( bei Nutzung von mehr als 1 Thread) kann man sich schenken, welche PCGH ermittelt hat.

Es sieht für mich jedenfalls alles danach aus, dass AMD demnächst Pleite gehen wird, weil sie keine Kaveri Produkte verkaufen können.
Der Abstand zwischen Intel und AMD ist eher noch gestiegen denn gesunken.

Zitat
PhysX ist eh tot, alle neuen Engines (CE3, UE4, FB3 usw) können das, was PhysX brachte, selbst effizienter regeln, als es PhysX je könnte.


Volle Zustimmung.
#31
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 2832
Es ist gut, dass HSA jetzt angefangen wurde. Der Markt ist durchaus bereit dafür, wenn auch nicht unbedingt der Spielemarkt. Aber dafür hat man ja Mantle und anderes. Die CPU kommt schon noch. Wirklich was reißen kann AMD aber sowieso nur mit einer völlig neuen µArchitektur. Das kommt schon noch, wenn die FinFET-Fertigung soweit ist.
#32
customavatars/avatar108709_1.gif
Registriert seit: 17.02.2009
Dunkeldeutschland - Home of "Pack"
Admiral
Beiträge: 16627
Dito.

Hab mich jetzt auch durchgerungen - nen A10 7850k wirds wohl net werden, außer der wird bis in 4 Wochen noch nen gutes Stück günstiger [was ich nicht glaube - liegt gut im Preis atm].

Wird wohl auf nen A10 7700k rauslaufen, die iGPU ist für den Notfall völlig ausreichend da ich eh mit ner dezidierten GraKa arbeite.



Die Frage ist halt nur ob die iwi selektiert werden, die 7700k werden ja nur Teildeaktivierte 7850k sein - nur ist der CPU Teil davon auch betroffen, rein Qualitativ - rein vom CPU Teil sind es ja dieselben APUs.
#33
customavatars/avatar145005_1.gif
Registriert seit: 12.12.2010

Oberleutnant zur See
Beiträge: 1352
Zitat [HOT];21718996
PhysX ist eh tot, alle neuen Engines (CE3, UE4, FB3 usw) können das, was PhysX brachte, selbst effizienter regeln, als es PhysX je könnte. Wenn man sich die PhysX-Spiele anschaut sind das überwiegend UE3-Spiele und ein paar A4-Games. Alles was mit neuer Technik kommt braucht PhysX (oder Havok) nicht mehr.


Vorallem UE4. :vrizz:
#34
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5001
Ich hatte auch sehr viel Zeit um mir nvidia PhysX einzuverleiben, ist echt klasse vom visuellen Effekt her, keine Frage.
Aber wenn ich sehe was zwei Oberklasse GPUs mit TressFX anstellen, wow!
Das ist allerdings noch Garnichts im Vergleich zu BF4 im Single Player Mode, selten soviel Physik Effekte in einem Shooter gesehen.
Das steht in nichts dem nvidia PhysX nach und das ohne geschlossene Bibliothek.

Das ist kein Angriff, das ist eine Alternative! ;)
#35
customavatars/avatar192568_1.gif
Registriert seit: 26.05.2013

Kapitän zur See
Beiträge: 3199
PhysX kommt eh nur in lizenzierten spielen vor, und die sind bekanntlich ziemlich bad, PhysX haut außerdem niemandem vom Hocker( vllt. grundschul kinder ).

einfach unrealistisch viele leuchtende Partikel, halt ohne sinn und verstand
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]