AMD greift mit Kaveri-APU und Mantle NVIDIAs PhysX an

iToms

Redakteur
Thread Starter
Mitglied seit
25.11.2011
Beiträge
2.016
<p><img style="margin: 10px; float: left;" alt="AMD Gaming Evolved" src="/images/stories/logos-2013/AMD_Gaming_Evolved.png" height="100" width="100" />Als AMD seine Low-Level-API Mantle auf Hawaii auf seinem #GPU14-Event <a href="index.php/news/hardware/grafikkarten/28025-gpu14-tech-day-mit-mantle-und-trueaudio-auf-angriffskurs.html" target="_blank">vorstellte</a>, war eines klar: Die Softwareindustrie muss bereit sein mit einer Technologie zu arbeiten, die exklusiv mit dem kleineren Anbieter eines Duopols im Grafikkartenmarkt läuft. Dazu hat sich AMD einige Entwicklerstudios ins Boot geholt, unter anderen DICE von Electronic Arts welches Battlefield 4 mit Mantle nachträglich ausstatten will und Eidos Montreal, welches mit dem Spiel Thief ein Produkt auf den Markt bringt, das Mantle von...<br /><br /><a href="/index.php/news/hardware/prozessoren/29455-amd-greift-mit-kaveri-apu-und-mantle-physx-an.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schöne Idee, nur wer paar eine 290X mit einer APU?
Mal sehen, ob mit den Steamroller FX CPUs etwas ähnliches kommt.
 
Alles schön und gut, aber mit diesen "Lösungen" erweisen AMD und nVidia dem PC einen Bärendienst.

Viel sinnvoller wäre es, wenn beide OpenGL und GPU-basierte Physikberechnungen basierend auf offenen Standards in einer PC-Allianz pushen würden.

Mantle und PhysX sind in der Theorie toll, aber eigentlich gehen mir diese Alleingänge ziemlich auf die Eier.
 
Nett wäre, wenn AMD in zukünftige FX Prozessoren auch ein paar GCN Kerne implementiert. Selbst 128 oder 256 sollten der Leistung bei softwareseitiger Unterstützung noch mal einen Schub verpassen.
 
Nvidia könnte sich die Lizens für Mantle kaufen, aber das dürfte erst passieren, wenn die NV Verkaufszahlen spürbar einknicken.
aber hey, ich hab nen besseren Vorschlag: Technologieaustausch -> NV bekommt Mantle-Rechte und AMD darf G-Sync verwenden
Fehlt nur noch Intel in der Runde ... also doch lieber OpenCL
 
Zuletzt bearbeitet:
Mein Hauptproblem mit den Herstellereigenen Standarts wie z.B. PhysX, G-Sync und Mantle ist vor allem, dass darunter Entwickler und Spieler leiden. Den entweder man programmiert für eine Seite, auf der laufen dann auch die Spiele super und macht sich bei der anderen unbeliebt, oder aber man macht sich als Entwickler die Mühe das ganze für beide Systeme zu schreiben, was dann irgendeine Mischung aus mehr Aufwand, schlechteren Spielen, sowohl als Spiel selber, als auch Technisch, und höheren Preisen führt.

Außerdem sollte ja klar sein, dass sobald einer eine gewisse Technik hat das nur einen temporären Vorsprung gibt, da die andere Seite natürlich dann auch etwas entsprechendes entwickelt.

Nebenbei sind viele der neuen Techniken nur auf neuer Hardware möglich, was den Zwang aufbaut upzugraden, was auch nicht jeder will.
 
Zuletzt bearbeitet:
PhysX auch. Nützt aber nix, wenn die Performance jeweils nur bei Hardware von einem Hersteller optimal ist.

Quatsch ! PhysX läuft nur auf Nvidia GPU´s da die das nie freigegeben haben. Das was funktioniert ist, es über die CPU berechnen zu lassen.
 
Ja, aber auch nur weil die anderen Hersteller die Zusammenarbeit verweigert haben.
Nvidia hat nie etwas angeboten bei Physix/GSync
 
Nvidia könnte sich die Lizens für Mantle kaufen, aber das dürfte erst passieren, wenn die NV Verkaufszahlen spürbar einknicken.
aber hey, ich hab nen besseren Vorschlag: Technologieaustausch -> NV bekommt Mantle-Rechte und AMD darf G-Sync verwenden
Fehlt nur noch Intel in der Runde ... also doch lieber OpenCL

Für was braucht AMD G-Sync? Die haben FreeSync :haha: und das ist kostenlos (wenn man eine AMD Karte ab Radeon HD 5XXX hat).
 
Das was funktioniert ist, es über die CPU berechnen zu lassen.

Exakt, lauffähig ist PhysX aber natürlich auch auf System mit AMD-GPU (die da halt nix berechnet, sondern wie du schon sagst nur die CPU ;)). Performant ist das eben nicht, was für eine Low-Level-API auf einer anderen Architektur als GCN genauso gelten wird.

Soll heißen: Nur ein offener Standard kann die Lösung sein.
 
Für was braucht AMD G-Sync? Die haben FreeSync :haha: und das ist kostenlos (wenn man eine AMD Karte ab Radeon HD 5XXX hat).

Nein, AMD hat nichts. Vielleicht haben sie in 1 Jahr was, wenn DP 1.3 in Monitoren zu finden ist und die Monitorhersteller mitspielen und das optionale Feature integrieren.

Es ist weiterhin unklar, ob die bisherigen Grafikkarten das unterstützen werden, denn die haben alle DP 1.2 . Abwärtskompatibel ist nicht das selbe wie aufwärtskompatibel.
 
Für was braucht AMD G-Sync? Die haben FreeSync :haha: und das ist kostenlos (wenn man eine AMD Karte ab Radeon HD 5XXX hat).

Aber Desktop-Monitore unterstützen es noch nicht, somit momentan nicht nutzbar.
 
Hm, wäre doch an sich ne echt coole Idee... so könnte bspw. bei nem Supporteten Game nen 7850k die Physik berechnen via iGPU und die GCN Graka (muss ja keine 290X sein, ne HD7870/R9 270X tuts ja auch) macht den Rest.
 
Die meisten Features sind auch per software lösbar, dann sollen sie halt mehr für monitore und gpus verlangen!
 
Genau das, was ich vor vielen Monaten schrieb, tritt nun ein, die Kaveri APU wird sowohl als CPU, aber auch als Einheit zur Berechnung von Effekten genutzt, mit denen eine GPU besser zurecht kommt.

Aber es ist ein langer Weg, bis das alles Hand&Fuß hat, muss von den Entwickler auch unterstützt werden. Mit Traumsystem bestünde aus einer APU mit 150W TDP, CPU auf Intelniveau und iGPU auf AMD Höhe, dazu GDDR5 und eine dGPU.

So lange jedoch nicht alle an einem Strang ziehen, sehe ich schwarz, schade ist nur, dass die AMD APU mit vernünftiger Unterstützung in vielen Anwendungsbeispielen weitaus schneller als Intel sein könnte, vor allem wenn es um Grafik/Physikberechnungen geht, aber daran glaube ich erst, wenn es soweit ist. Was bedeutet das ich bei meiner Intel CPU bleibe.

Hoffentlich denken nicht alle so wie ich, sonst wird niemand Kaveri kaufen und es erstickt sich gleich im Keim, allerdings kaufe ich das, was aktuell sinn macht, schade drum.
 
Mit Traumsystem bestünde aus einer APU mit 150W TDP, CPU auf Intelniveau und iGPU auf AMD Höhe, dazu GDDR5 und eine dGPU.

So lange jedoch nicht alle an einem Strang ziehen, sehe ich schwarz, schade ist nur, dass die AMD APU mit vernünftiger Unterstützung in vielen Anwendungsbeispielen weitaus schneller als Intel sein könnte, vor allem wenn es um Grafik/Physikberechnungen geht, aber daran glaube ich erst, wenn es soweit ist.

Nur was willst du mit so einem "System"?
Stell dir ne anständige CPU + Board Kombo hin und drück ne anständige GPU als dGPU dazu -> fertig.
Die APU braucht dort eigentlich keiner... Das ist der Knackpunkt. Die APU macht genau dort Sinn, wo du keine dGPU zustecken willst oder kannst. Nur halte ich dort den Weg, noch mehr Berechnungen auf die so schon lahme GPU zu packen für äußerst fatal, wenn nicht gar falsch. Einfach weil diese ohne dedizierte GPU so schon viel zu schwach ist.

Beispiel gefällig, hier worde ja oben TressFX erwähnt:
Tomb Raider PC mit DirectX 11 und TressFX: Grafikkarten-Benchmarks - Update: Neuer Patch, erste Ergebnisse
Wenn ich mir da ansehe, was popliges FXAA bei aktivem TressFX mit ner schon oberen Mittelklasse ala HD7870/HD7850 schafft, kann ich das ehrlich gesagt nicht sonderlich gut heißen... Und da bei TR gehts imho nur um "Haare"...

Mir scheint, das viele hier einfach sich vom Marketinggeblubber blenden lassen. Die Berechnungen für TressFX sind doch alle "nur" OpenCL Code. -> es spricht absolut nichts dagegen, den Spaß auf ner dedizierten GPU ausführen zu lassen. Außer das man aktuell nicht wählen kann, wo die Berechnungen laufen sollen. Wenn AMD hier (so interpretiere ich das aus der News raus) den Spaß "nur" mit ihren APUs bundeln will, sehe ich echt massiv tiefschwarz für so ein Vorhaben. Eine dGPU mit anständig Performance wird deutlich vor den paar ALUs von Kaveri agieren können. Und hätte obendran noch Luft nach oben. Im übrigen sehe ich auch nicht, wo hier AMD PhysX "angreifen" würde... PhysX ist eine vollständige Physikbibliothek und hat so erstmal gar nix mit Mantle geschweige denn mit TressFX zu tun. Irgendwie steht da auch nichts davon, das Mantle + TressFX nun eine Physikbibliothek ersetzen kann/wird. :wink: Es wird wohl mal wieder lange nicht so heiß gegessen, wie man real kocht ;)
 
Wow hey Sonne,

schalte bitte einen Gang zurück, wer ist denn Dir über die Leber geschlittert, wieso so unheimlich aggressiv?

Was ich interessant finde ist die Tatsache, dass eine iGPU manche Berechnungen deutlich effektiver handhaben kann als eine CPU und eine Kombination dessen äußerst wirkungsvoll sein kann, wenn es unterstützt werden würde. Denn wenn man bereits die stärkste CPU und stärkste GPU besitzt, ist das Ende der Fahnenstange erreicht, mal Multi GPU etc. ausgenommen. Wenn nun eine APU anstelle der CPU zum Einsatz kommt, welche genau so leistungsstark ist, eine iGPU integriert hat und mit einer guten Kühlung auf 150W TDP gesetzt werden würde um auf PC 4 Leistungsniveau zusammen mit GDDR5 zu gelangen, hätte man zusätzlich, sofern man kein Multi GPU etc. betreiben möchte, die Chance auf die APU Berechnungen auszulagern und zusätzlich die CPU für andere Berechnungen zu entlasten.

Ich habe von der Materie keine Ahnung, meinem bescheidenen Verständnis nach, wäre dies eine bisher noch ungenutzte Möglichkeit. Ohne die nötigen Kenntnisse klingt das recht plausibel, aber ich schrieb auch, und das hast Du leider überlesen, oder nicht lesen wollen, dass ich eine Intel CPU besitze und auch dabei bleiben werde, bis ich von einem neuen Konzept durch Tatsachen und keinen Wenn/Aber Szenarien überzeugt wurde.

Von daher, bitte das nächste mal etwas freundlicher bleiben, ich weiß wirklich nicht, wieso du so empfindlich reagierst. Und tut mir Leid, habe das Ganze nur passiv in News mitverfolgt und nicht in den Threads mitgelesen, ich weiß also nicht, was hier unter Umständen vorgefallen ist.

Allen einen schönen Abend :)
 
Ich bin die Ruhe in Person :wink:

Wollte damit nur andeuten, das es wenig bringt die abgespeckte, weil nur "halbe" APU zugunsten einer anständigen großen CPU + GPU Kombo zu betreiben. Denn das, was die APU kann, nämlich den OpenCL Code ausführen, kann das große Gespann auch ;) Das Problem ist aus meiner Sicht dort massiv die Marketingabteilung, wo man sich mit aus meiner Sicht unsinnigen Vergleichen schmückt... Das, was sinnvoll zu vergleichen ist, nämlich beispielsweise nen FX8 + große dGPU gegen die APU zu stellen, macht da wohl am Ende keiner. Einfach weil die Ergebnise unterm Strich vernichtend wären. Zuungunsten der APU versteht sich :fresse:

"Im von AMD genutzten Beispiel wird das Gras wohl mit TressFX 2.0 auf der APU berechnet und der Rest von der dedizierten Grafikkarte." -> würde mit größter Warscheinlichkeit auf der dGPU meilenweit schneller laufen als auf der APU. -> wozu also so einen Umweg? Mir stellt sich die Frage ernsthaft... Da ich das Konzept bei NV auch schon nicht verstanden habe. Dort wirbt man ebenso alle Nase lang mit PhysX per GPU. Nur sollte man eben dort als Spieler, der das auch genießen will, eher oben anstatt untem ins Regal greifen. Sonst bleibt von PhysX per GPU nicht viel über :fresse:
 
Zuletzt bearbeitet:
Nun, den ersten Satz musste ich mit einem Schmunzeln lesen ;)

Was glaubst Du wohl, warum ich keine APU im System habe und dies auch vorerst so bleibt? Habe seit vielen Jahren wie Du eine Sandy die sehr gute Dienste leistet und sie bleibt so lange, bis sie den Geist aufgibt oder AMD/Intel etwas vernünftiges präsentieren. Leider sieht es da auf beiden Seiten ziemlich düster aus, eine richtige Gewitterwolke, vielleicht habe ich in 3-4 Jahren wieder einen Grund umzusteigen, mal schauen.
 
Warum soll das ganze nichts bringen? Wenn tressFX die daten berechnet, an die CPU zurück schickt um sie dann wieder an die GPU zum anzeigen zu schicken, dann läuft das ganze auf der APU schneller ab.
 
Wer sagt, dass da Latenz bzw. Bandbreite nennenswert limitieren, und nicht eher die Rechenleistung?
 
Warum soll das ganze nichts bringen? Wenn tressFX die daten berechnet, an die CPU zurück schickt um sie dann wieder an die GPU zum anzeigen zu schicken, dann läuft das ganze auf der APU schneller ab.

Da hast du freilich pauschal erstmal recht... Die viel interessantere Frage ist, wie viel Zeit benötigt die reine Berechnung und wie viel Zeit benötigt der "Datentransfer"!? Um so länger die Berechnungszeit, desto weniger wirkt sich die Transferzeit am Ende aus. Und ich bezweifle aktuell irgendwie stark, das die APU mit ihren 512 ALUs vom TopDog massiv viel mehr Berechnungen schaffen sollte, als eine anständige Performancekarte, die eben noch einen Teil ihrer Leistung in die Bildberechnung stecken muss...
Zumal ja die TressFX Berechnungen eben "nur" OpenCL ist, was potentiell eben auch auf der dGPU laufen kann und wird wird (sofern man es nicht künstlich deaktiviert)
Hier sehe ich eben ein weiteres "Problem". Auch die APU kommt an ihre Grenzen. Und das aufgrund der reinen Rohleistung deutlich früher... Sicher kann hier HSA helfen um Flaschenhälse zu minimieren. Nur wenn die Einheiten nicht schneller berechnen können, gehts sowohl mit als auch ohne HSA nicht schneller :wink: Hier sehe ich die Gefahr, dass man die Berechnungen gerade so optimal auslegt, das es für die APU dann passt. PhysX setzt die Berechnungen teils so hoch an, das die CPU eben nicht mitkommt, obwohl da dankt ausgeknipsten MCPU Support noch 75% Luft ist (Quadcore)
 
Zuletzt bearbeitet:
Nur was willst du mit so einem "System"?
Stell dir ne anständige CPU + Board Kombo hin und drück ne anständige GPU als dGPU dazu -> fertig.
Die APU braucht dort eigentlich keiner... Das ist der Knackpunkt. Die APU macht genau dort Sinn, wo du keine dGPU zustecken willst oder kannst. Nur halte ich dort den Weg, noch mehr Berechnungen auf die so schon lahme GPU zu packen für äußerst fatal, wenn nicht gar falsch. Einfach weil diese ohne dedizierte GPU so schon viel zu schwach ist.

Beispiel gefällig, hier worde ja oben TressFX erwähnt:
Tomb Raider PC mit DirectX 11 und TressFX: Grafikkarten-Benchmarks - Update: Neuer Patch, erste Ergebnisse
Wenn ich mir da ansehe, was popliges FXAA bei aktivem TressFX mit ner schon oberen Mittelklasse ala HD7870/HD7850 schafft, kann ich das ehrlich gesagt nicht sonderlich gut heißen... Und da bei TR gehts imho nur um "Haare"...

Mir scheint, das viele hier einfach sich vom Marketinggeblubber blenden lassen. Die Berechnungen für TressFX sind doch alle "nur" OpenCL Code. -> es spricht absolut nichts dagegen, den Spaß auf ner dedizierten GPU ausführen zu lassen. Außer das man aktuell nicht wählen kann, wo die Berechnungen laufen sollen. Wenn AMD hier (so interpretiere ich das aus der News raus) den Spaß "nur" mit ihren APUs bundeln will, sehe ich echt massiv tiefschwarz für so ein Vorhaben. Eine dGPU mit anständig Performance wird deutlich vor den paar ALUs von Kaveri agieren können. Und hätte obendran noch Luft nach oben. Im übrigen sehe ich auch nicht, wo hier AMD PhysX "angreifen" würde... PhysX ist eine vollständige Physikbibliothek und hat so erstmal gar nix mit Mantle geschweige denn mit TressFX zu tun. Irgendwie steht da auch nichts davon, das Mantle + TressFX nun eine Physikbibliothek ersetzen kann/wird. :wink: Es wird wohl mal wieder lange nicht so heiß gegessen, wie man real kocht ;)

Er meint es so, dass dank der iGPU das System inkl. der dGPU entlastet werden kann. Anders wie bei den iGPUs von Intel, können die iGPUs der APUs mit den dGPUs zusammenarbeiten und somit mehr Leistung bieten. Wenn dann die CPU noch Intel-Niveau erreichen würde, und der Preis bei maximal 170 € bliebe (für die APU), dann wäre diese Kombo von dir von Nachteil. Sie wäre teurer und langsamer, für den Preis.
Aber das steht noch in den Sternen.
 
Da hast du freilich pauschal erstmal recht... Die viel interessantere Frage ist, wie viel Zeit benötigt die reine Berechnung und wie viel Zeit benötigt der "Datentransfer"!? Um so länger die Berechnungszeit, desto weniger wirkt sich die Transferzeit am Ende aus. Und ich bezweifle aktuell irgendwie stark, das die APU mit ihren 512 ALUs vom TopDog massiv viel mehr Berechnungen schaffen sollte, als eine anständige Performancekarte, die eben noch einen Teil ihrer Leistung in die Bildberechnung stecken muss...
Zumal ja die TressFX Berechnungen eben "nur" OpenCL ist, was potentiell eben auch auf der dGPU laufen kann und wird wird (sofern man es nicht künstlich deaktiviert)
Hier sehe ich eben ein weiteres "Problem". Auch die APU kommt an ihre Grenzen. Und das aufgrund der reinen Rohleistung deutlich früher... Sicher kann hier HSA helfen um Flaschenhälse zu minimieren. Nur wenn die Einheiten nicht schneller berechnen können, gehts sowohl mit als auch ohne HSA nicht schneller :wink: Hier sehe ich die Gefahr, dass man die Berechnungen gerade so optimal auslegt, das es für die APU dann passt. PhysX setzt die Berechnungen teils so hoch an, das die CPU eben nicht mitkommt, obwohl da dankt ausgeknipsten MCPU Support noch 75% Luft ist (Quadcore)

Der libre Office Test hat doch schon mal einen guten Ansatz gegeben, was alles möglich ist und auch wieviel Overhead bei OpenCL dabei sein muss, bzw an was OpenCL krankt.

Page 5 - AMD Kaveri A10-7850K and A8-7600 review: Was it worth the wait for the first true heterogeneous chip? | ExtremeTech

Ich würde das ganze mal abwarten, bis es wo getestet wurde, Letztendlich darfst du dann auch nicht dGPU vs iGPU rechnen, sondern dGPU vs dGPU+iGPU und da bietet kaverie nun mal ~12% der Rohleistung einer R9 290x. Im Midrange bereich ist das verhältnis sogar noch größer und genau hier wird kaverie dann seine stärken ausspielen können (sofern die spiele Schmieden mitziehen).
 
Zuletzt bearbeitet:
Er meint es so, dass dank der iGPU das System inkl. der dGPU entlastet werden kann. Anders wie bei den iGPUs von Intel, können die iGPUs der APUs mit den dGPUs zusammenarbeiten und somit mehr Leistung bieten. Wenn dann die CPU noch Intel-Niveau erreichen würde, und der Preis bei maximal 170 € bliebe (für die APU), dann wäre diese Kombo von dir von Nachteil. Sie wäre teurer und langsamer, für den Preis.
Aber das steht noch in den Sternen.

Das Problem ist, dass das was die iGPU der APU der 290x an Arbeit abnehmen könnte diese locker selber erledigen könnte. Die Rechenleistung die eine 290x mit einem Kaveri Quad liegen lässt dürfte weit größer sein als die Rechenkapazität
der iGPU...
 
PhysX ist eh tot, alle neuen Engines (CE3, UE4, FB3 usw) können das, was PhysX brachte, selbst effizienter regeln, als es PhysX je könnte. Wenn man sich die PhysX-Spiele anschaut sind das überwiegend UE3-Spiele und ein paar A4-Games. Alles was mit neuer Technik kommt braucht PhysX (oder Havok) nicht mehr.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh