> > > > Ashes of the Singularity mit DirectX 12 und Asynchronous Shaders im Benchmark-Vergleich

Ashes of the Singularity mit DirectX 12 und Asynchronous Shaders im Benchmark-Vergleich

DruckenE-Mail
Erstellt am: von

Seite 4: Benchmarks: Mixed-Mode

In der Theorie haben wir den Multi-GPU-Betrieb mit unterschiedlichen Grafikkarten bereits besprochen, nun schauen wir uns die dazugehörigen Leistungswerte an.

Ashes of Singularity

3.840 x 2.160 High-Preset

Bilder pro Sekunde
Mehr ist besser

In einem ersten Versuch wählten wir eine Auflösung von 3.840 x 2.160 Pixel im High-Preset. Damit ermöglichte eine zusätzlich installierte GeForce GTX 980 Ti bei einer schon installierten Radeon R9 Fury X ein Leistungsplus von 27,8 Prozent. Die GeForce GTX 980 Ti hingegen profitierte von der Radeon R9 Fury X durch ein Plus von 45,1 Prozent.

Allerdings bemerkten wir an dieser Stelle, dass Ashes of the Singularity offenbar selbst bei einer Auflösung von 3.840 x 2.160 Pixel noch durch den Prozessor limitiert wird. Der Benchmark selbst zeigt dies in der Auswertung, sodass eine entsprechende Analyse recht einfach war. Also entschieden wir uns für den Extreme-Preset und erhöhten damit die Last auf den GPUs noch etwas.

Ashes of Singularity

3.840 x 2.160 Extreme-Preset

Bilder pro Sekunde
Mehr ist besser

Im veränderten Setting profitierte die Radeon R9 Fury X von einer zusätzlich installierten GeForce GTX 980 Ti nun um 30,2 Prozent, während eine Radeon R9 Fury X einer schon installierten GeForce GTX 980 Ti zu einem Plus von 50,9 Prozent verhelfen konnte. Der Leistungszuwachs stieg also noch einmal etwas an.

Auswertung des integrierten Benchmarks in Ashes of Singularity
Auswertung des integrierten Benchmarks in Ashes of the Singularity

An dieser Stelle sei noch einmal auf den recht frühen Entwicklungsstatus von Ashes of the Singularity hingewiesen. Die verschiedenen Multi-GPU-Modi ohne die explizite Verwendung von SLI und CrossFire verlangen nach einer Menge Anpassungen durch die Spieleentwickler und hier besteht offenbar noch einiges an Optimierungspotenzial. Sicherlich spielt es auch eine Rolle, dass die dazugehörigen Implementierungen durch die Entwickler meist erstmals durchgeführt werden - es fehlt also an Erfahrung.

 

Social Links

Seitenübersicht

Kommentare (141)

#132
Registriert seit: 10.12.2009
Schweiz
Kapitän zur See
Beiträge: 3814
Zitat YB0b;24391455
die GameWorks-manipulationen sein lassen.


Manipulationen?
GameWorks ist auf Nvidia optimiert. Das weiss auch jeder Spiele-Entwickler. Aber vorallem die AAA Studios haben gar keine Lust auf eigene Performance-Optimierungen, da muss einfach möglichst schnell der 60 Teil von CoD, BF, Fifa,... rauskommen. AMD könnte sowas auch anbieten und den Entwicklern zur Verfügung stellen. Man sollte den Fehler nicht immer bei den Anderen suchen.
#133
customavatars/avatar117663_1.gif
Registriert seit: 04.08.2009

Bootsmann
Beiträge: 651
Aha Nvidia's Manipulationen sind jetzt also "AMDs eigene Fehler".
Du hast keine Ahnung wovon du redest. AMD bietet sowas an (OpenGPU mit TressFX etc), mit dem Unterschied, dass es OpenSource ist und nicht die GPUs der Konkurenz einbremst.
#134
Registriert seit: 30.12.2014

Oberleutnant zur See
Beiträge: 1284
Zitat
AMD bietet sowas an (TressFX), mit dem Unterschied, dass es OpenSource ist und nicht die GPUs der Konkurenz einbremst.

Doch, aber nur genauso wie die eigene.
#135
Registriert seit: 05.03.2016

Banned
Beiträge: 2
Zitat YB0b;24391757
Aha Nvidia's Manipulationen


Das ist keine Manipulation sondern Marktwitschaft
Ein Hersteller möchte seine Konkurennten um jeden preis ausschalten, und das wird auch AMD passieren wenn die sich nicht was einfallen lassen.

Sind im Prinzip selbst dran schuld, dass sie im high end gaming Bereich nichts konkurenzfähiges haben.
#136
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Fregattenkapitän
Beiträge: 2829
Zitat YB0b;24391757
Aha Nvidia's Manipulationen sind jetzt also "AMDs eigene Fehler".
Du hast keine Ahnung wovon du redest. AMD bietet sowas an (TressFX), mit dem Unterschied, dass es OpenSource ist und nicht die GPUs der Konkurenz einbremst und alle nicht mehr aktuelle Nvidia Architekturen.


Ich habe den Satz mal korrigiert. ;)

Zitat mike star;24391854
Sind im Prinzip selbst dran schuld, dass sie im high end gaming Bereich nichts konkurenzfähiges haben.

Das lustige ist, die Meisten gucken auf die Titan und kaufen dann doch nur eine GTX960... ;)
#137
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 2859
Zitat blubb0r87;24391660
Manipulationen?
GameWorks ist auf Nvidia optimiert. Das weiss auch jeder Spiele-Entwickler. Aber vorallem die AAA Studios haben gar keine Lust auf eigene Performance-Optimierungen, da muss einfach möglichst schnell der 60 Teil von CoD, BF, Fifa,... rauskommen. AMD könnte sowas auch anbieten und den Entwicklern zur Verfügung stellen. Man sollte den Fehler nicht immer bei den Anderen suchen.

Nein können sie nicht, da das mit großer Marktmacht einhergeht. AMD bleibt nichts anderes, als ähnliche Features für OpenSource zur Verfügung zu stellen, damit die Spieleentwickler das selbst weiterentwickeln können, eben wie TressFX -> PureHair, was deutlich effizienter arbeitet als die GW-Variante. Proprietär ist immer Mist für den Konsumenten, siehe beispielweise GSync. Würde NV auch den VESA-Standard AdapticeSync nutzen, gäbe es nicht dieses Monitorchaos.
Es gibt von dieser Regel nur eine Ausnahme: Wenn man etwas Neues starten möchte und viel Geld in die Verbreitung einer neuen Technologie stecken will, so wie Glide damals - oder Mantle (-> Vulkan) heute. Das trifft aber weder auf GW noch auf GSync zu, das sind reine Gelddruckmaschinen, weil man die Marktdominanz hat der geneigte User das mitmacht.
Für die Studios ist es billig, weil man konsolenoptimierte Titel schnell und billig mit GW-BlingBling aufwerten kann, damit man dranschreiben kann, dass man sich für PC extra viel Mühe gegeben hat. So macht das jedenfalls Ubi. AMD könnte sowas gar nicht leisten, weil man a.) nicht die Marktmacht hat, die würden fast kein Studio überzeugen und b.) weil sowas auch teuer ist und nur bei NV entsprechend Ertrag bei den Verkäufen bringt.
Langfristig werden sich aber auch in der Spielebranche OpenSorce-Bibliotheken für die Entwickler mehr und mehr durchsetzen, da das im Endeffekt massiv Kosten spart und der Kostendruck allgemein immer weiter wächst, während sich die Grafikqualität immer weniger durch immer aufwendigere Eigenentwicklungen abhebt. Schon bei den neuen APIs wie DX12 mit seinen erheblich gestiegenen Freiheitsgraden werden OpenSource-Bibs schon etliches an Entwicklungszeit einsparen und gleichzeitig als Basis für eigene neue Effekte dienen.
#138
customavatars/avatar117663_1.gif
Registriert seit: 04.08.2009

Bootsmann
Beiträge: 651
Zitat [HOT];24392407
Nein können sie nicht, da das mit großer Marktmacht einhergeht. AMD bleibt nichts anderes, als ähnliche Features für OpenSource zur Verfügung zu stellen, damit die Spieleentwickler das selbst weiterentwickeln können, eben wie TressFX -> PureHair, was deutlich effizienter arbeitet als die GW-Variante. Proprietär ist immer Mist für den Konsumenten, siehe beispielweise GSync. Würde NV auch den VESA-Standard AdapticeSync nutzen, gäbe es nicht dieses Monitorchaos.
Es gibt von dieser Regel nur eine Ausnahme: Wenn man etwas Neues starten möchte und viel Geld in die Verbreitung einer neuen Technologie stecken will, so wie Glide damals - oder Mantle (-> Vulkan) heute. Das trifft aber weder auf GW noch auf GSync zu, das sind reine Gelddruckmaschinen, weil man die Marktdominanz hat der geneigte User das mitmacht.
Für die Studios ist es billig, weil man konsolenoptimierte Titel schnell und billig mit GW-BlingBling aufwerten kann, damit man dranschreiben kann, dass man sich für PC extra viel Mühe gegeben hat. So macht das jedenfalls Ubi. AMD könnte sowas gar nicht leisten, weil man a.) nicht die Marktmacht hat, die würden fast kein Studio überzeugen und b.) weil sowas auch teuer ist und nur bei NV entsprechend Ertrag bei den Verkäufen bringt.
Langfristig werden sich aber auch in der Spielebranche OpenSorce-Bibliotheken für die Entwickler mehr und mehr durchsetzen, da das im Endeffekt massiv Kosten spart und der Kostendruck allgemein immer weiter wächst, während sich die Grafikqualität immer weniger durch immer aufwendigere Eigenentwicklungen abhebt. Schon bei den neuen APIs wie DX12 mit seinen erheblich gestiegenen Freiheitsgraden werden OpenSource-Bibs schon etliches an Entwicklungszeit einsparen und gleichzeitig als Basis für eigene neue Effekte dienen.

Danke für diesen guten Beitrag, HOT; ein Lichtblick in diesem Ottoforum.
Proprietär ist nicht nur Mist für den Konsumenten, sondern auch für den Entwickler. Es gibt keinen Grund, warum ich als Entwickler vorkompilierte Biblitheken offenenem Quellcode bevorzugen würde.
Sehr seltsam, dass Nvidia 1. dennoch lizensierte dlls anstatt source code schickt und 2. trotz AMDs offensiver Beschuldigungen die Verträge nicht offen legt.
Ein Schelm wer böses denkt....:rolleyes:
#139
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29105
Diskussionen aus der Vergangenheit und Benchmarks zum GeForce 364.47 (DX11, DX12, Asynchronous Shaders ein/aus): NVIDIA: Asynchronous Shaders sollen funktionieren, sind derzeit aber deaktiviert - Hardwareluxx
#140
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31959
Zitat YB0b;24393185
Proprietär ist nicht nur Mist für den Konsumenten, sondern auch für den Entwickler. Es gibt keinen Grund, warum ich als Entwickler vorkompilierte Biblitheken offenenem Quellcode bevorzugen würde.
Sehr seltsam, dass Nvidia 1. dennoch lizensierte dlls anstatt source code schickt und 2. trotz AMDs offensiver Beschuldigungen die Verträge nicht offen legt.
Ein Schelm wer böses denkt....:rolleyes:


Ich glaube, man redet hier immernoch aneinander vorbei...
Das Problem ist doch, der Jenige, der die "Sache" liefert, entscheidet, ob das nun OpenSource, ClosedSource, Lizenz xy oder weis der Geier was ist. Das ist sein gutes Recht, denn er hatte damit die Arbeit und kein Anderer.
Wie kommt man aber bitte darauf, einem Entwickler diese Entscheidung verbieten zu wollen? (OK verbieten ist das falsche Wort, aber darauf willst du doch im Endeffekt hinaus) -> man stellt sich hier hin und meint, ohne OpenSource geht nix. Dabei ist der Knackpunkt weiterhin, DU musst es doch nicht nutzen... Es hindert dich keiner daran, einfach selbst Code zu schubsen.

Mal ganz davon ab, unmittelbar nach Release von TW3, als AMD sich beschwerte von wegen, kein Einblick in die Gameworks Bibliotheken -> Es finden sich glaubhafte Interviews im Netz mit der Aussage seitens NV, CDP hätte doch die Lizenzen zur Codeeinsicht erstehen können -> hat man aber nicht. Heist unterm Strich, CDP hat die Blackbox erstanden und damit AMD (und natürlich sich selbst) die Optimierungsmöglichkeiten massiv verschwert. Die Frage weiterhin, was kann NV dafür?
Es ist nunmal einfach nicht so, dass der Code absolut gar nicht einsehbar wäre... Das trifft bestenfalls auf Teile zu. Nur ist es eben nicht für lau. Und das scheint hier einigen nicht zu schmecken...

Aber ich merke schon, so schlecht kann Gameworks ja nicht sein, wenn es offenbar hier alle haben wollen (den Code) :fresse:
Vielleicht fängt ja mal jemand an eine vollwertige Alternative als OpenSource anzubieten. AMD kommt dem schon ein Stück weit nahe -> nur ist neben bisschen visuellem Zeugs und eben TressFX (seit sechs Tagen sogar in v3!) da noch ne ziemlich große Lücke...

Zitat [HOT];24392407
Für die Studios ist es billig, weil man konsolenoptimierte Titel schnell und billig mit GW-BlingBling aufwerten kann, damit man dranschreiben kann, dass man sich für PC extra viel Mühe gegeben hat. So macht das jedenfalls Ubi. AMD könnte sowas gar nicht leisten, weil man a.) nicht die Marktmacht hat, die würden fast kein Studio überzeugen und b.) weil sowas auch teuer ist und nur bei NV entsprechend Ertrag bei den Verkäufen bringt.
Langfristig werden sich aber auch in der Spielebranche OpenSorce-Bibliotheken für die Entwickler mehr und mehr durchsetzen, da das im Endeffekt massiv Kosten spart und der Kostendruck allgemein immer weiter wächst, während sich die Grafikqualität immer weniger durch immer aufwendigere Eigenentwicklungen abhebt. Schon bei den neuen APIs wie DX12 mit seinen erheblich gestiegenen Freiheitsgraden werden OpenSource-Bibs schon etliches an Entwicklungszeit einsparen und gleichzeitig als Basis für eigene neue Effekte dienen.


Gibt es zu den Aussagen irgendwelche stichhaltigen Zahlen?
Weil einfach sagen -> OpenSource = billiger als ClosedSource in den Kosten ist etwas an den Haaren herbeigezogen. Ist so, weil ich das sage? Oder wie läuft das hier?
Zumal ich auch einen dezenten Widerspruch in der Aussage ansich sehe... Wer wenn nicht die Hersteller der Hardware können den Entwicklern bei (wie du selbst sagst) "erheblich gestiegenen Freiheitsgraden neuer APIs" helfen? Vor allem in Sachen Optimierung AUF eben diese Hardware? Wie soll das OpenSource, vielleicht noch von externen, also dritten Parteien gehen?
Nur weil einer der möglichen Kandidaten seine Leistungen nicht als OpenSource Versionen bereit stellt, ist das keineswegs schlecht. Muss man sich halt an den Lizenzen beteiligen oder Alternativen suchen...
Möglicherweise ist auch die Qualität der heute zu erstehenden Leistungen in Sachen Gameworks überhaupt erstmal so hoch, gerade WEIL es die Firmen lizensieren?
Wenn man sich das Gegenstück bei AMD ansieht. OpenSource gut und schön, nutzt mir als Entwickler aber gar nix, wenn es eben neben bisschen visuellen Effekten und TressFX nichts gibt, was Gameworks, vor allem in der Physikpalette sonst noch ausmacht... Warum macht es AMD (oder Andere, Dritte) nicht einfach? OpenSource kostet ja nix, wie du selbst sagst... Nur wie kommen diese Firmen an die Mittel um diese immer höheren Zeitanforderungen für immer komplexere Bibliotheken zu kompensieren, wenn da keine Gelder fließen?
-> das ist klar ein Henne Ein Problem. Der eine will möglichst nichts zahlen, der andere will möglichst nichts umsonst machen. Wie finden sie sich zusammen? Mit OpenSource von Dritten wäre eine Option. Aber der Dritte steht vor dem exakt gleichen Problem, wenn es nicht gerade die Community mit Eigenentwicklungen ist. -> mir wäre nicht bekannt, dass es in Sachen GameEngines/Bibliotheken so viel Eigenanteil von der Community gibt. Da stehen nach wie vor ziemlich große Firmen dahinter.
#141
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Kapitänleutnant
Beiträge: 2025
Zitat fdsonne;24384822
Warum sollte das nicht gehen?
...
Das wird wohl nix. 3D-Vision ist propritär NV. Entweder die lassen das zu (was unwarscheinlich ist) oder es geht einfach nicht... Technisch sollte MGPU dem Spaß nicht unbedingt was im Wege stehen, aber ich kann es mir nicht vorstellen.
...


Das hört sich doch schon ganz gut an; bei technischer Möglichkeit wäre ein Treiberhack denkbar.


Zitat fdsonne;24384822

...
Auf der anderen Seite, ich würde im ersten Step aber auch grundsätzlich erstmal bezweifeln, dass 3D-Vision überhaupt unter DX12 läuft :fresse:
...


Das wiederum klingt weniger gut, aber bisher hat nvidia 3D-Vision ja nicht offiziell aufgegeben, und in Hinsicht auf den VR-Hype wird ja eh eine 3D-Unterstützung notwendig werden, da dürfte eine Adaption der Ausgabemodi auf 3D-Vision doch eigentllich nicht so viel Zusatzaufwand bedeuten.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]