> > > > Hitman und DirectX 12: AMD profitiert, ein bisschen

Hitman und DirectX 12: AMD profitiert, ein bisschen

DruckenE-Mail
Erstellt am: von

hitmanDas Thema DirectX 12, Patches für bereits erschienene Spiele und Neuerscheinungen werden uns sicherlich noch in den kommenden Monaten mehrfach begleiten. Da die Spieleentwickler noch einige Zeit sowohl DirectX 11 und DirectX 12 unterstützen werden, wird uns der Vergleich zwischen diesen beiden Grafik-APIs ebenso noch etwas länger beschäftigen.

Bisher waren die DirectX-12-Umsetzungen zumindest auf Seiten von AMD durchweg mit einem Leistungsgewinn verbunden. Zumindest in Teilen eine Ausnahme ist die Implementierung von Nixxes Software für Rise of the Tomb Raider. Hier verloren sowohl Grafikkarten von AMD als auch solche von NVIDIA durchweg an Leistung, wenn auf die DirectX-12-API gewechselt wurde. In einigen Fällen und unter bestimmten Voraussetzungen (leistungsschwache GPU bei bestimmten CPU-Konfigurationen und besonders niedrigen Qualitätseinstellungen) war aber auch hier ein leichtes Leistungsplus zu verzeichnen. Insgesamt aber hinterließ Rise of the Tomb Raider keinen guten Eindruck unter DirectX 12.

Ashes of the Singularity war der erste ernstzunehmende Vergleich zwischen DirectX 11 und DirectX 12, auch wenn sich das Spiel noch immer in der Beta-Phase befindet. Der Fokus lag hier sicherlich auch auf der Umsetzung der Asynchronous Shaders. Für AMD aber heißt es bisher, dass selbst leistungsschwächere Grafikkarten mit den höherwertigen Modellen bei NVIDIA mithalten kann. Der Leistungszugewinn bei AMD ist unter DirectX 12 nicht zu verachten.

Nun geht es weiter im Programm, denn mit Hitman ist weiteres Spiel mit DirectX-12-Unterstützung am Start. Dieses Mal sogar schon vom Start weg. Allerdings sind auch hier einige Kinderkrankeiten vorhanden. So arbeiten AMD-Grafikkarten mit Tonga- und Fiji-GPU mit einem Limiter auf 60 FPS unter DirectX 12. Um diesen zu umgehen, muss ein zweiter Monitor angeschlossen werden, der über eine Bildwiederholungsrate besitzt, die über den FPS liegt, die von der Grafikkarte erreicht werden. Da wir einen ASUS MG279Q für die Tests in 1.920 x 1.080 und 2.560 x 1.440 Pixel verwenden, sind die Voraussetzungen dafür gegeben.

Um weiteren Problemen aus dem Weg zu gehen, muss unter DirectX 12 die Option "Render Target Reuse" deaktiviert werden. Ebenfalls für Probleme sorgen Overlays von Steam oder Programmen wie dem MSI Afterburner. Letztendlich konnten wir diese Probleme aber alle beseitigen und verwendeten unser Grafikkarten-Testsystem mit einem Intel Core i7-3960X 3,3 @ 3,9 GHz auf einem ASUS P9X97 Deluxe im Zusammenspiel mit einer Corsair-H110i-GT-All-in-One-Wasserkühlung. Hinzu kommen 16 GB DDR3-Arbeitsspeicher, eine OCZ Arc 100 240 GB, ein Seasonic Platinum Series 1.000 Watt und dies alles ist in einem Fractal Design Define R5 verpackt. Als Betriebssystem setzten wir ein aktuelles Windows 10 in 64 Bit ein. Als Treiber setzten wir den AMD Radeon Software Crimson Edition 16.3 und GeForce 364.51 ein.

Folgende Ergebnisse wurden dabei erreicht:

Hitman

1.920 x 1.080 Hoch, SMAA

Bilder pro Sekunde
Mehr ist besser

Hitman

2.560 x 1.440 Hoch, SMAA

Bilder pro Sekunde
Mehr ist besser

Hitman

3.840 x 2.160 Hoch, SMAA

Bilder pro Sekunde
Mehr ist besser

Zunächst einmal bleibt festzuhalten, dass sich Grafikkarten mit AMD-GPU in Hitman etwas besser verhalten, als solche mit NVIDIA-GPU. So liegt die Radeon R9 390X über eine GeForce GTX 980 Ti. Im Hinteren Testfeld tummeln sich Radeon R9 380, GeForce GTX 970 und GeForce GTX 960. Zum Thema DirectX 12 bleibt festzuhalten, dass die Radeon R9 390X am meisten von der neuen Grafik-API profitiert. Hier sind Leistungszuwächse von 10 bis 15 Prozent möglich. Die Radeon R9 Fury X bietet ein maximales Leistungsplus von 5 Prozent. Bei der Radeon R9 380 liegen die Leistungsunterschiede innerhalb der Messtoleranzen oder unter DirectX 12 ist sie sogar langsamer.

Anders das Bild bei NVIDIA, aber hier ist bei keiner Grafikkarte ein Leistungszugewinn zu verzeichnen. Durch die Bank sind die Karten unter DirectX 12 wenige Prozentpunkte langsamer. Wegen einer wo möglichen besseren Leistung brauchen Besitzer einer NVIDIA-Grafikkarte also nicht auf DirectX 12 zu wechseln.

Bei allen Tests mit Hitman wird man das Gefühl nicht los, dass hier einiges an Potenzial verschenkt wird. Einige GPUs profitieren stärker als andere und die zahlreichen Probleme deuten auch darauf hin, dass hier zukünftige Updates noch einiges an Verbesserungen liefern können.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (40)

#31
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Fregattenkapitän
Beiträge: 2829
Zitat sTOrM41;24420212
jetzt bin ich ja gespannt,
welche dx11 spiele sollen das denn sein in denen eine 7970 so schnell wie eine 970 und eine 390 so schnell wie eine 980ti ist?


Die Grafikkarten-Performance unter Call of Duty: Black Ops III | 3DCenter.org

Die Grafikkarten-Performance unter Far Cry Primal | 3DCenter.org

Die Grafikkarten-Performance unter Star Wars: Battlefront | 3DCenter.org

Die Grafikkarten-Performance unter Division | 3DCenter.org

Mir geht es da auch garnicht um die letzten 10% (merkt man sowieso nicht) sondern in welcher Leistungsklasse diese sich befinden. Und das sind alles Tripple AAA Spiele und die Benchmarks gemittelt über mehere Testseiten. Ich bin gespannt wie es weiter geht, aber meine Prognose ist, dass die 390 über die Zeit auf 980Ti Niveau landen wird. Ob nun Nvidia beim Treibersupport schwächelt oder mehr auf GCN optimiert wird spielt am Ende keine Rolle. Die eine Karte kostet 1000€ und die andere 1/3.
#32
customavatars/avatar217716_1.gif
Registriert seit: 27.02.2015
Betzdorf
Fregattenkapitän
Beiträge: 2618
die jungs und mädels die sich aber ne 290er etc. fürn guten kurs geschnappt haben wirds umso besser wenn die mit ner 200€ karte (gebraucht) an die leistungsspitze nv's rankommen
#33
Registriert seit: 13.10.2005
Magdeburg
Admiral
HWLUXX Superstar
Beiträge: 17795




in deinen drei links wird nicht ein einziges mal aufgezeigt das eine 7970 so flink wie eine 970, oder eine 390 so flink wie eine 980ti ist :confused:

wenns dir in black ops nur darum geht 60fps zu erreichen könntest du auch schreiben das eine 7970 genau so schnell wie eine 390x oder furyx, oder eine 970 genau so flink wie eine 980ti ist^^

battlefront, 7970 irgendwas zwischen 50 und 59, 970 irgendwas über 60.
das sind mal eben möglicherweise 20% unterschied, ohne angebe wieviel über 60 könntens theoretisch aber auch 200% sein :fresse:

farcry, 7970 irgenwas zwischen 35 und 39 fps, 970 irgendwas zwischen 40 und 49 fps, also irgendwas zwischen 20 und 40%.
#34
customavatars/avatar182753_1.gif
Registriert seit: 28.11.2012

Hauptgefreiter
Beiträge: 217
Außerdem kostet eine 980Ti keine 1000€ sondern im großen und ganzen zwischen 600 und 800€.
#35
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5152
Zitat Terr0rSandmann;24420861
Klärt mich auf wenn ich falsch liege, aber was bringen mehr als 60 FPS bei einem 60 Hz Monitor?

Man braucht nicht mehr, das stimmt schon.
Aber wenn man die CPU testen will, dann hängst ständig im FPS Limit, welches dann als CPU Limit interpretiert wird. :vrizz:
Es ist ja nicht so, dass sich sowas in anderen Spielen auschalten lässt im Menü, aber ein schnelleren Monitor anzuschließen zu müssen, damit mehr möglich ist finde ich banal.
Die Entscheidung sollte immer noch beim user liegen wenn ich Strom verschwenden will ist das mein gutes Recht / Hobby. :d
#36
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Fregattenkapitän
Beiträge: 2829
Zitat sTOrM41;24421032
in deinen drei links wird nicht ein einziges mal aufgezeigt das eine 7970 so flink wie eine 970, oder eine 390 so flink wie eine 980ti ist :confused:

wenns dir in black ops nur darum geht 60fps zu erreichen könntest du auch schreiben das eine 7970 genau so schnell wie eine 390x oder furyx, oder eine 970 genau so flink wie eine 980ti ist^^

battlefront, 7970 irgendwas zwischen 50 und 59, 970 irgendwas über 60.
das sind mal eben möglicherweise 20% unterschied, ohne angebe wieviel über 60 könntens theoretisch aber auch 200% sein :fresse:

farcry, 7970 irgenwas zwischen 35 und 39 fps, 970 irgendwas zwischen 40 und 49 fps, also irgendwas zwischen 20 und 40%.


Bei dieser Darstellung geht es nicht um die exakte Differenz sondern die Gruppierung in Leistungsklassen. Ob du nun mit 42fps oder 47fps spielst, spielt kaum eine Rolle. Am Ende werden beide Spieler ein ähnliches Spielerlebnis haben. Wenn du exakte Werte haben willst klick doch in einen der 3 Test. Ist ja schließlich ein Schnitt über diese.

Und die Genauigkeit der Darstellung ist vollkommen ausreichend. In FullHD sind es nun mal eine ganze Ecke an Karten die den Sprung über die 60fps schaffen. In Settings dadrüber sieht man aber auch welche Karten hier welchen grob gegenüberstehen. Teilweise ist eben eine 7870 auf dem Niveau einer GTX680. Titan auf dem Niveau einer 7950. Um also aufzuzeigen welche Karten vermutlich wann ersetzt werden muss oder wo man die Settings eher anpassen muss ist das vollkommen ausreichend.

Zitat M4deman;24422496
Außerdem kostet eine 980Ti keine 1000€ sondern im großen und ganzen zwischen 600 und 800€.

Das ist richtig, aber Nvidia vermarktet immer den Chip zuerst in der Titan für 1000€ und dann als Ti für eben 600 bis 800€. Das interessante hieran ist also der Releasezeitpunkt. Zwischen 7970 und Titan1 lagen immerhin 1 Jahr und 3 Monate. + 3 weitere für die 780Ti. Wenn man dann noch bedenkt, dass die 7970 zum Release der Titan ca 1/3 gekostet hat doch umso erstaunlicher, dass Beide mittlerweile im selben Leistungsbereich wildern. Auch zwischen AMD290 und TitanX lagen 1 Jahr und 4 Monate und eben der 3 fache Preis.

Richtig interessant wird es wenn man die eigentlichen Kontrahenten gemessen am Preis gegenüberstellt. GTX670 vs 7970 oder 290 vs GTX780

Zitat tougemike
keiner von uns hat ne glaskugel daheim

Braucht man auch nicht. GCN war neu. Klar das man da durch Optimierungen viel rausholen konnte. Das hat ja alleine die Rohleistung nahgelegt. Dazu die Konsolen, wo doch jeder PC Gamer weiß das alles heutzutage Konsolenports sind. Also ne Glaskugel brauchte doch echt Niemand, nur Mathekentnisse erste Stunde.
#37
customavatars/avatar129573_1.gif
Registriert seit: 14.02.2010
Lüneburg & Wunstorf (Nds.)
Hauptgefreiter
Beiträge: 251
Naja die meisten 60 Hz Monitore lassen sich ja mithilfe von CRU immerhin auf 75 Hz pushen, ohne dass es zu Zeilensprüngen kommt.

Messungen zur Leistungsaufnahme der getesten Karten in den getesten API wären übrigends ein Träumchen :d Auf einer anderen einschlägigen Seite wurde einzelnen Karten (insbesondere der 390X) zum Teil ein erheblich höherer Energiedurst unter DDX12 mit asynchronem Computing attestiert.
#38
customavatars/avatar59005_1.gif
Registriert seit: 27.02.2007

Oberleutnant zur See
Beiträge: 1343
Da ein großer vorteil von DX12 ja die performance im (dann ehemaligen)CPU-Limit zu sein scheint, frage ich mich warum dann immer mit so fetten CPU's gebenched wird?
#39
customavatars/avatar151613_1.gif
Registriert seit: 11.03.2011

Korvettenkapitän
Beiträge: 2054
Weil die keine da haben :D
#40
Registriert seit: 06.12.2010

Oberstabsgefreiter
Beiträge: 462
HEHE,
ich habe mir euer Benchmark Video angesehen und das Streaming von den NPC ist ja nicht gerade gelungen.

[ATTACH=CONFIG]355637[/ATTACH]
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]