> > > > Hitman und DirectX 12: AMD profitiert, ein bisschen

Hitman und DirectX 12: AMD profitiert, ein bisschen

Veröffentlicht am: von

hitmanDas Thema DirectX 12, Patches für bereits erschienene Spiele und Neuerscheinungen werden uns sicherlich noch in den kommenden Monaten mehrfach begleiten. Da die Spieleentwickler noch einige Zeit sowohl DirectX 11 und DirectX 12 unterstützen werden, wird uns der Vergleich zwischen diesen beiden Grafik-APIs ebenso noch etwas länger beschäftigen.

Bisher waren die DirectX-12-Umsetzungen zumindest auf Seiten von AMD durchweg mit einem Leistungsgewinn verbunden. Zumindest in Teilen eine Ausnahme ist die Implementierung von Nixxes Software für Rise of the Tomb Raider. Hier verloren sowohl Grafikkarten von AMD als auch solche von NVIDIA durchweg an Leistung, wenn auf die DirectX-12-API gewechselt wurde. In einigen Fällen und unter bestimmten Voraussetzungen (leistungsschwache GPU bei bestimmten CPU-Konfigurationen und besonders niedrigen Qualitätseinstellungen) war aber auch hier ein leichtes Leistungsplus zu verzeichnen. Insgesamt aber hinterließ Rise of the Tomb Raider keinen guten Eindruck unter DirectX 12.

Ashes of the Singularity war der erste ernstzunehmende Vergleich zwischen DirectX 11 und DirectX 12, auch wenn sich das Spiel noch immer in der Beta-Phase befindet. Der Fokus lag hier sicherlich auch auf der Umsetzung der Asynchronous Shaders. Für AMD aber heißt es bisher, dass selbst leistungsschwächere Grafikkarten mit den höherwertigen Modellen bei NVIDIA mithalten kann. Der Leistungszugewinn bei AMD ist unter DirectX 12 nicht zu verachten.

Nun geht es weiter im Programm, denn mit Hitman ist weiteres Spiel mit DirectX-12-Unterstützung am Start. Dieses Mal sogar schon vom Start weg. Allerdings sind auch hier einige Kinderkrankeiten vorhanden. So arbeiten AMD-Grafikkarten mit Tonga- und Fiji-GPU mit einem Limiter auf 60 FPS unter DirectX 12. Um diesen zu umgehen, muss ein zweiter Monitor angeschlossen werden, der über eine Bildwiederholungsrate besitzt, die über den FPS liegt, die von der Grafikkarte erreicht werden. Da wir einen ASUS MG279Q für die Tests in 1.920 x 1.080 und 2.560 x 1.440 Pixel verwenden, sind die Voraussetzungen dafür gegeben.

Um weiteren Problemen aus dem Weg zu gehen, muss unter DirectX 12 die Option "Render Target Reuse" deaktiviert werden. Ebenfalls für Probleme sorgen Overlays von Steam oder Programmen wie dem MSI Afterburner. Letztendlich konnten wir diese Probleme aber alle beseitigen und verwendeten unser Grafikkarten-Testsystem mit einem Intel Core i7-3960X 3,3 @ 3,9 GHz auf einem ASUS P9X97 Deluxe im Zusammenspiel mit einer Corsair-H110i-GT-All-in-One-Wasserkühlung. Hinzu kommen 16 GB DDR3-Arbeitsspeicher, eine OCZ Arc 100 240 GB, ein Seasonic Platinum Series 1.000 Watt und dies alles ist in einem Fractal Design Define R5 verpackt. Als Betriebssystem setzten wir ein aktuelles Windows 10 in 64 Bit ein. Als Treiber setzten wir den AMD Radeon Software Crimson Edition 16.3 und GeForce 364.51 ein.

Folgende Ergebnisse wurden dabei erreicht:

Hitman

1.920 x 1.080 Hoch, SMAA

Bilder pro Sekunde
Mehr ist besser

Hitman

2.560 x 1.440 Hoch, SMAA

Bilder pro Sekunde
Mehr ist besser

Hitman

3.840 x 2.160 Hoch, SMAA

Bilder pro Sekunde
Mehr ist besser

Zunächst einmal bleibt festzuhalten, dass sich Grafikkarten mit AMD-GPU in Hitman etwas besser verhalten, als solche mit NVIDIA-GPU. So liegt die Radeon R9 390X über eine GeForce GTX 980 Ti. Im Hinteren Testfeld tummeln sich Radeon R9 380, GeForce GTX 970 und GeForce GTX 960. Zum Thema DirectX 12 bleibt festzuhalten, dass die Radeon R9 390X am meisten von der neuen Grafik-API profitiert. Hier sind Leistungszuwächse von 10 bis 15 Prozent möglich. Die Radeon R9 Fury X bietet ein maximales Leistungsplus von 5 Prozent. Bei der Radeon R9 380 liegen die Leistungsunterschiede innerhalb der Messtoleranzen oder unter DirectX 12 ist sie sogar langsamer.

Anders das Bild bei NVIDIA, aber hier ist bei keiner Grafikkarte ein Leistungszugewinn zu verzeichnen. Durch die Bank sind die Karten unter DirectX 12 wenige Prozentpunkte langsamer. Wegen einer wo möglichen besseren Leistung brauchen Besitzer einer NVIDIA-Grafikkarte also nicht auf DirectX 12 zu wechseln.

Bei allen Tests mit Hitman wird man das Gefühl nicht los, dass hier einiges an Potenzial verschenkt wird. Einige GPUs profitieren stärker als andere und die zahlreichen Probleme deuten auch darauf hin, dass hier zukünftige Updates noch einiges an Verbesserungen liefern können.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (40)

#31
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Fregattenkapitän
Beiträge: 3031
Zitat sTOrM41;24420212
jetzt bin ich ja gespannt,
welche dx11 spiele sollen das denn sein in denen eine 7970 so schnell wie eine 970 und eine 390 so schnell wie eine 980ti ist?


Die Grafikkarten-Performance unter Call of Duty: Black Ops III | 3DCenter.org

Die Grafikkarten-Performance unter Far Cry Primal | 3DCenter.org

Die Grafikkarten-Performance unter Star Wars: Battlefront | 3DCenter.org

Die Grafikkarten-Performance unter Division | 3DCenter.org

Mir geht es da auch garnicht um die letzten 10% (merkt man sowieso nicht) sondern in welcher Leistungsklasse diese sich befinden. Und das sind alles Tripple AAA Spiele und die Benchmarks gemittelt über mehere Testseiten. Ich bin gespannt wie es weiter geht, aber meine Prognose ist, dass die 390 über die Zeit auf 980Ti Niveau landen wird. Ob nun Nvidia beim Treibersupport schwächelt oder mehr auf GCN optimiert wird spielt am Ende keine Rolle. Die eine Karte kostet 1000€ und die andere 1/3.
#32
customavatars/avatar217716_1.gif
Registriert seit: 27.02.2015
Betzdorf
Kapitän zur See
Beiträge: 3083
die jungs und mädels die sich aber ne 290er etc. fürn guten kurs geschnappt haben wirds umso besser wenn die mit ner 200€ karte (gebraucht) an die leistungsspitze nv's rankommen
#33
Registriert seit: 13.10.2005
Magdeburg
Admiral
HWLUXX Superstar
Beiträge: 18779




in deinen drei links wird nicht ein einziges mal aufgezeigt das eine 7970 so flink wie eine 970, oder eine 390 so flink wie eine 980ti ist :confused:

wenns dir in black ops nur darum geht 60fps zu erreichen könntest du auch schreiben das eine 7970 genau so schnell wie eine 390x oder furyx, oder eine 970 genau so flink wie eine 980ti ist^^

battlefront, 7970 irgendwas zwischen 50 und 59, 970 irgendwas über 60.
das sind mal eben möglicherweise 20% unterschied, ohne angebe wieviel über 60 könntens theoretisch aber auch 200% sein :fresse:

farcry, 7970 irgenwas zwischen 35 und 39 fps, 970 irgendwas zwischen 40 und 49 fps, also irgendwas zwischen 20 und 40%.
#34
customavatars/avatar182753_1.gif
Registriert seit: 28.11.2012

Hauptgefreiter
Beiträge: 252
Außerdem kostet eine 980Ti keine 1000€ sondern im großen und ganzen zwischen 600 und 800€.
#35
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5778
Zitat Terr0rSandmann;24420861
Klärt mich auf wenn ich falsch liege, aber was bringen mehr als 60 FPS bei einem 60 Hz Monitor?

Man braucht nicht mehr, das stimmt schon.
Aber wenn man die CPU testen will, dann hängst ständig im FPS Limit, welches dann als CPU Limit interpretiert wird. :vrizz:
Es ist ja nicht so, dass sich sowas in anderen Spielen auschalten lässt im Menü, aber ein schnelleren Monitor anzuschließen zu müssen, damit mehr möglich ist finde ich banal.
Die Entscheidung sollte immer noch beim user liegen wenn ich Strom verschwenden will ist das mein gutes Recht / Hobby. :d
#36
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Fregattenkapitän
Beiträge: 3031
Zitat sTOrM41;24421032
in deinen drei links wird nicht ein einziges mal aufgezeigt das eine 7970 so flink wie eine 970, oder eine 390 so flink wie eine 980ti ist :confused:

wenns dir in black ops nur darum geht 60fps zu erreichen könntest du auch schreiben das eine 7970 genau so schnell wie eine 390x oder furyx, oder eine 970 genau so flink wie eine 980ti ist^^

battlefront, 7970 irgendwas zwischen 50 und 59, 970 irgendwas über 60.
das sind mal eben möglicherweise 20% unterschied, ohne angebe wieviel über 60 könntens theoretisch aber auch 200% sein :fresse:

farcry, 7970 irgenwas zwischen 35 und 39 fps, 970 irgendwas zwischen 40 und 49 fps, also irgendwas zwischen 20 und 40%.


Bei dieser Darstellung geht es nicht um die exakte Differenz sondern die Gruppierung in Leistungsklassen. Ob du nun mit 42fps oder 47fps spielst, spielt kaum eine Rolle. Am Ende werden beide Spieler ein ähnliches Spielerlebnis haben. Wenn du exakte Werte haben willst klick doch in einen der 3 Test. Ist ja schließlich ein Schnitt über diese.

Und die Genauigkeit der Darstellung ist vollkommen ausreichend. In FullHD sind es nun mal eine ganze Ecke an Karten die den Sprung über die 60fps schaffen. In Settings dadrüber sieht man aber auch welche Karten hier welchen grob gegenüberstehen. Teilweise ist eben eine 7870 auf dem Niveau einer GTX680. Titan auf dem Niveau einer 7950. Um also aufzuzeigen welche Karten vermutlich wann ersetzt werden muss oder wo man die Settings eher anpassen muss ist das vollkommen ausreichend.

Zitat M4deman;24422496
Außerdem kostet eine 980Ti keine 1000€ sondern im großen und ganzen zwischen 600 und 800€.

Das ist richtig, aber Nvidia vermarktet immer den Chip zuerst in der Titan für 1000€ und dann als Ti für eben 600 bis 800€. Das interessante hieran ist also der Releasezeitpunkt. Zwischen 7970 und Titan1 lagen immerhin 1 Jahr und 3 Monate. + 3 weitere für die 780Ti. Wenn man dann noch bedenkt, dass die 7970 zum Release der Titan ca 1/3 gekostet hat doch umso erstaunlicher, dass Beide mittlerweile im selben Leistungsbereich wildern. Auch zwischen AMD290 und TitanX lagen 1 Jahr und 4 Monate und eben der 3 fache Preis.

Richtig interessant wird es wenn man die eigentlichen Kontrahenten gemessen am Preis gegenüberstellt. GTX670 vs 7970 oder 290 vs GTX780

Zitat tougemike
keiner von uns hat ne glaskugel daheim

Braucht man auch nicht. GCN war neu. Klar das man da durch Optimierungen viel rausholen konnte. Das hat ja alleine die Rohleistung nahgelegt. Dazu die Konsolen, wo doch jeder PC Gamer weiß das alles heutzutage Konsolenports sind. Also ne Glaskugel brauchte doch echt Niemand, nur Mathekentnisse erste Stunde.
#37
customavatars/avatar129573_1.gif
Registriert seit: 14.02.2010
Lüneburg
Hauptgefreiter
Beiträge: 255
Naja die meisten 60 Hz Monitore lassen sich ja mithilfe von CRU immerhin auf 75 Hz pushen, ohne dass es zu Zeilensprüngen kommt.

Messungen zur Leistungsaufnahme der getesten Karten in den getesten API wären übrigends ein Träumchen :d Auf einer anderen einschlägigen Seite wurde einzelnen Karten (insbesondere der 390X) zum Teil ein erheblich höherer Energiedurst unter DDX12 mit asynchronem Computing attestiert.
#38
customavatars/avatar59005_1.gif
Registriert seit: 27.02.2007

Oberleutnant zur See
Beiträge: 1357
Da ein großer vorteil von DX12 ja die performance im (dann ehemaligen)CPU-Limit zu sein scheint, frage ich mich warum dann immer mit so fetten CPU's gebenched wird?
#39
customavatars/avatar151613_1.gif
Registriert seit: 11.03.2011
Leipzig
Kapitän zur See
Beiträge: 3729
Weil die keine da haben :D
#40
Registriert seit: 06.12.2010

Oberstabsgefreiter
Beiträge: 498
HEHE,
ich habe mir euer Benchmark Video angesehen und das Streaming von den NPC ist ja nicht gerade gelungen.

[ATTACH=CONFIG]355637[/ATTACH]
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]

Drei Modelle der GeForce GTX 1060 von ASUS, EVGA und Inno3D im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060-2/GTX1060_ROUNDUP2-TEASER

Nach einer kurzen Unterbrechung durch die AMD Radeon RX 470 und Radeon RX 460 machen wir weiter mit dem nächsten Schwung verschiedener Custom-Modelle zur NVIDIA GeForce GTX 1060. Während die Eigenlösungen der AMD-Partner teilweise noch immer auf sich warten lassen, ist man bei der Konkurrenz... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

ASUS ROG Strix Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/ASUS-RX480/ASUS-RX480-LOGO

Nachdem wir uns bereits zwei Custom-Modelle der Radeon RX 480 abgeschaut haben, folgt heute das dritte Modell: Die ASUS ROG Strix Radeon RX 480. Große Erwartungen wurden an die bisherigen Custom-Modelle gesetzt, erfüllt werden konnten diese Erwartungen aber nur größtenteils, nicht vollends.... [mehr]