> > > > Nachtrag zu 3DMark Time Spy: Async Compute bei Maxwell-Karten nicht möglich

Nachtrag zu 3DMark Time Spy: Async Compute bei Maxwell-Karten nicht möglich

Veröffentlicht am: von

In der vergangenen Woche veröffentlichte Futuremark einen neuen Test der 3DMark-Suite, der explizit dazu ausgelegt sein sollte, der DirectX-12-Leistung auf den Zahn zu fühlen. Wir hatten bereits einige eigene Benchmarks durchgeführt und veröffentlicht, die zumindest die beiden letzten GPU-Generation von AMD und NVIDIA abbilden und dabei äußerst kontroverse Ergebnisse zeigen.

AMD wirbt gerne mit der Fähigkeit die Asynchronous Shaders für das Async Compute nutzen zu können und in Spielen wie Ashes of the Singularity und nun auch im 3DMark Time Spy funktioniert dies auch recht gut und sorgt für teilweise erhebliche Leistungssteigerungen im Bereich von 20 %. Auch NVIDIA kann mit der Pascal-Architektur und den neuen GPUs in dieser Hinsicht auftrumpfen, allerdings ist das Leistungsplus hier nur in etwa halb so groß.

In den Ergebnissen wird aber auch deutlich, dass nur die aktuelle Pascal-Generation profitiert. Die auf der Maxwell-Architektur basierenden Karten können kein Leistungsplus verbauchen und dafür gibt es laut eines Entwicklers bei Futuremark auch einen guten Grund: NVIDIA deaktiviert Async Compute per Treiber und verwendet einen alternativen Renderpfad im 3DMark Time Spy. Async Compute steht bei Grafikkarten der Maxwell-Generation also nicht zur Verfügung, auch wenn NVIDIA selbst davon spricht, dass die Maxwell-Architektur dies grundsätzlich unterstützt.

"It was not tailored for any specific architecture. It overlaps different rendering passes for asynchronous compute, in paraller when possible. Drivers determine how they process these - multiple paraller queues are filled by the engine.

The reason Maxwell doesn't take a hit is because NVIDIA has explictly disabled async compute in Maxwell drivers. So no matter how much we pile things to the queues, they cannot be set to run asynchronously because the driver says "no, I can't do that". Basically NV driver tells Time Spy to go "async off" for the run on that card. If NVIDIA enables Asynch Compute in the drivers, Time Spy will start using it. Performance gain or loss depends on the hardware & drivers."

Laut Futurmark liegt es nicht in der Hand des Entwicklers, ob Async Compute in diesem Fall funktioniert oder nicht. Allerdings ist die Kritik am Umgang des Time-Spy-Benchmarks nicht unberechtigt, denn in anderen Punkten wird eine seltsam anmutende Vorgehensweise an den Tag gebracht. So soll Time Spy der erste echte DirectX-12-Benchmark sein, der von Beginn an dahingehend optimiert wurde. Allerdings verwendet Time Spy nur das DirectX-Feature-Level 11_0 und bedient sich nur in Teilen im Feature-Level 12_0. Dies ist für das besagte Async Compute aber auch Explicit Multi Adapter der Fall.

Zwar verwenden wir auch den Futuremark 3DMark in unseren Grafikkarten-Artikeln, allerdings bemessen wir ihm bei der Beurteilung der Leistung keine allzu große Bedeutung zu. Ein derart synthetisch entwickelter Benchmark kann die reale Leistung einer Hardware nur schwer abbilden und so stellt sich dies wohl auch beim Time-Spy-Benchmark dar.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (95)

#86
customavatars/avatar11960_1.gif
Registriert seit: 18.07.2004
Vorarlberg/Österreich
Fregattenkapitän
Beiträge: 2808
Zitat Thrawn.;24767337
Naja was hilft es AMD und deren Usern wenn die Karten erst schnell werden wenn schon die nächste gen draussen ist und die Hälfte der User die Teile schon verkauft hat ?
Da läuft doch was Grundlegend falsch in der AMD Treiberabteilung..


Die Treiber sind nicht schlecht. Erst jetzt kommen Spiele, die DX12 und Vulkan unterstützen. Die GPUs wurden dafür gemacht. Warum meinst du hat AMD verzweifelt versucht Mantle als API zu etablieren. Wäre man damit erfolgreich gewesen, hatte man schon lange die vorhandene Performance ausnützen können.

Ich behalte meine GPUs nie lange, ich sehe aber derzeit absolut keine Notwendigkeit auf eine 1080 GTX umzusteigen. Der Performancezuwachs ist nicht groß genug, dafür verliere ich Freesync.
Da kaufe ich mir lieber Big Vega wenn er da ist.
#87
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 18787
Wäre es nicht sinvoller gewesen die Karten für das jetzt zu machen als dann ne komplette Gen mies ausgelastet zu sein ? Ich spiele auf die 390 und co an..

Ich bin auch von der 1080 Performance enttäuscht und warte auf Big Pascal.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat n0dder;24767451
wer das immer und immer wieder tut, der verspielt einfach vertrauen. und das fließt natürlich in zukünftige entscheidungen mit ein.
(ausser bei fanboys wie dir)


Ich glaube die GTX 970 hat sich besser verkauft als alle AMD Karten der letzten 2 Jahre zusammen, ich denke der Markt hat die Antwort gegeben. Meine 970 funzt gut und ich bin zufrieden.
#88
Registriert seit: 17.12.2011

Flottillenadmiral
Beiträge: 4362
In AMDs Roadmap steht bis 2018 außer Vega nichts.
#89
customavatars/avatar11960_1.gif
Registriert seit: 18.07.2004
Vorarlberg/Österreich
Fregattenkapitän
Beiträge: 2808
Zitat Thrawn.;24767853
Wäre es nicht sinvoller gewesen die Karten für das jetzt zu machen als dann ne komplette Gen mies ausgelastet zu sein ? Ich spiele auf die 390 und co an..

[COLOR="red"]- - - Updated - - -[/COLOR]



Ich glaube die GTX 970 hat sich besser verkauft als alle AMD Karten der letzten 2 Jahre zusammen, ich denke der Markt hat die Antwort gegeben. Meine 970 funzt gut und ich bin zufrieden.


Da hast du natürlich recht, nur ist man hinten nach immer klüger. Man darf aber auch die Frage stellen, ob es sinnvoll ist, Karten für die Vergangenheit jetzt auf den Markt zu schmeißen.
Das trifft bei Nvidia nämlich bis zu einem gewissen Grade zu. Die 1080 GTX kann sich mit bloßer Rechenleistung sicher gut halten, auch wenn Vega da ist. Die 1060 ist aber dazu verdammt, im Vergleich zur Konkurrenz das nachsehen zu haben, je mehr neue Spiele auf den Markt kommen. DX12 ist nicht mehr die ferne Zukunft, DX12 ist die Gegenwart und nahe Zukunft.

Die 1060 wird deswegen keine schlechte Karte, und alle DX12 Titel werden darauf sauber laufen, nur übernimmt Nvidia damit eigentlich den Nachteil, den AMD die letzten Jahre hatte.

Edit: Zur 970 GTX: Hättest du eine 290X Custom gekauft, hättest du jetzt aber trotzdem die bessere GPU. Macht es viel aus? Natürlich nicht. Deshalb sind die Karten preislich ja auch alle so nach beieinander. Ich bin auch der Meinung, dass niemand mit einer 1060 etwas falsch macht. Dafür sind 480 und 1060 viel zu knapp beieinander.
#90
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 18787
Die 970 ist nur Übergang mehr nicht, ich warte sehnsüchtigst auf die neue Titan, hoffentlich mit 24GB GDDR4X (ist mir lieber als 16GB HBM2)
#91
customavatars/avatar64442_1.gif
Registriert seit: 22.05.2007
Asgard und Berlin
Der Dahar-Meister!
Beiträge: 2162
Zitat mactron;24767183
1. Weil es keinen interessiert und sowohl GTX 1060, als auch RX 480 obsolet sein werden, wenn das mal wichtig wird.
2. Welche Benchmarks hast du dir angeschaut?

Hitman 3
#92
Registriert seit: 06.05.2016

Stabsgefreiter
Beiträge: 262
Zitat mactron;24767183
1. Weil es keinen interessiert


falsch
mich interessierts
#93
Registriert seit: 17.12.2011

Flottillenadmiral
Beiträge: 4362
Zitat mactron;24767183
1. Weil es keinen interessiert und sowohl GTX 1060, als auch RX 480 obsolet sein werden, wenn das mal wichtig wird.

Du behauptest also das bis 2019 keine DX12/Vulkan kommen wird?
#94
customavatars/avatar160319_1.gif
Registriert seit: 17.08.2011

Admiral
Beiträge: 8418
Zitat Lord Wotan;24768425
Hitman 3


vertust du ich da? Teil 3 stammt aus 2004. sowas wird noch mit (und wegen) der neuen Karten gebencht? fällt mir schwer zu glauben.
#95
customavatars/avatar253208_1.gif
Registriert seit: 27.04.2016

Banned
Beiträge: 903
Zitat slot108;24768571
vertust du ich da? Teil 3 stammt aus 2004. sowas wird noch mit (und wegen) der neuen Karten gebencht? fällt mir schwer zu glauben.


Stimmt da ist was faul muss Lord Wotan nochmal ran:

https://de.wikipedia.org/wiki/Hitman_(Spieleserie)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]