> > > > GDC: NVIDIA betont die Vorteile von Async Compute

GDC: NVIDIA betont die Vorteile von Async Compute

Veröffentlicht am: von

nvidia 2013Das Vorhandensein von mehreren tausend Shadern in einer GPU hilft dabei, eine leicht parallel auszuführende Aufgabe wie das Rendering einer 3D-Szene schnellstmöglich zu erledigen. Auf der anderen Seite bewältigt eine Grafikkarte heute noch weitere Rechenaufgaben und übernimmt beispielsweise einige Physik-Berechnungen, die nicht mehr auf dem Prozessor ausgeführt werden. Legt man außerdem zu Grunde, dass heutzutage 11 ms pro Frame als Vorgabe (90 FPS) für die gesamte Berechnung vorgesehen sind, der Physikberechnung aber meist nur 2 ms durch die Entwickler zugeteilt werden, wird deutlich, dass die Verteilung der Rechenaufgaben auf die zur Verfügung stehenden Ressourcen von entscheidender Bedeutung sind. Mit Async Compute verwenden AMD und NVIDIA eine Technik, die Physikberechnungen um den Faktor zwei beschleunigen kann.

Nun lassen sich solche Berechnungen, also die der Shader-Pipeline und Compute-Befehle, nicht gleichzeitig ausführen. NVIDIA führt dazu einige Beispiele an, die das verdeutlichen sollen. So werden beispielsweise ein Graphics-Workload mit einer Auslastung von 100 % und ein Compute-Workload mit einer Auslastung von weniger als 50 % hintereinander ausgeführt. Dies führt aber dazu, dass die GPU zu einem großen Teil nicht genutzt wird und die Ressourcen brach liegen.

Async Compute ermöglicht es an dieser Stelle, den Graphics- und Compute-Workload gleichzeitig durchzuführen, was die Gesamtzeit der Berechnung verkürzt und nur einer Minimierung der Idle-Zeit führt.

Nun können aber auch Berechnungen anfallen, die als Graphics-Workload einen Durchlauf auf meheren Iterationen vorsehen, was dazu führt, dass die GPU zwar mit diesen beschäftigt ist, der Rechenaufwand aber über die Zeit immer geringer wird. Dennoch muss sich der Compute-Workload ohne Async Compute hinten anstellen und die Dauer der gesamten Berechnungen ist relativ lange mit viel Idle-Zeit für die GPU.

Async Compute kann auch hier helfen, diese Idle-Zeiten und brachliegenden Ressourcen zu verkürzen bzw. zu verkleinern. Auch hier stellt sich wieder eine deutliche Verkürzung der gesamten Rechendauern ein.

Noch etwas komplizierter wird es, wenn Latenzen in den Berechnungen hinzukommen, die dafür sorgen, dass die GPU nicht mit ausreichend Daten gefüttert wird und auf eben diese Warten muss, um weitere Teile des Compute-Workloads zu berechnen. Hier entstehen dann trotz 100-prozentiger Auslastung der Hardware Wartezeiten zwischen den einzelnen Berechnungsschritten.

Auch hier kann NVIDIA mit Async Compute gegensteuern und zieht die immer noch unterbrochenen Compute-Workloads einfach vor, führt sie mit dem Graphics-Workload aus, plant die Wartezeiten aber in diesem Prozess mit ein und kann die Gesamtdauer wieder verkürzen.

Async Compute wird in der Spieleentwicklung künftig eine immer wichtigere Rolle spielen. Dies liegt vor allem daran, dass die Spieleentwickler immer mehr und mehr Rechenaufgaben auf die GPU umverteilen. Insofern wird eine ideale Zuteilung der unterschiedlichen Workloads immer wichtiger.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (6)

#1
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6931
Wait...
WHAT?
Nvidia macht groß Werbung für Async ?? :D
#2
Registriert seit: 26.09.2007
Kärnten/Österreich
Fregattenkapitän
Beiträge: 2582
natürlich war ja nur solange schei*** bzw. unnötig, solange es ihre Grakas nicht hardwareseitig unterstützt haben :)
#3
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5293
Ist doch klar. Auch wenn Nvidia es lange herausgezögert hat, ist spätestens bei der 3500 Shader starken Titan X(2016) klar, dass sie ebenfalls Probleme mit der Auslastung bekommen werden.

Async Compute ermöglicht es, durch mehrere gleichzeitige Berechnungen, diese ungenutzten Ressourcen auszulasten. Deshalb ist die Technik absolut sinnvoll.

Das größte Problem für Nvidia ist jedoch, dass die Rohleistung dafür leicht im Nachteil ist. Deshalb profitieren ihre GPUs weniger, als die von AMD, die sehr viele Shader mit sehr hoher Rohleistung haben, wobei jeder einzelne Shader mangels Takt aber nicht so leistungsstark ist.
#4
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6931
Naja auf jeden fall profitieren dadurch jetzt alle. Das ist ne Win-Win-Win-Win Situation. AMD Profitiert, weil Async somit zukünftig von Spielentwicklern unterstützt wird (weil 100% der neuen Grafikkarten es unterstützen) Nvidia ebenso wie AMD durch die höhere Leistung, die Spieleentwickler weil sie ne bessere Performance oder Qualität bei gleicher Performance liefern können und die Spieler weil es halt flüssiger läuft oder besser aussieht.
#5
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5293
Jep. Nvidia hätte auch keinen Grund mehr, gegen Async Compute zu sein, weil Vega nach den bisherigen Informationen etwa gleich takten wird, wie die aktuellen Modelle von Nvidia, und deshalb Nvidia (zumindest in der Theorie) nicht mehr signifikant profitieren wird, wenn nicht alle Shader ausgelastet sind.
#6
customavatars/avatar64442_1.gif
Registriert seit: 22.05.2007
Asgard und Berlin
Der Dahar-Meister!
Beiträge: 2091
Wie möchte NVidia das Problem ändern das AMD in der Disziplin locker abhängt?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]