> > > > GDC: NVIDIA betont die Vorteile von Async Compute

GDC: NVIDIA betont die Vorteile von Async Compute

Veröffentlicht am: von

nvidia 2013Das Vorhandensein von mehreren tausend Shadern in einer GPU hilft dabei, eine leicht parallel auszuführende Aufgabe wie das Rendering einer 3D-Szene schnellstmöglich zu erledigen. Auf der anderen Seite bewältigt eine Grafikkarte heute noch weitere Rechenaufgaben und übernimmt beispielsweise einige Physik-Berechnungen, die nicht mehr auf dem Prozessor ausgeführt werden. Legt man außerdem zu Grunde, dass heutzutage 11 ms pro Frame als Vorgabe (90 FPS) für die gesamte Berechnung vorgesehen sind, der Physikberechnung aber meist nur 2 ms durch die Entwickler zugeteilt werden, wird deutlich, dass die Verteilung der Rechenaufgaben auf die zur Verfügung stehenden Ressourcen von entscheidender Bedeutung sind. Mit Async Compute verwenden AMD und NVIDIA eine Technik, die Physikberechnungen um den Faktor zwei beschleunigen kann.

Nun lassen sich solche Berechnungen, also die der Shader-Pipeline und Compute-Befehle, nicht gleichzeitig ausführen. NVIDIA führt dazu einige Beispiele an, die das verdeutlichen sollen. So werden beispielsweise ein Graphics-Workload mit einer Auslastung von 100 % und ein Compute-Workload mit einer Auslastung von weniger als 50 % hintereinander ausgeführt. Dies führt aber dazu, dass die GPU zu einem großen Teil nicht genutzt wird und die Ressourcen brach liegen.

Async Compute ermöglicht es an dieser Stelle, den Graphics- und Compute-Workload gleichzeitig durchzuführen, was die Gesamtzeit der Berechnung verkürzt und nur einer Minimierung der Idle-Zeit führt.

Nun können aber auch Berechnungen anfallen, die als Graphics-Workload einen Durchlauf auf meheren Iterationen vorsehen, was dazu führt, dass die GPU zwar mit diesen beschäftigt ist, der Rechenaufwand aber über die Zeit immer geringer wird. Dennoch muss sich der Compute-Workload ohne Async Compute hinten anstellen und die Dauer der gesamten Berechnungen ist relativ lange mit viel Idle-Zeit für die GPU.

Async Compute kann auch hier helfen, diese Idle-Zeiten und brachliegenden Ressourcen zu verkürzen bzw. zu verkleinern. Auch hier stellt sich wieder eine deutliche Verkürzung der gesamten Rechendauern ein.

Noch etwas komplizierter wird es, wenn Latenzen in den Berechnungen hinzukommen, die dafür sorgen, dass die GPU nicht mit ausreichend Daten gefüttert wird und auf eben diese Warten muss, um weitere Teile des Compute-Workloads zu berechnen. Hier entstehen dann trotz 100-prozentiger Auslastung der Hardware Wartezeiten zwischen den einzelnen Berechnungsschritten.

Auch hier kann NVIDIA mit Async Compute gegensteuern und zieht die immer noch unterbrochenen Compute-Workloads einfach vor, führt sie mit dem Graphics-Workload aus, plant die Wartezeiten aber in diesem Prozess mit ein und kann die Gesamtdauer wieder verkürzen.

Async Compute wird in der Spieleentwicklung künftig eine immer wichtigere Rolle spielen. Dies liegt vor allem daran, dass die Spieleentwickler immer mehr und mehr Rechenaufgaben auf die GPU umverteilen. Insofern wird eine ideale Zuteilung der unterschiedlichen Workloads immer wichtiger.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (6)

#1
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6694
Wait...
WHAT?
Nvidia macht groß Werbung für Async ?? :D
#2
Registriert seit: 26.09.2007
Kärnten/Österreich
Korvettenkapitän
Beiträge: 2538
natürlich war ja nur solange schei*** bzw. unnötig, solange es ihre Grakas nicht hardwareseitig unterstützt haben :)
#3
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 4996
Ist doch klar. Auch wenn Nvidia es lange herausgezögert hat, ist spätestens bei der 3500 Shader starken Titan X(2016) klar, dass sie ebenfalls Probleme mit der Auslastung bekommen werden.

Async Compute ermöglicht es, durch mehrere gleichzeitige Berechnungen, diese ungenutzten Ressourcen auszulasten. Deshalb ist die Technik absolut sinnvoll.

Das größte Problem für Nvidia ist jedoch, dass die Rohleistung dafür leicht im Nachteil ist. Deshalb profitieren ihre GPUs weniger, als die von AMD, die sehr viele Shader mit sehr hoher Rohleistung haben, wobei jeder einzelne Shader mangels Takt aber nicht so leistungsstark ist.
#4
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6694
Naja auf jeden fall profitieren dadurch jetzt alle. Das ist ne Win-Win-Win-Win Situation. AMD Profitiert, weil Async somit zukünftig von Spielentwicklern unterstützt wird (weil 100% der neuen Grafikkarten es unterstützen) Nvidia ebenso wie AMD durch die höhere Leistung, die Spieleentwickler weil sie ne bessere Performance oder Qualität bei gleicher Performance liefern können und die Spieler weil es halt flüssiger läuft oder besser aussieht.
#5
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 4996
Jep. Nvidia hätte auch keinen Grund mehr, gegen Async Compute zu sein, weil Vega nach den bisherigen Informationen etwa gleich takten wird, wie die aktuellen Modelle von Nvidia, und deshalb Nvidia (zumindest in der Theorie) nicht mehr signifikant profitieren wird, wenn nicht alle Shader ausgelastet sind.
#6
customavatars/avatar64442_1.gif
Registriert seit: 22.05.2007
Asgard und Berlin
Der Dahar-Meister!
Beiträge: 2076
Wie möchte NVidia das Problem ändern das AMD in der Disziplin locker abhängt?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]