> > > > GDC: NVIDIA betont die Vorteile von Async Compute

GDC: NVIDIA betont die Vorteile von Async Compute

Veröffentlicht am: von

nvidia 2013Das Vorhandensein von mehreren tausend Shadern in einer GPU hilft dabei, eine leicht parallel auszuführende Aufgabe wie das Rendering einer 3D-Szene schnellstmöglich zu erledigen. Auf der anderen Seite bewältigt eine Grafikkarte heute noch weitere Rechenaufgaben und übernimmt beispielsweise einige Physik-Berechnungen, die nicht mehr auf dem Prozessor ausgeführt werden. Legt man außerdem zu Grunde, dass heutzutage 11 ms pro Frame als Vorgabe (90 FPS) für die gesamte Berechnung vorgesehen sind, der Physikberechnung aber meist nur 2 ms durch die Entwickler zugeteilt werden, wird deutlich, dass die Verteilung der Rechenaufgaben auf die zur Verfügung stehenden Ressourcen von entscheidender Bedeutung sind. Mit Async Compute verwenden AMD und NVIDIA eine Technik, die Physikberechnungen um den Faktor zwei beschleunigen kann.

Nun lassen sich solche Berechnungen, also die der Shader-Pipeline und Compute-Befehle, nicht gleichzeitig ausführen. NVIDIA führt dazu einige Beispiele an, die das verdeutlichen sollen. So werden beispielsweise ein Graphics-Workload mit einer Auslastung von 100 % und ein Compute-Workload mit einer Auslastung von weniger als 50 % hintereinander ausgeführt. Dies führt aber dazu, dass die GPU zu einem großen Teil nicht genutzt wird und die Ressourcen brach liegen.

Async Compute ermöglicht es an dieser Stelle, den Graphics- und Compute-Workload gleichzeitig durchzuführen, was die Gesamtzeit der Berechnung verkürzt und nur einer Minimierung der Idle-Zeit führt.

Nun können aber auch Berechnungen anfallen, die als Graphics-Workload einen Durchlauf auf meheren Iterationen vorsehen, was dazu führt, dass die GPU zwar mit diesen beschäftigt ist, der Rechenaufwand aber über die Zeit immer geringer wird. Dennoch muss sich der Compute-Workload ohne Async Compute hinten anstellen und die Dauer der gesamten Berechnungen ist relativ lange mit viel Idle-Zeit für die GPU.

Async Compute kann auch hier helfen, diese Idle-Zeiten und brachliegenden Ressourcen zu verkürzen bzw. zu verkleinern. Auch hier stellt sich wieder eine deutliche Verkürzung der gesamten Rechendauern ein.

Noch etwas komplizierter wird es, wenn Latenzen in den Berechnungen hinzukommen, die dafür sorgen, dass die GPU nicht mit ausreichend Daten gefüttert wird und auf eben diese Warten muss, um weitere Teile des Compute-Workloads zu berechnen. Hier entstehen dann trotz 100-prozentiger Auslastung der Hardware Wartezeiten zwischen den einzelnen Berechnungsschritten.

Auch hier kann NVIDIA mit Async Compute gegensteuern und zieht die immer noch unterbrochenen Compute-Workloads einfach vor, führt sie mit dem Graphics-Workload aus, plant die Wartezeiten aber in diesem Prozess mit ein und kann die Gesamtdauer wieder verkürzen.

Async Compute wird in der Spieleentwicklung künftig eine immer wichtigere Rolle spielen. Dies liegt vor allem daran, dass die Spieleentwickler immer mehr und mehr Rechenaufgaben auf die GPU umverteilen. Insofern wird eine ideale Zuteilung der unterschiedlichen Workloads immer wichtiger.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (6)

#1
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7625
Wait...
WHAT?
Nvidia macht groß Werbung für Async ?? :D
#2
Registriert seit: 26.09.2007
Kärnten/Österreich
Kapitän zur See
Beiträge: 3080
natürlich war ja nur solange schei*** bzw. unnötig, solange es ihre Grakas nicht hardwareseitig unterstützt haben :)
#3
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5635
Ist doch klar. Auch wenn Nvidia es lange herausgezögert hat, ist spätestens bei der 3500 Shader starken Titan X(2016) klar, dass sie ebenfalls Probleme mit der Auslastung bekommen werden.

Async Compute ermöglicht es, durch mehrere gleichzeitige Berechnungen, diese ungenutzten Ressourcen auszulasten. Deshalb ist die Technik absolut sinnvoll.

Das größte Problem für Nvidia ist jedoch, dass die Rohleistung dafür leicht im Nachteil ist. Deshalb profitieren ihre GPUs weniger, als die von AMD, die sehr viele Shader mit sehr hoher Rohleistung haben, wobei jeder einzelne Shader mangels Takt aber nicht so leistungsstark ist.
#4
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7625
Naja auf jeden fall profitieren dadurch jetzt alle. Das ist ne Win-Win-Win-Win Situation. AMD Profitiert, weil Async somit zukünftig von Spielentwicklern unterstützt wird (weil 100% der neuen Grafikkarten es unterstützen) Nvidia ebenso wie AMD durch die höhere Leistung, die Spieleentwickler weil sie ne bessere Performance oder Qualität bei gleicher Performance liefern können und die Spieler weil es halt flüssiger läuft oder besser aussieht.
#5
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5635
Jep. Nvidia hätte auch keinen Grund mehr, gegen Async Compute zu sein, weil Vega nach den bisherigen Informationen etwa gleich takten wird, wie die aktuellen Modelle von Nvidia, und deshalb Nvidia (zumindest in der Theorie) nicht mehr signifikant profitieren wird, wenn nicht alle Shader ausgelastet sind.
#6
customavatars/avatar64442_1.gif
Registriert seit: 22.05.2007
Asgard und Berlin
Der Dahar-Meister!
Beiträge: 2162
Wie möchte NVidia das Problem ändern das AMD in der Disziplin locker abhängt?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]