> > > > Variable Rate Shading wird Bestandteil von DirectX 12

Variable Rate Shading wird Bestandteil von DirectX 12

Veröffentlicht am: von

microsoft 2Zusammen mit den Hardwarebeschleunigungen mittels RT und Tensor Cores führte NVIDIA in der Turing-Architektur auch zahlreiche weitere Verbesserungen ein. Dazu gehört das Variable Rate Shading (VRS). NVIDIA fasst das VRS als NVIDIA Adaptive Shading (NAS) zusammen und hat bisher eine entsprechende Vulkan-Erweiterung angeboten, die bisher einzig von Wolfenstein II: The New Colossus unterstützt wird.

Zu den GeForce-RTX-Karten sowie der GeForce GTX 1660 Ti (alle Karten basieren auf der Turing-Architektur) haben wir bereits Benchmarks mit Variable Rate Shading in den verschiedenen Stufen erstellt. Einfach gesagt handelt es sich beim Variable Rate Shading um eine "Kompression" für das Shading. Wir kennen dies bereits von Kompressionsverfahren für Musik (MP3), Bilder (JPG) aber auch in GPU-Architekturen in Form einer Speicherkomprimierung.

Normalerweise wird jeder Pixel pro Shading-Vorgang einmal gezeichnet. Bei mehreren Frames pro Sekunde, werden viele Objekte aber immer wieder mehrfach gleich gezeichnet, denn in den seltensten Fällen ändert sich die komplette Szene von Frame zu Frame. Dies macht sich das Variable Rate Shading zu Nutze.

Für das Variable Rate Shading wird der Frame in mehrere Blöcke aufgeteilt. Abhängig vom Inhalt des jeweiligen Frame und der Geschwindigkeit, in der sich Änderungen zum nächsten Frame ergeben, können diese Blöcke unterschiedlich groß sein. Es gibt daher unterschiedliche Methoden des Variable Rate Shading.

Die VRS API für DirectX 12 kann auf dreierlei Wege implementiert werden:

  • Pro Draw: Der Entwickler entscheidet welche Objekte in welcher Detailstufe berechnet werden. Beispielsweise müssen entfernte Objekte nicht in voller Qualität berechnet werden, während nahe Objekte in voller Qualität dargestellt werden.
  • In einem Draw auf Basis eines Screenspace Images: Für einen Fist-Person-Shooter bedeutet dies eine Berechnung mit allen Details in der Mitte, also dem Fokus des Spielers, während die Randbereiche in reduzierter Qualität dargestellt werden.
  • In einem Draw auf Basis von Primitives: Der Entwickler bestimmt durch das LOD welche Objekte mit welcher Shading Rate berechnet werden. Entfernte Objekte also mit dementsprechend geringerer Qualität. Dieser Automatismus fehlt im ersten Verfahren, denn dort muss jedes Objekt manuell bestimmt werden.

Es gibt aber auch unterschiedliche Level (Tier 1 und Tier 2) an Hardware, die VRS unterstützen kann. Tier 1 unterstützt das VSR pro Draw. Tier 2 muss durch die Hardware explizit unterstützt werden und kann auf Basis eines Screenspace Images oder von Primitives arbeiten. Es wird auch Mischformen der drei Verfahren geben, wobei die die Hardwarebasis bestimmt, welche Verfahren überhaupt zum Einsatz kommen können.

Microsoft hat zusammen mit Firaxis eine erste Implementierung in Civilization VI vorgenommen und konnte je nach Verfahren eine Leistungssteigerung von bis zu 20 % feststellen.

Im Hinblick auf die Hardwareunterstützung spricht Microsoft von den aktuellen Grafikkarten aus dem Hause NVIDIA (vermutlich Turing und Pascal) sowie zukünftigen Intel-GPUs. Dabei spricht Microsoft von der Gen11-Grafikeinheit, die ab der zweiten Jahreshälfte den Weg in die ersten Intel-Prozessoren finden wird.

Softwareentwickler können ab sofort mit der VSR-API arbeiten. Konkrete Ankündigungen zu Spielen, die VSR einsetzen werden, gibt es aber noch nicht. Eine Leistungssteigerung im zweistelligen Bereich dürfte für den ein oder anderen Spieler aber sicherlich interessant sein.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (11)

#2
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1507
Eine sehr komische Sichtweise dieser Technik,...

Schlechtere Bildqualität: Ja, in der Theorie. Überall dort wo man halt eh nicht hinschaut, bzw. wo nicht neu berechnet werden muss.
Zweistellige Performance Zuwachs, mit Einbußen die einem nicht auffallen, ist eine der besten Settingsoptionen die man in einem Spiel finden kann.
Dafür muss man sonst ganz andere Regler bewegen.
#3
Registriert seit: 26.04.2015

Oberbootsmann
Beiträge: 1022
In der Distanz hat man eh schon seit je her "schlechtere" Bildqualität, zumindest bei dem Detailgrad der 3D Modelle (LODs). Also ist dein Kommentar eh schon Bullshit, Mr. "Performer".

Zumal hier wohl APUs am meisten profitieren werden. Darüber hinaus haben sowohl nVidia als auch AMD diese Technik schon vorgeführt und bewiesen, dass es hier kaum sichtbare Unterschiede gibt (zumindest so, wie es von AMD und nVidia eingesetzt wurde).
#4
customavatars/avatar72612_1.gif
Registriert seit: 11.09.2007

Fregattenkapitän
Beiträge: 2870
Zitat Performer;26861252
Bedeutet es nicht nur, dass man in der Entfernung eine schlechtere Bildqualität hat und Nvidia dafür nur weniger VRam verbauen muss aber wir dürfen weiterhin den vollen Preis bezahlen !? :-[


Anscheinend!

Ich denke an Games wie War Thunder im „Real Mode“ ohne Mini map und nur im Richtschützenplatz Fadenkreuz.
Man braucht richtig gute Grafik auch in großer Entfernung um Gegner auszumachen!

Ein Schritt um Spieler zu gängeln.
#5
customavatars/avatar193513_1.gif
Registriert seit: 13.06.2013
#Neuland
Oberstabsgefreiter
Beiträge: 407
Zitat Performer;26861252
Bedeutet es nicht nur, dass man in der Entfernung eine schlechtere Bildqualität hat und Nvidia dafür nur weniger VRam verbauen [...]


Hier geht es in erster Linie nicht um den RAM verbrauch, sondern es geht darum unnötige Renderoperationen zu vermeiden.

Zitat Jaimewolf3060;26861966
Anscheinend!

Ich denke an Games wie War Thunder im „Real Mode“ ohne Mini map und nur im Richtschützenplatz Fadenkreuz.
Man braucht richtig gute Grafik auch in großer Entfernung um Gegner auszumachen!

Ein Schritt um Spieler zu gängeln.


Blödsinn. Auf hoher Distanze, ist die Auflösung zusammen mit AA und das LOD das größere Problem. Zumal der Entwickler ja entschieden kann wie das genau aussehen soll. Wie im Artikel geschrieben, kann für die Mitte des Bilds alle Deteils brechnet werden.
#6
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 31429
Und schlussendlich hat der Nutzer wohl auch die Option es einzuschalten oder eben nicht wenn er sich visuell dadurch benachteiligt fühlt.
#7
customavatars/avatar72612_1.gif
Registriert seit: 11.09.2007

Fregattenkapitän
Beiträge: 2870
Zitat Don;26862061
Und schlussendlich hat der Nutzer wohl auch die Option es einzuschalten oder eben nicht wenn er sich visuell dadurch benachteiligt fühlt.


Ich hatte es anders verstanden.
Dann ist doch alles in Ordnung.
Dann macht ja der Performer wie immer unnötigen stunk.
#8
Registriert seit: 13.10.2005
Magdeburg
Admiral
HWLUXX Superstar
Beiträge: 20979
Nvidia hatte vor ein paar Jahren auch mal eine andere Interessante Technik namens Multi-Res-Shading gebracht.

Man konnte damit den äußeren Bildbereich (also den Bildbereich den man eh nur passiv wahrnimmt) mit niedrigerer Auflösung berechnen als den Bildbereich mittig.

Das einzige mir bekannte Spiel das dieses Feature bietet ist Shadow Warrior 2.. sehr schade eigentlich, grad auf den immer beliebteren 21:9 Monitoren würde das Sinn machen.
„Shadow Warrior 2“ jetzt verfügbar – mit NVIDIA Multi-Res Shading für 30 % mehr Leistung
#9
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1507
Im Endeffekt ist diese Technik ja eine Weiterentwicklung von Multi-Res Shading.

@Performer
Nicht jeder kann sich ne highend GPU leisten.
Solche voll optionalen "Mogelpackungen" ermöglichen es Budgetgamern die fancy Settings etwas höher zu stellen und die dafür nötige Performance an Stellen zu sparen, die eben nicht auffallen.
Aktuell stellt man mit ner Midrange GPU doch auch die Settings runter. Nur hat man da selten eine Option die 2-stellige Leistung bringt, obwohl man im Game kaum bis gar keinen Unterschied bemerkt.

Finde diese Technik hat schon etwas mehr Lob verdient.
Mehr in diese Richtung wäre sogar wünschenswert. Sowas wie "nur die Vorderseite +xx Grad von Objekten rendern", "sich wiederholene Pixel nur einmal berechnen und Spiegeln", usw.
Ideen gibt es da sicher einige, die alle sau viel Leistung bringen können, ohne die visuellen Effekte zu reduzieren. Man braucht nur die entsprechenden Algorithmen und Treiber / Engine Supports.
Und genau das macht NVidia hier, bzw. Microsoft übernimmt es in DX12. Die breite Masse der Gamer profitiert. Nicht immer muss es für die Highend GPUs wichtig sein. ;-)
#10
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3260
Das Feature wird eh in der XBox landen (oder ist dort sogar schon vorhanden?). Also kein Wunder, dass es Teil von DX12 wird.
#11
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1507
In den aktuellen Konsolen gibt es mehrere EXTREM rudimentäre Funktionen, die ähnlich anmuten,... aber es ist fast schon unverschämt das zu vergleichen.
Da gibt es automatisches Resolution Scaling, dass skaliert aber stupide alles.
Dann gibt es Checkerboard Rendering, dass ignoriert einfach mal jeden zweiten Pixel und extrapoliert wie der aussehen könnte. (kann sein, dass die Technik nen anderen Namen hat, da bin ich gerade nicht 100% sicher).

Also wirklich sinnvolle Entscheidungsfindung, welche Bereiche skaliert werden und welche nicht, gibt es da glaube noch nicht. Wäre aber gerade für die kommenden schwachen Konsolen sicher ebenfalls ein Gewinn. Die laufen ja auf dem Level eines low-end Gaming PCs. Außer die Konsoleros haben Recht und die neuen Konsolen pflegen Feenstaub und Magie ein und werden brutale 4k Maschinen für 400 Euro. In dem fall wäre Adaptive Shader natürlich ein Affront gegen den geneigten Konsolero! ;-)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]