> > > > Herausforderungen der virtuellen Realität mit VR Direct begegnen

Herausforderungen der virtuellen Realität mit VR Direct begegnen

Veröffentlicht am: von

gtc2015Virtuelle Realität, dargestellt mit Hilfe von Displays in Brillen, wird in nächster Zukunft eine immer wichtigere Rolle spielen. Oculus gilt mit der Oculus Rift nur als Vorreiter einer Technik, die mit Microsofts Hololense (die auf einer anderen Technik beruht) oder der Steam/HTC Vive schon prominente Mitstreiter gefunden hat. Doch die Darstellung in einer VR-Brille stellt völlig neue Herausforderungen an die Render-Technik, die auf den ersten Blick gar nicht so deutlich werden. AMD und NVIDIA haben sich bereits entsprechend positioniert. Bei AMD stellt Liquid VR die notwenigen Technologien zur Verfügung, NVIDIA hat seine Schnittstellen als Direct VR zusammengefasst.

Eine der größten Herausforderungen ist die Reduzierung von Verzögerungen. Ein schnelles Tracking der Bewegungen ist entscheidend, um ein echtes VR-Erlebnis überhaupt erst möglich zu machen. Bereits kleinste Verzögerungen sorgen für ein Unwohlsein. Aus der Sensorik der Bewegungen sind die Verzögerungen inzwischen weitestgehend entfernt worden. Recht wenig Einfluss haben die Entwickler aber auf die Verzögerungen, die im Rendering-Prozess auftreten. Hier kommt Direct VR von NVIDIA ins Spiel.

NVIDIA Direct VR
Bildergalerie: NVIDIA Direct VR

DirectX 12 sorgt durch die Art und Weise seiner Implementation für eine Reduzierung der Renderzeiten. Doch um auf Werte von 20 ms und weniger zu kommen, sind noch weitere Anstrengungen notwendig. Die Frame Queue soll eigentlich dafür sorgen, dass im Falle von Verzögerungen beim Rendering dennoch genügend Frames vorhanden sind, um eine ruckelfreie Darstellung zu erlauben. Allerdings kann es hier zu einem großen Zeitversatz bzw. einer fehlerhaften Darstellung zwischen dem aktuellen Input und der Ausgabe des Frames kommen. Daher wird bei VR Direct die Frame Queue auf einen Frame reduziert.

Eine wichtige Rolle kommt dem Timewarp zu. Timewarp sagt die Bewegung des Trackings weiter voraus und rendert die Szene größer als sie durch das VR-Display dargestellt wird. Abhängig vom Headtracking wird der entsprechende Bildausschnitt gewählt. Mit Timewarp lässt sich die Latenz für das Headtracking zwar reduziert, andere Eingaben (wie das Abgeben eines Schusses oder eine andere Interaktion) werden jedoch nicht beachtet.

NVIDIA Direct VR
Bildergalerie: NVIDIA Direct VR

Den größten Sprung soll die Latenz aber durch eine Technik namens Auto Asynchronous Warp machen. Ohne dass die jeweils verwendete Anwendung daraufhin optimiert werden muss, wird der Input des Trackings der Kopfbewegung erst dann in den Renderpfad eingefügt, wenn dieser zu einem gewissen Teil bereits berechnet wurde. Eventuelle Korrekturen der Position des Spielers werden erst danach ausgeführt. Damit will NVIDIA die komplette Renderzeit halbieren und die Zeiten von der Eingabe des Nutzers (der Kopfbewegung) bis zur Ausgabe auf dem Display auf 25 ms drücken. NVIDIAs GPU-Architektur "Fermi", "Kepler" und "Maxwell" sind an bestimmte Draw Calls gebunden, um diese Voraussagen ausführen zu können. Zukünftige GPUs - damit ist die "Pascal"-Architektur gemeint - sollen hier feiner auflösen können.

Ein Asynchronous Timewarp lässt sich allerdings komplett vermeiden, wenn die Framerate auf immer dem gleichen Niveau gehalten werden kann. Die Oculus Rift in der aktuellen Ausführung "Crescent Bay" beispielsweise setzt 90 Bilder pro Sekunde für jedes Auge voraus. Um dieses Ziel zu erreichen wäre es natürlich am einfachsten, wenn eine Grafikkarten ausreichend Leistung zur Verfügung stellt, um diese 90 Bilder pro Sekunde für jedes Auge auch zu liefern. Bei Auflösungen von FullHD pro Auge oder gar im Bereich von UltraHD/4K ist aktuell aber noch keine Grafikkarte in der Lage, dies zu liefern. Also sucht NVIDIA nach Wegen, um die Leistung zu erhöhen. Dies wäre beispielsweise durch den Einsatz von zwei Grafikkarten - eine pro Auge - möglich.

NVIDIA Direct VR
Bildergalerie: NVIDIA Direct VR

NVIDIA nennt diese Umsetzung VR SLI. VR SLI erzeugt allerdings eine höhere Last auf der CPU und erhöht auch hier die Latenzen. Zudem ist ein AFR (Alternate Frame Rendering) nicht dazu geeignet. Also wird die Ausgabe jeweils einer Grafikkarte auf ein Auge fest miteinander verbunden. Die Synchronisation der Ausgabe erfolgt über den PCI-Express-Bus und benötigt dort einige Millisekunden, die wiederum auf die ohnehin schon vorhandene Verzögerung des Renderings draufgerechnet werden müssen. NVIDIA steht in dieser Hinsicht also noch vor einer Herausforderung. Außerdem ist VR SLI derzeit nur für DirectX 11 möglich.

Eine andere Möglichkeit der Leistungsoptimierung ist die Reduzierung der Renderarbeit. Nicht das komplette Rendering muss für die Position beider Augen erneut ausgeführt werden. Viele Objekte und Teilbereiche des Renderings werden doppelt ausgeführt und können eingespart werden. Auch außerhalb der Rendering-Pipeline und innerhalb des Treibers sind viele Arbeitsschritte redundant und damit nicht notwendig. Hier sieht NVIDIA noch großes Potenzial für zukünftige Verbesserungen.

NVIDIA Direct VR
Bildergalerie: NVIDIA Direct VR

Auch wenn Steam und HTC bereits gegen Ende des Jahres die Verfügbarkeit der Vive planen, so stehen die Hersteller, egal ob nun Oculus, AMD oder NVIDIA noch vor großen Herausforderungen. NVIDIA testet VR Direct und VR SLI derzeit in einem Alpha-Status des Treibers. Der Weg ist klar, nun müssen nur noch die Steine aus dem Weg geräumt werden. Das VR mehr als nur ein Trend ist, dürfte durch das Engagement gleich mehrerer großer Unternehmen offensichtlich sein.

Social Links

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]