> > > > Neues zu GameWorks VR und virtuellen Realitäten

Neues zu GameWorks VR und virtuellen Realitäten

Veröffentlicht am: von

nvidia gameworksNeben DirectX 12 und G-Sync ist NVIDIA im Zusammenhang mit dem heutigen Tag auch noch ein drittes Thema wichtig, zu dem es Neuigkeiten gibt. Dabei geht es um das Lieblingsthema vieler Hersteller, virtuelle Realitäten oder kurz VR. Den dazugehörigen Herausforderungen durch die Anforderungen an die Leistung einer Grafikkarte hat NVIDIA bereits häufiger angesprochen, heute nun aber geht es um einige Tricks die angewendet werden, um eine möglichst hohe Leistung zu erreichen.

Dazu stellt man den Entwicklern von Spielen und Engine eine API namens GameWorks VR zur Verfügung, die einen einfachen und schnellen Zugriff auf einige der Technologien ermöglichen soll, die im Zusammenhang mit VR eine Rolle spielen.

NVIDIA GameWorks VR
NVIDIA GameWorks VR

Zunächst einmal aber wollen wir erläutern, warum VR andere Anforderungen stellt, als dies bei einer klassischen Ausgabe über ein 2D-Display der Fall ist. Damit der Nutzer einer VR-Brille überhaupt in der Lage ist auf einer Brille und den darin verbauten Displays etwas zu sehen, wird eine Optik verwendet, die das Bild entsprechend dem Betrachtungsabstand und gewünschten Blickwinkel anpasst. Die Ausgabe auf dem Display erfolgt daher in einer Fishseye ähnlichen Verzerrung und zudem wird das Bild an den Rändern auch noch gestaucht, damit nach der Optik ein für den Nutzer normalen und unverzerrtes Bild entsteht.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Da GPUs und die Rendering-Prozesse aber nicht darauf ausgelegt sind ein solches Bild auszugeben, gehen die Hersteller hin und rendern das Bild auf gewöhnliche Art und Weise, um es in einem Post-Processing entsprechend anzupassen. Diese nachträgliche Bearbeitung kostet zum einen Leistung, viel entscheidender aber ist, dass eine weitere Verzögerung bis zur Ausgabe des Bildes entsteht und gerade diese ist für ein möglichst optimales VR-Erlebnis störend.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Durch die Beschneidungen und Stauchungen an den Rändern des Bildes kommt es auch dazu, dass auf der GPU Pixel berechnet werden, die in der späteren Ausgabe durch die Anpassung gar nicht sichtbar sind. Schon während eines traditionellen Rendering-Prozesses wird darauf geachtet, dass solche nicht sichtbaren Bereich im Verlaufe des Renderings komplett ausgeblendet werden. Da GPUs VR-Techniken und daran anknüpfende Methoden bisher nicht kannten, können sie diese Anforderungen auch noch nicht erfüllen.

NVIDIA wendet nun einen Trick an, um die nicht oder nur eingeschränkt sichtbaren Bereiche anders zu behandeln. Dazu wird das Bild in neun Bereiche aufgeteilt. Diese sogenannten Viewports orientieren sich in etwa an den sonst im Post-Processing bearbeiteten Abschnitten. So wird der mit Abstand größte Viewport in der Mitte fast vollständig so belassen, wie er ursprünglich auch behandelt wurde. Die Seitenbereiche und vor allem die vier Ecken aber werden mit einer Art Komprimierung belegt und in ihrer Auflösung entsprechend dem gewünschten Endergebnis angepasst.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Alle neun Viewports werden gleichzeitig durch die GPU berechnet - allerdings getrennt voneinander. Die Ausgabe erfolgt schlussendlich in einer bereits fertig angepasst Form. Ein Post-Processing ist damit nicht mehr notwendig. Durch die Aussparung von nicht sichtbaren Bereichen sowie der Anpassung der Auflösung der Ränder und einer zusätzlichen Komprimiereng kommt NVIDIA auf eine erhöhte Pixel-Shader-Performance um den Faktor 1,3 bis 2. Während die Aussparung und Anpassung aufgrund der ohnehin notwenigen optischen Anpassung keinerlei Problem darstellen, waren wir im Hinblick auf die Komprimierung zunächst skeptisch. Wir konnten das Verfahren mit unterschiedlichen Komprimierungsfaktoren und auch mit ausgeschalteten Komprimierung im Zusammenspiel mit einer Oculus Rift Crescent Bay testen und stellten keinerlei Unterschiede in der Darstellunsqualität fest. Weder im Blindtest, noch wenn wir genau wussten das die Komprimierung nun aktiv war, waren für uns Differenzen sichtbar.

Die Verarbeitung unterschiedlicher Viewports in einem Rendering-Prozess ist laut NVIDIA nur auf GPUs mit "Maxwell"-Architektur möglich. Vermutlich ist damit die 2. Generation der aktuellen Architektur gemeint, denn die 1. Generation wäre ohnehin nicht ausreichend leistungsstark, um das VR-Quelle in Frage zu kommen.

VR wird in diesem Jahr noch eine größere Rolle spielen. AMD konzentriert sich mit LiquidVR ebenfalls auf diesen Bereich und bietet spezielle Soft- und Hardware-Features. Gegen Ende des Jahres soll die HTC Vive auf den Markt kommen und Anfang 2016 wird die Consumer-Version der Oculus Rift erwartet. Spiele wie Project CARS und Star Citizen sind bereits heute auf VR ausgelegt und werden sicher dazu beitragen, dass VR schnell Fuß fassen wird.

Social Links

Kommentare (3)

#1
Registriert seit: 03.11.2006
Bruneck (Südtirol)
Vizeadmiral
Beiträge: 7487
Nun da scheinen die AMD bei Tier 3 komplett kompatibel zu sein!

AMD "Fiji XT" SKU Name Revealed, ATI Rage Legacy Reborn? | Page 2 | TechPowerUp Forums
#2
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12470
Zitat Berni_ATI;23536880
Nun da scheinen die AMD bei Tier 3 komplett kompatibel zu sein!

AMD "Fiji XT" SKU Name Revealed, ATI Rage Legacy Reborn? | Page 2 | TechPowerUp Forums

Sehr interessant - hört sich fast zu gut an, um wahr zu sein!
Die einzige Erklärung dass das überhaupt so möglich wäre (schließlich ist GCN1 schon an die 3 jahre alt), ist, dass DX12 absichtilich früh auf AMD Karten abgestimmt wurde - vieleicht aus Dankbarkeit von MS für den Mantle Ansatz (MS profitiert dadurch dass sie mit DX12 endlich was neues bringen und einen weiteren Reiz für Win10 haben). Ist aber eine schon leicht abgedroschene Theorie... :D
Lustig dass NV wieder mit Emulationen wie bei DX 11.2 arbeitet, sollte das stimmen.

Aber woher hat der diese Infos bzw. das Diagramm?
EDIT: Wenn man die Diskusion da liest.. kann es aber gut sein dass die "Tiers" aus dem Diagramm, nicht das selbe sind, wie die um die es in dem Artikel hier geht...
@Berni: Mir fällt grad auf, in dem anderen Thread hätte dein Beitrag viel besser gepasst!
#3
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Kapitän zur See
Beiträge: 3073
Ja, NVIDIA sorgt immer dafür, dass auf Kosten ihres Hardwareverkaufs, die Qualität am Ende immer leiden muss und mit Abstrichen bedacht wird.

Bei ihrer GTX 970 wurde per Treiber der VRAM beschnitten.
Bei ihrer Titan X läuft die Double Precision nur über die CUDA-Einheiten.
Maxwell wird sogar per Treiber auf GamesWorks-Titel optimiert, während die alte Generation Kepler in die Röhre schaut.

Wir erinnern uns noch an DX10.1, welches von NVIDIA boykottiert worden ist, weil ihre teuren Karten es nicht konnten.

Und nun wird im VR-Bereich gemogelt damit ihre ach so modernen und 1000 Euro teuren Grafikkarten nicht gegen die Konkurrenz verblassen.

Als traurig ist das allerdings von NVIDIA nicht anzusehen. Sie machen das was man Gewinnmaximierung in der Geschäftswelt nennt. So wenig wie nötig für so viel wie möglich zu verkaufen.
Nein, traurig ist, das die Leute auch weiterhin die komplett überteuerten NVIDIA-Grafikkarten kaufen und somit erst NVIDIA dieses Vorgehen und die Kundenverarschung ermöglichen.

Wo kein Kläger, da auch kein Richter.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]