> > > > Neues zu GameWorks VR und virtuellen Realitäten

Neues zu GameWorks VR und virtuellen Realitäten

Veröffentlicht am: von

nvidia gameworksNeben DirectX 12 und G-Sync ist NVIDIA im Zusammenhang mit dem heutigen Tag auch noch ein drittes Thema wichtig, zu dem es Neuigkeiten gibt. Dabei geht es um das Lieblingsthema vieler Hersteller, virtuelle Realitäten oder kurz VR. Den dazugehörigen Herausforderungen durch die Anforderungen an die Leistung einer Grafikkarte hat NVIDIA bereits häufiger angesprochen, heute nun aber geht es um einige Tricks die angewendet werden, um eine möglichst hohe Leistung zu erreichen.

Dazu stellt man den Entwicklern von Spielen und Engine eine API namens GameWorks VR zur Verfügung, die einen einfachen und schnellen Zugriff auf einige der Technologien ermöglichen soll, die im Zusammenhang mit VR eine Rolle spielen.

NVIDIA GameWorks VR
NVIDIA GameWorks VR

Zunächst einmal aber wollen wir erläutern, warum VR andere Anforderungen stellt, als dies bei einer klassischen Ausgabe über ein 2D-Display der Fall ist. Damit der Nutzer einer VR-Brille überhaupt in der Lage ist auf einer Brille und den darin verbauten Displays etwas zu sehen, wird eine Optik verwendet, die das Bild entsprechend dem Betrachtungsabstand und gewünschten Blickwinkel anpasst. Die Ausgabe auf dem Display erfolgt daher in einer Fishseye ähnlichen Verzerrung und zudem wird das Bild an den Rändern auch noch gestaucht, damit nach der Optik ein für den Nutzer normalen und unverzerrtes Bild entsteht.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Da GPUs und die Rendering-Prozesse aber nicht darauf ausgelegt sind ein solches Bild auszugeben, gehen die Hersteller hin und rendern das Bild auf gewöhnliche Art und Weise, um es in einem Post-Processing entsprechend anzupassen. Diese nachträgliche Bearbeitung kostet zum einen Leistung, viel entscheidender aber ist, dass eine weitere Verzögerung bis zur Ausgabe des Bildes entsteht und gerade diese ist für ein möglichst optimales VR-Erlebnis störend.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Durch die Beschneidungen und Stauchungen an den Rändern des Bildes kommt es auch dazu, dass auf der GPU Pixel berechnet werden, die in der späteren Ausgabe durch die Anpassung gar nicht sichtbar sind. Schon während eines traditionellen Rendering-Prozesses wird darauf geachtet, dass solche nicht sichtbaren Bereich im Verlaufe des Renderings komplett ausgeblendet werden. Da GPUs VR-Techniken und daran anknüpfende Methoden bisher nicht kannten, können sie diese Anforderungen auch noch nicht erfüllen.

NVIDIA wendet nun einen Trick an, um die nicht oder nur eingeschränkt sichtbaren Bereiche anders zu behandeln. Dazu wird das Bild in neun Bereiche aufgeteilt. Diese sogenannten Viewports orientieren sich in etwa an den sonst im Post-Processing bearbeiteten Abschnitten. So wird der mit Abstand größte Viewport in der Mitte fast vollständig so belassen, wie er ursprünglich auch behandelt wurde. Die Seitenbereiche und vor allem die vier Ecken aber werden mit einer Art Komprimierung belegt und in ihrer Auflösung entsprechend dem gewünschten Endergebnis angepasst.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Alle neun Viewports werden gleichzeitig durch die GPU berechnet - allerdings getrennt voneinander. Die Ausgabe erfolgt schlussendlich in einer bereits fertig angepasst Form. Ein Post-Processing ist damit nicht mehr notwendig. Durch die Aussparung von nicht sichtbaren Bereichen sowie der Anpassung der Auflösung der Ränder und einer zusätzlichen Komprimiereng kommt NVIDIA auf eine erhöhte Pixel-Shader-Performance um den Faktor 1,3 bis 2. Während die Aussparung und Anpassung aufgrund der ohnehin notwenigen optischen Anpassung keinerlei Problem darstellen, waren wir im Hinblick auf die Komprimierung zunächst skeptisch. Wir konnten das Verfahren mit unterschiedlichen Komprimierungsfaktoren und auch mit ausgeschalteten Komprimierung im Zusammenspiel mit einer Oculus Rift Crescent Bay testen und stellten keinerlei Unterschiede in der Darstellunsqualität fest. Weder im Blindtest, noch wenn wir genau wussten das die Komprimierung nun aktiv war, waren für uns Differenzen sichtbar.

Die Verarbeitung unterschiedlicher Viewports in einem Rendering-Prozess ist laut NVIDIA nur auf GPUs mit "Maxwell"-Architektur möglich. Vermutlich ist damit die 2. Generation der aktuellen Architektur gemeint, denn die 1. Generation wäre ohnehin nicht ausreichend leistungsstark, um das VR-Quelle in Frage zu kommen.

VR wird in diesem Jahr noch eine größere Rolle spielen. AMD konzentriert sich mit LiquidVR ebenfalls auf diesen Bereich und bietet spezielle Soft- und Hardware-Features. Gegen Ende des Jahres soll die HTC Vive auf den Markt kommen und Anfang 2016 wird die Consumer-Version der Oculus Rift erwartet. Spiele wie Project CARS und Star Citizen sind bereits heute auf VR ausgelegt und werden sicher dazu beitragen, dass VR schnell Fuß fassen wird.

Social Links

Kommentare (3)

#1
Registriert seit: 03.11.2006
Bruneck (Südtirol)
Vizeadmiral
Beiträge: 7320
Nun da scheinen die AMD bei Tier 3 komplett kompatibel zu sein!

AMD "Fiji XT" SKU Name Revealed, ATI Rage Legacy Reborn? | Page 2 | TechPowerUp Forums
#2
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12306
Zitat Berni_ATI;23536880
Nun da scheinen die AMD bei Tier 3 komplett kompatibel zu sein!

AMD "Fiji XT" SKU Name Revealed, ATI Rage Legacy Reborn? | Page 2 | TechPowerUp Forums

Sehr interessant - hört sich fast zu gut an, um wahr zu sein!
Die einzige Erklärung dass das überhaupt so möglich wäre (schließlich ist GCN1 schon an die 3 jahre alt), ist, dass DX12 absichtilich früh auf AMD Karten abgestimmt wurde - vieleicht aus Dankbarkeit von MS für den Mantle Ansatz (MS profitiert dadurch dass sie mit DX12 endlich was neues bringen und einen weiteren Reiz für Win10 haben). Ist aber eine schon leicht abgedroschene Theorie... :D
Lustig dass NV wieder mit Emulationen wie bei DX 11.2 arbeitet, sollte das stimmen.

Aber woher hat der diese Infos bzw. das Diagramm?
EDIT: Wenn man die Diskusion da liest.. kann es aber gut sein dass die "Tiers" aus dem Diagramm, nicht das selbe sind, wie die um die es in dem Artikel hier geht...
@Berni: Mir fällt grad auf, in dem anderen Thread hätte dein Beitrag viel besser gepasst!
#3
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 3011
Ja, NVIDIA sorgt immer dafür, dass auf Kosten ihres Hardwareverkaufs, die Qualität am Ende immer leiden muss und mit Abstrichen bedacht wird.

Bei ihrer GTX 970 wurde per Treiber der VRAM beschnitten.
Bei ihrer Titan X läuft die Double Precision nur über die CUDA-Einheiten.
Maxwell wird sogar per Treiber auf GamesWorks-Titel optimiert, während die alte Generation Kepler in die Röhre schaut.

Wir erinnern uns noch an DX10.1, welches von NVIDIA boykottiert worden ist, weil ihre teuren Karten es nicht konnten.

Und nun wird im VR-Bereich gemogelt damit ihre ach so modernen und 1000 Euro teuren Grafikkarten nicht gegen die Konkurrenz verblassen.

Als traurig ist das allerdings von NVIDIA nicht anzusehen. Sie machen das was man Gewinnmaximierung in der Geschäftswelt nennt. So wenig wie nötig für so viel wie möglich zu verkaufen.
Nein, traurig ist, das die Leute auch weiterhin die komplett überteuerten NVIDIA-Grafikkarten kaufen und somit erst NVIDIA dieses Vorgehen und die Kundenverarschung ermöglichen.

Wo kein Kläger, da auch kein Richter.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

ZOTAC GeForce GTX 1080 Ti Mini: 1080-Ti-Leistung auf gerade einmal 21 Zentimeter

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-MINI-LOGO

Wir haben uns bereits mehr als ein Dutzend verschiedene Modelle der GeForce GTX 1080 Ti angeschaut. Mit von der Partie waren standard-luftgekühlte und wassergekühlte Modelle, mit All-in-One-Wasserkühlung und Custom-Open-Loop – die Vielfalt lässt sicherlich kaum Wünsche offen. ZOTAC hat nun... [mehr]