> > > > Neues zu GameWorks VR und virtuellen Realitäten

Neues zu GameWorks VR und virtuellen Realitäten

DruckenE-Mail
Erstellt am: von

nvidia gameworksNeben DirectX 12 und G-Sync ist NVIDIA im Zusammenhang mit dem heutigen Tag auch noch ein drittes Thema wichtig, zu dem es Neuigkeiten gibt. Dabei geht es um das Lieblingsthema vieler Hersteller, virtuelle Realitäten oder kurz VR. Den dazugehörigen Herausforderungen durch die Anforderungen an die Leistung einer Grafikkarte hat NVIDIA bereits häufiger angesprochen, heute nun aber geht es um einige Tricks die angewendet werden, um eine möglichst hohe Leistung zu erreichen.

Dazu stellt man den Entwicklern von Spielen und Engine eine API namens GameWorks VR zur Verfügung, die einen einfachen und schnellen Zugriff auf einige der Technologien ermöglichen soll, die im Zusammenhang mit VR eine Rolle spielen.

NVIDIA GameWorks VR
NVIDIA GameWorks VR

Zunächst einmal aber wollen wir erläutern, warum VR andere Anforderungen stellt, als dies bei einer klassischen Ausgabe über ein 2D-Display der Fall ist. Damit der Nutzer einer VR-Brille überhaupt in der Lage ist auf einer Brille und den darin verbauten Displays etwas zu sehen, wird eine Optik verwendet, die das Bild entsprechend dem Betrachtungsabstand und gewünschten Blickwinkel anpasst. Die Ausgabe auf dem Display erfolgt daher in einer Fishseye ähnlichen Verzerrung und zudem wird das Bild an den Rändern auch noch gestaucht, damit nach der Optik ein für den Nutzer normalen und unverzerrtes Bild entsteht.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Da GPUs und die Rendering-Prozesse aber nicht darauf ausgelegt sind ein solches Bild auszugeben, gehen die Hersteller hin und rendern das Bild auf gewöhnliche Art und Weise, um es in einem Post-Processing entsprechend anzupassen. Diese nachträgliche Bearbeitung kostet zum einen Leistung, viel entscheidender aber ist, dass eine weitere Verzögerung bis zur Ausgabe des Bildes entsteht und gerade diese ist für ein möglichst optimales VR-Erlebnis störend.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Durch die Beschneidungen und Stauchungen an den Rändern des Bildes kommt es auch dazu, dass auf der GPU Pixel berechnet werden, die in der späteren Ausgabe durch die Anpassung gar nicht sichtbar sind. Schon während eines traditionellen Rendering-Prozesses wird darauf geachtet, dass solche nicht sichtbaren Bereich im Verlaufe des Renderings komplett ausgeblendet werden. Da GPUs VR-Techniken und daran anknüpfende Methoden bisher nicht kannten, können sie diese Anforderungen auch noch nicht erfüllen.

NVIDIA wendet nun einen Trick an, um die nicht oder nur eingeschränkt sichtbaren Bereiche anders zu behandeln. Dazu wird das Bild in neun Bereiche aufgeteilt. Diese sogenannten Viewports orientieren sich in etwa an den sonst im Post-Processing bearbeiteten Abschnitten. So wird der mit Abstand größte Viewport in der Mitte fast vollständig so belassen, wie er ursprünglich auch behandelt wurde. Die Seitenbereiche und vor allem die vier Ecken aber werden mit einer Art Komprimierung belegt und in ihrer Auflösung entsprechend dem gewünschten Endergebnis angepasst.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

Alle neun Viewports werden gleichzeitig durch die GPU berechnet - allerdings getrennt voneinander. Die Ausgabe erfolgt schlussendlich in einer bereits fertig angepasst Form. Ein Post-Processing ist damit nicht mehr notwendig. Durch die Aussparung von nicht sichtbaren Bereichen sowie der Anpassung der Auflösung der Ränder und einer zusätzlichen Komprimiereng kommt NVIDIA auf eine erhöhte Pixel-Shader-Performance um den Faktor 1,3 bis 2. Während die Aussparung und Anpassung aufgrund der ohnehin notwenigen optischen Anpassung keinerlei Problem darstellen, waren wir im Hinblick auf die Komprimierung zunächst skeptisch. Wir konnten das Verfahren mit unterschiedlichen Komprimierungsfaktoren und auch mit ausgeschalteten Komprimierung im Zusammenspiel mit einer Oculus Rift Crescent Bay testen und stellten keinerlei Unterschiede in der Darstellunsqualität fest. Weder im Blindtest, noch wenn wir genau wussten das die Komprimierung nun aktiv war, waren für uns Differenzen sichtbar.

Die Verarbeitung unterschiedlicher Viewports in einem Rendering-Prozess ist laut NVIDIA nur auf GPUs mit "Maxwell"-Architektur möglich. Vermutlich ist damit die 2. Generation der aktuellen Architektur gemeint, denn die 1. Generation wäre ohnehin nicht ausreichend leistungsstark, um das VR-Quelle in Frage zu kommen.

VR wird in diesem Jahr noch eine größere Rolle spielen. AMD konzentriert sich mit LiquidVR ebenfalls auf diesen Bereich und bietet spezielle Soft- und Hardware-Features. Gegen Ende des Jahres soll die HTC Vive auf den Markt kommen und Anfang 2016 wird die Consumer-Version der Oculus Rift erwartet. Spiele wie Project CARS und Star Citizen sind bereits heute auf VR ausgelegt und werden sicher dazu beitragen, dass VR schnell Fuß fassen wird.

Social Links

Kommentare (3)

#1
Registriert seit: 03.11.2006
Bruneck (Südtirol)
Vizeadmiral
Beiträge: 6950
Nun da scheinen die AMD bei Tier 3 komplett kompatibel zu sein!

AMD "Fiji XT" SKU Name Revealed, ATI Rage Legacy Reborn? | Page 2 | TechPowerUp Forums
#2
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9458
Zitat Berni_ATI;23536880
Nun da scheinen die AMD bei Tier 3 komplett kompatibel zu sein!

AMD "Fiji XT" SKU Name Revealed, ATI Rage Legacy Reborn? | Page 2 | TechPowerUp Forums

Sehr interessant - hört sich fast zu gut an, um wahr zu sein!
Die einzige Erklärung dass das überhaupt so möglich wäre (schließlich ist GCN1 schon an die 3 jahre alt), ist, dass DX12 absichtilich früh auf AMD Karten abgestimmt wurde - vieleicht aus Dankbarkeit von MS für den Mantle Ansatz (MS profitiert dadurch dass sie mit DX12 endlich was neues bringen und einen weiteren Reiz für Win10 haben). Ist aber eine schon leicht abgedroschene Theorie... :D
Lustig dass NV wieder mit Emulationen wie bei DX 11.2 arbeitet, sollte das stimmen.

Aber woher hat der diese Infos bzw. das Diagramm?
EDIT: Wenn man die Diskusion da liest.. kann es aber gut sein dass die "Tiers" aus dem Diagramm, nicht das selbe sind, wie die um die es in dem Artikel hier geht...
@Berni: Mir fällt grad auf, in dem anderen Thread hätte dein Beitrag viel besser gepasst!
#3
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Ja, NVIDIA sorgt immer dafür, dass auf Kosten ihres Hardwareverkaufs, die Qualität am Ende immer leiden muss und mit Abstrichen bedacht wird.

Bei ihrer GTX 970 wurde per Treiber der VRAM beschnitten.
Bei ihrer Titan X läuft die Double Precision nur über die CUDA-Einheiten.
Maxwell wird sogar per Treiber auf GamesWorks-Titel optimiert, während die alte Generation Kepler in die Röhre schaut.

Wir erinnern uns noch an DX10.1, welches von NVIDIA boykottiert worden ist, weil ihre teuren Karten es nicht konnten.

Und nun wird im VR-Bereich gemogelt damit ihre ach so modernen und 1000 Euro teuren Grafikkarten nicht gegen die Konkurrenz verblassen.

Als traurig ist das allerdings von NVIDIA nicht anzusehen. Sie machen das was man Gewinnmaximierung in der Geschäftswelt nennt. So wenig wie nötig für so viel wie möglich zu verkaufen.
Nein, traurig ist, das die Leute auch weiterhin die komplett überteuerten NVIDIA-Grafikkarten kaufen und somit erst NVIDIA dieses Vorgehen und die Kundenverarschung ermöglichen.

Wo kein Kläger, da auch kein Richter.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]