> > > > NVIDIA geht auf die Kritik an DLSS ein

NVIDIA geht auf die Kritik an DLSS ein

Veröffentlicht am: von

rtxonMit der Einführung von Deep Learning Super Sampling in Battlefield V sowie der Unterstützung vom Start weg durch Metro: Exodus will NVIDIA zeigen, dass die Ray-Tracing-Techniken und DLSS bereit sind für den Praxiseinsatz. Während die Simulation der gesamten Beleuchtung einer Szenerie mittels Ray Traced Global Illumination sowie die der Reflexionen und Spiegelung als gelungen gelten können, kämpft DLSS noch mit einigen Startschwierigkeiten. In einem Kommentar haben wir uns dazu genauer geäußert.

Dabei macht die Technik genau das, was sie soll. Unsere Bildvergleiche zeigen die Einschränkungen in der Bildqualität recht deutlich, machen aber auch das Leistungsplus erkenntlich. In unserem Forum zeigten sich einige Nutzer einer GeForce-RTX-Karte ebenfalls alles andere als begeistert von der Qualität – vor allem in niedrigen Auflösungen.

Nun hat NVIDIA auf die Kritik reagiert und sich in einem Beitrag detailliert zu DLSS geäußert.

Zunächst einmal geht NVIDIA auf die Kritik an der Bildqualität ein. Man verweist darauf, dass das Training des verwendeten Deep-Learning-Netzwerks, welches für DLSS verwendet wird, immer weiter fortgesetzt wird. Sobald es Verbesserungen in der Bildqualität gibt, will man diese per Software Update, genauer gesagt "NVIDIA software updates", nachreichen.

Weiterhin sagt NVIDIA: "We have seen the screenshots and are listening to the community’s feedback about DLSS at lower resolutions, and are focusing on it as a top priority. We are adding more training data and some new techniques to improve quality, and will continue to train the deep neural network so that it improves over time."

NVIDIA sieht Kritik an der Darstellungsqualität als gerechtfertigt an

Konkret zu Battlefield V und Metro: Exodus bedeutet dies:

Bei Battlefield V will man sich auf die Darstellungsqualität bei 1.920 x 1.080 Pixel konzentrieren und wird auch Ultrawide-Monitore (bei beispielsweise 3.440 x 1.440 Pixel) mit einem zukünftigen Update unterstützen. Im Falle von Battlefield V ist man vom aktuellen Ergebnis wohl selbst nicht überzeugt: "The current experience at these resolutions is not where we want them." Man darf dann aber die Frage stellen, warum DLSS in dieser Form für Battlefield V aktiviert wurde, wenn man selbst nicht von der Qualität überzeugt ist.

Für Metro: Exodus soll die allgemeine Darstellungsqualität verbessert werden. Dies gilt auch hier für Auflösungen, die es nicht in das erste Update für DLSS (im Falle von Metro: Exodus zum Start des Spiels) geschafft haben. Außerdem scheint man für das Training des Deep-Learning-Netzwerkes weitere Szenarien des Spiels, sprich andere Spielszenen und Umgebungen, mit einbeziehen zu wollen. Auch hier soll es dann ein Update geben.

Wo DLSS sinnvoll ist und wo nicht

NVIDIA erklärt auch, warum DLSS in Battlefied V und Metro: Exodus nicht in jeder Kombination aus Hardware und gewünschter Auflösung funktioniert. Zunächst einmal lässt sich das DLSS nur aktivieren, wenn auch die RTX-Effekte eingeschaltet sind. Bei Metro: Exodus gilt: Für eine GeForce RTX 2080 Ti steht DLSS bei 1.920 x 1.080 Pixel nicht zur Verfügung. Für eine GeForce RTX 2060 lässt es sich bei 3.840 x 2.160 Pixel nicht aktivieren.

Bei Battlefield V sieht dies etwas anders aus: Hier kann das DLSS für eine GeForce RTX 2080 Ti nur bei 3.840 x 2.160 Pixel aktiviert werden. Eine GeForce RTX 2080 lässt eine Auflösung von 1.920 x 1.080 Pixel aus.

NVIDIA begründet dies wie folgt: Das neu Zusammensetzen eines Frames mittels DLSS benötigt eine gewisse GPU-Zeit. Man wäge also ab, wann sich dies lohne und wann nicht. Für schnelle Karten bei niedriger Auflösung mache die Anwendung von DLSS wenig Sinn. Gleiches gilt für schwächere Hardware und eine hohe Auflösung.

"To put it a bit more technically, DLSS requires a fixed amount of GPU time per frame to run the deep neural network. Thus, games that run at lower frame rates (proportionally less fixed workload) or higher resolutions (greater pixel shading savings), benefit more from DLSS. For games running at high frame rates or low resolutions, DLSS may not boost performance. When your GPU’s frame rendering time is shorter than what it takes to execute the DLSS model, we don’t enable DLSS. We only enable DLSS for cases where you will receive a performance gain. DLSS availability is game-specific, and depends on your GPU and selected display resolution."

Wir werden die Darstellungsqualität von DLSS im Auge behalten. Unbestritten ist, dass DLSS die Leistung steigern kann, doch dies hat eben seinen Preis in der Bildqualität. Am Ende ist es eine Abwägung, ob eine GeForce RTX 2060 mit DXR-Effekten in 1080p ausreichend FPS liefern kann oder eben nicht und dann DLSS als Leistungsplus hergenommen wird. Auf der anderen Seite kann auch das reduzieren einzelner Effekte und der grundsätzlichen Qualitätseinstellungen helfen, wenn das DLSS keine Alternative ist.

Social Links

Kommentare (19)

#10
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34405
Zitat Holzmann;26809789
Ob sich die Technik dann durchsetzt kann man bezweifeln, auch Chris Roberts wird es in Star Citizen vorerst zb nicht unterstützen.


Aja - also weil ein einzelner Bubi mit einer Art Weltraum Simulation und der Global Player im PC Gamer-GPU Geschäft AMD nicht mitspielt, kann bezweifelt werden, ob sich die Technik durchsetzt??
Ich glaub du hast da irgendwo bisschen was verwechselt ;)

PS: und nein ich gehe nicht davon aus, dass sich DLSS global durchsetzt. Es ist proprietär - und damit eben kein allgemeiner Standard oder etwas, was unmittelbar nach Veröffentlichlung zu einem solchen werden kann.
Die Begründung ist aber bisschen weit her geholt...
DXR hat das Potential sich global durchzusetzen. Aber auch das wird, wenn es denn so kommt, nicht binnen ein paar Wochen nach Release des Features ansich funktionieren. Auch wird man damit vorerst keine Tendenzen erkennen können. Irgendwann wird DX12 auch mal der "Standard" werden. Wie viele Jahre gibt es das aber nun schon und wie viele Entwickler/Studios lassen es noch links liegen?

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Don;26809809
Natürlich ist die RTX-Serie in letzter Konsequenz das Problem. Die Hardware kann vielleicht ein Jahr zu früh. Aber daran kann MVIDIA jetzt auch nichts mehr ändern. Das sind Produktentscheidungen die sind vor Jahren gefallen.


Ist sie das wirklich?
Oder sind die angesprochenen Problemstellen der RTX-Serie effektiv "nur" das Resultat eines ganz anderen Problems?
Ich meine, warum hat die Radeon VII in gewissem Maße denn die selben Probleme, allen vorran auf der Kostenseite obwohl sie mit NV exakt gar nichts zu tun hat?

Die Hardware kam mMn auch nicht zu früh, sondern eher gar bisschen zu spät. Ist aber so nicht eindeutig zu erkennen, weil die "Kunden" so schon nicht bereit sind/waren, Unsummen während der Mining-Hochpreisphase in die Hardware investieren zu wollen. Der Absatz sinkt also (bei normalen Gamern) - wurde aber durch Verkäufe an Kunden mit anderem Zweck kompensiert.
Technisch gesehen wäre die 2000er Reihe ein würdiger Aufsatz/Nachfolger der 1000er Reihe, wenn man nicht hätte am Speicher so knausern müssen. Die Karten liefern bis auf exakt zwei Ausnahmen in effektiv in allen anderen Lebenslagen das bessere Ergebnis. Nummer 1 ist der Speicher - und nummer 2 ist der Verkaufspreis. Der Rest stimmt. Speichermenge geht direkt mit dem Preis einher - und der Preis ist effektiv zu hoch, wahrscheinlich aber eben aktuell nicht deutlich drückbar in einer Marktsituation wie wir sie heute haben. -> Ob die Karte da nun ein Jahr später gekommen wäre oder nicht -> welche Rolle hätte es gespielt??
#11
customavatars/avatar189210_1.gif
Registriert seit: 27.02.2013

Admiral
Beiträge: 13993
Ich nutze DLSS in 4K mit einer 2080TI in Metro auf einem 65" 4K HDR OLED TV. DLSS ist der Unterschied zwischen RTX in Ultra spielbar bzw. unspielbar.

Ich habe die Wahl. DLSS ON und steady FPS mit RTX (Ultra), DLSS OFF mit nativen 4K mit RTX (High) bei unstabilen FPS oder gar nur noch matschigere 1440p RTX (Ultra).

Ich bin froh das Feature zuschalten zu können. RTX Ultra nicht in nativen 4K spielbar (flüssig), also DLSS aktivieren und besser dran als in 1440p.

Und das sag ich euch, sowas wie Metro in 4K DLSS max Detail, Hairworks, Tessellation, etc. mit der RTX Beleuchtung in HDR auf OLED ... holy shit, das ist eine verdammt gute Kombination :hail:
#12
customavatars/avatar97341_1.gif
Registriert seit: 23.08.2008
Bitz
Anime und Hardware Otaku
Beiträge: 14465
65" und 3-4m entfernt? Ist was anderes, als mit 32" auf dem Tisch und ca. 65-80cm entfernt.
#13
customavatars/avatar264602_1.gif
Registriert seit: 24.12.2016

Matrose
Beiträge: 10
Zitat fdsonne;26809833

Ist sie das wirklich?
Oder sind die angesprochenen Problemstellen der RTX-Serie effektiv "nur" das Resultat eines ganz anderen Problems?
Ich meine, warum hat die Radeon VII in gewissem Maße denn die selben Probleme, allen vorran auf der Kostenseite obwohl sie mit NV exakt gar nichts zu tun hat?

Die Hardware kam mMn auch nicht zu früh, sondern eher gar bisschen zu spät. Ist aber so nicht eindeutig zu erkennen, weil die "Kunden" so schon nicht bereit sind/waren, Unsummen während der Mining-Hochpreisphase in die Hardware investieren zu wollen. Der Absatz sinkt also (bei normalen Gamern) - wurde aber durch Verkäufe an Kunden mit anderem Zweck kompensiert.
Technisch gesehen wäre die 2000er Reihe ein würdiger Aufsatz/Nachfolger der 1000er Reihe, wenn man nicht hätte am Speicher so knausern müssen. Die Karten liefern bis auf exakt zwei Ausnahmen in effektiv in allen anderen Lebenslagen das bessere Ergebnis. Nummer 1 ist der Speicher - und nummer 2 ist der Verkaufspreis. Der Rest stimmt.


In einer freien Marktwirtschaft ist der Verkaufspreis eines Produktes aber nicht gerade unerheblich für die Kaufentscheidung. Der kann durchaus den Unterschied dazwischen machen, ob das Produkt ein Verkaufsschlager auf voller Linie wird oder zur Radeon 7. :D
#14
customavatars/avatar189210_1.gif
Registriert seit: 27.02.2013

Admiral
Beiträge: 13993
Habe gerade noch mal genau und intensiv verglichen. Was bei mir viel ausmacht, ist das Nachschärfen des Bildes über die Einstellungen des TV. DLSS mit Schräfen auf Stock ist echt grausam weich, mit meiner Schärfeeinstellung 40/50 aber gehts ganz gut. Native 1440p sind in beiden Fällen schärfer, der Unterschied ist aber mit der Nachschärfe Option des TV nicht so wild. DLSS hat den Charme in Bewegung irgendwie cinematischer zu wirken. Ich kann es schlecht beschreiben. Mir gefällt DLSS mit Schärfen irgendwie besser als native 1440p. Das gilt aber wie gesagt bei mir für einen 65" 4K OLED TV.
#15
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7735
Zitat webmi;26810001
Habe gerade noch mal genau und intensiv verglichen. Was bei mir viel ausmacht, ist das Nachschärfen des Bildes über die Einstellungen des TV. DLSS mit Schräfen auf Stock ist echt grausam weich, mit meiner Schärfeeinstellung 40/50 aber gehts ganz gut. Native 1440p sind in beiden Fällen schärfer, der Unterschied ist aber mit der Nachschärfe Option des TV nicht so wild. DLSS hat den Charme in Bewegung irgendwie cinematischer zu wirken. Ich kann es schlecht beschreiben. Mir gefällt DLSS mit Schärfen irgendwie besser als native 1440p. Das gilt aber wie gesagt bei mir für einen 65" 4K OLED TV.


Nachschärfen des TVs? Du nutzt also mit Bildprozessor des Fernsehers? Das erhöht den input lag doch massiv oder?
#16
customavatars/avatar189210_1.gif
Registriert seit: 27.02.2013

Admiral
Beiträge: 13993
Der TV misst im Gaming Mode glaube 30ms, das geht mit Gamepad von der Couch aus sehr gut. Auf den Wert kommt er hauptsächlich durch die deaktivierte Zwischenbildberechnung im Gaming Mode. Schärfe oder nicht, die ist wie Helligkeit oder Farbintensivität, das hat wenig bis keinen Einfluss auf den Lag, zumindest nicht spürbar.
#17
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007

Kapitän zur See
Beiträge: 3951
Über das Thema Raytracing haben wir schon 2010 gesprochen, je nezuer der Titel desto unspielbar wird das mit Raytracing.

Mehr Pixeldichte+FPS bringt was gerade bei Games.
#18
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

Admiral
Beiträge: 11095
Ben Parry (Star Citizen) spricht von zu großem Aufwand für die Integration von Raytracing Effekten:
Star Citizen: Raytracing bringt großen Arbeitsaufwand und hat momentan keine Priorität

Meiner Meinung nach etwas überraschende Aussage, da SC ja eh noch im Entwicklungs-Stadion ist, oder wie seht ihr das?

Edit:
Man könnte die Aussagen natürlich auch als Einladung an Nvidia sehen paar Milliönchen zu investieren, denn gerade solche Prestige-Projekte mit dem Anspruch die neuste Technik zu verwenden, wäre doch ideal für die Akzeptanz für Raytracing.
#19
customavatars/avatar184350_1.gif
Registriert seit: 10.12.2012

Bootsmann
Beiträge: 538
In nativer Auflösung 1080p mit taa ist dlss auf uhd berechnet also schärfer und somit vorzuziehen.
Nicht anderes wird hier erklärt.
Umso höher die native Auflösung mit oder ohne taa, desto weniger lohnt sich dlss auf uhd berechnet.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]