Deathloop: FSR 2.0 vs. FSR 1.0 vs. DLSS 2.3 im Benchmark- und Bildvergleich

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.372
deathloop.jpg
Es ist soweit: Mit Deathloop haben wir das erste Spiel, welches AMDs zweite Iteration von FidelityFX Super Resolution - oder kurz FSR 2.0 - unterstützt. FSR 2.0 soll nun auch temporale Daten mit einbeziehen, kommt aber ohne ein AI-Netzwerk aus. Da AMD keinerlei KI-Beschleuniger in seinen aktuellen GPUs verwendet, ist dies auch nicht weiter verwunderlich. AMD sieht sogar Nachteile in der Verwendung von KI in diesem Bereich.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soll das eigentlich so sein, dass man Werbung in der Übersicht nicht mehr erkennt? Da die Kommentare dort deaktiviert sind gehe ich einfach mal von mutwilligkeit aus...
 
Entfernt man wieder Beiträge?

HWLUXX at its best :p
 
@Don Danke für den Test!
Die Upscaling-Technologien sind aus der Not entstanden und zugleich ein nützliches Werkzeug.
Ich würde einen Schritt weiter gehen und denke, dass Upscaling die Zukunft ist.
Auch wenn ich das selbst irgendwie nicht wahr haben will, hehe.
 
"AMD hat fast mit NV aufgeschlossen"

Ja, ja... mit einem Upscaler... ganz bestimmt nicht.

Aus der Not entstanden... my ass.

Man hat zuviel versprochen und jetzt
trickst man.

Und egal ob ray tracing oder Stützräder
(FSR / DLSS), AMDs Lösung(en) sind
deutlich schlechter.
 
In 4K bei den Minimum FPS liegt man klar zurück mit FSR2.0 gegenüber DLSS Qualität!
Aber sonst gut gemacht AMD freut mich das es noch vor RDN3 gekommen ist so kann ich das in den nächsten Titeln mit DLSS vergleichen!
 
Zuletzt bearbeitet:
Muss RT eingeschalten sein bei dem Test? Kostet zusätzlich Rechenkraft und verfälscht die reine Skalierung von FSR 2.0 (nativ --> quality).

Ansonsten finde ich es qualitativ nicht schlechter als DLSS 2.x. Das Bild ist bei FSR 2.0 schärfer und neigt nicht zu Ghosting, zumindest bei dem getesteten Game.
 
Zuletzt bearbeitet:
Und egal ob ray tracing oder Stützräder
(FSR / DLSS), AMDs Lösung(en) sind
deutlich schlechter.

Deine Pauschalaussagen sagen nichts aus.
Zumindest in Bezug auf FSR ist die Lösung von AMD nicht schlechter, Entwickler haben es einfacher FSR zu implantieren, was mit das wichtigste ist.
 
Implementation ist kein Problem.

FSR ist und bleibt ein Upscaler.
Die Qualität sieht man. FSR mag
ein guter Upscaler sein, aber Upscaler
per se sind Müll / der falsche Weg.

Wenn ich 1k+ für GPU ausgebe und
den Scheiss trotzdem nutze MUSS,
würde ich mich verarscht fühlen.

FSR und DLSS in ein Topf zu werfen,
ist Äpfel und Birnen :p
 
Ach komm, die AMD Lösung ist viel effizienter und brauch kein Deep Learning, bei in der Praxis absolut vergleichbarer Qualität.
 
Mhh also im Deathloop Beispiel sehe ich überall kein wirklich großen Unterschied?
 
Zumindest in Bezug auf FSR ist die Lösung von AMD nicht schlechter,
Je geringer die Zielauflösung ist und je geringer die Qualitätsstufe ist, desto größer werden die Unterschiede zugunsten DLSS. DLSS kann dort deutlich mehr Details rekonstruieren als FSR 2.0.

Entwickler haben es einfacher FSR zu implantieren, was mit das wichtigste ist.
Bei FSR 1.0 mag das vielleicht so gewesen sein, aber wie kommst du darauf, dass dies auch bei FSR 2.0 noch so ist?

Ach komm, die AMD Lösung ist viel effizienter und brauch kein Deep Learning, bei in der Praxis absolut vergleichbarer Qualität.
Neja, DLSS kann Dank der Tensor Cores viel mehr Samples verarbeiten, was dazu führt, dass mehr Details rekonstruiert werden können. Die Qualität ist auch nur in hohen Auflösungen und den hohen Qualitätsmodi vergleichbar. Dies kann man auch dem Artikel hier entnehmen: "Im ersten Bildvergleich stellen wir das "Ausgewogen"-Preset von DLSS und FSR 2.3 gegenüber. In der Parabolantenne sowie dem darunter befindlichen Zaun gehen in der Berechnung mittels FSR 2.0 viele Details verloren, die bei DLSS noch vorhanden sind. In der Schärfe sind beide Screenshots auf ähnlichem Niveau. Noch einmal deutlich schlechter wird der Detailgrad für das "Leistung"-Preset im zweiten Bildvergleich. Hier hat NVIDIA dann offenbar doch noch einige Vorteile durch die Möglichkeiten der Rekonstruktion, die bei AMD nicht vorhanden sind."
 
Jop und
Ach komm, die AMD Lösung ist viel effizienter und brauch kein Deep Learning, bei in der Praxis absolut vergleichbarer Qualität.
Nvidia hat das doch auch schon in Form von DSR.

"AMD hat fast mit NV aufgeschlossen"

Ja, ja... mit einem Upscaler... ganz bestimmt nicht.

Aus der Not entstanden... my ass.

Man hat zuviel versprochen und jetzt
trickst man.

Und egal ob ray tracing oder Stützräder
(FSR / DLSS), AMDs Lösung(en) sind
deutlich schlechter.

Seh ich auch so. Sinn und Zweck des seitens DLSS ist eben Last von der klassichen Renderpipeline zu nehmen und FPS zu generieren und dabei nicht das Bild zu stark zu tangieren, daher eher skalieren und vorallem denoisen. Nur reine Bildqualität zu vergleichen ist daher verfehlt. Man muss aber sagen das man sehen kann das man sich seitens AMD stark gesteigert hat und in der Lage ist ohne jegliches compute halt Leistung einzusparen.

Ich hätte allerdings noch eine Frage, bei vielen Titeln kann man ja bei DLLS quasi mit DLL Datei einfach "upgraden" im Spiele Ordner und dann läuft die Sache, wie bringe ich mein Spiel auf die neueste FSR Version ohne AMD Nutzer zu sein ? Ich würde das gerne mal bei Asetto Corsa Competizione austesten :unsure: ?
 
Andere Publikationen meinen, dass sie keinen Gewinner zwischen FSR 2.0 unmd DLSS 2.3 sehen!

Ich finde das Ergebnis von FSR 2.0 besser, da bei DLSS 2.3 irgendwie das Anti-Aliasing fehlt!

Der Treppenefffekt ist bei DLSS 2.3 deutlich schlimmer als bei FSR 2.0!🧩
 
Hab mir Deathloop gerade angesehen ein wenig mit meiner 3080Ti !
Sehr schönes Ergebnis von FSR2.0 Qualität in 4K auf den ersten Blick wirkt es auch ein wenig schärfer aber ich verliere auch ein Paar FPS gegenüber DLSS!
Wenn es in den nächsten Spielen genauso gut aussieht wäre das echt Klasse dann noch bei der RT Leistung Anschluss finden mit der 7000ner Serie
und AMD hat ein rundes Paket!
 
Mit dem Titel Evil Dead: The Game, ist auch die DSLL Version 2.4.3 released.
 
Mit dem Titel Evil Dead: The Game, ist auch die DSLL Version 2.4.3 released.
Bringt nix wenn das Spiel nur in 1080p läuft :ROFLMAO:
Ich bekomme ums verrecken kein 4 K zu laufen bei EVIL Dead.
Im Netzt steht das man die Ini bearbeiten kann es aber nicht bei jedem funtioniert .

Echt Klasse Spiel gekauft und kann es nicht spielen weil es in 1080P läuft echt zum heulen wie es aussieht auf dem 4K Oled
 
Da das Unreal Engine 4.xx ist sieht es auch ziemlich gut aus mit DLSS, 60fps im Schnitt 4K im "Quality" preset mit 3060ti sind in etwa drin 8-).

Evlt. kannst du es noch mit den kürzeln "ResX" und "ResY" versuchen als Startparameter im Epic Games Launcher sprich bei dir wäre das dann -ResX 3840 -ResY 2160.
Es wird auch gemunkelt das der Windows Defender die evildead.exe und die Epic Games Launcher.exe blockiert oder an etwas hindert, ich geh stark davon aus das hat mit dem relativ aggressivem Anti-Cheat und Crossplay zu tun, da wird noch etwas Zeit ins Land gehen glaube ich bis das komplett rund läuft. Allerdings hat das Spiel so eine Art physikalisches gore system, und sieht doch nach nem Dauerbrenner aus. Ist FSR auch anwählbar eigentlich ?
 
FSR und DLSS in ein Topf zu werfen,
ist Äpfel und Birnen :p

Die Mathematik hinter allen Upscalern ist identisch. Die Technologie zwischen den Upscalern ist grundsätzlich identisch.
Was sich ändert ist die Konfiguration der Mathematik, und wer seine Konfiguration wie erzielt.

Ich hab es mal angefangen zusammenzutragen, damit nicht immer die Meinung eskaliert, nur weil man es nicht weiß...
 
Zuletzt bearbeitet:
Das wichtigste bei der ganzen Upscaler Debatte ist doch, dass am ende das Bild nicht verfälscht wird und genau das im Ergebnis bleibt - was künstlerisch gewollt ist.

Der Unterschied den ich so verstanden habe:
FSR muss nicht trainiert werden und kann einfach auch aus vorhandenen Informationen verwendet werden.
Während DLSS vorher mal die Bildinformationen in höherer Auflösung gehabt haben muss. (KI-Training)
DLSS hat hier Stärken und Schwächen zugleich.
Die Interpretation von fehlender Information kann sehr unterschiedliche ausfallen und eben das Bild verfälschen, manchmal gut nachbessern und manchmal eben irgendwas erfinden was nicht da ist/gewollt ist.

FSR ist stark in höherer Auflösung, denn hier kommen meistens nach WQHD/FULL HD nicht viel mehr Bildinformation dazu.
Eine Tätowierung hat in 4k oder 8k nativ nicht plötzlich noch Details die man in FULL HD/WQHD nicht auch hätte, es wird nur schärfer sichtbar.
Während DLSS auch in niedriger Auflösung ein sehr rundes Bild liefern kann, eben wegen der Fähigkeit zu rekonstruieren auch ohne die Informationen zu haben.
"AMD hat fast mit NV aufgeschlossen"

Ja, ja... mit einem Upscaler... ganz bestimmt nicht.

Aus der Not entstanden... my ass.

Man hat zuviel versprochen und jetzt
trickst man.

Und egal ob ray tracing oder Stützräder
(FSR / DLSS), AMDs Lösung(en) sind
deutlich schlechter.
AMD kann nicht mit den Zutaten von Nvidia kochen.
Nvidia hat schon immer auch getrickst.
Überall an den Games/Software die Nvidia proprietäre Technologien verwenden sind die Wettbewerber schlechter... also das wundert mich nicht.
Angefangen hat das mit PhysiX basierten Games und CUDA, die beim Wettbewerber nur über Software möglich waren (CPU-Leistung).
Jetzt das gleiche in Raytracing, Nvidia RTX Cores sind etwas anders.
Deine Aussage ist typischer Fanboyism und zeugt davon das du dich wenig mit dem ganzen beschäftigt hast...
Es gibt auch Titel da sind typischerweise AMD Karten weit schneller, gerade in nicht Raytracing/DLSS Schnickschnack Szenarien.
Einfach nur Nativ ohne Features sind AMD Karten in der Regel immer schneller in Vergleichen der selben Preis-/Leistungsklasse.

Nur weil ein Regler auf "Ultra" steht, heißt das nicht das man das außerhalb von frame per frame getesteten Benchmarks wahrnimmt was da angeblich verbessert wurde.
Ein Beispiel: Cyberpunk -> Raytracing Schatten hinter nicht für mich sichtbaren Objekten???
Was hab ich davon, außer für Benchmarks, Nvidia Ansel Fotos und natürlich für den E-Penis.

Ich hab ja selbst ne RTX3080 extra damals für Cyberpunk geholt, die Karte ist der Hammer ich bereue es nicht, aber für das Geld wäre eine RX 6900 damals drin gewesen.
Ich hab alle möglichen Kombinationen ausprobiert und man muss tatsächlich sagen: Einige bringen kaum einen sichtbaren Unterschied in 4K außer das die FPS sinkt.
Die Frage ist doch niemals die hypothetische Benchmark-Leistung, sondern was habe ich als Straßenleistung ohne visuelle Einbußen zu erwarten.
Als Konsument interessiert mich in erster Linie nicht wie etwas umgesetzt wird sondern das Resultat.

In einem Blindtest kann man das auch kaum wahrnehmen, wenn man keinen Vergleich hat wie sieht es mit Raytracing aus und wie ohne. Tatsächlich wäre das mal ein interessanter Ansatz, zufällig 10 Menschen eine Szene zu zeigen und sie entscheiden lassen ob das mit Raytracing ist oder ohne. Natürlich ohne sie die Szene ein zweites mal zu sehen.
 
Zuletzt bearbeitet:
Während DLSS vorher mal die Bildinformationen in höherer Auflösung gehabt haben muss. (KI-Training)
Dies war noch bei DLSS 1.x der Fall. Seit DLSS 2.0 muss die KI nicht mehr für jedes Spiel separat trainiert werden.

DLSS hat hier Stärken und Schwächen zugleich.
Die Interpretation von fehlender Information kann sehr unterschiedliche ausfallen und eben das Bild verfälschen, manchmal gut nachbessern und manchmal eben irgendwas erfinden was nicht da ist/gewollt ist.
Das ist aber nicht nur ein Problem von DLSS, sondern kann es bei jeder Rekonstruktionsmethode zu fehlerhaften Interpretationen der vorhandenen Informationen kommen und so ein fehlerhaftes Bild erstellt werden. Siehe:
1652615382978.png

Source:

Angefangen hat das mit PhysiX basierten Games und CUDA, die beim Wettbewerber nur über Software möglich waren (CPU-Leistung).
Zuallererst heißt es PhysX und nicht PhysiX..
Dazu muss man aber erwähnen, dass Nvidia PhysX damals durch die Übernahme von Ageia erlangt hatte. Ageia hatte davor ein anderes Unternehmen übernommen und deren Physik-Engine übernommen. Diese hat Ageia weiterentwickelt und dafür einen speziellen Physikbeschleuniger entwickelt. Nvidia hat PhysX dann so angepasst, dass dies in CUDA integriert werden konnte. Zudem liefen auch bei PhysX auch nicht alle Berechnungen über die GPU.

Jetzt das gleiche in Raytracing, Nvidia RTX Cores sind etwas anders.
Quark, Raytracing wird durch Schnittstellen wie DXR ermöglicht. Wie die Hersteller das mit deren Produkte verarbeiten bzw. beschleunigen ist denen überlassen.

Deine Aussage ist typischer Fanboyism und zeugt davon das du dich wenig mit dem ganzen beschäftigt hast...
Inwiefern sind deine Aussagen besser?
Keine Ahnung gepaart mit "mimimi pöses Nvidia".

Es gibt auch Titel da sind typischerweise AMD Karten weit schneller, gerade in nicht Raytracing/DLSS Schnickschnack Szenarien.
Einfach nur Nativ ohne Features sind AMD Karten in der Regel immer schneller in Vergleichen der selben Preis-/Leistungsklasse.
Jeder kann für sich selber entschieden, welche Features einem wichtig sind. Wenn man beispielsweise Wert auf Raytracing legt, weil dies einem bei aktuellen Games zusagt oder weil es in Zukunft immer wichtiger wird, dann ist es absolut sinnig, dies auch bei der Bewertung eines Produktes zu berücksichtigen.
 
AMD kann nicht mit den Zutaten von Nvidia kochen.
Nvidia hat schon immer auch getrickst.
Wen außer Fanboys interessiert die finanzielle Situation einer Firma? Jedem Nicht-Fanboy kann es herzlich egal sein ob Nvidia oder AMD der Topdog ist. Am Ende zählt für den Nicht-Fanboy nur, dass er die erwünschte Leistung zu dem bestmöglichen Preis bekommt. Insofern -> Hier allein hast du dich bereits geoutet.

Überall an den Games/Software die Nvidia proprietäre Technologien verwenden sind die Wettbewerber schlechter... also das wundert mich nicht.
Ja, weil Nvidia immer nur betrügt und sabotiert /facepalm
Erinnerst du dich an Hairworks? Ja, da hat Nvidia ja sowas von mies betrogen ... Nvidia Grafikkarten waren dort schneller als AMD Karten? Das MUSS ja B*trug sein!
Erinnerst du dich an AMD FidelityFX? Ja, da war AMD schneller als Nvidia Grafikkarten! B*trug (wieso ist das B Wort verboten?)? NIEMALS! Die AMD Grafikkarten sind einfach nur besser!

Wie, Hairworks war komplett von der Tesselation-Performance der Grafikkarte abhängig und lief auf den Nvidia Grafikkarten besser, weil die einfach eine höhere Tesselation-Performance hatten? Unmöglich! B*trug! Skandal! Geh weg mit Fakten!

Deine Aussage ist typischer Fanboyism und zeugt davon das du dich wenig mit dem ganzen beschäftigt hast...
Du hast dich natürlich sehr mit dem Thema beschäftigt und bist definitiv kein Fanboy!

Es gibt auch Titel da sind typischerweise AMD Karten weit schneller, gerade in nicht Raytracing/DLSS Schnickschnack Szenarien.
Einfach nur Nativ ohne Features sind AMD Karten in der Regel immer schneller in Vergleichen der selben Preis-/Leistungsklasse.
"typischerweise"
"in der Regel immer"

Da du natürlich alles genauestens analysiert hast und kein Fanboy bist kannst du das doch garantiert mit irgendwelchen Zahlen belegen, die nicht direkt aus deinem Rektum stammen?

Nur weil ein Regler auf "Ultra" steht, heißt das nicht das man das außerhalb von frame per frame getesteten Benchmarks wahrnimmt was da angeblich verbessert wurde.
Ein Beispiel: Cyberpunk -> Raytracing Schatten hinter nicht für mich sichtbaren Objekten???
Was hab ich davon, außer für Benchmarks, Nvidia Ansel Fotos und natürlich für den E-Penis.
Du hast Raytracing so gar nicht verstanden, oder? Auch Dinge die außerhalb deines Blickfelds sind beeinflussen die Illumination der Umgebung, die Reflektionen. Raytracing hat mehr im Sinn, als nur einen Schatten von Objekt A auf Oberfläche B zu projizieren. Mag für dich Quatsch sein, für Andere sind dynamische Lichtquellen Quatsch ... für wieder Andere ist das Rad Quatsch und für wieder Andere ist die Erde eine Scheibe.

In einem Blindtest kann man das auch kaum wahrnehmen, wenn man keinen Vergleich hat wie sieht es mit Raytracing aus und wie ohne. Tatsächlich wäre das mal ein interessanter Ansatz, zufällig 10 Menschen eine Szene zu zeigen und sie entscheiden lassen ob das mit Raytracing ist oder ohne. Natürlich ohne sie Szene ein zweites mal zu sehen.
Das kannst du mit sprichwörtlich JEDER Einstellung in den Grafikoptionen machen und wirst immer ein gemischtes Ergebnis bekommen. Textur auf Sehr Hoch oder Ultra? Schatten auf Sehr Hoch oder Ultra? Object Occlusion auf Sehr Hoch oder Ultra? Was genau willst du damit jetzt sagen?
 
Zuletzt bearbeitet:
FSR und DLSS in ein Topf zu werfen,
ist Äpfel und Birnen :p
Macht ja keiner ! Man vergleicht die Bildausgabe beider Techniken.

Im Endeffekt sitzt aber ein Gamer vorm Monitor und will einen Kompromiss zwischen FPS und Bildqualität finden und ich denke, dann darf man auch die Ergebnisse dieser Techniken vergleichen.
Insoweit finde ich den Artikel legitim für alle, die am Ergebnis der Upscaling Technologien interessiert sind und im Endeffekt nur Ihr Spiel ohne große Qualitätsverlußte mit mehr FSP laufen lassen wollen.
Wenn die Ergebnisse ähnlich gut sind, kann das zur Kaufentscheidung beitragen, neben anderen Faktoren wie Energiekonsum und Kühlung, Preis und Verfügbarkeit.

Ich bin froh, dass AMD hier aufgeholt hat, denn Konkurrenz belebt das Geschäft und wenn Intel jetzt noch mitmischt wird sich zeigen, wer welche Nische einnimmt bzw wer welche Stärken besser ausspielen kann.
Upscaling ist etwas, was nicht jeder zwangsweise benötigt, genauso wenig wie RT oder dauerhafte 150FPS.
Andere dagegen aber schon und deswegen ist es toll, dass es verschiedene Upscaling Technologien gibt.
 
Zuletzt bearbeitet:
@Don Danke für den Test!

Ich würde einen Schritt weiter gehen und denke, dass Upscaling die Zukunft ist.
Auch wenn ich das selbst irgendwie nicht wahr haben will, hehe.
Sollen die alle mal machen. Ich hole mir nur noch Karten von der Spitze der jeweiligen Generation, die auch keine Probleme mit nativer 4k Auflösung haben und Raytracing interessiert mich überhaupt nicht auch nicht in Zukunft, solange es so viel Leistung frisst. Stelle auch die FPS immer nur so ein, dass die GPU nicht über 220 Watt verbraucht!
Bisher komme zumindest ich bestens damit zu recht!! :))
 
Sollen die alle mal machen. Ich hole mir nur noch Karten von der Spitze der jeweiligen Generation
Sweet Spot ist aktuell aber was anderes, falls du den im Kopf hattest ;)

Jeder wie er mag. Ich würde das auch so gerne sagen, aber Preislich waren mit die Topkarten der jeweiligen Generation immer zu extrem und ich bin Freund der Stufe darunter. aber das darf jeder mit sich selbst ausmachen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh