Start am 31. März: DLSS 4.5 Dynamic Multi Frame Generation legt bald los

Thread Starter
Mitglied seit
06.03.2017
Beiträge
116.777
Zur CES stellte NVIDIA die Erweiterungen für DLSS 4.5 in Form der neuen Transformer-Modelle sowie Dynamic Multi Frame Generation mit einem Faktor von 6x vor. Ein paar Wochen später konnten wir uns die Technik bei einem Besuch bei NVIDIA auch einmal selbst anschauen, aber auch hier nannte NVIDIA noch keinen Termin. Zum Start der Game Developers Conference gibt NVIDIA nun den 31. März als Startdatum an. Dann sollte man demnach den entsprechenden Treiber vorstellen, der die KI-Generierung von Frames an die jeweiligen Anforderungen anpasst.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wieder kein Wort zu Reflex2 :fire:
 
Ok, schade leider nicht so dynamisch wie ich gehofft hätte. Ich dachte hiermit könnte man z.B. 90 echte fps mit 48 KI fps "auffüllen" um mein derzeitiges FPS Limit von 138 zu erreichen, statt wie bisher die echten FPS auf 69 zu limitieren.. Aber es handelt sich wohl nur um die automatische Schaltung zwischen den x2,x3 usw. Presets ohne Zwischenstufen.
 
Es nimmt kein Ende: Immer rein mit der Fake-Frame-Gülle! Es ist völlig egal, dass die Bildqualität durch massives Ghosting und Artefakte nachweislich vor die Hunde geht. DLSS & Co. dient den Devs doch nur noch als Vorwand, um die native Optimierung komplett gegen die Wand zu fahren – und es passiert ja bereits!
Aber die Lemminge feiern den Schrott auch noch, während sie den massiven Input-Lag einfach ignorieren. Hauptsache, die künstlich aufgeblähte FPS-Anzeige poliert das Ego. Einfach unglaublich wohin sich das ganze entwickelt :rolleyes2: 🤡
 
Dem Inputlag kann man ja ganz gut entgegenwirken. Man muss nur Wissen wie. Ganz wird er nie verschwinden aber mittlerweile ist er kaum noch zu spüren. Gerade bei 2x und 3x.
Und mal schauen was sich Nvidia hat einfallen lassen beim neuen. GLaube kaum das die es auf die Gamer los lässt mit einem krassen Inputlag.
So wie es Aussieht wird es auch für Frame Gen in Zukunft Presets geben.
 
Nvidia bietet ja nur die Instrumente an.
Was diverse Entwickler daraus machen liegt ja am Entwickler. Nvidia hat schon einen ordentlichen Fortschritt gemacht.
Hier und da bin ich froh via Nvidia App bisschen ein Game aufzupolieren. 4K nativ hat es Heute auch eine 4090 oder gar eine 5090 teilweise noch schwer.
 
Zuletzt bearbeitet:
Bin bezüglich der verschiedenen "Verbesserer" auch hin und her gerissen.
Habe noch kaum ein Game erlebt, das mit Frame Generation wirklich flüssiger wirkte.
Und für Super Sampling braucht es auch das richtige Preset, um im Racing-Game, auf dem Auto, in Kurven nicht auf einmal fünf Antennen auf dem Dach zu haben... (Ghosting)

4K nativ hat es Heute auch eine 4090 oder gar eine 5090 teilweise noch schwer.
Den Eindruck habe ich auch. Bereits welche Konsolengeneration sollte noch gleich 4K-ready sein...?! :d
 
Es nimmt kein Ende: Immer rein mit der Fake-Frame-Gülle! Es ist völlig egal, dass die Bildqualität durch massives Ghosting und Artefakte nachweislich vor die Hunde geht.
AbeR daS sTimMt dOch gAr niChT!!1!1einself!1
Der SelBsttEst beI CB haT dOCh geZeiGt dAs ihR daS sOOOO woLlT!!


\satire off
Grundsätzlich ist die Technik ja eine interessante und auch gute Entwicklung. Klar hat es Nachteile wie das genannte Input Lag, die "verwaschene" Bilddarstellung, Artefakte dort und da, Ghost ...
Das ist der Stand HEUTE.
Ich hab mir die Bilder auf CB auch intensiv angesehen und bin selbst bei mehreren der Bilder auf DLSS 4.5 als "bestes" Bild gelandet.
Ist aber bei einem Screenshot natürlich immer anders als im Spiel wenn es sich bewegt.
 
Ich würde DLSS von FG trennen was den Stand der Technik angeht. Letzteres braucht halt noch etwas Zeit. Ersteres funktioniert aber super und kann eigentlich in jedem Game angewendet werden, dass es anbietet.
 
Naja die vielen Tests auf CB in den letzen Wochen inklusive Selbsttest am Ende haben dich sehr deutlich veranschaulicht das DLSS (4.5) inzwischen nativ überlegen ist.

Was genau daran nun verwerflich ist oder nicht kapiert wird ist mir ehrlich gesagt ein Rätsel, Technik entwickelt sich halt immer weiter…
 
*Ironie ein*
nun muß ich mir wohl doch eine 50xx Karte zulegen... 🙃
*Ironie aus*
 
Also mal ganz ehrlich, ich kann das Gerde auch nicht verstehen.

Diese Technologie führt einfach dazu, dass nichts mehr ordentlich optimiert wird.

Habe mir jetzt AC Shadows im Angebot geholt z.B. die 3080ti schafft kaum die 60FPS in 1080p mit höchsten Einstellungen und DLSS Quality.

Dabei hat mich das Spiel grafisch echt nicht vom Hocker.

Und das ganze fällt durchgehend bei neueren Spielen auf. Grafisch kaum Fortschritt, aber massiver Leistungshunger.

Jetzt schmeißt man MFG in die Breche um mehr FPS zu generieren. Jetzt investieren die Entwickler gefühlt noch weniger in ordentliche Optimierung. Hier hat man den völlig Falschen weg eingeschlagen.
 
Ach Ubisoft Spiele waren schon ewig schlecht optimiert.
 
schlecht optimiert liest man doch mittlerweile gefühlt bei jedem spiel... scheint ja dann eher standard als ausnahme zu sein.

also ist doch im kern was wahres dran, immer weniger arbeit in die technik der spiele und mit solchen mitteln muss es dann ausgeglichen werden.
mit ki wird es jetzt sicher nicht besser...
 
also hab letztens mal wieder FG 2x-4x in Cyberpunk getestet. Ja, wirkt rstmal super flüssig, aber das tearing, was da in meinem Fall entstanden ist, nervt mich deutlich mehr, als ich durch das flüssigere Gefühl gewinne. Da bleib ich lieber bei 60Hz locked ohne Tearing.

DLSS an sich ist aber ne großartige Sache. Nachdem viele Kantenglättungen inzwischen ja auch zum Ghosting neigen und auch noch Performance kosten finde ich DLAA oder DLSS Quality deutlich überlegen.
 
Solange der Slogan „can it run Crysis“ aus der Enthusiastenecke ein lautes „hell yeah!“ entlockt werden Studios keinen Grund haben da etwas zu ändern.
Macht Mit freundlichen Grüßen und DLSS die Entwickler faul? Denke nicht denn wenn man sich die Steam hardwareumfrage anschaut haben lange nicht alle Spieler eine Gen 50X0 Karte.
 
Diese Technologie führt einfach dazu, dass nichts mehr ordentlich optimiert wird.

schlecht optimiert liest man doch mittlerweile gefühlt bei jedem spiel... scheint ja dann eher standard als ausnahme zu sein.

also ist doch im kern was wahres dran, immer weniger arbeit in die technik der spiele und mit solchen mitteln muss es dann ausgeglichen werden.
mit ki wird es jetzt sicher nicht besser...
Seltsame Einstellung. Also ist die Technologie schlecht weil sie dazu führt dass bestimmte Leute ihren Job nicht ordentlich machen (und die sie wahrscheinlich auch ohne nicht ordentlich machen würden)?

Über angeblich schlechte Optimierungen wurde schon immer gejammert, wenige Spiele waren aber wirklich schlecht optimiert bzw waren einzelne Features schlecht implementiert. Gejammert wird zudem meist, wenn die eigenen Ansprüche die Leistungsfähigkeit der eigenen Hardware übersteigt und man keine Regler bedienen will.

Zu Guter letzt brachte zumindest Lovelace einen großen Sprung in Effizienz und Rasterleistung, also ist ja nicht so dass das stagniert. Blackwell war halt Lovelace 1.1, so etwas hat es auch früher schon gegeben. Wenn dann aber eine Engine wie UE5 von jedem uninformierten Hobbyprogrammierer dazu genutzt wird, schöne Welten zu schaffen und einen EA Titel rauszubringen entsteht halt schnell der Eindruck, dass viele Spiele schlecht optimiert sind.

Und last but not least bleibt auch viel CPU Power auf der Strecke, wenn man sich so die Utilization von Kernen oder die 0.1% lows anschaut. Also das hat dann auch nicht immer nur was mit DLSS/FG zu tun.
 
also hab letztens mal wieder FG 2x-4x in Cyberpunk getestet. Ja, wirkt rstmal super flüssig, aber das tearing, was da in meinem Fall entstanden ist, nervt mich deutlich mehr, als ich durch das flüssigere Gefühl gewinne. Da bleib ich lieber bei 60Hz locked ohne Tearing.

DLSS an sich ist aber ne großartige Sache. Nachdem viele Kantenglättungen inzwischen ja auch zum Ghosting neigen und auch noch Performance kosten finde ich DLAA oder DLSS Quality deutlich überlegen.
Tearing ist aber kein Problem von FG bzw. führt FG bei entsprechenden Settings und Hardware nicht zu Tearing.
 
Tearing ist aber kein Problem von FG bzw. führt FG bei entsprechenden Settings und Hardware nicht zu Tearing.
da ich jetzt bei mir aber keine Möglichkeit mehr gesehen habe bei eingeschaltetem FG, noch vsync oder adaptive-Sync zu nutzen, war FG zumindest eine Ursache. Ich habe nur einen 100Hz Monitor mit freesync und könnte nun den Framelimiter auf 50Hz stellen, und dann 2xFG, um die 100 Hz zu treffen. Aber das wird so bestimmt auch nicht gut funktionieren. Eventuell harmoniert es mit meiner Hardware einfach nicht gut. Ich finde bei FG sollten schon so 60 FPS nativ anliegen, damit das Bild flüssig wirkt alles darunter fand ich noch nicht soo gut.
 
Ja, NVIDIA Karte und nur Freesync, falls nicht kompatibel zu Gsync, führt dann zu Tearing, wenn du bei 100 Hz über 100 FPS kommst. Da ist es besser das Ganze zu locken.
 
Es ist wichtig das man in der Nvidia App Vsync aktiviert, WEIL eben FG/MFG Vsync im Spiel deaktiviert. Und man sollte generell Vsync im Spiel aus machen und im Treiber ein.
Und ich habe letztens ein Video bei Youtube gesehen wo es um Frame Pacing ging mit neuen Einstellungen im RTSS und Nvidia muss auch irgend etwas mit den neuen Treibern geändert haben.
Auf jeden Fall ist der Inputlag damit *bei mir* so gering wie er schon lange nicht mehr war. Wer Bock hat kann es gerne mal testen. Die Settings im Nvida Profile inspector kann man glaube auch in der Nvidia App so Einstellen. Tear Controll kann man auf Standard lassen. Gibt es so auch glaube gar nicht in der Nvidia App. Treiber ist aktuell bei mir der 595.79 Studio installiert.

WhatsApp Image 2026-03-11 at 00.22.52.jpeg
 
Seltsame Einstellung. Also ist die Technologie schlecht weil sie dazu führt dass bestimmte Leute ihren Job nicht ordentlich machen (und die sie wahrscheinlich auch ohne nicht ordentlich machen würden)?

Über angeblich schlechte Optimierungen wurde schon immer gejammert, wenige Spiele waren aber wirklich schlecht optimiert bzw waren einzelne Features schlecht implementiert. Gejammert wird zudem meist, wenn die eigenen Ansprüche die Leistungsfähigkeit der eigenen Hardware übersteigt und man keine Regler bedienen will.

Zu Guter letzt brachte zumindest Lovelace einen großen Sprung in Effizienz und Rasterleistung, also ist ja nicht so dass das stagniert. Blackwell war halt Lovelace 1.1, so etwas hat es auch früher schon gegeben. Wenn dann aber eine Engine wie UE5 von jedem uninformierten Hobbyprogrammierer dazu genutzt wird, schöne Welten zu schaffen und einen EA Titel rauszubringen entsteht halt schnell der Eindruck, dass viele Spiele schlecht optimiert sind.

Und last but not least bleibt auch viel CPU Power auf der Strecke, wenn man sich so die Utilization von Kernen oder die 0.1% lows anschaut. Also das hat dann auch nicht immer nur was mit DLSS/FG zu tun.
Sehe ich nicht so.

Die meisten Probleme bestehen oftmals bei Nvidia "exclusiv" Titeln. Da gibt es Spiele die grafisch deutlich realistischer Aussehen und einen weitaus geringeren Hardwarehunger haben.

In den letzten Jahren ist eindeutig zu sehen, das insbesondere Spiele die Aktiv mit FG oder MFG beworben wurden miserable Hardwareoptimierung hatten.

Auch wenn man sonst schimpft, Cyberpunk ist mittlerweile sogar auf einer 2080ti noch halbwegs vernünftig zu spielen und schaut dabei nicht einmal übel aus.

Viel mehr habe ich das Gefühl, es werden aktiv neue "Technologien" exclusiv angeboten um Spiele "spielbar" zu machen. Fördert natürlich dann auch aktiv die Verkäufe eines gewissen Anbieters.
 
Nvidia bietet ja nur die Instrumente an.
Was diverse Entwickler daraus machen liegt ja am Entwickler. Nvidia hat schon einen ordentlichen Fortschritt gemacht.
Hier und da bin ich froh via Nvidia App bisschen ein Game aufzupolieren. 4K nativ hat es Heute auch eine 4090 oder gar eine 5090 teilweise noch schwer.
Jein. Nvidia bewirbt das Feature natürlich auch entsprechend, und alle wollen dadurch immer mehr von ‚Ngreedia‘ – schneller, höher, weiter. Gut, das wollten wir Enthusiasten schon immer, aber doch nicht auf Kosten der Optimierung und der eigentlichen Bildqualität!
Klar waren Spiele damals auch schon teilweise unoptmiert aber in den letzten 10 Jahren sind es deutlich mehr geworden.

Naja die vielen Tests auf CB in den letzen Wochen inklusive Selbsttest am Ende haben dich sehr deutlich veranschaulicht das DLSS (4.5) inzwischen nativ überlegen ist.
Sorry, wer behauptet, DLSS 4.5 sei nativ überlegen, sollte eventuell mal über einen Besuch beim Augenarzt nachdenken? :LOL:

Auch wenn ich dieses Clickbait Videos extrem hasse:


Hier sieht man spannend, dass jeder eine andere Meinung zu dem Thema hat, aber mir zeigt es eben, dass Nativ noch nicht unterlegen ist.
Auch wenn ich dieses Clickbait Videos extrem hasse...

Ich habe auch diverse Tests an einem Rechner mit Nvidia GPU bei einem Bekannten gemacht und konnte sofort blind sagen, was Upscaling ist ... (bei meiner AMD-GPU mit FSR sowieso).
Auf der anderen Seite verstehe den ganzen FPS- und Hz-Hype ohnehin nicht, da ich keinen Unterschied mehr zwischen 60 und 144–165 FPS sehe. (Wohl mein Glück?) Aber ich sehe ganz genau, wenn mein Spiel schlechter aussieht durch eine leider noch etwas halbgare Technologie, die immer weiter gepuscht wird und nun schon oft eher der Standard ist.
Man schaue sich nur mal das aktuelle Mafia an: Eine Katastrophe, es ist ohne diese Technik quasi nicht gut spielbar selbst mit einer 9070XT– und genau das sollte nicht so sein!

Versteht mich nicht falsch, ich habe nichts gegen Fortschritt, aber im Moment fühlt es sich zumindest für mich eher wie ein Rückschritt an.
 
Dann muss es Tausende Blinde gegeben haben beim CB Blindtest:
Vermutlich :LOL: Oder das sie eben nicht genau wissen, worauf sie achten müssen, es einfach nicht sehen. Oder sich ihre 5080/5090 schönreden müssen – keine Ahnung.
Ich glaube, wir beide hatten schon mal eine Meinungsverschiedenheit, als ich Nvidia damals attackiert habe, weil sie seit den letzten Generationen nur noch Mist bauen, oder? :unsure:
Logische Argumente wurden einfach ignoriert... Da merkt man halt wieder die Fanboys 🤡 (Und das sag ich als jemand der selbst über 25 Jahre lang fast nur Nvidia GPU's hatte..)

So, und bevor ich mich noch weiter darüber aufrege, wie verblendet Menschen sein können: Ich kann nur sagen, dass ich den Unterschied leider deutlich sehe (und da bin ich nicht der Einzige)... Upscaling für mich halt deswegen kein Thema. :-)
 
Zuletzt bearbeitet:
Also was DLSS angeht, dass muss man einfach bei vielen Games auch testen.
Auch nicht immer ist es besser das Preset zu ändern.
TSR wie in dem Video geht für mich garnicht und ist ja auch ein Upscaler.
Darktide nativ mit TSR sieht schrecklich aus. Da flimmert alles und das in 4K!

4K Nativ mit DLAA hat für mich in der Regel die beste Bildqualität. Kann man auch über die Nvidia App erzwingen, wenn das Game das nicht kann. Habe ich in Hitman 3 so gemacht mit K Preset.

Wenn man Frame Generation nutzt muss man ausprobieren.
Darktide @max+PT original DLSS 4 P + FG gibt hänger. DLSS 4.5 Preset @ P+FG neuste version läuft smooth und sieht ganz ansehlich aus.

Doom Dark Age genau das gegenteil DLSS4 Qualität+FG läuft recht smooth und sieht auch gut aus außer das Spiel hat schwache Texturen.
DLSS 4.5 Preset ausgewählt + neuste FG gibt hänger.

Deshalb man muss ausprobieren. Global neuste Preset halte ich für eine schlechte Idee.
Stalker 2 war DLSS 4 Qualität + FG als Preset sehr gut zum spielen.

Dann gibt es Games wie Nobody Wants to Die da bekommt man wirklich nur ein ruhiges Bild mit DLSS 4 @ DLAA.
Sonst hat man bei vielen Oberflächen ein gewisses rauschen ähnlich wie Filmgrain.

Am liebsten wie gesagt 4K DLAA zocke ich am liebsten, aber packt dann die 4090 einfach nicht bei einigen Games.
Bin jetzt zb. in Resident Evil Requiem mit 4K max + PT @ DLSS Performance+FG doch recht zufrieden in Sachen Bildqualität.
Manchmal hat man leider kleine Ruckler in Verbindung mit FG, aber für mich noch verkraftbar.

Man kann ja meinen was man will, aber dank den Upscaler und FG und den verschieden Presets die Nvidia bietet und was zum Teil auch schon in Spielen drinne ist
bekomme ich immer meine Games flüssig zum laufen. Spiele von Ubisoft spiele ich schon länger nicht mehr. Origin und Farcry 6 war das letzte und denke wird auch so bleiben.
In Cities Skyline 2 habe ich via Nvidia App FG zugeschaltet und das fluppt und bringt einen deutlichen schub und entlastet die CPU.
 
Is klar… 😂
Immer schön wenn sich jemand besser als der Rest hält 😏
Sag mal, geht es dir noch gut? Den Smiley hast du gesehen? Die richtige vermutliche Erklärung danach auch?:rolleyes2:
Ich halte mich nicht für etwas Besseres, weil ich weiß, dass es immer Menschen gibt, die besser sind. ABER: Ich kann den Unterschied klar sehen, und das können – wie ich bereits sagte – auch andere, oder?
Was ist denn das bitte für eine Argumentation?
 
Was ist denn das bitte für eine Argumentation?

Meine Argumentation basiert auf einem waschechten Blindtest und tausende von Leuten widersprechen deiner Ansicht. Eine bessere Argumentation kann es gar nicht geben…
 
Meine Argumentation basiert auf einem waschechten Blindtest und tausende von Leuten widersprechen deiner Ansicht. Eine bessere Argumentation kann es gar nicht geben…
Und wie representativ ist das bitte? Du wirst auch genau so viele finden die es anders sehen, und davon gibt es auch genug hier im Forum.
Wenn jetzt plötzlich 1000-2000 Leute bei einer Umfrage sagen die GPU Preise sind doch billig, ist das dann auch für dich die "bessere und richtige" Meinung? Nur weil es die Mehrheit in dieser Umfrage es so sieht?
So, für mich ist die Diskussion hier beendet. Lauf mal weiter wie ein Schaf bei der ganzen Sache mit und wirf ‚Ngreedia‘ weiter schön Geld in den Rachen ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh