NVIDIA, RTX 5000er-Serie & Game Settings: Bitte erklärt es mir, als wäre ich fünf Jahre alt

AmanoTC

Enthusiast
Thread Starter
Mitglied seit
11.05.2011
Beiträge
70
Hallo zusammen.
Ich spiele bereits seit den Jahren, als man vor Spielstart sowohl autoexec.bat als auch config.sys händisch bearbeitet hat, um manche Spiele überhaupt zum Laufen zu bringen. Mir erscheint es allerdings so, als wäre es noch nie so kompliziert gewesen wie aktuell, ein Spiel optimal auf seiner Hardware laufen zu lassen.
Nach einer Art "Pause" in den letzten zehn Jahren bin ich hardwaremäßig seit diesem Jahr wieder aktuell und es hat sich in dieser Zeit so immens viel geändert, dass es mir wirklich schwer fällt, das alles richtig zu verstehen.
Hier kommt ihr ins Spiel. Wie finde ich (pro Spiel) die besten Settings?

Relevante Hardware:
GPU: GeForce RTX 5080, kein OC
Monitor: 27" 4K UHD Mini-LED 160Hz, G-Sync kompatibel, HDR, native Auflösung
CPU: Ryzen 7 9800X3D

Ziel:
Mein Ziel ist es, maximale Qualität bei einem flüssigen Gameplay zu haben (ich spiele hauptsächlich Single-Player-Games), möglichst viel global zu setzen und nur das absolut notwendigste pro Spiel einstellen zu müssen.

Tearing:
Da der Monitor 160Hz hat, habe ich mittels RivaTuner Statistics Server (RTSS) die maximalen FPS auf 154 limitiert. Soweit ich weiß, ist das so richtig. RTSS nehme ich, weil es ressourcenschonend ist und kaum Lag produziert.

V-Sync (gegen Tearing > 154FPS):
Stelle ich V-Sync pro Spiel in den Einstellungen des Spiels an und dafür im Nvidia Control Panel in den Global Settings auf Aus? Oder genau umgekehrt, global auf An und im Spiel auf Aus?
Man liest es mal so und mal so und die Menschen scheinen mit ihrer Meinung hier fast 50:50 geteilt zu sein. Was ist "richtig"? Ich habe es aktuell mittels Control Panel AN und stelle es dann im Spiel auf Aus.

G-Sync (gegen Tearing < 154FPS):
Da mein Monitor G-Sync kompatibel ist, habe ich im Control Panel G-Sync aktiviert und zwar für "Windowed and Full Screen", falls ich mal ein Spiel im Fenster-Modus spielen möchte.

NVIDIA App:
Nach Möglichkeit möchte ich so wenig wie notwendig über die App einstellen und stattdessen das Control Panel nutzen (solange es noch geht). Doch gibt es etwas, was zwingend über die App eingestellt werden sollte? Meiner Meinung nach nicht.

DLSS:
Die oben genannte Hardware ist stark genug, jedes Spiel nativ in 4K zu rendern. Aufgewachsen bin ich ausschließlich mit nativer Leistung und da hängt mein Hirn auch fest. Bitte erklärt es mir nachvollziehbar: Wenn meine Hardware in der Lage ist, ein Spiel nativ in 4K zu rendern, wieso sollte ich dann trotzdem DLSS anstellen?

Ich verstehe es so, dass ich dadurch mit nur minimalem Qualitätsverlust (teils deutlich) höhere FPS erreichen kann, als nativ, und dazu noch Strom spare bzw. die GPU nicht so belaste. Ist DLSS 4 Transformer wirklich so gut, dass man quasi keinen Qualitätsverlust sieht?

Und was genau muss ich im jeweiligen Spiel dafür einstellen? Manche Spiele haben für die Qualität bei DLSS Optionen von "Performance" über "Balanced" bis "Quality", andere möchten, dass ich dort eine Auflösung eingebe. Beides gleichzeitig habe ich noch nicht gesehen.
Sollte das Ziel bei DLSS und meiner Hardware aber nicht z.B. sein, nativ in Full-HD mit allen Reglern auf Anschlag zu rendern und dann mit maximaler Qualität hochrechnen zu lassen? Was muss ich dafür einstellen, wenn nur eine der beiden Optionen zur Verfügung steht?

Smooth Motion:
Würde ich bei mir momentan eigentlich nicht nutzen, da kaum notwendig

Multi Frame Generation:
Würde ich bei mir momentan eigentlich nicht nutzen, da kaum notwendig. Außer vielleicht bei Cyberpunk 2077, wenn alle Regler auf Max stehen.

Control Panel:
Was muss im Control Panel außerdem noch eingestellt sein?
Da ich im Control Panel global V-Sync aktiviere, sollte ich dann auch global Triple Buffering aktivieren?
Die Shader Cache Size habe ich auf 100GB gesetzt (Platz habe ich genug). Passt das oder sollte ich auf Unlimited hochgehen?
Power Management Mode habe ich auf Normal gelassen und bin damit bisher zufrieden.
Low Latency Mode: Sollte ich diesen global auf Ultra stellen, da ich sowohl V-Sync als auch G-Sync aktiviert habe? Momentan steht er auf "Off". Und ist dieses bereits Reflex? Wenn Nein, wo stelle ich Reflex an/ein?

Nvidia Profile Inspector:
Wenn ich das richtig verstehe, kann ich per Nvidia Profile Inspector pro Spiel genau einstellen, welche Nvidia Einstellungen gelten sollen.
Nur, woher weiß ich denn, welche Nvidia Einstellungen die optimalen Einstellungen für mein Spiel sind? Woher weiß ich bei DLSS Overrides z.B., welches DLSS-Modell ich für das jeweilige Spiel nehmen sollte? Muss ich wirklich heutzutage, bevor ich ein Spiel spielen kann, immer irgendein YouTube-Video mit den optimalen Einstellungen suchen?
Früher hat man alles relevante einfach im Spiel eingestellt und konnte losspielen.

Vielen Dank vorab für eure Antworten und hilfreichen Tipps.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
DLSS sieht häufig besser aus als nativ, weil es direkt die Kantenglättung mit drin hat.
Die Qualitäts-Stufen "Quality", "Balanced" usw. sind dabei nur ein Name für ein bestimmtes Verhältnis von Input-Auflösung zu Output-Auflösung. (siehe https://de.wikipedia.org/wiki/Deep_Learning_Super_Sampling)
Je nach Spiel ist es immer etwas unterschiedlich, manchmal gibt es Bild-Artefakte oder Ghosting ("nachziehen"). Für mich war das aber bisher selten störend.

Ich habe deshalb DLSS so gut wie immer aktiviert. (bei ähnlicher Hardware)
Für mich hat es deshalb nur Vorteile: mehr FPS, besseres Bild, weniger Stromverbrauch, weniger Abwärme.

Frame Generation fühlt sich je nach Spiel etwas anders an. In manchen spürt man einen starken Input-Lag, in anderen ist es okay. In manchen Spielen kann es auch hier zu Bildfehlern kommen.
Wenn es sich im Spiel gut anfühlt, habe ich es in der Regel auch immer aktiviert, weil Free FPS :)
 
DLSS sieht häufig besser aus als nativ, weil es direkt die Kantenglättung mit drin hat.
Die Qualitäts-Stufen "Quality", "Balanced" usw. sind dabei nur ein Name für ein bestimmtes Verhältnis von Input-Auflösung zu Output-Auflösung. (siehe https://de.wikipedia.org/wiki/Deep_Learning_Super_Sampling)
Je nach Spiel ist es immer etwas unterschiedlich, manchmal gibt es Bild-Artefakte oder Ghosting ("nachziehen"). Für mich war das aber bisher selten störend.
Danke für deine Rückmeldung

Ist sie ja nicht...
Doch, ist sie schon. Die Frage ist nur, wieviele FPS das Ziel sind und welche Qualität erreicht werden soll. Ist sie stark genug für natives 4K in Cyberpunk 2077 mit Pathtracing, allen Reglern auf Anschlag und einer Wunsch-FPS von 120? Nein, natürlich nicht. Kann die Hardware aber nativ in 4K Cyberpunk 2077 rendern? Klar, nur dann eben mit irgendwas um die 30 FPS und ohne Pathtracing. Will man dann so spielen, ist wieder eine ganz andere Frage.
 
Ach... naja... ich dachte jetzt praxisnahe.

DLSS hängt halt vom Spiel ab, wie das umgesetzt ist... gibt Spiele, wo das super funktioniert (CD Projekt Red Zeug, in Control wars auch ganz brauchbar) und Spiele, wo das irgendwie scheiße ist (RDR2, FC6)...

Hilft halt auch gegen den Lärm... wenn die GPU die ganze Zeit im Leistungslimit hängt, wird das schon mühsam... von der Lautstärke und der Abwärme... Drops hat man ja trotzdem.
Insofern isses nicht verkehrt die GPU etwas zu entlasten und nen sinnvollen Frame-Limiter zu setzen, dann wird man gut die FPS Drops los.

Ganz spannend ist, dass das alles nicht so ganz linear ist... in Cyberpunkt performed z.B. Pathtracing mit DLSS ganz gut...
DLSS dürfte auf den Tensor-Cores laufen, PT/RT auf den RT-Cores... insofern frisst dir das DLSS wohl keine Leistung wo anders weg (TDP Limit wsl. schon).

In RDR2 glitcht mit DLSS vor allem der Horizont. Bäume/Gewächs/Zäune sind auch so Dinge... Haare auch (merkt man z.B. in Control).
Hängt halt gut davon ab, wie gut das DLSS Upscaler-Modell "angelernt" ist...
 
DLSS hängt halt vom Spiel ab, wie das umgesetzt ist... gibt Spiele, wo das super funktioniert (CD Projekt Red Zeug, in Control wars auch ganz brauchbar) und Spiele, wo das irgendwie scheiße ist (RDR2, FC6)...
Danke auch dir für deine Antwort. Sieht so aus, als könnte ich DLSS 4 Transformer also locker vertrauen. Werde damit mal ein wenig herumexperimentieren.
 
Du merkst es eh.

AI-Upscaler neigen halt zum Glitchen, sie "erraten" einfach, was auf dem Bild ist, und wie es größer aussehen könnte.
Bei Control (überraschend hardwarehungrig) hast es an den Haaren der Spielfigur gesehen, war aber nicht störend... trotzdem hat mans gesehn.
Bei RDR2 hat der Bildschimrand (speziell oben) ziemlich geglitcht, warum auch immer... war imho bis störend.
Bei FC6 hast es am ehesten bei Masten, Laternen, Bäumen, Zäunen.

Cyberpunk und Witcher 3 funktionieren vorbildlich gut, die Projekt CD Red Sachen sind da aber wohl gut mit Updates versorgt und offenbar baut das Entwicklerteam gern alles ein, was irgendwie verfügbar ist... Dafür, dass Witcher 3 schon richtig alt ist, hat das immer noch eine super Grafik und ist @4k/high auch relativ hungrig.... kein Plan wie das zu Rlease war, und was da nachgepatcht wurde.

Musst halt bissl probieren.
Ich hab mich mit DLSS mittlererweile angefreundet (trotz 5090), weil z.B. Cyberpunkt damit trotz PT gut läuft und dann auch recht sauber aussieht... klar, braucht man nicht, ganz ohne RT sieht das Spiel nicht so viel schlechter aus (aber da ich da dann eh langsam ins CPU Limit des Zen 3 bei ca. 100fps laufe), lohnt sichs für mich eigentlich nicht RT weg zu lassen, und PT mit DLSS Quality ist dann schon okay.

Bei RDR2 wars so naja (Bildschirmrand meh), aber da hatte ich noch die 4070Ti, und ohne DLSS war mir die Grafikkarte auf Dauer einfach zu laut.


Die Namen sind bissl blöd... ich nehme an, bei 4k ist "DLSS Quality" ein "1440p to 4k Upscaler" und "DLSS Performance" ein "1080p to 4k Upscaler"... was nun "balanced" und "ultra performance" wohl sein könnten?
Zudem gibts dann noch manchmal "dynamisches DLSS" mit ner "Ziel-Framerate", ich denke, da wird die Ur-Auflösung je nach Last angepasst automatisch... wie gut das funktioniert, keine Ahnung, man weiss ja eigentlich erst hinterher, wie lang es gedauert hat, das Bild zu machen..


Ich machs halt so, ich lass ein Spiel mal bissl ohne Frame-Limiter laufen, und setz den dann auf einen für mich sinnvollen Wert (das sind meist so 60-100 fps je nach Spiel).
Dabei schau ich halt, wie die Frames ohne DLSS sind und wie sie mit sind, und vor allem auch, wie es aussieht...
Dann setzt dich halt wo hin, wo du ne Schnittmenge aus guter Framerate, guter Optik und wenig Lärm hast... (wenn noch bissl Luft nach oben ist, hast kaum FPS Drops).


PS: Undervolting ist für die 5000er Karten sinnvoll.
 
DLAA würde ich aus optischen Gründen immer nehmen, wenn es geht (z.B sieht BF6 damit viel besser aus als mit DLSS).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh