Ja, das lässt sich technisch sehr genau auflösen. Beide Nutzer haben auf ihre Weise recht, aber sie reden über zwei verschiedene Arten von "Last" für die Grafikkarte und das System.
Hier ist die detaillierte Aufschlüsselung der Diskussion aus dem Screenshot:
1. Der mathematische Faktencheck (Die Zahlen)
Schauen wir uns die rohen Datenmengen an, die die Grafikkarte berechnen und übertragen muss.
Szenario A: 5K2K (5120 x 2160) bei 165 Hz
• Pixel pro Bild (Frame): ca. 11,1 Millionen Pixel
• Pixel pro Sekunde (Datendurchsatz): \bm{11,1 \text{ Mio.} \times 165 \text{ Hz} \approx} 1,82 Milliarden Pixel/Sek.
Szenario B: 4K (3840 x 2160) bei 240 Hz
• Pixel pro Bild (Frame): ca. 8,3 Millionen Pixel
• Pixel pro Sekunde (Datendurchsatz): \bm{8,3 \text{ Mio.} \times 240 \text{ Hz} \approx} 1,99 Milliarden Pixel/Sek.
Ergebnis:
Der Nutzer "X Cellence" hat recht mit der Aussage, dass 4K @ 240Hz in der Summe mehr Pixel pro Sekunde "schaufelt" (ca. 9% mehr). Die reine Datenbandbreite (und damit oft die Belastung für das Display-Kabel und die Pixelfüllrate) ist bei 4K @ 240Hz tatsächlich höher.
2. Das Problem mit der "GPU-Last" (Warum 'hwk' skeptisch ist)
Der Nutzer "hwk" merkt richtig an, dass das "Scaling" so nicht ganz funktioniert. Das liegt daran, wie Spiele und Grafikkarten arbeiten:
• Die Last pro Einzelbild (Shader/Render-Last):
Bei 5K2K muss die Grafikkarte für jedes einzelne Bild 33% mehr Pixel berechnen als bei 4K. Das bedeutet, dass Raytracing, Schatten, Texturen und Effekte pro Frame deutlich mehr Rechenleistung kosten. Wenn die Grafikkarte zu schwach ist, schafft sie dieses riesige 11-Mio-Pixel-Bild vielleicht gar nicht schnell genug (z.B. nur mit 60 FPS), egal ob der Monitor 165 Hz könnte.
• Die CPU-Limits bei hohen Hz:
Bei 4K @ 240Hz ist das Einzelbild für die Grafikkarte "leichter" zu berechnen. Die Herausforderung ist hier eher, dass die CPU schnell genug die Daten für 240 Bilder pro Sekunde liefern muss. Oft rennt man hier in ein CPU-Limit, bevor die Grafikkarte voll ausgelastet ist.
Zusammenfassung / Die Auflösung
• Bandbreite & Schnittstelle: 4K @ 240Hz ist anspruchsvoller (mehr Daten pro Sekunde).
• Reine Grafikleistung (FPS erreichen): 5K2K ist "schwerer". Es ist für eine Grafikkarte meist anstrengender, ein sehr hochauflösendes Bild (5K2K) zu berechnen, als viele etwas kleinere Bilder (4K).
Fazit:
Wenn das Ziel ist, die maximalen Hz des Monitors voll auszunutzen (also konstante 165 FPS vs. 240 FPS), braucht man für 4K @ 240Hz tatsächlich minimal mehr Rohleistung (Durchsatz).
In der Realität wird sich 5K2K beim Zocken aber oft "zäher" anfühlen, weil die FPS durch die hohe Auflösung pro Bild stärker einbrechen.