Komische Idee...Gaming in 1080i?

epifame

Enthusiast
Thread Starter
Mitglied seit
21.03.2010
Beiträge
583
Ort
Hiddenhausen
Hallo.
Ich weiss nicht ob das hier in der richtigen Sparte ist...
Mir ist in den Sinn gekommen das man Spiele doch auch in 1080i spielen könnte...
Das würde die Halbierung der zur berechnenden Datenrate von 1080p bedeuten und somit weniger Last auf der Grafikkarte...
Somit könnte man doch theoretisch bei minimalem verlust der Bildqualität die Grafikkarte mit besseren Ingamesettings belasten wie zB Effekte auf Ultra und so...

Hab ich nen Denkfehler oder müsste das gehen...und wenn ja wo stellt man das ein?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja du hast einen gewissen Denkfehler. Die Idee von "interlaced Video" ist ja Bandbreite zur Übertragung zu sparen (oder die Qualität bei gleicher Bandbreite zu verbessern).
Das macht Sinn wenn die Datenquelle nicht Limitiert, dafür aber die Verbindung zum Ausgabe-Gerät. Das ist bei Fernsehen, etc. der Fall.
Bei Computergames ist aber grade das Gegenteil der Fall. Die Übertragung ist unlimitiert (angenommen du strebst keine höhere Framezahlzahl an, als der Monitor schafft), aber dafür limitiert die Quelle, nämlich die Grafikkarte.
 
Hallo.
Ich weiss nicht ob das hier in der richtigen Sparte ist...
Mir ist in den Sinn gekommen das man Spiele doch auch in 1080i spielen könnte...
Das würde die Halbierung der zur berechnenden Datenrate von 1080p bedeuten und somit weniger Last auf der Grafikkarte...
Somit könnte man doch theoretisch bei minimalem verlust der Bildqualität die Grafikkarte mit besseren Ingamesettings belasten wie zB Effekte auf Ultra und so...

Hab ich nen Denkfehler oder müsste das gehen...und wenn ja wo stellt man das ein?

Man kann bei einigen Monitoren eine benutzerdefinierte Auflösung einstellen was funktioniert, selbst wenn 1080i funktionieren würde was eher in der Fernseh-technik vorkommt würde es unschön aussehen.

Manche Monitore/Fernseher können gut skalieren und laufen auch auf 1280*720 halbwegs ok. Der Inputlag sinkt manchmal mit einer geringeren Auflösung.
 
Zuletzt bearbeitet:
War da nicht so ein PS4 online Spiel oder wars Xbone mit 960x1080?
 
Ja du hast einen gewissen Denkfehler. Die Idee von "interlaced Video" ist ja Bandbreite zur Übertragung zu sparen (oder die Qualität bei gleicher Bandbreite zu verbessern).
Das macht Sinn wenn die Datenquelle nicht Limitiert, dafür aber die Verbindung zum Ausgabe-Gerät. Das ist bei Fernsehen, etc. der Fall.
Bei Computergames ist aber grade das Gegenteil der Fall. Die Übertragung ist unlimitiert (angenommen du strebst keine höhere Framezahlzahl an, als der Monitor schafft), aber dafür limitiert die Quelle, nämlich die Grafikkarte.
Wieso denn nur übertragung?
Ich weis das es dort genutzt wird um bandbreite zu sparen das wäre doch bei einer grafikkarte genau das gleiche...

Berechnet wird quasi jedes halbbild dann kommt noch nem deinterlacefilter drauf und fertig?
 
Berechnet wird quasi jedes halbbild dann kommt noch nem deinterlacefilter drauf und fertig?

Und was ist mit dem "Rest" des Bildes?
Wenn du nur 50% des Bildes berechnest, fehlen dir aber auch 50% der Informationen... 2x 50% sind wieder 100% -> das macht also genau Null Speedvorteil ;)

Aber ja, es gibt SFR für Multi GPU Rendering. Da gibt es oder besser gesagt, gab es zu den Anfängen Methoden, welche ähnlich fungierten. Nämlich das Bild aufteilen, im Karomuster, im Streifen muster oder horizontal/vertikal des Sichtbereiches um die Last auf zwei GPUs zu verteilen. Allerdings hat sich das nie durchgesetzt, unter anderen, weil gewisse PostProcessing Effekte auf das ganze Bild angewendet werden. Wenn die Bildbasis nur 50% des ganzen Bildes entspricht, der Postprozessing Effekt aber mit jedem Durchlauf drüber muss, dann sparst du am Ende eben weniger Zeit in der Berechnung -> entsprechend mau ist/war die Skalierung.
Gemessen an den PostProcessing Effekten ist es sogar eher warscheinlich, dass du gar langsamer rechnen wirst, als bei Vollbildern ;) Da eben der Anteil dieser Effekte variabel ist. Um so größer desto, desto weniger gut geht sowas überhaupt erstmal auf.

Mal ganz davon ab, hier zählt es eher Pixelgenau die Bilder auszuspucken... Wenn der 2. Durchlauf am Bild schon mit anderen Basisinfos rechnen muss, hast du zwingend einen Versatz im dargestellten Bild -> das will beim Spielen doch keiner und kommt dem Tearing gleich, was man mittlerweile häufig aktiv versucht zu unterbinden...
 
+1 für DragonTear und fdsonne.

Wenn du ein 1080i Bild übertragen willst, musst du von der Graka erst ein 1080p Bild berechnen lassen. Ersparnis: Null. Bildqualität: Fratze.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh