Faszinierend was dabei rauskommt vorallem aus so niedrig aufgelösten Renderings.
Allerdings wirft das ein paar Fragen bei mir auf:
Ich beziehe mich da mal auf das RDR2 136*76 Bild.
Also ich kann aus dem 136x76 Bild zwar erahnen, das das da im Hintergrund ein Haus sein soll, aber von diesem Gittervorbau den die KI da im UHD-Upscale hingeneriert hat kann ich da nichts erahnen. Ebenso das tote weiße Pferd (?) rechts mittig am Bildrand. Das sind im Original nur ~10 Pixel die etwas heller sind... das könnte allesmögliche sein... oder eben auch nichts.
Aber wenn ich das richtig verstanden habe, sind diese Einzelbildervergleiche in der Hinsicht ein wenig irreführend, weil die KI dahinter nicht nur diese 136x76 Pixel als Einzelbild als Ausgangsbasis hat, sondern auch mehrere vorherige Bilder sowie Geometrie und Bewegungsdaten kennt?
Also auch wenn man aus dem Pixelhaufen nicht den Vorbau von dem Haus erahnen kann, weiß die KI das da an dem Haus noch ein Geometrieklotz davor hängt, also muss da irgendeine Art Vorbau sein?
Und wenn man die 136x76 Pixel des vorherigen Frames kennt und sich da der Blickwinkel nur ein bisschen verändert hat, kann man durch Überlagerung dieser beiden Frames die Auflösung in diversen Bildbereichen quasi schonmal nahezu verdoppeln? Mit noch mehr Frames geht dann natürlich noch mehr.
Ah, weils mir gerade noch auffällt: Aus diesen 3x12 Pixeln unten in der Mitte drauf zu kommen, das das "134,7" heisst (vermutlich die Framerate?) find ich auch sportlich.
Edit: Und ich bin gespannt, wann der erste auf die Idee kommt, das diese extremen Upscales weil sie ja irgendwie gemäldeartig, teils sogar ein bisschen surreal wirken auch als "Stil" verstehen könnte und dann Spiele gemacht werden, bei denen das absichtlich so "schlecht" gelassen wird *pixelgameshust*
Edit2: Kann man das als Upscaler für ZSNES oder Snes9x benutzen?
