Wie gesagt du übertreibst und versuchst die technische Theorie in die Praxis zu zaubern.
Das ist eine Analogie um dir einfacher zu erklären warum ein Bildschirm mit höherer Bildwiederholrate weniger von Gsync profitiert.
Desweiteren ist OLED 1kz auch keine Übertreibung sondern mittlerweile Realität und nur eine Frage der Zeit bis es den Weg in den Monitor Consumer Bereich findet.
OLED hat zwar die beste Reaktionszeit und somit kein Smearing aber Tearing hast du trotzdem solange die Grafikkarte nicht genug FPS liefert !
Scheinbar übersteigt das deine Vorstellungskraft, denn du hast die Bedeutung leider immer noch nicht verstanden. Ich versuche es dir noch mal ohne viel Fachgesimpel zu erklären. Ich kann auch sehr geduldig sein.
Ein 1kz OLED hat ein Refresh Zyklus von 1ms (1s/1000). Jede Millisekunde greift es ein Bild aus dem Framebuffer der Grafikkarte ab. Mal angenommen dein Spiel läuft mit 101 FPS, das heißt deine GPU benötigt für ein vollständiges Bild 9,9ms. In etwa jedem zehnten Zyklus würde der Bildschirm einen Zeilensprung darstellen, gefolgt von 9 Zyklen ohne Zeilensprung. Jetzt stell dir vor wie dein Auge in einem Zeitraum von 10ms (10 Zyklen) aus 10 Bildern, eins mit Tearing wahrnehmen soll. Ich kann dir gleich sagen, dass deine Auge dazu nicht mehr in der Lage ist. Du hast also kein wahrnehmbares Tearing, kein Inputlag (höchstens 1ms) und Stottern würde es auch so nicht mehr geben. Sprich du erreichst alle 3 Effekte also den Zustand von Gsync, was Gsync dann obsolet macht. Ein Bildschirm mit hoher Bildwiederholfrequenz ist eine effektive Holzhammer Methode: Je mehr Hertz desto näher kommst du an den Zustand den Gsync erreicht ran.
Diese Analogie eignet sich hervorragend um jemanden zu erklären warum ein 144hz Panel weniger von Gsync profitiert als ein 60hz Panel, denn mit 144hz du hast schon mal grundsätzlich a.) weniger wahrnehmbares Tearing b.) weniger Inputlag c.) weniger Stottern als mit einem 60hz Panel.
Genau wie dein Beispiel Witcher 3. Wenn es kein Triple Buffering unterstützt und die Frames mit V-Sync von 60FPS auf 30FPS (2:1) droppen
dann ist ja klar, dass es sich mit G-Sync/FreeSync flüssiger spielt. Also mal im Treiber versuchen zu aktivieren (auf deutsch Dreifachpuffer).
Wenn eine Spiel mit 100-144FPS@144Hz läuft dann bringt G-Sync/FreeSync den gleichen Vorteil wie in niedrigen FPS, nämlich kein Tearing.
Der Grund warum ich darauf nicht eingehe ist einfach. Die Missinformation bzgl. Triple Buffering sind zu groß und außerdem kommen Stotter auch mit Tripple Buffering zustande. Jede Form von Vsync (außer Adaptiv Vsync) erzeugt höhere InputLag/Stotter je niedriger die FPS ist aus dem einfachen Grund weil a.) Frametimes länger sind und b.) mehr Frames doppelt anzeigt werden um Tearing zu verhindern. Weswegen auch meine Behauptung dass Gsync in niedrigen FPS Bereichen mehr bringt, vollkommen richtig ist.
Zum Thema Gewichtung schau dir mal an was du über G-Sync bei niedrigen und hohen Frameraten sagst. Ich bin also nicht der 1. Mensch.
Du sagst bei niedrigen FPS ist G-Sync gut aber bei hohen FPS nicht obwohl genau dann das Bild smooth ist und Ruckler sehr stören würde.
Was soll ich mir anschauen? Äpfel und Birnen?
Ich habe nirgendwo behauptet Gsync wäre nicht gut, nur behauptet und mittlerweile ausreichend dargelegt warum der Effekt von Gsync mit steigender Bildwiederholfrequenz abnimmt.
Das einzige was bei hohen HZ abnimmt ist das sichtbare Tearing...
Streiche das "einzige" und dann sind wir einer Meinung.
...aber das hat nichts mit Stuttering zu tun wie du hier verbreiten möchtest.
denn leider liegst du hier schon wieder falsch. Siehe oben. Je mehr Hertz das Panel hat, desto näher kommt man dem Zustand, den Gsync sicherstellt ran. Bilder werden ohne Verzögerung sofort und vollständig ausgegeben. Das minimiert wahrnehmbares Stottern, Inputlag und Tearing.
Wie konnten wir vor G-Sync/FreeSync flüssig zocken ?
Keine Ahnung was diese Zwischenfrage überhaupt soll, Thema ablenken? Ich habe ehrlich gesagt keine Lust eine sinnlose Diskussion anzubrechen.