> > > > Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Veröffentlicht am: von

nvidiaNach den ersten Ankündigungen bezüglich einer Game-Development-Plattform sowie einen Ausblick auf das, was zukünftig im mobilen Bereich möglich sein könnte, hat NVIDIA den heutigen Tag seines Events im kanadischen Montreal mit einigen handfesteren Fakten gefüllt. Den Anfang macht G-SYNC. Wir alle kennen die üblichen Wiederholraten der aktuellen Displays, die auf Basis von historischen 60 Hz der Stromversorgung, heute immer wieder für Probleme sorgen.

Drei Bereiche sind von besonderer Wichtigkeit und können je nach Empfinden des Spielers das Spielvergnügen mindern. In unseren Fokus getreten sind diese mit einer neuen Messmethode namens FCAT. Nun lassen sich Tearing, Input-Lag und auch die sogenannten Mikroruckler über Hard- und Software reduzieren, aber den eigentlichen Grund für ihr Auftreten gehen sie nicht an. Zwischenzeitlich versuchte NVIDIA mit dem adaptiven Sync gegenzusteuern - doch auch hier wurden nur die Symptome bekämpft, nicht aber deren Ursache. 

Mit G-SYNC überlässt NVIDIA die Synchronisation von GPU und Display nicht mehr dem Monitor, sondern übernimmt diese Rolle - folglich sprechen nun GPU und G-SYNC miteinander. Entsprechende Monitore sollen zu Beginn des kommenden Jahres verfügbar sein. Das G-SYNC-Modul kann dabei entweder nachträglich eingebaut werden oder ist bereits fester Bestandteil der Elektronik. Die entsprechenden Displays sollen in unterschiedlichen Größen und mit Auflösungen von bis zu 3.840 x 2.160 Pixel verfügbar sein. Bereits gegen Ende des Jahres will NVIDIA einzelne Module anbieten, die dann beispielsweise in einen ASUS VG248QE gesteckt werden können. Da der Monitor diese Möglichkeit nicht von Haus aus ermöglicht, müssen bestimmte Modifikationen vorgenommen werden. Diese dürften für einen kleinen Aufpreis des VG248QE gegenüber dem Standardmodell sorgen. Alternativ kann der Nutzer auch selbst Hand anlegen.

NVIDIA G-SYNC-Modul

Die Verbindung zwischen GPU und dem G-SYNC-Modul wird dabei über den DisplayPort-Anschluss erstellt. Ein Audio-Signal kann dabei aber dann nicht mehr übertragen werden. Andere Eingänge wie DVI oder HDMI können ebenfalls nicht mehr genutzt werden. NVIDIA sieht in G-SYNC den nächsten Schritt in der Display-Technologie, die über Jahre oder gar Jahrzehnte mehr oder weniger im Stillstand verbracht haben soll.

NVIDIA sieht in G-SYNC eine kleine Revolution und lud deswegen drei bekannte Persönlichkeiten der Gaming-Industrie ein, die sich über G-Sync äußern durften. Zu diesen zählten John Carmack, Programmierer bei Oculus VR, und Tim Sweeney, Kopf von Epic Games. Dass man trotz der starken Zusammenarbeit von AMD und den Battlefield-4-Entwicklern sehr gute Kontakte zu DICE pflegt, zeigte die Anwesendheit von John Andersson,Technical Director bei DICE. 

Update:

Inzwischen nennt NVIDIA weitere Details zu G-SYNC. So hat man die Systemanforderungen veröffentlicht und nennt die nötige Hard- und Software, um G-SYNC verwenden zu können. Auf Seiten der Grafikkarte werden die Modelle GeForce GTX 650 Ti Boost, 660, 660 Ti, 670, 680, 690, 760, 770, 780 und Titan genannt. Sicherlich wird auch die bereits vorgestellte, aber noch nicht erhältliche GeForce GTX 780 Ti G-SYNC unterstützen.

Als kompatibler Monitor wird weiterhin nur der ASUS VG248QE ausgeführt. Als Treiber muss der GeForce 331.58 oder neuer unter Windows 7, 8 oder 8.1 eingesetzt werden. Weiterhin hat man nun auch ein FAQ veröffentlicht, das die wichtigsten Fragen klären soll. Darin werden auch noch einmal die Vorteile und Unterschiede zu V-Sync etc. beschrieben.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (207)

#198
Registriert seit: 11.03.2007
München
Moderator/Redakteur
Beiträge: 19062
Hab das heute jetzt mal angetestet (mit 118fps Frame Limit @ 120 Hz)

Zitat

Quelle: BF3, Possible VSYNC trick? No input lag + frame sync (no tearing).

und kann das größtenteils bestätigen, auch wenn der Input Lag nie ganz verschwindet (außer ohne VSYNC, da fühlt sich die Maus dann 100% smooth an). Daher bleibt VSYNC off und Frame Limit imo die beste Option (kein Inputlag mit wenig Tearing).
#199
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Danke für die Tests @ ralle_h, so wie das aussieht muss man sich fast G-sync anschaffen, um sich wirklich eine Meinung zu bilden.
Ich kann ja das Zeugs dann weiterverkaufen, wenn es sich nicht lohnt.

Hab grade mal mit meiner 7970 DCII in BF3 mit 60 Hertz v-sync und FRamelimiter @ 59 FPS gespielt. Frames immer über 60, zumindest in den Szenen ( hab ca 15minuten gespielt).

War recht geschmeidig, ich seh da eigentlich keinen Bedarf da was nachzurüsten.
#200
Registriert seit: 11.03.2007
München
Moderator/Redakteur
Beiträge: 19062
Wie können die Frames denn mit Limiter auf 59 immer über 60 gewesen sein? :rolleyes:
#201
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Ja nur in der theorie..., das heißt sie fallen nicht unter 59 fps.
#202
Registriert seit: 18.11.2015

Matrose
Beiträge: 20
Ich habe versucht hier eine Antwort zu finden bzw. in google auch, aber irgendwie klappt es nicht.

Folgendes

Wenn ich einen normalen Monitor habe, also bis 60Hz und eine entsprechende Karte hätte die mir relativ konstant 60-70 fps oder gar mehr bietet - macht G Sync Sinn?
Weil ich bekomme mehr Bilder als ich anzeigen lassen kann. Wenn es mehr als 60 sind, verschluckt der Monitor die restlichen oder?
Wenn der Monitor 100Hz, wie z.B. der X34, kann/könnte und G Sync aktiviert wird, bedeutet das, dass mir immer (weil fps ja schwanken) die "richtige" Anzahl angezeigt wird? Macht das überhaupt ab 60+ fps Sinn bzw. merkt man so etwas?

Mir ist das nicht so ganz klar. Was ich verstehe ist, wenn die Karte irgendwo 40-60 FPS schafft, soll die Technik hier Wunder wirken. Bei entsprechend guter Karte, wäre das nicht notwendig (sprich man nimmt eine 980/ti und spielt auf Full HD)

Ich bin gar nicht so empfindlich aber nachdem ich lese "wer einmal G Sync erlebt hat, will es nicht mehr missen", tauchen diese Fragen auf - überhaupt wenn jetzt die Curved 34 Zoll Monitore preislich vielleicht attraktiver werden, stellt sich die Frage ob man mit den "normalen" 60Hz gut bedient ist.


thx
#203
customavatars/avatar117686_1.gif
Registriert seit: 05.08.2009
Lauffen am Neckar
Fregattenkapitän
Beiträge: 2759
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.
Mehr wie 144FPS habe ich nicht, da ich dies im Treiber unterbunden habe.

Jedoch kann ich dir soviel sagen, ich hatte Anfang des Jahres ein SLI Gespann aus GTX970ern und den Asus ROG-Swift 27".

G-Sync und FreeSync arbeiten so gut, das du selbst im High-FPS Bereich SICHTBARE Ruhe ins Bild bekommst.
Ich erkenne mittlerweile fast sofort ob ein Bildschirm G/FreeSync hat oder nicht.

Diese Ruhe ist so unfassbar "schön", du willst definitiv nicht mehr ohne!
#204
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 9168
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt? :wall:
Ich will mir nicht einen neuen Monitor kaufen müssen, nur weil ich mal von nvidia zu AMD umsteige oder umgekehrt.

Kann/darf nvidia den Monitor-Herstellern tatsächlich verbieten, einen G-Sync-Monitor herzustellen, der zusätzlich auch FreeSync unterstützt?
Was ist, wenn irgendein chinesischer Herstellter das trotzdem macht? Oder das ganze so konstruiert, dass der Monitor von Werk aus erst einmal nur GSync kann, aber dank einer anderen Firmware (die natürlich nicht selbst und direkt von diesem Hersteller veröffentlicht wird) auch FreeSync-fähig gemacht werden kann?

Mir persönlich reichen übrigens schon konstante, tearing-, inputlag- und ruckelfreie (quasi VSync) 100Hz/100FPS.
Sehe zwischen 100, 120 und 144Hz so gut wie keinen Unterschied (aber sehr wohl einen Unterschied zwischen 60 und 100Hz/FPS)
#205
Registriert seit: 24.06.2015

Banned
Beiträge: 913
Zitat joinski;24138415
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt?


nvidia böse :asthanos:
#206
customavatars/avatar77654_1.gif
Registriert seit: 19.11.2007

Moderator
Beiträge: 1903
Zitat Tzunamik;24137485
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.


-.- dachte freesync macht nur ca. 35-70 fps mit?
oder verwechsle ich da was?
#207
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 9168
Zitat tanuki82;24138543
nvidia böse :asthanos:


Diese Antwort ist mir zu einfach ^^

Wo bleiben die nvidia fanbois? :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]