> > > > Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Veröffentlicht am: von

nvidiaNach den ersten Ankündigungen bezüglich einer Game-Development-Plattform sowie einen Ausblick auf das, was zukünftig im mobilen Bereich möglich sein könnte, hat NVIDIA den heutigen Tag seines Events im kanadischen Montreal mit einigen handfesteren Fakten gefüllt. Den Anfang macht G-SYNC. Wir alle kennen die üblichen Wiederholraten der aktuellen Displays, die auf Basis von historischen 60 Hz der Stromversorgung, heute immer wieder für Probleme sorgen.

Drei Bereiche sind von besonderer Wichtigkeit und können je nach Empfinden des Spielers das Spielvergnügen mindern. In unseren Fokus getreten sind diese mit einer neuen Messmethode namens FCAT. Nun lassen sich Tearing, Input-Lag und auch die sogenannten Mikroruckler über Hard- und Software reduzieren, aber den eigentlichen Grund für ihr Auftreten gehen sie nicht an. Zwischenzeitlich versuchte NVIDIA mit dem adaptiven Sync gegenzusteuern - doch auch hier wurden nur die Symptome bekämpft, nicht aber deren Ursache. 

{jphoto image=45209}

Mit G-SYNC überlässt NVIDIA die Synchronisation von GPU und Display nicht mehr dem Monitor, sondern übernimmt diese Rolle - folglich sprechen nun GPU und G-SYNC miteinander. Entsprechende Monitore sollen zu Beginn des kommenden Jahres verfügbar sein. Das G-SYNC-Modul kann dabei entweder nachträglich eingebaut werden oder ist bereits fester Bestandteil der Elektronik. Die entsprechenden Displays sollen in unterschiedlichen Größen und mit Auflösungen von bis zu 3.840 x 2.160 Pixel verfügbar sein. Bereits gegen Ende des Jahres will NVIDIA einzelne Module anbieten, die dann beispielsweise in einen ASUS VG248QE gesteckt werden können. Da der Monitor diese Möglichkeit nicht von Haus aus ermöglicht, müssen bestimmte Modifikationen vorgenommen werden. Diese dürften für einen kleinen Aufpreis des VG248QE gegenüber dem Standardmodell sorgen. Alternativ kann der Nutzer auch selbst Hand anlegen.

NVIDIA G-SYNC-Modul

Die Verbindung zwischen GPU und dem G-SYNC-Modul wird dabei über den DisplayPort-Anschluss erstellt. Ein Audio-Signal kann dabei aber dann nicht mehr übertragen werden. Andere Eingänge wie DVI oder HDMI können ebenfalls nicht mehr genutzt werden. NVIDIA sieht in G-SYNC den nächsten Schritt in der Display-Technologie, die über Jahre oder gar Jahrzehnte mehr oder weniger im Stillstand verbracht haben soll.

NVIDIA sieht in G-SYNC eine kleine Revolution und lud deswegen drei bekannte Persönlichkeiten der Gaming-Industrie ein, die sich über G-Sync äußern durften. Zu diesen zählten John Carmack, Programmierer bei Oculus VR, und Tim Sweeney, Kopf von Epic Games. Dass man trotz der starken Zusammenarbeit von AMD und den Battlefield-4-Entwicklern sehr gute Kontakte zu DICE pflegt, zeigte die Anwesendheit von John Andersson,Technical Director bei DICE. 

Update:

Inzwischen nennt NVIDIA weitere Details zu G-SYNC. So hat man die Systemanforderungen veröffentlicht und nennt die nötige Hard- und Software, um G-SYNC verwenden zu können. Auf Seiten der Grafikkarte werden die Modelle GeForce GTX 650 Ti Boost, 660, 660 Ti, 670, 680, 690, 760, 770, 780 und Titan genannt. Sicherlich wird auch die bereits vorgestellte, aber noch nicht erhältliche GeForce GTX 780 Ti G-SYNC unterstützen.

Als kompatibler Monitor wird weiterhin nur der ASUS VG248QE ausgeführt. Als Treiber muss der GeForce 331.58 oder neuer unter Windows 7, 8 oder 8.1 eingesetzt werden. Weiterhin hat man nun auch ein FAQ veröffentlicht, das die wichtigsten Fragen klären soll. Darin werden auch noch einmal die Vorteile und Unterschiede zu V-Sync etc. beschrieben.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (207)

#198
Registriert seit: 11.03.2007
München
Moderator/Redakteur
Beiträge: 18001
Hab das heute jetzt mal angetestet (mit 118fps Frame Limit @ 120 Hz)

Zitat

Quelle: BF3, Possible VSYNC trick? No input lag + frame sync (no tearing).

und kann das größtenteils bestätigen, auch wenn der Input Lag nie ganz verschwindet (außer ohne VSYNC, da fühlt sich die Maus dann 100% smooth an). Daher bleibt VSYNC off und Frame Limit imo die beste Option (kein Inputlag mit wenig Tearing).
#199
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Danke für die Tests @ ralle_h, so wie das aussieht muss man sich fast G-sync anschaffen, um sich wirklich eine Meinung zu bilden.
Ich kann ja das Zeugs dann weiterverkaufen, wenn es sich nicht lohnt.

Hab grade mal mit meiner 7970 DCII in BF3 mit 60 Hertz v-sync und FRamelimiter @ 59 FPS gespielt. Frames immer über 60, zumindest in den Szenen ( hab ca 15minuten gespielt).

War recht geschmeidig, ich seh da eigentlich keinen Bedarf da was nachzurüsten.
#200
Registriert seit: 11.03.2007
München
Moderator/Redakteur
Beiträge: 18001
Wie können die Frames denn mit Limiter auf 59 immer über 60 gewesen sein? :rolleyes:
#201
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Ja nur in der theorie..., das heißt sie fallen nicht unter 59 fps.
#202
Registriert seit: 18.11.2015

Matrose
Beiträge: 20
Ich habe versucht hier eine Antwort zu finden bzw. in google auch, aber irgendwie klappt es nicht.

Folgendes

Wenn ich einen normalen Monitor habe, also bis 60Hz und eine entsprechende Karte hätte die mir relativ konstant 60-70 fps oder gar mehr bietet - macht G Sync Sinn?
Weil ich bekomme mehr Bilder als ich anzeigen lassen kann. Wenn es mehr als 60 sind, verschluckt der Monitor die restlichen oder?
Wenn der Monitor 100Hz, wie z.B. der X34, kann/könnte und G Sync aktiviert wird, bedeutet das, dass mir immer (weil fps ja schwanken) die "richtige" Anzahl angezeigt wird? Macht das überhaupt ab 60+ fps Sinn bzw. merkt man so etwas?

Mir ist das nicht so ganz klar. Was ich verstehe ist, wenn die Karte irgendwo 40-60 FPS schafft, soll die Technik hier Wunder wirken. Bei entsprechend guter Karte, wäre das nicht notwendig (sprich man nimmt eine 980/ti und spielt auf Full HD)

Ich bin gar nicht so empfindlich aber nachdem ich lese "wer einmal G Sync erlebt hat, will es nicht mehr missen", tauchen diese Fragen auf - überhaupt wenn jetzt die Curved 34 Zoll Monitore preislich vielleicht attraktiver werden, stellt sich die Frage ob man mit den "normalen" 60Hz gut bedient ist.


thx
#203
customavatars/avatar117686_1.gif
Registriert seit: 05.08.2009
Heilbronn
Fregattenkapitän
Beiträge: 2727
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.
Mehr wie 144FPS habe ich nicht, da ich dies im Treiber unterbunden habe.

Jedoch kann ich dir soviel sagen, ich hatte Anfang des Jahres ein SLI Gespann aus GTX970ern und den Asus ROG-Swift 27".

G-Sync und FreeSync arbeiten so gut, das du selbst im High-FPS Bereich SICHTBARE Ruhe ins Bild bekommst.
Ich erkenne mittlerweile fast sofort ob ein Bildschirm G/FreeSync hat oder nicht.

Diese Ruhe ist so unfassbar "schön", du willst definitiv nicht mehr ohne!
#204
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 9133
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt? :wall:
Ich will mir nicht einen neuen Monitor kaufen müssen, nur weil ich mal von nvidia zu AMD umsteige oder umgekehrt.

Kann/darf nvidia den Monitor-Herstellern tatsächlich verbieten, einen G-Sync-Monitor herzustellen, der zusätzlich auch FreeSync unterstützt?
Was ist, wenn irgendein chinesischer Herstellter das trotzdem macht? Oder das ganze so konstruiert, dass der Monitor von Werk aus erst einmal nur GSync kann, aber dank einer anderen Firmware (die natürlich nicht selbst und direkt von diesem Hersteller veröffentlicht wird) auch FreeSync-fähig gemacht werden kann?

Mir persönlich reichen übrigens schon konstante, tearing-, inputlag- und ruckelfreie (quasi VSync) 100Hz/100FPS.
Sehe zwischen 100, 120 und 144Hz so gut wie keinen Unterschied (aber sehr wohl einen Unterschied zwischen 60 und 100Hz/FPS)
#205
Registriert seit: 24.06.2015

Banned
Beiträge: 913
Zitat joinski;24138415
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt?


nvidia böse :asthanos:
#206
customavatars/avatar77654_1.gif
Registriert seit: 19.11.2007

Moderator
Beiträge: 1836
Zitat Tzunamik;24137485
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.


-.- dachte freesync macht nur ca. 35-70 fps mit?
oder verwechsle ich da was?
#207
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 9133
Zitat tanuki82;24138543
nvidia böse :asthanos:


Diese Antwort ist mir zu einfach ^^

Wo bleiben die nvidia fanbois? :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Logo von IMAGES/STORIES/2017/GEFORCERTX2080

Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

AMD Radeon RX Vega 64 im mGPU-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

In den letzten Tagen war es so weit. Wir hatten endlich Hard- und Software zusammen, um die Radeon RX Vega 64 im mGPU testen zu können. Zum einen halten wir die ASUS ROG Strix Radeon Vega 64 OC Edition in Händen, zum anderen hat AMD den Radeon Software Crimson ReLive Edition 17.9.2... [mehr]