> > > > Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Veröffentlicht am: von

nvidiaNach den ersten Ankündigungen bezüglich einer Game-Development-Plattform sowie einen Ausblick auf das, was zukünftig im mobilen Bereich möglich sein könnte, hat NVIDIA den heutigen Tag seines Events im kanadischen Montreal mit einigen handfesteren Fakten gefüllt. Den Anfang macht G-SYNC. Wir alle kennen die üblichen Wiederholraten der aktuellen Displays, die auf Basis von historischen 60 Hz der Stromversorgung, heute immer wieder für Probleme sorgen.

Drei Bereiche sind von besonderer Wichtigkeit und können je nach Empfinden des Spielers das Spielvergnügen mindern. In unseren Fokus getreten sind diese mit einer neuen Messmethode namens FCAT. Nun lassen sich Tearing, Input-Lag und auch die sogenannten Mikroruckler über Hard- und Software reduzieren, aber den eigentlichen Grund für ihr Auftreten gehen sie nicht an. Zwischenzeitlich versuchte NVIDIA mit dem adaptiven Sync gegenzusteuern - doch auch hier wurden nur die Symptome bekämpft, nicht aber deren Ursache. 

Mit G-SYNC überlässt NVIDIA die Synchronisation von GPU und Display nicht mehr dem Monitor, sondern übernimmt diese Rolle - folglich sprechen nun GPU und G-SYNC miteinander. Entsprechende Monitore sollen zu Beginn des kommenden Jahres verfügbar sein. Das G-SYNC-Modul kann dabei entweder nachträglich eingebaut werden oder ist bereits fester Bestandteil der Elektronik. Die entsprechenden Displays sollen in unterschiedlichen Größen und mit Auflösungen von bis zu 3.840 x 2.160 Pixel verfügbar sein. Bereits gegen Ende des Jahres will NVIDIA einzelne Module anbieten, die dann beispielsweise in einen ASUS VG248QE gesteckt werden können. Da der Monitor diese Möglichkeit nicht von Haus aus ermöglicht, müssen bestimmte Modifikationen vorgenommen werden. Diese dürften für einen kleinen Aufpreis des VG248QE gegenüber dem Standardmodell sorgen. Alternativ kann der Nutzer auch selbst Hand anlegen.

NVIDIA G-SYNC-Modul

Die Verbindung zwischen GPU und dem G-SYNC-Modul wird dabei über den DisplayPort-Anschluss erstellt. Ein Audio-Signal kann dabei aber dann nicht mehr übertragen werden. Andere Eingänge wie DVI oder HDMI können ebenfalls nicht mehr genutzt werden. NVIDIA sieht in G-SYNC den nächsten Schritt in der Display-Technologie, die über Jahre oder gar Jahrzehnte mehr oder weniger im Stillstand verbracht haben soll.

NVIDIA sieht in G-SYNC eine kleine Revolution und lud deswegen drei bekannte Persönlichkeiten der Gaming-Industrie ein, die sich über G-Sync äußern durften. Zu diesen zählten John Carmack, Programmierer bei Oculus VR, und Tim Sweeney, Kopf von Epic Games. Dass man trotz der starken Zusammenarbeit von AMD und den Battlefield-4-Entwicklern sehr gute Kontakte zu DICE pflegt, zeigte die Anwesendheit von John Andersson,Technical Director bei DICE. 

Update:

Inzwischen nennt NVIDIA weitere Details zu G-SYNC. So hat man die Systemanforderungen veröffentlicht und nennt die nötige Hard- und Software, um G-SYNC verwenden zu können. Auf Seiten der Grafikkarte werden die Modelle GeForce GTX 650 Ti Boost, 660, 660 Ti, 670, 680, 690, 760, 770, 780 und Titan genannt. Sicherlich wird auch die bereits vorgestellte, aber noch nicht erhältliche GeForce GTX 780 Ti G-SYNC unterstützen.

Als kompatibler Monitor wird weiterhin nur der ASUS VG248QE ausgeführt. Als Treiber muss der GeForce 331.58 oder neuer unter Windows 7, 8 oder 8.1 eingesetzt werden. Weiterhin hat man nun auch ein FAQ veröffentlicht, das die wichtigsten Fragen klären soll. Darin werden auch noch einmal die Vorteile und Unterschiede zu V-Sync etc. beschrieben.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (207)

#198
Registriert seit: 11.03.2007

Moderator/Redakteur
Beiträge: 15210
Hab das heute jetzt mal angetestet (mit 118fps Frame Limit @ 120 Hz)

Zitat

Quelle: BF3, Possible VSYNC trick? No input lag + frame sync (no tearing).

und kann das größtenteils bestätigen, auch wenn der Input Lag nie ganz verschwindet (außer ohne VSYNC, da fühlt sich die Maus dann 100% smooth an). Daher bleibt VSYNC off und Frame Limit imo die beste Option (kein Inputlag mit wenig Tearing).
#199
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Danke für die Tests @ ralle_h, so wie das aussieht muss man sich fast G-sync anschaffen, um sich wirklich eine Meinung zu bilden.
Ich kann ja das Zeugs dann weiterverkaufen, wenn es sich nicht lohnt.

Hab grade mal mit meiner 7970 DCII in BF3 mit 60 Hertz v-sync und FRamelimiter @ 59 FPS gespielt. Frames immer über 60, zumindest in den Szenen ( hab ca 15minuten gespielt).

War recht geschmeidig, ich seh da eigentlich keinen Bedarf da was nachzurüsten.
#200
Registriert seit: 11.03.2007

Moderator/Redakteur
Beiträge: 15210
Wie können die Frames denn mit Limiter auf 59 immer über 60 gewesen sein? :rolleyes:
#201
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Ja nur in der theorie..., das heißt sie fallen nicht unter 59 fps.
#202
Registriert seit: 18.11.2015

Matrose
Beiträge: 20
Ich habe versucht hier eine Antwort zu finden bzw. in google auch, aber irgendwie klappt es nicht.

Folgendes

Wenn ich einen normalen Monitor habe, also bis 60Hz und eine entsprechende Karte hätte die mir relativ konstant 60-70 fps oder gar mehr bietet - macht G Sync Sinn?
Weil ich bekomme mehr Bilder als ich anzeigen lassen kann. Wenn es mehr als 60 sind, verschluckt der Monitor die restlichen oder?
Wenn der Monitor 100Hz, wie z.B. der X34, kann/könnte und G Sync aktiviert wird, bedeutet das, dass mir immer (weil fps ja schwanken) die "richtige" Anzahl angezeigt wird? Macht das überhaupt ab 60+ fps Sinn bzw. merkt man so etwas?

Mir ist das nicht so ganz klar. Was ich verstehe ist, wenn die Karte irgendwo 40-60 FPS schafft, soll die Technik hier Wunder wirken. Bei entsprechend guter Karte, wäre das nicht notwendig (sprich man nimmt eine 980/ti und spielt auf Full HD)

Ich bin gar nicht so empfindlich aber nachdem ich lese "wer einmal G Sync erlebt hat, will es nicht mehr missen", tauchen diese Fragen auf - überhaupt wenn jetzt die Curved 34 Zoll Monitore preislich vielleicht attraktiver werden, stellt sich die Frage ob man mit den "normalen" 60Hz gut bedient ist.


thx
#203
customavatars/avatar117686_1.gif
Registriert seit: 05.08.2009
HN-Lauffen
Fregattenkapitän
Beiträge: 2671
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.
Mehr wie 144FPS habe ich nicht, da ich dies im Treiber unterbunden habe.

Jedoch kann ich dir soviel sagen, ich hatte Anfang des Jahres ein SLI Gespann aus GTX970ern und den Asus ROG-Swift 27".

G-Sync und FreeSync arbeiten so gut, das du selbst im High-FPS Bereich SICHTBARE Ruhe ins Bild bekommst.
Ich erkenne mittlerweile fast sofort ob ein Bildschirm G/FreeSync hat oder nicht.

Diese Ruhe ist so unfassbar "schön", du willst definitiv nicht mehr ohne!
#204
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 9055
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt? :wall:
Ich will mir nicht einen neuen Monitor kaufen müssen, nur weil ich mal von nvidia zu AMD umsteige oder umgekehrt.

Kann/darf nvidia den Monitor-Herstellern tatsächlich verbieten, einen G-Sync-Monitor herzustellen, der zusätzlich auch FreeSync unterstützt?
Was ist, wenn irgendein chinesischer Herstellter das trotzdem macht? Oder das ganze so konstruiert, dass der Monitor von Werk aus erst einmal nur GSync kann, aber dank einer anderen Firmware (die natürlich nicht selbst und direkt von diesem Hersteller veröffentlicht wird) auch FreeSync-fähig gemacht werden kann?

Mir persönlich reichen übrigens schon konstante, tearing-, inputlag- und ruckelfreie (quasi VSync) 100Hz/100FPS.
Sehe zwischen 100, 120 und 144Hz so gut wie keinen Unterschied (aber sehr wohl einen Unterschied zwischen 60 und 100Hz/FPS)
#205
Registriert seit: 24.06.2015

Banned
Beiträge: 913
Zitat joinski;24138415
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt?


nvidia böse :asthanos:
#206
customavatars/avatar77654_1.gif
Registriert seit: 19.11.2007

Moderator
Beiträge: 1780
Zitat Tzunamik;24137485
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.


-.- dachte freesync macht nur ca. 35-70 fps mit?
oder verwechsle ich da was?
#207
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 9055
Zitat tanuki82;24138543
nvidia böse :asthanos:


Diese Antwort ist mir zu einfach ^^

Wo bleiben die nvidia fanbois? :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]