> > > > Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

DruckenE-Mail
Erstellt am: von

nvidiaNach den ersten Ankündigungen bezüglich einer Game-Development-Plattform sowie einen Ausblick auf das, was zukünftig im mobilen Bereich möglich sein könnte, hat NVIDIA den heutigen Tag seines Events im kanadischen Montreal mit einigen handfesteren Fakten gefüllt. Den Anfang macht G-SYNC. Wir alle kennen die üblichen Wiederholraten der aktuellen Displays, die auf Basis von historischen 60 Hz der Stromversorgung, heute immer wieder für Probleme sorgen.

Drei Bereiche sind von besonderer Wichtigkeit und können je nach Empfinden des Spielers das Spielvergnügen mindern. In unseren Fokus getreten sind diese mit einer neuen Messmethode namens FCAT. Nun lassen sich Tearing, Input-Lag und auch die sogenannten Mikroruckler über Hard- und Software reduzieren, aber den eigentlichen Grund für ihr Auftreten gehen sie nicht an. Zwischenzeitlich versuchte NVIDIA mit dem adaptiven Sync gegenzusteuern - doch auch hier wurden nur die Symptome bekämpft, nicht aber deren Ursache. 

Mit G-SYNC überlässt NVIDIA die Synchronisation von GPU und Display nicht mehr dem Monitor, sondern übernimmt diese Rolle - folglich sprechen nun GPU und G-SYNC miteinander. Entsprechende Monitore sollen zu Beginn des kommenden Jahres verfügbar sein. Das G-SYNC-Modul kann dabei entweder nachträglich eingebaut werden oder ist bereits fester Bestandteil der Elektronik. Die entsprechenden Displays sollen in unterschiedlichen Größen und mit Auflösungen von bis zu 3.840 x 2.160 Pixel verfügbar sein. Bereits gegen Ende des Jahres will NVIDIA einzelne Module anbieten, die dann beispielsweise in einen ASUS VG248QE gesteckt werden können. Da der Monitor diese Möglichkeit nicht von Haus aus ermöglicht, müssen bestimmte Modifikationen vorgenommen werden. Diese dürften für einen kleinen Aufpreis des VG248QE gegenüber dem Standardmodell sorgen. Alternativ kann der Nutzer auch selbst Hand anlegen.

NVIDIA G-SYNC-Modul

Die Verbindung zwischen GPU und dem G-SYNC-Modul wird dabei über den DisplayPort-Anschluss erstellt. Ein Audio-Signal kann dabei aber dann nicht mehr übertragen werden. Andere Eingänge wie DVI oder HDMI können ebenfalls nicht mehr genutzt werden. NVIDIA sieht in G-SYNC den nächsten Schritt in der Display-Technologie, die über Jahre oder gar Jahrzehnte mehr oder weniger im Stillstand verbracht haben soll.

NVIDIA sieht in G-SYNC eine kleine Revolution und lud deswegen drei bekannte Persönlichkeiten der Gaming-Industrie ein, die sich über G-Sync äußern durften. Zu diesen zählten John Carmack, Programmierer bei Oculus VR, und Tim Sweeney, Kopf von Epic Games. Dass man trotz der starken Zusammenarbeit von AMD und den Battlefield-4-Entwicklern sehr gute Kontakte zu DICE pflegt, zeigte die Anwesendheit von John Andersson,Technical Director bei DICE. 

Update:

Inzwischen nennt NVIDIA weitere Details zu G-SYNC. So hat man die Systemanforderungen veröffentlicht und nennt die nötige Hard- und Software, um G-SYNC verwenden zu können. Auf Seiten der Grafikkarte werden die Modelle GeForce GTX 650 Ti Boost, 660, 660 Ti, 670, 680, 690, 760, 770, 780 und Titan genannt. Sicherlich wird auch die bereits vorgestellte, aber noch nicht erhältliche GeForce GTX 780 Ti G-SYNC unterstützen.

Als kompatibler Monitor wird weiterhin nur der ASUS VG248QE ausgeführt. Als Treiber muss der GeForce 331.58 oder neuer unter Windows 7, 8 oder 8.1 eingesetzt werden. Weiterhin hat man nun auch ein FAQ veröffentlicht, das die wichtigsten Fragen klären soll. Darin werden auch noch einmal die Vorteile und Unterschiede zu V-Sync etc. beschrieben.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (207)

#198
Registriert seit: 11.03.2007

Moderator/Redakteur
Beiträge: 13920
Hab das heute jetzt mal angetestet (mit 118fps Frame Limit @ 120 Hz)

Zitat

Quelle: BF3, Possible VSYNC trick? No input lag + frame sync (no tearing).

und kann das größtenteils bestätigen, auch wenn der Input Lag nie ganz verschwindet (außer ohne VSYNC, da fühlt sich die Maus dann 100% smooth an). Daher bleibt VSYNC off und Frame Limit imo die beste Option (kein Inputlag mit wenig Tearing).
#199
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Danke für die Tests @ ralle_h, so wie das aussieht muss man sich fast G-sync anschaffen, um sich wirklich eine Meinung zu bilden.
Ich kann ja das Zeugs dann weiterverkaufen, wenn es sich nicht lohnt.

Hab grade mal mit meiner 7970 DCII in BF3 mit 60 Hertz v-sync und FRamelimiter @ 59 FPS gespielt. Frames immer über 60, zumindest in den Szenen ( hab ca 15minuten gespielt).

War recht geschmeidig, ich seh da eigentlich keinen Bedarf da was nachzurüsten.
#200
Registriert seit: 11.03.2007

Moderator/Redakteur
Beiträge: 13920
Wie können die Frames denn mit Limiter auf 59 immer über 60 gewesen sein? :rolleyes:
#201
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Ja nur in der theorie..., das heißt sie fallen nicht unter 59 fps.
#202
Registriert seit: 18.11.2015

Matrose
Beiträge: 20
Ich habe versucht hier eine Antwort zu finden bzw. in google auch, aber irgendwie klappt es nicht.

Folgendes

Wenn ich einen normalen Monitor habe, also bis 60Hz und eine entsprechende Karte hätte die mir relativ konstant 60-70 fps oder gar mehr bietet - macht G Sync Sinn?
Weil ich bekomme mehr Bilder als ich anzeigen lassen kann. Wenn es mehr als 60 sind, verschluckt der Monitor die restlichen oder?
Wenn der Monitor 100Hz, wie z.B. der X34, kann/könnte und G Sync aktiviert wird, bedeutet das, dass mir immer (weil fps ja schwanken) die "richtige" Anzahl angezeigt wird? Macht das überhaupt ab 60+ fps Sinn bzw. merkt man so etwas?

Mir ist das nicht so ganz klar. Was ich verstehe ist, wenn die Karte irgendwo 40-60 FPS schafft, soll die Technik hier Wunder wirken. Bei entsprechend guter Karte, wäre das nicht notwendig (sprich man nimmt eine 980/ti und spielt auf Full HD)

Ich bin gar nicht so empfindlich aber nachdem ich lese "wer einmal G Sync erlebt hat, will es nicht mehr missen", tauchen diese Fragen auf - überhaupt wenn jetzt die Curved 34 Zoll Monitore preislich vielleicht attraktiver werden, stellt sich die Frage ob man mit den "normalen" 60Hz gut bedient ist.


thx
#203
Registriert seit: 05.08.2009
Neckarsulm
Korvettenkapitän
Beiträge: 2383
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.
Mehr wie 144FPS habe ich nicht, da ich dies im Treiber unterbunden habe.

Jedoch kann ich dir soviel sagen, ich hatte Anfang des Jahres ein SLI Gespann aus GTX970ern und den Asus ROG-Swift 27".

G-Sync und FreeSync arbeiten so gut, das du selbst im High-FPS Bereich SICHTBARE Ruhe ins Bild bekommst.
Ich erkenne mittlerweile fast sofort ob ein Bildschirm G/FreeSync hat oder nicht.

Diese Ruhe ist so unfassbar "schön", du willst definitiv nicht mehr ohne!
#204
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 8860
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt? :wall:
Ich will mir nicht einen neuen Monitor kaufen müssen, nur weil ich mal von nvidia zu AMD umsteige oder umgekehrt.

Kann/darf nvidia den Monitor-Herstellern tatsächlich verbieten, einen G-Sync-Monitor herzustellen, der zusätzlich auch FreeSync unterstützt?
Was ist, wenn irgendein chinesischer Herstellter das trotzdem macht? Oder das ganze so konstruiert, dass der Monitor von Werk aus erst einmal nur GSync kann, aber dank einer anderen Firmware (die natürlich nicht selbst und direkt von diesem Hersteller veröffentlicht wird) auch FreeSync-fähig gemacht werden kann?

Mir persönlich reichen übrigens schon konstante, tearing-, inputlag- und ruckelfreie (quasi VSync) 100Hz/100FPS.
Sehe zwischen 100, 120 und 144Hz so gut wie keinen Unterschied (aber sehr wohl einen Unterschied zwischen 60 und 100Hz/FPS)
#205
Registriert seit: 24.06.2015

Banned
Beiträge: 913
Zitat joinski;24138415
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt?


nvidia böse :asthanos:
#206
customavatars/avatar77654_1.gif
Registriert seit: 19.11.2007

Moderator
Beiträge: 1614
Zitat Tzunamik;24137485
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.


-.- dachte freesync macht nur ca. 35-70 fps mit?
oder verwechsle ich da was?
#207
customavatars/avatar31443_1.gif
Registriert seit: 15.12.2005
Hamburg
Admiral
Beiträge: 8860
Zitat tanuki82;24138543
nvidia böse :asthanos:


Diese Antwort ist mir zu einfach ^^

Wo bleiben die nvidia fanbois? :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]