> > > > NVIDIAs G-Sync in der Theorie und erste Praxis-Erfahrungen

NVIDIAs G-Sync in der Theorie und erste Praxis-Erfahrungen

DruckenE-Mail
Erstellt am: von

nvidiaAm vergangenen Freitag löste NVIDIA mit seiner neuen G-Sync-Technologie ein Jahrzehnte lang existierendes Problem, das immer wieder zu Tearing, Rucklern und langsamen Reaktionszeiten bei der Bildausgabe auf den Bildschirm führte. Zwar hat man in den letzten Jahren Grafik, Performance und damit das Spielerlebnis kräftig nach oben geschraubt, doch die lang existierenden Probleme, die bei vielen Gamern das Erlebnis wieder etwas gemindert haben dürfte, hat man bislang nicht aus der Welt geschafft. Um zu verstehen, wie NVIDIA die Probleme von Tearing und Rucklern lösen konnte, muss man erst einmal deren Ursachen erkunden.

Aus alten Relikten ist heute die Bildwiederholungsrate von Monitoren, also die Anzahl der Einzelbilder, die pro Sekunde auf einen Monitor gezeichnet werden kann, meist fest auf 60, 120 oder 144 Hz gestellt. Grafikkarten rendern die Bilder allerdings mit ständig wechselnden Bildfrequenzen, die dann mit dem Monitor immer wieder abgeglichen werden müssen. Hat man die Bildwiederholrate auf 60 Hz gestellt, dann sollte die Grafikkarte im Optimalfall eine Bildrate von 60 FPS an den Monitor liefern, damit Bildausgabe und Bildzeichnung synchron verlaufen können. In der Praxis ist das aber selten der Fall, da jede Spielszene unterschiedliche Anforderungen bei der Berechnung an die Grafikkarte stellt und deren Performance damit unterschiedlich ausfällt.

Liefert die Grafikkarte mehr Bilder an den Monitor als dieser verarbeiten kann, kommt es zum störenden Tearing-Effekt. Ein neues Frame wird an den Monitor geschickt, obwohl das aktuell zu zeichnende Bild noch nicht fertig angezeigt wurde. Die Folge ist eine Bildausgabe mit einer horizontalen Teilung. Das obere Bild ist das ältere, das untere hingegen schon das neue bzw. nächste. Das Bild wirkt „zerrissen“.

nvidia tearing
Tearing ohne Ruckler gehört dank G-Sync bei NVIDIA zur Vergangenheit an.

Tearing lässt sich durch den Einsatz von V-Sync verhindern. Ist die vertikale Synchronisation aktiviert, wird die Aktualisierung der Bilddaten verhindert, während der Bildschirm das Frame noch aufbaut. Erst wenn die Übertragung eines kompletten Bildes beendet ist, wird zum nächsten gewechselt. Bei eingeschalteter V-Sync werden damit nur komplette Bilder übertragen. Fällt jedoch die Performance unterhalb der Bildwiederholfrequenz des Monitors, werden Bilder doppelt dargestellt – das Spiel ruckelt.

Spieler standen also bislang vor der Wahl, V-Sync zu deaktivieren, dafür schnelle Input-Response-Zeiten, aber zerrissene Bilder zu haben, oder aber V-Sync zu aktiveren mit möglichen Rucklern. Tearing, Lags und Stutter lassen sich softwareseitig nicht beheben, vielmehr muss die Hardware angepasst werden.

Monitor richtet sich nach der Grafikkarte

Das hat NVIDIA mit G-Sync nun getan. Die Lösung des Problems ist eigentlich ganz simpel: Eine variable Refresh-Rate. Die Bildwiederholraten des Monitors werden mit den Bildfrequenzen der Grafikkarte synchronisiert. Die Grafikkarte soll sich nicht mehr nach dem Monitor richten, sondern umgekehrt. Sinkt die Framerate der Grafikkarte, wird automatisch die Widerholrate des Monitors auf das gleiche Level abgesenkt, so dass immer nur komplette Bilder ausgegeben werden und so Tearing und Ruckler verhindert und die Reaktionszeit verbessert werden.

In Montreal zeigten die Kalifornier G-Sync in Aktion – im Direktvergleich mit einem normalen Monitor und wahlweise mit oder deaktiviertem V-Sync. Die Unterschiede zwischen den beiden Systemen waren bemerkenswert – gezeigt wurden die Effekte nicht nur in einer NVIDIA-eigenen Demo, sondern auch in Tomb Raider. Das Spielerlebnis verbessert sich durch G-Sync nach unserem Empfinden tatsächlich um Welten. Allerdings sollte man sich von G-Sync live ein Bild machen, denn aufgrund der unterschiedlichen Bildwiederholfrequenzen aktueller Foto- und Videokameras lassen sich die Effekte nicht in Bewegtbild optimal wiedergeben.

Der Erfolg von G-Sync hängt allein davon ab, wie viele Monitor-Hersteller die neuen Module verbauen und ob NVIDIA diese auch an andere Hersteller weitergibt. Zwar haben mit ASUS, BenQ, Philips und Viewsonic die ersten Hersteller entsprechende Geräte für das erste Quartal 2014 angekündigt, doch benötigt man dafür auch eine NVIDIA-Grafikkarte der „Kepler“-Generation ab der GeForce GTX 650 Ti Boost. Andere Monitore lassen sich mit einem separat erhältlichen Upgrade-Kit nachrüsten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (22)

#13
customavatars/avatar167178_1.gif
Registriert seit: 28.12.2011

Bootsmann
Beiträge: 669
Zitat REDFROG;21297404
Moment...es gibt Spieler die Tearing sowie Inputlag nicht erkennen? Das hast du dir jetzt aber ausgedacht......


äh, *meld*

Also wenn ich mich ganz stark drauf konzentriere, und extra Szenen auswähle wo Tearing auftritt, dann fällt es mir auch auf. Aber im ganz normalen Spielbetrieb merke ich eigentlich fast nie Tearing, Inputlag oder derartiges. Ich sehe auch nichtmal eine deutliche Verbesserung bei 120Hz insgesamt vom Bild her (hatte 120Hz ein paar Wochen getestet, dann Monitor wieder verkauft)

Hat aber auch seine Vorteile, man kann Details aufdrehen, hängt dann bei 60FPS rum, in manchen wenigen Spielen (Crysis 3) auf mal Framedrops auf 40FPS, aber stört einem nicht ^^
#14
customavatars/avatar150117_1.gif
Registriert seit: 12.02.2011
Baden Württemberg
Kapitänleutnant
Beiträge: 1536
Zitat Artikel
denn aufgrund der unterschiedlichen Bildwiederholfrequenzen aktueller Foto- und Videokameras lassen sich die Effekte nicht in Bewegtbild optimal wiedergeben.

Auch nicht mit 1000fps Videokameras?

PS: Ich hab jetzt auch beim dritten mal hinschauen keine erste Praxis Erfahrung herauslesen können.
#15
customavatars/avatar15003_1.gif
Registriert seit: 06.11.2004
Hannover
Flottillenadmiral
Beiträge: 4875
Wieder ein Problem von dem man erst gehoert haben muss um es zu haben... mit Tearing in der Form wie dargestellt habe ich schon seit Jahren keine Probleme mehr. Trotzdem ein zu begruessende Entwicklung sofern die Hardware nicht ueberteuert wird. Besser waere aus meiner Sicht ein Industriestandard..
#16
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3410
Zitat Novastar;21297297
Manche Leute sehen Tearing, manche nicht. Manche Leute erkennen die Latenz bei V-Synch, manche nicht. Für Leute, auf die beides zutrifft, ist dieses Feature wie geschaffen.
Außerdem eliminiert es das Problem, dass bei V-Synch die FPS auf einen festen Faktor fallen. (60 FPS, 30, 20, 15, ...)

Insgesamt bin ich mir recht sicher, dass "bald" jeder Monitor dies unterstützt. Solange Nvidia da nicht mit Patenten und so einem Bullshit rumfuchtelt, wird AMD diese Funktion auch in nächster Zeit übernehmen. (Was erfreulich sein wird.)


Dann würde ich es auch nicht kaufen wenn Nvidia patente drauflegt, 85Hz reicht bei einen aktuellen IPS Monitor.
#17
Registriert seit: 24.05.2012
Ilmenau
Kapitänleutnant
Beiträge: 1953
Da das sowieso wieder nur in "Gamer"-Monitoren mit unbrauchbaren TN-Panels verbaut wird, habe ich eh kein Interesse.
Das Marketing-Getue ist bei den "Gaming"-Monitoren eh am schlimmsten. Ein winziger Bruchteil der normalen Zocker dürfte den Unterschied zwischen einem ordentlichen IPS/VA-Monitor und einem Gaming-Teil wirklich als störend empfinden. Kenne niemanden, der sich bis jetzt auch nur ansatzweise über sowas beschwert hat, nichtmal bei meinen saulahmen 25ms VA-Monitoren (gut, sie schlieren stark, sind aber auch uralt). Das ist so hohes Niveau, das merkt der Standard-Zocker eh nicht mehr. Da sind Gaming-Mäuse und Tastaturen, die wirklich ergonomischer sind und echte Vorteile bringen, wesentlich sinnvoller.

Naja, irgendwie muss man ja die Grakas an den Mann bringen, wenn die Mehrleistung keinen mehr vom Hocker haut. Einzig sinnvoll fand ich jetzt das Aufnahme-feature, mit den 20min zurückspulen. Das ist ein echter Mehrwert.
Dieses Shield-Streaming ist ein nettes Spielzeug, aber mehr als Ausprobieren aus Neugier kann ich mir da auch kaum vorstellen. Warum sollte ich auf so einem Winz-Ding zocken, wenn ich eh am Rechner hocken kann? Das TV-Stream Feature ist wieder sinnvoll.

OK, bissel viel OT, sry ;)
#18
customavatars/avatar75855_1.gif
Registriert seit: 29.10.2007
München
Flottillenadmiral
Beiträge: 6082
Zitat Novastar;21297297
Manche Leute sehen Tearing, manche nicht. Manche Leute erkennen die Latenz bei V-Synch, manche nicht. Für Leute, auf die beides zutrifft, ist dieses Feature wie geschaffen.
Außerdem eliminiert es das Problem, dass bei V-Synch die FPS auf einen festen Faktor fallen. (60 FPS, 30, 20, 15, ...)

Insgesamt bin ich mir recht sicher, dass "bald" jeder Monitor dies unterstützt. Solange Nvidia da nicht mit Patenten und so einem Bullshit rumfuchtelt, wird AMD diese Funktion auch in nächster Zeit übernehmen. (Was erfreulich sein wird.)


Ich zocke viel ohne VSync und mir fällt das Tearing selten nennenswert auf. Im übrigen auf dem Dell 2408WFP mit S-PVA Panel. 6 ms G2G und lt. vielen Test einen recht krassen Inputlag von ~60 ms. Komme im allgemeinen gut damit klar, habe allerdings bei wirklich schnellen Shootern im LAN durchaus hin und wieder das Gefühl dass es mir an Reaktionszeit fehlt. Keine Ahnung ob's am TFT liegt oder an mir.
Schlieren tut der eigentlich nicht, das übersteuern von meinem Fujitsu P24W-5 ECO ist deutlich störender.

Ich finde es allerdings grundsätzlich eine nicht allzu blöde Idee von festen Refreshrates weg zu kommen und das Display bei Bedarf nach der Pfeife der GPU tanzen zu lassen statt umgekehrt.
Auf dem Windows-Desktop wird das natürlich eher nicht notwendig sein und irgendwo wird es technisch bedingt auch eine Obergrenze geben.

Zitat hollomen;21300152
Wieder ein Problem von dem man erst gehoert haben muss um es zu haben... mit Tearing in der Form wie dargestellt habe ich schon seit Jahren keine Probleme mehr. Trotzdem ein zu begruessende Entwicklung sofern die Hardware nicht ueberteuert wird. Besser waere aus meiner Sicht ein Industriestandard..


Auf alle Fälle wäre ein offener Industriestandard wünschenswert. Gerade auch kostenmäßig.
Andererseits stelle ich mir auch die Frage ob ein Industriestandard ohne Zwang zustande gekommen wäre. Manchmal geht es wesentlich schneller wenn eine Firma damit anfängt und zeigt dass die Kunden das wirklich kaufen. Ob's so kommt werden wir sehen.

Zitat SynergyCore;21301819
Da das sowieso wieder nur in "Gamer"-Monitoren mit unbrauchbaren TN-Panels verbaut wird, habe ich eh kein Interesse.
Das Marketing-Getue ist bei den "Gaming"-Monitoren eh am schlimmsten. Ein winziger Bruchteil der normalen Zocker dürfte den Unterschied zwischen einem ordentlichen IPS/VA-Monitor und einem Gaming-Teil wirklich als störend empfinden. Kenne niemanden, der sich bis jetzt auch nur ansatzweise über sowas beschwert hat, nichtmal bei meinen saulahmen 25ms VA-Monitoren (gut, sie schlieren stark, sind aber auch uralt). Das ist so hohes Niveau, das merkt der Standard-Zocker eh nicht mehr. Da sind Gaming-Mäuse und Tastaturen, die wirklich ergonomischer sind und echte Vorteile bringen, wesentlich sinnvoller.


Ja. Wir werden sehen wo das verbaut wird, aber diese Befürchtung teile ich.
Ich würde mich ja durchaus mal auf das Experiment 120 Hz einlassen und ein TFT mit deutlich weniger Inputlag würde mich wenigstens Testhalber auch mal neugierig machen, allerdings will ich mich ebenfalls nicht auf TN einlassen. Ich empfinde ja IPS schon als Rückschritt :D

Eigentlich war meine Hoffnung ja dass es IPS auch mal in Richtung 120 Hz schafft (sofern es denn wirklich was bringt). Andererseits würde ich auch gerne wieder mehr PVA Monitore auf dem Markt sehen.
Vielleicht bringt OLED ja die Erlösung aus dieser Zwickmühle, mal sehen wie die sich technisch machen und ob da im PC Bereich überhaupt was kommt.
Im Übrigen langweilt mich FullHD. Zum Glück ist 4k im Anmarsch, eine würdige Auflösung am PC ist überfällig, das musste uns unbedingt Apple zeigen.

Angesichts dieser vielen anstehenden technischen Neuerungen ist aktuell ein schlechter Zeitpunkt zum Kauf eines Displays.
#19
Registriert seit: 13.09.2008
Oben uff'm Speischer
Fregattenkapitän
Beiträge: 3046
Ich sehe das eher skeptisch... genau wie AMDs "Mantle". Es scheint, als ob beide Hersteller zu dem Ergebnis gekommen sind, dass sie sich allein von der Leistung untereinander nicht mehr differenzieren können - dann müssen es eben proprietäre Features und Schnittstellen richten.

2014 wird dann also das Jahr, in dem man auf AMD-Grafikkarten Spiel A schlecht und Spiel B gut spielen kann, auf Nvidia-Grafikkarten dafür Spiel A normal und Spiel B überhaupt nicht, dafür aber Spiel C besonders gut, aber nur, wenn man einen Bildschirm von ASUS kauft...

Eine Revolution im Grafiksektor ist keine der beiden Techniken, bevor sie nicht herstellerübergreifend unterstützt wird. Als Exklusivfeature sind sie nur das, Exklusivfeatures eben, die nur von einem geringen Teil des Gesamtmarktes überhaupt genutzt werden können.

Ich werde mir ganz sicherlich nicht allein auf Nvidia's Wunsch hin einen neuen Bildschirm anschaffen, genauso wie ich nicht für ein einziges interessantes Spiel umbedingt die GCN-Architektur brauche. Als Kunde möchte ich möchte ein System haben, das für alle Situationen geeignet ist!



EDIT: Ach übrigens, laut Anandtech kostet das G-Sync Modul allein zur Einführung schon deutlich über $100, da es als Langzeit-Ziel definiert wird, den Preis unter diesen Punkt zu drücken. Man kann also anfänglich wahrscheinlich von $149 bis $199 MSRP ausgehen, was wie üblich für den US-Markt ohne Mehrwertsteuer angegeben wird, und demnach mehr oder weniger Eins zu Eins in Euro-Preise (inkl. Mehrwertsteuer) umgerechnet werden kann.

Da muss sich Nvidia durchaus die Frage gefallen lassen, ob man nicht durch Mehrinvestition dieser Summe in eine bessere Grafikkarte das Problem genausogut lösen kann, da hohe FPS-Zahlen es erst gar nicht auftreten lassen (wie die auf der Veranstaltung gezeigten Demos bezeugen).
#20
Registriert seit: 29.10.2005

Obergefreiter
Beiträge: 112
Man kann nur hoffen, dass G-Sync bald auch bei Videos funktioniert. Dann wäre es nämlich egal ob das Video 30fps oder 25 oder auch 24fps hat.
Gut AMD kann das ja schon bei Volbildvideos.

Zu den Skeptikern, die meinen eine bessere Grafikkarte würde da mehr bringen. Das ist schon richtig, aber einen Monitor habe ich normalerweise länger als eine Grafikkarte. Das heißt einmal investiert und man hat erstmal Ruhe. Zudem vermute ich mal, dass die Technik nicht besonders teuer ist. Vielleicht hält sie dann auf in günstigen Monitoren Einzug.
#21
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3410
Zitat hellsfoul;21302564
Man kann nur hoffen, dass G-Sync bald auch bei Videos funktioniert. Dann wäre es nämlich egal ob das Video 30fps oder 25 oder auch 24fps hat.
Gut AMD kann das ja schon bei Volbildvideos.

Zu den Skeptikern, die meinen eine bessere Grafikkarte würde da mehr bringen. Das ist schon richtig, aber einen Monitor habe ich normalerweise länger als eine Grafikkarte. Das heißt einmal investiert und man hat erstmal Ruhe. Zudem vermute ich mal, dass die Technik nicht besonders teuer ist. Vielleicht hält sie dann auf in günstigen Monitoren Einzug.


Ich hab eine Grafikkarte länger als Monitor.
#22
customavatars/avatar116788_1.gif
Registriert seit: 20.07.2009

Bootsmann
Beiträge: 580
bei für Gaming geeigneten Panels habe ich in all den JAhren noch NIE einen tearing effekt zu gesicht bekommen :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Acer Predator Z35 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/ACER_Z35/ACER_Z35-TEASER_KLEIN

Der Acer Predator Z35 bietet nicht nur eine große Diagonale von 35 Zoll, sondern auch eine starke Krümmung und G-Sync-Support. Ob das reicht um der einschlägig bekannten Gaming-Konkurrenz das Leben schwer zu machen, klären wir in unserem Test. Acer bietet mit dem Predator X34 ein absolutes... [mehr]

ASUS ROG PG348Q mit 100 Hz und Curved-Screen im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/ASUS_PG348/ASUS_PG348-TEASER

ASUS hat mit dem neuen ROG PG348 ein 34-Zoll-Gaming-Display im Programm, das zumindest auf dem Papier alles richtigmacht. Nicht nur, dass eine geschwungene Oberfläche zum Einsatz kommt, es werden auch G-Sync und maximal 100 Hz sowie zahlreiche weitere Gaming-Features geboten. Ob das neueste... [mehr]

LG 27UD88-W im Test - 4K-Display mit Typ-C-Anschluss und FreeSync

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/LG_27UD88W/LG_27UD88-TEASER

Hohe Auflösungen sind ein klarer und auch sinnvoller Trend bei Displays, sorgen sie doch nicht nur für viel Platz auf dem Desktop, sondern auch für eine scharfe Darstellung. Entsprechend spendiert LG seinem aktuellen 27-Zöller 27UD88-W ein 4K-Panel, hat gleichzeitig aber noch ein anderes... [mehr]

LG 34UC98-W mit Thunderbolt-Hub und starker Krümmung im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/LG_34UC98W/LG_34UC98W_TEASER_KLEIN

Auf der CES werden nicht nur nur neue Fernseher, Notebooks, Autostudien und Kühlschränke vorgestellt, sondern auch neue Displays. Eine der diesjährigen Neuvorstellungen war der LG 34UC98-W, ein 34-Zoll-Monitor, der nicht nur mit einer geschwungenen Oberfläche aufwarten kann, sondern mit einer... [mehr]

Display FAQ - Alles was man zu Monitoren wissen muss

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/DISPLAYFAQ/LG_34UC98_TEASER

In Kooperation mit LG Die Anschaffung eines neuen Monitors will gut durchdacht sein. In unserer in Kooperation mit LG realisierten großen Display-FAQ vermitteln wir ein umfangreiches Wissen zu allen wichtigen Features aktueller Monitore. So geht beim nächsten Monitor-Kauf sicherlich nichts... [mehr]

Lesertest mit ASUS: Testet den FreeSync-Monitor MG248Q

Logo von IMAGES/STORIES/LOGOS-2015/ASUS

Mit dem MG248Q hatte ASUS erst vor wenigen Tagen einen neuen Gaming-Monitor auf den Markt gebracht, schon dürfen sich unsere Leser und Community-Mitglieder ans Testen machen. In Zusammenarbeit mit ASUS suchen wir ab sofort zwei fleißige Tester, die sich den neuen 24-Zöller näher ansehen wollen.... [mehr]