TEST

AMD Radeon RX Vega 64 und RX Vega 56 im Test - FreeSync vs. G-Sync

Portrait des Authors


Werbung

Rund um die Veröffentlichung der Radeon RX Vega und das zu erwartende Leistungsniveau entbrannte eine Diskussion über die Synchronisierungstechniken FreeSync und G-Sync. FreeSync ist für AMD ein entscheidender Bestandteil fürs Gaming, auch weil trotz immer höherer Leistung der Grafikkarten nicht immer eine bestimmte Mindest-FPS gehalten werden kann. Auch die GeForce GTX 1080 Ti kommt mit 3.840 x 2.160 Pixel ins Schwitzen, der Radeon RX Vega 64 geht es aufgrund der zu erwartenden Leistung nicht anders. FreeSync und G-Sync haben sich inzwischen etabliert, doch noch immer tauchen Fragen dazu auf, die wir nun klären wollen.

Kein Stottern, kein Tearing, geringe Latenzen – all das versprechen FreeSync und G-Sync. In der Umsetzung gibt es jedoch einige Unterschiede, die im Falle von FreeSync über die Tatsache des freien Standards hinausgehen. Noch immer nutzt FreeSync Adaptive Sync als Basis und daher können die Display-Hersteller auf Standard-Komponenten für den Timing Controller (TCON) zugreifen, was die Kosten einschränkt. AMD verlangt keinerlei Gebühren für die Verwendung von FreeSync – im Gegensatz zu NVIDIA. Dies ist wohl der wichtigste Grund dafür, dass es eine Vielzahl an FreeSync-Monitoren gibt, die Auswahl bei den G-Sync-Displays eingeschränkt ist.

Preislich gibt es ebenfalls Unterschiede. Das günstigste FreeSync-Modell ist ab knapp über 100 Euro zu haben. Solche mit Low Framerate Compensation sind allerdings mehr als doppelt so teuer. Das günstigste G-Sync-Modell startet bei rund 380 Euro. Also ganz ohne den technischen Hintergrund zu kennen, machen FreeSync und G-Sync bereits preislich einen Unterschied. Aus technischer Sicht könnte man FreeSync im Vorteil sehen, weil dies über DisplayPort und HDMI funktioniert, während G-Sync auf DisplayPort beschränkt ist.

Synchronisations-Reichweite und technische Unterschiede

Doch kommen wir nun zu den Unterschieden: Hier spielt die minimale Frequenz, mit der ein Display angesteuert wird, die wichtigste Rolle. Im Falle von FreeSync gibt es einen Bereich, der von 35 bis 40 Hz als unterste Grenze bis hin zu 144 Hz reicht. 144 Hz sind allerdings nur per DisplayPort möglich, über HDMI ist man auf 120 Hz beschränkt. Je nach Auflösung kann dieser Bereich schwanken und so reichen manche Monitor-Modelle im Extremfall nur von 40 bis 60 Hz in der sogenannten FreeSync-Range. Beim Kauf und der Abstimmung mit der Leistung der Grafikkarte sollte darauf geachtet werden. Eine Radeon RX 480 reicht mit FreeSync nicht aus, um ein neues Spiel bei 3.840 x 2.160 Pixel in einer Range von 40 bis 60 FPS zu halten und damit flüssig darzustellen.

Die Low Framerate Compensation (LFC) ist bei der Kompensation eines der Probleme von FreeSync ein entscheidender Faktor. Fällt die Framerate unter die minimale Bildwiederholungsrate des FreeSync-Displays, kommt es normalerweise zu einem kurzen Stottern. Eigentlich soll genau das durch FreeSync verhindert werden. Ein Algorithmus erkennt nun, wenn die Framerate unter die minimale Bildwiederholungsrate des Displays fällt und hält die Ausgabe an Frames am Ausgang eben über dieser Schwelle. Dabei kann es natürlich dazu kommen, dass ein Frame mehrfach ausgegeben wird, ohne jedes Mal neu gerendert zu werden.

Eine Bedingung für eine funktionierende Low Framerate Compensation ist, dass der Monitor eine um den Faktor 2,5 höhere, maximale FreeSync-Bildwiederholungsrate beherrscht als die Minimum-FreeSync-Bildwiederholungsrate. Im Falle des ASUS MG279Q ermöglicht dieser ein FreeSync zwischen 35 und 90 Hz. Dies entspricht genau der Vorgabe um den Faktor 2,5. Da nicht alle FreeSync-Monitore diese Bedingung erfüllen, gilt es beim Kauf zu prüfen, in welcher Spanne der Monitor mit FreeSync arbeitet. Eine entsprechende Kennzeichnung nehmen die Hersteller häufig selbst vor. AMD führt eine Liste aller FreeSync-Monitore und listet auf, ob diese LFC unterstützen oder nicht.

Bei NVIDIAs G-Sync spielen solche einzelne Techniken wie LFC zunächst einmal keine Rolle. Es gibt natürlich – meist abhängig von der Auflösung – Unterschiede bei der maximalen Bildwiederholungsrate. Diese liegt bei G-Sync-Monitoren zwischen 60 und 240 Hz. Mehr als 144 Hz sind derzeit also nur mit G-Sync-Monitoren möglich. Ob dies sinnvoll ist oder nicht, muss der Käufer entscheiden. Einige sagen mehr als 144 Hz machen kaum Sinn, andere wiederum sehen darin einen entscheidenden Vorteil. Für G-Sync noch wichtig ist, dass LFC bei NVIDIA anders gelöst ist. Fallen die FPS der Karte unter 30 FPS, wird automatisch das V-Sync eingeschaltet. Allerdings wird dabei keine 1:1-Einstellung verwendet, sondern es werden Vielfache der Minimum-FPS angewendet. Rendert die Grafikkarte beispielsweise mit 20 FPS, kann der Monitor die Ausgabe mit 40 Hz erledigen. G-Sync soll insgesamt die rundere Technologie sein, da sich der Käufer eines Displays weniger Gedanken um andere technische Daten als die Auflösung und maximale Bildwiederholungsrate machen muss.

G-SYNC HDR und FreeSync 2

AMD und NVIDIA arbeiten bereits an weiteren Verbesserungen für FreeSync und G-Sync bzw. haben diese bereits vorgestellt. Für FreeSync 2 wird die Low Framerate Compensation zur Pflicht. Im Fokus von FreeSync 2 steht die Unterstützung von HDR. Dazu ein Blick darauf, wie GPU und Monitor aktuell zusammenarbeiten, wenn eine HDR-Darstellung erfolgen soll. Das Rendering bis zum Tone-Mapping findet dabei natürlich in der GPU statt. Nach der Übertragung der Bilddaten an ein HDR-Display, erfolgt hier ein erneutes Tone-Mapping, welches das Bild bzw. die Farbdarstellung an die Möglichkeiten des Monitors anpasst. Dieses doppelte Tone-Mapping ist zum einen überflüssig, zum zweiten sorgt es für eine gewisse Latenz bis zur Darstellung. Mit FreeSync 2 erfolgt das Tone-Mapping ausschließlich auf der GPU und das Tone-Mapping des Monitors wird übersprungen. Dazu muss dies der Monitor natürlich unterstützen – was eben ein Bestandteil der Anforderungen von FreeSync 2 ist.

Bei G-Sync HDR stehen der erweiterte Farbraum sowie der höhere Kontrast ebenfalls im Fokus. Dazu verwendet NVIDIA ein Full Array Local Dimming (FALD) mit 384 Zonen, was deutlich mehr als bei den bisherigen Monitoren ist. Auch die Helligkeit soll mit 1.000 nits höher als bei den bisherigen Modellen sein. Hinsichtlich des Farbraums werden die ersten Modelle mit DCI-P3 an den Start gehen und stellen damit 25 % mehr Farben als sRGB-Monitore dar. In Zukunft will NVIDIA dies auf Rec. 2020 (+72 % gegenüber sRGB) erweitern. Derzeit sind zwar einige G-Sync-HDR-Monitore angekündigt, verfügbar ist aber noch keiner.

FreeSync und G-Sync sind also weiter im Kommen. Beide Technologien werden weiterentwickelt und können als essenziell für Spieler angesehen werden, denn sie bieten durchaus ihre Vorteile. Trotz der technischen Unterschiede zwischen G-Sync und FreeSync sind diese eigentlich gar nicht so groß. Meist beschränkt sich die Wahl der einen oder anderen Technologie ohnehin schon durch die Grafikkarte, denn G-Sync funktioniert nur mit NVIDIA-Karten, während FreeSync weiterhin nur mit AMD-GPUs zusammenarbeitet. Insofern hat der Nutzer häufig gar nicht die Wahl, sondern entscheidet schon beim Kauf der Grafikkarte.

Quellen und weitere Links KOMMENTARE (1687) VGWort