> > > > GPU und Display laufen synchron - AMDs FreeSync ausprobiert

GPU und Display laufen synchron - AMDs FreeSync ausprobiert

DruckenE-Mail
Erstellt am: von

Seite 1: GPU und Display laufen synchron - AMDs FreeSync ausprobiert

freesyncSeit einigen Monaten ist es angekündigt, heute nun startet der Support von FreeSync alias Adaptive Sync. Wir hatten die Gelegenheit, die Technik mit zwei Monitoren auszuprobieren. Bevor wir allerdings zu einigen Praxis-Tests kommen, schauen wir uns die Theorie dazu noch einmal etwas genauer an. Die Probleme, die FreeSync beseitigen soll und der Ansatz sie zu reduzieren oder gar zu entfernen, sind identisch zu G-Sync. Allerdings hängt G-Sync der Makel des proprietären Standards an und entsprechende Monitore sind mangels Marktvielfalt deutlich zu teuer. Daran hat sich auch ein Jahr nach dem Start von G-Sync nichts geändert.

Die Video Electronics Standards Association, kurz VESA, gab gestern bekannt, dass Adaptive Sync Teil des DisplayPort-1.2a-Standards werden wird. Bei Adaptive Sync handelt es sich um eine Technik, bei der das Display das Bild erst dann aktualisiert, wenn die Grafikkarte ein neues Bild berechnet hat - die Bildwiederholrate wird also synchronisiert. Dabei ist Adaptive Sync bzw. die Technik dahinter nicht neu. Im Embedded DisplayPort spielt sie bereits seit 2009 eine Rolle. AMD vermarktes Adaptive Sync unter dem eigenen Produktnamen FreeSync, den wir für diesen Artikel so auch übernehmen werden. Wann immer also von FreeSync die Rede ist, meinen wir damit Adaptive Sync.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

FreeSync ist also ein offener Standard und als Adaptive Sync Teil des VESA-Standards. Voraussetzung für die Unterstützung von Adaptive Sync sind eine Grafikkarte und ein Monitor mit DisplayPort 1.2a. Neben dem Display-Anschluss muss auch etwas Hardware im Monitor verbaut sein. Dabei handelt es sich um einen Scaler, der die Bildwiederholfrequenz dynamisch an die Framerate der Grafikkarte anpassen kann. Vermutlich ist dieser auch Teil des G-Sync-Moduls in einem jeden G-Sync-Monitor. Offenbar aber nutzt NVIDIA noch nicht alle Komponenten dieses Moduls und mit Aufkommen der FreeSync-Technologie wurde NVIDIA nicht müde zu betonen, dass man noch etwas in der Hinterhand habe.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

FreeSync greift also genau dort ein, wo auch G-Sync arbeitet. Die fehlende Synchronisation der Ausgabe der Grafikkarte und der Darstellung auf dem Monitor sorgen dafür, dass es zu Bildfehlern und Schwankungen in der Bildwiderholrate kommt.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

Via VSync, also der Festlegung der Ausgabe der Grafikkarte auf die Bildwiederholrate des Monitors, lässt sich dies zwar beheben, allerdings ist das nur möglich und sinnvoll, wenn die Grafikkarte auch ausreichend FPS ausgeben kann. Große Schwankungen in den FPS sind für Spiele mit wechselnden Anforderungen aber nicht unüblich und so ist eine Bindung an einen festen FPS-Wert schwierig. Zwar können die Monitore zwischen mehreren festgelegten Bildwiederholraten wechseln (144, 60, 30, 24 Hz), allerdings führen diese Übergänge ebenfalls zu einem Stottern. Zudem steigt der Input-Lag, sobald die festgelegten FPS nicht mehr gehalten werden können.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

Via FreeSync wird das Bild auf dem Monitor immer dann ausgegeben, wenn es fertig ist. Die möglichen Bildwiederholraten bewegen sich dabei zwischen 9 und 240 Hz. Dies ist aber abhängig vom jeweiligen Monitor-Modell bzw. dem eingesetzten Panel. Bereits zum Start sind aber weitaus mehr Modelle mit FreeSync-Unterstützung angekündigt und wohl bald auch verfügbar, als bisher jemals mit G-Sync-Unterstützung.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

Die Ansätze für FreeSync also identisch mit denen von G-Sync: Ruckler sollen minimiert, ein Tearing komplett unterbunden werden und dem Monitor wird die Möglichkeit gegeben, die FPS auszugeben, die auch wirklich aus von der Grafikkarte berechnet werden.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

Gerne streicht AMD auch die Unterschiede zwischen FreeSync und Adaptive Sync heraus. Dabei spielt natürlich die Tatsache das G-Sync ein proprietärer Standard ist eine wichtige Rolle. Das Fehlen von Lizenzzahlungen soll dazu führen, dass FreeSync-Monitore deutlich günstiger sind. Für den Preis spielt aber sicherlich auch die größerer Konkurrenz innerhalb der Monitor-Hersteller eine wichtige Rolle. Außerdem spricht AMD für FreeSync von der Unterstützung von Bildwiederholraten von 9 bis 240 Hz. In den Extrembereichen von 24 Hz und weniger sowie 144 Hz und mehr hat aber noch kein Hersteller ein entsprechend kompatibles Panel angekündigt und so bleibt abzuwarten, ab wann FreeSync davon Gebrauch macht.

Während G-Sync bereits ab 30 FPS/Hz arbeitet, erfolgt eine Synchronisation bei FreeSync erst ab 40 bzw. 48 FPS/Hz. Dies ist abhängig vom jeweiligen Monitor-Modell. Liegen die FPS unter diesem Wert, arbeitet FreeSync noch nicht und damit können auch die Vorteile nicht ausgeschöpft werden.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

Als wir uns den ersten G-Sync-Monitor in Form des ASUS ROG Swift PG278Q (Hardwareluxx-Artikel) anschauten, machten wir auch einige Messungen zum Performance-Verlust. Dabei zeigte sich, dass dieser zwar messbar, aber in einem extrem niedrigen Bereich vorhanden ist. AMD findet auch hier einen Angriffspunkt und spricht von bis zu 1,5 Prozent, wenngleich wir auch ein paar Prozentpunkte mehr feststellen konnten. Es ist also nicht abzustreiten, dass durch G-Sync ein paar FPS in der Leistung verloren gehen. Diese werden aber auch durch eine verbesserte Darstellung aufgefangen. Ähnliches war auch von FreeSync zu erwarten.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

AMD spricht allerdings von einem nicht vorhandenen Performance-Verlust, der für uns innerhalb der Messungenauigkeit liegt. Sollten die 0,2 Prozent der Realität entsprechen, sehen wir auch hier keinen wirklichen Einfluss auf die Performance durch FreeSync. Wir haben aber auch einige eigene Messungen durchgeführt, die zu einem ähnlichen Ergebnis kommen.

Leistungsmessung - Battlefield 4

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Leistungsmessung - Crysis 3

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Leistungsmessung - Metro: Last Light

2.560 x 1.600 1xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

Einen weiteren Freiheitsgrad bietet FreeSync durch die Tatsache, das sich VSync ein- und ausschalten lässt. Je nachdem welches Verhalten bevorzugt wird, kann der Nutzer entscheiden, ob ihm möglichst hohe FPS wichtig sind oder eine möglichst geringe Latenz des Maus-Inputs.

AMDs FreeSync alias Adaptive SyncAMDs FreeSync alias Adaptive Sync AMDs FreeSync alias Adaptive Sync

AMDs FreeSync alias Adaptive Sync

Bereits zum Start von FreeSync soll es gleich mehrere verfügbare Modelle geben. Bereits testen konnten wir den Acer XG270HU sowie den LG 34M67. Auch BenQ, Samsung und einige weitere Hersteller haben ihre Modelle bereits zur CES angekündigt.

AMDs FreeSync alias Adaptive Sync
AMDs FreeSync alias Adaptive Sync.

Obige Übersicht zeigt die bisher vorgestellten Modelle.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 4.17

Tags

Kommentare (114)

#105
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Ich verstehe hier nicht das krampfhafte festhalten an den Frequenzzahlen. Was will ich als Gamer mit 30 FPS oder weniger ? Erst ab 40-50 FPS wird ein Spiel erst so richtig spielbar auch wenn 30Hz filmischer sein sollen. ;)
AMD hat jetzt einen Kooperation mit Samsung eingegangen, die wohl FreeSync vermarkten werden und die Scaler auch besser arbeiten werden.
Ich bin auf diese Monitor gespannt, die 4k und IPS/PLS können. :)
#106
customavatars/avatar136398_1.gif
Registriert seit: 22.06.2010

Kapitänleutnant
Beiträge: 1642
Wenn man in WQHD oder UHD spielt kann man sehr leicht FPS-Drops unter 48 oder 40 FPS haben. Vielen Spielern reichen sogar so niedrige Frameraten als Durchschnitt wenn sie im Singleplayer spielen.



Falls jemand an ein paar Fakten interessiert ist: Dissecting G-Sync and FreeSync - How the Technologies Differ | PC Perspective
#107
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9451
Zitat
G-Sync treats this “below the window” scenario very differently. Rather than reverting to VSync on or off, the module in the G-Sync display is responsible for auto-refreshing the screen if the frame rate dips below the minimum refresh of the panel that would otherwise be affected by flicker. So, in a 30-144 Hz G-Sync monitor, we have measured that when the frame rate actually gets to 29 FPS, the display is actually refreshing at 58 Hz, each frame being “drawn” one extra instance to avoid flicker of the pixels but still maintains a tear free and stutter free animation. If the frame rate dips to 25 FPS, then the screen draws at 50 Hz. If the frame rate drops to something more extreme like 14 FPS, we actually see the module quadruple drawing the frame, taking the refresh rate back to 56 Hz. It’s a clever trick that keeps the VRR goals and prevents a degradation of the gaming experience. But, this method requires a local frame buffer and requires logic on the display controller to work. Hence, the current implementation in a G-Sync module.

Ziemlich interessant!
Aber wieso muss dafür zwingend ein Modul im Monitor her?
Theoretisch könnte auch die Grafikkarte das Bild einfach im Hintergrund speichern und zwei mal ausgeben, anstelle nur ein mal. Wäre denkbar dass AMD sowas per Treiber nachreicht...
#108
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4147
Zitat DragonTear;23325457
Ziemlich interessant!
Aber wieso muss dafür zwingend ein Modul im Monitor her?
Theoretisch könnte auch die Grafikkarte das Bild einfach im Hintergrund speichern und zwei mal ausgeben, anstelle nur ein mal. Wäre denkbar dass AMD sowas per Treiber nachreicht...


Zwingend ist ein Modul wahrscheinlich nicht. Aber eine solche Zwischenbildberechnung kostet Leistung. Wenn das AMD also per Treiber nachreicht, dann wahrscheinlich nicht ohne einen Leistungsverlust.
#109
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9451
Zitat Cippoli;23325480
Zwingend ist ein Modul wahrscheinlich nicht. Aber eine solche Zwischenbildberechnung kostet Leistung. Wenn das AMD also per Treiber nachreicht, dann wahrscheinlich nicht ohne einen Leistungsverlust.

Das ist aber ja keine Berechnung. Es muss nur gespeichert und einfach noch ein zweites mala usgegeben werden, während noch das neue Frame berechnet wird. Das sollte höchstens etwas Vram kosten.
#110
customavatars/avatar136398_1.gif
Registriert seit: 22.06.2010

Kapitänleutnant
Beiträge: 1642
Dass das per Treiber nachreichbar ist vermutet auch pcper im Video.
#111
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4147
Zitat DragonTear;23325486
Das ist aber ja keine Berechnung. Es muss nur gespeichert und einfach noch ein zweites mala usgegeben werden, während noch das neue Frame berechnet wird. Das sollte höchstens etwas Vram kosten.


So leicht ist es denke ich nicht, denn genau das muss doch auch durch eine CPU irgendwie gemanged werden.
#112
Registriert seit: 05.11.2007
Neckar-Odenwald Kreis
Fregattenkapitän
Beiträge: 2896
Freesync speichert die Bilder doch auch zwischen, sonst würde der Bildschirm schwarz bleiben bzw. flackern, wenn die FPS unter 40Hz fallen. Das macht es aber wohl nicht, sonst hätten sich wohl alle Tester drüber beschwert ;)
Der einzige Unterschied ist, dass bei Freesync die Frequenz eben bei 40Hz bleibt und bei G-Sync höher ausfallen kann.
Für den User wird es keinen Unterschied machen, denn Inputlag wird wird sich gleich verhalten, hängt ja an den FPS und nicht an der Refreshrate des Monitors.
#113
customavatars/avatar139327_1.gif
Registriert seit: 23.08.2010

Stabsgefreiter
Beiträge: 277
Ich denke nicht das da irgendwas gespeichert wird. Es fängt an zu tearen wie es sonst bei einen normalen 60 Hz Monitor passiert wenn die fps unter 60 fallen.
Genau deswegen wird AMD Freesync wohl so ein grossen Spielraum von 9-240 Hz spendiert haben.

Dieses verdoppeln von Hz würde sowieso kaum funktioneren wenn die Hersteller den Monitoren soviel Hz verpassen wie sie grad lustig sind.
Sieht man ja schon an den LG´s. 48 Hz minimum, verdoppeln liegt man aber auserhalb ma Hz von 75.
Hier liegt den Vorteil wohl bei Gsync da man einfach die Kontrolle darüber hat was da für Screens verbaut werden.
#114
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Theoretisch hört sich eine einfach Verdopplung großartig an. Aber praktisch gibt es da gewisse Probleme.
Das Problem mit der Verdopplung ist, das man nur zu bestimmten Situationen einen Verdopplung machen kann, also wenn der Monitor die Verdopplung auch anzeigen kann.
Hat ein Monitor 60Hz, so kann man nur eine Verdopplung bei 30 Frames und Abwärts der 30 Frame machen. Wenn jetzt aber plötzlich 31 Frames dargestellt werden, so würde das Bild von vorher vielleicht 60 Hz auf 31 Hz springen, was sehr wohl auffallen würde, besonders in Szenen, wo die Framerate öfters zwischen 25 und 35 Frames schwankt. Das würde das Bild sehr unruhig machen.

30 Hz wäre für mich eh das aller aller Mindeste was das Flimmern angeht. Die 30 Frames werden zwar gleichmäßig dargestellt, aber der Monitor flimmert bei 30 Hz schon recht sichtbar. Dann lieber 40 Hz.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]