> > > > GPU und Display laufen synchron - AMDs FreeSync ausprobiert

GPU und Display laufen synchron - AMDs FreeSync ausprobiert

DruckenE-Mail
Erstellt am: von

Seite 2: FreeSync in der Praxis

Auf der folgenden Seite wollen wir beschreiben, wie FreeSync eingerichtet wird und auch erste Praxis-Erfahrungen werden das Thema sein.

AMD FreeSync im Catalyst Treiber
AMD FreeSync im Catalyst Treiber.

Voraussetzung für FreeSync sind zum einen eine Grafikkarte von AMD und zum anderen ein kompatibler Monitor. Bei den GPUs und APUs nennt AMD die folgenden Modelle:

  • Radeon R9 295X2
  • Radeon R9 290X
  • Radeon R9 290
  • Radeon R9 285
  • Radeon R7 260X
  • Radeon R7260
  • A10-7850K
  • A10-7800
  • A10-7700K
  • A8-7650K
  • A8-7600
  • A6-7400K

Wird die richtige GPU oder APU mit einem FreeSync-Monitor verwendet, zeigt der Catalyst-Treiber obige Meldung an, aus der heraus in das Control Center gewechselt wird und FreeSync aktiviert werden kann.

AMD FreeSync im Catalyst Treiber
AMD FreeSync im Catalyst Treiber.

Dort kann FreeSync einfach aktiviert werden, weitere Einstellungen oder ein Einrichten weiterer Parameter ist nicht notwendig.

AMD FreeSync Techdemo
AMD FreeSync Techdemo.

Das Erlebnis von FreeSync lässt sich wie G-Sync nicht wirklich in Worte fassen. Auch Screenshots und Videos sind nicht in der Lage, die positiven Auswirkungen korrekt darzustellen. Wir hatten leider nur wenig Zeit FreeSync mit den beiden Monitoren auszuprobieren. Am besten erklären lässt sich FreeSync mit Hilfe einer Techdemo, die AMD bereits auf einigen Messen zeigte. Dort lässt sich FreeSync bequem ein- und ausschalten. Zudem lassen sich die FPS auf kritischen Werten fixieren und die Demo enthält auch Sequenzen, die besonders anfällig für die negativen Effekten einer asynchronen Ausgabe auf dem Monitor.

Techdemos sind das eine, doch natürlich haben wir FreeSync auch in Spielen ausprobiert und sind bestärkt in der Meinung, dass nach der Wahl der gewünschten Grafikkarte auch Wert auf den Monitor gelegt werden sollte. Egal ob nun G-Sync oder FreeSync, beide Techniken sorgen für eine deutliche Verbesserung der Darstellung. Messbar sind die Effekte leider nicht wirklich, aber es wird bereits nach kurzer Zeit deutlich, dass einmal an FreeSync oder G-Sync gewöhnt, man nicht mehr ohne spielen möchte. Dies gilt für 3D-Shooter ebenso wie für Racer oder Rollenspiele. Die Engines sind in den vergangenen Jahren immer besser geworden, doch an der Schnittstelle zwischen Grafikkarte und Monitor hat sich wenig getan. Insofern sind FreeSync und G-Sync ein großer Schritt, der auf beiden Seiten seine Rechtfertigung besitzt. Ob man G-Sync als proprietären Standard nun unterstützen möchte, ist sicherlich jedem selbst überlassen. Aber auch NVIDIA hat erkannt, dass es gerade bei der Preisgestaltung großes Verbesserungspotenzial gibt.

Auch wenn FreeSync ein offener Standard ist, so legt man sich damit aktuell auf eine Grafikkarte aus dem Hause AMD fest. Gleiches gilt für G-Sync bei NVIDIA und dort hat man auch nicht vor Adaptive Sync alias FreeSync zu unterstützen. Stattdessen plant man eine Verbesserung von G-Sync. Konkrete Details darüber was an G-Sync verändert werden soll, bleibt man aber schuldig. Für FreeSync hängt nun vieles davon ab, wie schnell die Hersteller ihre Monitore auf den Markt bringen können. Damit einher geht auch eine gewisse Preisentwicklung, die alleine schon aufgrund der Marktsituation zu Gunsten von FreeSync ausfallen sollte. Hier bleibt aber zunächst einmal abzuwarten, wie sich die Preise entwickeln. Für heute bleibt nur festzuhalten, dass AMD FreeSync ab sofort einführen wird und die Treiber fertig sind. Ob der von uns verwendete Catalyst 15.3.1 Beta auch heute schon öffentlich gemacht wird, können wir aktuell nicht sagen.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 4.17

Tags

Kommentare (114)

#105
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Ich verstehe hier nicht das krampfhafte festhalten an den Frequenzzahlen. Was will ich als Gamer mit 30 FPS oder weniger ? Erst ab 40-50 FPS wird ein Spiel erst so richtig spielbar auch wenn 30Hz filmischer sein sollen. ;)
AMD hat jetzt einen Kooperation mit Samsung eingegangen, die wohl FreeSync vermarkten werden und die Scaler auch besser arbeiten werden.
Ich bin auf diese Monitor gespannt, die 4k und IPS/PLS können. :)
#106
customavatars/avatar136398_1.gif
Registriert seit: 22.06.2010

Kapitänleutnant
Beiträge: 1642
Wenn man in WQHD oder UHD spielt kann man sehr leicht FPS-Drops unter 48 oder 40 FPS haben. Vielen Spielern reichen sogar so niedrige Frameraten als Durchschnitt wenn sie im Singleplayer spielen.



Falls jemand an ein paar Fakten interessiert ist: Dissecting G-Sync and FreeSync - How the Technologies Differ | PC Perspective
#107
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9451
Zitat
G-Sync treats this “below the window” scenario very differently. Rather than reverting to VSync on or off, the module in the G-Sync display is responsible for auto-refreshing the screen if the frame rate dips below the minimum refresh of the panel that would otherwise be affected by flicker. So, in a 30-144 Hz G-Sync monitor, we have measured that when the frame rate actually gets to 29 FPS, the display is actually refreshing at 58 Hz, each frame being “drawn” one extra instance to avoid flicker of the pixels but still maintains a tear free and stutter free animation. If the frame rate dips to 25 FPS, then the screen draws at 50 Hz. If the frame rate drops to something more extreme like 14 FPS, we actually see the module quadruple drawing the frame, taking the refresh rate back to 56 Hz. It’s a clever trick that keeps the VRR goals and prevents a degradation of the gaming experience. But, this method requires a local frame buffer and requires logic on the display controller to work. Hence, the current implementation in a G-Sync module.

Ziemlich interessant!
Aber wieso muss dafür zwingend ein Modul im Monitor her?
Theoretisch könnte auch die Grafikkarte das Bild einfach im Hintergrund speichern und zwei mal ausgeben, anstelle nur ein mal. Wäre denkbar dass AMD sowas per Treiber nachreicht...
#108
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4147
Zitat DragonTear;23325457
Ziemlich interessant!
Aber wieso muss dafür zwingend ein Modul im Monitor her?
Theoretisch könnte auch die Grafikkarte das Bild einfach im Hintergrund speichern und zwei mal ausgeben, anstelle nur ein mal. Wäre denkbar dass AMD sowas per Treiber nachreicht...


Zwingend ist ein Modul wahrscheinlich nicht. Aber eine solche Zwischenbildberechnung kostet Leistung. Wenn das AMD also per Treiber nachreicht, dann wahrscheinlich nicht ohne einen Leistungsverlust.
#109
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9451
Zitat Cippoli;23325480
Zwingend ist ein Modul wahrscheinlich nicht. Aber eine solche Zwischenbildberechnung kostet Leistung. Wenn das AMD also per Treiber nachreicht, dann wahrscheinlich nicht ohne einen Leistungsverlust.

Das ist aber ja keine Berechnung. Es muss nur gespeichert und einfach noch ein zweites mala usgegeben werden, während noch das neue Frame berechnet wird. Das sollte höchstens etwas Vram kosten.
#110
customavatars/avatar136398_1.gif
Registriert seit: 22.06.2010

Kapitänleutnant
Beiträge: 1642
Dass das per Treiber nachreichbar ist vermutet auch pcper im Video.
#111
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4147
Zitat DragonTear;23325486
Das ist aber ja keine Berechnung. Es muss nur gespeichert und einfach noch ein zweites mala usgegeben werden, während noch das neue Frame berechnet wird. Das sollte höchstens etwas Vram kosten.


So leicht ist es denke ich nicht, denn genau das muss doch auch durch eine CPU irgendwie gemanged werden.
#112
Registriert seit: 05.11.2007
Neckar-Odenwald Kreis
Fregattenkapitän
Beiträge: 2896
Freesync speichert die Bilder doch auch zwischen, sonst würde der Bildschirm schwarz bleiben bzw. flackern, wenn die FPS unter 40Hz fallen. Das macht es aber wohl nicht, sonst hätten sich wohl alle Tester drüber beschwert ;)
Der einzige Unterschied ist, dass bei Freesync die Frequenz eben bei 40Hz bleibt und bei G-Sync höher ausfallen kann.
Für den User wird es keinen Unterschied machen, denn Inputlag wird wird sich gleich verhalten, hängt ja an den FPS und nicht an der Refreshrate des Monitors.
#113
customavatars/avatar139327_1.gif
Registriert seit: 23.08.2010

Stabsgefreiter
Beiträge: 277
Ich denke nicht das da irgendwas gespeichert wird. Es fängt an zu tearen wie es sonst bei einen normalen 60 Hz Monitor passiert wenn die fps unter 60 fallen.
Genau deswegen wird AMD Freesync wohl so ein grossen Spielraum von 9-240 Hz spendiert haben.

Dieses verdoppeln von Hz würde sowieso kaum funktioneren wenn die Hersteller den Monitoren soviel Hz verpassen wie sie grad lustig sind.
Sieht man ja schon an den LG´s. 48 Hz minimum, verdoppeln liegt man aber auserhalb ma Hz von 75.
Hier liegt den Vorteil wohl bei Gsync da man einfach die Kontrolle darüber hat was da für Screens verbaut werden.
#114
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Theoretisch hört sich eine einfach Verdopplung großartig an. Aber praktisch gibt es da gewisse Probleme.
Das Problem mit der Verdopplung ist, das man nur zu bestimmten Situationen einen Verdopplung machen kann, also wenn der Monitor die Verdopplung auch anzeigen kann.
Hat ein Monitor 60Hz, so kann man nur eine Verdopplung bei 30 Frames und Abwärts der 30 Frame machen. Wenn jetzt aber plötzlich 31 Frames dargestellt werden, so würde das Bild von vorher vielleicht 60 Hz auf 31 Hz springen, was sehr wohl auffallen würde, besonders in Szenen, wo die Framerate öfters zwischen 25 und 35 Frames schwankt. Das würde das Bild sehr unruhig machen.

30 Hz wäre für mich eh das aller aller Mindeste was das Flimmern angeht. Die 30 Frames werden zwar gleichmäßig dargestellt, aber der Monitor flimmert bei 30 Hz schon recht sichtbar. Dann lieber 40 Hz.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]