> > > > FreeSync in HDMI 2.1 enthalten: Far Cry 5 nutzt Shader Intrinsics und Rapid Packed Math

FreeSync in HDMI 2.1 enthalten: Far Cry 5 nutzt Shader Intrinsics und Rapid Packed Math

Veröffentlicht am: von

freesyncEnde November veröffentlichte das HDMI-Konsortium die finalen Spezifikationen für HDMI 2.1. Mit einer theoretischen Datenrate von 48 GBit/s ist HDMI 2.1 mehr als doppelt so schnell wie HDMI 2.0b. Damit möglich werden 4K bei 120 Hz oder 8K bei 120 Hz. Maximal werden sogar 10K bei 120 Hz unterstützt. Im Rahmen des CES Tech Day hat AMD nun aber ein offenen Geheimnis verraten.

Bisher unterstützt HDMI das von AMD offen entwickelte FreeSync nur über eine herstellerspezifische Erweiterung. Anders als DisplayPort, welches ein Adaptive Sync bereits im Standard enthält, ist FreeSync über HDMI bisher noch kein Teil des eigentlichen Standards. Mit HDMI 2.1 wird sich dies ändern, denn hier ist eine Variable Refresh Rate (VRR) Bestandteil des Standards. AMD setzt mit FreeSync genau hier an. FreeSync, bzw. FreeSync 2, wird wie erwartet auch über HDMI 2.1 funktionieren.

Bisher hat noch kein Monitor-Hersteller die Unterstützung von HDMI 2.1 angekündigt und auch bei den GPUs sind die aktuellen Modelle noch nicht in der Lage dazu. Alle zukünftigen GPUs von AMD und NVIDIA werden aber vermutlich die Unterstützung von HDMI 2.1 bieten können. Bei NVIDIA wird dies mit der Ampere-Architektur, bzw. den dazugehörigen GPUs erwartet. Da AMD erst 2019 die Navi-Architektur vorstellen wird, wird dieser Schritt bei AMD erst im kommenden Jahr erwartet.

Far Cry 5 nutzt Shader Intrinsics und Rapid Packed Math

Die Entwickler von Bethesda sind die treuesten Unterstützer von AMDs Rendering-Technologien wie den Shader Intrinsics oder Rapid Packed Math. Zudem traute man sich hier, Wolfenstein 2: The New Colossus ausschließlich auf Basis der Vulkan-API zu veröffentlichen. Bei DOOM, DOOM VFR und Quake Champions wird ähnlich verfahren.

Auf dem CES Tech Day hat AMD das im Frühjahr erwartete Far Cry 5 (erscheint am 27. März) nun ebenfalls mit der Unterstützung von Shader Intrinsics und Rapid Packed Math präsentiert. Welche Grafik-API hier zum Einsatz kommen wird, ist jedoch noch nicht bekannt.

Social Links

Kommentare (15)

#6
customavatars/avatar81847_1.gif
Registriert seit: 07.01.2008

Kapitänleutnant
Beiträge: 1563
Müsste es nicht 8k bei 60Hz sein?
#7
customavatars/avatar62957_1.gif
Registriert seit: 29.04.2007
Hamburg
Admiral
Beiträge: 17448
Zitat NasaGTR;26074162


Wenn HDMI 2.1 Adaptive Sync nun im Standard hat, dürfte Nvidia da überhaupt die Unterstützung verweigern?? Oder dürfen die HDMI 2.1 nur "verbauen" wenn sie das unterstützen?


Das ist irgendwie falsch gedacht.

Als Beispiel: Nur weil HDMI 1.4 per Spezifikation 3D unterstützt, muss nicht jeder Bluray Player der HDMI 1.4 hat 3D unterstützen.

Der Standard kann es, aber das Gerät, welches diesen Standard verwendet muss es nicht bieten.
#8
customavatars/avatar274425_1.gif
Registriert seit: 14.09.2017

Gefreiter
Beiträge: 63
Klassisch: alles kann, nichts muss
#9
customavatars/avatar1651_1.gif
Registriert seit: 01.04.2002

Admiral
Beiträge: 13909
Zitat Tzk;26074238
Hoffentlich gibts dann Freesync mit Nvidia... :)

Ist FreeSync nicht einfach nur AMD's Marketing Name für VESA Adaptive Sync ? Somit könnte Nvidia rein theoretisch auch darauf zugreifen und das G-Sync Modul einfach weglassen
und Adaptive Sync trotzdem weiterhin G-Sync nennen. Dann kann man natürlich keine 150€ Aufpreis abzocken also wird es auch bei HDMI 2.1 mit einem G-Sync Modul weitergehen.
#10
Registriert seit: 20.07.2017
Irgendwo hinter den blauen Bergen
Oberstabsgefreiter
Beiträge: 433
Wie es schon immer war, wird NVIDIA einfach seinen eigene Brei weiterkochen, die springen sicherlich nicht auf diesen Zug auf
#11
customavatars/avatar274425_1.gif
Registriert seit: 14.09.2017

Gefreiter
Beiträge: 63
soweit ich weiß, ist adaptive Sync nicht Free-/G-Sync.
Adaptiv: Regelt wie V-Sync bis zu dem Moment wo die FPS fallen. Wenn das passiert, dann schaltet es sich ab um Stuttering zu vermeiden
Free-/G-Sync: ähnlich wie V-Sync, nur mit weniger "lag" und wenn die FPS fallen, dann wird die Aktualisierungsrate auch den FPS entsprechend angepasst
#12
customavatars/avatar1651_1.gif
Registriert seit: 01.04.2002

Admiral
Beiträge: 13909
Hier und hier hört es sich an wie FreeSync also auch Sync wenn weniger FPS als HZ weil sonst hätte man es bestimmt optional sync oder additional sync genannt !? :d
#13
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2978
Zitat croate;26078815
soweit ich weiß, ist adaptive Sync nicht Free-/G-Sync.
Adaptiv: Regelt wie V-Sync bis zu dem Moment wo die FPS fallen. Wenn das passiert, dann schaltet es sich ab um Stuttering zu vermeiden
Free-/G-Sync: ähnlich wie V-Sync, nur mit weniger "lag" und wenn die FPS fallen, dann wird die Aktualisierungsrate auch den FPS entsprechend angepasst


Nein. FreeSync ist AdaptivSync. AMD macht sich diese Technik zunutze, die der VESA-Standard DP1.2a schon seit Jahren bereithält.
Das manche Monitorhersteller statt FreeSync AdaptivSync schreiben, liegt daran, weil sie auch gleichzeitig NVIDIAs G-Sync in anderen ihrer Monitormodellen anbieten. Sie dürfen vermutlich nicht mit FreeSync werben, weil sonst NVIDIA ganz böse wird.

Aber es wird so kommen, wie es schon geschrieben steht. NVIDIA wird HDMI2.1 nicht im vollem Umfang unterstützen, auch wenn sie es auf ihrer Schachtel drucken und in ihren Spezifikationen schreiben.
Man wird weiterhin die deutlich teureren G-Sync Monitore kaufen müssen, obwohl die Monitore mit HDMI2.1 auch AdaptivSync unterstützen. Oder noch besser NVIDIA unterstützt diesen Standard und umschreibt es trotzdem als G-Sync mit dem obligatorischen Aufpreis.
#14
Registriert seit: 22.02.2010

Bootsmann
Beiträge: 731
Würde mir ja wünschen das Sync Technik generell in den Monitor wandert und vollkommen GPU unabhängig wäre. Weiss gar nicht warum man da auf AMD oder Nvidia angewiesen wäre so etwas zu implementieren.
#15
Registriert seit: 11.01.2018
Im Norden
Gefreiter
Beiträge: 59
Zitat Pickebuh;26082082
Das manche Monitorhersteller statt FreeSync AdaptivSync schreiben, liegt daran, weil sie auch gleichzeitig NVIDIAs G-Sync in anderen ihrer Monitormodellen anbieten. Sie dürfen vermutlich nicht mit FreeSync werben, weil sonst NVIDIA ganz böse wird.

Natürlich hat das mit Nvidia nichts zu tun, sondern Freesync ist AMDs Umsetzung einer variablen Refreshrate (VRR) um störendes Tearing zu vermeiden und basiert auf Vesa's DisplayPort Adaptive Sync das auch Intel GPUs unterstützen. Auf AMD Hardware wird auch HDMI Freesync unterstützt.

Wenn dort Adaptive Sync steht, werden Intels (i)GPUs den Monitor genauso unterstützen (bzw. der Hersteller hat ihn so zertifiziert). Also vollkommen richtig was dann dort steht und hat nichts damit zu tun, das Nvidia seinen Partner irgend etwas verbietet.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]