> > > > VESA führt 'Adaptive Sync' als Teil von DisplayPort 1.2a ein (2. Update)

VESA führt 'Adaptive Sync' als Teil von DisplayPort 1.2a ein (2. Update)

Veröffentlicht am: von

vesaDie Video Electronics Standards Association, kurz VESA, gab gestern bekannt, dass "Adaptive Sync" Teil des DisplayPort-1.2a-Standards werden wird. Bei "Adaptive Sync" handelt es sich um eine Technik, bei der das Display das Bild erst dann aktualisiert, wenn die Grafikkarte ein neues Bild berechnet hat - die Bildwiederholrate wird also synchronisiert. Dabei ist "Adaptive Sync" bzw. die Technik dahinter nicht neu.

Im Embedded DisplayPort spielt sie bereits seit 2009 eine Rolle, NVIDIA hat das Thema als G-Sync Ende des vergangenen Jahres ins Licht gerückt. Allerdings verwendet NVIDIA ein eigenes Protokoll zur Übertragung über das DisplayPort-Kabel und somit eignet sich G-Sync nur für Grafikkarten ab der "Kepler"-Generation, also GeForce GTX 650 Ti Boost und neuer sowie für speziell angepasste Monitore. Diese waren von verschiedenen Herstellern für Anfang 2014 angekündigt, doch bislang bleibt der ASUS VG248QE mit FullHD-Auflösung bei 24 Zoll der einzige Monitor, der erhältlich ist.

Allerdings kommen auch die Hersteller, die "Adaptive Sync" verwenden wollen, nicht um etwas Hardware herum, die in den Monitor verbaut werden muss. Dabei handelt es sich um eine Scaler, der die Bildwiederholfrequenz dynamisch an die Framerate der Grafikkarte anpassen kann. Aktuelle Monitore beherrschen dies natürlich nocht nicht und somit wird es einige Zeit dauern, bis entsprechende Modelle am Markt erhältlich sind. Diese sollen dann mit einem bestimmten Logo ausgestattet werden, damit der potenzielle Käufer des Feature besser erkennt.

AMD arbeitet seit einiger Zeit mit der VESA-Standardisierung zusammen (und ist Teil davon), um den eigenen Standard namens "FreeSync" darin aufzunehmen. "FreeSync" dürfte nun in "Adaptive Sync" aufgegangen sein, denn bisher fehlt eine Stellungname seitens AMD zu diesem Thema. Allerdings wird Syed Athar Hussain, Display Domain Architect bei AMD und VESA Board Vice Chairman wie folgt zitiert: "DisplayPort Adaptive-Sync enables a new approach in display refresh technology. Instead of updating a monitor at a constant rate, Adaptive-Sync enables technologies that match the display update rate to the user’s content, enabling power efficient transport over the display link and a fluid, low-latency visual experience."

Welche GPUs von AMD und NVIDIA in der Lage sind, DisplayPort Adaptive Sync anzusprechen und wann mit den ersten Monitoren zu rechnen ist, ist derzeit nicht bekannt. Wir haben sowohl bei AMD als auch bei NVIDIA um eine Stellungsnahme gebeten. Besonders interessant ist dabei die Frage, ob NVIDIA weiterhin an G-Sync festhalten wird oder die Einführung von DisplayPort Adaptive Sync Auswirkungen auf die weitere Entwicklung von G-Sync hat.

Update:

Inzwischen hat sich AMD zum Thema DisplayPort Adaptive Sync geäußert und nennt folgende Grafikkarten und APUs als kompatibel zum Standard: AMD Radeon R9 290X, R9 290, R7 260X und R7 260. Bei den APUs sind es alle Modelle auf Basis von "Kabini", "Temash", "Beema" und "Mullins".

2. Update:

Inzwischen hat auch NVIDIA ein offizielles Statement abgegeben. Darin weist man darauf hin, dass G-Sync bereits mit DisplayPort 1.2 funktioniere und keinen neuen Standard benötige. Außerdem sei noch keinerlei Hardware am Markt, die DisplayPort 1.2a unterstütze. Zwar sei es auch Inhabern einer kostenlosen VESA-Lizenz möglich den neuen Standard zu unterstützt, doch fallen für die Entwicklung der dazugehörigen Hardware und auch bei der Markteinführung Kosten an. NVIDIA unterstütze neue Technik-Standards, aber nur solche, die auch eine Aussicht auf Erfolg am Markt haben. Dabei lässt man natürlich offen, ob und wann die eigenen Karten DisplayPort 1.2a unterstützen werden oder nicht.

Das komplette Statement im Zitat: "Adaptive-Sync is a protocol not a product. G-SYNC already works over DisplayPort 1.2 today and does not require DisplayPort 1.2a. As far as we know, there are no DisplayPort 1.2a products announced or available. Although there is no license fee or royalty for VESA's DisplayPort 1.2a specification, as with any technology, there is a cost to develop, implement, and bring products to market. NVIDIA is supportive of industry standards, but not every standard succeeds in the market place. We take a pragmatic approach and support what matters to our customers."

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (61)

#52
customavatars/avatar136398_1.gif
Registriert seit: 22.06.2010

Kapitänleutnant
Beiträge: 1657
Was ist denn das für ein Blödsinn? G-Sync macht die Monitore dick? G-Sync verbraucht mehr Strom? Und zwar so viel mehr, dass das die Verkäufe senkt? Das ist wohl die nächste Lügengeschichte nach den angeblich minderwertigen PCBs bei Nvidia Grafikkarten.
#53
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat Pickebuh
Ein Monitor mit G-Sync-Hardware intus verbraucht sicherlich mehr als ein anderer Monitor mit nur A-Sync. Dadurch entstehen Nachteile, die im Wettbewerb über Flop oder Top entscheiden können.


Was heißt da sicherlich? Woher die Annahme G-sync verbrauche mehr Strom?

Zitat waro245
Was ist denn das für ein Blödsinn? G-Sync macht die Monitore dick? G-Sync verbraucht mehr Strom? Und zwar so viel mehr, dass das die Verkäufe senkt? Das ist wohl die nächste Lügengeschichte nach den angeblich minderwertigen PCBs bei Nvidia Grafikkarten.


Also da muss ich mal zustimmen. :D

Zitat Pickebuh
G-Sync hört sich toll auf dem Papier an, aber die Monitor sind so gesehen Schrott gegen die Monitore ohne G-Sync-Gewichte an Board.


Das was du betreibst nennt sich Rufschädigung.
Ich mag G-sync auch nicht, weil proprietär, allerdings ist solche Stimmungsmache gegen einen Hersteller nicht zu unterstützen.
Zuletzte hast du behauptet Nvidias PB´s sind Minderwertiger, was kommt als nächstes?
#54
Registriert seit: 03.05.2013

Bootsmann
Beiträge: 543
Schaffe89
haha Rufschädigung. Ich fasse es nicht.
Hier befindet sich nach meiner Meinung niemand der auch nur im Ansatz irgendwelche Referenzen vorweisen kann, die diesem Thema wirklich Tiefe geben könnte, natürlich schließe ich mich darin ein. Vor allem die viel Poster, die nach meinem Anschein nach nichts anderes zu tun haben, kommen doch immer nur mit den gleichen Worten nur in einer anderen Zusammenstellung. Ich denke, dass niemand auch nur für eine Sekunde irgendetwas hier wichtig nimmt, außer dass es vielleicht mal eben DP 1.2a geben könnte. 99,8% werden auf Tests der Redaktionen warten die dann endlich die nötige Referenz bieten.

Insofern solltest du das nicht so wichtig machen und dies als Rufschädigung bezeichnen. Es ist einfach nicht mehr, als ein simpler Zeitvertreib der viel Poster nach meiner Meinung.
#55
customavatars/avatar189210_1.gif
Registriert seit: 27.02.2013
München
Admiral
Beiträge: 11250
Zitat waro245;22211127
Was ist denn ...


:haha::haha::haha:

:stupid:

ich finds abartig, was hier stellenweise im forum zu lesen ist. einzelne Personen hauen sachen raus... unglaublich was in manchen köpfen abgeht...
#56
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8756
AOC/Philips:
Nein. G-SYNC ist dem Adaptive Sync Standard überlegen, bietet mehr Features, weswegen es als beste Wahl für High-Level-Gamer angesehen wird.“
#57
customavatars/avatar100019_1.gif
Registriert seit: 05.10.2008
AT - NÖ
Flottillenadmiral
Beiträge: 4951
Ich zitiere mich selber aus dem G-Sync Sammler:

Auf dem Papier kann viel stehen und reden kann man den ganzen lieben Tag, mal abwarten wann es Handfeste Vergleiche zwischen den beiden Technologien gibt, die Aussage von AOC/Philips zählt zumindest bei mir bis dahin 11.....
#58
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8756
Jo bleibt abzuwarten wenn die Techniken gegeneinander antreten.
#59
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Naja, eine Hardware-Lösung sollte in der Regel immer eine "Softwarelösung" schlagen. Was der jeweilige Spaß kostet ist dann natürlich die andere Frage, wobei ich auch bei AMD mir passende Hardware kaufen muss.
#60
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat DTX xxx
Hier befindet sich nach meiner Meinung niemand der auch nur im Ansatz irgendwelche Referenzen vorweisen kann, die diesem Thema wirklich Tiefe geben könnte,


Auch schon die Erkenntnis gehabt?

Pickebuh verbreitet gerne Mist über G-sync, neben dem höheren Verbrauch, sind die G-sync Monitore jetzt schon Schrott.
Also irgendwo muss man mal mit der Propaganda aufhören.

Zitat
Insofern solltest du das nicht so wichtig machen und dies als Rufschädigung bezeichnen. Es ist einfach nicht mehr, als ein simpler Zeitvertreib der viel Poster nach meiner Meinung.


Jeder ist Sender und Empfänger zugleich.
#61
Registriert seit: 06.05.2010

Stabsgefreiter
Beiträge: 378
Ein Firmwarupdate später:
[Phoronix] AMD Shows Off An External FreeSync Monitor In Action
Tada Free sync Monitor und ja die Hersteller wollen sicher lieber neue Monitore verkaufen und werden kaum für Monitore, die das technisch könnten, Firmwareupdates liefern.
Zeigt aber, dass sich der technische Aufwand und die Kosten doch in Grenzen halten werden.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]