> > > > Intel erwägt Integration von Adaptive Sync bzw. FreeSync

Intel erwägt Integration von Adaptive Sync bzw. FreeSync

Veröffentlicht am: von

idf2015logoIntels Chief Graphics Software Architect David Blythe hat auf einer Session des IDF 2015 eine Frage zur möglichen Unterstützung von FreeSync durch Intels Grafik-Einheiten beantwortet. Etwas unerwartet fiel diese positiv aus. Man denke bei Intel in der Tat darüber nach den VESA-Standard Adaptive Sync, der bei AMD sicherlich aus Gründen des Marketings FreeSync genannt wird, zu implementieren. Wir haben uns schon zahlreiche Monitore mit FreeSync-Unterstützung angeschaut und wer sich genauer mit dem Thema und der Technik hinter FreeSync beschäftigen möchte, findet hier ebenfalls den richtigen Lesestoff.

Laut Blythe plane man immer offene Standards, wie das optionale Adaptive Sync aus dem VESA-Standard, einzubauen und konkret lägen dafür in diesem Fall sogar schon Pläne in der Schublade. Allerdings will sich Intel nicht auf ein Zeitfenster oder konkrete Produkte festnageln lassen. Unklar ist demnach auch, ob die aktuelle Hardware bereits in der Lage ist Adaptive Sync bzw. FreeSync zu unterstützen. In der aktuellen Umsetzung der Intel Graphics Gen9 bzw. der konkreten iGPU Intel HD Graphics 530 der ersten Skylake-Prozessoren wird auf das Thema nicht eingegangen. Quellen von The Tech Report zufolge soll die aktuelle Hardware noch nicht dazu vorgesehen sein. Allerdings wird zumindest DisplayPort 1.2a unterstützt, was allerdings nur die technischen Rahmenbedingungen umreißt, nicht aber eine optionale Umsetzung von Adaptive Sync.

Adaptive Sync bzw. FreeSync hat sich als offener Standard recht schnell gegenüber G-Sync etabliert. Während G-Sync nur zwischen einer GeForce-Grafikkarte und dem dazugehörigen Monitor funktioniert, ist Adaptive als offener Standard sowohl für Hersteller von GPUs offen zu implementieren, wie auch für die Monitor-Hersteller. Dies soll dafür sorgen, dass mehr und mehr Hersteller diese Monitore anbieten können und diese zudem auch noch deutlich günstiger sind. Das offene Bekenntnis zu Adaptive Sync durch Intel würde dem Standard sicherlich einen weiteren Schub geben. Die eigenen GPUs von Intel würden von einer solchen Technik sicherlich im gleichen Maße profitieren. Für das sogenannte Casual-Gaming sind die in den Prozessoren integrierten Grafikeinheiten inzwischen ausreichend schnell. Eventuelle größere Schwankungen in den FPS können Techniken wie Adaptive Sync sehr gut abfangen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (118)

#109
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4556
Neue Infos zum Thema GPU-Fertigung...

AMD Next Generation 'Arctic Islands' Graphic Cards Will Be Manufactured on the 16nm FinFET+ Node From TSMC
#110
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Leutnant zur See
Beiträge: 1149
Na, da haben sich hier Zwei aber schön aufeinander eingeschossen…
Mein Vorschlag wäre es innerhalb eines Eintrages / eines Posts die Themen ‚Technik‘ und ‚Marketing‘ schärfer zu trennen.
Technik: neutrale Abwägungen der Features
Marketing: emotionale Diskussion über die Strategien der Hersteller.
Dann muss sich der Technikinteressierte nicht so sehr durch die teilweise recht geladene Gesprächsführung wühlen.

Also, ich habe eine ‚Einsteigerfrage‘:
Ich bin ja kein Gamer, drum verfolge ich spielespezifische GraKa-Funktionen nur recht beiläufig (Direct X und Co.)
Aber,
ist syncen, nach welchen Standard auch immer, nur für Gamer ein Thema, oder hat diese Technik Vorteile (oder gar Nachteile) für andere Anwendungen?
Ich denke da an ermüdungsfreies Arbeiten, sanftere Bewegungsabläufe (und wenn es nur der Mauszeiger ist) etc.
Vielleicht hat ja sogar Einer was Hilfreiches bezüglich CAD-Anwendung zur Hand.
#111
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Korvettenkapitän
Beiträge: 2315
Diese Techniken sind hauptsächlich bei bewegten 3D-Szenen wirklich relevant. Das muss aber nicht unbedingt ein Spiel sein, CAD, CGI Editoren usw. könnten davon auch profitieren.
Es soll angeblich auch Videoplayer geben, die mittels G-Sync den Pulldown Judder vermeiden können, indem sie den Monitor genau mit der Bildrate des Videos vertikal synchronisieren, aber dieses Problem hat man wohl ohnehin eher selten, wenn man nicht gerade Fan von Importvideos ist.
#112
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
es ist überall da interessant, wo man bewegungen hat und die fps nicht zu der refresh rate des monitors passen.
das hat man hauptsächlich in games.
#113
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Leutnant zur See
Beiträge: 1149
Vielen Dank für Eure Antworten.

Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?
(Zum Vergleich: Die meisten Menschen, die live Zeuge der ersten Mondlandung waren, leben heute nicht mehr.)
Für die Umsetzung scheinen mir nur etwas Elektronik aus dem Standard-Repertoire und ein Computer-Code mit Inhalt „jetzt“ nötig zu sein.
Naja, und Monitor- und GraKa-Hersteller müssen sich abstimmen, nun gut..

Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?
#114
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Korvettenkapitän
Beiträge: 2315
Dass die Gaming-Industrie neue Ideen zum Geldverdienen braucht.
#115
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Leutnant zur See
Beiträge: 1149
Aufschlag, Satz und Sieg: Elmario.
Thread geschlossen. :bigok:
Vielen Dank für Ihr Interesse. Bitte begeben Sie sich nun ruhig und geordnet zu den Ihnen zugewiesenen Ausgängen.
#116
Registriert seit: 24.06.2015

Banned
Beiträge: 913
ich hab auch keine ahnung warum das früher nicht gemacht wurde
evtl hat man das problem einfach immer heruntergespielt

aber seit es 144hz monitore gibt siet man das tearing auch nicht wirklich stark
ich zumindest sehe da bei freesync nicht so krasse verbesserungen wenn man 144hz gewohnt ist

ich bin ja von 60hz umgestiegen direkt auf freesync, das sind welten
#117
customavatars/avatar206123_1.gif
Registriert seit: 14.05.2014
Hamburg
Kapitänleutnant
Beiträge: 1907
Kommt auch sehr stark auf den jeweiligen Monitor oder das Panel an. Ich hatte drei Samsung 27"er mit FullHD, 60Hz und TN-Panel. 1x T27A300 und 2x S27A550h. Der T27 hatte wenig Probleme mit Tearing. Bei den beiden anderen, etwas moderneren mit leicht besserem Panel war es extrem. Meist zwei Streifen gleichzeitig, einer oben-mittig und einer unten. Oft wanderten die minutenlang auch nicht weg.

Aber selbst bei 144Hz kann ich mit einer HD 7850 (die kein Freesync kann) das Tearing finden, wenn ich danach suche. Auch bei älteren Spielen die ungefähr 100fps schaffen mit der Karte. Für mich war deswegen Freesync ausnahmsweise mal keine Geldschneiderei, zumal der Monitor im Gegensatz zu den G-Sync Teilen auch nicht wirklich teurer war als ein 144Hz 27" 1440p TN sonst. Intel soll das gerne reinbringen. Dann kaufe ich nach der i5-5675C auch die nächste "zwischen-CPU", die fast nur bei der iGPU Verbesserungen bringt, und bin zufrieden ;)

Für WoT, WoWs, WoW, Fallout 3 reicht die iGPU allemal* und der Rechner ist sehr mobil und schlürft <100 watt!



*bei World of Warships muss ich tatsächlich auf mitttel-niedrige Details stellen :(
#118
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33223
Zitat fullHDade;23809174
Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?


Neja, so einfach ist das nun nicht...
Das Problem ist nicht primär die Ausgabe oder der Input am Monitor, das Problem kommt eigentlich daher, dass man mit der Umstellung von alten Röhren auf TFTs die Wiederholfrequenz drastisch eingekürzt hat.
Frag mal einpaar ambitionierte Spieler von "damals", die noch auf ihrer 120Hz+ Röhre spielten, wie der Erlebnis auf den ersten 60Hz TFTs war... Da war nicht nur die Reaktionszeit der Kristalle (Stichwort Schlierenbildung) ein Problem, sondern auch eben die Wiederholfrequenz.

Früher, also zu den Anfängen der 3D Games kommte man mit ner anständigen Röhre einstellen, wie man es wollte. Techniken wie VSync gab es ja schon -> sprich Ausgabe und Monitor im Gleichtakt war schon "bekannt". In schnellen spielen hat man also viele FPS mit viel Hz gespielt -> inkl. VSync. In langsameren womöglich verzichtete man auf hohe FPS und spielte stattdessen möglicherweise mit mehr BQ, dann halt auch weniger Hz. (bis es eben anfing zu flimmern -> 60Hz auf ner Röhre flimmert ohne Ende!)

Mit den ersten TFTs waren es 60Hz auf der TFT Seite -> das heist es war jahrelang einfach fix. Oftmals verzichtete man auf VSync um die FPS zu haben -> Tearing, also das Zerreißen des Bildes, was genau dann auftritt, wenn der Monitor noch mit der Ausgabe des Bildes beschäftigt ist, die GPU aber schon ein neues ausgespuckt hat -> dann hast du auf dem Schirm einen Bildversatz drin, wenn es um bewegte Bilder geht.

Irgendwann steig die Hz Zahl der Monitore, aus 60 wurden 120 und mittlerweile gibts auch 144Hz, sowie teils die Möglichkeit, das noch via Software weiter zu steigern.
Willst du allerdings syncrone 120 oder 144Hz mit VSync, muss die GPU auch entsprechend schnell sein -> da wirds schon teuer. Bei höheren Auflösungen sogar richtig teuer.

Die Idee war nun einfach, lass es uns variabel machen -> das ist im Grunde das Sync Feature -> nicht der Sync ansich, sondern die Flexibilität, dass bei mehr FPS der Monitor auch schneller ausgibt und bei weniger eben entsprechend weniger.

Zitat fullHDade;23809174
Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?


Rein von der technischen Seite her wäre das wohl auch schon viel früher möglich gewesen... Denn man konnte auch vor FreeSync/G-Sync schon die Hz Zahlen teils vollvariabel mit den richtigen Programmen von 24/50Hz bis 144Hz und mehr einstellen. -> allerdings nur händisch und nicht ohne Zutun der Spiele FPS und auch nicht in Echtzeit ;)
Was halt einfach fehlte war A) die Idee, das als vollflexible Lösung anzubieten und B) die Umsetzung, dass es auch funktioniert...

Ich muss aber auch ehrlich sagen, vor G-Sync/FreeSync hat eigentlich nahezu keiner nach so einer flexiblen Syncmethode gefragt. Sprich es gab gar nicht wirklich den Drang danach... Sonst sind die Leute immer ziemlich schnell dabei, wenn es um teils unmögliche Vorderungen geht -> aber diese Idee hatte lange definitiv keiner so recht auf dem Plan ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]