> > > > Intel erwägt Integration von Adaptive Sync bzw. FreeSync

Intel erwägt Integration von Adaptive Sync bzw. FreeSync

DruckenE-Mail
Erstellt am: von

idf2015logoIntels Chief Graphics Software Architect David Blythe hat auf einer Session des IDF 2015 eine Frage zur möglichen Unterstützung von FreeSync durch Intels Grafik-Einheiten beantwortet. Etwas unerwartet fiel diese positiv aus. Man denke bei Intel in der Tat darüber nach den VESA-Standard Adaptive Sync, der bei AMD sicherlich aus Gründen des Marketings FreeSync genannt wird, zu implementieren. Wir haben uns schon zahlreiche Monitore mit FreeSync-Unterstützung angeschaut und wer sich genauer mit dem Thema und der Technik hinter FreeSync beschäftigen möchte, findet hier ebenfalls den richtigen Lesestoff.

Laut Blythe plane man immer offene Standards, wie das optionale Adaptive Sync aus dem VESA-Standard, einzubauen und konkret lägen dafür in diesem Fall sogar schon Pläne in der Schublade. Allerdings will sich Intel nicht auf ein Zeitfenster oder konkrete Produkte festnageln lassen. Unklar ist demnach auch, ob die aktuelle Hardware bereits in der Lage ist Adaptive Sync bzw. FreeSync zu unterstützen. In der aktuellen Umsetzung der Intel Graphics Gen9 bzw. der konkreten iGPU Intel HD Graphics 530 der ersten Skylake-Prozessoren wird auf das Thema nicht eingegangen. Quellen von The Tech Report zufolge soll die aktuelle Hardware noch nicht dazu vorgesehen sein. Allerdings wird zumindest DisplayPort 1.2a unterstützt, was allerdings nur die technischen Rahmenbedingungen umreißt, nicht aber eine optionale Umsetzung von Adaptive Sync.

Adaptive Sync bzw. FreeSync hat sich als offener Standard recht schnell gegenüber G-Sync etabliert. Während G-Sync nur zwischen einer GeForce-Grafikkarte und dem dazugehörigen Monitor funktioniert, ist Adaptive als offener Standard sowohl für Hersteller von GPUs offen zu implementieren, wie auch für die Monitor-Hersteller. Dies soll dafür sorgen, dass mehr und mehr Hersteller diese Monitore anbieten können und diese zudem auch noch deutlich günstiger sind. Das offene Bekenntnis zu Adaptive Sync durch Intel würde dem Standard sicherlich einen weiteren Schub geben. Die eigenen GPUs von Intel würden von einer solchen Technik sicherlich im gleichen Maße profitieren. Für das sogenannte Casual-Gaming sind die in den Prozessoren integrierten Grafikeinheiten inzwischen ausreichend schnell. Eventuelle größere Schwankungen in den FPS können Techniken wie Adaptive Sync sehr gut abfangen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (118)

#109
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4147
Neue Infos zum Thema GPU-Fertigung...

AMD Next Generation 'Arctic Islands' Graphic Cards Will Be Manufactured on the 16nm FinFET+ Node From TSMC
#110
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Bootsmann
Beiträge: 571
Na, da haben sich hier Zwei aber schön aufeinander eingeschossen…
Mein Vorschlag wäre es innerhalb eines Eintrages / eines Posts die Themen ‚Technik‘ und ‚Marketing‘ schärfer zu trennen.
Technik: neutrale Abwägungen der Features
Marketing: emotionale Diskussion über die Strategien der Hersteller.
Dann muss sich der Technikinteressierte nicht so sehr durch die teilweise recht geladene Gesprächsführung wühlen.

Also, ich habe eine ‚Einsteigerfrage‘:
Ich bin ja kein Gamer, drum verfolge ich spielespezifische GraKa-Funktionen nur recht beiläufig (Direct X und Co.)
Aber,
ist syncen, nach welchen Standard auch immer, nur für Gamer ein Thema, oder hat diese Technik Vorteile (oder gar Nachteile) für andere Anwendungen?
Ich denke da an ermüdungsfreies Arbeiten, sanftere Bewegungsabläufe (und wenn es nur der Mauszeiger ist) etc.
Vielleicht hat ja sogar Einer was Hilfreiches bezüglich CAD-Anwendung zur Hand.
#111
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Kapitänleutnant
Beiträge: 2025
Diese Techniken sind hauptsächlich bei bewegten 3D-Szenen wirklich relevant. Das muss aber nicht unbedingt ein Spiel sein, CAD, CGI Editoren usw. könnten davon auch profitieren.
Es soll angeblich auch Videoplayer geben, die mittels G-Sync den Pulldown Judder vermeiden können, indem sie den Monitor genau mit der Bildrate des Videos vertikal synchronisieren, aber dieses Problem hat man wohl ohnehin eher selten, wenn man nicht gerade Fan von Importvideos ist.
#112
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
es ist überall da interessant, wo man bewegungen hat und die fps nicht zu der refresh rate des monitors passen.
das hat man hauptsächlich in games.
#113
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Bootsmann
Beiträge: 571
Vielen Dank für Eure Antworten.

Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?
(Zum Vergleich: Die meisten Menschen, die live Zeuge der ersten Mondlandung waren, leben heute nicht mehr.)
Für die Umsetzung scheinen mir nur etwas Elektronik aus dem Standard-Repertoire und ein Computer-Code mit Inhalt „jetzt“ nötig zu sein.
Naja, und Monitor- und GraKa-Hersteller müssen sich abstimmen, nun gut..

Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?
#114
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Kapitänleutnant
Beiträge: 2025
Dass die Gaming-Industrie neue Ideen zum Geldverdienen braucht.
#115
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Bootsmann
Beiträge: 571
Aufschlag, Satz und Sieg: Elmario.
Thread geschlossen. :bigok:
Vielen Dank für Ihr Interesse. Bitte begeben Sie sich nun ruhig und geordnet zu den Ihnen zugewiesenen Ausgängen.
#116
Registriert seit: 24.06.2015

Banned
Beiträge: 913
ich hab auch keine ahnung warum das früher nicht gemacht wurde
evtl hat man das problem einfach immer heruntergespielt

aber seit es 144hz monitore gibt siet man das tearing auch nicht wirklich stark
ich zumindest sehe da bei freesync nicht so krasse verbesserungen wenn man 144hz gewohnt ist

ich bin ja von 60hz umgestiegen direkt auf freesync, das sind welten
#117
customavatars/avatar206123_1.gif
Registriert seit: 14.05.2014
Hamburg
Kapitänleutnant
Beiträge: 1628
Kommt auch sehr stark auf den jeweiligen Monitor oder das Panel an. Ich hatte drei Samsung 27"er mit FullHD, 60Hz und TN-Panel. 1x T27A300 und 2x S27A550h. Der T27 hatte wenig Probleme mit Tearing. Bei den beiden anderen, etwas moderneren mit leicht besserem Panel war es extrem. Meist zwei Streifen gleichzeitig, einer oben-mittig und einer unten. Oft wanderten die minutenlang auch nicht weg.

Aber selbst bei 144Hz kann ich mit einer HD 7850 (die kein Freesync kann) das Tearing finden, wenn ich danach suche. Auch bei älteren Spielen die ungefähr 100fps schaffen mit der Karte. Für mich war deswegen Freesync ausnahmsweise mal keine Geldschneiderei, zumal der Monitor im Gegensatz zu den G-Sync Teilen auch nicht wirklich teurer war als ein 144Hz 27" 1440p TN sonst. Intel soll das gerne reinbringen. Dann kaufe ich nach der i5-5675C auch die nächste "zwischen-CPU", die fast nur bei der iGPU Verbesserungen bringt, und bin zufrieden ;)

Für WoT, WoWs, WoW, Fallout 3 reicht die iGPU allemal* und der Rechner ist sehr mobil und schlürft <100 watt!



*bei World of Warships muss ich tatsächlich auf mitttel-niedrige Details stellen :(
#118
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Zitat fullHDade;23809174
Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?


Neja, so einfach ist das nun nicht...
Das Problem ist nicht primär die Ausgabe oder der Input am Monitor, das Problem kommt eigentlich daher, dass man mit der Umstellung von alten Röhren auf TFTs die Wiederholfrequenz drastisch eingekürzt hat.
Frag mal einpaar ambitionierte Spieler von "damals", die noch auf ihrer 120Hz+ Röhre spielten, wie der Erlebnis auf den ersten 60Hz TFTs war... Da war nicht nur die Reaktionszeit der Kristalle (Stichwort Schlierenbildung) ein Problem, sondern auch eben die Wiederholfrequenz.

Früher, also zu den Anfängen der 3D Games kommte man mit ner anständigen Röhre einstellen, wie man es wollte. Techniken wie VSync gab es ja schon -> sprich Ausgabe und Monitor im Gleichtakt war schon "bekannt". In schnellen spielen hat man also viele FPS mit viel Hz gespielt -> inkl. VSync. In langsameren womöglich verzichtete man auf hohe FPS und spielte stattdessen möglicherweise mit mehr BQ, dann halt auch weniger Hz. (bis es eben anfing zu flimmern -> 60Hz auf ner Röhre flimmert ohne Ende!)

Mit den ersten TFTs waren es 60Hz auf der TFT Seite -> das heist es war jahrelang einfach fix. Oftmals verzichtete man auf VSync um die FPS zu haben -> Tearing, also das Zerreißen des Bildes, was genau dann auftritt, wenn der Monitor noch mit der Ausgabe des Bildes beschäftigt ist, die GPU aber schon ein neues ausgespuckt hat -> dann hast du auf dem Schirm einen Bildversatz drin, wenn es um bewegte Bilder geht.

Irgendwann steig die Hz Zahl der Monitore, aus 60 wurden 120 und mittlerweile gibts auch 144Hz, sowie teils die Möglichkeit, das noch via Software weiter zu steigern.
Willst du allerdings syncrone 120 oder 144Hz mit VSync, muss die GPU auch entsprechend schnell sein -> da wirds schon teuer. Bei höheren Auflösungen sogar richtig teuer.

Die Idee war nun einfach, lass es uns variabel machen -> das ist im Grunde das Sync Feature -> nicht der Sync ansich, sondern die Flexibilität, dass bei mehr FPS der Monitor auch schneller ausgibt und bei weniger eben entsprechend weniger.

Zitat fullHDade;23809174
Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?


Rein von der technischen Seite her wäre das wohl auch schon viel früher möglich gewesen... Denn man konnte auch vor FreeSync/G-Sync schon die Hz Zahlen teils vollvariabel mit den richtigen Programmen von 24/50Hz bis 144Hz und mehr einstellen. -> allerdings nur händisch und nicht ohne Zutun der Spiele FPS und auch nicht in Echtzeit ;)
Was halt einfach fehlte war A) die Idee, das als vollflexible Lösung anzubieten und B) die Umsetzung, dass es auch funktioniert...

Ich muss aber auch ehrlich sagen, vor G-Sync/FreeSync hat eigentlich nahezu keiner nach so einer flexiblen Syncmethode gefragt. Sprich es gab gar nicht wirklich den Drang danach... Sonst sind die Leute immer ziemlich schnell dabei, wenn es um teils unmögliche Vorderungen geht -> aber diese Idee hatte lange definitiv keiner so recht auf dem Plan ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]