> > > > Intel erwägt Integration von Adaptive Sync bzw. FreeSync

Intel erwägt Integration von Adaptive Sync bzw. FreeSync

Veröffentlicht am: von

idf2015logoIntels Chief Graphics Software Architect David Blythe hat auf einer Session des IDF 2015 eine Frage zur möglichen Unterstützung von FreeSync durch Intels Grafik-Einheiten beantwortet. Etwas unerwartet fiel diese positiv aus. Man denke bei Intel in der Tat darüber nach den VESA-Standard Adaptive Sync, der bei AMD sicherlich aus Gründen des Marketings FreeSync genannt wird, zu implementieren. Wir haben uns schon zahlreiche Monitore mit FreeSync-Unterstützung angeschaut und wer sich genauer mit dem Thema und der Technik hinter FreeSync beschäftigen möchte, findet hier ebenfalls den richtigen Lesestoff.

Laut Blythe plane man immer offene Standards, wie das optionale Adaptive Sync aus dem VESA-Standard, einzubauen und konkret lägen dafür in diesem Fall sogar schon Pläne in der Schublade. Allerdings will sich Intel nicht auf ein Zeitfenster oder konkrete Produkte festnageln lassen. Unklar ist demnach auch, ob die aktuelle Hardware bereits in der Lage ist Adaptive Sync bzw. FreeSync zu unterstützen. In der aktuellen Umsetzung der Intel Graphics Gen9 bzw. der konkreten iGPU Intel HD Graphics 530 der ersten Skylake-Prozessoren wird auf das Thema nicht eingegangen. Quellen von The Tech Report zufolge soll die aktuelle Hardware noch nicht dazu vorgesehen sein. Allerdings wird zumindest DisplayPort 1.2a unterstützt, was allerdings nur die technischen Rahmenbedingungen umreißt, nicht aber eine optionale Umsetzung von Adaptive Sync.

Adaptive Sync bzw. FreeSync hat sich als offener Standard recht schnell gegenüber G-Sync etabliert. Während G-Sync nur zwischen einer GeForce-Grafikkarte und dem dazugehörigen Monitor funktioniert, ist Adaptive als offener Standard sowohl für Hersteller von GPUs offen zu implementieren, wie auch für die Monitor-Hersteller. Dies soll dafür sorgen, dass mehr und mehr Hersteller diese Monitore anbieten können und diese zudem auch noch deutlich günstiger sind. Das offene Bekenntnis zu Adaptive Sync durch Intel würde dem Standard sicherlich einen weiteren Schub geben. Die eigenen GPUs von Intel würden von einer solchen Technik sicherlich im gleichen Maße profitieren. Für das sogenannte Casual-Gaming sind die in den Prozessoren integrierten Grafikeinheiten inzwischen ausreichend schnell. Eventuelle größere Schwankungen in den FPS können Techniken wie Adaptive Sync sehr gut abfangen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (118)

#109
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4540
Neue Infos zum Thema GPU-Fertigung...

AMD Next Generation 'Arctic Islands' Graphic Cards Will Be Manufactured on the 16nm FinFET+ Node From TSMC
#110
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Oberbootsmann
Beiträge: 992
Na, da haben sich hier Zwei aber schön aufeinander eingeschossen…
Mein Vorschlag wäre es innerhalb eines Eintrages / eines Posts die Themen ‚Technik‘ und ‚Marketing‘ schärfer zu trennen.
Technik: neutrale Abwägungen der Features
Marketing: emotionale Diskussion über die Strategien der Hersteller.
Dann muss sich der Technikinteressierte nicht so sehr durch die teilweise recht geladene Gesprächsführung wühlen.

Also, ich habe eine ‚Einsteigerfrage‘:
Ich bin ja kein Gamer, drum verfolge ich spielespezifische GraKa-Funktionen nur recht beiläufig (Direct X und Co.)
Aber,
ist syncen, nach welchen Standard auch immer, nur für Gamer ein Thema, oder hat diese Technik Vorteile (oder gar Nachteile) für andere Anwendungen?
Ich denke da an ermüdungsfreies Arbeiten, sanftere Bewegungsabläufe (und wenn es nur der Mauszeiger ist) etc.
Vielleicht hat ja sogar Einer was Hilfreiches bezüglich CAD-Anwendung zur Hand.
#111
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Korvettenkapitän
Beiträge: 2183
Diese Techniken sind hauptsächlich bei bewegten 3D-Szenen wirklich relevant. Das muss aber nicht unbedingt ein Spiel sein, CAD, CGI Editoren usw. könnten davon auch profitieren.
Es soll angeblich auch Videoplayer geben, die mittels G-Sync den Pulldown Judder vermeiden können, indem sie den Monitor genau mit der Bildrate des Videos vertikal synchronisieren, aber dieses Problem hat man wohl ohnehin eher selten, wenn man nicht gerade Fan von Importvideos ist.
#112
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
es ist überall da interessant, wo man bewegungen hat und die fps nicht zu der refresh rate des monitors passen.
das hat man hauptsächlich in games.
#113
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Oberbootsmann
Beiträge: 992
Vielen Dank für Eure Antworten.

Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?
(Zum Vergleich: Die meisten Menschen, die live Zeuge der ersten Mondlandung waren, leben heute nicht mehr.)
Für die Umsetzung scheinen mir nur etwas Elektronik aus dem Standard-Repertoire und ein Computer-Code mit Inhalt „jetzt“ nötig zu sein.
Naja, und Monitor- und GraKa-Hersteller müssen sich abstimmen, nun gut..

Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?
#114
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Korvettenkapitän
Beiträge: 2183
Dass die Gaming-Industrie neue Ideen zum Geldverdienen braucht.
#115
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Oberbootsmann
Beiträge: 992
Aufschlag, Satz und Sieg: Elmario.
Thread geschlossen. :bigok:
Vielen Dank für Ihr Interesse. Bitte begeben Sie sich nun ruhig und geordnet zu den Ihnen zugewiesenen Ausgängen.
#116
Registriert seit: 24.06.2015

Banned
Beiträge: 913
ich hab auch keine ahnung warum das früher nicht gemacht wurde
evtl hat man das problem einfach immer heruntergespielt

aber seit es 144hz monitore gibt siet man das tearing auch nicht wirklich stark
ich zumindest sehe da bei freesync nicht so krasse verbesserungen wenn man 144hz gewohnt ist

ich bin ja von 60hz umgestiegen direkt auf freesync, das sind welten
#117
customavatars/avatar206123_1.gif
Registriert seit: 14.05.2014
Hamburg
Kapitänleutnant
Beiträge: 1870
Kommt auch sehr stark auf den jeweiligen Monitor oder das Panel an. Ich hatte drei Samsung 27"er mit FullHD, 60Hz und TN-Panel. 1x T27A300 und 2x S27A550h. Der T27 hatte wenig Probleme mit Tearing. Bei den beiden anderen, etwas moderneren mit leicht besserem Panel war es extrem. Meist zwei Streifen gleichzeitig, einer oben-mittig und einer unten. Oft wanderten die minutenlang auch nicht weg.

Aber selbst bei 144Hz kann ich mit einer HD 7850 (die kein Freesync kann) das Tearing finden, wenn ich danach suche. Auch bei älteren Spielen die ungefähr 100fps schaffen mit der Karte. Für mich war deswegen Freesync ausnahmsweise mal keine Geldschneiderei, zumal der Monitor im Gegensatz zu den G-Sync Teilen auch nicht wirklich teurer war als ein 144Hz 27" 1440p TN sonst. Intel soll das gerne reinbringen. Dann kaufe ich nach der i5-5675C auch die nächste "zwischen-CPU", die fast nur bei der iGPU Verbesserungen bringt, und bin zufrieden ;)

Für WoT, WoWs, WoW, Fallout 3 reicht die iGPU allemal* und der Rechner ist sehr mobil und schlürft <100 watt!



*bei World of Warships muss ich tatsächlich auf mitttel-niedrige Details stellen :(
#118
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32857
Zitat fullHDade;23809174
Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?


Neja, so einfach ist das nun nicht...
Das Problem ist nicht primär die Ausgabe oder der Input am Monitor, das Problem kommt eigentlich daher, dass man mit der Umstellung von alten Röhren auf TFTs die Wiederholfrequenz drastisch eingekürzt hat.
Frag mal einpaar ambitionierte Spieler von "damals", die noch auf ihrer 120Hz+ Röhre spielten, wie der Erlebnis auf den ersten 60Hz TFTs war... Da war nicht nur die Reaktionszeit der Kristalle (Stichwort Schlierenbildung) ein Problem, sondern auch eben die Wiederholfrequenz.

Früher, also zu den Anfängen der 3D Games kommte man mit ner anständigen Röhre einstellen, wie man es wollte. Techniken wie VSync gab es ja schon -> sprich Ausgabe und Monitor im Gleichtakt war schon "bekannt". In schnellen spielen hat man also viele FPS mit viel Hz gespielt -> inkl. VSync. In langsameren womöglich verzichtete man auf hohe FPS und spielte stattdessen möglicherweise mit mehr BQ, dann halt auch weniger Hz. (bis es eben anfing zu flimmern -> 60Hz auf ner Röhre flimmert ohne Ende!)

Mit den ersten TFTs waren es 60Hz auf der TFT Seite -> das heist es war jahrelang einfach fix. Oftmals verzichtete man auf VSync um die FPS zu haben -> Tearing, also das Zerreißen des Bildes, was genau dann auftritt, wenn der Monitor noch mit der Ausgabe des Bildes beschäftigt ist, die GPU aber schon ein neues ausgespuckt hat -> dann hast du auf dem Schirm einen Bildversatz drin, wenn es um bewegte Bilder geht.

Irgendwann steig die Hz Zahl der Monitore, aus 60 wurden 120 und mittlerweile gibts auch 144Hz, sowie teils die Möglichkeit, das noch via Software weiter zu steigern.
Willst du allerdings syncrone 120 oder 144Hz mit VSync, muss die GPU auch entsprechend schnell sein -> da wirds schon teuer. Bei höheren Auflösungen sogar richtig teuer.

Die Idee war nun einfach, lass es uns variabel machen -> das ist im Grunde das Sync Feature -> nicht der Sync ansich, sondern die Flexibilität, dass bei mehr FPS der Monitor auch schneller ausgibt und bei weniger eben entsprechend weniger.

Zitat fullHDade;23809174
Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?


Rein von der technischen Seite her wäre das wohl auch schon viel früher möglich gewesen... Denn man konnte auch vor FreeSync/G-Sync schon die Hz Zahlen teils vollvariabel mit den richtigen Programmen von 24/50Hz bis 144Hz und mehr einstellen. -> allerdings nur händisch und nicht ohne Zutun der Spiele FPS und auch nicht in Echtzeit ;)
Was halt einfach fehlte war A) die Idee, das als vollflexible Lösung anzubieten und B) die Umsetzung, dass es auch funktioniert...

Ich muss aber auch ehrlich sagen, vor G-Sync/FreeSync hat eigentlich nahezu keiner nach so einer flexiblen Syncmethode gefragt. Sprich es gab gar nicht wirklich den Drang danach... Sonst sind die Leute immer ziemlich schnell dabei, wenn es um teils unmögliche Vorderungen geht -> aber diese Idee hatte lange definitiv keiner so recht auf dem Plan ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]

Drei Modelle der GeForce GTX 1060 von ASUS, EVGA und Inno3D im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060-2/GTX1060_ROUNDUP2-TEASER

Nach einer kurzen Unterbrechung durch die AMD Radeon RX 470 und Radeon RX 460 machen wir weiter mit dem nächsten Schwung verschiedener Custom-Modelle zur NVIDIA GeForce GTX 1060. Während die Eigenlösungen der AMD-Partner teilweise noch immer auf sich warten lassen, ist man bei der Konkurrenz... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

ASUS ROG Strix Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/ASUS-RX480/ASUS-RX480-LOGO

Nachdem wir uns bereits zwei Custom-Modelle der Radeon RX 480 abgeschaut haben, folgt heute das dritte Modell: Die ASUS ROG Strix Radeon RX 480. Große Erwartungen wurden an die bisherigen Custom-Modelle gesetzt, erfüllt werden konnten diese Erwartungen aber nur größtenteils, nicht vollends.... [mehr]