> > > > G-Sync ohne Zusatzmodul auf manchen Notebooks mit Embedded-DisplayPort

G-Sync ohne Zusatzmodul auf manchen Notebooks mit Embedded-DisplayPort

Veröffentlicht am: von

nvidia gsyncIn der vergangenen Woche tauchten erste Hinweise darauf auf, dass NVIDIAs G-Sync-Technologie auch ohne G-Sync-Modul funktionieren solle. Die Zusatzhardware würde nur als eine Art DRM-System verwendet, rein technische aber würde G-Sync die gleichen Funktionen verwenden, wie Adaptive Sync oder FreeSync des DisplayPort-Standards in der Version 1.2. Auf der CES stellten zahlreiche Hersteller ihre ersten FreeSync-Monitore vor, die ab März im Handel erhältlich sein sollen.

Eigene Tests mit einem Philips 288P6LJEB zeigten aber nicht das gleiche Ergebnis, wie auf den offiziellen G-Sync-Modellen ASUS ROG Swift PG278Q und Acer Predator XB280HK. Zwar ließ sich G-Sync mit Hilfe eines modifizierten GeForce-Treibers aktivieren, letztendlich funktionieren wollte es aber nicht. Die Kollegen von PCPerspective haben sich den Hintergrund der Geschichte etwas genauer angeschaut und sorgen nun auch für eine Auflösung. Demnach funktioniert G-Sync mit manchen Notebooks, deren Display per eDP (Embedded DisplayPort) angebunden ist. Die notwendigen Treiber-Modifikationen tauchten auf, nachdem der Support von ASUS (genauer gesagt der für die skandinavischen Länder) einen Treiber mit der Versionsnummer 346.87 verschickte. Dabei handelt es sich um einen internen Build, der gar nicht für die Öffentlichkeit gedacht ist.

Wird dieser Treiber auf einem Notebooks installiert, das eine NVIDIA-GPU sowie ein Display verwendet, welches per eDP angebunden ist, wird der Nutzer mit einem Treiber-Hinweis begrüßt, dass er nun G-Sync aktivieren könne. PCPerspective installierte den Treiber auf einem ASUS G751 und tatsächlich tauchte der Hinweis auch hier auf. Die Pendel-Demo von NVIDIA und weitere Tests zeigten dann auch recht schnell, dass G-Sync hier tatsächlich funktioniert. Aus dem ASUS G751 mit einem laut Hersteller 75-Hz-Display wurde so ein 100-Hz-Display mit G-Sync.

Nun stand natürlich die Frage im Raum, ob ASUS hier bewusst ein G-Sync-Modul verbaut hat, dies aber bisher nicht in den technischen Daten erwähnte oder ob G-Sync auch ohne diese Zusatzhardware funktioniert. Dazu muss man wissen, dass G-Sync eine ähnliche Funktionsweise aufweist, wie Adaptive Sync, eine Technologie, die bereits in frühen eDP-Displays verwendet wurde. An den Einsatz im Zusammenspiel mit Spielen um störende Bildeffekte durch die asynchrone Darstellung auf dem Monitor sowie dem Rendering der GPU dachte man nicht sofort. Adaptive Sync fand im letzten Jahr aber nun doch als FreeSync den Weg in dieses Segment. PCPerspective zerlegte das ASUS G751 in der Folge, fand aber keine Hardware, die als G-Sync-Zusatzmodul zu identifizieren war.

Das Timing zwischen Panel und GPU ist entscheidend, um die positiven Effekte von G-Sync und FreeSync zu erzielen. Ein sogenannter Tcon sorgt für die korrekte Ansteuerung des Displays und NVIDIA verwendet dazu in den ersten G-Sync-Monitoren eben eigene Hardware. Offenbar aber sind einige Displays mit den dazugehörigen Tcons in der Lage dies eigenständig auszuführen. Mit dem Beta-Treiber versucht sich NVIDIA offenbar daran, G-Sync auch ohne zusätzliche Hardware zu realisieren. Offenbar steht aber noch einiges an Arbeit an, bevor eine solche Lösungen fertig für den Endkunden ist. PCPerspective untersuchte einige konkrete Anwendungsfälle, bei denen G-Sync und FreeSync eigentlich Abhilfe schaffen sollen, dies dem Beta-Treiber aber noch nicht gelingen wollte. So traten Frame-Einbrüche auf, aber auch die Ansteuerung des Tcon war nicht immer fehlerfrei, so dass manche Spiele in einem sehr niedrigen VSync arbeiteten. Aber auch ein Flackern oder komplett schwarze Frames traten auf, so dass von einer marktreifen Umsetzung wohl noch nicht die Rede sein kann.

PCPerspective setzte sich daraufhin mit NVIDIA in Verbindung, um zu klären, was es mit dem Beta-Treiber auf sich hat. Laut NVIDIA wurde der Treiber so an OEM-Partner ausgeliefert, um G-Sync für Notebooks zu testen. Damit bestätigt man auch, dass in Zusammenarbeit mit den Herstellern an einer solchen Lösung gearbeitet wird. Nicht äußern aber wollte man sich bezüglich technischer Spezifikationen und genauer Release-Daten.

Bleibt noch die Frage, ob sich eine Umsetzung von G-Sync ohne Zusatzhardware vom mobilen auch auf den Desktop-Bereich umsetzen lässt? Die Antwort ist vorerst nein! Nicht zur Aufklärung konnte NVIDIA allerdings beitragen, wenn es um die Frage geht, ob FreeSync-Monitore gleichzeitig auch G-Sync unterstützen können. Diese Frage sei "intern noch nicht endgültig geklärt". NVIDIA verwendet laut eigenen Angaben Techniken und Funktionsweisen, die zwar ähnlich zu FreeSync sind, sich aber in Details noch unterscheiden, um ein besseres Ergebnis zu erhalten.

Wohl letztendlich klären lässt sich diese Frage nur, wenn sich entweder dazu entscheidet die Hardware-Voraussetzungen zu kippen oder aber weitere Monitor-Modelle erscheinen. Derzeit aber ist klar zu erkennen, dass FreeSync die größere Unterstützerbasis bei den Monitor-Hersteller hat. Für das aktuelle Jahr wurden mehr als ein Dutzend Modelle angekündigt.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (23)

#14
Registriert seit: 23.05.2011

Bootsmann
Beiträge: 619
Beim XMG U702 sollte eins der Displays hier verbaut sein LCD Panel Advanced Search - Panelook.com
Den geleakten Treiber aufspielen und testen :)
#15
customavatars/avatar18548_1.gif
Registriert seit: 27.01.2005

Flottillenadmiral
Beiträge: 5465
Zitat senbei;23137206
Beim XMG U702 sollte eins der Displays hier verbaut sein LCD Panel Advanced Search - Panelook.com
Den geleakten Treiber aufspielen und testen :)

Bei mir ist das LG LP173WF2-TPB1 verbaut. Ich werde den Treiber mal installieren heut Nachmittag.
#16
customavatars/avatar2751_1.gif
Registriert seit: 12.09.2002
Hennigsdorf
Stabsgefreiter
Beiträge: 319
Zitat Unrockstar;23131773
Autsch, ich glaube 2015 wird hart für NV mit so vielen Marketing Lügen.


Toll, die Radeon R9 295x2 ist ,z.B., auch eine Marketinglüge, aber entweder will das keiner wissen oder es wissen nur die wenigsten. Diese Karte wird mit 8 GB Speicher beworben. Das ist zwar faktisch richtig, jedoch sind es effektiv 2x4 GB. In einem Dual-GPU System sind eben 2x4 nicht gleich 8.
#17
Registriert seit: 02.04.2012

Obergefreiter
Beiträge: 83
Zitat MagicTS;23143278
Toll, die Radeon R9 295x2 ist ,z.B., auch eine Marketinglüge, aber entweder will das keiner wissen oder es wissen nur die wenigsten. Diese Karte wird mit 8 GB Speicher beworben. Das ist zwar faktisch richtig, jedoch sind es effektiv 2x4 GB. In einem Dual-GPU System sind eben 2x4 nicht gleich 8.



http://www.hardwareluxx.de/images/stories/newsbilder/astegmueller/2014/wccftech_gtx_titan_z_retailers_waiting.png
#18
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11464
Zitat MagicTS;23143278
Toll, die Radeon R9 295x2 ist ,z.B., auch eine Marketinglüge, aber entweder will das keiner wissen oder es wissen nur die wenigsten. Diese Karte wird mit 8 GB Speicher beworben. Das ist zwar faktisch richtig, jedoch sind es effektiv 2x4 GB. In einem Dual-GPU System sind eben 2x4 nicht gleich 8.

Du hast zwar recht, aber das ist "normal"...
Als käufer geht man in der Regel davon aus dass die 8Gb sich bei Crossfire halbieren - so wie man auch davon ausgeht dass die gesamten 4Gb Vram einer Einzekarte auch gleich schnell angebunden sind - Beides war "schon immer" so.
Außerdem kann man für bestimmte Anwendungen wie GPU-Computing (eben immer wenn man CF nicht nutzt) die 8Gb auch getrennt ansprechen, wenn ich mich nicht irre.
#19
customavatars/avatar2751_1.gif
Registriert seit: 12.09.2002
Hennigsdorf
Stabsgefreiter
Beiträge: 319

Ja das weiß ich, das war ja auch nur ein Beispiel. Marketinglügen gibt es zu Hauf, von jedem Hersteller, aber nur die wenigsten werden bemerkt, oder es interessiert ganz einfach keinen.
#20
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11464
Zitat MagicTS;23143562
Ja das weiß ich, das war ja auch nur ein Beispiel. Marketinglügen gibt es zu Hauf, von jedem Hersteller, aber nur die wenigsten werden bemerkt, oder es interessiert ganz einfach keinen.


Es ist schon was anderes wenn man zwar mit falschen Sachen wirbt, es dann aber im "kleingedruckten" richtig stellt! Das ist bei CF/SLI der Fall - Bei der GTX 970 hat NV letzteres aber nicht gemacht. Sogar den Reviewern hat man falsche Informationen gegeben.
#21
customavatars/avatar116308_1.gif
Registriert seit: 12.07.2009

Oberleutnant zur See
Beiträge: 1479
Zitat
Toll, die Radeon R9 295x2 ist ,z.B., auch eine Marketinglüge, aber entweder will das keiner wissen oder es wissen nur die wenigsten. Diese Karte wird mit 8 GB Speicher beworben. Das ist zwar faktisch richtig, jedoch sind es effektiv 2x4 GB. In einem Dual-GPU System sind eben 2x4 nicht gleich 8.


Bis dato noch richtig, aber wenn die Aussage unten wahr ist und kein Marketinggeblubber dann ist spät. mit Windows 10 / Mantle das anders:

Zitat
Ultimately the point is that gamers believe that two 4GB cards can’t possibly give you the 8GB of useful memory. That may have been true for the last 25 years of PC gaming, but thats not true with Mantle and its not true with the low overhead APIs that follow in Mantle’s footsteps. – @Thracks (Robert Hallock, AMD)
#22
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11464
Hmm, wäre interessant wenn sich an der Sache was ändern würde!
#23
customavatars/avatar18548_1.gif
Registriert seit: 27.01.2005

Flottillenadmiral
Beiträge: 5465
Zitat senbei;23137206
Beim XMG U702 sollte eins der Displays hier verbaut sein LCD Panel Advanced Search - Panelook.com
Den geleakten Treiber aufspielen und testen :)

Da tut sich bei mir nichts, ob ich den "Gamenab.net Unified 347.25 Driver Install" oder "ASUS Nordic tech-leaked 346.87 Driver Install" Treiber mit modifizierter inf installiere, zeigt bei mir nichts G-Sync mäßiges an?! Notebook mit eDP sowie 980M und los gehts, so einfach ist es dann scheinbar doch nicht.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]