> > > > Vorerst kein FreeSync im Zusammenspiel mit CrossFire

Vorerst kein FreeSync im Zusammenspiel mit CrossFire

DruckenE-Mail
Erstellt am: von

Die Einführung von FreeSync bringt eine Synchronisation von Monitor-Panel und GPU der Grafikkarte nun auch für Nutzer für Karten aus dem Hause AMD. Einen ersten Blick und eine Einführung gewährten wir bereits vor einigen Wochen, erst heute kam dann auch noch ein Artikel hinzu, der zumindest zwei Monitore mit FreeSync-Unterstützung enthält. Mit der Einführung betonte AMD, dass FreeSync vorerst nicht zusammen mit der Multi-GPU-Technologie CrossFire funktionieren wird, man den entsprechende Treiber aber im Laufe des April nachreichen möchte. Nun ist der April bereits Vergangenheit und vom versprochenen Treiber ist wenig zu sehen.

AMD FreeSync im Catalyst Treiber
AMD FreeSync im Catalyst Treiber.

Inzwischen hat AMD in seinem Forum offiziell bestätigt, dass man aktuell darauf verzichte FreeSync im Zusammenspiel mit CrossFire zu aktivieren. Man sehe die Qualität noch nicht auf einem Niveau, dass man dem Nutzer dies anbieten möchte.

"After vigorous QA testing, however, it’s now clear to us that support for AMD FreeSync monitors on a multi-GPU system is not quite ready for release."

Man arbeite aber weiter an der Umsetzung einer solchen Lösung, benennt aber keinen neuen Zeitrahmen, wann man einen finalen Treiber anbieten möchte.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (34)

#25
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat Schaffe89;23443651
Es geht doch die ganze Zeit darum, dass G-sync mit SLI eben nicht gut läuft und nicht darum, ob es läuft.

Nein, es geht, siehe Threadtitel darum, das bei AMD kein FreeSync mit CF gepaart geht, während dies bei NV offenbar geht. Ob problematisch oder nicht, ist doch nebensächlich. Auch problembehaftetes ist besser als gar nix -> Warum ich Sharif seinen Post nicht nochmals zitiere -> Don hat das doch schon richtig gestellt.

Zitat Schaffe89;23443651
Ganz abgesehen davon dass ich prophezeie dass das nie richtig funktionieren wird, weil sich G-sync und SLI im Wege stehen.

Warum? Bring doch einfach mal fakten...

Zitat Schaffe89;23443651
Und das kann man mit G-sync nicht glätten, während die Ausgabe einer Single GPU sich glätten lässt, der Vorteil von G-sync verpufft schlicht und einfach.

Das, was hinten am Ausgabeport raus kommt, ist sowas von gleich zwischen MGPU und SGPU, das du es schon fast nicht glauben wirst... Also bring doch mal ein paar Fakten, warum es sich nicht glätten lassen soll? -> Framemetering/Framepacing glätten die Frametimes und G/FreeSync sorgt für syncrone Bildausgabe anhand der Frametimes ggü. dem Monitor.
Wie ich schon sagte, beides steht sich dahingehend generell nicht im Weg... Wenn du anderer Ansicht bist, dann wäre es sinnvoll, deine Behauptung auch irgendwie zu untermauern.

Zitat Schaffe89;23443651
Beim Anschließend eines G-sync Monitors läuft der Traffic nicht mehr über die SLI Bridge, sondern über den PCie geschoben, was schonmal bei SLI oder CF die nicht über 2x Pcie 3.0 x16 läuft einen Overhead erzeugt.


Das soll jetzt ein Problem sein? Erinnere dich an die News über diese komische beleuchtete SLI Brücke zurück, da war das noch letzter Schrei, Daten über PCIe anstatt einer Brücke auszutauschen... Jetzt soll auf einmal die Brücke das Problem lösen? Du weist gar nichts, Jon Schnee... :fresse:
#26
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9490
Zitat fdsonne;23443766
Das soll jetzt ein Problem sein? Erinnere dich an die News über diese komische beleuchtete SLI Brücke zurück, da war das noch letzter Schrei, Daten über PCIe anstatt einer Brücke auszutauschen... Jetzt soll auf einmal die Brücke das Problem lösen? Du weist gar nichts, Jon Schnee... :fresse:

Ja Moment.. AMD hat die Katen angepasst damit die Synchronisation per Slots funktioniert. Das hat NV wohl nicht. Daher können sie nicht einfach darauf verzichten...

Was die Problematik angeht, denke ich mal dass uns einiges an Infos fehlen um abzuschätzen woran es liegt. Allerdings, wenn NV trotz selbst entwickelten Scaler in den Monitoren, probleme hat, ist es wohl verständlich, dass es bei AMD noch schwieriger wird, wenn man dies mit dem wohl eher fereizügig gestalteten, (offenen) Standard in Einklang bringen muss.
#27
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Da magst du recht haben... Allerdings hab ich nicht den Datenaustausch ins Spiel gebracht... Bekanntermaßen liefert die SLI Brücke 1GB/sec... Wenn der Austausch, warum auch immer das so sein soll, mit G-Sync über NICHT über die Brücke geht, dann geht es halt über PCIe -> damit steht potentiell genügend Bandbreite, weit mehr als die Brücke liefert, parat.
Und da wir ebenso wissen, das SLI zumindest (beim CF mag das ggf. anders ausschauen?) selbst mit 2x 8x PCIe 2.0 keine wirkliche Leistung verliert, stellt sich mir die Frage, was dieser Einwurf überhaupt bezwecken sollte??

Aber ja, es fehlen Infos, wie so oft... Weswegen eine Abgabe einer Wertung dahingehend schwer ist. Also lässt sich entweder beurteilen, was wir kennen -> CF geht nicht mit Sync, SLI hingegen schon. Oder wir sprechend auf technischer Ebene über das Warum. Letzteres habe ich versucht aufzuzeigen... Da es dort generell keine Zusammenhänge zwischen beiden Verfahren gibt. Denn ersteres setzt direkt bei der Bildung der Frametimes ein, letzteres synct die Ausgabefrequenz des Monitors mit der der Ausgabe der GPU(s) -> das sind doch zwei völlig verschiedene Paar Schuhe... Ob die Ausgabe am Ausgang der Grafikkarte geglättet ist oder nicht, hat den Monitor im Grunde eigentlich gar nicht zu interessieren. -> einzig der Punkt, wenn es generell MR gibt durch MGPU, also die Ausschläge zu groß sind und die Technik zur Glättung nicht (richtig) greift, wäre ein Sync schwierig oder besser gesagt, er wäre halt dann rucklig.

Zumal es im VSync + SLI/CF ebenso möglich ist, zu syncen. Nur nicht variabel anhand der Frames... Wenn Sync + SLI/CF bei fixer Framerate geht, wieso nicht aus variabel?
#28
customavatars/avatar54828_1.gif
Registriert seit: 01.01.2007
Exil
Der Saft ist mit euch!
Beiträge: 8145
SLI funktioniert doch schon relativ lange ohne Brücke, ich meine sogar seit den ersten Tagen? Kann mich wage erinnern, darüber schon bei der 6600GT gelesen zu haben. Wenn es bei Maxwell nicht geht, dann wird das im Treiber blockiert - es ging auf jeden Fall mal, steht sogar im Wikipedia Artikel :fresse:
Afaik läuft jedes Notebook-SLI auf diese Weise.
#29
Registriert seit: 29.03.2011
NRW
Flottillenadmiral
Beiträge: 5495
Zitat L0rd_Helmchen;23443111
Bin grundsätzlich daran interessiert, aber Bildqualität dafür opfern ist in meinen Augen inakzeptabel.


Wieso musst du für Gsync Bildqualität opfern!?
#30
customavatars/avatar54828_1.gif
Registriert seit: 01.01.2007
Exil
Der Saft ist mit euch!
Beiträge: 8145
Na weil ich dann kein Downsampling/DSR mehr nutzen kann.

Die einzige Alternative dazu wäre ein Monitor mit einer nativen Auflösung von wenigstens 2160p, aber wie gesagt, der derzeit einzige 4K Monitor mit G-Sync ist ein Acer TN Panel.

Generell ist es ein Problem, dass die bisher verfügbaren G-Sync Monitore sehr zu wünschen übrig lassen. Schon bei 1440p ist die Auswahl sehr bescheiden.
#31
Registriert seit: 24.10.2002
Wels
Bootsmann
Beiträge: 563
Warum nimmst du dann nicht einfach die bei allen Spielen vorhandenen AA/AF/etc. Einstellungen? Damit kommst du auch auf ein gutes Bild.
#32
Registriert seit: 29.03.2011
NRW
Flottillenadmiral
Beiträge: 5495
Zitat L0rd_Helmchen;23446494
Na weil ich dann kein Downsampling/DSR mehr nutzen kann.

Die einzige Alternative dazu wäre ein Monitor mit einer nativen Auflösung von wenigstens 2160p, aber wie gesagt, der derzeit einzige 4K Monitor mit G-Sync ist ein Acer TN Panel.

Generell ist es ein Problem, dass die bisher verfügbaren G-Sync Monitore sehr zu wünschen übrig lassen. Schon bei 1440p ist die Auswahl sehr bescheiden.


Der Acer XB270HU ist Top! Nativ 1440p auf 27" ist m.M. nach optimal.

Liest sich fast so, als hättest du Gsync noch nie genossen. Die Performance wird einfach so geil damit, weil du weder Tearing noch Stottern hast.
#33
Registriert seit: 26.01.2009
Dies ist meine Online-Persönlichkeit, die überall wohnt.
Matrose
Beiträge: 18
Das sich SLi/Crossfire und AdaptiveSync/Freesync/GSync grundsätzlich nicht sinnvoll kombinieren lassen, halte ich für Quatsch. Gerade die "Mein Bild ist fertig" - Kommunikation zwischen Grafikkarte und Monitor bietet sich doch geradezu an, um MultiGPU-Probleme zu minimieren.

Eine gaaaanz andere Frage ist, ob es sich "mal eben" ohne tiefgreifende Anpassungen, eventuell auch bei der Hardware, programmieren lässt. Wie viel Jahre hat es noch gedauert, bis es eine akzeptable Lösung gegen Microruckler bei SLi/Crossfire gab?

Der Behauptung, dass jedes Feature, egal wie schlecht umgesetzt, besser sei als kein Feature kann ich nicht zustimmen. Mir ist da eine ehrliche Aussage, z.B. "Multi-GPU erst in einem halben Jahr" sympathischer als Schnellschüsse, die die ganze Technik als fragwürdig erscheinen lassen.
#34
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat derLordselbst;23447652
Eine gaaaanz andere Frage ist, ob es sich "mal eben" ohne tiefgreifende Anpassungen, eventuell auch bei der Hardware, programmieren lässt. Wie viel Jahre hat es noch gedauert, bis es eine akzeptable Lösung gegen Microruckler bei SLi/Crossfire gab?


Also bei NV zumindest wissen wir (nach bestätigten Meldungen), dass man seit dem G80 an der Technik generell arbeitet... Wann genau diese in den Treiber eingeflossen ist, hingegen ist glaube ich nicht 100% bestätigt.
Bei AMD wissen wir, dass es seit der HD7990 der Fall ist und wir wissen auch ziemlich genau, wann die Technik in die Treiber gekommen ist.
Also zumindest dahingehend ist es schon eine relativ lange Zeit, dass sich zumindest NV dem Umstand bewusst ist -> bei AMD sicher ebenso lange. Die Kritik selbst hagelt es ja nicht erst seit heute ;)

Zitat derLordselbst;23447652
Der Behauptung, dass jedes Feature, egal wie schlecht umgesetzt, besser sei als kein Feature kann ich nicht zustimmen. Mir ist da eine ehrliche Aussage, z.B. "Multi-GPU erst in einem halben Jahr" sympathischer als Schnellschüsse, die die ganze Technik als fragwürdig erscheinen lassen.


Das wurde ja nicht ausgesagt... Die Art und Weise der Kommunikation macht es doch am Ende erst sympatisch(er) oder eben nicht.
Nimmt man es genau, so steht weder bei AMD noch bei NV, dass der Spaß in Kombination sauber gehen MUSS. Sprich, vor dem Punkt, ob der Hersteller uns was vorsetzt, was nicht geht und der Aussage, wir schaffen es noch nicht, gib uns mehr Zeit, sind wir eigentlich gar nicht.
Ich würde dir voll und ganz zustimmen, wenn es nur in Ausnahmefällen überhaupt gehen würde... Schaut man sich aber mal die Berichte an, dann ist es eher so, dass es in Ausnahmefällen eben nicht (sauber) läuft... Das Weglassen zugunsten dieser Ausnahmefälle wäre also mehr "Verlust" als das Wissen darüber, dass es eben mal nicht funktionieren kann.
Nimm als ganz pragmatisches Beispiel doch MGPU... Wir wissen das MGPU nicht überall und flächendeckend läuft, deswegen ists doch immernoch gut, dass es überhaupt grundsätzlich geht. Willst du es nutzen, solltest du dir nur diesem Umstand bewusst sein ;) Das lässt sich noch auf so viele Umstände ausweiten... Der Kunde ist doch lange schon der Beta Tester für den Hersteller. Wie oben schon erwähnt, würde man alles weglassen, was teilweise Probleme macht, würden wir gar nicht mehr spielen können ;) Und von der Aussage, dass der Hersteller dran arbeitet, kann sich der Spieler gelinde gesagt gar nix kaufen...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]