> > > > AMD- und NVIDIA-Grafikkarten unter DirectX 12 im Multi-Adapter-Modus

AMD- und NVIDIA-Grafikkarten unter DirectX 12 im Multi-Adapter-Modus

DruckenE-Mail
Erstellt am: von

Microsoft2012Bisher konzentrierte sich vieles bei der Berichterstattung über DirectX 12 auf die Low-Level-Natur der API sowie den geringeren Overhead und damit das freiwerdende Leistungspotenzial. Auch wir haben bereits einige Tests durchgeführt – einmal zum entsprechenden Draw-Call-Test des 3DMark von Futuremark und inzwischen gehört ein DirectX-12-Benchmark zum Grafikkarten-Testparcours. Über die gemeinsame Nutzung der Grafik-API von AMD- und NVIDIA-Grafikkarten haben wir bereits berichtet, aber bis auf die theoretische Möglichkeit war davon bisher wenig zu sehen.

Je eine AMD- und NVIDIA-Grafikkarte im Test
Je eine AMD- und NVIDIA-Grafikkarte im Test (Bild: Anandtech)

DirectX 12 Multi-GPU Explicit Multi-Adapter oder Multi Display Adapter – so die meistgenannten Namen der Methode der gemeinsamen Zusammenarbeit unterschiedlicher GPUs – wird durch die tiefere Kontrolle der API durch die Entwickler möglich. Sie haben eine weitergehende Kontrolle über den Zugriff auf den Speicher und viele andere Elemente der Hardware. Der Betrieb eines Multi-GPU-Systems lag unter DirectX 11 in den Händen der Treiber-Entwickler. Mit DirectX 12 geht die Kontrolle auf die Spiele-Entwickler über. Anandtech hat nun erste Tests des Multi-GPU Explicit Multi-Adapter durchgeführt. Dazu hat man einen speziellen Build von Ashes of Singularity von Oxide Games erhalten.

Die Multi-GPU-Technik

Doch zunächst noch ein paar Worte zur Historie der Multi-GPU-Technik: Die Entwicklung von PCI-Express als Interface zur Kommunikation der Grafikkarten mit dem restlichen System hat dazu geführt, dass sowohl AMD als auch NVIDIA mithilfe des AFR (Alternate Frame Rendering) eine relativ einfache Implementation der Multi-GPU-Technik einführen konnten. Beim AFR wird jeweils ein Frame von einer GPU berechnet. Anpassungen des Spiels oder der Game-Engine sind nicht notwendig. Einzig AMD und NVIDIA müssen ihre Treiber entsprechend anpassen, damit Unterschiede im Rendering einzelner Frames nicht zu störenden Effekten führen. AMD führte dazu das Frame Pacing ein, bei NVIDIA sind entsprechende Techniken ebenfalls bereits in Hard- und Software gegossen. Die Synchronisation zwischen GPU und Display-Panel in Form von FreeSync und G-Sync hat dazu geführt, das weitere störende Effekte zumindest minimiert werden konnten.

Allerdings sind die Hardwaremöglichkeiten relativ eingeschränkt. NVIDIA erlaubt nur die Zusammenarbeit zwischen identischen Grafikkarten, während AMD etwas flexibler zumindest die Möglichkeit bietet unterschiedliche Grafikkarten einzusetzen, die auf der gleichen GPU basieren (z.B: Radeon R9 290 und Radeon R9 290X). Der wichtigste Grund für diese Einschränkung ist natürlich die Tatsache, dass so die Frames im AFR immer ähnlich schnell berechnet werden können. Anläufe mit dem SFR (Spit Frame Rendering) wurden zwar gemacht, setzten sich aber nicht durch. Zum SFR aber später mehr.

Doch abgesehen von den offiziellen Modi SLI und CrossFire gab es auch Anläufe Grafikkarten verschiedener Hersteller und unterschiedlicher Leistung zu kombinieren. 2010 führte LucidLogix die Hydra-Technologie ein. Mit einem Zusatzchip und dazugehöriger Software setzte sich die Technologie zwischen die Calls von DirectX und OpenGL und führte diese den kompatiblen Grafikkarten zu. Allerdings gab es auch große Einschränkungen, sowohl auf Seiten der Hardware, als auch auf Seiten der Software. Letztendlich führte dies dazu, dass sich die Hydra-Technologie nicht durchsetzen konnte und wieder in der Versenkung verschwand.

DirectX 12 und Multi-Adapter

Mit DirectX 12 führt Microsoft drei Multi-Adapter-Modi ein. Der einfachste beschreibt dabei die bereits bekannte Funktionalität im AFR mit gleichen Grafikkarten wie bisher bei AMD und NVIDIA. Dieser Modus limitiert allerdings die Möglichkeiten der Entwickler, reduziert aber auch das Fehlerpotenzial bei tiefergehenden Zugriffen auf die Hardware. Weiterhin wird ein Großteil der Arbeit vom Treiber übernommen und nicht von DirectX 12.

Präsentation zu EMAPräsentation zu EMA

Präsentation zu EMA in DirectX 12

DirectX 12 ermöglicht einen tiefergehenden Zugriff auf die Hardware, auch in einem Multi-GPU-System. Dazu hat Microsoft auch den Explicit-Multi-Adapter-(EMA)-Modus eingeführt. Dazu müssen die Spieleentwickler explizit auf eine Multi-GPU-Unterstützung hinarbeiten. Jede einzelne GPU, die Speicherzugriffe und wie die GPUs untereinander kommunizieren – all dies muss zuvor festgelegt werden. Die Verantwortung der Funktionalität liegt vollständig in Händen der Spieleentwickler, was auch gewisse Gefahren birgt. Der Aufwand dieser expliziten Anpassungen darf nicht unterschätzt werden und Fehler müssen von den Entwickler und nicht durch Microsoft, AMD oder NVIDIA korrigiert werden.

Präsentation zu EMA in DirectX 12
Präsentation zu EMA in DirectX 12

Der EMA-Modus bietet aber auch noch zwei unterschiedliche Wege der Implementation: Linked Mode und Unlinked Mode. Der Unlinked Mode stellt die Basis der Funktionalität von EMA dar. Der Linked Mode auf der anderen Seite bietet eine höhere Funktionalität, schränkt dann aber auch die kombinierbare Hardware deutlich stärker ein – ist wie ein festgelegtes SLI und CrossFire für DirectX 12 zu verstehen. Der Unlinked Mode hingegen kann dazu verwendet werden, unterschiedliche Grafikkarten, auch von unterschiedlichen Herstellern, miteinander zu kombinieren. Auch die Kombination zwischen diskreten und integrierten GPUs ist möglich.

Präsentation zu EMA in DirectX 12
Präsentation zu EMA in DirectX 12

Im Unlinked Mode wird jede Grafikkarte als eigenständige Hardware, mit eigenem Speicher, eigenem Commandprozessor, etc. angesehen. Das EMA in DirectX 12 ermöglicht aber nun den Datenaustausch zwischen diesen Instanzen und dies tiefergehend als nur der Austausch fertig gerenderter Frames. Teilweise gerenderte Frames oder Daten in den Buffern können nun ausgetauscht werden, was völlig neue Wege des Renderings auf mehreren GPUs ermöglicht. Was auf den ersten Blick aber wie eine einfache Möglichkeit des Datenaustausches darstellt und damit weiter als alles geht was bisher möglich war, wird auf den zweiten Blick doch etwas komplizierter. So werden die Daten über das PCI-Express-Interface ausgetauscht, was im Vergleich zur Kommunikation zwischen GPU und dem Grafikspeicher deutlicher langsamer ist und zudem über eine recht hohe Latenz verfügt. Die Entwickler müssen sich also überlegen, welche Daten sie wann austauschen wollen, damit das PCI-Express-Interface nicht zum Flaschenhals wird. Ebenfalls darauf geachtet werden muss, in welcher Form diese Daten ausgetauscht werden. Die verschiedenen Hersteller und GPU-Generationen und Varianten legen oftmals unterschiedliche Datenformate an, die dann nicht so einfach untereinander verwendet werden können. Hier wird dann die Arbeit ersichtlich, die bei der Implementation von EMA im Unlinked Mode notwendig ist. Der Fokus des Unlinked Mode innerhalb des EMA liegt auf der bereits besagten Unterstützung von dGPUs und iGPUs, aber natürlich lassen sich hier auch unterschiedliche GPUs unterschiedlicher Hersteller kombinieren.

Präsentation zu EMA in DirectX 12
Präsentation zu EMA in DirectX 12

Der Linked Mode stellt wie gesagt in einfachster Form ein SLI oder CrossFire unter DirectX 12 dar, allerdings wird im Linked Mode die Hardware zu einer "Grafikkarte" zusammengefasst. Für das Spiel und den Nutzer sind nur noch eine GPU und ein Speicher sichtbar. Die Hardware muss dazu deutlich enger miteinander verknüpft werden, was deutlich mehr Möglichkeiten zulässt, allerdings auch für die Einschränkungen bei der Hardware sorgt. Das größte Leistungspotenzial liegt durch die Freiheiten sicherlich im Linked Mode, die größte Flexibilität bietet der Unlinked Mode. Entwickler, die möglichst wenig Arbeit haben möchten und dennoch eine Basisfunktionalität für ein Multi-GPU-System bieten wollen, unterstützen einfach nur das EMA und überlassen die Arbeit den Treiberentwicklern von AMD und NVIDIA. Da aber nur die Entwickler selbst den besten Einblick in die eigene Arbeit haben, ist sicherlich ein Angebot aus Linked und Unlinked Mode zu bevorzugen.

EMA in Ashes of Singularity

Oxide Games hat Ashes of Singularity in der vergangenen Woche in den Early Access von Steam gebracht. 2016 soll das Echtzeit-Strategiespiel dann fertig sein. Als erstes seiner Art setzt es auf DirectX 12 und als erster Entwickler hat Oxide Games die Möglichkeiten von DirectX 12 vollständig ausgenutzt. AMD und Microsoft nutzen das Entwicklerstudio bzw. das Spiel als Technologiedemo. Zur Demonstration von EMA hat Oxide Games das Spiel auf eine AFR-Implementierung hin angepasst. Die Entwickler können jeden Frame einer bestimmten GPU zuteilen – eine Arbeit die zuvor vom Treiber übernommen wurde. Außerdem übernehmen sie die Übertragung der Frames von der sekundären zur primären GPU und auch das Frame Pacing wird nun vom Entwickler übernommen. Das AFR funktioniert am besten, wenn ähnlich starke Grafikkarten eingesetzt werden, da die Frames hier in ähnlicher Zeit berechnet werden. Dennoch geht die Implementation weiter als das, was AMD und NVIDIA derzeit bieten. Nicht nur lassen sich unterschiedliche GPUs unterschiedlicher Hersteller kombinieren, auch möglich ist der Betrieb einer GeForce GTX Titan X mit einer GeForce GTX 980 Ti. Funktionieren sollten alle Grafikkarten, die DirectX 12 unterstützen. Dies zu testen machte sich Anandtech nun zur Aufgabe und führte zahlreiche Benchmarks durch.

Ashes of Singularity befindet sich in der Gesamtheit noch in einem Alpha-Status. Der Unlinked Mode von EMA ist noch weitaus experimenteller. Nur eine bestimmte Kombination aus AMD- und NVIDIA-Treibern funktioniert, aber das Ergebnis ist weitaus besser als man dies zum aktuellen Zeitpunkt erwarten könnte. Laut Oxide Games soll der Unlinked Mode weiter verbessert werden, bevor man sich an die Arbeit mit dem Linked Mode macht. Von ihm erwartet man sich eine Leistungssteigerung im Bereich von 5 bis 10 Prozent.

Die Ergebnisse der ersten Tests sehen wie folgt aus:

Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech
Benchmarks zu EMA von Anandtech

Ein paar Worte zu den Ergebnissen: Zum einen werden die Leistungszuwächse durch die Kombination einer Radeon R9 Fury X und Radeon R9 Fury deutlich und vor allem der Mixed-Mode mit Radeon R9 Fury X und GeForce GTX 980 Ti zeigt beachtliche Ergebnisse. Relativ gering sind die Unterschiede hingegen bei der Wahl der jeweils primären Grafikkarte. Selbst ältere Grafikkarten können vom Unlinked Mode profitieren.

Auch wenn es bereits zur BUILD 2015 bei Microsoft in die Theorie einen funktionierenden Unlinked Mode gab und dieser auch präsentiert wurde, so sind die unabhängigen Messungen dennoch ein gutes Zeichen für die aktuelle Entwicklung. Wir befinden uns aber in einem recht frühen Stadium des Wechsels von DirectX11 auf DirectX 12. Es wird noch einige Monate dauern bis alleine eine Handvoll Spiele am Markt sein werden. Bis alle Entwickler auf DirectX 12 setzen werden, werden noch Jahre vergehen. Ebenso verhält es sich mit der Umsetzung der dazugehörigen Technologien. Die Leistungssteigerung durch den geringeren Overhead werden die meisten Entwickler sicherlich recht schnell mitnehmen – bis EMA sowie der Unlinked und Linked Mode allerdings überall zu finden sein werden, wird noch einmal deutlich mehr Zeit vergehen. Als Spieler kann man dieser Entwicklung aber erst einmal gelassen entgegensehen.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (25)

#16
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5155
Zitat loopy83;23988026
Aktuell gibt es schon genug Probleme bei den Entwicklungen eines neuen Spiels. Ständig Terminverschiebungen, oder ein Beta Spiel...
Da kann man sich nur ausmalen was passiert, wenn die Spieleschmieden jetzt noch komplexere Sachverhalte implementieren müssen :eek:

:heuldoch:
Solche Kombinationen sind m.M n. sehr wichtig, da kann man z.B. auch die Speicheradressen Gemeinsam Festlegen.
Nicht oft passiert es, dass die Treiber auf die selbe Adresse Zugreifen wollen (Übrigbleibsel von 32Bit).

Richtig interessant wird das erst wenn auch die Energie Optionen ergänzt werden.
So kann man z.B. die AMD als Sekundäre Karte laufen lassen und ZeroCorePower nutzen.
Da die AMD Karte dann nicht mehr Sichtbar ist für die Software, könnte z.B. PhysX auf der primären nvidia Karte laufen.
Da ja keine AMD Karte mehr physikalisch vorhanden ist. ;)
#17
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31948
Zitat Phantomias88;23989024

Solche Kombinationen sind m.M n. sehr wichtig, da kann man z.B. auch die Speicheradressen Gemeinsam Festlegen.
Nicht oft passiert es, dass die Treiber auf die selbe Adresse Zugreifen wollen (Übrigbleibsel von 32Bit).


Was willst du uns damit sagen???
Die Aussage ergibt genau NULL Sinn...

Zitat Phantomias88;23989024
Richtig interessant wird das erst wenn auch die Energie Optionen ergänzt werden.
So kann man z.B. die AMD als Sekundäre Karte laufen lassen und ZeroCorePower nutzen.
Da die AMD Karte dann nicht mehr Sichtbar ist für die Software, könnte z.B. PhysX auf der primären nvidia Karte laufen.
Da ja keine AMD Karte mehr physikalisch vorhanden ist. ;)


Das wird nicht gehen, da IMMER der Treiber aktiv sein muss. Und der verrät schon einfach mal, welche Karte im System steckt.
Ebenso schlummert eine Device/Vendor ID der steckenden, ja selbst der steckenden, aber schlafenden Hardware durch das System... Auch diese lässt eineindeutig die Hardware identifizieren.
Wenn NV nicht will, das PhysX per GPU bei steckender AMD Karte geht, dann gibt es zu 99% auch einen Weg, das zu unterbinden... DX12 wie auch irgendwelche Energieeinstellungen/Optionen ändern an der Situation genau nichts.
Bitte nicht so einen Unsinn verbreiten... Vor allem der letzte Satz. Die Karte ist physisch vorhanden. Selbst im ZeroPower State oder wie sich das Ding schimpft... Und genau DAS wird dir unter diesem Gesichtspunkt auch zum "Verhängnis" und lässt diese (aus meiner Sicht völlig unsinnige) Trickserei nicht aufgehen.
#18
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Zitat fdsonne;23988425
Wissen wir das?
Das Feature ist ein DX12 Feature... Es spricht nicht viel dafür, dass hier ein Hersteller die Geschichte unterbinden kann...


Natürlich geht das, wie du schon so schön erläutert hast.

Zitat fdsonne;23989391

......da IMMER der Treiber aktiv sein muss. Und der verrät schon einfach mal, welche Karte im System steckt.
Ebenso schlummert eine Device/Vendor ID der steckenden, ja selbst der steckenden, aber schlafenden Hardware durch das System... Auch diese lässt eineindeutig die Hardware identifizieren.
Wenn NV nicht will, das PhysX per GPU bei steckender AMD Karte geht, dann gibt es zu 99% auch einen Weg, das zu unterbinden... DX12 wie auch irgendwelche Energieeinstellungen/Optionen ändern an der Situation genau nichts.


Manchmal kommt man eben selber drauf. ;)
#19
customavatars/avatar97341_1.gif
Registriert seit: 23.08.2008
Bitz
Anime und Hardware Otaku
Beiträge: 10927
Der Klassiker: Kapulet & Montague :D

Zitat iCrack;23988141
Ohne Mist, aber wie geil ist es denn? AMD und nVidia zusammen! Hat schon was.. Wenn sich das etablieren würde. Schön wärs, vor allem in Hinblick auf Monitore welche GSync und FreeSync zugleich unterstützen... :)


+1
#20
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31948
Zitat Sharif;23990127
Nvidia wird bestimmt unterbinden, dass haben Sie schon mal gemacht und das werden Sie bestimmt wieder machen. Ich hoffe dann das MS NV in den Arsch treten wird wenn Sie sowas wieder machen sollten.
Pickebuh Natürlich hast du in der Sache recht.


Und wie soll das bitte funktionieren?

Dieser unlinked Mode kommt nicht von NV. Er kommt von MS in den Grundzügen und ist vom Entwickler der Spiele zu implementieren. NV hat da keinen wirklichen Einfluss drauf, geschweige denn, dass die da irgendwas unterbinden können.

Was du und auch Pickebuh aber einfach mal überhaupt nicht verstehen, das hat nichts mit PhysX per GPU zu tun. Die beiden gequoteten Aussagen meinerseits sind zwei völlig verschiedene paar Schuhe. Was man durchaus erkennt, wenn man nicht in jedem Satz irgendwelche Verschwörungen und böses Blut ggü. Herstellern und Produkten sehen würde.

Nochmal zum Verständnis. NV kann sich wenig bis gar nicht gegen eine Implementation des unlinked Modes in einer DX12 Anwendungen wehren. Sie können da nix unterbinden und es auch nicht irgendwie verhindern. Was sie machen können, ist A) die Entwickler bestechen -> was allerdings bei vielen verschiedenen Entwicklern und der Tatsache, dass der unlinked Modus vor allem in Verbindung mit IGPs Sinn ergibt, aussichtslos erscheint. Und B) können sie sich gegen DX12 stellen. Auch das werden sie nicht machen...

Der andere Part ist PhysX per GPU. Das ist NVs Baustelle und hat rein gar nix mit Microsoft oder DX zu tun. Wenn NV nicht will, das es auf anderen Herstellers Hardware läuft, verhindert man dies eben... Was auch ihr gutes Recht ist. Allerdings geht der Trend auch dort eher in Richtung Öffnung als in Richtung NV only. Siehe Gameworks in TW3 als Beispiel.

Wie schön die Diskusionen doch wären, wenn die Leute wenigstens den Background verstanden hätten :wall:
#21
customavatars/avatar11960_1.gif
Registriert seit: 18.07.2004
Vorarlberg/Österreich
Fregattenkapitän
Beiträge: 2675
Wenn das von den Spieleentwicklern zukünftig so gut unterstützt wird, dass es mit SLI/Crossfire vom Support relativ vergleichbar wird, wäre das doch ein Hammer.
Dann könne man sich jeweils einmal grün und einmal rot anschaffen. Werden beide Unterstützt ist das toll, ansonsten wählt man die jeweils vom Spiel besser unterstützte Karte. Dafür würde ich auch ein wenig an Performance im Vergleich zu einem reinen SLI/Crossfire System opfern.

Ich bin aber skeptisch, ob und wie viele Spieleentwickler sich die Mehrarbeit wirklich antun werden.
#22
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31948
Zitat mustrum;23991495
Ich bin aber skeptisch, ob und wie viele Spieleentwickler sich die Mehrarbeit wirklich antun werden.


Das ist wohl die größte Unbekannte bei der Frage, wie sich DX12 machen wird... Die Entwickler haben einfach hier Arbeiten zu erledigen, die sie vorher nicht machen hätten müssen.
Wenn ein Studio sich das nicht leisten kann oder will, wird man womöglich nur den dritten Modus implementieren, wo dann wieder die Geschichte am Treiber hängt.


Allerdings sehe ich ehrlich gesagt den Sinn dahinter nicht, ne NV und ne AMD GPU miteinander zu paaren... was kann denn die Paarung im Vergleich zu einer reinen homogenen ein Hersteller Kombo besser? Wo soll der Vorteil liegen?
Ich sehe eher den potentiellen Vorteil darin, brachliegende GPU Ressourcen für die Berechnungen mitzubenutzen. Und das ist in den allermeisten Fällen die IGP. Diese ist allerdings auch idR schwächer, teils sogar drastisch schwächer... Und es gibt noch extrem viel Variationsmöglichkeiten zwischen den Modellen. Da muss ne Menge Hirnschmalz reinfließen, damit das sauber tut.
Die paar Benches und Demos, die es atm gibt, sind da mit ziemlich hoher Sicherheit ein Stück weit gestellt. Das meint dabei einfach, dass die Situation des Benches gerade passend für die gezeigte Kombination ist. Im regulären Spielebetrieb hingegen wird das eher spannend. Sprich was bringt es wirklich? Wo krankt es? Welchen Vorteil lässt sowas durchblicken? Im Moment ist das alles noch reichlich unklar...
#23
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Zitat fdsonne;23991533

Allerdings sehe ich ehrlich gesagt den Sinn dahinter nicht, ne NV und ne AMD GPU miteinander zu paaren... was kann denn die Paarung im Vergleich zu einer reinen homogenen ein Hersteller Kombo besser? Wo soll der Vorteil liegen?
Ich sehe eher den potentiellen Vorteil darin, brachliegende GPU Ressourcen für die Berechnungen mitzubenutzen. Und das ist in den allermeisten Fällen die IGP. Diese ist allerdings auch idR schwächer, teils sogar drastisch schwächer... Und es gibt noch extrem viel Variationsmöglichkeiten zwischen den Modellen. Da muss ne Menge Hirnschmalz reinfließen, damit das sauber tut.
Die paar Benches und Demos, die es atm gibt, sind da mit ziemlich hoher Sicherheit ein Stück weit gestellt. Das meint dabei einfach, dass die Situation des Benches gerade passend für die gezeigte Kombination ist. Im regulären Spielebetrieb hingegen wird das eher spannend. Sprich was bringt es wirklich? Wo krankt es? Welchen Vorteil lässt sowas durchblicken? Im Moment ist das alles noch reichlich unklar...


Nutzung von G-Sync, PhysX, CUDA + günstige AMD Karte als Hilfskarte für Spiele. Oder AMD + FreeSync + PhysX-Ersatzkarte(GTX670) ect.
Man kann sich quasi die Vorteile herauspicken und genau das ist der Grund, warum NVIDIA es dann unterbinden wird und das sicherlich nicht nur per Treiber. Da werden dann Anwälte eingeschaltet, die in der Nutzung von nicht genehmigten NVIDIA-Featuers Rechte verletzt sehen.
Und ja, NVIDIA traue ich das 100% zu.
#24
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31948
Zitat Pickebuh;23991776
Nutzung von G-Sync, PhysX, CUDA + günstige AMD Karte als Hilfskarte für Spiele. Oder AMD + FreeSync + PhysX-Ersatzkarte(GTX670) ect.
Man kann sich quasi die Vorteile herauspicken und genau das ist der Grund, warum NVIDIA es dann unterbinden wird und das sicherlich nicht nur per Treiber. Da werden dann Anwälte eingeschaltet, die in der Nutzung von nicht genehmigten NVIDIA-Featuers Rechte verletzt sehen.
Und ja, NVIDIA traue ich das 100% zu.


Nein, das funktioniert eben so nicht. Da die von dir aufgezählten Features propritäre Mittel der Hersteller sind. Und auch dort die Hersteller die Finger drauf haben...
Das hat aber immernoch nix mit der generellen Möglichkeit eines unlinked Multiadapter Modus unter DX12 zu tun... Eben genau das, was hier Thema ist und was im Test gezeigt wurde. Denn das war einfach nur eine AFR Umsetzung, wo jedes zweite Bild von der einen und die Restbilder von der anderen Karte kommen. Alle AFR Nachteile wie ungleiche Frametimes usw. inkl. Die Implementation basiert aber "nur" auf Standard DX12 ohne propritärem Zusatz. Dagegen kann sich der Hersteller nicht wirklich zur Wehr setzen, da es im Standard offenbar vorgesehen ist, dass sowas geht. Nur verstehst du anscheinden nicht, dass all die aufgezählten Features nichts mit dem quasi Standard DX12 zu tun haben und damit auch freilich nicht angedeckt werden.

Mal ganz davon ab, was hindert sich, einfach so eine Kombo aufzubauen?
Ne primäre NV Karte mit ner sekundären AMD Karte bringt dir bis auf GPU PhysX all diese Features. Ebenso ist es andersrum denkbar, aber wiederum ohne PhysX per GPU.
Da PhysX per GPU aber so oder so nur in zwei Händen von Titel implementiert ist, hält sich der Nachteil in Grenzen. Zumal GPU PhysX per Cuda Implementierung quasi tot ist. Und NV hat offenbar auch gelernt, da die neueren Gameworks Bestandteile offenbar auf DirectCompute basieren anstatt auf Cuda, ebenso eine Herstellerabhängigkeit an die GPU nicht dediziert mehr gegeben ist. (TW3) Cuda selbst kannst du aber auch heute nutzen wenn eine primäre AMD GPU drin steckt. Genau so wie G-Sync mit der NV GPU (als sekundäre Karte) funktionieren sollte, wenn der G-Sync Monitor an dieser GPU steckt.
#25
Registriert seit: 06.10.2004

Hauptgefreiter
Beiträge: 147
Muss ja kein "CrosSli"-Gespann sein. Vielleicht überrascht Amd oder NV uns mit ein Grafikkarten-bundle für den SFR Modus.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]