> > > > DirectX 12 soll AMD- mit NVIDIA-Grafikkarten miteinander kombinieren können

DirectX 12 soll AMD- mit NVIDIA-Grafikkarten miteinander kombinieren können

DruckenE-Mail
Erstellt am: von

midrange-comp-logoMit DirectX 12 will Microsoft vieles besser machen und dreht hierfür an zahlreichen Stellschrauben für seine kommende Grafik-Schnittstelle. Letztendlich aber sollen Hard- und Software effektiver genutzt werden, um die Grafikqualität in Zukunft noch weiter verbessern zu können. Zudem soll die kommende DirectX-API nicht nur ausschließlich mit Windows 8, Windows 8.1 und Windows 10 zusammenarbeiten, sondern auch mit Windows Phone, wenngleich alle Systeme mit der neuen Windows-Generation ohnehin zusammen wachsen werden. Sogar die Microsoft Xbox One könnte später in der Lage sein, DirectX 12 einzusetzen.

Offenbar aber soll die Microsoft-API auch mit mehreren Grafikchips in einem System umgehen können, ohne dabei auf CrossFire oder SLI beschränkt zu sein. Wie die Kollegen der US-amerikanischen Ausgabe von Tom’s Hardware berichten, sollen sich die verschiedenen Grafikkarten eines Systems unter DirectX 12 zusammenlegen und zu einer einzigen (leistungsstärkeren) Grafikkarte kombinieren lassen. Somit können nicht nur diskrete Grafikchips mit den in CPUs integrierten Lösungen zusammengeschaltet werden, sondern auch die Karten unterschiedlicher Hersteller. Hierfür soll man sich bei DirectX 12 vom Alternate-Frame-Rendering (AFR) verabschieden, welches zwar die höchsten Bildraten ermöglicht, dafür aber auch zahlreiche Probleme wie Mikroruckler mit sich bringt.

Stattdessen sollen die Aufgaben nach dem SFR-Verfahren (Split Frame Rendering) zwischen den einzelnen Grafikkarten aufgeteilt werden – wie, das dürfen die Entwickler entscheiden, wobei jede einzelne Grafikkarte einen bestimmten Teil eines Frames übernimmt. Im AFR berechnen zwei Grafikkarten abwechselnd ein Frame, während im SFR-Modus beide Grafikkarten gleichzeitig an einem Frame arbeiten. Zudem müssen Textur- und Geometrie-Daten nicht mehr in beiden Grafikkarten-Speichern zur Verfügung stehen, sodass zwei Grafikkarten, die jeweils über 4 GB verfügen, tatsächlich auf die doppelte Menge zurückgreifen könnten. 

Das SFR-Verfahren ist allerdings alles andere als neu und war bereits in der Vergangenheit Teil vieler Grafikengines. Auch AMDs Mantle macht beispielsweise bei „Civilization: Beyond Earth“ davon Gebrauch, genau wie die Musik- und Filmindustrie.

PhysX und TrueAudio nutzen

Durch die Neu-Verteilung der Grafiklast lassen sich so die unterschiedlichsten Grafikkarten verschiedenster Hersteller zu einer einzigen Grafikkarte zusammenschalten. Auch die Exklusiv-Techniken bei den großen Grafikherstellern könnten genutzt werden. So lässt sich beispielsweise AMDs TrueAudio in Kombination mit einer NVIDIA-Karte nutzen. Die Radeon-Grafikkarte fungiert dabei als Master-GPU, während das NVIDIA-Modell lediglich seine Rechenpower bereitstellt. Die bisher notwendigen SLI- und Crossfire-Brücken könnten mit DirectX 12 ebenfalls der Vergangenheit angehören. 

Doch um die neuen Features allesamt nutzen und ausschöpfen zu können, müssen Entwickler ihre Spiele und Grafikengines auf die neue API optimieren – das bedeuten einen hohen Zeit- und Arbeitsaufwand für die Entwickler. Was für die Anwender sicherlich ein Segen sein dürfte, ist für AMD und NVIDIA weniger erfreulich, versuchen sie durch ihre exklusiven Features doch einen Kaufanreiz für die eigenen Modelle zu schaffen und so möglichst viele eigene Grafikkarten zu verkaufen.

Ob es tatsächlich so weit kommen wird, bleibt abzuwarten.

Social Links

Kommentare (53)

#44
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9448
Naaaja, für die "Gamingindustrie" wohl eher nicht - mehr für den eigenen Gewinn ;)
Und in der Hinsicht war ein Großteil der Motivation wohl auch die eigenen, schwachbrüstigen CPUs besser aussehen zu lassen...
#45
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5142
Zitat Stechpalme;23233787
@Phantomias88
Ich schau mal in meine Glaskugel und behaupte, Mantel wird mit DX12 eine Nebensache, ähnlich wie PhysX Beschleunigung per GPU. Es ist doch ganz einfach. Mantel wird aktuell nur von AMD genutzt, das ist recht einseitig. DX12 wird wohl ähnliches leisten, warum dann noch Zeit und Geld für die implementierung von Mantel verschwenden? Das wäre ja schon aus wirtschaftlicher Sicht unsinnig. Das werden wieder nur einige Entwickler verwenden die von AMD gesponsert werden... wie auch bei PhysX.
Die Zeit wird es zeigen... aber ich bin mir ziemlich Sicher, dass ich recht behalten werde.

Ja Mantle wird zur Zeit nur von AMD genutzt, das hält die API schlank und bläht sie nicht so auf aus Kompatibilität Gründen.
Jedes Entwickler Studio das mit Mantle arbeitet wird DX12 Spiele schneller fertig haben als diejenigen die mit DX11 auf DX12 warten.
Somit wird nicht Mantle implementiert, sondern DX12. ;)

Zitat Pirate85;23233986
Joa... Problem ist dabei das AMD das u.a. für die Gamingindustrie gemacht hatte laut offiziellen Angaben... nun kommt Microsoft und "kopiert" es... AMD bekommt nen Tritt in den Hintern... -.-

Auch wenn DX12 da ist, wird Mantle weiterhin verfügbar sein, der Tritt geht nach hinten los.
Zitat DragonTear;23234023
Naaaja, für die "Gamingindustrie" wohl eher nicht - mehr für den eigenen Gewinn ;)
Und in der Hinsicht war ein Großteil der Motivation wohl auch die eigenen, schwachbrüstigen CPUs besser aussehen zu lassen...

Besser aussehen lassen kannst jedes System im dem die max FPS erhöhst, dafür braucht man keine Mantle API.
#46
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9448
Zitat Phantomias88;23234102
Besser aussehen lassen kannst jedes System im dem die max FPS erhöhst, dafür braucht man keine Mantle API.

Wie meinst du das, bzw. was hat das mit meinem Gesagten zutun?
Sache ist, AMD's "high end" CPUs (und die APUs) profitieren deutlich mehr von mantle als Intel's High End chips.


Ich bin auch der Meinung dass Mantle nach dem Verbreiten von DX12, eher bald verschwinden wird. Allerdings dauert es bis dahin noch mindestens ein Jahr, eher mehr. Also durchaus noch Zeit für AMD draus Profit zu schlagen.
#47
customavatars/avatar51109_1.gif
Registriert seit: 08.11.2006
Hannover
Moderator
BIOS Bernhard
Lutz
Beiträge: 33768
Zitat
Die bisher notwendigen SLI- und Crossfire-Brücken könnten mit DirectX 12 ebenfalls der Vergangenheit angehören.


Crossfire kann doch sowieso schon gestrichen werden oder? Die r9 280(x) war die letzte Karte mit dieser Technologie. r9 285 und r9 290(x) besitzen die Ports doch schon gar nicht mehr.
#48
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Zitat Reaver1988;23234221
Crossfire kann doch sowieso schon gestrichen werden oder? Die r9 280(x) war die letzte Karte mit dieser Technologie. r9 285 und r9 290(x) besitzen die Ports doch schon gar nicht mehr.


AMD hat die CrossFire-Brücke bei Hawaii und Tonga durch ein anderes Verfahren genannt DMA ersetzt. Nun erfolgt die Kommunikation der Karten über den PCIe-Bus und nicht mehr über eine anfällige separate Brücke.
[ATTACH=CONFIG]314403[/ATTACH]

CrossFire bzw. CrossFireX gibt es auch weiterhin, nur eben ohne Brücke und das dann so sogar besser. :)
#49
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Zitat Schaffe89;23230655
Der AMD Treiber lässt Nvidiakarten trotz installiertem Treiber im System, ohne die Funktionen zu sperren.


Geht TrueAudio, wenn du eine NV GPU als Main GPU nutzt und nur irgend so ne mini AMD GPU (oder ggf. APU) dazu hast, die TrueAudio supportet?
Wäre ich mir gar nicht mal so 100% sicher... Hab ich selbst aber nie probiert, muss ich gestehen.

Ansonsten, es werden ja auch keine Funktionen ausgesperrt. Das klingt immer so, als würde die Karte gar nicht mehr gehen. Die Karten beider Hersteller supporten aktuell DX11.x, je nach Hardwarebasis. Und das geht auch weiterhin mit steckenden zwei Modellen gleichzeitig. -> einzig Hersteller only Features gehen idR nicht. Und das ist schlicht des Herstellers gutes Recht ihre eigene Technik so zu vermarkten, wie man es gern hätte.
-> gerade bei NV ist das zu 99% auch ein Grund, warum sich GPU PhysX nicht durchsetzen kann, obwohl es im Grunde die aktuell einzig am Markt verfügbare vollständig nutzbare PhysX Bibliothek mit GPU Beschleunigung ist. (nein, TressFX ist kein Vergleich, da es nur einen Bruchteil der Möglichkeiten abdecken kann und mit der aktuellen Version auch nur soll) :wink:

Zitat DragonTear;23230709
Das ist aber klare Benachteiligung eines Konkurenten, denn die Karten könnten technisch unabhängig voneinander funktionieren -> Absichtliche Wettbewerbsverzerrung!


Ihr habt manchmal echt eine komische Sichtweise... Es geht um Features, die vom Hersteller der Hardware als Exklusivfeatures angeboten werden. Da hängen sogar teils Lizenzvereinbarungen mit dran. Jeder Hersteller der Welt hat (zumindest ohne Monopolstellung) das Recht, seine Sachen so zu vermarkten, wie er es gern wünscht. Und wenn er da als Funktionsvorraussetzung definiert, dass es nur bei Hardware aus dem eigenen Haus geht, dann ist das schlicht so.
Warum zur verdammten Hölle will man sich bitte immer über geltendes Recht hinwegsetzen? Ich hab das Gefühl, dass hier immer alle nur wollen ohne mal drüber nachzudenken, ob das überhaupt wirtschaftlich sinnvoll für den Produzenten ist. :(

Zumal es in dem Fall nichtmal eine "Benachteiligung eines Konkurenten" wäre. Denn eher ist es so, dass man der eigenen Hardware das Feature abstellt. (bspw. bei PhysX per GPU und steckender AMD GPU) Da wird also keineswegs der Konkurent benachteiligt, wenn der User die Vorraussetzungen für den Betrieb von GPU PhysX nicht einhält. :wink:

Zitat tecfreak;23231293
Naja, eigentlich steht es ja schon da wie in etwa das ganze funktionieren wird:


Nein, steht es nicht... Ich erwähnte bereits, das Exklusivfeatures der/des Herstellers auch exklusiven Vorraussetzungen unterliegen... Und wenn der Hersteller das nicht will, dann gehts halt einfach nicht. Mit DX12 ändert sich daran gelinde gesagt, einfach mal überhaupt nichts, da die Exklusivfeatures NICHT! Bestandteil der Vorraussetzungen für eine DX12 Kompatibilität sind bzw. sein werden.
Man vergleicht hier Äpfel mir Birnen... DX12 ist von MS und somit von einem Dritten! Der definiert die Verraussetzungen für die Kompatibilität von Hardware auf eben diese API. Und genau solche Vorraussetzungen definiert jeder andere Entwickler von Features für seine eigenen Techniken ebenso.
MS könnte sich nun hinstellen und sagen, OK, wenn DX12 drin sein soll, muss auf der Hardware Microsoft stehen -> was reichlich unklug wäre, da MS stand heute keinerlei Hardware produziert, was dem gerecht werden könnte... Also bedient man sich Hardware von Dritten und definiert Auflagen zur Einhaltung der Kompatibilität...

Zitat Jogi5;23231745
Stellt Euch doch nur mal vor, man könnte auf den VRam der zweiten Karte zugreifen und so quasi den VRam für die primäre Karte nutzen. Oder es gibt PCIe Module, die nur zusätzlichen VRam anbieten. So könnte man kostengünstig mehr VRam zur Verfügung stellen.


Was im Grunde keiner braucht ;) Denn die Verbindung über PCIe 16x 3.0 ist einfach viel viel viel zu lahm... Nicht umsonst werden GPUs dedizierte VRAMs daneben gestellt. Wäre es anders möglich, könnte man sich das sparen...

Zitat Pirate85;23233986
Joa... Problem ist dabei das AMD das u.a. für die Gamingindustrie gemacht hatte laut offiziellen Angaben... nun kommt Microsoft und "kopiert" es... AMD bekommt nen Tritt in den Hintern... -.-


Mantle hat aber ganz andere Probleme um gegen ein neues DX12 zu bestehen... MS definiert nämlich wie in der Vergangenheit mit jeder DX Version zu sehen auch neue "Features". So wird DX12 wohl SM6 bieten bspw. -> das kann Mantle schlicht und ergreifend nicht.
Wenn man so will, hat Mantle im Grunde sogar das Featurelevel von DX11 1:1 übernommen... -> das Problem dabei ist, geht die DX Basis einen Schritt weiter, muss Mantle nachziehen. Was 1:1 aber auch den Nachteil mitbringt, das höchstwarscheinlich alte Mantle Hardware (also heutige GCN GPUs) diesen Sprung nicht unterstützten werden. Genau so wie DX11 GPUs kein DX12 in Hardware unterstützten werden. -> bitte nicht verwechseln mit der besseren Nutzung der CPU, welche ebenso von DX11 GPUs Vorteile bringen soll (nach aktuellen Messungen)

Mantle wäre bspw. klar von Vorteil, wenn man hätte dem Mantle Paket Features mitgegeben, die unter DX11 nicht gehen. Wie bspw. eine Art SM6 Umsetzung. Oder sowas, wie Tesselation damals mit DX11 getätigt hat. (also was völlig neues) Das ist/wäre ein Mehrwert gewesen. So wie man es aber gemacht hat, nämlich den 1:1 Umsetzen der Features + lediglich der besseren CPU Umsetzung ist der Erfolg auf lange Sicht eher fraglich. :wink: Und schon allein deswegen, weil die AMD DX11 Umsetzung eben häufig (gerade in Mantle Titeln) einfach nur langsamer ist, als man denken würde...
#50
Registriert seit: 02.09.2010
Bergisch Gladbach
Vizeadmiral
Beiträge: 6373
Zitat BrennPolster;23229419
wird NIEMALS so kommen.

AMD mag offiziell kein NVIDIA.
NVIDIA mag offiziell kein AMD.

inoffiziell gehen beide Hersteller Hand in Hand.


wie auch immer, das wird ja so schon nicht funktionieren.
zb. ist Lappen PhysX eine lizenzierte Funktion.

wäre ja so als würde man ne AMD CPU auf einem Intel Socket stecken.
damals ging es noch. wie beim Sockel 7 wo sich AMD und intel den Sockel teilten.


Naja Acer is ja so irre und verbaut bei einigen kleinen Rechner nen AMD Prozessor (AM3) aber die Kühlerhalterung ist die gleiche wie bei Sockel 775 :fresse:
#51
Registriert seit: 21.10.2014

Stabsgefreiter
Beiträge: 267
Zitat fdsonne;23234938




Was im Grunde keiner braucht ;) Denn die Verbindung über PCIe 16x 3.0 ist einfach viel viel viel zu lahm... Nicht umsonst werden GPUs dedizierte VRAMs daneben gestellt. Wäre es anders möglich, könnte man sich das sparen...



Achtung, Ironie:

PCIe 3.0 x16 schafft 32GB/s
Nvidia ist mit der 970 der Meinung, es würde reichen. :D
#52
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Zitat Jogi5;23235433
PCIe 3.0 x16 schafft 32GB/s
Nvidia ist mit der 970 der Meinung, es würde reichen. :D


Pustekuchen... PCIe 16x 3.0 überträgt ca. 16GB/sec... Und das ist immernoch weniger als das, was NV mit dem letzten 512MB der GTX 970 abliefert... Weswegen auch das Verhalten im Problemfall VRAM Limit durch unzureichende Größe identisch ist zu jeder anderen Karte!
#53
Registriert seit: 21.10.2014

Stabsgefreiter
Beiträge: 267
Ok, hast recht. Erst 4.0 soll 32GB/s liefern.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]