> > > > NVIDIA GameWorks 3.1 mit neuen Beleuchtungs- und Schattentechnologien (Update)

NVIDIA GameWorks 3.1 mit neuen Beleuchtungs- und Schattentechnologien (Update)

DruckenE-Mail
Erstellt am: von

Seite 3: VXAO (Voxel Accelerated Ambient Occlusion)

Voxel Accelerated Ambient Occlusion ist nur auf den ersten Blick eine neue Technologie, denn wie wir bereits vor einigen Tagen näher erläuterten, handelt es sich beim VXAO um eine bereits vorgestellte Technologie, die vor gut einem Jahr präsentiert wurde, nun aber erstmals Verwendung findet.

NVIDIA GameWorks 3.1 - VXAO
NVIDIA GameWorks 3.1 - VXAO

Rise of the Tomb Raider ist das erste Spiel, welches VXAO anbietet. Verfügbar ist dies in der PC-Umsetzung von Nixxes Software mit dem letzten Patch, der am Wochenende verteilt wurde. Da zeitgleich auch ein DirectX-12-Renderingpfad eingeführt wurde, dort VXAO aber nicht verfügbar ist, muss darauf geachtet werden, dass Rise of the Tomb Raider in DirectX 11 ausgeführt wird.

NVIDIA GameWorks 3.1 - VXAO
NVIDIA GameWorks 3.1 - VXAO

Interessanterweise führt NVIDIA in seiner Präsentation eine Implementation in DirectX 11 und DirectX 12 auf. In Rise of the Tomb Raider ist VXAO aber nur in DirectX 11 verfügbar. Genau vor einem Jahr hat man die Technik erstmals auf der GPU Technology Conference vorgeführt und schon damals waren wir vor Ort und hatten eigentlich alle Informationen vorliegen, die nun noch einmal offiziell präsentiert werden.

NVIDIA GameWorks 3.1 - VXAONVIDIA GameWorks 3.1 - VXAO

NVIDIA GameWorks 3.1 - VXAO

Der dirkte Vergleich zwischen den beiden Szenen zeigt den Unterschied in der Abschattung. Bei VXAO handelt es sich anders als beim Volumetric Lighting nicht um eine Beleuchtungstechnologie, sondern um eine solche, die die Entstehung von Schatten zum Thema hat. Gerade bei feinen Strukturen wird der Unterschied deutlich. In den beiden Screenshots wird aber rein der Schatten-Channel verglichen, sodass hier die Unterschiede deutlicher sind, als sich dies in der vollständigen Render-Szene darstellt.

NVIDIA GameWorks 3.1 - VXAO
NVIDIA GameWorks 3.1 - VXAO

Wie bei VXGI (Voxel Global Illumination) greift VXAO auf Voxel zurück. Für VXGI wird der zu beleuchtende 3D-Raum in 3D-Voxel aufgeteilt. Dies sind einfache 3D-Objekte, denen zwei Eigenschaften zugewiesen werden können: Durchlässigkeit für das Licht und in welche Richtung sowie in welcher Farbe das Licht aus dem Voxel emittiert. Um den Raum in die Voxel aufzuteilen, sind bestimmte Sampling-Verfahren notwendig, die dedizierte Hardware voraussetzen, die ebenfalls nur in der Maxwell-Architektur vorhanden ist. Sie ist auch Teil des DirectX-12-Subsets, welches bereits von Maxwell beherrscht wird. Für VXAO kommen also ebenfalls diese Voxel zum Einsatz, was auch daran ersichtlich wird, dass eine Grafikkarte mit Kepler-GPU kein VXAO ermöglicht und dies gilt natürlich auch für alle Grafikkarten mit AMD-GPU.

Für ein VXGI AO muss der VXGI-Algorithmus nur um wenige Parameter angepasst werden, um den aktuellen Stand von VXAO zu erhalten. So wird das Emittieren von Licht komplett aus der Berechnung herausgenommen.

NVIDIA GameWorks 3.1 - VXAONVIDIA GameWorks 3.1 - VXAONVIDIA GameWorks 3.1 - VXAO

NVIDIA GameWorks 3.1 - VXAO

In den drei Screenshots wird eine Szene in Rise of the Tomb Raider ohne jegliche Verschattungstechnologie sowie mit eingeschaltetem SSAO sowie VXAO verglichen. Das Hauptaugenmerk sollte dabei vor allem in den Bereichen unterhalb der Figuren bzw. zwischen den Figuren und dem Untergrund, in diesem Fall dem Schnee, liegen.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (15)

#6
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Flottillenadmiral
Beiträge: 5108
Die Frage ist ob es AMD dann erlaubt wäre PhysX Support zu bringen und ob Nvidia die AMD Sperre (Deaktivierung bei Erkennung von AMD HW) wieder raus nimmt!

Auf jeden Fall ein lobenswerter und Vernünftiger schritt von Nvidia!

Wenn schlagartig vor der Offenlegung die Leistung nochmal steigt kann das aber auch darauf hin deuten, dass die Bremsen raus genommen haben damit diese nicht öffentlich werden... :fresse:
#7
Registriert seit: 05.11.2007
Neckar-Odenwald Kreis
Fregattenkapitän
Beiträge: 2896
Ist aber auch nur das alte Zeug, das AMD mittlerweile eh schon gut im Treiber unterstützt.
#8
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat NasaGTR;24435943
Die Frage ist ob es AMD dann erlaubt wäre PhysX Support zu bringen und ob Nvidia die AMD Sperre (Deaktivierung bei Erkennung von AMD HW) wieder raus nimmt!


Welche Sperre soll das denn sein? Da gibst keine Sperre...
-> das was da aktuell läuft bei NV ist Cuda based. Wenn AMD kein Cuda kann, gehts eben nicht. Das ist weder eine Sperre noch absichtliches Aussperren oder sonstwas. Zumal dir doch auch auffallen sollte, das NV mittlerweile nicht zwingend mehr an Cuda hängt. Hairworks läuft in TW3 auch auf AMD. Lassen wir die Tesselation Schwäche mal außen vor, dann bliebt die reine Simulation, die auf AMD GPUs genau so tut wie auf NV GPUs.
Und die anderen Geschichten, potentiel wäre es möglich, das zu portieren auf OpenCL, DirectCompute ja sogar AMD Stream... Die Frage ist nur, macht das wer? Will das wer? Und wer braucht es am Ende? NV wird nen Teufel tun, das zu machen...

PS: Gameworks ist weit mehr als nur PhysX per GPU. Warum kommt das eigentlich immer als Einwand? Hier geht es neben ein paar Physikbibliotheken auch um optische Aufwertungen. Bspw. HBAO+ hat nicht viel mit PhysX zu tun und hängt weder an Cuda noch an NV GPUs.

Zitat unl34shed;24436232
Ist aber auch nur das alte Zeug, das AMD mittlerweile eh schon gut im Treiber unterstützt.


Dann würde ja nicht alle Nase lang kommen, Gameworks würde AMD aktiv benachteiligen ;)
#9
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Flottillenadmiral
Beiträge: 5108
Doch es wird ausgesperrt, Nvidia deaktiviert PhysX wenn eine AMD GPU erkannt wird, das ging sogar soweit das bei Verwendung von AMD APUs als CPU das PhysX deaktiviert hatte obwohl nru die Geforce genutzt wurde! Radeon + Geforce: Nvidia unterbindet GPU-Physx bei installierter AMD-Grafikkarte
Außerdem wird CPU Basiertes PhysX wie es unter Borderlands 2 (mit niedrigeren Frames) ging bei AMD karten gesperrt, Borderlands 2 kam aber raus bevor PhysX diese Sperre erhielt weshalb man heute noch mit AMD Karten und PhysX (auf CPU) ansehnlich spielen kann!

Fakt ist, dass Momentan eine Sperre für AMD GPUs besteht. AMD haben mit GPU Open und ihrem Cuda-Kompiler gezeigt das es scheinbar kein Problem ist, Cuda exklusive Technologien auf AMD Hardware zu laufen und das sogar ohne große Leistungseinbußen!


Und warum ich mich so sehr auf PhysX konzentriere: Weil es das bedeutendste proprietäre Technologie von Nvidia ist, die zwar einen deutlichen grafischen Mehrwert bietet, aber wegen ihrer exklusivität nur sehr selten umfangreich eingesetzt wird.
Wäre PhysX für AMD nutzbar hätte wahrscheinlich jedes große Spiel mittlerweile geile PhysX Effekte wie Borderlands 2 und Nvidia könnte daran sogar ordentlich Geld verdienen!
#10
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
OK, da hast du recht... Diese Geschichte hatte ich nicht auf dem Schirm.
Auf der anderen Seite muss man aber auch klar sagen. Wenn NV meint, dass es nur mit NV GPU only geht, ist das trotzdem ihr gutes Recht.

Ich denke aber nicht, dass mit Öffnung von Teilen aus dem Gameworks Programm dort sich am Umstand, vor allem bei älteren Titeln was ändert, warum? Weil im Endeffekt der Treiber von NV diese Restriktion hat. Sprich GPU PhysX, also der Schalter dort im Treiber wird nur möglich, wenn die NV GPU die primäre GPU ist. -> bin mir allerdings nicht ganz sicher, ob das mit der AMD APU nicht seinerzeit sogar gelöst wurde? Hat NV das gefixt oder ist der Umstand immernoch der Fall?

Ansonsten, GPU PhysX ist quasi tod. Das neue Feature schimpft sich PhysX-GRB und kommt irgendwann im laufe der nächsten Monate. Das wird sicher für den Anfang NV only sein/bleiben. Übrigens, PhysX gehört neben Havok zur meist eingesetzten Physikengine ;) Einzig der GPU Part hat quasi keine Marktdurchdringung. Ob das nun im Endeffekt an der Herstellergebundenheit liegt oder vielleicht an anderen Themen wie dem allgemein sehr hohen Leistungsbedarf, lässt sich nur spekulieren. Aus meiner ganz persönlichen Sicht ist GPU beschleunigte Physik in Games so oder so eher der falsche Weg. Warum? Weil nicht jeder mit den dicksten HighEnd GPUs spielt... Im Mainstream oder bei betagteren GPUs ist einfach überhaupt keine Luft um da mal eben so 20 oder mehr Prozent in Physiksimulationen zu stecken. Die Demos sehen auf ihre Art zwar immer durchaus beeindruckend aus. Schaut man dann aber mal etwas genauer hin, fällt auf, dass A) da idR keinerlei optische Schmankerl drin sind -> sprich idR Textur/Shadereffektlose Simulationen. Und B) für die Simulationsdemos schon die dicksten GPUs zur Zeit verwendet werden und dennoch die Leistung eher "mau" ausfällt.
Sieht man auch schön an TressFX und Hairworks... Bisschen Haarsimulation = 10-30% Performanceverlust je nach Umsetzung, GPU, Situation und Settings.

Mir hat seinerzeit die Agaia PPU da mehr zugesagt. ;) Zumal die Leistungseffizienz von den Dingern ziemlich hoch war zur damaligen Zeit.
#11
Registriert seit: 05.11.2007
Neckar-Odenwald Kreis
Fregattenkapitän
Beiträge: 2896
Zitat fdsonne;24438343
Dann würde ja nicht alle Nase lang kommen, Gameworks würde AMD aktiv benachteiligen ;)


Machts aber doch, mit unnötig hohe Tessellation und DrawCalls, die in Gameworks zu genutzt werden, dafür braucht es doch zwingend closed Source.
Sonst könnten die Entwickler ja etwas dagegen machen und die Shitstorms beim Erscheinen der Spiele würden weniger werden. Vermutlich aber dann auch Nvidias "Vorteil" in den ersten Benchmarks.
#12
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Nur ist die Definition vom Grad der Tesselation wie auch die Menge der DrawCalls schlicht nicht gegeben.
Es gibt nunmal keine Obergrenze, was sinnvoll/unsinnig ist bei der Menge der DrawCalls. Genau so wie Tesselation bis Faktor x64 quasi genormt ist... Wenn nun einer der Parteien genau zufällig Generationen lang dort "Probleme" hat, wo ist denn da bitte die Benachteiligung? Soll diese Partei doch die Leistung entsprechend anheben... Ich würde dir uneingeschränkt zustimmen, wenn es bspw. einen propriäten Sonderfaktor bei der Tesselation deutlich über 64x bei NV geben würde, den diese Effekte dann nutzen würden... Aber das ist doch nicht der Fall. 64x ist voll im Standard. Und AMD ist schnell (schneller sogar als NV im direkten Vergleich) bei niedrigen Faktoren, lässt obenraus aber Federn.

Man tut hier immer so, als wäre der Markt die Wohlfahrt und es darf einfach nicht sein, dass der "kleinere" Vertreter am Markt Nachteile hat/haben kann... Ausgeblendet wird dabei völlig, dass sich dieser "kleinere" Player eben diese Nachteile schlicht und ergreifend selbst eingebrockt hat bzw. dafür selbst verantwortlich ist... Der Part mit der Tesselationleistung in hohen Leveln ist seit dem Fermi bekannt. Der Part mit der DrawCall Performance spätestens seit AMD höchstselbst uns Endkunden erzählen wollte, dass DX11 zu lahm wäre und man Mantle als Problemlösung aufzeigte. Pustekuchen... Das ist alles eigen gemachtes Bier.

Übrigens, was Tesselation angeht, eigentlich ist das sowieso nur ne Krücke. Denn der Spieleentwickler trägt maßgeblich dazu bei, wie hoch die Faktoren ausfallen sollten/müssen, damit auch dort entsprechend Optik bei rum kommt. Die Tesselation, wie sie im Gaming idR genutzt wird wirkt halt auf ganze Objekte, obwohl man eigentlich nur die Wirkungsweise auf Teilen davon benötigt. Bspw. bei Displacement Maps um LowPoly Meshes "Form" zu geben. Dass man sich dann als AMD hinstellt und die Sinnhaftigkeit derartiger Faktoren in Frage stellt, ist zwar in gewisser Weise "menschlich", aber eben auch nur eine Floskel um die Hardwareproblematik aus dem Fokus zu nehmen. Mit einem Wireframe Mesh siehst du ziemlich exakt die Unterschiede bis in die hohen Tesselation Faktoren... ;)
#13
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Fregattenkapitän
Beiträge: 2829
Physik auf der GPU macht keinen Sinn. Wenn man die alte Graka als Co-GPU weiterverwenden könnte, aber das funktioniert ja (Überraschung) auch nur bedingtm, weil bei Nvidia nicht gewollt. Wenn nun die Coreanzahl seit ewiger Zeit mal wieder steigt und der CPU-Overhead dan DX12 zudem sinkt, dann ist CPU-physiX die erste Wahl. Zumal ja die Konsolen auch 8 CPU-Kerne haben.

Das Nvidia Ihren Gameworks-Krempel nun öffnen möchten ist offensichtlich. Man erhofft sich hierdurch eine Verwendung im nächsten DirectX oder Shader Model 6.0. Wenn aber wie bereits einige geschrieben haben das ganze Nvidia-typisch propritär bleibt, dann wird das mit Sicherheit nichts. DirektX und Shadermodelle sind ja gerade nicht propritär sonder ein offener Standard. AMD besitzt mit GCN nun auch eine 1D Architektur. Diese ganzen Spielerein lassen sich, passender Treiber vorrausgesetzt, nun ebenfalls auf AMD Karten ausführen. ;)

Dennoch wäre Physx als offener Standard auch für Nvidia ein Segen. Man verkauft ja keine CPUs. Mit 80% Marktanteil kann man das Risiko nun eingehen. Mit PhysX wollte man von Anfang an den Bedarf an GPU-Power steigern. PhysX konnte sich aber bis heute nicht durchsetzen. Es gibt kein Tripple-A Spiel mit PhysX. Häufig sind es sogar Publisher mit finanzielen Problemen. Mit dem Aufkommen breiter CPUs sieht Nvidia wohl die Felle davon schwimmen und auch die letzte Gelegenheit Physik auf der GPU durchzusetzen.

Wie aber bereits erwähnt werden Top-Engines (zB FrostBite) niemals Physik auf der (primären) GPU einsetzen sondern auf der CPU (oder höchstens auf der sekundären GPU).

Zitat fdsonne;24441922
Nur ist die Definition vom Grad der Tesselation wie auch die Menge der DrawCalls schlicht nicht gegeben.
Es gibt nunmal keine Obergrenze, was sinnvoll/unsinnig ist bei der Menge der DrawCalls. Genau so wie Tesselation bis Faktor x64 quasi genormt ist... Wenn nun einer der Parteien genau zufällig Generationen lang dort "Probleme" hat, wo ist denn da bitte die Benachteiligung? Soll diese Partei doch die Leistung entsprechend anheben... Ich würde dir uneingeschränkt zustimmen, wenn es bspw. einen propriäten Sonderfaktor bei der Tesselation deutlich über 64x bei NV geben würde, den diese Effekte dann nutzen würden... Aber das ist doch nicht der Fall. 64x ist voll im Standard. Und AMD ist schnell (schneller sogar als NV im direkten Vergleich) bei niedrigen Faktoren, lässt obenraus aber Federn.

Man tut hier immer so, als wäre der Markt die Wohlfahrt und es darf einfach nicht sein, dass der "kleinere" Vertreter am Markt Nachteile hat/haben kann... Ausgeblendet wird dabei völlig, dass sich dieser "kleinere" Player eben diese Nachteile schlicht und ergreifend selbst eingebrockt hat bzw. dafür selbst verantwortlich ist... Der Part mit der Tesselationleistung in hohen Leveln ist seit dem Fermi bekannt. Der Part mit der DrawCall Performance spätestens seit AMD höchstselbst uns Endkunden erzählen wollte, dass DX11 zu lahm wäre und man Mantle als Problemlösung aufzeigte. Pustekuchen... Das ist alles eigen gemachtes Bier.

Übrigens, was Tesselation angeht, eigentlich ist das sowieso nur ne Krücke. Denn der Spieleentwickler trägt maßgeblich dazu bei, wie hoch die Faktoren ausfallen sollten/müssen, damit auch dort entsprechend Optik bei rum kommt. Die Tesselation, wie sie im Gaming idR genutzt wird wirkt halt auf ganze Objekte, obwohl man eigentlich nur die Wirkungsweise auf Teilen davon benötigt. Bspw. bei Displacement Maps um LowPoly Meshes "Form" zu geben. Dass man sich dann als AMD hinstellt und die Sinnhaftigkeit derartiger Faktoren in Frage stellt, ist zwar in gewisser Weise "menschlich", aber eben auch nur eine Floskel um die Hardwareproblematik aus dem Fokus zu nehmen. Mit einem Wireframe Mesh siehst du ziemlich exakt die Unterschiede bis in die hohen Tesselation Faktoren... ;)


Gott bist du grün hinter den Ohren. Nimm mal die Brille ab.

Ja Nvidia kommt in DX11 mit dem CPU-Overhead noch besser zurecht. Das Grafikkarten Design hat zudem weniger Shader. Man ist also in der besseren Position. Da man sowieso alte Generationen durch den Treiber altern lässt, würde man bei Nvidia sogar keinen Handlungsbedarf sehen um den Fanboy weiter zu melken.
Man sieht aber klar, dass auch bei Nvidia der Treiberoverhead da ist. Es ist also mit Nichten AMDs Schuld wenn Sie frühzeitig an einer Lösung arbeiten und Wege suchen die GPU zukünftig weiterhin voll auszulasten. Ein bis zwei Generationen später wäre auch Nvidia in den Overhead gelaufen. Warum? Mit steigender GPU-Performance und Auslastung steigt auch die CPU-Auslastung. Wenn die CPU-Overhead so egal wäre tausch doch deinen 5960x wieder gegen einen Intel Pentium D.

Überingens zum Overhead:
http://www.pcgameshardware.de/Mafia-2-Spiel-13147/Specials/Vorbereitung-Mafia-3-Benchmarks-1166573/
In Mafia 2, einem 6 Jahre alten Spiel schafft eine 980Ti nicht einmal heute 100fps in FullHD. Interessant nicht? Man hat den Overhead also genau so im Griff, dass eine damals aktuelle High-End GTX480 38fps auf den Bildschirm zauberte. High-End + Mittelklasse und man errreicht 60fps.
http://www.gamestar.de/spiele/mafia-2/artikel/mafia_2,43581,2316960.html
Das zieht sich wie ein Roter Faden durch die PhysX Games. Gerade so, dass es High-End schafft. Und später kommen selbst 8x so schnelle Karten nicht an die 100fps Marke. Alte GPU als PhysX GPU weiterverwenden -> bremst.

Genauso bei der Tesslation. Nvidia steigert die Tesslationleistung weiterhin, obwohl es keinen sichtbaren Mehrwert mehr gibt. Das es die Tesslationsauflösung von 64 Fach überhaupt gibt ist ein Unding. Das ist aber kein Problem von AMD, da man über den Treiber (ohne optischen Nachteil) die Tesslationsleistung steuert. Ein Problem ist es aktuell nur für ältere Nvidia Karten in Gameworks Titeln. (Überraschung)
#14
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat G3cko;24445778
Es gibt kein Tripple-A Spiel mit PhysX. Häufig sind es sogar Publisher mit finanzielen Problemen. Mit dem Aufkommen breiter CPUs sieht Nvidia wohl die Felle davon schwimmen und auch die letzte Gelegenheit Physik auf der GPU durchzusetzen.

Wie aber bereits erwähnt werden Top-Engines (zB FrostBite) niemals Physik auf der (primären) GPU einsetzen sondern auf der CPU (oder höchstens auf der sekundären GPU).

Kann es sein, dass du die Unterschiede nicht verstanden hast?
Die PhysX Engine ist eine der meist verwendeten Physikbibliothen überhaupt. Havok wäre da noch zu erwähnen... Was hat das bitte mit der Möglichkeit zu tun, dies auf der GPU berechnen lassen zu können? Bitte nochmal informieren gehen.


Zitat G3cko;24445778

Gott bist du grün hinter den Ohren. Nimm mal die Brille ab.

Wo ist in deiner Grafik, dazu völlig ohne Quellenangabe denn die gleichwertige AMD GPU?
Auch hier wieder, nochmal informieren gehen... Es hat keiner auch gesagt, dass NVs DX11 Umsetzung DX12 in irgend einer Weise in Sachen Leistung nahesteht. Nichtmal im Ansatz. Die Aussage war, dass es mehr, teils deutlich mehr, wie bei AMDs Umsetzung ist. Wie dir aber scheinbar völlig unbekannt ist, besteht dort eine Art Zusammenhang von der Leistung, die die Hardware kann und der Leistung, die die Software benötigt. Wenn nun DX12 in einem Overhead Test zugeschnitten auf genau diese Wertermittlung x-fach schneller ist, heist das lange nicht, dass es in den Titeln am Ende ebenfalls so aussehen wird. Genau so wenig wie die Höhe des Zuwachses etwas über die Performance bei DX11 aussagt. (auf NV bezogen)
Im Endeffekt ist es vom Spiel und deren Umsetzung abhängig. Gelinde gesagt nutzt dir DX12 gar nix, wenn der gespielte Titel nur DX11 kann... Und nun? Als Endkunde kannst du dir von der Zukunftsaussicht absolut NICHTS kaufen. Weswegen man Hardware normal nach dem aktuellen Bedarf kauft und nicht für den möglichen Bedarf in xx-Jahren in der Zukunft.

Zitat G3cko;24445778
Genauso bei der Tesslation. Nvidia steigert die Tesslationleistung weiterhin, obwohl es keinen sichtbaren Mehrwert mehr gibt. Das es die Tesslationsauflösung von 64 Fach überhaupt gibt ist ein Unding. Das ist aber kein Problem von AMD, da man über den Treiber (ohne optischen Nachteil) die Tesslationsleistung steuert. Ein Problem ist es aktuell nur für ältere Nvidia Karten in Gameworks Titeln. (Überraschung)


Auch hier wieder, erst informieren, dann losquatschen... Natürlich gibt es einen sichtbaren Unterschied. Das du diesen nicht siehst, wenn du ihn nicht sehen willst, ist nicht verwunderlich... Ich hatte oben schon erwähnt, was man als optische Hilfsmaßnahme nutzen kann, damit die Unterschiede auch ohne geschulten Blick auffälliger werden. Ebenso trifft es sich hier wieder, dass du den Text nicht verstanden hat. Natürlich ist es AMDs Problem, wenn die Hardware für die hohen Tesselationstufen offenbar nicht schnell genug ist. Das kann NUR AMD selbst ändern. Oder eben auch nicht -> dann drosselt man die Qualität über den Treiber. Aber das sagte ich bereits... Wieso man dann aber alle Nase lang rumschimpft, ist mir schleierhaft... Das Mittel gibt es seit Jahren bei AMD. Wieder der Neid?

Zitat G3cko;24445778
Man sieht aber klar, dass auch bei Nvidia der Treiberoverhead da ist. Es ist also mit Nichten AMDs Schuld wenn Sie frühzeitig an einer Lösung arbeiten und Wege suchen die GPU zukünftig weiterhin voll auszulasten. Ein bis zwei Generationen später wäre auch Nvidia in den Overhead gelaufen. Warum? Mit steigender GPU-Performance und Auslastung steigt auch die CPU-Auslastung. Wenn die CPU-Overhead so egal wäre tausch doch deinen 5960x wieder gegen einen Intel Pentium D.

Nochmal meine Ausführung lesen. Keiner gibt AMD die Schuld, dass sie frühzeitig an einer Lösung des Problems arbeiten. Es steht geschrieben, dass es AMDs eigens selbst eingebrocktes Bier ist, dies nicht mit Optimierungen für DX11 getätigt zu haben. Nämlich genau dort, wo es mit der eigenen Ausführung nicht mehr langt... Stattdessen wollte man mit Mantle vom eigenen DX11 Problem ablenken -> klappte bestenfalls kurzzeitig. Und DX11 ist nunmal da drin, was in den letzten 2-3 Jahre in den Titeln zu sehen ist/war. -> wenn man sich für diesen Weg entscheidet, bitte, kann man machen. Nur eben das rumgeheule auf die böse Konkurenz ist da doch etwas grenzwertig. Neidisch biste aber nicht, oder?

PW: was hat mein Prozessor mit dem Thema zu tun? Wie dir vielleicht geläufig sein dürfte gibt es neben Spielen andere Software, die ein PC abhandeln kann... Ich glaube nicht, dass du ansatzweise mit 3D Modeling/Rendering und Programmierung was am Hut hast. Also lass dir gesagt sein, es gibt dort durchaus Bedarf nach breiten CPUs. Ein vielleicht nur viertel so schneller Pentium D ggü. meinem Prozessor hätte da wenig Sinn.
Anhand deiner unsinnigen verbalen Angriffe entnehme ich aber wieder einmal, dass überhaupt kein Interesse deinerseits besteht, eine sachliche Diskusion führen zu wollen. Geh also bitte einfach woanders trollen...
#15
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Fregattenkapitän
Beiträge: 2829
Ich spare mit die Zitate:

1) Es ging weiter oben um PhysX und die öffnung von Gameworks. Also darf ich ja wohl meine Meinung kund tun. ;)
Im übringen müsste der Satz lauten:
"Die Havok Physik-Engine ist eine der meist verwendeten Physikbibliothen überhaupt. PhysX wäre da noch zu erwähnen, hat aber gemessen am Spielemarkt (4 Spiele 2015) keine Bedeutung."
https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support

2) 4) Rechtklick auf das Bild. Link folgen. Goolge hilft im Zweifel.
AMD R9 290X As Fast As Titan X in DX12 Enabled 3DMark - 33% Faster Than GTX 980
Und natürlich kauft man sich HW für die Zukunft. Bei 1000€ CPUs und Graka ist ein bischen Weitsicht nicht verkehrt.

Und natürlich sind das theoretische Werte, die jedoch eindrucksvoll zeigen wo die Probleme bei DX11 (und allen DX-Leveln zuvor) liegen. Nämlich im Overhead und der mangelnden Skalierung bei meheren Kernen. Je stärker die GPU wird, desto schlimmer wird sich das in Zukunft auf die Programmierung auswirken. Es ist ja nicht so das AMD sagt: "Mensch wir haben keinen Bock auf DX11, lass uns mal was ganz neues entwickeln. Wir nennen es Mantle und hier müssen wir alle Entwickler überzeugen es neben DX zuimplmentieren. Mit unseren 25% Marktantiel klappt das auch bestimmt."
Im übrigen kam der Druck bezüglich DX12 [U]nicht[/U] von Microsoft selbst oder AMD und Nvidia sondern [U]den Entwicklern[/U]. Da braucht man auch nichts wegreden. Das Problem ist ja auch, dass es eben nicht spürbar weitergeht mit der Singlethread Performance. Das betrifft vor allem die Konsolen und Notebooks und irgendwo am Ende dann den DesktopPC. Aber das hast du bis heute nicht verstanden.

Was willst du AMD jetzt vorwerfen? Das die 2 Gameworkstitel (Überraschung) einen besonders hohen CPU-Overhead in Dx11 haben?

3) Wo ist das der Neid? Du kommst doch wieder mit der "schlechten" Tesslationsleistung um die Ecke. Wenn überhaupt ist sie eben mehr als ausreichend. Problem sind eben Spieleseiten die einheitlich test, wenn man aber wie du schon ein Gitternetz braucht um Unterschiede zu sehen, ist das eben echt arm und traurig, eben ohne Mehrwert für den Verbraucher. Zeig mir mal ein Tesslationsscreen zwischen 16x und meint wegen 64x wo man noch Unterschiede sieht. Nur einen einzigen. Viel Spaß bei der Suche.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]