> > > > GTC 2014: NVIDIA spricht über DirectX 12 und kommenden Wundertreiber

GTC 2014: NVIDIA spricht über DirectX 12 und kommenden Wundertreiber

Veröffentlicht am: von

gtc2014Bereits auf der GDC äußerten sich Microsoft, NVIDIA und AMD zu ihren DirectX-12-Plänen, doch auf der GTC 2014 hatten wir nun die Möglichkeit, direkt mit NVIDIA über dieses Thema zu sprechen. Über was Microsoft bereits gesprochen hat und welche Vorteile man bei DirectX 12 gegenüber den Vorgänger-Versionen sieht, haben wir in einem extra Beitrag bereits näher beleuchtet. Die immer größer werdende Unterschiede in der Leistung des Prozessors und der GPUs sorgen dafür, dass die APIs zunehmend den Fokus auf eine schnelle Pipeline hin zu den GPUs legen müssen. AMD hat es mit Mantle vorgemacht und auch bei Microsoft war man sich dieser Situation bewusst und legte die Entwicklung von DirectX 12 dementsprechend aus.

Die aktuelle NVIDIA-Strategie für DirectX 11 und DirectX 12 soll wie folgt aussehen: Zunächst einmal wird im April ein neuer GeForce-Treiber (GeForce 337.xx) erscheinen, für den NVIDIA noch einmal deutliche Performance-Gewinne unter DirectX 11 verspricht. Maßgeblich dafür verantwortlich soll eine Reduzierung des CPU-Overheads sein - gleiche Ansätze verfolgen ja auch Mantle und DirectX 12. Bei den "Tiled Ressources" will NVIDIA den Entwicklern noch einmal deutlich mehr Kontrolle geben. Für DirectX 12 sieht NVIDIA aber ein weitaus höheres Potenzial in diesem Bereich.

Letztendlich sollen diese Optimierungen für DirectX 11 dafür sorgen, dass NVIDIA beispielsweise mit einer GeForce GTX 780 Ti ein Performance-Level erreicht, dass AMD mit einer Radeon R9 290X weit hinter sich lässt. Dies soll auch für auf Mantle optimierte Spiele gelten. Dazu zeigte man einige Benchmarks von StarSworm und Thief, verzichtete allerdings auf eine Nennung von Werten für Battlefield 4. Sobald dieser Treiber verfügbar ist, werden wir uns sicherlich einige der Performance-Verbesserungen anschauen.

Für DirectX 12 sieht NVIDIA besonders Multi-GPU-Systeme im Vorteil. Da bisher aber noch kein Spiel für DirectX 12 vorhanden ist, muss man sich hier auf spezielle Benchmarks verlassen, die beispielsweise direkt mit den verschiedenen States der API sprechen. Dies ist allerdings wenig praxisrelevant, da Spiele eine weitaus komplexere und breiter ausgelegte "Sprache" mit der DirectX-API pflegen. Ein grober Hinweis auf das Potenzial von DirectX 12 können sie dennoch sein. NVIDIA zeigte Benchmarks, bei denen der CPU-Overhead um den Faktor 3,4 bis 4,3 reduziert wurde.

Noch einmal klarstellen sollten wir an dieser Stelle auch, dass es zwei unterschiedliche Ebenen gibt, wenn über den DirectX-12-Support gesprochen wird. Zunächst einmal gibt es hier das API-Level. Bei NVIDIA sollen alle Karten mit "Fermi"-, "Kepler"- und "Maxwell"-GPU in der Lage sein, mit der DirectX-12-API zu sprechen. Bisher wenig bekannt ist über das Hardware-Level. Es wird allerdings einige Hardware-Funktionen in zukünftigen GPUs geben, die aktuelle Karten nicht mehr unterstützen werden. Bisher wollen sich aber weder Microsoft, noch NVIDIA oder AMD dazu äußern.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (444)

#435
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15046
Zitat DragonTear;22101383
Auch wenns mehrere Treibergenerationen (wieviele eigentlich genau?) sind, trotzdem bleibt es recht erstaunlich was allein durch Treiber bewerkstelligt werden kann. Auch wenn nicht auf einmal...


Dann warte mal ab, was passiert wenn AMD mit dem nächsten Wundertreiber da auch wieder 20% rausholt... :vrizz: Die AMD-Werte stinken doch immens nach einem nicht passenden Treiber seitens AMD, hatten wir zu Beginn bei Bugfield 3 auch...
#436
customavatars/avatar192568_1.gif
Registriert seit: 26.05.2013

Kapitän zur See
Beiträge: 3236
Und mit einem Geschenk werden die Balken noch länger

so in etwa hier :haha:
Watch Dogs: Ubisoft verschenkt Tablets an einige Journalisten
#437
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34180
Zitat BrennPolster;22101211
PCGH ist bad geworden, die Tests werden immer unglaubwürdiger

warum man mit einem uralten Treiber gegen testet ist nur noch lächerlich lol

334.89 vs 337.50

waren die betrunken?

sinnvoller wäre

335.23 vs 337.50


Ich kann dir sagen WARUM man das macht...
NV selbst spricht in der Folie von R331, R334 und R337.
Wieso sollte man also mit dem R335 testen? Das ist bestenfalls nebensächlich interessant. Denn die Performancesteigerung ist von R334 auf R337 angekündigt. Nichts anderes macht für so einen Test Sinn es nach zu testen.
Von betrunken erkenn ich da nix.

Warum können die Leute nicht einfach mal vorher lesen bevor man mit Kritik umsich schmeißt!?
Ich kann es nicht nachvollziehen :wink:
#438
customavatars/avatar192568_1.gif
Registriert seit: 26.05.2013

Kapitän zur See
Beiträge: 3236
ja genau und in Zukunft werden 2 Jahre alte Treiber als Vergleich genommen.

PCGH hat sonst immer den 335.23 getestet, merkwürdiger weise aber nicht in diesen test.
völlig Latte was irgendwo in einer Marketing Folie steht, man testet schließlich immer den neusten Treiber und als Vergleich nimmt man den Treiber der davor raus kam.
Es soll schließlich ein seriöser Test werden.
#439
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12508
Zitat BrennPolster;22102065
ja genau und in Zukunft werden 2 Jahre alte Treiber als Vergleich genommen.

PCGH hat sonst immer den 335.23 getestet, merkwürdiger weise aber nicht in diesen test.
völlig Latte was irgendwo in einer Marketing Folie steht, man testet schließlich immer den neusten Treiber und als Vergleich nimmt man den Treiber der davor raus kam.


Aber doch nicht wenn man ne bestimmte Herstelleraussage überprüfen will... da hat fdsonne schon Recht.
#440
customavatars/avatar192568_1.gif
Registriert seit: 26.05.2013

Kapitän zur See
Beiträge: 3236
The Elder Scrolls Online wurde seitens nvidia nie erwähnt.
selbst wenn, völlig Latte wenn interessiert denn das?

PCGH wollte einfach nur den Test blitzschnell online stellen ohne gegen testen zu müssen, da man die werte vom 334.89 noch in der Schublade hatte.
Es gab aber nachdem 334 noch einige Spiele Patches, was möglicher weise auch die Performance beeinflusst hat.

Beim 335.23 vs 337.50 hat man sich schließlich auch nicht viel mühe gegeben.
#441
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34180
Skyrim wurde seitens NV aber erwähnt, scheint aber nicht zuzulegen mit dem 337er.
Es liegt also Nahe, das ganze mit dem Online Part gegenzutesten :wink:

Und wie gesagt, ich gebe dir grundsätzlich recht für allgemeine Tests. Aber nicht, wenn man speziell hier mit einem von NV auf Performance getrimmten Treiber spricht. Denn dort zählt allein das, was NV dem Kunden vorher versprochen hat. Und dort ist die Basis der R334 respektive der R331.
#442
customavatars/avatar192568_1.gif
Registriert seit: 26.05.2013

Kapitän zur See
Beiträge: 3236
jo aber das Skyrim was nvidia meint benutzt die dx9 api aber The Elder Scrolls Online die dx11 api

vielleicht meint nvidia sogar The Elder Scrolls Online
#443
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34180
Könnte sein... war ja so oder so komisch warum Skyrim genannt wurde wo man doch beim Rest immer von DX11 sprach.
Aber sei es drum, mit dem R334 zu vergleichen ist in der speziellen Situation durchaus sinnig.
#444
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 31076
NVIDIA veröffentlicht Hotfix für den Wundertreiber
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]