> > > > NVIDIA macht Pascal-Karten per Treiber DXR/RTX-Kompatibel

NVIDIA macht Pascal-Karten per Treiber DXR/RTX-Kompatibel

Veröffentlicht am: von

rtxonWie üblich nutzen auch die Hardware-Hersteller die Game Developer Conference um ein paar Neuigkeiten unter die Entwickler und Endverbraucher zu streuen. Im Falle von NVIDIA ist der wichtigste Punkt die Tatsache, dass man mit einem Treiber-Update im April auch den Grafikkarten mit Pascal-GPU die Möglichkeiten einräumen wird, die DXR-Schnittstelle von Microsoft anzusprechen.

Im Falle der GeForce-RTX-GPUs geschieht dies über die RTX-Schnittstelle von NVIDIA. Die RT Cores dienen hier der Hardwarebeschleunigung. Alle GeForce-GTX-Karten (und auch solche anderer Herstellen) können die DXR-Softwareschnittstelle von Microsoft per Fallback aber auch anderweitig ansprechen. Eben diese Optionen bietet NVIDIA ab April für einige Karten auf Basis der Pascal-Architektur. Auch die Titan V und damit die einzige Desktop-Hardware auf Basis der Volta-Architektur wird unterstützt werden.

Dazu gehören die folgenden Modelle:

  • Titan V
  • Titan XP
  • Titan X
  • GeForce GTX 1080 Ti
  • GeForce GTX 1080
  • GeForce GTX 1070 Ti
  • GeForce GTX 1070
  • GeForce GTX 1060 6 GB
  • GeForce GTX 1660 Ti
  • GeForce GTX 1660

Mit Erscheinen des Treibers werden wir uns die DXR-Leistung der GeForce-GTX-Karten in den verschiedenen Spielen anschauen. Man darf gespannt sein, ob es den Karten überhaupt möglich sein wird, in bestimmten Auflösungen und mit den zur Verfügung stehenden DXR-Einstellungen auch flüssige Frameraten zu erreichen.

Für NVIDIA ist die GDC zudem eine gute Gelegenheit die Vorteile von DXR und RTX herauszustellen. Neben dem eher unbekannten Dragon Hound hat man aber wenige Neuankündigungen in dieser Richtung zu machen. Der DXR-Patch für Shadow of the Tomb Raider zur Berechnung von Schatten mittels Ray Tracing scheint aber kurz bevor zu stehen. Ebenfalls bereits bekannt ist, dass die Unreal Engine und Unity die DXR-Schnittstelle nativ werden ansprechen können. Somit profitieren auch die GeForce-RTX-Karten, denn hier dann eine Hardwarebeschleunigung über die RT Cores statt.

NVIDIA rechtfertigt Entwicklung der Turing-Architektur

Viel Kritik gab und gibt es an der aktuellen Turing-Generation von NVIDIA. Die Menge an Grafikspeicher ist nicht gestiegen, wenngleich hier gerne die deutlich gestiegene Speicherbandbreite ignoriert wird. Weiterhin ist die Leistung von Generation zu Generation für viele nicht in dem Maße gestiegen, wie sie dies erwartet haben.

Offenbar sieht sich NVIDIA dazu berufen, die Entscheidungen hinter der Entwicklung der Turing-Architektur noch einmal zu begründen. Während die Pascal-Architektur auf klassische Shaderleistung ausgelegt war, wurde Turing klar auf die Ray-Tracing-Funktionen hin optimiert. Hätte man die Pascal-Architektur auf die dazu notwendige Leistung bringen wollen, wäre eine hypothetische Pascal-GPU mit 35 Milliarden Transistoren und einer Chipfläche von 1.324 mm² technisch nicht umsetzbar gewesen. Der Stromverbrauch hätte sich mit 650 W ebenso in einem unverhältnismäßig hohen Rahmen bewegt.

Stattdessen hat man die Turing-Architektur entwickelt. Die TU102-GPU erreicht auf 545 mm² und mit 14 Milliarden Transistoren bei 215 W eine ebenso hohe Rechenleistung.

Um dies vergleichen zu können, muss man sich jedoch auch die Art und Weise der Berechnungen anschauen, die für ein Spiel mit DXR-Effekten notwendig sind. NVIDIA tut dies am Beispiel eines Frames in Metro: Exodus. Alleine schon das mit der Turing-Architektur eingeführte Hybrid-Shading durch die parallele Verwendung von Fließkomma- (FP32) und Integer-Berechnungen (INT32) verbessert die Leistung für Ray-Tracing-Berechnungen deutlich. 

Der Einsatz der RT Cores für die Berechnung der Bounding Volume Hierarchy (BVH) sowie der Tensor Cores hat die Zeit zur Berechnung eines Frames erst in Bereiche drücken können, in denen flüssig Frameraten umgesetzt werden konnten.

Die Ray-Tracing-Berechnungen auf "alten" GeForce-GTX-Karten (Pascal und älter) sind demnach deutlich langsamer als auf den neuen GeForce-RTX-Karten. Umso erstaunlicher ist es, dass NVIDIA überhaupt die Option anbieten wird, per Treiber das DXR auch auf älteren Karten zu ermöglichen.

Für NVIDIA aber dürfte es wichtig sein die notwenige Basis für die Entwickler zu schaffen, denn nur mittels der vorhandenen GeForce-RTX-Karten ist diese noch nicht groß genug, um mehr und mehr Entwickler auch davon zu überzeugen, auf DXR-Effekten zu setzen und diese einzubauen. Es dürfte aber auch wichtig sein, dass weitere Hersteller mitspielen und dazu gehört vor allem zunächst einmal AMD. Ob wir bereits auf der diesjährigen GDC eine Ankündigung sehen werden, bleibt abzuwarten.

Social Links

Kommentare (67)

#58
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 21926
Man reiche mir eine Wand :)
#59
customavatars/avatar112847_1.gif
Registriert seit: 02.05.2009
Wartburgstadt Eisenach
Oberleutnant zur See
Beiträge: 1445
Zitat Performer;26863538
Ich sehe schon die bunten Balkendiagramme wo eine RTX2070 mit RT besser ist als eine GTX1080Ti und einige Leute auf einmal doch über ein "Upgrade" nachdenken. :hust:


Klar, selbst die Titan V ist mit RTX nicht schneller als ne RTX2070.
Da wird die 1080ti erst recht nichts zu melden haben.
#60
customavatars/avatar193205_1.gif
Registriert seit: 09.06.2013
Österreich, Steiermark
Hauptgefreiter
Beiträge: 176
Zitat Performer;26863538
Ich sehe schon die bunten Balkendiagramme wo eine RTX2070 mit RT besser ist als eine GTX1080Ti und einige Leute auf einmal doch über ein "Upgrade" nachdenken. :hust:


Wird auch der Grund sein wieso sie das machen. Als Werbung für die eigenen Karten.
#61
customavatars/avatar97341_1.gif
Registriert seit: 23.08.2008
Bitz
Anime und Hardware Otaku
Beiträge: 14398
Dieser Schritt bedeutet nur eins: den Meisten ist RT egal bzw. den Aufpreis nicht wert.
Ausserdem kann man nicht sagen ob NV bei den Treibern künstlich / zusätlich die 1000er Serie "verlangsamt" (RT, gesamt Performence).

Jeder der eine GTX1080Ti ca. 2 Monate nach dem Release gekauft, hat alles richtig gemacht.

Bevor RT überhaupt in Frage kommt / wichtig wird, kommt zuerst pure Liestung.

Sprich, genug Power für [email protected] oder [email protected]+ --> aber nicht für 1200€+ :shot:
#62
Registriert seit: 27.06.2018

Matrose
Beiträge: 1
Hier wird einiges durcheinander geschmissen. DXR ist nicht gleich RTX. RTX ist eine Zusatz API von Nvidia die an DXR andockt um die proprietären RT Kerne nutzen zu können. Inwieweit die Turing Karten auch mit reinem DXR was sinnvolles anfangen können, wissen wir heute noch nicht. Mit der Öffnung der Pascal Gen für DXR, wird eben nicht RTX verbreitet, sondern DXR! Ob Entwickler, die DXR in ihre Spiele implementieren, darüber hinaus noch die Arbeit in ihre Produkt stecken, um auch die proprietäre Schnittstelle RTX für Nvidia zu unterstützen, wage ich mal zu bezweifeln. Jedenfalls bei Mulitplattform Titeln wäre das unwahrscheinlich, da die Konsolen nunmal auf AMD HW laufen. Ganz nebenbei ist das offensichtlich auch nicht so ganz einfach mit RTX, sonst hätte ein großes Entwicklerstudio wie Dice wohl auch nicht so viele Probleme damit gehabt wie bisher...
#63
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1407
Zitat Seskahin;26863848
Ganz nebenbei ist das offensichtlich auch nicht so ganz einfach mit RTX, sonst hätte ein großes Entwicklerstudio wie Dice wohl auch nicht so viele Probleme damit gehabt wie bisher...


Du überschätzt den Skill der Programmierer, nur anhand der Größe des Unternehmens?
Dank den umfassenden Engines, gibt es wenig Programmierer die noch ernsthaft selber was hinbekommen, ohne das es in der Engine nen Knopf dafür gibt.

Aber den gibt es nun ja in Unreal und Unity, also werden wir sehen wie groß die Probleme jetzt noch sind. ;-)
#64
Registriert seit: 02.11.2004

Mr. Freelancer
Beiträge: 4728
Zitat easy1991;26863577
Wenn sie noch über ist kannst du dich gerne bei mir melden :D
Also eine der beiden asus 1080 ti turbo ist gemeint ^^


...

405 Euronen, 1 Jahr alt. Aber in der Schweiz vom 15.03.2019

https://www.tutti.ch/de/vi/thurgau/computer-zubehoer/komponenten-zubehoer/asus-turbo-1080ti-11gb-gddr5-wie-neu/26999540

...
#65
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1407
Hier ein schönes Beispiel von einfachen Games, die mit dieser Art der Technologie besser werden.
Minecraft mit PathTracing

Kann mir gut vorstellen, dass mit etwas Tweaking die Leistung der 1070 ausreichen würde.
Dieser Mod ist, soweit ich rausfinden konnte, nicht mit offiziellen Tools entstanden und ignoriert auch RT Kerne wenn vorhanden.
Das Ganze mit den offiziellen Tools und der Implementation in den großen Engines, dann hat man schon ein paar schöne Games mit der neuen Technologie!
#66
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Kapitän zur See
Beiträge: 3497
Aber Minecraft ist nicht "einfach". Mit Shadern bekommt es problemlos jede GPU klein.
#67
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1407
Umso beeindruckender, dass das mit PathTracing läuft.
Gerade die Beispiele, die die zwei zeigen, sind echt cool.

In einem game, in dem man selber jeder Stein setzt, macht das richtig viel aus.
Das Beispiel mit den Rot und Blau leuchtenden Blöcken fand ich besonders nice.
Hast Du nur Rote Blöcke, leuchtet der Raum rot.
Hast Du nur Blaue Blöcke, leuchtet der Raum blau.
Hast Du beides, leuchtet der Raum Lila.
Und man kann die genaue Farbgebung dann quasi als RGB Code "erstellen".

Oder der Lavaraum, mit dem indirekten Licht, selbst über dem Gitter.

Glaube Minecraft mit dem Mod interessiert mich ernsthaft mehr, als irgendein Metro. ;-)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]