> > > > Crytek zeigt Ray-Tracing-Demo auf einer Radeon RX Vega

Crytek zeigt Ray-Tracing-Demo auf einer Radeon RX Vega

Veröffentlicht am: von

crytekBereits mehrfach hatte AMD bekundet, dass man die Ray-Tracing-Technologien als interessant erachte und man eine eventuelle Umsetzung zumindest ins Auge gefasst habe. Eine konkrete Ankündigung dahingehend gibt es jedoch noch nicht. Gleiches gilt für das Deep Learning Super Sampling, für das AMD an einer Umsetzung in Windows ML interessiert ist.

Nun haben die Macher von Crysis und der CryEngine eine Techdemo namens "Neon Noir" veröffentlicht, welche Ray-Tracing-Berechnungen auf einer Radeon RX Vega 56 von AMD zeigt. In der Demo verwendet wird das Ray Tracing für Reflexionen und Refraktionen, zudem wird eine auf Voxel basierende Beleuchtungstechnik verwendet.

Die Techdemo soll einen Ausblick auf die Version 5.5 der CryEngine geben, die gegen Ende des Jahres veröffentlicht werden soll. Dort sollen ein Schattenwurf via Ray Tracing ermöglicht und auch die eben erwähnte Beleuchtungstechnik Voxel-based Global Illumination (SVOGI) integriert sein. Auch wenn Crytek explizit davon spricht, dass keine Screen Space Reflections verwendet werden, so könnten dennoch Planar Reflections zum Einsatz kommen, die nicht den Beschränkungen der Screen Space Reflections unterlegt sind, die aber auch Bereiche außerhalb der virtuellen Kamera in Form von Reflexionen darstellen können.

Laut Crytek verwendet die Demo bzw. die darin verwendete CryEngine eine eigene Schnittstelle, welche unabhängig von der jeweiligen Hardware funktioniert. Natürlich dürfte die Rechenleistung der Grafikkarte noch eine gewisse Rolle spielen, nicht aber ob es sich um eine Karte mit AMD- oder NVIDIA-GPU handelt. Die DirectX-12-Erweiterung DXR kommt offenbar nicht zum Einsatz. Wohl aber spricht Crytek von modernen APIs wie DirectX 12 und Vulkan. Unklar ist demnach, ob die Turing-Architektur mit RT-Kernen von der Hardwarebeschleunigung profitieren kann.

Für die Demo und die Berechnungen in Echtzeit wurde eine Radeon RX Vega 56 verwendet - also keine besonders leistungsstarke bzw. neue Karte, wenn man sich die GeForce-RTX-Modelle von NVIDIA im Vergleich dazu anschaut. Die Leistung scheint aber ausreichend für die Demo zu sein, auch wenn keinerlei Informationen über die verwendete Auflösung und die FPS gegeben werden.

Die Vorstellung der Ray-Tracing-Techdemo findet im Rahmen der Game Developer Conference statt, die kommende Woche in San Francisco stattfinden wird. Auch von anderen Soft- und Hardwareherstellern sind daher in den kommenden Tagen Ankündigungen zu erwarten. Weitere Informationen gibt es im Blog-Beitrag von Crytek.

Social Links

Kommentare (61)

#52
customavatars/avatar70423_1.gif
Registriert seit: 13.08.2007
Erde
Leutnant zur See
Beiträge: 1040
Diese Techdemo läuft vermutlich in 4K bei 30 FPS. Mehr FPS gibt das Youtube-Video nicht her, egal in welcher Auflösung. Würde die Demo mit mehr FPS laufen, würde man diese Version sicher auch hochladen.

Techdemos sind in der Regel extrem optimierte feste Szenarien, die daher deutlich besser und flüssiger laufen, als z.B. Spiele. (bei gleicher Hardware und optischer Qualität)

NEON NOIR sieht sehr interessant aus, aber meiner Einschätzung nach keine besonders fordernde Levelgeometrie. Packt man da irgendwo einen Baum mit Blättern hin, am besten noch nass, gehen die FPS in den Keller.

Crytek hat sich vermutlich bewusst für so ein "Level" entschieden, um das Ray-Traycing hervorzuheben, worum es ja auch hauptsächlich geht.

Inwiefern sich diese Technik in Zukunft bei Spielen einsetzen lässt, kann nur der sagen, der weiß, wie Crytek das gemacht hat.
Es wäre schön gewesen, wenn Crytek in der Techdemo Infos zur CPU-Last, Anzahl der gerenderten Polygone, etc.. eingeblendet hätte.
Es ist im Prinzip nur bekannt, dass eine Vega 56 genutzt wurde. Im Worst-Case-Szenario lastet die Techdemo einen 32 Kern CPU zu 90% aus, um die gezeigten 30 FPS zu halten.
#53
customavatars/avatar184321_1.gif
Registriert seit: 10.12.2012
Hamburg
Oberstabsgefreiter
Beiträge: 496
Zitat Tech Enthusiast;26858430
Ich stemme mich nicht dagegen, ich bin mir einfach nur 100% sicher, dass die angegebenen Daten nicht zusammenpassen. Wenn das so möglich wäre, wäre da andere Firmen schon vor Jahren drauf gekommen.
Glaubst Du NVidia bastelt RT Kerne in die GPUs, mit dem Wissen, dass die GPUs dadurch sau teuer werden und sauber negative Kritik einheimsen,... wenn es einfach ne Softwarelösung auch tun würde?



das du dich dagegen stemmst ist deine ansicht, dein gefühl.
das hat mit realem was crytech da gemacht hat nicht viel gemein.

NV hat nicht umsonst JETZT diese RT-cores in ihre karten eingebaut:
die haben jahrelang daran geforscht.
kann sein das man gemerkt hat, das man die ganze reingesteckte arbeit in baldiger zukunft 'in die tonne treten' kann, wenn man die jetzt nicht noch auf den markt bringt, weil es auch ohne RT-cores ginge.

also bringt man es JETZT, auch wenn es nur wenige spiele können und die einführung sehr sehr holprig ist.

man versucht schlicht die forschungs-investitionen noch soweit möglich zu geld zu machen, also wieder rein zu holen.
jedenfalls ist meine these eine erklärung dafür warum NV diesen so teuren und steinigen weg mit den RT-cores gegangen ist.

ich finde diese raytracing-technik toll und hoffe das es bald viele spiele gibt, die diese verwenden, möglichst, wenn die grafikkarten dafür die leistung bereit stellen, global in jedem spiel.

ob mit oder ohne RT-cores ist mir dabei völlig wurscht, aber, ich werde keine biszu 1300€ dafür hin legen, ich warte bis das 250€ karten können....

DLSS hingegen finde ich absolute grütze, WENN dann will ich den umgekehrten weg sehen: AA-filter weg lassen oder runterschrauben und spiele in zb 4k rendern um dann in 1080p aus zu geben, also runter skallieren.
das ganze dann mit stabilen 60fps.

die erste bezahlbare karte die das für ca 250€ kann, wird gekauft, fullcover-wasserkühler drauf und eingebaut.
#54
Registriert seit: 26.04.2015

Oberbootsmann
Beiträge: 967
a) Es kann doch gut sein, dass man hier einen neuen (unkonventionellen) Ansatz gewählt hat, auf den noch niemand zuvor gekommen ist.
Wäre ja nicht das erste mal, das so etwas passiert.

b) Nur weil es ohne RT Kerne super zu laufen scheint, heist das ja noch lange nicht, das es mit RT Kernen sehr viel besser laufen könnte. (ob mit denen von nVidia, oder noch einmal überarbeiteten, ist eine andere Geschichte).

c) einfach einmal Abwarten, wann das ganze öffentlich zugänglich in die CryEngine integriert wird (so wie Raytracing aktuell öffentlich in die Unreal Engine integriert wird).

d): Kann auch gut möglich sein, das Crytek hier schon seit längerem daran arbeitet und deswegen ihre Engine an Amazon verkauft haben (in dem Wissen, dass sie bald wieder ein Alleinstellungsmerkmal haben werden). (PS: Ich weiß aber nicht, ob Amazon die Technik nicht auch noch bekommt oder so, also reine Hypothese basierend auf mangelhaften Hintergrundwissen hier)
#55
Registriert seit: 08.08.2005
Zürich
Flottillenadmiral
Beiträge: 5481
Crytek braucht Geld und vermutlich haben sie mit einem AMD-Deal eine annäherung von Raytracing in so einer Szene darstellen wollen um zu zeigen das man nicht unbedingt extreme GPU-Leistung bzw. so ne RTX-Karte benötigt. Deswegen wird ja auch ein Teil der Arbeit an die CPU übertragen. Sobald die Szenen komplexer werden, fallen die FPS in den Keller.
Gibt genug Beispiele auch in Produkteentwicklung, wenn man Szenen zwischen "echte" Renderings oder für einfache Kataloge/Manuals macht. Die eine Szene benötigt gerade mal wenige Sekunden, die andere Stunden um zu Rendern. Das Resultat sieht für den Laien fast identisch aus, im Detail gibt es aber doch deutlich grössere Unterschiede.
#56
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1281
Zitat McItchy;26858433
Was is wenn das meiste mit der CPU berechnet wurde, RT muss ned Zwingend auf RT-Cores berechnet werden.


Du kannst RT auch auf nem Taschenrechner berechnen, wenn Du genug Zeit aufbringst.
Die Rechenleistung von CPUs ist denen von GPUs halt dramatisch hinterher. Egal wie viele hundert Kerne die CPU hat. ;-)

Vorteil von CPUs ist, dass sie einen vergleichsweise riesen Controller haben und damit mit sehr viel von Haus aus umgehen können. GPUs haben nen mini Controller und sind daher relativ "dumm". Aber was sie machen, ist deutlich schneller erledigt als von einer CPU.

Edit:
Das Video ist übrigens nur noch in 30fps verfügbar. Auch auf Chrome.
Da hat wohl jemand bemerkt, dass die Fragezeichen zu groß sind und angefangen vorsichtig mit Backpaddeling anzufangen. ;-)
#57
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 7193
Morgen gibt es eine kleine Presentation, hab da ein Interessante "Überschrift" gesehen:

Zitat
Enabling Real-Time Light Baking Workflows in Saber Engine with AMD Radeon Rays Dmitry Kozlov (AMD), Max Gridnev (Saber) Room 3001, Moscone West Wednesday 09:00-10:00 TBA

GDC 2019 Presentations - GPUOpen
Scheint wohl ne Menge los zu sein :vrizz:
#58
Registriert seit: 02.11.2004

Mr. Freelancer
Beiträge: 4684
...

Mich stört an dem Ganzen einfach, dass die es so dermassen übertreiben müssen

Der Heli und auch andere Spiegelungen sehen einfach aufgesetzt und zu künstlich aus.

...
#59
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 10460
Naja ist eine RT Demo, um zu zeigen das die RT-Effekte gehen …
#60
Registriert seit: 20.07.2017

Bootsmann
Beiträge: 686
Zitat Naennon;26857675
nein brauchts nicht

das dargestellte löppt
ohne RTX, also rein Shader

und die Shaderpower einer Vega 56 enstpricht der einer GTX1070

also brauch man für das gleiche Ergebnis da oben eine 1070

Ähm, ne, nicht unbedingt. Das entspricht wohl der Leistung die effektiv in (gerasterten) Spielen ankommt, da ist die V56 etwa gleichauf mit der 1070.
Die theoretische Rechenleistung der V56 liegt allerdings was ich so auf die schnelle gefunden habe ca. 60% höher als die der 1070.
Und dabei ist noch nicht zwischen Single- und Double-Precision unterschieden. Für konventionelles Rasterizing braucht man afaik eher SP-Leistung, für Raytracing braucht man jedoch DP-Leistung. Und afaik liegen die AMD GPUs gerade bei der DP-Leistung schon länger vorne, deswegen haben beim Mining-Boom die RX4/5xx deutlich besser performed also GTX 10xx.

Es kann also sehr wohl sein, dass bei dem Anwendungsfall Raytracing eine V56 eine 1070 genadenlos versenkt. Evtl. sogar eine 1080ti.
#61
Registriert seit: 02.11.2004

Mr. Freelancer
Beiträge: 4684
...

Ja, aber eben, wer's braucht.

Ich reduziere ohnehin schon jeweils die Effekte, damit nicht alles glänzt. (Mag's eben eher ein bisschen natürlicher).

Von daher spielt des für mich eh keine Rolle.

Aber es wär ja schön, wenn die AMD Karten endlich mal nen Trumpf ausspielen könnten.

Viele lassen ja die Software die Spiele-Einstellungen festlegen und bei denen glänzt es dann eben ein bisschen mehr. :)

...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]