Aktuelles

Crytek zeigt Ray-Tracing-Demo auf einer Radeon RX Vega

Thread Starter
Mitglied seit
06.03.2017
Beiträge
4.228
Bereits mehrfach hatte AMD bekundet, dass man die Ray-Tracing-Technologien als interessant erachte und man eine eventuelle Umsetzung zumindest ins Auge gefasst habe. Eine konkrete Ankündigung dahingehend gibt es jedoch noch nicht. Gleiches gilt für das Deep Learning Super Sampling, für das AMD an einer Umsetzung in Windows ML interessiert ist.Nun haben die Macher von Crysis und der CryEngine eine Techdemo namens "Neon Noir" veröffentlicht, welche Ray-Tracing-Berechnungen auf einer Radeon RX Vega 56 von AMD zeigt. In der Demo...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Liesel Weppen

Experte
Mitglied seit
20.07.2017
Beiträge
2.343
Ich bräuchte "RTX-off"-Vergleichsbilder, damit ich überhaupt erkennen könnte, was das Raytracing da jetzt genau bewirkt. Bei den Battlefieldtrailern wäre es mir ohne Side-by-Side-Vergleich nichtmal aufgefallen.

Ich glaube zwar, dass Raytracing irgendwann kommen wird, aber was man momentan so an "RTX" sieht, bleibe ich da bei der Meinung dass da gewaltige Rechenkapazitäten für winzige Bildverbesserungen aufgewendet werden.

Die Performance wurde hier ja leider nichtmal erwähnt.
 

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.656
Ort
Baden Württemberg
Man braucht kein "RTX off" wenn man weiß was ray tracing ist/kann.
Das sollte so ziemlich klar sein was dort passiert. Denn so eine Grafik gab es vorher noch nie.

Richtig stark.
In your face RTX!
Jetzt wird auch klar warum es Nvidia so eilig hatte ihren Kram auf den Markt zu bringen und zu rufen "Erster!".
 

Liesel Weppen

Experte
Mitglied seit
20.07.2017
Beiträge
2.343
Man braucht kein "RTX off" wenn man weiß was ray tracing ist/kann.
Das sollte so ziemlich klar sein was dort passiert. Denn so eine Grafik gab es vorher noch nie.
Doch braucht man. Reflexionen z.B. gibts schon sehr lange. Nur die sind getrickst und können daher z.B. keine Offscreen-Reflexionen.
Soll ich mir von dem Video jetzt einzelne Standbilder angucken und analysieren, ob diese oder jene Reflexion von Offscreen kommt und daher erst durch RTX ermöglicht wird?

Z.B. das letzte Beispielbild mit den Patronenhülsen in der Wasserpfütze. Die Reflexionen der Hülsen selbst in der Pfütze geht auch ohne Raytracing. Die Reflexion der roten Leuchtreklame im rechten unteren Bildviertel wohl eher nicht. UND FÜR SOWAS wendet man jetzt massive Rechenleistung auf? Also nicht das man die Rechenleistung nicht aufwenden soll, wenn man sie eh hat, aber von den RTX-Spielen mit NVidia weiß man ja mittlerweile, dass für solche winzigen Details die Frameraten schon massiv einbrechen.
 

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.656
Ort
Baden Württemberg
Man sieht doch verzerrte und bewegte Flächen die reflektieren.
Reflektionen die bewegte Objekte spiegeln usw.

Mach jetzt keine Verschwörung draus das wäre unecht und ginge auch anders. Totaler Blödsinn.
Es steht extra dabei, keine screen space reflections. Also nicht der alt bekannte Kram.
 
Zuletzt bearbeitet:

Holzmann

Enthusiast, The Saint
Mitglied seit
02.05.2017
Beiträge
22.139
Ort
50.969
Verstehe ich das hier richtig, dass Crytek demonstriert, dass Nvidia geflunkert hat und die RT Cores nicht wirklich nötig sind für brauchbare RT Leistung!?
 

Mezzo

Experte
Mitglied seit
18.09.2014
Beiträge
456
Ort
Gelsenkirchen
Jep das muss ich Redfrog recht geben das Seiht man mit RTX on wie sie Die Umgebung auf Spiegel, Fützen, Wasser,oder Fenster Detailliert Spiegel.

Glau mit den 10er Generation ist es auch Möglich aber sehr sehr Ressourcen Fressen Deswegen gibt es ja die RTX karten wegen den Tennsocors bez Rt Cores
 
Zuletzt bearbeitet:

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.656
Ort
Baden Württemberg
Jein, die Demo ist vielleicht auch nicht so fordernd wie ein ganzes Spiel und vor allem ist die Szene hoch optimiert auf das Wesentliche. Hier konnten sich die Ersteller an dieser Szene Wochenlang austoben. Spiele sind meist größer, die features bisher lieblos reingeklatscht und erst im Nachgang überhaupt spielbar gemacht (BF3 mit patches).

Aber da bin ich mir auch nicht so sicher. Auf jeden Fall ist das ja nun keine Global Illumination (BF3 auch nicht), was ja noch mal wesentlich mehr Leistung fordert als nur Reflektionen.

Ist auf jeden Fall eine geile Zeit die uns da bevorsteht. Sieht schon richtig geil aus finde ich. CryEngine zeigt es uns immer wieder wie Fortschritt aussieht.
 

Phantomias88

Urgestein
Mitglied seit
19.04.2008
Beiträge
8.183
Ort
StuggiTown
Jein, die Demo ist vielleicht auch nicht so fordernd wie ein ganzes Spiel und vor allem ist die Szene hoch optimiert auf das Wesentliche. Hier konnten sich die Ersteller an dieser Szene Wochenlang austoben. Spiele sind meist größer, die features bisher lieblos reingeklatscht und erst im Nachgang überhaupt spielbar gemacht (BF3 mit patches).

Aber da bin ich mir auch nicht so sicher. Auf jeden Fall ist das ja nun keine Global Illumination (BF3 auch nicht), was ja noch mal wesentlich mehr Leistung fordert als nur Reflektionen.

Ist auf jeden Fall eine geile Zeit die uns da bevorsteht. Sieht schon richtig geil aus finde ich. CryEngine zeigt es uns immer wieder wie Fortschritt aussieht.
Hi, das Manual ist hier zu finden:Voxel-Based Global Illumination (SVOGI) - CRYENGINE V Manual - Documentation

Kleiner Auszug:
1. First we prepare voxel representation of the scene geometry (at run-time, on CPU, asynchronously and incrementally).
2. Every frame on GPU we trace thousands of rays through the voxels (and shadow maps) in order to gather occlusion and indirect lighting.

The current default configuration provides only diffuse GI. For specular lighting we still need light probes. This system can be used as an AO add-on to light probes or can completely replace diffuse contribution of light probes.

The performance depends on which GI settings are used. Usually on Xbox One it takes 4-5 ms of GPU time and on a good PC (GTX 780) it takes 2-3 ms (AO + Sun bounce, no point lights, low-spec mode). The fastest configuration is "AO only" mode; this provides large scale AO at a cost of about 2.5 ms on Xbox One.
 

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
35.858
Ort
SN
Verstehe ich das hier richtig, dass Crytek demonstriert, dass Nvidia geflunkert hat und die RT Cores nicht wirklich nötig sind für brauchbare RT Leistung!?

Hä?
Natürlich sind RT-Cores nicht notwendig für Raytracing - auch nicht für Raytrancing in Echtzeit. Du stellst immer Fragen...

Die Fans behaupten, dass man das braucht, real braucht man einfach nur Leistung in Hardware x um Anforderung vom Software y abzudecken. Wenn nun eine Demo zeigt, dass das ohne RT-Cores geht, stimmt das exakt im selben Maße wie eine andere Demo/ein Spiel, wo es diese Beschleunigung eben braucht. Genau so wie in der Filmindustrie hunderte oder tausende von CPUs und teils GPUs an Raytracing arbeiten um für den geneigten Konsumenten ein von der Realität möglichst nicht mehr zu unterscheidendes Ergebnis zu erzeugen. Und damit noch exorbitant mehr Anforderungen stellen.


NVs RTX Zeug ist ein Kompromiss - nichtmal sonderlich gut. Das ohne RT Cores 1:1 auf den Shadern abzubilden geht/ging aber die ganze Zeit im selben Maße - nur halt langsamer. Schau dir das Video mal im Detail an - die Renderauflösung von dem Ding ist wirklich wirklich schlecht. Man hat dort offenbar auf Kante genäht.
Schau dir mal bei 1:16 im Video das extreme Aliasing an der Unterkante der Spiegeltüren oder Klappspiegel an. Da liegt auch erkennbar ein recht starker Weichzeichner drüber um das Aliasing zu kaschieren. Klappt halt nicht überall sehr gut. In einem Spiel würde man jetzt sagen, dass das AA nicht gut funktioniert ;)

Auch ist die Berechnung der Spieglung nicht wirklich überzeugend in Teilen. Aufgefallen ist es mir ziemlich am Ende vom Video. 1:38/1:39 sieht man in der Pfütze am Boden ein Dreieck mit der Schrift drin. Das soll die Spieglung der Beleuchtung links neben dem Rolltor vom rechten Bildschirmrand sein. -> die Schrift hat aber kein beleuchtetes Dreieck, sondern das Dreieck ist nur eine Kontur zu sehen. Besser zu sehen bspw. bei 1:24. Wenn man aber 1:39 mit 1/4tel Geschwindigkeit weiter laufen lässt, kurz bevor die Kamera am besagten Dreieck vorbei ist, ploppt auf einmal ein leicht/in Teilen beleuteter Rahmen auf.
Das selbe Dreick mit der Schrift siehst du auch schon bei 0:59/1:00 - wieder reflektiert im Spiegel. Scheint also irgendwo in der Spiegelmechanik irgendwas angedichtet zu werden, was im original nicht da ist oder nicht richtig gerendert wird??

Kurzum - da wird auch allerhand getrickst, wie viel Raytracing da am Ende wirklich drin ist, keine Ahnung. Aber man erkennt mit bloßem Auge, dass es auch bei Crytek ein langer langer Weg zu einer guten Umsetzung sein wird.
Warum NV da geflunkert haben soll, erschließt sich mir nicht. Such mal nach Fotorealistischen UE4 Szenen bei Youtube. Da gibts, ganz ohne Raytracing, Leute, die die UE4 und in Teilen auch in Unity oder der Cryengine Szenen erschaffen haben, wo dir die Augen rausfallen. Schwerpunkt klar ein anderer (weniger Reflektion - aber trotzdem viel mehr Fotoreal als das hier gezeigte mit ein paar Reflektionen)
 

Holzmann

Enthusiast, The Saint
Mitglied seit
02.05.2017
Beiträge
22.139
Ort
50.969
@fdsonne

OK guter Einwand, man müsste halt noch wissen mit welcher Leistung die Demo lief (Auflösung/FPS)?
 

SkizZlz

Experte
Mitglied seit
10.07.2013
Beiträge
5.219
Hä?
Natürlich sind RT-Cores nicht notwendig für Raytracing - auch nicht für Raytrancing in Echtzeit. Du stellst immer Fragen...

In dem Fall sogar gut, dass er danach gefragt hat, beantwortet nämlich meine Frage und den damit verbundenen ich nenn es mal "Marketing gag" Gedanken auch gleich mit.

Schaue ich mir The Division 2 an und stelle meinen Feuerwerfer auf und der Boden ist nass vom Regen, so werden wirklich schön die Reflektionen in den Pfützen gezeigt, selbes auch mit dem Charakter und das Spiel hat gar kein RTX.
 

Phantomias88

Urgestein
Mitglied seit
19.04.2008
Beiträge
8.183
Ort
StuggiTown
Ich kann auf YouTube 4K@60Hz auswählen.
Das geht normal nur wenn das Quell Material auch mit dieser Auflösung vorgenommen wurde.
Bei 1080p (FullHD) sind 14MBit/s genug damit keine Frames gedroppt werden: https://abload.de/img/crytek_svogigykgc.jpg
 

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.710
Also ca. 1/100 der Rays von RTX, wäre immer noch "mit Raytracing". Also nicht unbedingt gelogen, aber evtl. etwas die Realität verbogen.

So ca. in die Kerbe scheint das hier auch zu schlagen.
Der eigene Standard, der offen sein soll, klingt ja fantastisch... nur wirft das die Frage auf: Was an DX12 ist den nicht offen? DRX baut doch komplett auf DX12 und Vulkan auf, da ist nichts NVidia only dran.

Ein Standard von CryTek ist wohl nicht so offen und frei verfügbar wie aus DX12. Oder würde CryTek dieses Wunder auch Entwicklern zur Verfügung stellen die Unity nutzen möchten?

Wie gut funktioniert das Ganze überhaupt? In dem Video sieht das ja nicht so pralle aus. Sowohl die Auflösung, als auch die Effekte sind Mangelhaft im besten Fall.
Edit: Die RT Auflösung, nicht die "Game" Auflösung. Das sind ja stetige 60fps in 4k laut dem Video. Das packt die Vega 56 nicht mal ohne RT, aber das Crytek RT ist so genial, dass es die Leistung steigert, oder?

Fragen über Fragen.

Evtl. versuchen sie auch einfach nur nicht ganz pleite zu gehen und gehen zur Verzweiflung über. ;-)
 
Zuletzt bearbeitet:

JCDenton

Enthusiast
Mitglied seit
14.09.2003
Beiträge
17
Korrigiert mich, aber geht es aktuell nicht sowieso eher darum, mit Raytracing potenziell sehr viel Arbeit in der Entwicklung sparen zu können, die sonst in handgemachte Shader und Effekte fließen würde? Aktuell scheint der Großteil an Bildqualität mit rasterbasierten Methoden ja fast genau so schön, aber zigfach schneller möglich zu sein - nur halt hingetrickst, statt "richtig" berechnet.
 

PCTOM

Experte
Mitglied seit
24.12.2011
Beiträge
3.219
XD wo ist mein Popcorn. Ich brauch dann wohl keine 1k Euro GPU um perfekte Spiegelungen geniessen zu können. Läuft und lasst die Spiele beginnen.
 

Shevchen

Enthusiast
Mitglied seit
20.01.2011
Beiträge
2.631
Korrigiert mich, aber geht es aktuell nicht sowieso eher darum, mit Raytracing potenziell sehr viel Arbeit in der Entwicklung sparen zu können, die sonst in handgemachte Shader und Effekte fließen würde? Aktuell scheint der Großteil an Bildqualität mit rasterbasierten Methoden ja fast genau so schön, aber zigfach schneller möglich zu sein - nur halt hingetrickst, statt "richtig" berechnet.

Raytracing gibt dir halt die Möglichkeit dynamischer zu arbeiten. Du kannst bestimmte Effekte auch einfach in Texturen "backen" bzw. einfache Spiegelungseffekte mit Hilfe von Lichtsonden erstellen - die Kombination aus beiden hat bisher gut funktioniert - bei Open-World Spielen - wo sich alles verändert - stößt du dann aber ab einem Punkt an so viele "workarounds", dass der Aufwand sich kaum noch lohnt.

Entsprechend braucht es in absehbarer Zukunft eine neue Technologie um Reflexionen dynamischer zu berechnen, wo du eben nicht mehr alles in Texturen backen willst oder 10 Millionen Lichtsonden brauchst um den Raytracing-Effekt klassisch zu "kopieren".

Ob es am Ende wirklich Raytracing, Pathtracing, irgendein Voxel-Licht-Format oder noch was ganz anderes wird, muss sich noch zeigen. Generell wird es aber wie üblich in der Industrie den 0815-Standard geben, wo sich mit minimalstem Aufwand die dollste Marketingschleuder realisieren lässt.

Gut optimierte Spiele findest du im AAA-Bereich praktisch gar nicht - nur eben ein paar auf Kante gefahrene Demos.

Und nur um das Thema Star Citizen mit abzudecken: Das ist kein AAA-Spiel, sondern ein (großes) Indie-Projekt.
 

Pickebuh

Enthusiast
Mitglied seit
27.07.2008
Beiträge
3.370
Läuft, würde ich sagen und dies auf einer 300 Euro Karte ohne RT und Tensor-Cores...
 

Holzmann

Enthusiast, The Saint
Mitglied seit
02.05.2017
Beiträge
22.139
Ort
50.969
Ja die Demo läuft wirklich schon gut, habt ihr eine Idee warum Crytek ausgerechnet eine Vega56 zu Präsentation genommen hat?
 
Zuletzt bearbeitet:

TobiWahnKenobi

Experte
Mitglied seit
03.05.2015
Beiträge
1.057
Ort
Hannover
Ja die Demo läuft wirklich schon gut, habt ihr eine Idee warum Crytek ausgerechnet eine Vega56 zu Präsentation genommen hat?

da hat AMD bestimmt 10€ springen lassen und deren grafikkarten kann jedes bisschen werbung nur zu gute kommen.


(..)

mfg
tobi
 

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
32.923
Ohne die Implementierung und weitere Details zu wissen, kann man jetzt aber nicht sagen "mit einer Radeon RX Vega 56 geht das, wozu bei NVIDIA eine GeForce RTX 2080 Ti benötigt wird." Es wird einen Grund haben, warum Crytek das in dieser Form präsentiert und nächste Woche (während und nach der GDC) werden wir sicherlich schon mehr wissen.
 

Holzmann

Enthusiast, The Saint
Mitglied seit
02.05.2017
Beiträge
22.139
Ort
50.969
Denkbar ist vielleicht auch, dass Crytek eine AMD Karte genommen hat, um zu zeigen, dass man nicht zwingend Nvidias RT Cores braucht, um ausreichend Raytracing berechnen zu können, spannend ist halt noch die Frage, wie gut die neue Engine läuft, wenn auf einer RTX-Karte berechnet wird. :)
 

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.656
Ort
Baden Württemberg
So ganz dicke scheint Crytek nicht mit Nvidia befreundet zu sein. :-D

Aber wo steht das geschrieben, eine Vega 56 kann das und für das gleiche Ergebnis bräuchte es bei Nvidia eine 2080ti? Muss ich verpasst haben.
 

Holzmann

Enthusiast, The Saint
Mitglied seit
02.05.2017
Beiträge
22.139
Ort
50.969

Naennon

AMD-Fanboy
Mitglied seit
14.04.2007
Beiträge
26.613
Ort
Euskirchen, NRW
nein brauchts nicht

das dargestellte löppt
ohne RTX, also rein Shader

und die Shaderpower einer Vega 56 enstpricht der einer GTX1070

also brauch man für das gleiche Ergebnis da oben eine 1070

die Aussage man benötigt eine 2080ti ist halt für Battlefield etc gemeint, mit hardware RT und da macht die Vega56 halt 5 statt 60 FPS
 

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.656
Ort
Baden Württemberg
Für einen Laie zählt: Solange das Endresultat geil aussieht, ist es dem scheiß egal wie es zustande gekommen ist.
:-D
Für GIllum. ist es eh noch zu früh (HW zu teuer und schwach), also was soll der Terz ^^ Für eine 300€ Grafikkarte sind solche Ergebnisse doch fabelhaft.
 

Tech Enthusiast

Experte
Mitglied seit
01.01.2016
Beiträge
2.710
Korrigiert mich, aber geht es aktuell nicht sowieso eher darum, mit Raytracing potenziell sehr viel Arbeit in der Entwicklung sparen zu können, die sonst in handgemachte Shader und Effekte fließen würde? Aktuell scheint der Großteil an Bildqualität mit rasterbasierten Methoden ja fast genau so schön, aber zigfach schneller möglich zu sein - nur halt hingetrickst, statt "richtig" berechnet.

Größtenteils korrekt.
Es gibt aber, gerade bei Spiegelungen und Global Illumination, Faktoren die eindeutig "besser" sind in RT Form.
Bei Spiegelungen sind das Reflektionen von Objekten, die nicht aktuell auf dem Bildschirm gerendert werden.
Bei Global Illumination ist es das "Gefühl" von Realität. Shader können noch so "gut" und shiny wirken, wenn man RT dagegen stellt, wirkt jeder noch so hübsche Shadert und Lichttrick wie gekünstelt.

Ist etwas schwer in klare Worte zu fassen, aber stell es Dir so vor:
Du gehst in einen Raum mit Fenstern, Licht scheint herein und wirft schatten. Mit alten Tricks sieht das fantastisch aus und mag einen sogar begeistern. Man hat aber irgendwie das Gefühl, dass etwas nicht stimmt und es nicht "echt" ist.
Mit RT Global Illumination sieht es aus wie in der Realität. Es ist nicht unbedingt hübscher, bzw. ist zumindest etwas Subjektiv, aber man geht in den Raum und der Kopf sagt einem nicht unterbewusst, dass "irgendetwas" nicht stimmt.
Es wird mit RT sozusagen "richtig" gemacht, was mit alten Tricks bestenfalls für eine einzelne, statische Szene möglich wäre, nicht aber für bewegte Bilder oder gar Spiele.

Genau das GI Ding spart die von Dir vermutete Zeit.
Statt unsichtbare Lichtquellen in jedem Raum zu plazieren, zu probieren wo sie hingehören um nicht total falsch und unnatürlich zu wirken, kann man einfach gar nichts machen.
RT übernimmt alles und kostet in dem Fall null Arbeitsaufwand. Das ist auch der Bereich, den die Lederjacke meinte, als er sagte "it just works". Die breite Masse hat das aus dem Zusammenhang gerissen, ohne es zu verstehen. Aber genau das hat er gemeint.
Global Illumination "just works", im Gegensatz zu traditionellen Ansätzen, die verdammt viel Zeit fressen und danach auch noch schlechter aussehen.

- - - Updated - - -

Für einen Laie zählt: Solange das Endresultat geil aussieht, ist es dem scheiß egal wie es zustande gekommen ist.
:-D
Für GIllum. ist es eh noch zu früh (HW zu teuer und schwach), also was soll der Terz ^^ Für eine 300€ Grafikkarte sind solche Ergebnisse doch fabelhaft.

Du ignorierst aber, dass eine 300 Euro GPU diese Ergebnisse sicher nicht liefert.
Ignoriere mal das angeblich flüssige "realtime" Raytracing und versuche mit einer Vega 56 4k@60fps zu halten, solide und flüssig, ohne Framedrops.
Schon siehst Du, dass diese Demo einfach nur Verarschung ist.

Bestenfalls haben sie das Ding da prerendered auf einer Vega 56 und das über mind. die 4-10fache Zeit die das Video geht.
Und selbst das halte ich für sehr unwahrscheinlich.

An Raytracing wird seit über 25 Jahren geforscht.
Firmen die viel mehr Geld als AMD und NVidia zusammen haben und nicht auf für sie billige 1000 Euro GPUs angewiesen sind, versuchen seit Jahrzehnten das effizienter zu machen um Zeit und damit Geld zu sparen.
Weder wird eine sterbende Firma wie CryTek, noch ein Wundertreiber von AMD, das jetzt schlagartig per "Softwareupdate nachreichen".
Das ist einfach nur falsches Wunschdenken und komplett unrealistisch.

- - - Updated - - -

da hat AMD bestimmt 10€ springen lassen und deren grafikkarten kann jedes bisschen werbung nur zu gute kommen.

Sehe ich leider recht ähnlich.
Auch wenn das Argument von @Holzmann auch schlüssig ist, dass man zeigen möchte, dass es sicher ohne RT läuft, erwarte ich doch eher eine finanzielle Spritze von AMD für entsprechendes Marketing.
AMD kann aktuell in keinem Bereich mehr überzeugen, da sogar im LowEnd auf einmal NVidia wildert mit den neuen 16xx GPUs und CryTek hatte ich eigentlich bereits für Bankrott gehalten. Ohne diese News wäre ich davon ausgegangen, dass sie sich aufgelöst haben nach all den Finanzproblemen.

Es ist also durchaus für beide Seiten ein (Marketing-)Gewinn so eine Behauptung aufzustellen.

Ganz deutlich noch mal:
Das Video läuft in 4k @ 60fps.
Eine Vega 56 packt das auch ohne RT nicht. Hier ist also ohne irgendwelche Fragen manipuliert worden.
Wie viel, können wir nicht mal abschätzen. Das könnte "nur" ein auf Vega 56 prerendered Video sein, dass ne Stunde gerechnet hat, oder es könnte auch einfach eine RTX Titan, oder 4 gewesen sein. Wir wissen es nicht.

Es steht einfach nur eine Behauptung im Raum, die allem widerspricht, was in den letzten 25 Jahren im Raytracing passiert ist.
Und das kommt wundersamerweise von einer totgeglaubten Firma mit einer 300 Euro GPU eines Herstellers, der gerade positives Marketing braucht.
Wir sollten da, ohne unabhängige Beweise, erstmal gar nichts von glauben. Egal wie gerne wir es wollen.

Und eines könnt ihr mir glauben, ich will Raytracing bei jedem Spieler sehen. Auch bei 100 Euro GPUs würde ich das super gerne sehen, einfach weil es 10x genialer ist als Shadertricks und es Entwicklungszeit spart.
Die gesparte Zeit können die Entwickler in mehr Games, bessere Games, oder dickere Margen stecken, welche dann wieder andere Dinge erlauben. Egal wie: Alle Gewinnen, wenn Raytracing massentauglich wird.
Aber das ist aktuell halt nur Wunschdenken und kein gefakter "Videobeweis" kann daran etwas ändern.
 
Zuletzt bearbeitet:

Naennon

AMD-Fanboy
Mitglied seit
14.04.2007
Beiträge
26.613
Ort
Euskirchen, NRW
Hier ist also ohne irgendwelche Fragen manipuliert worden.


nein?

das was du da siehst ist Raytracing Krams auf Softwarebasis und um zu zeigen, dass die von Crytek genutzte Raytracing-Technik eben eine solche ist, also eine Software-basierte (ohne Hardwaredurst auf RT-Cores) hat man eine Karte ohne RT genommen - idealerweise eine Radeon :d
das was du da siehst macht eine vergleichbare NVidiakarte (1070/1080) auch und die NVidiakarte bringt dort nicht mehr FPS, weil das dort dargestellte überhaupt nicht von RT-Cores profitiert, eben weil es einfach nur auf die reine Shaderpower/Rechenpower ankommt
 

Motkachler

Urgestein
Mitglied seit
05.11.2007
Beiträge
6.324
Ort
Mittelfranken
Das ganze RT cores gedöns von NV ist ein witz wie man hier ja wohl sehn kann geht das auch ohne RT cores das was NV und die NV fans so hypen.
Ob die rechenleistung dann reicht steht auf nem anderen blatt.
 
Zuletzt bearbeitet:

PCTOM

Experte
Mitglied seit
24.12.2011
Beiträge
3.219
Größtenteils korrekt.
Es gibt aber, gerade bei Spiegelungen und Global Illumination, Faktoren die eindeutig "besser" sind in RT Form.
Bei Spiegelungen sind das Reflektionen von Objekten, die nicht aktuell auf dem Bildschirm gerendert werden.
Bei Global Illumination ist es das "Gefühl" von Realität. Shader können noch so "gut" und shiny wirken, wenn man RT dagegen stellt, wirkt jeder noch so hübsche Shadert und Lichttrick wie gekünstelt.

Ist etwas schwer in klare Worte zu fassen, aber stell es Dir so vor:
Du gehst in einen Raum mit Fenstern, Licht scheint herein und wirft schatten. Mit alten Tricks sieht das fantastisch aus und mag einen sogar begeistern. Man hat aber irgendwie das Gefühl, dass etwas nicht stimmt und es nicht "echt" ist.
Mit RT Global Illumination sieht es aus wie in der Realität. Es ist nicht unbedingt hübscher, bzw. ist zumindest etwas Subjektiv, aber man geht in den Raum und der Kopf sagt einem nicht unterbewusst, dass "irgendetwas" nicht stimmt.
Es wird mit RT sozusagen "richtig" gemacht, was mit alten Tricks bestenfalls für eine einzelne, statische Szene möglich wäre, nicht aber für bewegte Bilder oder gar Spiele.

Genau das GI Ding spart die von Dir vermutete Zeit.
Statt unsichtbare Lichtquellen in jedem Raum zu plazieren, zu probieren wo sie hingehören um nicht total falsch und unnatürlich zu wirken, kann man einfach gar nichts machen.
RT übernimmt alles und kostet in dem Fall null Arbeitsaufwand. Das ist auch der Bereich, den die Lederjacke meinte, als er sagte "it just works". Die breite Masse hat das aus dem Zusammenhang gerissen, ohne es zu verstehen. Aber genau das hat er gemeint.
Global Illumination "just works", im Gegensatz zu traditionellen Ansätzen, die verdammt viel Zeit fressen und danach auch noch schlechter aussehen.

- - - Updated - - -



Du ignorierst aber, dass eine 300 Euro GPU diese Ergebnisse sicher nicht liefert.
Ignoriere mal das angeblich flüssige "realtime" Raytracing und versuche mit einer Vega 56 4k@60fps zu halten, solide und flüssig, ohne Framedrops.
Schon siehst Du, dass diese Demo einfach nur Verarschung ist.

Bestenfalls haben sie das Ding da prerendered auf einer Vega 56 und das über mind. die 4-10fache Zeit die das Video geht.
Und selbst das halte ich für sehr unwahrscheinlich.

An Raytracing wird seit über 25 Jahren geforscht.
Firmen die viel mehr Geld als AMD und NVidia zusammen haben und nicht auf für sie billige 1000 Euro GPUs angewiesen sind, versuchen seit Jahrzehnten das effizienter zu machen um Zeit und damit Geld zu sparen.
Weder wird eine sterbende Firma wie CryTek, noch ein Wundertreiber von AMD, das jetzt schlagartig per "Softwareupdate nachreichen".
Das ist einfach nur falsches Wunschdenken und komplett unrealistisch.

- - - Updated - - -



Sehe ich leider recht ähnlich.
Auch wenn das Argument von @Holzmann auch schlüssig ist, dass man zeigen möchte, dass es sicher ohne RT läuft, erwarte ich doch eher eine finanzielle Spritze von AMD für entsprechendes Marketing.
AMD kann aktuell in keinem Bereich mehr überzeugen, da sogar im LowEnd auf einmal NVidia wildert mit den neuen 16xx GPUs und CryTek hatte ich eigentlich bereits für Bankrott gehalten. Ohne diese News wäre ich davon ausgegangen, dass sie sich aufgelöst haben nach all den Finanzproblemen.

Es ist also durchaus für beide Seiten ein (Marketing-)Gewinn so eine Behauptung aufzustellen.

Ganz deutlich noch mal:
Das Video läuft in 4k @ 60fps.
Eine Vega 56 packt das auch ohne RT nicht. Hier ist also ohne irgendwelche Fragen manipuliert worden.
Wie viel, können wir nicht mal abschätzen. Das könnte "nur" ein auf Vega 56 prerendered Video sein, dass ne Stunde gerechnet hat, oder es könnte auch einfach eine RTX Titan, oder 4 gewesen sein. Wir wissen es nicht.

Es steht einfach nur eine Behauptung im Raum, die allem widerspricht, was in den letzten 25 Jahren im Raytracing passiert ist.
Und das kommt wundersamerweise von einer totgeglaubten Firma mit einer 300 Euro GPU eines Herstellers, der gerade positives Marketing braucht.
Wir sollten da, ohne unabhängige Beweise, erstmal gar nichts von glauben. Egal wie gerne wir es wollen.

Und eines könnt ihr mir glauben, ich will Raytracing bei jedem Spieler sehen. Auch bei 100 Euro GPUs würde ich das super gerne sehen, einfach weil es 10x genialer ist als Shadertricks und es Entwicklungszeit spart.
Die gesparte Zeit können die Entwickler in mehr Games, bessere Games, oder dickere Margen stecken, welche dann wieder andere Dinge erlauben. Egal wie: Alle Gewinnen, wenn Raytracing massentauglich wird.
Aber das ist aktuell halt nur Wunschdenken und kein gefakter "Videobeweis" kann daran etwas ändern.

Will dich nicht enttäuschen aber Crytec ist weder Pleite https://www.crytek.com/ noch ist das Video Trick/gefakt und es läuft tatsächlich auf einer Vega 56. Dieses Video könnte eine 1070 oder Vega 56 in 4K darstellen. Bis auf die Bereiche mit den Spiegelungen ist nichts high Res (keine high Res Texturen).Die Lichquellen meist Statisch. Bis auf die Drohne keine bewegten Objekte. Es ist auch keine Trixerei wenn man sich nur auf die Bereiche konzentriert die der Spieler direkt wahrnimmt. Crytec hat da wohl auch von AMD gesponsort etwas gute Optimierungsarbeit geleistet. Das ganze versucht man übrigens auch bei BF5/Dice Engine und Co. Da bis jetzt aber bis jetzt immer mit den Gedanken die Leistung der NV TS Core. Das ist mir zu grün ;) und Crytec für mich deswegen auch Denen einen Schritt vorraus.
 
Zuletzt bearbeitet:
Oben Unten