Erste Ray-Tracing-Benchmarks: Battlefield V mit DXR im Test (2. Update)

Je natürlicher und komplexer die Details desto katastrophaler die Leistung mit RT. Oder was glaubst du warum bisher sämtliche RTX-Demos absolut steril sind? Wir sind noch mindestens 5 Jahre und zwei Grafikkartengenerationen von einer sinnvollen Implementation entfernt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sagt der welcher noch nicht einmal etwas über PhysX zu wissen scheint. PhysX ist NVIDIA-Only proprietär und daher für viele gar nicht nutzbar. Aber hey, wahrscheinlich hast du recht und ich spiele ständig mit meiner AMD-Karte PhysX ohne es zu wissen. :d
Das was du meinst ist vermutlich Havok oder anderer Physik-Engines. Hat aber nichts mit NVIDIAs-PhysX zu tun.
Das Problem mit PhysX ist der zusätzliche Hardwarehunger, der manche Spiele so einbrechen lässt, dass viele es abschalten, genauso wie es bei dem neuen RT sein wird. Oder meinst du, jemand mit einer 1400 Euro Grakka spielt mit 60FPS in Full-HD?

Egal. RT ist das neue Feature von NVIDIA. Muss einfach toll sein. :)

:hust:

"Im Februar 2008 übernahm der Grafikchiphersteller Nvidia Ageia und integrierte die PhysX-Engine in das hauseigene CUDA-System, um sie auf Grafikkarten der GeForce-Serie lauffähig zu machen. Damit können die Physikberechnungen auch von der Grafikkarte durchgeführt werden, was zusätzliche Physikbeschleuniger optional macht. Allerdings muss die Grafikkarte CUDA unterstützen und ein aktueller Grafikkartentreiber installiert sein. Dies ist bei Nvidia seit der Grafikkartentreiberversion 177.83 der Fall. Es ist zudem möglich, eine separate Grafikkarte nur als Physikbeschleuniger zu verwenden.[1][2] "
PhysX – Wikipedia
Mit anderen Worten, alle Engines die mit Cuda zusammenarbeiten, können Physx.

"Im Jahr 2006 wurde von Havok in enger Zusammenarbeit mit Nvidia ein neues Physik-Tool entwickelt, das die gesamten Berechnungen für die Physikengine auf den Grafikchip holt. Während die Havok-Engine allein den Hauptprozessor für physikalische Animationen heranzieht, setzt die FX-Version auf die Hardwarebeschleunigung der Grafikkarte. "
https://de.wikipedia.org/wiki/Havok_(Software)

Havok existiert in dem Sinne auch nicht mehr seit es Intel aufgekauft hat. Vll erlebt es eine Renaissance mit Intels diskreten Karten. Bis jetzt ist es also keine Erfolgsgeschichte weil es stillgelegt ist im Gegensatz zu Physx.

Zerozerp hat also durchaus recht, vor allem weil in beiden Fällen Nvidia treibend Kraft war und diese Technik vorantrieb und somit die weite Verbreitung ermöglichte.

PS: Welche nennenswerten weiteren Physikengines soll es den noch geben?
 
Zuletzt bearbeitet:
Finde es gut dass Nvidia den RTX Weg eingeschalgen hat, selbst wenn derzeitig noch alles zimelich mangelhaft ist. Wenn keiner anfängt, haben wir das Henne-Ei Problem. Nvidia sollte genug Reserven haben um es zu pushen. Bis wir wirklich komplett auf Raytracing setzen können werden noch einige Jahre vergehen, allerdings ist es in meinen Augen der nächste Schritt für die Grafik. Realitätsgetreue Darstellung hört sich definitiv gut an.
In 10 Jahren sollte das ganze dann schon etwas anders ausschauen. Da ich allerdings kein Nvidia verfechter bin, hoffe ich dass AMD in der Richtung auch was zu bieten hat.
Am besten offen für alle und nich "Gameworks" mäßig abgeschachtelt.
 
Sagt der welcher noch nicht einmal etwas über PhysX zu wissen scheint. PhysX ist NVIDIA-Only proprietär und daher für viele gar nicht nutzbar. Aber hey, wahrscheinlich hast du recht und ich spiele ständig mit meiner AMD-Karte PhysX ohne es zu wissen. :d
Das was du meinst ist vermutlich Havok oder anderer Physik-Engines. Hat aber nichts mit NVIDIAs-PhysX zu tun.
Das Problem mit PhysX ist der zusätzliche Hardwarehunger, der manche Spiele so einbrechen lässt, dass viele es abschalten, genauso wie es bei dem neuen RT sein wird. Oder meinst du, jemand mit einer 1400 Euro Grakka spielt mit 60FPS in Full-HD?

Du hast meinen Beitrag nicht aufmerksam gelesen...
Die PhysX Bibliothek hat schon lange auch ein Software Fallback und ist inzwischen in vielen Engines als native Bibliothek aufgegangen:

https://docs.unrealengine.com/en-us/Engine/Physics

https://unity3d.com/de/company/public-relations/news/otee-licenses-agaeia-physx-physics-engine

http://docs.cryengine.com/display/CEMANUAL/Using+NVIDIA+PhysX+in+CRYENGINE

Somit beschimpfst Du PhysiX ohne zu wissen, dass Du es durch Nutzung einer der oben genannten Engines schon dauernd in der Basisform nutz! Auch mit AMD Karte...

Mir aber Unwissenheit bezüglich der Bibliothek unterstellen, ohne auch nur mal eine Minute selbst zu googlen zu wollen und falsche Behauptungen als Tatsachen hinstellen.

Das klassische PhysX in proprietärer Form, welches durch nVidia GPUs beschleunigt wurde ist veraltet und doch schon lange als tot anzusehen. Macht ja auch keinen Sinn mehr, wenn die großen Engines das alles nativ und für alle spielbar verwurschtelt haben...

- - - Updated - - -

Am besten offen für alle und nich "Gameworks" mäßig abgeschachtelt.

So ist es- DXR ist ja künftig der Standard, den alle Hersteller unabhägig nutzen können....
 
Zuletzt bearbeitet:
Kosten Raytracing-Szenen ohne Reflektierungen im Wasser, auf Metallen (also Oberflächen) oder im Glas, auch soviel an Leistung?
Was genau wird da "geraytraced"? Schatten, Licht?
Diese Szenen sehen für mich im Video, aktiviertes Raytacing oder ohne, nicht besonders anders aus, dennoch 200 - 300 % weniger fps.
 
Wieso hoffst Du das denn? Was ist Dein Nutzen, wenn das ausstirbt? Was hast Du für einen Gewinn dadurch, dass 3D beim Fernsehen ausgestorben ist?

Alles, was nicht Deinem egozentrischen Weltbild entspricht, soll am besten gleich "vernichtet" werden und "aussterben"?
Ich würde mir mal Gedanken um die eigene Geisteshaltung machen und darum, wie ein Land wie unseres, dessen Wohlstand sich auf neue Technologien und technischen Fortschritt gründet überleben soll, wenn es mehrere Leute hier gibt, die so denken wie Du...

- - - Updated - - -


Du kannst ja weiterhin mit der vollen Zahl an FPS mit den fehlerhaften, von Artefakten durchsetzten, niedrig aufgelösten und die falschen Dinge spiegelnden Screenspace- Reflections spielen.
Wollen wir, dass sich die Grafikqualität weiterentwickelt, oder nicht? Du offensichtlich schonmal nicht...

Hallo wir Endverbraucher sind nicht dumm. NVidia hat genug Geld Kassiert die letzten Jahre. Warum soll ich als Verbraucher ein RTX unterstützen der nicht ausgereift ist. Die RTX Karten sind reine Abzocke und wer das noch Unterstützt ist selbst schuld.
 
Zuletzt bearbeitet:
Für VR-Braucht man Power oder 100Hz+
Selbst ohne das DXR Gedöns, unter DX11 sind die ganzen RTX GPUs ernüchternd / entäuschend.
Sowieso, wenn man die Preise bedenkt.

Und dann miese Konsolenports, ohne Inhalt / Tiefe mit "Bling-Bling" das am Ende mehr als die Hälfte der FPS schluckt. Super :shot:
 
"Singleplayer bestimmt bessere Leistung"

"auf Turnieren zockt man in FullHD"

was ist denn das für ein Geblubber ? ...

der scheiß ist einfach nicht spielbar ... ganz einfach.
Wenn man nicht mal in FullHD stabile 60 Bilder pro Sekunde mit einer 1300€ Graka hinbekommt - FAIL ! ... einfach nur FAIL

und wenn man dann noch die Reflexionen auf LOW stellen muss um zocken zu können ... sorry Leute.

Aus genau diesem Anlass habe ich mir auch eine 1080 Ti angeschafft ... wird wohl erst mal längere Zeit mein Wegbegleiter werden ...
 
ich bin mir nachwievor ziemlich sicher dass nvidia die 20xx Serie ziemlich schnell refreshen wird und in 7nm bringt. die Karten saugen einfach zu viel Strom und sind da momentan limitiert. wenn ich meine 2080er ließe würde die hier und da mal 350W und mehr verpulvern.
dazu ist der Chip auch immer noch sehr groß und teuer, also macht der refresh absolut sinn.

early adaptor sind dann zwar gemolken worden, haben aber auch seit nem halben jahr schon ihre rtx also kein shitstorm und die ti kostet dann wieder ihre 7-800€ wie bei der 10xx serie auch. vlt sehen wir dann auch n neuen Titan.

hoffentlich stell bis dahin auch amd mal was auf die Beine...
 
Du hast meinen Beitrag nicht aufmerksam gelesen...
Die PhysX Bibliothek hat schon lange auch ein Software Fallback und ist inzwischen in vielen Engines als native Bibliothek aufgegangen:

https://docs.unrealengine.com/en-us/Engine/Physics

https://unity3d.com/de/company/public-relations/news/otee-licenses-agaeia-physx-physics-engine

http://docs.cryengine.com/display/CEMANUAL/Using+NVIDIA+PhysX+in+CRYENGINE

Somit beschimpfst Du PhysiX ohne zu wissen, dass Du es durch Nutzung einer der oben genannten Engines schon dauernd in der Basisform nutz! Auch mit AMD Karte...

Mir aber Unwissenheit bezüglich der Bibliothek unterstellen, ohne auch nur mal eine Minute selbst zu googlen zu wollen und falsche Behauptungen als Tatsachen hinstellen.

Alle deine Links verweisen darauf wie man die tote PhysX-Bibliothek doch noch lauffähig machen kann und nicht, dass sie ständig genutzt wird.
Da hast du dir aber ein Ei gelegt mit dieser Behauptung! Bitte lese mal deine Links, bevor du andere hier für Unwissenheit brandmarken möchtest.

Das klassische PhysX in proprietärer Form, welches durch nVidia GPUs beschleunigt wurde ist veraltet und doch schon lange als tot anzusehen. Macht ja auch keinen Sinn mehr, wenn die großen Engines das alles nativ und für alle spielbar verwurschtelt haben...

Verwurschtelt? Ist das jetzt der neue Fachausdruck für PhysX? :hust:
Man muss also selber schauen wie man die Engine mit dieser angehängten Bibliothek irgendwie zum Laufen bekommt und schon ist es ja überall nutzbar, auch bei AMD-Karten? Da hast du wohl etwas falsch verstanden.
Und ganz nebenbei. Ich sagte doch, RT wird genauso tot sein wie PhysX. Frage: Seit wann ist RT softwaretechnisch simulierbar?

Für Hardware-PhysX benötigt man CUDA, was eben wie du schon selber geschrieben hast, schon lange nicht mehr genutzt wird!
 
Zuletzt bearbeitet:
Physx wurde unter anderem erst in The Witcher 3 eingesetzt. Es ist so tot...
 
Gibt es eigentlich mittlerweile einen CPU Benchmark? In wieweit die RTX Leistung von der CPU abhängig ist?!
 
Physx wurde unter anderem erst in The Witcher 3 eingesetzt. Es ist so tot...

Wo genau denn? Ich hoffe du meinst nicht Hairworks was selbst auf den NVidia GPUs absolut beschissen lief
 
The Witcher 3 ist vor über 3 Jahren erschienen...
Zudem nutzt man dort einen offenen Standard eines GPGPU-Pfades damit auch AMD-Karten Hairworks nutzen können, genauso wie TressFX von AMD welches auch von NVIDIA-Karten genutzt werden kann.

Alles was Heute noch mit PhysX zu tun hat, sind Softwareemulierungen über die CPU, die man kaum mehr als PhysX bezeichnen kann. Nur bei Benchmarks wird dann wieder PhysX genutzt um bei NVIDIA-Karten mehr Punkte zu generieren.
Also PhysX ist schon lange tot und genauso wird es mit RT passieren.
 
Nö, die Grundlagen dieser Dinge ist nach wie vor Physx, welches in Cuda aufgegangen ist. Herr Gott noch eines, wenn Ignoranz auf den Unwillen trifft, etwas nachzulesen... Der Name Physx ist tot, das was Physx ist und war lebt munter in Cuda weiter. Es ist zum Standard geworden, wird daher auch nicht mehr gesondert beworben oder mit neuem Namen wie unter anderem Hairworks.

Was denkt ihr ist für die heute nahezu überall genutzte Physik zuständig? Havok nicht, das hat Intel unter Verschluss und ansonsten gibt es keiner nennenswerte Engine mehr, außer man möchte die von GTA noch als solche nennen, die abseits davon noch in ka 15(?) Noname titeln zum Einsatz kommt. Die Erben von Physix, die in CUda stecken, sind die treibende Physikberechnungsgrundlagen in den meisten Engines.
 
das alte modell ist wegen sinkender grenznutzen sehr ausgereizt, jede verbesserung wird erkauft mit höher werdendem aufwand.

der paradigmenwechsel wird kommen. es ist heute nur noch nicht ganz klar welcher das sein wird. so ein bisschen wie zu der zeit als die frage ob grafische benutzeroberfläche oder nicht. höhere auflösungen? raytraycing? VR ? holos?

raytracing wird imho kommen wie der wechsel auf 3d beeschleeunigerkarten damals. auf einem höherem preisniveau.

davon sprechend empfindee ich das nv hier generell zu schlecht weg kommt. sie riskieren was, damit die grafik ein neues level erreicht. wer early adopter sein will (ich btw. nicht), der muss auch bereit sein earrly adopter preise zu zahlen. vor allem bei geringer verfügbarkeit.
 
das alte modell ist wegen sinkender grenznutzen sehr ausgereizt, jede verbesserung wird erkauft mit höher werdendem aufwand.

der paradigmenwechsel wird kommen. es ist heute nur noch nicht ganz klar welcher das sein wird. so ein bisschen wie zu der zeit als die frage ob grafische benutzeroberfläche oder nicht. höhere auflösungen? raytraycing? VR ? holos?

raytracing wird imho kommen wie der wechsel auf 3d beeschleeunigerkarten damals. auf einem höherem preisniveau.

davon sprechend empfindee ich das nv hier generell zu schlecht weg kommt. sie riskieren was, damit die grafik ein neues level erreicht. wer early adopter sein will (ich btw. nicht), der muss auch bereit sein earrly adopter preise zu zahlen. vor allem bei geringer verfügbarkeit.

Was riskieren die denn? nVidia musste das machen, um die unverschämte Preiserhöhung zu rechtfertigen.

Und dann wollte nVidia anfangs ganz sicher nur die RTX 2080 bringen, dann haben sie gesehen, dass die nicht genügend Power bringt, gegenüber einer GTX 1080ti
und mussten handeln. Wobei niemand über DLSS redet, weils nur in Demos existent ist.

Das mit den Beschleunigerkarten ist eine Illusion. Als die 3D Beschleunigerkarten von 3dfx kamen, gab es sowas wie 3D Berechnung auf Grafikkarten noch gar nicht und man hat sofort gesehen, wie überwältigend die Grafik mit einer solchen Karte aussieht. Bei RT sage ich mir - sieht ok aus, aber kann ich drauf verzichten.
 
Alle deine Links verweisen darauf wie man die tote PhysX-Bibliothek doch noch lauffähig machen kann und nicht, dass sie ständig genutzt wird.
Da hast du dir aber ein Ei gelegt mit dieser Behauptung!

Soso...
https://docs.unrealengine.com/en-us/Engine/Physics
Unreal Engine 4 uses the PhysX 3.3 physics engine to drive its physical simulation calculations and perform all collision calculations. PhysX provides the ability to perform accurate collision detection as well as simulate physical interactions between objects within the world.

Was frage ich Dich, gibt es daran misszuverstehen?

- - - Updated - - -

Physx wurde unter anderem erst in The Witcher 3 eingesetzt. Es ist so tot...

Es wird nur noch selten als proprietäres Addon genutzt. Das wäre der richtige Ausdruck dafür, weil viele Engines es inzwischen lizenziert haben und nativ nutzen.

- - - Updated - - -

Das mit den Beschleunigerkarten ist eine Illusion. Als die 3D Beschleunigerkarten von 3dfx kamen, gab es sowas wie 3D Berechnung auf Grafikkarten noch gar nicht und man hat sofort gesehen, wie überwältigend die Grafik mit einer solchen Karte aussieht. Bei RT sage ich mir - sieht ok aus, aber kann ich drauf verzichten.
Genau- und weil man einen so schön verklärten Blick auf die Vergangenheit hat, vergisst man, dass die ersten Demos/Spiele mit dem Ding mit der unglaublichen Grafik aber mit 15FPS gelaufen sind.

Damit würde der Hersteller heutzutage mit Fackeln und Mistgabeln zum Teufel gejagt.

Heute macht man einen ähnlich revolutionären Schritt, was die Rendertechnik anbelangt und beschwert sich, wenn diese nicht UltraHD und 60FPS läuft.
Es hat sich diesbezüglich ein unrealistisches Anspruchsdenken entwickelt.

Auch durch Geiz ist Geil wurde man langsam drauf getrimmt für alles kein Geld mehr bezahlen zu wollen. Die Wertschätzung von Produkten im Allgemeinen und auch das Zugeständnis von "Wertigkeit" an sich liegen im Keller.

So wird es zur Majestätsbeleidigung, wenn ein Hersteller nicht das Produkt zu dem Preis liefert, welches man gerne hätte.
Aber wie gut, dass es das Ventil des Shitstorms gibt....
 
Zuletzt bearbeitet:
Hier sagt jemand, er könne DXR mit seiner Vega-Grafikkarte ansprechen. Ich kann mir das aus gleich mehreren Gründen nicht vorstellen. Da ich aktuell nicht vorm Testsystem sitze, kann ich es aber auch nich wiederlegen. Kann das jemand mal ausprobieren?

RX Vega Owners Thread, Tests, Mods, BIOS Tweaks ! | Page 48 | guru3D Forums

RayTrace Enabled & Working on Vega at 1440p 70FPS (RTX at High preset, screens from Campaign Mission 1)
I can Play the Game NP.

In BFV Directory in MyDocuments -> PROFSAVE_profile
GstRender.Dx12Enabled 1
GstRender.DxREnabled 1
GstRender.RaytraceReflectionQuality 2

Note:
Im not sure if this is IT -> But with those settings game is looking a little better on reflections.
 
Dann müsste das ja auch mit einer GTX 1080/TI gehen.
 
Ich glaube nicht das es Funktioniert. Aber wenn das funktionieren sollte ist das ein Schlag ins Gesicht für aller RTX Käufer.
 
Ich versuchs gerade.

- - - Updated - - -

Irgendwie sieht es anders aus und es wird auch was in den Pfützen reflektiert, aber nicht so brutal wie in den RTX Videos... Hab vorher nur DX11 gespielt vllt. liegts an DX12?

- - - Updated - - -



- - - Updated - - -

Da is meiner Meinung nach nix mit Raytracing :haha:
 
das auto ist schon echt next gen und die texturen drum rum. xD
 
Dann müsste das ja auch mit einer GTX 1080/TI gehen.

Es gibt theoretisch keinen Grund warum es nicht auf einer Pascal GPU möglich sein sollte. Nvidia lies ja selbst RTX auf Pascal Karten laufen, auch wenn nur zur Vergleichszwecken. Du kannst aber davon ausgehen dass die FPS auf Pascal Karten noch stärker einbrechen würde.

Und wenn wir schon dabei sind, es gibt ebenfalls theoretisch keinen Grund warum es nicht auf AMD GPU's laufen sollte, außer aus proprietäreren Gründen. Der workload für RayTracing erfolgt hauptsächlich über die Compute Cores, es ist theoretisch auf jeder modernen GPU möglich.
 
Zuletzt bearbeitet:
Die Screenshots sind mit den Settings von dem Forum gemacht worden.
Also DXR Enabled 1; DXR_Quality 2; DX12 on.
 
Zuletzt bearbeitet:
Kann sein, dass ich irgendwelche Settings bereits deaktiviert hatte, wie Linseneffekt und Filmkörnung, etc. ^^
 
Was riskieren die denn? nVidia musste das machen, um die unverschämte Preiserhöhung zu rechtfertigen.

Und dann wollte nVidia anfangs ganz sicher nur die RTX 2080 bringen, dann haben sie gesehen, dass die nicht genügend Power bringt, gegenüber einer GTX 1080ti
und mussten handeln. Wobei niemand über DLSS redet, weils nur in Demos existent ist.

Das mit den Beschleunigerkarten ist eine Illusion. Als die 3D Beschleunigerkarten von 3dfx kamen, gab es sowas wie 3D Berechnung auf Grafikkarten noch gar nicht und man hat sofort gesehen, wie überwältigend die Grafik mit einer solchen Karte aussieht. Bei RT sage ich mir - sieht ok aus, aber kann ich drauf verzichten.

der wechsel auf raytracing ist ein risiko, weil es einen technologiewechsel darstellt und heute noch niemand mit sicherheit sagen kann welcher ansatz sich durchsetzt. => also risiko.

es ist das gegenteil von dem was du sagst.

RTX wurde nicht eingeführt um die hohen preise zu rechtfertigen. RTX musste früher oder später eingeführt werden, weil die alte technologie polygone darzustellen so ausgereizt ist dass verbesserung mit einem immer höher werdendem aufwand verbunden ist. => steigende grenzkosten.

man kann darüber diskutieren, ob die art und weise wie RTX in den markt kommt zufriedenstellend ist.

es sind noch die karten der alten generationen im bestand und müssen zuerst abverkauft werden.

die verfügbarkeit ist gering.

SW unterstützung gibt es noch so gut wie keine.

NV bringt imho so etwas wie eine frühe beta der RTX technologie auf dem markt. early adopter finanzieren im moment die entwicklung der technologie, weil der preisunterschied im moment nicht durch leistungsvorteil gegenüber pascal zu rechtfertigen ist.

zudem steht zu vermuten, dass lediglich die 2080ti einigermaßen als RTX tauglich zu bezeichnen ist.

ob es nv unternimmt die produktion zu verbilligen, ist dann nicht unbedingt gesagt. möglicherweise scheuen sie die investition und bringen die zweite RTX generation mit einem shrink in in den massenmarkt.
 
Zuletzt bearbeitet:
Hab eben auch mal gebenched,
Ergebnis:

18-11-2018, 15:55:50 bfv.exe benchmark completed, 19487 frames rendered in 377.813 s
Average framerate : 51.5 FPS
Minimum framerate : 15.6 FPS
Maximum framerate : 83.7 FPS
1% low framerate : 31.8 FPS
0.1% low framerate : 1.6 FPS

Settings: alles Ultra, Skalierung 100%, Auflösung 3840x1080

Klar da sind ganz schöne Drops drin, besonders beim Respawn aber ansonsten lässt es sich eigentlich gut spielen, wenn man eh nur 60Hz hat wäre das finde ich sogar ok in Anbetracht der gebotenen Grafik. Klar RTX steckt noch in den Kinderschuhen und bis es die entsprechende Hardware für die breite Masse gibt wird noch dauern, dennoch finde ich die Entwicklung super und freue mich auf die Zukunft, auch wenn ich Shooter wie BFV lieber mit schlechterer Grafik und 144Hz spiele und so DXR erstmal nicht nutzen werde. Mal sehen wie die Sache bei Tomb Raider aussieht, da könnte ich mit 30-50fps durchaus leben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh