NVidia Physx heute ?

Ah, dachte es war auch auf meine Antwort auf geckos Post bezogen, nicht (nur) auf sontins. Trotzdem ist es nicht vergleichbar. Ein paar Partikel, die dann statisch herumliegen sind langweilig. Gas- und Fluidsimulationen, das ist richtig interessant. Wenn dir die Fantasie fehlt, dir Anwendungen dafür zu überlegen, kann ich auch nichts dafür. Da würden sich ganz neue Welten öffnen, wenn man es konsequent überall einsetzen würde.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nvidia kann nach wie vor GPU Physx Unsterstützung für den PC forcieren, müssen halt wohl noch mehr Geld reinpumpe

Klar doch. So gut wie die Beziehung zu den Entwicklern aktuell ist und die TWIMTBP Games lawinenartig über dem Gamer herunterbrechen. Ich kann es auch mit scullyworten sagen: Wolkentraumschloss der grünen Messdiener.

@boxleitnerb: Ist nach Metro LL und Hawken überhaupt noch ein nennenswertes Game angekündigt was intensiv PhysX nutzen soll?
 
Das neue Batman wahrscheinlich. Ich bin zwar auch für eine offene Lösung, aber man kann nicht über Performance sprechen, solange keine vergleichbar aufwändigen Lösungen auf dem Markt sind.
Bzgl. Entwicklerbeziehungen - nur weil irgendwo ein Logo in rot oder grün prangt, heißt das nicht, dass es von der anderen Seite keine Beziehungen zu den Entwicklern gibt. Es ist total naiv, das zu glauben. Und die Auswirkungen der Mitgliedschaft in den entsprechenden Programmen wird auch völlig überbewertet. In erster Linie ist es Werbung, nicht mehr und nicht weniger.
 
vertu dich da nicht.generell wars cronologisch betrachtet meistens so das das entsprechende logo mehr performance u. "runderer" lauf mit sich brachte.
nv war/ist da aber meistens auch gut ohne logo.zumindest das es rund läuft,selbst mit nicht aktellen treibern.
amd betreibt aber wohl jetzt mehr,das die games rund laufen.ist ja auch essenziell.

das beiden seiten ein u. aus gehen bei den schmieden bei aktuellen titeln stimmt schon.nur ists auch immer die frage wieviel recourcen dahinter stehen zwecks optimierung.
 
Zuletzt bearbeitet:
Macht ja auch voll Sinn einen Hardware-Hersteller wie nVidia nicht mit einzubeziehen, weil ja die einnahmen von AMD ausreichen um massenhaft Gewinne einzufahren :d

Was redest Du da? Sie beziehen doch NVIDIA mit ein. Immer. Offene Schnittstellen laufen auf NVIDIA, AMD und wasauchimmer Hardware.
 
Damit meint er das, was ich schon angesprochen habe. Nur weil das AMD-Logo draufsteht, heißt das nicht, dass keine Zusammenarbeit oder Optimierungen auch für Nvidia stattfinden.
 
Damit meint er das, was ich schon angesprochen habe. Nur weil das AMD-Logo draufsteht, heißt das nicht, dass keine Zusammenarbeit oder Optimierungen auch für Nvidia stattfinden.

wie muss ich mir das vorstellen? so wie neulich bei TR?

*wir haben die finale version erst letztes wochenende bekommen*


(..)

mfg
tobi
 
wie muss ich mir das vorstellen? so wie neulich bei TR?

*wir haben die finale version erst letztes wochenende bekommen*


(..)

mfg
tobi
Zumindest werden keine Features eingebaut die auf Konkurenzkarten generell nicht vernünftig laufen, bzw lassen optimierungen zu. Bei TR wurde Tessfx sehr im letzten Moment eingebaut also lag es wohl auch daran wieso NV die finale Version so spät bekommen hat und nicht daran dass es seit nem halben Jahr fertig war aber sie einfach keine Lust hatten es auszugeben.
 
Box, dass erkläre mal den Bubies die mit den letzten Beweisen ankommen, warum es bald nur noch auf AMD-Optimierte Spiele aufen Markt kommen :d

Vergessen haben wir nicht den Grid2 Fred - Genau und als Konterfei wurde dann Metro ausgepackt, mich öden langsam diese Freds an :(
 
stellvertretend muss es gar nicht sein. es ist mein erster titel seit jahren, mit dem sich das blatt "treiber" gewendet hat. mit der 7970 war ich das gefühl gewohnt, dass ich auf den nächsten treiber warten hoffen musste. bei NVidia hätte ich im leben nicht damit gerechnet; eben weil es "bei mir" in der vergangenheit nie so war. nun ist zufällig TR auch mein erster gaming evolved titel gewesen mit key aus nem never settle bundle und schon muss ich auch bei NVidia auf nen treiberfix warten. das ganze hat noch den faden beigeschmack, dass ich absolut nicht auf betatreiber stehe.. nirgends und nicht nur auf grafikhardware bezogen. wenn das ein trend wird und ich zukünftig auf auf NV-seite mit treibern jonglieren muss und spiele nicht bei release anspielen kann, sondern warten muss, werde ich meine freizeitgestaltung ändern. sowas ist in meiner welt spaßkiller numero uno. ich kann meine 1000-euro scheine auch in apple-rechner versenken.. da muss nicht titan oder sowas draufstehen.

@dochurt
die gemeinsame schnittmenge am PC heisst bis jetzt noch directX oder von mir aus openGL. dazu müssen die karten, die man zum spielen einsetzt kompatibel sein. hupe, wer sie gebaut hat - das muss einfach laufen. und "laufen" muss nciht mal "perfekt" bedeuten. laufen soll heissen -> ohne fehldarstellungen. frameratenzuwächse durch modernere treiber dürfen freilich gern kommen und sind sind selbstverständlich willkommen. wie man ein spiel auf den markt rotzen kann, das sich derart störrisch anstellt ist für mich nicht nachvollziehbar; da ist ja die qualitätskontrolle bei eifon-apps besser.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Tobi, dass iss mir durchaus bewusst, aber scheinbar nicht allen - Es sei denn, man holt ein GLIDE wieder aus der Versenkung ;)

Edith: >TombRaider hat sich eh erledigt bei mir, war mal ein Großer Fan der Serie, der letzte Teil hat mich dazu bewogen, meine komplette TR-Sammlung hier im Marktplatz zu verkaufen -
Der Quatsch erinnerte mich an Commandos in 3D als Shooter, nein Danke !
 
Zuletzt bearbeitet:
@TobiWahnKenobi: den gedanken hatte ich auch schon bei tr gehabt,wo ich es in den news gelesen u. das spiel erste mal gestartet hatte.vermutlich wirds einfach am spieleentwickler gelegen haben.hoffe zumindest das es nur ne ausnahme bleibt.

praktisch konnte man das spiel aber durch 2 quali "tweaks" auf nv flüssig zum laufen bringen.disable tressfx u. tesselation.tesselation stieß natürlich erst etwas sauer auf es zu disablen,aber es brachte effektiv eher wenig an +quali.

amd hatte zu release mit den ersten 2 treibern dazu auch seine probleme.das relativiert das ganze nen bischen.

finde es zumindest sehr "lobenswert" das nv zur problematik steht u. ne mögliche fixzeit angibt.sowas hab ich von amd noch nicht gelesen.
 
Zuletzt bearbeitet:
da könnte man auch orakeln, ob das spiel vllt. einfach auf konsolen und techlevel DX9 angepasst wurde und ob die zusatzfeatures der höheren techlevel einfach lieblos vom entwickler angeflanscht wurden. für einen blockbuster ist sowas jedenfalls unverzeilich und für leute, die es zum vollpreis gekauft haben wahrscheinlich noch ärgerlicher als für die jungs und mädels mit promocode.

ja, dass der verzicht auf haare oder hohe SSAA-modi etwas spielbarkeit bringt bzw. darstellungsfehlern entgegenwirkt, habe ich in TR auch irgendwann herausgefunden. nur ist das ja nicht das was man möchte, wenn man sich ne 1000€ graka in den rechner steckt.. und ich habe das seit mitte letzten jahren 2x gemacht.. ;-)

vllt. sollte man games echt ignorieren und erst installieren, wenn es sie für 10€ bei steam gibt.. habe ich mit der crysis-serie so gemacht - und die games liefen dann auch.. gut abgehangen, gnadenlos gepatcht.. *grins*



(..)

mfg
tobi
 
Zuletzt bearbeitet:
naja,die sau-schlechte-optimier-zeit wie zu vista ist ja schon lange nicht mehr gegeben.generell ists momentan eigentlich recht gut durchschnittlich.diablo III bildet da wohl eher ne ausnahme u. auf dem niveau war tr nie bzw aktuell sollte da wohl alles erledigt sein mit games/treiberfixes.

die haben tr nur nen kleinen tick zu früh raus gehauen.das ist mehr jammern auf hohen niveau, insgesamt aktuell gesehen.
 
Zuletzt bearbeitet:
sicher auch das. nur haben wir heute oder besser seit ein paar jahren eine lösung, die keine dedizierte und über technisch abgehakte 32bit bussysteme (PCI) angebundene, proprietäre und aktiv gekühlte zusatz-"PPU" braucht. heute schultert das eine grafikkarte nebenbei. zumindest in niedrigen bis mittleren settings bei der effektphysik.

ich kreide dem physX-geraffel lediglich an, dass man nicht grundsätzlich überall die GPU einspannen kann, wo ein physX-logo draufpappt.. so ganz pauschal.. universell..

von der PPU gabs auch ne PCIe Version ;)
Ich war seinerzeit kurz davor, mir so ein Teil zu besorgen. Die gabs damals für vergleichsweise "wenig" Geld (ich glaube um die 120-140€ waren das) als Prototypen bei Ebay zu erstehen... Mit vollem Treibersupport, zumindest bis NV dort die Luft rausnahm.

Ich sehe bei PhysX eher ein anderes Problem... Nämlich, das es viel zu viel Leistung kostet, wie box auch schon angemerkt hat.
Und das kommt nicht von ungefähr... Wenn ich mich erinnere, die erste PCI Karte von Ageia hatte glaube ich irgendwie nen Verbrauch von ~25W unter Last. Und hat mehr geleistet als die 8xxxer Mittelklasse NV GPUs.
Wie ist es heute? Man "soll" sich ne Mittelklasse Grafikkarte für mehrere hundert Euro in den PC stecken, um überhaupt erstmal annähernd volle PhysX Details zu bekommen. Diese benötigt dann noch den x-fachen Strom der dedizierten PPU. Hat man das nicht, gibts vom tollen PhysX auch nicht die tollen Effekte.
Und hier kommt der Knackpunkt. Heutige Mittelklassekarten als Maingrafikkarten haben oftmals nichtmal die Leistung, das Spiel selbst anständig zu beschleunigen. Der Weg, noch mehr Berechnungen dort drauf zu packen, ist also irgendwie dezent daneben.

Ansich ist das Konzept hinter PhysX bei Ageia ja ein ganz anderes gewesen. Denn die Hardwarekarte selbst war seinerzeit wohl nicht am Limit. GPUs aber eigentlich schon immer ;) NV verallgemeinert das jetzt extrem. Und leider bleibt die Leistung auf der Strecke und das massivst!

Es ging nicht darum, wer welche Effekte wie bedeutend oder nicht bedeutend findet, sondern es ging um das Verhältnis Optik/Rechenleistung. Mir fallen aus dem Stehgreif ein Dutzend Sachen ein, die man mit PhysX bzw. GPU-Physik generell realisieren könnte, mit (CPU-)Havok aber noch nicht. Es ist auch immer eine Frage, wie der Entwickler es umsetzt. Meiner Meinung nach sind die Entwickler da noch viel zu zaghaft und fantasielos.

Auf was für Umsetzungen stützt sich das ganze denn?
Ich mein, es gibt ja gerade mal ne Hand voll PhysX per GPU Umsetzungen in Games... Speziell was die reine CPU Implementation angeht, scheint PhysX selbst nicht unbedingt überragend zu sein.
Der GPU Part ist zwar mehr oder weniger beeindruckend, aber auch nur dann hübsch anzusehen, wenn man seine Kohle so investiert, wie es NV gern hätte. Und das heist bestenfalls eben zwei GPUs... (oder mehr)
Der Markt aber scheint neben den paar "sponsored by NV" Titeln eher eine andere Mentalität zu verfolgen... Und dort hat der Enthusiast, wenn ich das richtig überblicke lange nicht mehr das sagen, was, wie und wo umgesetzt wird. (Ausnahmen wie Crysis bestätigen die Regel)
Dementsprechend tun sich die Programmierer also auch schwer, richtig ansprechende Physikeffekte auf Havok Basis (oder Alternativen) zu implementieren, wenn diese gar nicht nutzbar sind für den Ottonormalo PC Betreiber mit seinem Dualcore ;)


Auffallend ist auch, kein PhysX per GPU Titel konnte mit der Qualität der Effekte auch dann noch überzeugen, wenn man die CPU rechnen lassen hat.
Und das, obwohl PhysX bei NV seit Jahr und Tag schon mit massivem Multithreadingsupport beworben wurde und wohl auch noch wird. Speziell ältere Titel (und das sind die GPU PhysX Titel fast alle samt) würden hier qualitativ punkten können.
Kurrios ist dabei sogar, das beim ausstellen der GPU Berechnung die CPU Last via Taskmanager nichtmal ansatzweise Quadcore CPUs ans Gesamtlimit fährt.
Ich erinnere mich sogar noch an das erste Batman hier im Forum, wo es Screens mit dem Taskmanager gab, welche bescheinigten, das reine CPU PhysX auch trotz NV GPU bei einem Thread gedeckelt war, obwohl die Auslastung bei GPU PhysX bis über zwei Threads rausging.

Dass PhysX per CPU! dies grundsätzlich könnte, beweisen Benches wie Fluidmark. Und leider schneiden dort selbst HighEnd GPUs vergleichsweise extrem schlecht für ihren Verbrauch sowie ihre Anschaffungskosten ab, wenn man es gegen sechs oder acht Kern CPUs stellt.
 
Der Kosten/Nutzen Faktor war schon immer schlecht bei GPU-Physx u. so wie es sich NV vorstellt schon immer nur m. dem SGPU HighEnd Modell od. eben SLI nutzbar. Metro LL kommt ja jetzt m. GPU-Physx u. ich würde wetten m. einer GTX680 wird das schon nichts m. Grafik max + Physx max.
 
@fdsonne

ich sehe das nicht so, dass man irgendwas soll.. wenn man es aber hat, dann kann man es nutzen. dass leute mit single-GPU-system die regler für optionale physX-effekte auf höchste stufe stellen können sollen, war nie mein eindruck.

"man" soll ja auch nicht zwingend einen bildschirm mit 120Hz einsetzen. nur wenn man es macht, dann kann man gewisse treiberfunktionen sinnvoll nutzen. etwa die syncfunktionen mit 1/2, 1/3 oder 1/4 des refresh.

selbes gilt für stereo3D - keiner soll.. es geht auch ohne.. nur wer möchte, der kann..

edit
ich hatte explizit für physx ne GT240, ne GTX460 und eine GTX560 und das zu einer zeit, wo man für 3-4 endgeräte eh zwei karten brauchte..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Auf was für Umsetzungen stützt sich das ganze denn?
Ich mein, es gibt ja gerade mal ne Hand voll PhysX per GPU Umsetzungen in Games... Speziell was die reine CPU Implementation angeht, scheint PhysX selbst nicht unbedingt überragend zu sein.
Der GPU Part ist zwar mehr oder weniger beeindruckend, aber auch nur dann hübsch anzusehen, wenn man seine Kohle so investiert, wie es NV gern hätte. Und das heist bestenfalls eben zwei GPUs... (oder mehr)
Der Markt aber scheint neben den paar "sponsored by NV" Titeln eher eine andere Mentalität zu verfolgen... Und dort hat der Enthusiast, wenn ich das richtig überblicke lange nicht mehr das sagen, was, wie und wo umgesetzt wird. (Ausnahmen wie Crysis bestätigen die Regel)
Dementsprechend tun sich die Programmierer also auch schwer, richtig ansprechende Physikeffekte auf Havok Basis (oder Alternativen) zu implementieren, wenn diese gar nicht nutzbar sind für den Ottonormalo PC Betreiber mit seinem Dualcore ;)


Auffallend ist auch, kein PhysX per GPU Titel konnte mit der Qualität der Effekte auch dann noch überzeugen, wenn man die CPU rechnen lassen hat.
Und das, obwohl PhysX bei NV seit Jahr und Tag schon mit massivem Multithreadingsupport beworben wurde und wohl auch noch wird. Speziell ältere Titel (und das sind die GPU PhysX Titel fast alle samt) würden hier qualitativ punkten können.
Kurrios ist dabei sogar, das beim ausstellen der GPU Berechnung die CPU Last via Taskmanager nichtmal ansatzweise Quadcore CPUs ans Gesamtlimit fährt.
Ich erinnere mich sogar noch an das erste Batman hier im Forum, wo es Screens mit dem Taskmanager gab, welche bescheinigten, das reine CPU PhysX auch trotz NV GPU bei einem Thread gedeckelt war, obwohl die Auslastung bei GPU PhysX bis über zwei Threads rausging.

Dass PhysX per CPU! dies grundsätzlich könnte, beweisen Benches wie Fluidmark. Und leider schneiden dort selbst HighEnd GPUs vergleichsweise extrem schlecht für ihren Verbrauch sowie ihre Anschaffungskosten ab, wenn man es gegen sechs oder acht Kern CPUs stellt.

Kannst du dich vielleicht mal kürzer und prägnanter fassen bitte? Ist ja fürchterlich ;)
Es gibt nunmal keine Fluid- oder Gassimulation bei Havok. Und richtig interaktive Partikel meines Wissens nach auch nicht. Von daher verbietet sich eben mMn so ein Performancevergleich. Das soll jetzt nicht heißen, dass die Performance von GPU-PhysX toll wäre, ich hab ja selbst zwei Fälle kritisiert.

CPU-PhysX und dessen Optimierung ist wieder eine andere Geschichte. Erinnere dich, es geht um GPU-PhysX:
Es ist nur solange ein Zugewinn wie es im Verhältnis zur Rechenleistung steht. PhysiX gibt es schon eine ganze Weile, aber was man feststellt ist, dass nicht einmal eine alte grafikkarte reicht um Physikeffekte mit minimalen Verbesserungen darzustellen. Lösungen wie Havok sind da deutlich besser.
http://www.hardwareluxx.de/community/f14/nvidia-physx-heute-957357-2.html#post20594823

Wenn Havok@GPU die Effektdichte von PhysX@GPU erreicht, dann kann man so einen Vergleich machen, vorher hinkt der dann doch etwas.
Ich bin nach wie vor der Meinung, dass solche Geschichten wie die kürzlich gezeigten Wasser-Demos von Nvidia nur vernünftig auf einer GPU laufen. Fluidmark hin oder her - eine zusätzliche Grafikkarte ist schnell eingebaut, mehr wie 6-8 Kerne (die nie exklusiv Physik berechnen können), wirst du auf absehbare Zeit nicht bekommen. Zeig doch mal die Ergebnisse, die du meinst übrigens. Würde mich interessieren.
 
Jegliche Simulation mit 1000 von Partikeln wird nie vernünftig auf einer CPU laufen. Deswegen gibt es GPUs. Deswegen gibt es verschiedene Shader-Stages.

CPUs sind dagegen von Vorteil, wenn Berechnungen schnell erledigt werden müssen und nicht auf hunderte von Cores verteilt werden können. Also grundsätzlich für Gameplay-Physik, wo eben immer nur eine Reaktion auf eine Aktion erfolgt.
 
Das ist auch meine Einschätzung fdsonne. Dabei wäre Nvidia mit einer besseren PhysX Optimierung (geringer Hardwareanforderungen) weit mehr gedient. Man könnte wirklich seine alte Grafikkarte lange nutzen um mehr fps bei aktuellen Spielen zu erzielen. Das wäre ein wirklicher Mehrwert für die Gamer und klar ein Kaufgrund für Nvidia. So ist PhysX aber nur ein nettes Gimmik, welches Spieler dazu bewegen soll möglich schnell eine neue Graka zu kaufen. Man kann mit aktuellen Karten häufig nur aktuelle Spiele mit diesem Feature nutzen. Bei zukünfitgen Spielen muss man schon die Effekte runterschrauben, oder die CPU das ganze berechnen lassen.

Jegliche Simulation mit 1000 von Partikeln wird nie vernünftig auf einer CPU laufen. Deswegen gibt es GPUs. Deswegen gibt es verschiedene Shader-Stages.

CPUs sind dagegen von Vorteil, wenn Berechnungen schnell erledigt werden müssen und nicht auf hunderte von Cores verteilt werden können. Also grundsätzlich für Gameplay-Physik, wo eben immer nur eine Reaktion auf eine Aktion erfolgt.

Natürlich wäre das auf einer CPU möglich. Physik lässt sich perfekt parallelisieren. Deshalb hat Nvidia auch den Spaß aufgekauft und lässt das ganze auf der GPU berechnen. Nur öffnet Nvidia nicht PhysX für mehrere Kerne. Ist ja auch verständlich, bei den aktuellen CPUs wo in den meisten Fällen kaum alle Kerne ausgelastet sind würde es jeder über die CPU berechnen lassen und die Grafikkarte zu Gunsten von mehr fps entlasten. Niemand würde sich eine neue Grafikkarte extra wegen PhysX kaufen. Zudem können es auch 1 Mrd Partikel sein, es sagt ja nichts darüber aus wieviel Rechenaufwand jedes Partik benötigt.

Eine volle Unterstützung mit unendlich CPU-Threads wären der Tod für GPU-PhysX, zumindest solange eine alte Graka nicht ausreicht. Und hier muss ich Tobi wiedersprechen und kann nur sagen: Überraschung die meisten Spieler haben keine Titan und auch keine GTX560 als PhysX-Karte, sondern bei dennen muss die GTX560 alles stemmen.

Physik ist das Thema der neuen Konsolen. 8 Kerne zwar mit geringem Takt lassen sich genau hierfür super einsetzen.

PhysX und Tesslation haben eins gemeinsam. Es frisst viel Leistung und wenn man es deaktiviert sieht es grausamer aus als 10 Jahre alte spiele, oder Effekte sind komplett ersatzlos. Ich bezweifle das die neuen Konsolengames auf soetwas setzen. Dort geht es um maximalen Ertrag bei fester Leistungsvorgabe.
 
Zuletzt bearbeitet:
Ehrlich: Hast du und deine Kollegen nichts aus dem SLI-Fiasko gelernt? Erkundige dich zu erst und schreibe dann. PhysX ist voll MultiCore-fähig. Siehe auch Fluidmark.
 
8 Kerne vs Tausende Kerne, das ist ja nichtmal fair ;)
Ich habe gerade mal Fluidmark 1.52 laufen gelassen mit 31 Emittern und 128,000 Partikeln. 1280x720.

Titan@1006 MHz: 79 fps, 47% TDP (ca. 120W)
3930K@4200 MHz (HT aus): 18 fps, laut CoreTemp ca. 119W. Alle 6 Kerne/Threads waren voll ausgelastet.

Viermal so schnell bei gleichem Verbrauch. Wenn viele Partikel ins Spiel kommen, kann jede CPU einpacken, auch eine mit von mir aus 16 Kernen.
 
und wo genau ist da jetzt der widerspruch? es steht doch jedem frei, beliebige hardware für beliebige szenarien zusammenzustecken. heute habe ich auch keine GTX560 mehr irgendwo nebenstecken. die letzte dieser karten ist ende 2011 rausgeflogen als die erste HD7970 hier eintrudelte. die kam ohne zweite karte mit vier displays zurecht.

die 96 CUDA-cores, die GPU-physik (AFAIR) verlangt haben meine heutigen hauptkarten übrig. sollte diese rechnung mal nicht aufgehen, dann stelle ich GPU-physX auf die mittlere von meist drei stufen zurück und hab noch immer 3x mehr effektphysik als ohne das proprietäre häkchen.

denke, dass 2 abgestellte cores unserer weit verbreiteten vierkerner (von mir aus plus HT) vergleichbares leisten, können wir wohl knicken. zumal deren leistung dann wieder woanders fehlt. dass sich mein FX8 besser anstellen würde als der i7 bezweifle ich ebenfalls.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Titan@1006 MHz: 79 fps, 47% TDP (ca. 120W)
3930K@4200 MHz (HT aus): 18 fps, laut CoreTemp ca. 119W. Alle 6 Kerne/Threads waren voll ausgelastet.

Viermal so schnell bei gleichem Verbrauch. Wenn viele Partikel ins Spiel kommen, kann jede CPU einpacken, auch eine mit von mir aus 16 Kernen.

Ja bravo :bigok:
Ne Titan mit ~5,4TFlops/sec Rechenleistung bei angegebenen Takt erreicht viermal mehr Gesamtleistung als ne CPU, die irgendwo im Bereich 150-180GFlops/sec liegt. Von mir aus dank OC auch bei 200... Und damit nichtmal 10% der theoretischen Rechenleistung hat.

Die Frage ist eher, wie viele Partikel sind realistisch für so einen Vergleich!?
Ich hatte mal irgendwas von um die 30-60k im Ohr. Weis aber nichtmehr wo ich das mal aufgeschnappt hab.
So manche Techdemo interagiert angeblich mit bis zu 500.000 Partikeln.



PS: ich erreiche bei 1280x720 und 120.000 Partikeln folgendes:
- nur CPU (2600K@4,5GHz, OT on) = 17 FPS
- nur GTX 680 (1254/3356, PhysX + Bild) = 54 FPS
- GTX 470 (700/1400/1550, PhysX only) + GTX 680 (1254/3356, Bild only) = 50 FPS

Und gemessen daran ist das schon extrem (schlecht)

EDIT: 31 Ermitters sind kontraproduktiv. Zumindest bei mir, denn damit erreicht die GPU nicht! die vollen 120.000 Partikel für den Test, die CPU hingegen schon...
Beim alten 1.2er Fluidmark war mal die GPU PhysX Grenze bei 3 Ermitters. Scheinbar ist das heute mehr. Ich zähle deutlich mehr ;) Aber keine 31!


@Tobi
neja, die Frage ist halt, ob man das auf diese Stufe heben sollte...
Klar kann man "Luft" auf der Grafikkarte lassen für PhysX. Genau so kann man Luft auf anderer Hardware lassen.

Ich für meinen Teil finde es ein Unding teils mehrere tausend Euro in PC Hardware zu versenken, und dann doch nicht max. Details zu haben. Und PhysX ist da so ein Kanditat, der schnell mal die Freude über Bord schmeißt. Speziell auch, weil die Zwischenstufen so drastisch groß ausfallen. Zwischen Medium und Max ist oftmals ein gewaltiger Optikunterschied.
 
Ich habe die Partikelzahlen natürlich so angepasst, dass beides Mal wirklich 128k Partikel berechnet wurden.
Und was interessiert mich die Rohleistung? Das kannst du gar nicht vergleichen, denn du weißt ja überhaupt nicht, wie genau die Berechnungen ablaufen und woran es genau hängt. Eine CPU hat z.B. viel mehr Cache als eine GPU - wer weiß, was das für Auswirkungen hat. Bei GPGPU beschwert man sich ja auch nicht, wenn nicht immer der maximale Speedup rauskommt und sagt, es wäre "extrem schlecht". Aber Hauptsache die GPU mit sinnloser Zahlenmanscherei bashen :fresse:
3-4x mehr Endleistung und das bei gleichem Verbrauch ist alles andere als "extrem schlecht". Warum 128k Partikel jetzt unrealistisch sein sollen, erschließt sich mir nicht. Das ist schließlich wunderbar skalierbar, und die benötigte Partikelzahl hängt sowieso davon ab, was du damit darstellen willst. Wasser und Gase/Dampf kriegst du mit weniger auch nicht richtig ansehnlich hin.

Fakt ist also, das was du bzgl. Fluidmark behauptet hast, stimmt absolut nicht. Und den Preis noch reinzubringen ist auch total dämlich, man kann sich die Vergleiche dann nämlich so (unsinnig) bauen wie man will. Gutes PLV: 3930K, GTX680. Schlechtes PLV: 3960X, Titan. Selbst wenn du Titan und einen 2600K vergleichst, ist das Preisleistungsverhältnis gleich, was die reine Leistung in Fluidmark angeht. Vierfacher Preis, vierfache Leistung. Genauso könnte ich den 3970X für 1000 Euro nehmen, und die 680 für 400, da dreht sich das Ganze sogar krass zugunsten der GPU um :d
 
Zuletzt bearbeitet:
Wenn GPU Physx auf der CPU laufen soll gibt es schon genug Messungen dazu dass Nvidia künstlich dafür sorgt dass es auf keinen fall zu zufriedenstellenden Ergebnis führen kann sonst ist man ja nicht mehr auf Nvidia Karten angewiesen bei Physx. Ein gutes Beispiel ist Mafia 2 wo man mit Physx auf high viel geringere CPU Auslastung hat als mit Physx auf off. Es ist klar dass die Auslastung dadurch sinkt weil die FPS so runtergehen aber dass die CPU die ganze Zeit dabei kaum ausgelastet läuft zeigt deutlich dass für Physx nicht mal annähernd die Leistung der CPU ausgenutzt wird.
 
Naja, Physx ist ja schon multithreaded, auch mittlerweile für die CPU. Ich finds halt nur schade, dass Nvidia die Entwickler dazu anhält die ältere Version zu nutzen, damit CPU´s nicht profitieren.
 
Gibt es für diese Behauptung auch einen Beweis?
Außerdem können auch ältere PhysX-Versionen alle Thread benutzen, soweit ich weiß. Das Problem ist, dass das standardmäßig nicht aktiviert ist. Der Entwickler müsste das selbst tun. Um ganz sicher zu sein, müsste ich aber nochmal recherchieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh