NVidia gibt Physx frei.

Das über die cpu nennt sich aber havok u kommt von intel,ist aber auch physik stimmt:)
Phys X ist aber ne reine nvidia marke bzw vorher ageia

Quatsch, PhysX (Novodex Engine) läuft überall, aber halt nur CPU beschleunigt und wird in sehr vielen Games genutzt z.b. RSV1 u. 2 , GoW, sogar im Landwirtschaftssimulator ;)

Ich frage mich warum der Thread hier noch nicht verschoben wurde zu den Konsolen z.b. denn mit Graka hat das überhaupt nichts zu tun, naja evt weiß die Moderation das auch nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das über die cpu nennt sich aber havok u kommt von intel,ist aber auch physik stimmt:)
Phys X ist aber ne reine nvidia marke bzw vorher ageia

Ist dir klar das es bereits mehrere Titel gibt die auf physX aufbauen (PS3/Xbox360)? Auf der Ps3 läuft das ganze auch sicher nicht über die Gpu, da diese auf dem g70 basiert. Ergo wird der Cell herangezogen also die Cpu.

The answer stems back to 2006, when AGEIA originally released the PhysX SDK for the PlayStation 3, version 2.4, specifically optimized for the Cell processor. The company said that it offloaded several components of the PhysX pipeline from the PlayStation PPU (Power Processor Unit) to the SPUs (Synergistic Processing Units), generating a 50 percent reduction in maximum PPU load. That indeed is probably what's going on now with the new Nvidia PhysX SDK release: the middleware is utilizing the Cell processor, not the RSX GPU.

http://www.tomsguide.com/us/PlayStation-3-PhysX-Nvidia,news-3638.html

Edith sagt: da war der Jack doch schneller.. und im Kosolenbereich gibts bereit einen fred..
 
Zuletzt bearbeitet:
Quatsch, PhysX (Novodex Engine) läuft überall, aber halt nur CPU beschleunigt und wird in sehr vielen Games genutzt z.b. RSV1 u. 2 , GoW, sogar im Landwirtschaftssimulator ;)

Ich frage mich warum der Thread hier noch nicht verschoben wurde zu den Konsolen z.b. denn mit Graka hat das überhaupt nichts zu tun, naja evt weiß die Moderation das auch nicht.



---------- Beitrag hinzugefügt um 13:32 ---------- Vorheriger Beitrag war um 13:30 ----------

Ist dir klar das es bereits mehrere Titel gibt die auf physX aufbauen (PS3/Xbox360)? Auf der Ps3 läuft das ganze auch sicher nicht über die Gpu, da diese auf dem g70 basiert. Ergo wird der Cell herangezogen also die Cpu.
.


Deshalb gehört die Lizenz für die auf software bassierte engine Phys X oder auch biblioltek trotzdem Nvidia wie du oben im bild sehen kannst,wie die einzelnen Hersteller das umsetzen auf ihre plattformen ist deren sache.

Die einzig andere alternative im spielesektor oder konkurent ist intel mit Havok:)
 
Zuletzt bearbeitet:
Hat ja keiner behauptet das es nicht zu Nvidia gehört sondern nur das es mit GPU (über CUDA) nichts zu tun hat auf den Konsolen.
 
Das hab ich doch garnicht bestritten..



Der post bezog sich nur auf das.
Wir sind doch hier im pc forum wenn mich nicht alles täuscht oder?

Und da gibt es auf x86er basis nur noch intels havok obwohl diese höchstwahrscheinlich auch auf gpus laufen würde:)

---------- Beitrag hinzugefügt um 13:43 ---------- Vorheriger Beitrag war um 13:42 ----------

Hat ja keiner behauptet das es nicht zu Nvidia gehört sondern nur das es mit GPU (über CUDA) nichts zu tun hat auf den Konsolen.


Jake wir haben hier doch gar nicht von konsolen geredet;)

Und ja imo benötigst du noch cuda dazu um es laufen zu lassen auf PC!! systemen,da nvidia es nicht freigibt für den konkurenten amd
 
Zuletzt bearbeitet:
Wir sind doch hier im pc forum wenn mich nicht alles täuscht oder?

Und da gibt es auf x86er basis nur noch intels havok obwohl diese höchstwahrscheinlich auch auf gpus laufen würde:)

Wieso?
Auch PhysX Titel können auf der CPU laufen...

Man kann ja beispielsweise bei Mirrors Edge die kompletten Physikeffekte auch auf ner AMD Karte einschalten, nur das dann eben die Berechnung nebenbei von der CPU getätigt wird, was in unspielbaren FPS Ratenn endet... Oder irr ich mich da?
 
Wieso?
Auch PhysX Titel können auf der CPU laufen...

Man kann ja beispielsweise bei Mirrors Edge die kompletten Physikeffekte auch auf ner AMD Karte einschalten, nur das dann eben die Berechnung nebenbei von der CPU getätigt wird, was in unspielbaren FPS Ratenn endet... Oder irr ich mich da?

Du kennst aber auch dessen performance das ist keine gefahr für die physx engine auf cuda basis,oder soll ich besser sagen so gut wie nicht zu gebrauchen imo:)
 
Zuletzt bearbeitet:
Ja schon aber du kennst doch die performance von cpu basierender phys x,das kann u wird kein konkurent werden ;)

Na die ist doch gut und es egal ob eine NV od. AMD Karte drin ist bei GoW z.b. :)


Aber du siehst anscheinent immer noch nicht den unterschied zwischen GPU u. CPU Physik bei PhysX.
Ein blick in die gepostete List sollte eigentlich helfen.
 
sorry mal kurz
aber hat die Wii nicht nen AMD/ATI Chip? ;)
zumindest auf meiner steht das logo ;)
und dieser hat mit Unified Shader nicht viel am hut wenn ich mich nicht irre ;)
also was soll da bitte als Recheneinheit herangezogen?

ist wohl mehr eine IBM abilitierung ;)
 
Du kennst aber auch dessen performance das ist keine gefahr für die physx engine auf cuda basis,oder soll ich besser sagen so gut wie nicht zu gebrauchen imo:)
Nur bringt uns das im pc bereich nicht wirklich weiter (da performance mässig unbrauchba)r,solange nvidia dieses nicht freigibt was aber denke ich mit direkt x 11 passieren wird für alle plattformen;)

Neja es sind 2 paar Schuhe, das was über die GPU möglich ist von den Effekten her, ist über die CPU auch möglich, soweit sollte das klar sein.
Nur brauch die CPU bei weitem länger um den Effekt oder das Ereigniss zu berechnen...
dementsprechend wird bei einer implementierung über die CPU auch weniger Berechnungsaufwand anliegen (müssen).

Und genau das ist der Fall, im Fall von Mirrors Edge geht ja quasi ohne Einschränkung auch die CPU zu "missbrauchen" was natürlich in unspielbaren FPS Raten endet. Das ganze ist doch aber nicht gewollt in dem Sinne...

Ums auf den Punkt zu bringen, wenn mehr Rechenleistung da ist, kannst du auch mehr Berechnungen durchführen, was eben bei der CPU nur begrenzt machbar ist...
Brauchbar ist eine gescheite Physikengine aber dennoch, auch auf CPU Basis, denn wenig gutaussehende Physikeffekte sind besser als gar keine ;)

---------- Beitrag hinzugefügt um 14:12 ---------- Vorheriger Beitrag war um 14:10 ----------

sorry mal kurz
aber hat die Wii nicht nen AMD/ATI Chip? ;)
zumindest auf meiner steht das logo ;)
und dieser hat mit Unified Shader nicht viel am hut wenn ich mich nicht irre ;)
also was soll da bitte als Recheneinheit herangezogen?

ist wohl mehr eine IBM abilitierung ;)

darüber lässt sich der Artikel oben leider nicht aus...
Aber ich denke mal ebenso die "CPU" der Wii, genau so wie bei der PS3...
 
Na die ist doch gut und es egal ob eine NV od. AMD Karte drin ist bei GoW z.b. :)


Aber du siehst anscheinent immer noch nicht den unterschied zwischen GPU u. CPU Physik bei PhysX.
Ein blick in die gepostete List sollte eigentlich helfen.

Ein vantage run genügt doch eigentlich um aufzuziegen,was phys x auf dafür ausgelegten grafikkarten bewirken kann.

Natürlich gab u gibt es auch heute noch spiele die nur auf physik berechnung auf der reinen cpu setzen,nur ist diese physik spätestens mit direkt x 11 geschichte,da somit ein standard geschaffen wird für ati u nvidia.

Und grafikkarten können diese physikalischen berechnungen nunmal schneller ausführen als ein cpu,da sie in der lage sind viel mehr threads auf einmal zu bewältigen als dies eine reine x86er cpu könnte:)

Zumindestens im augenblick man weiss ja nicht was intel mit laraabee für ein süppchen genau kocht:)
 
Zuletzt bearbeitet:
sorry mal kurz
aber hat die Wii nicht nen AMD/ATI Chip? ;)
zumindest auf meiner steht das logo ;)
und dieser hat mit Unified Shader nicht viel am hut wenn ich mich nicht irre ;)
also was soll da bitte als Recheneinheit herangezogen?

ist wohl mehr eine IBM abilitierung ;)

Ja ist eine A/A GPU bei der WII und deshalb läuft es über die CPU, genauso wie bei der PS3 und hat ja mit GPU PhysX nicht viel zu tun.
 
Natürlich gab u gibt es auch heute noch spiele die nur auf physik berechnung auf der reinen cpu setzen,nur ist diese physik spätestens mit direkt x 11 geschichte,da somit ein standard geschaffen wird für ati u nvidia

Es bedarf aber immernoch der nötigen Software dafür...
Im Moment hält sich NV genau so wie Intel sehr bedeckt, was Implementierung über OpenCL oder eine kommende GPGPU Schnittstelle in DX11 betrifft.

Ich kann mir gut vorstellen, NV will vllt sogar ihr eigenes Süppchen kochen und bleibt bei Cuda only...
 
Ein vantage run genügt doch eigentlich um aufzuziegen,was phys x auf dafür ausgelegten grafikkarten bewirken kann.

Oh man das doch nichts mit CPU PhysX zu tun SONDERN MIT GPU PHYSX (CUDA) :wall:

HWK hat den Thread hier doch nur eröffnet um seine Lieblings-Firma zu hypen, aber das das auf den Konsolen null nix mit GPU PhysX zutun merkt hier keiner :rolleyes:
 
Ich kann mir gut vorstellen, NV will vllt sogar ihr eigenes Süppchen kochen und bleibt bei Cuda only...
Das wäre glaube ich der sichere tot;)

Auf der einen seite nvidia mit cuda u auf der andreren seite ati,amd,intel u microsoft mit direkt x 11 das kann nur schief gehen


Höchstens ein nebenherlaufende cuda schnittstelle als quasi option für die entwickler denke ich würde funktionieren
 
Zuletzt bearbeitet:
AMD hat ATi und ATi hat Stream. Das müssten sie ebenso für D3D11 aufgeben. "Vorteilhaft" ist natürlich, dass es nicht ganz so etabliert ist wie CUDA.
 
HWK hat den Thread hier doch nur eröffnet um seine Lieblings-Firma zu hypen, aber das das auf den Konsolen null nix mit GPU PhysX zutun merkt hier keiner :rolleyes:
Wir reden doch hier imo auch gar nicht über die eigentlche konsolen implementierung,sondern über die peformance zwischen cpu basierender phys x u cpu phys x.

Ich meine das thema was wir aufgegriffen haben du u ich.;)

Was HWK mit der erstellung des threads erreichen wollte entzieht sich leider meiner kenntniss:fresse:
 
AMD hat ATi und ATi hat Stream. Das müssten sie ebenso für D3D11 aufgeben. "Vorteilhaft" ist natürlich, dass es nicht ganz so etabliert ist wie CUDA.

Neja aufgeben vllt nicht unbedingt... aber sie werden mit Sicherheit genau so wie NV wohl zusätzlich D3D11 implementieren.

Wenn ich jetzt mal ein wenig weiter spinne, könnte Intel beispielsweise sagen, gut, NV kocht ihr eigenes Süppchen, wir machen das auch und geben Havok nur für Stream frei ;)
Über Sinn und Unsinn lässt sich natürlich streiten... Aber für eine Firma ist es ja im Grunde sogar gut, wenn für ihr Softwareprodukt auch ihre Hardware von nöten ist.
Siehe SLI zum Beispiel, geht ja bis auf wenige Ausnahmen auch nur mit NV Chipsatz, obwohl technisch nix im weg stehen würde...
 
Aber die Sprache für Open CL ist doch Open CL C... von daher wäre Open CL C die Sprache für dich Schnittstelle Open CL.. Wenn ich mich irren sollte wäre ich für aufklärung dankbar :)
Es gibt keine Sprache OpenCL C. OpenCL selbst definiert sich als Sprache bzw eben eine Spracherweiterung zu C, welche auf dem aktuellen C Standard C99 aufbaut. Dazu definiert OpenCL noch eine Platform Layer API, also zB welche Hardware genutzt wird, OpenCL ist ja nicht nur für GPUs gedacht, und eine Runtime API, die zB den Kernel für die Ausführung beinhaltet, für das Scheduling verantwortlich ist oder das Speichermanagement übernimmt.
CUDA ist im Grunde das gleiche, nur in grün.

AMD hat ATi und ATi hat Stream. Das müssten sie ebenso für D3D11 aufgeben.
Aufgegeben werden muss da nichts. ATIs Stream SDK kann ja weiterhin für Implementierungen von portablen Schnittstellen, wie eben OpenCL, genutzt werden. Was die allgemeine Verbreitung betrifft, ja, da ist das Stream SDK ebenso uninteressant wie CUDA.
 
Aber für eine Firma ist es ja im Grunde sogar gut, wenn für ihr Softwareprodukt auch ihre Hardware von nöten ist.
...


Stimmt schon u z.Zt mag das auch noch für phys x u nvidia zutreffen,aber das blatt wird sich wenden sobald microsoft dort eingreift mit der 11er version;)
Wäre das nicht so hätte nvidia äusserst gute karten,aber microsoft ist nunmal marktbeherrschend u man muss kein hellseher sein welche schnittstelle den grösseren zuspruch finden wird:)
 
Zuletzt bearbeitet:
Stimmt schon u z.Zt mag das auch noch für phys x u nvidia zutreffen,aber das blatt wird sich wenden sobald microsoft dort eingreift mit der 11er version;)
Wäre das nicht so hätte nvidia äusserst gute karten,aber microsoft ist nunmal marktbeherrschend u man muss kein hellseher sein welche schnittstelle den grösseren zuspruch finden wird:)

Nur weil das bei D3D und OpenGL damals so war, muss es jetzt nicht wieder so sein...
Ich denke einfach mal, es kommt auf die Umsetzung drauf an, selbst MS als quasi Monopolist im Bereich Betriebssysteme kann nix machen, wenn ihre Umsetzung Leistungstechnisch weit hinter der Open Source Version liegt, nur so als Beispiel
 
Nur weil das bei D3D und OpenGL damals so war, muss es jetzt nicht wieder so sein...
Ich denke einfach mal, es kommt auf die Umsetzung drauf an, selbst MS als quasi Monopolist im Bereich Betriebssysteme kann nix machen, wenn ihre Umsetzung Leistungstechnisch weit hinter der Open Source Version liegt, nur so als Beispiel
Ich mach es mal jetzt so wie du u sage NeJa:d

Es stimmt schon nvidia ist erpicht darauf sein cuda durchzudrücken,das sieht man schon an den jetzt neuen bemühungen sich junge software entwickler unter den nagel zu reissen diese zu unterstützen,um damit dann programme explizit cuda only entwickeln zu lassen.

Die frage ist nur in wie weit sich micrrosoft u wohl insgeheim auch intel u amd das gefallen lassen werden.

Der druck auf entwickler von software u auch das finanzielle durchhaltevermögen ist um unlängen grösser auf direkt x 11 seite;)

Auch ist die marktdurchdringung durch die microsoftbetriebssysteme schon ein gewaltiger vorteil.

Auch wenn einige vielleicht sagen würden Open Gl u oder cuda wären vielleicht die bessere wahl,als das vollgestopfte direkt x 11:)

Man könnte microsoft ja richterlich dazu zwingen das,so wie beim internetexplorer geschehen,die möglichkeit besteht das Os ohne direkt x unterstützung zu installieren aber das wäre wohl zu abwegig:haha:

---------- Beitrag hinzugefügt um 16:53 ---------- Vorheriger Beitrag war um 15:15 ----------

Um nochmal auf OpenGL zurückzukommen hier sieht man es glaub ich sehr eindrucksvoll das man keine cuda schnittstelle braucht oder direkt x11,sondern lediglch die Open GL Schnittstelle u eine angepasste Physik engine oder auch Bibliotek um dieses zu realisieren:)

http://www.dailymotion.com/video/x6i4wi_physics-simulation-demo-in-opengl_tech
 
Zuletzt bearbeitet:
Es gibt keine Sprache OpenCL C. OpenCL selbst definiert sich als Sprache bzw eben eine Spracherweiterung zu C, welche auf dem aktuellen C Standard C99 aufbaut. Dazu definiert OpenCL noch eine Platform Layer API, also zB welche Hardware genutzt wird, OpenCL ist ja nicht nur für GPUs gedacht, und eine Runtime API, die zB den Kernel für die Ausführung beinhaltet, für das Scheduling verantwortlich ist oder das Speichermanagement übernimmt.
CUDA ist im Grunde das gleiche, nur in grün.

Thx. Wenn du mir da jetzt noch nen Nachweis zu geben kannst werd ich das in meinen Wissensschatz übernehmen:)
 
Um nochmal auf OpenGL zurückzukommen hier sieht man es glaub ich sehr eindrucksvoll das man keine cuda schnittstelle braucht oder direkt x11,sondern lediglch die Open GL Schnittstelle u eine angepasste Physik engine oder auch Bibliotek um dieses zu realisieren:)

http://www.dailymotion.com/video/x6i4wi_physics-simulation-demo-in-opengl_tech
Nur hat das rein gar nichts mit PhysX zu tun. Wie ich schon sagte, du kannst auch mit OpenGL oder Direct3D Shader programmieren. In dem Fall mittels GLSL. Einfache Sachen sind damit durchaus realisierbar. Komplexe Sachverhalte sind aber zu aufwändig oder gar nicht realisierbar.

Thx. Wenn du mir da jetzt noch nen Nachweis zu geben kannst werd ich das in meinen Wissensschatz übernehmen:)
Was für Nachweise denn? Die OpenCL Dokumentation ist frei verfügbar und kann man von der Khronos Homepage runterladen. Da steht alles drin.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh