> > > > ATI stellt PhysX-Pendant auf der GDC vor

ATI stellt PhysX-Pendant auf der GDC vor

Veröffentlicht am: von
ati2Wie Xbitlabs berichtet, will der Grafikkartenhersteller ATI, der seit geraumer Zeit zu AMD gehört, auf der diesjährigen Game Developers Conference, kurz GDC, ein Pendant zu NVIDIAs PhysX vorstellen. Dies verriet ein offizieller Mitarbeiter, ebenso sollen weitere Pläne für 2009 aufgedeckt werden. In einem Blogeintrag schrieb Terry Makedon, General Manager der Catalyst-Entwicklung: “ATI GPU physics strategy and maybe a demo being thrown down next week at GDC. If you're there, go see it”. Bislang ist nur NVIDIA mit der PhysX-Engine und Intel mit der Havok-Engine in der Physik-Welt vertreten, welche Leistung hinter OpenCL und ATI Stream steckt, wird sich auf der GDC zeigen. Die Auswahl der Spielehersteller, die sich der neuen Technik annehmen, ist nicht bekannt.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (38)

#29
customavatars/avatar43852_1.gif
Registriert seit: 31.07.2006

Vizeadmiral
Beiträge: 6732
Zitat scully1234;11638728

Weil der markt nun aufgeteilt ist auf ati u nvidia


Das kannst du doch gar nicht zu 100% wissen. Wer weiß z.B. ob ein potentieller Stalker-Nachfolger nicht wieder ODE nutzen wird. Scheinbar nutzen Programmierer aus dem (slawischen) Ostblock öfter mal ODE als SDK/Engine, Xpand Rally z.B. deutet auch darauf hin.

Ob brandaktuell oder nicht, (Global)Player oder nicht, mMn egal :) Es existiert neben den Marktbeherrschern noch eine Welt.


Zitat scully1234;11638728

Hab ich dieses irgendwo getan oder ist dies einfach nur ne unterstellung von dir?


Ja sorry, wenn du immer so cool von den zwei großen "Playern" redest (auch wenn du es wieder wegeditiert hast), die hier alles im Griff haben oder wie auch immer, dann gibt mir das nicht so viel. Vielleicht liegts an der Leidenschaft der Enthusiasten sich ausschließlich fürs Große, Schnelle & "Beste" zu interessieren bzw. zu begeistern. Aber man kann dadurch nicht alles andere einfach übergehen.

Edit: Mir wurde z.B. auch schon vorgeworfen nur auf die Sparsamkeit von Komponentnen zu achten und ich habe mir dann Gedanken darüber gemacht und festgestellt, dass man wirklich nicht immer nur ausschließlich nach Effizienz der Hardware entscheiden oder empfehlen kann. ;)
#30
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat che new;11638863
Das kannst du doch gar nicht zu 100% wissen. Wer weiß z.B. ob ein potentieller Stalker-Nachfolger nicht wieder ODE nutzen wird. Scheinbar nutzen Programmierer aus dem (slawischen) Ostblock öfter mal ODE als SDK/Engine, Xpand Rally z.B. deutet auch darauf hin.

Ob brandaktuell oder nicht, (Global)Player oder nicht, mMn egal :) Es existiert neben den Marktbeherrschern noch eine Welt.

Könnte es vielleicht daran gelegen haben das nur nvidia wirklich vernünftige physik liefern konnte auf der grafikkarte u die entwickler von spielen zusätzlich noch gebühren entrichten mussten wenn sie diese nutzen wollten,genause wie bei havok?

Nun sieht es aber doch vollkommen anderst aus ati hat nun havok u wird diese genauso nutzen wollen wie nvidia phys x.

Wo ist da jetzt noch platz für ne andere engine,da jetzt beide havok als auch phys x kostenlos genutzt werden können von spieleherstellern?[COLOR="red"]

---------- Beitrag hinzugefügt um 17:39 ---------- Vorheriger Beitrag war um 17:35 ----------

[/COLOR]
Zitat che new;11638863

Ja sorry, wenn du immer so cool von den zwei großen "Playern" redest (auch wenn du es wieder wegeditiert hast), die hier alles im Griff haben oder wie auch immer, dann gibt mir das nicht so viel.

Schon wieder ne unterstellung?

Zitat
Nvidia wird das genauso wenig zulassen wie ati oder intel,das sich hier noch ein player einmmischt


Das hab ich geschrieben u es steht auch noch da!
#31
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6280
Zitat scully1234;11638728
Weil der markt nun aufgeteilt ist auf ati u nvidia mit entweder havok oder phys x

Der Markt teilt sich nicht nur zwischen diesen 2 Engines auf. Solch ein Schwarz-Weiss-Szenario gibt es einfach nicht. Neben anderen Engines, ODE ist dir jetzt hoffentlich ein Begriff, gibt es zB auch noch Eigenentwicklungen. Wenn mich nicht alles täuscht, hatte zB Crysis eine eigene Physik Engine.
Das ist letztendlich genauso ein Käse, wie wenn jemand behauptet, Windows, Linux und MacOS teilen sich den Markt der Betriebssystem. Klar haben sie zusammen einen sehr hohen prozentualen Anteil. Wie eben auch Havok und PhysX. Das ändert trotzdem nichts daran, dass es auch noch andere Betriebssysteme gibt, die genutzt werden.
Und was soll der Verweis auf ATI? Havok gehört immer noch Intel. Wann lernst du endlich mal, die Software Schnittstellen von Havok und PhysX, oder jeder anderen Physik Engine, von ihrem Hardware Layer abzugrenzen? :rolleyes:
#32
customavatars/avatar43852_1.gif
Registriert seit: 31.07.2006

Vizeadmiral
Beiträge: 6732
Zitat scully1234;11638954
Könnte es vielleicht daran gelegen haben das nur nvidia wirklich vernünftige physik liefern konnte auf der grafikkarte u die entwickler von spielen zusätzlich noch gebühren entrichten mussten wenn sie diese nutzen wollten,genause wie bei havok?

Nun sieht es aber doch vollkommen anderst aus ati hat nun havok u wird diese genauso nutzen wollen wie nvidia phys x.

Wo ist da jetzt noch platz für ne andere engine,da jetzt beide havok als auch phys x kostenlos genutzt werden können von spieleherstellern?


In der Vergangenheit hat doch GPU-Physik bisher kaum eine Rolle gespielt, Physik wurde immer auf der CPU berechnet. Zusätzliche optische Effekte die auf Ageia-PPUs/Nvidia-GPUs berechnet werden sind afaik immer nur optional und selten gewesen. Sonst hätte die Massenkompatibilität auch gefehlt.

Ich versteh auch nicht die Argumentation, dass nur noch Platzt für das eine (ATi/Intel -> Havok) oder andere (Nvidia -> PhysiX) ist. Wenn sich ein Spiele-Entwickler für eine der beiden SDKs entscheidet, entscheidet er sich dann in Zukunft entweder dafür, dass es nur auf ATi/(zukünftigen)Intel-Karten oder nur auf Nvidia-Karten vernünftig oder überhaupt läuft?
Der Spiele-Entwickler wird doch gewungen sein wieder den Hauptteil der Phsyik von der CPU berechnen zu lassen (da sonst 40-60% der User ausgeschlossen werden). Es sei den Havok wird in Zukunft auch auf Nvidia-GPUs laufen und PhysiX auch auf ATi/(zukünftigen)Intel-GPUs laufen, z.B. durch eine gemeinsame Schnittstelle (DX11/OpenCL). Aber dann würde ich auch kein Problem darin sehen, dass die Entwickler anderer SDKs/Engines wie ODE sich ebenfalls fit für GPUs und die neue Schnittstelle machen.



Zitat scully1234;11638954
Schon wieder ne unterstellung?

Das hab ich geschrieben u es steht auch noch da!


Sorry ich hab an einer falschen Stelle gesucht, es wurde tatsächlich nicht wegeditiert. Aber das mit "Playern" ist alleine schon hier im Thread öfter als nur einmal gefallen.
#33
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat che new;11639637
Es sei den Havok wird in Zukunft auch auf Nvidia-GPUs laufen und PhysiX auch auf ATi/(zukünftigen)Intel-GPUs laufen, z.B. durch eine gemeinsame Schnittstelle (DX11/OpenCL).
.

Genau richtig erkannt;)

Zitat
Sorry ich hab an einer falschen stelle gesucht, ew wurde tatsächlich nicht wegeditiert. Aber das mit "Playern" ist alleine schon hier im Thread öfter als nur einmal gefallen


Was stört dich an dem begriff player?:confused:[COLOR="red"]

---------- Beitrag hinzugefügt um 18:54 ---------- Vorheriger Beitrag war um 18:46 ----------

[/COLOR]
Zitat mr.dude;11639461

Wann lernst du endlich mal, die Software Schnittstellen von Havok und PhysX, oder jeder anderen Physik Engine, von ihrem Hardware Layer abzugrenzen? :rolleyes:

Ich kenne die schnittstellen,warum versuchst du hier alle anderen immer als fachidioten hinzustellen?

Genau wie deine ständigen augenscheinlichen oder auch unterschwelligen beleidigungen!
#34
customavatars/avatar43852_1.gif
Registriert seit: 31.07.2006

Vizeadmiral
Beiträge: 6732
Zitat scully1234;11639673
Was stört dich an dem begriff player?:confused:


So wie du den Begriff einsetzt macht es den Anschein als ob PhysiX und Havok DIE großen Player wären und alles andere Scheißdreck was nix zu melden hat und deswegen nicht mal die Berechtigung zur Erwähnung verdient.
#35
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat che new;11640111
So wie du den Begriff einsetzt macht es den Anschein als ob PhysiX und Havok DIE großen Player wären und alles andere Scheißdreck was nix zu melden hat und deswegen nicht mal die Berechtigung zur Erwähnung verdient.



Ich weiss zwar nicht wo du das herausliesst aber du wirst es schon wissen:p
#36
Registriert seit: 17.09.2004
Erde / Deutschland
Flottillenadmiral
Beiträge: 6024
Ich hoffe nur, das man siuch auf einen Standard einigen kann^^ Nicht das jeder sein eigenes Süppchen kocht:heul:
#37
customavatars/avatar44198_1.gif
Registriert seit: 04.08.2006
Wien
Kapitänleutnant
Beiträge: 1615
So wenig ich es eigentlich mag, aber bei dem ganzen Wildwuchs der \"Physik-Schnittstellen\" wirds wohl nur helfen wenn MS sowas in DirectX einbaut. Durch die Marktmacht die DX hat wär das die einzige Möglichkeit auf einen einheitlichen Standard zu kommen.

Wenn so bleibt wie es jetzt geplant ist kann ich auf Intel-Systemen maximal 2 Varianten unterstützen, auf AMD wenns schlimm wird sogar nur eine...
#38
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6280
Zitat Hadan_P;11643402
So wenig ich es eigentlich mag, aber bei dem ganzen Wildwuchs der \"Physik-Schnittstellen\" wirds wohl nur helfen wenn MS sowas in DirectX einbaut. Durch die Marktmacht die DX hat wär das die einzige Möglichkeit auf einen einheitlichen Standard zu kommen.

Nein. Verschiedene Physik Engines sind gar nicht mal das Problem. Hier interpretieren Leute zu viel rein. Schau dir zB an, wie viele 3D Engines es auf dem Markt gibt und koexistieren. Das wirkliche Problem ist, ein portables Backend zu finden. Bei Grafik ist das eben OpenGL und Direct3D, bei Physik könnte das OpenCL oder DirectX Compute Shaders sein. Nur müssten sich Intel und nVidia dazu entscheiden, ihre Engines damit zu implementieren. Zumindest bei Havok scheint man ja auf einem guten Weg zu sein.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]