> > > > ATI stellt PhysX-Pendant auf der GDC vor

ATI stellt PhysX-Pendant auf der GDC vor

DruckenE-Mail
Erstellt am: von
ati2Wie Xbitlabs berichtet, will der Grafikkartenhersteller ATI, der seit geraumer Zeit zu AMD gehört, auf der diesjährigen Game Developers Conference, kurz GDC, ein Pendant zu NVIDIAs PhysX vorstellen. Dies verriet ein offizieller Mitarbeiter, ebenso sollen weitere Pläne für 2009 aufgedeckt werden. In einem Blogeintrag schrieb Terry Makedon, General Manager der Catalyst-Entwicklung: “ATI GPU physics strategy and maybe a demo being thrown down next week at GDC. If you're there, go see it”. Bislang ist nur NVIDIA mit der PhysX-Engine und Intel mit der Havok-Engine in der Physik-Welt vertreten, welche Leistung hinter OpenCL und ATI Stream steckt, wird sich auf der GDC zeigen. Die Auswahl der Spielehersteller, die sich der neuen Technik annehmen, ist nicht bekannt.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (38)

#29
customavatars/avatar43852_1.gif
Registriert seit: 31.07.2006

Vizeadmiral
Beiträge: 6732
Zitat scully1234;11638728

Weil der markt nun aufgeteilt ist auf ati u nvidia


Das kannst du doch gar nicht zu 100% wissen. Wer weiß z.B. ob ein potentieller Stalker-Nachfolger nicht wieder ODE nutzen wird. Scheinbar nutzen Programmierer aus dem (slawischen) Ostblock öfter mal ODE als SDK/Engine, Xpand Rally z.B. deutet auch darauf hin.

Ob brandaktuell oder nicht, (Global)Player oder nicht, mMn egal :) Es existiert neben den Marktbeherrschern noch eine Welt.


Zitat scully1234;11638728

Hab ich dieses irgendwo getan oder ist dies einfach nur ne unterstellung von dir?


Ja sorry, wenn du immer so cool von den zwei großen "Playern" redest (auch wenn du es wieder wegeditiert hast), die hier alles im Griff haben oder wie auch immer, dann gibt mir das nicht so viel. Vielleicht liegts an der Leidenschaft der Enthusiasten sich ausschließlich fürs Große, Schnelle & "Beste" zu interessieren bzw. zu begeistern. Aber man kann dadurch nicht alles andere einfach übergehen.

Edit: Mir wurde z.B. auch schon vorgeworfen nur auf die Sparsamkeit von Komponentnen zu achten und ich habe mir dann Gedanken darüber gemacht und festgestellt, dass man wirklich nicht immer nur ausschließlich nach Effizienz der Hardware entscheiden oder empfehlen kann. ;)
#30
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat che new;11638863
Das kannst du doch gar nicht zu 100% wissen. Wer weiß z.B. ob ein potentieller Stalker-Nachfolger nicht wieder ODE nutzen wird. Scheinbar nutzen Programmierer aus dem (slawischen) Ostblock öfter mal ODE als SDK/Engine, Xpand Rally z.B. deutet auch darauf hin.

Ob brandaktuell oder nicht, (Global)Player oder nicht, mMn egal :) Es existiert neben den Marktbeherrschern noch eine Welt.

Könnte es vielleicht daran gelegen haben das nur nvidia wirklich vernünftige physik liefern konnte auf der grafikkarte u die entwickler von spielen zusätzlich noch gebühren entrichten mussten wenn sie diese nutzen wollten,genause wie bei havok?

Nun sieht es aber doch vollkommen anderst aus ati hat nun havok u wird diese genauso nutzen wollen wie nvidia phys x.

Wo ist da jetzt noch platz für ne andere engine,da jetzt beide havok als auch phys x kostenlos genutzt werden können von spieleherstellern?[COLOR="red"]

---------- Beitrag hinzugefügt um 17:39 ---------- Vorheriger Beitrag war um 17:35 ----------

[/COLOR]
Zitat che new;11638863

Ja sorry, wenn du immer so cool von den zwei großen "Playern" redest (auch wenn du es wieder wegeditiert hast), die hier alles im Griff haben oder wie auch immer, dann gibt mir das nicht so viel.

Schon wieder ne unterstellung?

Zitat
Nvidia wird das genauso wenig zulassen wie ati oder intel,das sich hier noch ein player einmmischt


Das hab ich geschrieben u es steht auch noch da!
#31
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat scully1234;11638728
Weil der markt nun aufgeteilt ist auf ati u nvidia mit entweder havok oder phys x

Der Markt teilt sich nicht nur zwischen diesen 2 Engines auf. Solch ein Schwarz-Weiss-Szenario gibt es einfach nicht. Neben anderen Engines, ODE ist dir jetzt hoffentlich ein Begriff, gibt es zB auch noch Eigenentwicklungen. Wenn mich nicht alles täuscht, hatte zB Crysis eine eigene Physik Engine.
Das ist letztendlich genauso ein Käse, wie wenn jemand behauptet, Windows, Linux und MacOS teilen sich den Markt der Betriebssystem. Klar haben sie zusammen einen sehr hohen prozentualen Anteil. Wie eben auch Havok und PhysX. Das ändert trotzdem nichts daran, dass es auch noch andere Betriebssysteme gibt, die genutzt werden.
Und was soll der Verweis auf ATI? Havok gehört immer noch Intel. Wann lernst du endlich mal, die Software Schnittstellen von Havok und PhysX, oder jeder anderen Physik Engine, von ihrem Hardware Layer abzugrenzen? :rolleyes:
#32
customavatars/avatar43852_1.gif
Registriert seit: 31.07.2006

Vizeadmiral
Beiträge: 6732
Zitat scully1234;11638954
Könnte es vielleicht daran gelegen haben das nur nvidia wirklich vernünftige physik liefern konnte auf der grafikkarte u die entwickler von spielen zusätzlich noch gebühren entrichten mussten wenn sie diese nutzen wollten,genause wie bei havok?

Nun sieht es aber doch vollkommen anderst aus ati hat nun havok u wird diese genauso nutzen wollen wie nvidia phys x.

Wo ist da jetzt noch platz für ne andere engine,da jetzt beide havok als auch phys x kostenlos genutzt werden können von spieleherstellern?


In der Vergangenheit hat doch GPU-Physik bisher kaum eine Rolle gespielt, Physik wurde immer auf der CPU berechnet. Zusätzliche optische Effekte die auf Ageia-PPUs/Nvidia-GPUs berechnet werden sind afaik immer nur optional und selten gewesen. Sonst hätte die Massenkompatibilität auch gefehlt.

Ich versteh auch nicht die Argumentation, dass nur noch Platzt für das eine (ATi/Intel -> Havok) oder andere (Nvidia -> PhysiX) ist. Wenn sich ein Spiele-Entwickler für eine der beiden SDKs entscheidet, entscheidet er sich dann in Zukunft entweder dafür, dass es nur auf ATi/(zukünftigen)Intel-Karten oder nur auf Nvidia-Karten vernünftig oder überhaupt läuft?
Der Spiele-Entwickler wird doch gewungen sein wieder den Hauptteil der Phsyik von der CPU berechnen zu lassen (da sonst 40-60% der User ausgeschlossen werden). Es sei den Havok wird in Zukunft auch auf Nvidia-GPUs laufen und PhysiX auch auf ATi/(zukünftigen)Intel-GPUs laufen, z.B. durch eine gemeinsame Schnittstelle (DX11/OpenCL). Aber dann würde ich auch kein Problem darin sehen, dass die Entwickler anderer SDKs/Engines wie ODE sich ebenfalls fit für GPUs und die neue Schnittstelle machen.



Zitat scully1234;11638954
Schon wieder ne unterstellung?

Das hab ich geschrieben u es steht auch noch da!


Sorry ich hab an einer falschen Stelle gesucht, es wurde tatsächlich nicht wegeditiert. Aber das mit "Playern" ist alleine schon hier im Thread öfter als nur einmal gefallen.
#33
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat che new;11639637
Es sei den Havok wird in Zukunft auch auf Nvidia-GPUs laufen und PhysiX auch auf ATi/(zukünftigen)Intel-GPUs laufen, z.B. durch eine gemeinsame Schnittstelle (DX11/OpenCL).
.

Genau richtig erkannt;)

Zitat
Sorry ich hab an einer falschen stelle gesucht, ew wurde tatsächlich nicht wegeditiert. Aber das mit "Playern" ist alleine schon hier im Thread öfter als nur einmal gefallen


Was stört dich an dem begriff player?:confused:[COLOR="red"]

---------- Beitrag hinzugefügt um 18:54 ---------- Vorheriger Beitrag war um 18:46 ----------

[/COLOR]
Zitat mr.dude;11639461

Wann lernst du endlich mal, die Software Schnittstellen von Havok und PhysX, oder jeder anderen Physik Engine, von ihrem Hardware Layer abzugrenzen? :rolleyes:

Ich kenne die schnittstellen,warum versuchst du hier alle anderen immer als fachidioten hinzustellen?

Genau wie deine ständigen augenscheinlichen oder auch unterschwelligen beleidigungen!
#34
customavatars/avatar43852_1.gif
Registriert seit: 31.07.2006

Vizeadmiral
Beiträge: 6732
Zitat scully1234;11639673
Was stört dich an dem begriff player?:confused:


So wie du den Begriff einsetzt macht es den Anschein als ob PhysiX und Havok DIE großen Player wären und alles andere Scheißdreck was nix zu melden hat und deswegen nicht mal die Berechtigung zur Erwähnung verdient.
#35
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat che new;11640111
So wie du den Begriff einsetzt macht es den Anschein als ob PhysiX und Havok DIE großen Player wären und alles andere Scheißdreck was nix zu melden hat und deswegen nicht mal die Berechtigung zur Erwähnung verdient.



Ich weiss zwar nicht wo du das herausliesst aber du wirst es schon wissen:p
#36
Registriert seit: 17.09.2004
Erde / Deutschland
Flottillenadmiral
Beiträge: 5995
Ich hoffe nur, das man siuch auf einen Standard einigen kann^^ Nicht das jeder sein eigenes Süppchen kocht:heul:
#37
customavatars/avatar44198_1.gif
Registriert seit: 04.08.2006
Wien
Kapitänleutnant
Beiträge: 1611
So wenig ich es eigentlich mag, aber bei dem ganzen Wildwuchs der \"Physik-Schnittstellen\" wirds wohl nur helfen wenn MS sowas in DirectX einbaut. Durch die Marktmacht die DX hat wär das die einzige Möglichkeit auf einen einheitlichen Standard zu kommen.

Wenn so bleibt wie es jetzt geplant ist kann ich auf Intel-Systemen maximal 2 Varianten unterstützen, auf AMD wenns schlimm wird sogar nur eine...
#38
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat Hadan_P;11643402
So wenig ich es eigentlich mag, aber bei dem ganzen Wildwuchs der \"Physik-Schnittstellen\" wirds wohl nur helfen wenn MS sowas in DirectX einbaut. Durch die Marktmacht die DX hat wär das die einzige Möglichkeit auf einen einheitlichen Standard zu kommen.

Nein. Verschiedene Physik Engines sind gar nicht mal das Problem. Hier interpretieren Leute zu viel rein. Schau dir zB an, wie viele 3D Engines es auf dem Markt gibt und koexistieren. Das wirkliche Problem ist, ein portables Backend zu finden. Bei Grafik ist das eben OpenGL und Direct3D, bei Physik könnte das OpenCL oder DirectX Compute Shaders sein. Nur müssten sich Intel und nVidia dazu entscheiden, ihre Engines damit zu implementieren. Zumindest bei Havok scheint man ja auf einem guten Weg zu sein.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]