> > > > NVIDIA verneint Vorwurf, Spieleentwickler für den Einsatz von PhysX zu bestechen

NVIDIA verneint Vorwurf, Spieleentwickler für den Einsatz von PhysX zu bestechen

Veröffentlicht am: von
nvidia

Im Januar diesen Jahres beschuldigte AMD den Gegenspieler NVIDIA, PhysX gezielt nicht für Mehrkern-Prozessoren auszulegen, um somit die Bedeutung von GPUs für PhysX künstlich zu vergrößern. Da NVIDIA dafür sorgt, dass die GPU-Beschleunigung von PhysX nur mit den eigenen Grafikkarten funktioniert, würde das letztlich für mehr Nachfrage nach NVIDIA-Grafikkarten sorgen. NVIDIA tat diese Vorwürfe umgehend als haltlos ab (wir berichteten).

Wie die Kollegen von xbitlabs.com berichten, hat AMD jetzt erneut Vorwürfe gegenüber NVIDIA erhoben, die auf PhysX abzielen. Konkret hat AMD dem Konkurrenten diesmal vorgeworfen, Marketing-Vereinbarungen mit Spiele-Entwicklern abzuschließen. Diese Vereinbarungen würden die Verpflichtung der Spiele-Entwickler beinhalten, PhysX einzusetzen und dafür zu werben. Entwickler würden so gegen Bezahlung von NVIDIA für die Verbreitung von PhysX sorgen, ohne diese Middleware selbst einsetzen zu wollen. Mit Ausnahme von Epic würde kein Entwickler PhysX aus eigener Überzeugung implementieren. Nach Meinung eines führenden AMD-Managers wird PhysX als proprietärer Standard auf Dauer keine Chance gegenüber offenen Physik-Standards haben. AMD selbst engagiert sich entsprechend mit der Open Physics-Initiative.

NVIDIA hat auf diese Vorwürfe bereits reagiert und sie rundweg zurückgewiesen. Unter keinen Umständen werde man Geld für den Einsatz von PhysX zahlen. Man würde Spiele-Entwickler ausschließlich durch eigene Ingenieure und Designer beim Einsatz von PhysX unterstützen. Auch ist NVIDIA zuversichtlich, dass PhysX weiterhin konkurrenzfähig sein wird - arbeitet parallel aber durchaus mit Entwicklern von Open-Source-Alternativen zusammen

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (113)

#104
Registriert seit: 17.08.2005
Leverkusen
Kapitänleutnant
Beiträge: 1897
Zitat Wasabi_2007;14195738
??
ich versteh nicht ganz warum solte man einen gleich aufgebauten test nicht zwichen der PhysX-Engine und einer rein CPU Lastigen Physiks-Engine vergleichen können


Weil es kein test gibt , der 2 Physik biblioteken oder engine benutz!

Und wenn man ein spiel mit PhysX nimmst , kann es entweder nur CPU oder hat mehr efekte die aber nur auf der GPU laufen , aber nicht auf der CPU!!!

Somit ist ein vergliehc nicht möglich!
#105
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24314
Was willst du den testen?

Um zu vergleichen musst du die gleiche Situation nachstellen und womit willst das machen?

^^ Danke Haro :D
#106
Registriert seit: 10.01.2010

Matrose
Beiträge: 26
ist ja dämlich dann kann man ja garnicht erkenen ob PhysX wirklich mehr leistung bringt

edit:
@Le_Frog99
mit zwei verschiedenen Physik-Engien die aber die Selbe Benchmark sceene berechnen sollen oder was meinst du?
#107
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24314
Richtig ! Und das geht nicht.

Und PhysX bringt keine Mehrleistung das ist Augenwäscherei :D Woher soll die auch kommen wenn die Graka auch noch zum Berechnen von PhysX genutzt wird.
#108
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
In Real ist es nunmal so das Physik die auf der GPU berechnet wird aufgrund der dort vorhanden Leistung beschleunigt wird. In Zukunft wird das ganze hoffentlich mal rosiger wenn es mal einen Standard gibt. Bisher lohnt sich aber ganz einfach auch nicht wirklich der aufwand für die Programmierung bei einem Entwickler wenn er damit nur einen Teil der Kunden ansprechen an.

Von daher kannst du schon davon ausgehen das PhysX auf der GPU schneller läuft als auf der CPU, die Frage ist halt nur wie groß der nutzen bei derzeitigen Spielereien tatsächlich ist.
#109
Registriert seit: 10.01.2010

Matrose
Beiträge: 26
ok ich seh ein das unter den Umständen PhysX nicht so toll ist wobei ich Persönlich die PhysX Engien mag und das aus mehreren gründen die PhysX SDK ist kostenlos und dafür eine sehr machtige physik-Engine, Nvidia haut jedemenge tools für entwikler raus damit sie ihre spiele optimiren können und es kommen auch regelmäsig updates und Nvidia Bastelt momentan ja auch schon einen auf PhysX basirten nach folger "APEX".
#110
customavatars/avatar127265_1.gif
Registriert seit: 16.01.2010

Oberleutnant zur See
Beiträge: 1451
Zitat Haro;14195375
Und wie wär es dann mit , alte CPU verkaufen udn für 70-80euro nen neuen Athlon II X4 oder eben hier nen gebrauchten quad , die gibt es auch günstiger, wenn du schon von gebraucht redest ;)


zack, sofort der nächste punkt:
nenn mich aldmodisch, aber nen quad muss man momentan nicht aufrüsten. dementsprechend ist der gebrauchteilemarkt dort auch bei weitem nicht so gesättigt, wie an älteren mittelklassekarten.
generell hohl ich mir auch häufiger ne neue karte (kommen nicht alle 2 jahre spätestens immer neue genrationen), als sofort nach dem entwicklungszyklus von 4 jahren die nächst größere cpu-stufe... vor allem geht das 1mal (intel) oder vielleicht 2mal gut udn dann ist spätestens n neues brett fällig und an grafikkarten kann ich mal um mal was neues auflegen, da kommt eher das netzteil ins schwitzen.

und wenn es jetzt schon fast zu weit wegführt: was ist moralisch/bilanztechnisch vertrettbarer? den spieler dazu zu knechten jedesmal die größte verfügbare, neue cpu zu hohlen oder alte karten zu recyceln um das feature zu nutzen? (wir denken an den sättigungsgrad an gebrauchtteilen.)
das argument darf mir aber gerne jeder übern haufen ballern, ich sehe das nämlich bei cpus für sich schon so, dass die schiene von amd umweltunfreundlich und ressourcenverschwendend ist, falls jemand da nen link für ne geeignete stelle im forum hat, lass ich mich gerne eines besseren belehren.
#111
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24314
Leider gibt es nur wenige Games die mit PhysX auch wirklich schick aussehen :(

Wobei die Aussage ja eigentlich auch nur relativ ist, damit man den Leute überhaupt verständlich machen kann sich PhysX zu kaufen, werden enorme Rauch und Trümmereffekte eingebaut. Wenn das nicht wäre und sich der Rest nur dank der Engine Physikalisch Korrekt verhalten würden, dann würde auch niemand auf die PhysX Schienen setzen. Es werden die Sichtbaren Effekte verkauft in den Games, was anderes nehmen die Noobs eh nicht war :D

Batman gefällt mir super mit PhysX aber dann war es dann auch schon, Da gefällt mir ja die Havok Engine von Halflife 2 noch besser mit ihren Physik Spielereien. :)
#112
Registriert seit: 10.01.2010

Matrose
Beiträge: 26
Es ist immer ne frage was die Entwickler daraus machen die Entwickler könnten die Beste Physik Engien der welt haben sie nützt ihnen aber nichts wenn sie die nicht ausnutzten.
#113
Registriert seit: 17.08.2005
Leverkusen
Kapitänleutnant
Beiträge: 1897
Zitat Poloniumium;14196191
zack, sofort der nächste punkt:
nenn mich aldmodisch, aber nen quad muss man momentan nicht aufrüsten. dementsprechend ist der gebrauchteilemarkt dort auch bei weitem nicht so gesättigt, wie an älteren mittelklassekarten.
generell hohl ich mir auch häufiger ne neue karte (kommen nicht alle 2 jahre spätestens immer neue genrationen), als sofort nach dem entwicklungszyklus von 4 jahren die nächst größere cpu-stufe... vor allem geht das 1mal (intel) oder vielleicht 2mal gut udn dann ist spätestens n neues brett fällig und an grafikkarten kann ich mal um mal was neues auflegen, da kommt eher das netzteil ins schwitzen.

und wenn es jetzt schon fast zu weit wegführt: was ist moralisch/bilanztechnisch vertrettbarer? den spieler dazu zu knechten jedesmal die größte verfügbare, neue cpu zu hohlen oder alte karten zu recyceln um das feature zu nutzen? (wir denken an den sättigungsgrad an gebrauchtteilen.)
das argument darf mir aber gerne jeder übern haufen ballern, ich sehe das nämlich bei cpus für sich schon so, dass die schiene von amd umweltunfreundlich und ressourcenverschwendend ist, falls jemand da nen link für ne geeignete stelle im forum hat, lass ich mich gerne eines besseren belehren.


Dann nenn mich altmodisch , aber ne zweite GPU reinstecken nur für PhysX wobei sich ne einsteiger CPU (was heute AII X4 sind!) langweilen muss nicht sein, für sachen wo man kein unterschied sieht (bis auf 2-3 titeln) und es genug spiele auf Havok basis gibt die spektakulärer rüber kommen , auch wenn sich das kape mal nicht 100% physikalisch bewegt lol.


Das kann man jetzt drehen wie man will. Aber heute einsteiger PCs haben schon genug CPU leistung , das sie sich langweilen.


Und wenn du immer mit mainstream kommst, dann steck sie die masse zu ihrer GT210 (oder vergleichbar) noch ne 9600 als PhysX karte ;D und merkt dann , das es ruckelt :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Logo von IMAGES/STORIES/2017/GEFORCERTX2080

Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

AMD Radeon RX Vega 64 im mGPU-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

In den letzten Tagen war es so weit. Wir hatten endlich Hard- und Software zusammen, um die Radeon RX Vega 64 im mGPU testen zu können. Zum einen halten wir die ASUS ROG Strix Radeon Vega 64 OC Edition in Händen, zum anderen hat AMD den Radeon Software Crimson ReLive Edition 17.9.2... [mehr]