> > > > NVIDIA verneint Vorwurf, Spieleentwickler für den Einsatz von PhysX zu bestechen

NVIDIA verneint Vorwurf, Spieleentwickler für den Einsatz von PhysX zu bestechen

Veröffentlicht am: von
nvidia

Im Januar diesen Jahres beschuldigte AMD den Gegenspieler NVIDIA, PhysX gezielt nicht für Mehrkern-Prozessoren auszulegen, um somit die Bedeutung von GPUs für PhysX künstlich zu vergrößern. Da NVIDIA dafür sorgt, dass die GPU-Beschleunigung von PhysX nur mit den eigenen Grafikkarten funktioniert, würde das letztlich für mehr Nachfrage nach NVIDIA-Grafikkarten sorgen. NVIDIA tat diese Vorwürfe umgehend als haltlos ab (wir berichteten).

Wie die Kollegen von xbitlabs.com berichten, hat AMD jetzt erneut Vorwürfe gegenüber NVIDIA erhoben, die auf PhysX abzielen. Konkret hat AMD dem Konkurrenten diesmal vorgeworfen, Marketing-Vereinbarungen mit Spiele-Entwicklern abzuschließen. Diese Vereinbarungen würden die Verpflichtung der Spiele-Entwickler beinhalten, PhysX einzusetzen und dafür zu werben. Entwickler würden so gegen Bezahlung von NVIDIA für die Verbreitung von PhysX sorgen, ohne diese Middleware selbst einsetzen zu wollen. Mit Ausnahme von Epic würde kein Entwickler PhysX aus eigener Überzeugung implementieren. Nach Meinung eines führenden AMD-Managers wird PhysX als proprietärer Standard auf Dauer keine Chance gegenüber offenen Physik-Standards haben. AMD selbst engagiert sich entsprechend mit der Open Physics-Initiative.

NVIDIA hat auf diese Vorwürfe bereits reagiert und sie rundweg zurückgewiesen. Unter keinen Umständen werde man Geld für den Einsatz von PhysX zahlen. Man würde Spiele-Entwickler ausschließlich durch eigene Ingenieure und Designer beim Einsatz von PhysX unterstützen. Auch ist NVIDIA zuversichtlich, dass PhysX weiterhin konkurrenzfähig sein wird - arbeitet parallel aber durchaus mit Entwicklern von Open-Source-Alternativen zusammen

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (113)

#104
Registriert seit: 17.08.2005
Leverkusen
Kapitänleutnant
Beiträge: 1897
Zitat Wasabi_2007;14195738
??
ich versteh nicht ganz warum solte man einen gleich aufgebauten test nicht zwichen der PhysX-Engine und einer rein CPU Lastigen Physiks-Engine vergleichen können


Weil es kein test gibt , der 2 Physik biblioteken oder engine benutz!

Und wenn man ein spiel mit PhysX nimmst , kann es entweder nur CPU oder hat mehr efekte die aber nur auf der GPU laufen , aber nicht auf der CPU!!!

Somit ist ein vergliehc nicht möglich!
#105
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24332
Was willst du den testen?

Um zu vergleichen musst du die gleiche Situation nachstellen und womit willst das machen?

^^ Danke Haro :D
#106
Registriert seit: 10.01.2010

Matrose
Beiträge: 26
ist ja dämlich dann kann man ja garnicht erkenen ob PhysX wirklich mehr leistung bringt

edit:
@Le_Frog99
mit zwei verschiedenen Physik-Engien die aber die Selbe Benchmark sceene berechnen sollen oder was meinst du?
#107
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24332
Richtig ! Und das geht nicht.

Und PhysX bringt keine Mehrleistung das ist Augenwäscherei :D Woher soll die auch kommen wenn die Graka auch noch zum Berechnen von PhysX genutzt wird.
#108
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
In Real ist es nunmal so das Physik die auf der GPU berechnet wird aufgrund der dort vorhanden Leistung beschleunigt wird. In Zukunft wird das ganze hoffentlich mal rosiger wenn es mal einen Standard gibt. Bisher lohnt sich aber ganz einfach auch nicht wirklich der aufwand für die Programmierung bei einem Entwickler wenn er damit nur einen Teil der Kunden ansprechen an.

Von daher kannst du schon davon ausgehen das PhysX auf der GPU schneller läuft als auf der CPU, die Frage ist halt nur wie groß der nutzen bei derzeitigen Spielereien tatsächlich ist.
#109
Registriert seit: 10.01.2010

Matrose
Beiträge: 26
ok ich seh ein das unter den Umständen PhysX nicht so toll ist wobei ich Persönlich die PhysX Engien mag und das aus mehreren gründen die PhysX SDK ist kostenlos und dafür eine sehr machtige physik-Engine, Nvidia haut jedemenge tools für entwikler raus damit sie ihre spiele optimiren können und es kommen auch regelmäsig updates und Nvidia Bastelt momentan ja auch schon einen auf PhysX basirten nach folger "APEX".
#110
customavatars/avatar127265_1.gif
Registriert seit: 16.01.2010

Oberleutnant zur See
Beiträge: 1451
Zitat Haro;14195375
Und wie wär es dann mit , alte CPU verkaufen udn für 70-80euro nen neuen Athlon II X4 oder eben hier nen gebrauchten quad , die gibt es auch günstiger, wenn du schon von gebraucht redest ;)


zack, sofort der nächste punkt:
nenn mich aldmodisch, aber nen quad muss man momentan nicht aufrüsten. dementsprechend ist der gebrauchteilemarkt dort auch bei weitem nicht so gesättigt, wie an älteren mittelklassekarten.
generell hohl ich mir auch häufiger ne neue karte (kommen nicht alle 2 jahre spätestens immer neue genrationen), als sofort nach dem entwicklungszyklus von 4 jahren die nächst größere cpu-stufe... vor allem geht das 1mal (intel) oder vielleicht 2mal gut udn dann ist spätestens n neues brett fällig und an grafikkarten kann ich mal um mal was neues auflegen, da kommt eher das netzteil ins schwitzen.

und wenn es jetzt schon fast zu weit wegführt: was ist moralisch/bilanztechnisch vertrettbarer? den spieler dazu zu knechten jedesmal die größte verfügbare, neue cpu zu hohlen oder alte karten zu recyceln um das feature zu nutzen? (wir denken an den sättigungsgrad an gebrauchtteilen.)
das argument darf mir aber gerne jeder übern haufen ballern, ich sehe das nämlich bei cpus für sich schon so, dass die schiene von amd umweltunfreundlich und ressourcenverschwendend ist, falls jemand da nen link für ne geeignete stelle im forum hat, lass ich mich gerne eines besseren belehren.
#111
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24332
Leider gibt es nur wenige Games die mit PhysX auch wirklich schick aussehen :(

Wobei die Aussage ja eigentlich auch nur relativ ist, damit man den Leute überhaupt verständlich machen kann sich PhysX zu kaufen, werden enorme Rauch und Trümmereffekte eingebaut. Wenn das nicht wäre und sich der Rest nur dank der Engine Physikalisch Korrekt verhalten würden, dann würde auch niemand auf die PhysX Schienen setzen. Es werden die Sichtbaren Effekte verkauft in den Games, was anderes nehmen die Noobs eh nicht war :D

Batman gefällt mir super mit PhysX aber dann war es dann auch schon, Da gefällt mir ja die Havok Engine von Halflife 2 noch besser mit ihren Physik Spielereien. :)
#112
Registriert seit: 10.01.2010

Matrose
Beiträge: 26
Es ist immer ne frage was die Entwickler daraus machen die Entwickler könnten die Beste Physik Engien der welt haben sie nützt ihnen aber nichts wenn sie die nicht ausnutzten.
#113
Registriert seit: 17.08.2005
Leverkusen
Kapitänleutnant
Beiträge: 1897
Zitat Poloniumium;14196191
zack, sofort der nächste punkt:
nenn mich aldmodisch, aber nen quad muss man momentan nicht aufrüsten. dementsprechend ist der gebrauchteilemarkt dort auch bei weitem nicht so gesättigt, wie an älteren mittelklassekarten.
generell hohl ich mir auch häufiger ne neue karte (kommen nicht alle 2 jahre spätestens immer neue genrationen), als sofort nach dem entwicklungszyklus von 4 jahren die nächst größere cpu-stufe... vor allem geht das 1mal (intel) oder vielleicht 2mal gut udn dann ist spätestens n neues brett fällig und an grafikkarten kann ich mal um mal was neues auflegen, da kommt eher das netzteil ins schwitzen.

und wenn es jetzt schon fast zu weit wegführt: was ist moralisch/bilanztechnisch vertrettbarer? den spieler dazu zu knechten jedesmal die größte verfügbare, neue cpu zu hohlen oder alte karten zu recyceln um das feature zu nutzen? (wir denken an den sättigungsgrad an gebrauchtteilen.)
das argument darf mir aber gerne jeder übern haufen ballern, ich sehe das nämlich bei cpus für sich schon so, dass die schiene von amd umweltunfreundlich und ressourcenverschwendend ist, falls jemand da nen link für ne geeignete stelle im forum hat, lass ich mich gerne eines besseren belehren.


Dann nenn mich altmodisch , aber ne zweite GPU reinstecken nur für PhysX wobei sich ne einsteiger CPU (was heute AII X4 sind!) langweilen muss nicht sein, für sachen wo man kein unterschied sieht (bis auf 2-3 titeln) und es genug spiele auf Havok basis gibt die spektakulärer rüber kommen , auch wenn sich das kape mal nicht 100% physikalisch bewegt lol.


Das kann man jetzt drehen wie man will. Aber heute einsteiger PCs haben schon genug CPU leistung , das sie sich langweilen.


Und wenn du immer mit mainstream kommst, dann steck sie die masse zu ihrer GT210 (oder vergleichbar) noch ne 9600 als PhysX karte ;D und merkt dann , das es ruckelt :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]