Kann man eine Geforce 8800 Gt als Physikbeschleuniger benützen ??

Ja es klappt!
 

Anhänge

  • Vantage2.jpg
    Vantage2.jpg
    102,9 KB · Aufrufe: 85
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab nun heraus gefunden, das ich meine 88GT als Physikbeschleuniger nützen kann und gleichzeitig ne HD 3850 vion TI. Bekomme auch mehr fps in den meisten spielen als mit nur ner 88'GT
Hinzugefügter Post:
Das vion TI soll von ATI heißen !!
 
Zuletzt bearbeitet:
Das müsste mal wer testen ^^ (Jemand der genügend Hardware zuhause hatt).

Auch in wieweit Physx mit einer Grafikkarte performanter ist als mit dem dedizierten Ageia Chip?
 
Zuletzt bearbeitet:
Hab nun heraus gefunden, das ich meine 88GT als Physikbeschleuniger nützen kann und gleichzeitig ne HD 3850 vion TI. Bekomme auch mehr fps in den meisten spielen als mit nur ner 88'GT
Hinzugefügter Post:
Das vion TI soll von ATI heißen !!

Die meisten Spiele unterstützen kein PhysX, wie machst Du das?
 
auf ner amerikanischen Seit gibt es so ein Programm leider illegal mit dem man eine von ATI und eine von NVidia im Pc haben kann . Ich hab dann der 88GT die Physikberechnung zugeteilt und der HD 3850 macht den rest. Aber du hast recht, bei den meisten spielen bringt es nichts, aber bei UT3 sehr viel !!
 
Dazu brauchst kein Programm... hatte auf nem AS Rock Dual VSTA ne AGP 6800 und PCIe X800pro getestet und es lief ohne zusätzliche Programme.
 
:banana: Find einfach ATi + Nvidia = geiles Gaming erlebnis es sollte aber nicht so aussehen nvidia + ati = ATI tot :shot:
Hinzugefügter Post:
Bei mir gings halt nur mit Programm
 
Zuletzt bearbeitet:
Naja, vielleicht liegt es daran, dass ich im Bios den primären Grafikbus einstellen konnte und ich nur die ATi-Treiber ohne CCC installiert hatte.
 
Bei meinem alten ´ging es damals auch so wie es du oben beschrieben hast
 
Naja, könnte mir schon vorstellen, dass es mit dem G80 nicht geht...
Versucht es mal, das interessiert mich.

also mit der ultra geht das nicht.
der geforce Physx-Button st abgeblendet und lässt sich nicht auswählen...auch wenn ich meine ageia-karte deaktiviere.

ich glaube auch nicht daran, dass die G80-karten noch in den Genuss dieses Features kommen. dafür sind sie wohl einfach zu alt und ich wüsste auch nicht, welchen sinn das für nvidea machen sollte
 
G80 wird nachgereicht, noch funktioniert das nicht auf der gts der gtx oder der ultra (im g80 Design)


Der G80 kann cuda und wird auch hardwarephysx berechnen können. (Wen der G92 das kann ....... kann der g80 warscheinlich ebenfalls.)

Nvidia will die neuen Karten an den mann bringen also geht es immo nur @ g92/ g200 ern.
Ist ja noch beta ^^
 
Zuletzt bearbeitet:
hmmm mal angenommen der ganze physx kram setzt sich nach und nach durch und AMD/ATI wird es NICHT auf seinen neuen karten nachreichen, wäre es interessant zu wissen wie/ob sich ne z.B. billige 8600 von NV als physikbeschleuniger schlägt wenn man se in nem PCI-E 16x port betreibt der allerdings "nur" mit 4 lanes angebunden ist. nicht jeder hat n board mit 2x 16 Lanes oder zumindest zwei Ports zu je 8 Lanes.
 
Müsste mal jemand testen, ob des mit ner 8600 Gt aber ich denke mal schon(mit der 8800GS geht des auf jeden fall)
 
Wenn es den mal für die G80er freigeschaltet wird ^^ (Wen.....)
 
Also das die G80er dies ebenfalls untersützen ist schon lange angekündigt. Die G80 supporten Cuda und laut NV werden diese ebenfalls in den Genuss kommen. Gab da schon einige News. Da die G80 nicht mehr so stark verkauft werden,sind die wohl als Schlusslicht ;)

Denn der G92 ist ja lediglich ein reduzierter G80er "refresh" gewesen.
 
also mit der ultra geht das nicht.
der geforce Physx-Button st abgeblendet und lässt sich nicht auswählen...auch wenn ich meine ageia-karte deaktiviere.

ich glaube auch nicht daran, dass die G80-karten noch in den Genuss dieses Features kommen. dafür sind sie wohl einfach zu alt und ich wüsste auch nicht, welchen sinn das für nvidea machen sollte
Wenn die den G80 nachreichen, können die den immer noch für gutes Geld verkaufen... und wenn nur für Physik^^
Sollten mehr Games das unterstützen, könnten die jeden ATi-Besitzer dazu bekommen, sich wenigstens ne kleine nVidia in den Rechner zu setzen.
z.B. ne 8600 oder 9600er nur als Physikberechnung nutzen.
 
Wenn die den G80 nachreichen, können die den immer noch für gutes Geld verkaufen... und wenn nur für Physik^^
Sollten mehr Games das unterstützen, könnten die jeden ATi-Besitzer dazu bekommen, sich wenigstens ne kleine nVidia in den Rechner zu setzen.
z.B. ne 8600 oder 9600er nur als Physikberechnung nutzen.

genau das war (da ich meine 8800er GTX gegen ne 4850 tausche) für den fall der fälle ja mein gedanke

Juhu eine 200 Watt Physxkarte ^^ Umweltschutz nein danke :P!
 
Zuletzt bearbeitet:
deswegen ja eine der kleinen karten nutzen :grrr: FALLS dieser rein aus der luft gegriffene gedanke von mir wahr werden würde. komm mir jetzt bitte nicht mit umweltschutz. ich fahr sogar die 50km zu meiner freundin mit dem rennrad, habe kein auto und meine ganze bude voll mit energiesparlampen :asthanos:
 
Zuletzt bearbeitet:
Naja... ich spinne den Faden mal weiter...
Wenn es evtl. auch mit IGP geht, kaufst dir einfach einen NV-Chipsatz und ne andere Karte deiner Wahl und wenn die Wahl auf ATi fällt, lässt den IGP die Physik berechnen.
 
so wäre das sinvoller als ne GTX(Ultra) oder sonst ein Graka heizkraftwerk als PPu einzusetzen ^^


Man schauen was nV uns noch so bringen wird :d
 
Wenn die den G80 nachreichen, können die den immer noch für gutes Geld verkaufen... und wenn nur für Physik^^
Sollten mehr Games das unterstützen, könnten die jeden ATi-Besitzer dazu bekommen, sich wenigstens ne kleine nVidia in den Rechner zu setzen.
z.B. ne 8600 oder 9600er nur als Physikberechnung nutzen.

ich hätte mir das eher so gedacht, dass sie das als neues feature der GTX karten ganz groß rausbringen, damit sie die verkaufen können und besitzer älterer karten wie der G80 dazu bringen sich eine zu holen. evtl. dann in ein paar wochen/monaten noch ein paar karten im mittleren segment nachschieben.
und die reinen G80 karten werden meines wissens doch gar nicht mehr hergestellt, sondern nur noch G92, oder?
also warum dann so eine zusätzliche funktion in alte karten einbauen, an denen man nichts mehr verdienen kann.
ich bin da nach wie vor skeptisch...freuen würde ich mich aber trotzdem drüber.
zumal die benchmarks mit G92-karten ja einen großen performanceschub zur ageia-karte erkennen lassen.
z.b. ist der unterschied mit/ohne ageia-karte bei mir im 3dmark vantage gerade mal rd. 300 punkte im endergebnis. bei den g92-karten rd. das 10-fache, was ich bisher so in foren gelesen habe.
 
joker, es werden keine "neuen features" in irgendwelche karten eingebaut, es wird mit bestehender technik umgesetzt! da sich n G92 technisch nicht von nem G80 unterscheidet sollte es klar sein das es dann auch mit diesen gehen wird.
 
jetz frage ich mich ob 4850cf plus eine billig ati karte als PPu geht?! Das währe sowas von genial :shot:
 
Ja, das kann sein, so dolle kenn ich mich auch nicht aus... vielleicht wird es aber auch Office-Karten den neuen Generation geben, welche sich zur Physikberechnung überreden lassen. z.B. eine GS230 (meine Phantasie geht mit mir durch) für ca. 30-50,-€, passiv mit wenig Stromverbrauch.
 
Irgentwie fin ich den Physx Hype auch sehr komisch..... Kaum ein Spiel kann was damit anfangen und nun kommt Nvidia daher und integriert sowas per cuda....

Das alles nur wegen nem Penismark(Vantage^^) ? Stinkt gewaltig nach Cheats (nV's Vergangenheit ist ja voll davon unfaire Verbesserungen einzuführen....:d)

Erinnert sich wer an die alten Spiele ala Red Fraktion, Söldner usw, die (von der miesen Storry mal abgesehen) im Prinzip zerstörbare Umwelten hatten. Ganz ohne Hardwarephysik? Komisch das sich das nie durchgesetzt hatt? Warum nur?


Im prinzip bedarf es nur fähigen Programmieren, die solche speile erschaffen?
 
Zuletzt bearbeitet:
Dann lade dir mal Cellfactor runter, das war mal ein kostenloses Spiel auf Ageia... mit ein wenig Google bekommst das auch ohne Physx zum Laufen. ...einfach nur geil.

Alle Games auf Unrealengine3 unterstützen Physx und das sind nicht wenige.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh