• Hallo Gast!
    Noch bis zum 20.07. kannst Du an unserer Umfrage zum Hersteller des Jahres teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal eine Grafikkarte Eurer Wahl für bis zu 1.000 EUR - über eine Teilnahme würden wir uns sehr freuen!

ATi Presents Crossfire-Physics

thehackman

Enthusiast
Thread Starter
Mitglied seit
30.05.2006
Beiträge
33
Originally posted by Computerbase.de
Physikberechnung in Spielen ist derzeit in aller Munde. Egal ob per Dual-Core-Prozessor, separater Physikkarte oder durch die Grafikkarte – moderne 3D-Spiele verlangen nach einer immer komplexeren Physik und es gibt mehr als nur eine Hardware, die dies ermöglichen kann.

Bei den Grafikkarten machte nVidia vor einiger Zeit den ersten Schritt und kündigte „Havok FX“ an, auch wenn dies längst nicht so nVidia-exklusiv ist, wie es zuerst den Anschein machte. Jeglicher Shader-Model-3.0-Beschleuniger kann mit der Havok-FX-Engine Physikberechnungen durchführen. Darüber hinaus sprach nVidia ebenfalls von „SLI Physics“, sprich der Nutzung einer kompletten Grafikkarte für die Physik in einem SLI-System, während die andere Karte das gewöhnliche Rendern übernimmt.

Link: http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/

Weiters hat [H]ard|OCP einen Artikel dazu Verfasst:
http://enthusiast.hardocp.com/article.html?art=MTA3OSwxLCxoZW50aHVzaWFzdA==

Was haltets davon? Jetzt wirds a bisserl extrem mit der ganzen Geldmacherei meiner meinung nach!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
M.tze schrieb:
Halte das ganze auch für Gedmacherei

Dito.
Zusätzlich zu Crossfire noch eine dritte karte??:stupid:
Die spinnen allesamt (ATI,Nvidia und diese Ageia typen auch)

Man sollte die Physikberrechnung in den zweiten Kern einer cpu auslagern.
Kommt für jeden billiger, bevor ich mir eine 300 euro teure pci karte kaufe, kauf ich mir um das selbe geld lieger eine dual core cpu ;)
 
Naja, aber wenn ichs mir so überleg: ATi ermöglicht es ja eine lahme Karte mit einer schnelle zu koppeln damit die lahme dann die Physik übernimmt... also 100€ für ne x1600 wär ich schon bereit auszugeben um dann Physik zu genießen (oder 50€ für eine x1300 :fresse:)

Hoffe das funzt auch so (wenn möglich ohne CrossFire Chipsatz :d), nicht wieder so leere Versprechungen
 
Hört sich schonmal nicht schlecht, nur da stellt sich wie immer die Frage was es denn wirklich bringt. Die Kommunikation zwischen den Karten kostet ja auch Performance und Ageia konnte mit ihrer Physikkarte auch nicht gerade glänzen... Naja, ich lasse mich gerne überraschen :d
 
Geldmacherei ohne Ende...
Die bisherigen Beweise, dass mit der Phyx Karte mehr Details zu sehen sind, sind alle hinfällig, weil die Aufnahmen teilweise aus anderen Winkeln aufgenommen wurden.

Die FPS bleiben gleich bzw. sinken teilweise sogar!

Das einzig Wahre wäre meiner Meinung nach wirklich Dual Core - das würde was bringen und da die breite Masse in den nächsten Jahren eh einen solchen Prozessor haben wird, wäre das ganz praktisch!
 
@ mr.freeman: die pci-karten kosten nur mehr €222 (asus mit 256mb ram) :d
die dürft (noch) nicht der renner sein
 
wenn das so weitergeht dann soll nach meinung von ati jeder pc mindestens crossfire mit 5 karten in paar jahren haben. finde das mittlerweile ziemlich lächerlich was die da abziehen...
 
Hehe ... Geldmacherei .. alle spinnen .. Aber wenns der Trend wird, kauf Ihr Euchs doch trotzdem :p :d
 
Ich glaube ATI zielt nicht darauf ab, dass sich alle auf einmal 2 oder 3 Grakas kaufen - denn das werden die wenigstens machen - sondern eher darauf, dass man bei einem Graka-Wechsel bei ATI bleibt und nicht zu NV wechselt.

Wenn man jetzt z.b. schon länger eine x1600 hat und sich eine neue Graka zulegen will, dann bleibt man doch eher bei ATI um dann die alte Karte noch für die Physikberechnung nutzen zu können, als die alte x1600 mit großen Wertverlust zu verkaufen. Das gleiche gilt auch für die x1800 und dem R600.
 
naja, also muss ich mir jetzt 2x (oder doch 3x) ati und 2x nvidia und noch ne physix karte reinhauen damit ich nun jedes neues game in voller pracht genießen kann ??

die sollen lieber mal ne standardschnittstelle entwickeln anstatt jeder sein eigenen shice zu entwickeln
 
Das Problem ist: Klassische Multi-Purpose-CPUs sind mehr oder weniger am Ende ihrer Entwicklung angelangt. Natürlich kann man den Takt immer noch etwas in die Höhe schrauben, aber wesentlich mehr als 10 GHz werden wir auf Silizium (bzw. Germanium etc.) - Basis wohl nicht mehr erleben. Genau das gleiche mit den Strukturbreiten: Auch die stoßen irgendwann an ihre Grenzen, schon jetzt ist ein Die-Shrink eine aufwendige Angelegenheit.

Was wir erleben werden, sind in nächster Zeit - und das ist schon fast eine nostalgische Entwicklung, wenn man an die Floating-Point-Coprozessoren aus der 286/386er Ära denkt - folgende Trends:

- massiv parallele Architekturen
- spezialisierte Coprozessoren, z.B. für Physik
- eine mehr und mehr verschwimmende Grenze zwischen GPUs und CPUs, z.B. ähneln schon heute die Shader-Einheiten eher CPUs

Insofern sind Graphikkarten für Physikberechnung, Multi-Chip-Graphikkarten usw. Symptome ein und desselben Trends. Ein sehr lesenwerter Artikel zu diesem Thema findet sich mal wieder beim Inquirer:

I am convinced AMD will buy ATI
 
Wenn man jetzt z.b. schon länger eine x1600 hat und sich eine neue Graka zulegen will, dann bleibt man doch eher bei ATI um dann die alte Karte noch für die Physikberechnung nutzen zu können, als die alte x1600 mit großen Wertverlust zu verkaufen. Das gleiche gilt auch für die x1800 und dem R600

die sache funktioniert dann aber auch andersherum:

wenn ich eine nvidia karte hab und eventuell auf ati umsteigen will dann überleg ich mir doch das zweimal denn dann bräuchte ich ja zwei wenn ich unbedingt das physik zeugs haben will, da ja nvidia auch etwas in der richtung anbieten wird.
 
@fogzone
Ja genau das ist es. ATI und NV versuchen so ihre Kunden an sich zu binden, und somit den Wechsel auf den jeweils anderen zu erschweren.

Wirkt diese zusätzliche Graka für die Physik nur unterstützend oder kann man damit erst ganz neue Features nutzen?
 
xerber schrieb:
@fogzone
Ja genau das ist es. ATI und NV versuchen so ihre Kunden an sich zu binden, und somit den Wechsel auf den jeweils anderen zu erschweren.

Wirkt diese zusätzliche Graka für die Physik nur unterstützend oder kann man damit erst ganz neue Features nutzen?

Die Frage ist falsch formuliert: Prinzipiell läßt sich nämlich jede Art von Physik auch mit der CPU berechnen. Nur ist eine CPU eben auf allgemeine Berechnungen spezialisiert, wohingegen auf GPUs und Physikprozessoren bestimmte Arten von Matrixtransformationen (eigentlich geht es ja um nichts anderes, als im 3dimensionalen Raum Schnittpunkte zu berechnen) sozusagen "fest verdrahtet" sind und so um ein Vielfaches schneller ablaufen.

Nehmen wir als Beispiel, daß die CPU die Physik von 5.000 Objekten berechnen kann, und eine dedizierte Physik-Lösung 120.000 Objekte. Das bedeutet, daß z.B. die CPU-Rechenleistung ausreicht, um die Physik der Spielfiguren und deren Aktionen mit der Umgebung zu berechnen (z.B. 1st Person Shooter, Rennspiel). Mit einer dedizierten Lösung sind dagegen Geröllhagel möglich, die dann noch an anderen Objekten abprallen etc.

Die Frage ist also:

Sind mit Physikkarten völlig neue Berechnungen möglich, die die CPU nicht beherrscht? Nein.

Ermöglicht die zusätzliche Rechenleistung besser aussehende, realistischere Effekte? Ja.
 
King Bill schrieb:
naja, also muss ich mir jetzt 2x (oder doch 3x) ati und 2x nvidia und noch ne physix karte reinhauen damit ich nun jedes neues game in voller pracht genießen kann ??

die sollen lieber mal ne standardschnittstelle entwickeln anstatt jeder sein eigenen shice zu entwickeln


Wieso ?

Nvidia 1x Multi-GPU Karte ab G80 2x GPU in einem Kern ,
und eine 2. kleine Karte für Effekt Physik.

So schlimm finde ich es nicht.

ATI mit 3x Karten iss nen bissl beschissener , wegen
Platz und nen 3. Graka Port.

Allerdings finde ich wie Du Scheisse das jeder seinen Brei kocht.

LOL , ich muss sagen mir wirds langsam auch zu "bunt" allerdings
wenn ich schöne Effekt Physik mit ner 100€ Karte fahren kann ,
lebe ich glücklich damit.

Greetz Koyote008
 
Zuletzt bearbeitet:
ich finde die lösung von ati etwas besser als die von nvidia da man eine highend-karte mit einer mainstream-karte koppeln kann die "grosse" karte rendert die "kleine" zaubert schöne physik auf den bildschirm....

kann mir eigentlich nichts besseres vorstellen...hoffe nur das alle drei varianten (ageia, havok fx, crossfire physik) in zukunft kompatible sind denn wenn jeder sein eigenes süppchen kocht bleibt der user auf der strecke siehe blue-ray vs hdd-dvd gerade das selbe im gange...
 
tommyh schrieb:
ich finde die lösung von ati etwas besser als die von nvidia da man eine highend-karte mit einer mainstream-karte koppeln kann die "grosse" karte rendert die "kleine" zaubert schöne physik auf den bildschirm....

kann mir eigentlich nichts besseres vorstellen...hoffe nur das alle drei varianten (ageia, havok fx, crossfire physik) in zukunft kompatible sind denn wenn jeder sein eigenes süppchen kocht bleibt der user auf der strecke siehe blue-ray vs hdd-dvd gerade das selbe im gange...

Kann man doch bei Nvidia auch.

Greetz Koyote008
 
?

dachte bis jetzt bei nvidia gehts nur über sli und da ists ja bekanntlich nicht möglich unterschiedliche gpu´s zu verwenden oder wird das mit havok fx anders? hab bis jetzt nichts darüber gelesen das sich da etwas ändert...
 
tommyh schrieb:
?

dachte bis jetzt bei nvidia gehts nur über sli und da ists ja bekanntlich nicht möglich unterschiedliche gpu´s zu verwenden oder wird das mit havok fx anders? hab bis jetzt nichts darüber gelesen das sich da etwas ändert...

Ich habe gelesen das es dasselbe geben wird wie bei ATI auch , nur
bei der Lösung kannst Du die 2.Karte nichtmehr fürs rendern nutzen.

Also hast Du nen Single-Graka System + ne Physik Graka bei ATI & Nvidia ,
als kleine Lösung , bei anderer GPU.

Aber für die Lösung interessiere ich mich nur wenn die Single Graka ne
Multi.GPU Karte wäre.

Greetz Koyote008
 
Zuletzt bearbeitet:
achso das wusste ich nicht dann sind die beiden varianten ja eigentlich gleich... nur gabs von der nvidia lösung in der form noch nichs zu lesen nur inform gleicher gpu´s.....
 
:lol: :lol: :lol:

langsam drehnen die dort durch, oder?

meine X1800XT reich mir voll und ganz.
Ich hab bis jetzt noch kein Spiel gehab, dass ich nicht auf den höhsten Grafik-Einstellung zocken konnte .

3 mal eine x1900xtx :lol: ->wozu?
 
naja sie zwingen dich ja ned dazu eine zu kaufen, es is nur die möglichkeit eingeräumt worden, falls du dir mal eine neue ATi karte kaufen solltest, kannst die alte als PhysiX karte laufen lassen, von dem her ein genialer schachzug.
 
Also, wenn ich mir diesen Thread so durchlese, erinnern mich die ganzen 'wer brauch das schon' schreier doch stark an die Zeit als die ersten 3D-Beschleunigerkarten, aka Vodoo 3D, auf dem Markt kamen. Da gab es auch genuegend Leute die genau die gleichen Argumente vorgebracht haben: 'Wer braucht denn schon sowas' und 'warum soll ich mir noch ne zweite Grafikkarte in den Rechner einbauen, mir reicht eine' oder 'das kann man alles genausogut von der CPU berechnen lassen'.
Schon interessant die Parallelen zu betrachen.

Ich fuer meinen Teil bin auf jedenfall gespannt ob sich diese Technik durchsetzen kann. Falls sie das schaft, dauert es sicher nicht mehr lange bis eine Physikbeschleunigung auf jeder 0815-Grafikkarte schon inklusive ist. Die Entwicklung mit der 2. Grafikkarte zur Physikbeschleunigung deutet ja schon stark in diese Richtung.

Passend zum Thema, hab gerade nochmal meine alte Diamond Monster 3D rausgeholt, geiles Teil. Schade dass man die nicht als Physikbeschleuniger nutzen kann. :shake:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh