ATIRadeon9800xt VS. NvidiaGeForceFX5950

be #digital

Neuling
Thread Starter
Mitglied seit
23.01.2003
Beiträge
466
hi leutz :)

hab mir mal ein paar benchmarks reingezogen und bin zu folgendem ergebniss gekommen:

die meisten tests der verschiedenen seiten decken sich so, zu sagen, das ATI karten in den versch. Modi wie AA, AF die bessere Performance bieten und nVidia karten einfach eine enorme rohleistung haben, dann aber viel einbüßen.

den besten test fand ich auf x-bit-labs, wo es auch sehr viele bildqualitätsvergleiche gibt.

I have already said this many times that modern graphics cards based on ATI Technologies chips have higher potential than those on GPUs from NVIDIA Corporation. In other words, if you’ve got a card with a RADEON in it, it is sure to be fast in more DirectX 9.0 games. Our testing in the AquaMark3 set confirms this statement. Both: expensive and mass graphics cards on RADEONs ensure good performance combined with excellent image quality.

As for NVIDIA, the company has corrected its mistakes by releasing the new driver, ForceWare. In fact, the release of a special code compiler was the only choice, since NVIDIA has no time to redesign the bulky NV3x architecture and is unlikely to have the time in the future. According to the test results, the ForceWare project is a success. The performance of NVIDIA’s GPUs has increased considerably. The performance gain is so high that NVIDIA regained the leadership in a number of tests. On the other hand, GPUs from ATI Technologies go unrivaled in the tests that use full-screen anti-aliasing and anisotropic filtering.

It means that if you want more fps, you may want to choose a GeForce FX 5950 Ultra card. Otherwise, if you go for a higher image quality, the RADEON 9800 XT and PRO may be your choice.

hört sich für mich nach einem sehr unparteiischen und korrekten fazit an.
dann bin ich mal auf gamestar gekommen (die haben ja immer die besten reviews :haha: )
und hab gleich mal das da gelesen:

NEUE GEFORCE FX SCHLÄGT RADEON XT

ATI hat es sich gerade an der Spitze bequem gemacht, da greift Nvidia mit neuen Geforce-FX-Chips und optimierten Treibern an.

wirklich keine objektive überschrift.. es wird einfach "noobmäßig" gesagt das die karte die andere schlägt, keine erklärung in welchen bereichen etc.

da liegt jetzt natürlich die vermutung nahe, dass die die karten entweder nicht richtig bzw. nicht mit AA, AF usw. testen.
bin dann zu der ausgabe des gamestar gekommen, und gesehn das die internetversion ja *eh* voll geschnitten ist.
in der Ausgabe ist davon die rede das ATI DX9 MIT!!! Microsoft entwickelt hat, und jetzt vom tisch ist (sozusagen) JETZT arbeitet nVidia schon an DX10 mit microsoft, und deshalb ist nVidia die "zukunftsichere" wahl. (woher die wohl ihre quellen haben :hmm: )
auf alle fälle wird ATI dann so in der Art hingestellt, dass sie nur so "erfolgreich" durch verschiedene "unheilige allianzen" sind. (Futuremark, Valve usw..)

nur mal um die glaubwürdigkeit von gamestar darzustellen...
-> und JA irgendwie regt es mich auf :grrr: ich kann es einfach nicht mit ansehn wenn man so ne sch* schreibt sry. musste ich mal loswerden ;)

mfg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ATi 4EVER Jungs!
 
nun es stimmt , das Gamestar immer sowas noobiges schreibt

aber Gamestar is ne Spieletester und keine Hardwaretester daher glaube ich eher PCGames Hardware als Gamestar, wobei aber bei der PCGames Hardware die Radeon 9800 Xt schneller war aber gesamt in Dx7 und Dx8 Games 9800 Xt = FX 5950 Ultra

mal dazu eine gewiße Aufklärung zur Geforce FX

meine Quelle is Anonym das ich drauf gekommen bin

Quelle Anonym
32Bit-Präzision ist eine Sache die Nvidia in sein CineFX-Architektur ja unbedingt haben wollte, bei längeren Shadercodes kann man das aber zunehmend eben vergessen weil es durch mehr Daten zu sehr bremmst, wenn Nvidia statt der DirectX9-HLSL-Vorgabe das deutlich aufwändigere und damit langsamere 32bit Format haben will bitte, wenn sie dachten ihre Universal-FPU sei besser - bitte.Sie haben sich eben getäuscht.Die Codevorgabe von Microsoft´s HLSL (High Level Shader Language) im Compiler liefert, scheint NVIDIAs CineFX Architektur eben nicht zu schmecken.Jetzt muss Nvidia sogar teilweise zu dem Trick greifen auf 16bit-Präzision runterzugehen um aber auch dann nicht schneller zu sein als die 24Bit-Präzision von ATI es da noch liefert und 16Bit ist ohne sichtbaren Qualitätsverlust eben nicht wirklick immer möglich, nochmal Pech für Nvidia, sie haben sich überschätzt als sie dachten mit ihrer Shader Sprache Cg könnten sie ihren eigenen DX9-Standart quasi schaffen, CG ist zwar DX9 HLSL konform aber die Chiparchitektur die dahinter steckt nicht wirklich - jene von ATI aber schon.Dazu kommt das die GeforceFX keine echte 8x1 Pipeline hat sondern nur eine 4x2. die 9800XT kann 8 Textureinstruktionen + ebensoviele Arithmetik Operationen Pro-Takt erledigen, diese Rohleistung kommt ihr in (fast) jeder Situation zugute.


Sehr schön hat es auch 3dcenter geschrieben in diesem Link :
http://www.3dcenter.de/artikel/cinefx/index6.php

"nVidia wird aber der Tatsache ins Auge sehen müssen, das sie nicht immer damit rechnen können, dass die Anwendung diesen Code liefert (im Falle der PS 1.4 ist dies sogar eine Gewissheit). Deswegen können wir hier unsere Forderung nur wiederholen, dass nVidia im Treiber eine Möglichkeit einbauen muss, die Shader für ihre Ansprüche umstrukturiert, ohne allerdings die Funktion zu ändern. Das Verfahren, das die aktuellen Treiber benutzen, mag als Übergangsnotlösung noch akzeptabel sein, solange die Anzahl der Applikationen überschaubar ist, welche für CineFX ungünstigen Pixelshadercode enthalten. Mit zunehmender Anzahl von Titeln, welche die neue Technologie nutzen, kann es jedoch nicht angehen, dass Nutzer von GeForceFX Karten jedes Mal erst auf Treiber warten müssen, die entsprechende Austauschshader enthalten."

...dann wünsch ich Nvidia viel Spass bei ewigen Treiber-Notlösungen für eine einfach schlechtere Architektur die überheblichen Marketingansichten zu verdanken ist.[/B]

ich weiß , es ist ein langer Beitrag
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh