7950gx2 oder X1900XTX??

Status
Für weitere Antworten geschlossen.
Beschleunigen schrieb:
die AA blafasel sollte man sich echt mal auf der zunge zergehen lassen..

LOL echt. erstens: 2x AA nutzt keine sau mit einer hochpreiskarte. dann kommt das 4x AA, das auf beiden GPUs (ATI und NV) ein komplett identisches samplemuster verwendet - nur dass es spiegelverkehrt ist.

dann bietet ati noch einen sehr effektiven 6xAA modus, wo NV nur einen hybriden zu bieten hat (8xS). wieviele user gibt's hier wohl, die mit 8xS ein aktuelles spiel spielen können ??

dass AA mit HDR nicht funzt (auf NV) ist ein fakt - da kann man 1000mal schreiben, dass man es auch ohne aushält. ich halte oblivion auf NV nicht aus, ohne AA. dazu gibt's in dem spiel zuviel shader-aliasing. tjo, und nv baut zusätzlich noch texturflimmern ein, weil deren 16x AF in den meisten winkeln nur 2x AF anwendet. kleinreden kann man das nicht, weil auch das ein faktum ist.


(..)

mfg
tobi


BF2 (mein Hauptgame) nutzt ja soviel HDR, da verpass ich richtig was :rolleyes:
Oblivion, da ieht man das aliasing auf 1280x1024 kaum, ist zumindest mein Eindruck, bis das echte HDR kommt hab ich eh nen neues sys.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zitat von Haris83




Meine Frage nun das mit dem HDR und kein AA stimmt das wirklich ? da eine normale 7900GT doch HDR und AA packt?
Nein, auch mit der 7900GT funzt das nicht...

keine NV karte kann MSAA auf ein FP16 rendertarget anwenden. das ist eine technische beschränkung der GPU. da kannst du soviele GPUs in reihe schalten, wie du lustig bist. es geht einfach nicht.

die versuchen es mit quantität, statt qualität. massig viele AA modi, massig viele frames, massig viel kack-optik und massig viel.. tjo.. was eigentlich? achja, massig viele (beta)treiber für testwütige gamestarleser.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Beschleunigen schrieb:
keine NV karte kann MSAA auf ein FP16 rendertarget anwenden. das ist eine technische beschränkung der GPU. da kannst du soviele GPUs in reihe schalten, wie du lustig bist. es geht einfach nicht.

die versuchen es mit quantität, statt qualität. massig viele AA modi, massig viele frames, massig viel kack-optik und massig viel.. tjo.. was eigentlich? achja, massig viele (beta)treiber für testwütige gamestarleser.


(..)

mfg
tobi
Wenn du es mal mit Massig viel Hirn versuchen würdest wäre der Sache schon geholfen. Dei Betatrieiber sind besser als bei ati ewig uafn neuen zu warten der dann immer noch net die Fehler beseitigt.
 
bei meiner ATI sehe ich momentan gar keinen grund, auf einen treiber zu warten..

bei NV war das anders.. wir erinnern uns? tobi hat zwei TFTs, einen beamer und einen fernseher, wobei er jedes gerät mit einer anderen auflösung und bildwiederholfrequenz ansteuert..

wir denken weiter... tobi rendert overlay-effekte und dreht filme.. ob der wohl weiss, wovon er redet und wie man einen treiber abseits der spiele bewertet.. ?

schmeiss mal dein eigenes hirn an - die beta treiber sind treiber, die die welt nicht braucht.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Beschleunigen schrieb:
das AA blafasel sollte man sich echt mal auf der zunge zergehen lassen..

LOL echt. erstens: 2x AA nutzt keine sau mit einer hochpreiskarte. dann kommt das 4x AA, das auf beiden GPUs (ATI und NV) ein komplett identisches samplemuster verwendet - nur dass es spiegelverkehrt ist.

dann bietet ati noch einen sehr effektiven 6xAA modus, wo NV nur einen hybriden zu bieten hat (8xS). wieviele user gibt's hier wohl, die mit 8xS ein aktuelles spiel spielen können ??

dass AA mit HDR nicht funzt (auf NV) ist ein fakt - da kann man 1000mal schreiben, dass man es auch ohne aushält. ich halte oblivion auf NV nicht aus, ohne AA. dazu gibt's in dem spiel zuviel shader-aliasing. tjo, und nv baut zusätzlich noch texturflimmern ein, weil deren 16x AF in den meisten winkeln nur 2x AF anwendet. kleinreden kann man das nicht, weil auch das ein faktum ist.

es gibt bei NV dann noch die möglichkeit inoffizielle AA modi zu verwenden, nur kosten selbige leistung on mass und wirklich kompatibel sind sie auch nicht.

mein erster ATI treiber war der CAT6.5. damit hab' ich nirgends darstellungsfehler. battlefield2 hab' ich auch schon auf nem 6800Ultra und danach auf zwei 6800GTs@SLi gespielt. nie war das bild sauberer als heute auf der XTX (eine ATI karte). warum? weil die auf HQ einfach ein sauber gefiltertes bild liefert. nix mit matschtexturen neben geschärfter, weil das NV AF ZUUUUUU winkelabhängig ist.

BILDQUALITÄT BEDEUTET: EIN WINKELUNABHÄNGIGER ANISOTROPER FILTER SCHÄRFT DIE TEXTUREN

ich hab' ein bissl das gefühl, dass einige gar nicht wissen, wovon geredet wird, wenn das wort bildqualität fällt.


(..)

mfg
tobi



Endlich jemand der´s schnallt. ATi hat einfach eine bessere BQ, auch wenn manche mit nV-GPU bahaupten das wäre nicht so oder nur ein wenig.
 
wird Zeit das der G80 kommt, und der kommt vor den r600.

Da werde ich erstmal herzhaft lachen weil die ATI FanBoys dann wieder was zum flamen suchen da sie nicht mehr mit den HDR gelabere und BQ weiter kommen.

Ich denke nicht das Nvidia die Fehler vom alten Chip erneut einbauen wird

aber nun :btt:
 
@Beschleunigen+GA-Thawn

Habt Ihr 2 es eigendlich mal bald mit eurem hin und her ? Der Thead wird ja bald nur noch von euch 2 bestritten ...

Was das Thema anbelangt - Das es so viele (Beta)Treiber von NV gibt ist einerseits gut andererseits immer verwirrend ... welcher ist denn nun besser - welcher hat mehr Frames ?
Ich persönlich habe ja selbst eine NV40 und werde bald wenn der Conroe kommt auf eine x1900xt aufrüsten weil mir das geflimmere + BQ bei NV wirklich langsam nervig ist. btw: ich hatte vor der NV40 eine 9700pro

Nunja aber ich denke nun kann hier mal wirklich Schluss gemacht werden - weil Lemml ja denke ich mal seine Entscheidung zugunsten der 7950GX2 schon längst getroffen hatte.
 
Zuletzt bearbeitet:
GA-Thrawn schrieb:
Halbwissen eher bei dir, das Schattenprob bei BF2 und Oblivion leigt an QTI, warum sonst gehts bei NV ? :rolleyes:

Warum solltem an sich nicht die Karte kaufen mit der man keine Probleme hat selbst wenn es so wäre (was es nicht ist) das dei Softwareherstelelr es schuld sind ? NV keine Probs, ATI Probs, was kauft man da wohl ? Im übrigen wird die minimal bessere BQ von ATI durch das schlimme aa und die schatten komplett aufgehoben und ins negative verkehrt.

Oh je, schlimmeres Fanboygebashe gibts ja garnicht mehr. Hast Du eigentlich diesen Unsinn nochmal durchgelesen bevor Du auf 'Antworten' klickst?

[x] Nein, weil ich einfach so Zeug gern schreibe und ATI doof finde
[x] Nein, weil ich darauff vertraue was ich beim Hörensagen mitbekomm

Glückwunsch, Du hast von 100 möglichen Punkten 200 geschafft :lol:

Rauwman schrieb:
aber 12bit HDR packt die NV mit AA und das macht was kein U gegenüber dem 16bit.... :)

Du übersiehst da eine Kleinigkeit, die Spieledesigner/programmierer.
Die halten sich an die DirektX Richtlinien und die sagen nun mal wie HDR auszusehen hat. Das Spielchen hatten wir doch schon mal beim NV30/35/38, wer hat da den kürzeren gezogen?
Und nein, es ist ein rechnerisch großer Unterschied 12vs16bit.
 
hallor schrieb:
wird Zeit das der G80 kommt, und der kommt vor den r600.

Da werde ich erstmal herzhaft lachen weil die ATI FanBoys dann wieder was zum flamen suchen da sie nicht mehr mit den HDR gelabere und BQ weiter kommen.

Ich denke nicht das Nvidia die Fehler vom alten Chip erneut einbauen wird

aber nun :btt:

der wird von der ati antwort wie üblich geschlagen und dann erzählen nv-fanboys wieder märchen im hardwareluxx...
 
Zuletzt bearbeitet:
das werden wir sehen, normalerweise kopiert ja ATI alles von nvidia :lol:
 
normalerweise kopiert ja ATI alles von nvidia

stimmt. die bauen seit ewigkeiten alles nach. nur irgendwie schaffen die es dann mit ihrem plagiat etwas auf die beine zu stellen, das den endkunden dauerhafter, langfristiger zufriedenstellt.

als wenn sie sich das produkt erstmal angucken und dann versuchen, noch eins draufzusetzen.. wie die geschichte mit dem HDR+AA.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
also mich hat die ATI nicht dauerhaft zufriedengestellt :bigok: und so geht es nich nur mir, diese HDR+AA zieht nich, schon wegen der kompatibilität werden es sowieso nich alle Spiele integriert haben und dank dx10 werden sowieso die dx 9 Karte in dx10 spielen nutzlos sein.

Dann lieber eine schlellere GK als eine GK die man sowieso nicht mehr nutzen kann, und das gilt für beide
 
Zuletzt bearbeitet:
hallor schrieb:
also mich hat die ATI nicht dauerhaft zufriedengestellt :bigok: und so geht es nich nur mir, diese HDR+AA zieht nich, schon wegen der kompatibilität werden es sowieso nich alle Spiele integriert haben und dank dx10 werden sowieso die dx 9 Karte in dx10 spielen nutzlos sein.

Dann lieber eine schlellere GK als eine GK die man sowieso nicht mehr nutzen kann, und das gilt für beide
Sorry, aber wenn ich mir Deine gesammten Beiträge (sind ja zum Glück nicht viele) durchlese, dann frag ich mich, ob Du das auch selbst glaubst....soviel Müll in nur 7 Beiträgen:rolleyes:
 
Zuletzt bearbeitet:
Beschleunigen schrieb:
stimmt. die bauen seit ewigkeiten alles nach. nur irgendwie schaffen die es dann mit ihrem plagiat etwas auf die beine zu stellen, das den endkunden dauerhafter, langfristiger zufriedenstellt.

als wenn sie sich das produkt erstmal angucken und dann versuchen, noch eins draufzusetzen.. wie die geschichte mit dem HDR+AA.


(..)

mfg
tobi
Komisch, meine 9700 war zwar gut, die Treiber haben mcih aber so aufgeregt das ich mit der 6800 U zu NV gewechselt bin und da gebleiben, wer hat mich wohl zufriedener gestellt ? :heuldoch:

Im übrigen stimmt es schon das NV mesit zuerst Neuerungen einführt und ATI dann nachzieht, ähnlich wei bei Intel nud AMD, NV ist nunmal grösser.
 
Also erstmal, ich hatte selbst ne 9700er und nie Probleme mit den Treibern, ich denke mal, das Du da irgendwie nicht durchsteigst...hättest Dir das evtl mal erklären lassen sollen ;)
Dann mit zuerst Erneuerungen? Wo denn, meinst Du etwa die PS3.0 Unterstützung die doch nicht so richtig 100% funktionierte? Oder besser gesagt, was habe ich von eine 6800GT mit PS3.0 wenn die es nicht mal richtig kann und auch zu schwach für HDR ist?
Einige schreiben einen Quatsch, das ist schon echt krass.....
 
Zuletzt bearbeitet:
Tectrex schrieb:
Also erstmal, ich hatte selbst ne 9700er und nie Probleme mit den Treibern, ich denke mal, das Du da irgendwie nicht durchsteigst...hättest Dir das evtl mal erklären lassen sollen ;)
Dann mit zuerst Erneuerungen? Wo denn, meinst Du etwa die PS3.0 Unterstützung die doch nicht so richtig 100% funktionierte? Oder besser gesagt, was habe ich von eine 6800GT mit PS3.0 wenn die es nicht mal richtig kann und auch zu schwach für HDR ist?


Also mein HDR mit meiner 6800 U funzte bei Oblivion, AOE 3 usw super und performance hatte die auch genug.
Vielelicht warst du zu 9700 Zeiten noch zuk lein um es zu bmerken aber viele Demos und auch z.b. Far Cry konnte man erst garnich (bzw sehr schlecht)spielen bis nen neuer ATI Treiber kam der das behob, das gleiche bei Doom 3. heute mag es besser sein ,abr MIR hat das damals gereicht.
ich hab HDR genossen während ATiler immer noch rumlaberten das bräuchte man garnicht, blabla bla.
 
GA-Thrawn schrieb:
Also mein HDR mit meiner 6800 U funzte bei Oblivion, AOE 3 usw super und performance hatte die auch genug.
Vielelicht warst du zu 9700 Zeiten noch zuk lein um es zu bmerken aber viele Demos und auch z.b. Far Cry konnte man erst garnich (bzw sehr schlecht)spielen bis nen neuer ATI Treiber kam der das behob, das gleiche bei Doom 3. heute mag es besser sein ,abr MIR hat das damals gereicht.
ich hab HDR genossen während ATiler immer noch rumlaberten das bräuchte man garnicht, blabla bla.
Also wenn Du schon mit dem Alter kommst, nach Deiner Schreibweise scheinste eher gerade mal halb so alt zu sein wie ich ;)
Ich hatte selbst ne 6800Ultra (hier im Forum verkauft) und komischerweise reichte mir die Leistung mit HDR nicht...ok wenn Du mit einer so niedrigen Leistung zufrieden bist, ist das ja ok:fresse:
 
Zuletzt bearbeitet:
Tectrex schrieb:
Also wenn Du schon mit dem Alter kommst, nach Deiner Schreibweise scheinste eher gerade mal halb so alt zu sein wie ich ;)
Ich hatte selbst ne 6800Ultra (hier im Forum verkauft) und komischweise reichte mir die Leistung mit HDR nicht...ok wenn Du mit einer so niedrigen Leistung zufrieden bist, ist das ja ok:fresse:


Wenn die Wahl HDR mit sehr geingen Einschrenknugen oder garkeins wie zur 6800U/ X800 Zeit lautet, bin ich für ersteres.

Ich kann uach gerne auf einen gediegeneren Umgang mit der Deutschen Sprache umsteigen, dachte nur das andere erschliesst sich dir deines Alters am Besten.
 
GA-Thrawn schrieb:
Wenn die Wahl HDR mit sehr geingen Einschrenknugen oder garkeins wie zur 6800U/ X800 Zeit lautet, bin ich für ersteres.

Ich kann uach gerne auf einen gediegeneren Umgang mit der Deutschen Sprache umsteigen, dachte nur das andere erschliesst sich dir deines Alters am Besten.

Wenn überhaupt lief Far Cry mit einer 6800 Ultra mit HDR grade so noch *gut*.Oblivion und die anderen neuren Spiele sind unspielbar auf einer 6800 Ultra mit HDR siehe Benchis.Ich hatte damals auch ne 6800 GT in nachhinein hätte ich mir lieber ne X800 gekauft die kann heutige Spiele hauptsache noch mit guten Frames darstellen die 6800 Serie bringt bei denn neuen Spielen nichts mehr auf die Beine.

Mit einer X850 XT kann man heute fast jedes Spiel noch auf Hoch zocken mit einer 6800 geht das sogut wie garnicht mehr siehe Benchis.
 
Zuletzt bearbeitet:
Man kann es auch übertreiben, so viel nehmen sich die 6800Ultra und die x850xt nun auch nicht...
 
Also eine X850XT ist schon deutlich schneller als eine 6800 Ultra.

Bei Call of Duty 2, war es mit der 6800Ultra fast nicht spielbar auf High.
Die X850XT schaffte alles mit High und auch noch AA u. AF dazu.

Bei Trackmanie Sunrise waren es Welten.
Mit der 6800Ultra ruckelte es mit 4AA + 16AF mit der X850XT lief alles flüssig.
Die Durschnitts-FPS waren mit ein X850XT bei ca.80 und bei einer 6800Ultra nicht einmal mit 40 FPS.

Oblivion ist mit einer X850XT alles High flüssig spielbar, natürlich ohne AA und AF.
 
Zuletzt bearbeitet:
Di Canio schrieb:
Wenn überhaupt lief Far Cry mit einer 6800 Ultra mit HDR grade so noch *gut*.Oblivion und die anderen neuren Spiele sind unspielbar auf einer 6800 Ultra mit HDR siehe Benchis.Ich hatte damals auch ne 6800 GT in nachhinein hätte ich mir lieber ne X800 gekauft die kann heutige Spiele hauptsache noch mit guten Frames darstellen die 6800 Serie bringt bei denn neuen Spielen nichts mehr auf die Beine.

Mit einer X850 XT kann man heute fast jedes Spiel noch auf Hoch zocken mit einer 6800 geht das sogut wie garnicht mehr siehe Benchis.
Warum schafft das dei x800 serie ? Richtig weilse kein PS 3.0 hat und kein HDR berechnen muss. Ich konnte bis vor 2 monaten uach noch alles gut spielen MIT HDR, auch oblvion auf 1024x768 mit DR und fast alem high, was du schreibst ist also stark übertieben.
 
Was bringt mir denn die 6800Ultra, wenn das Spiel nicht flüssig läuft?
Darum ist die X850XT hier eindeutig "besser", auch wenn Shader 3.0 und HDR fehlt,
aber es läuft alles flüssig im Gegensatz zu der 6800Ultra Karte.

...Und erzähl mir nicht ich habe keine Ahnung, denn ich hatte beide Karten im PC.
 
Zuletzt bearbeitet:
Wenn es nach euch geht ist ATI immer besser.
Das eine mal ist sie besser weil sie AA und HDR kann (frag sich blos wie lange noch, nachdem mal ein paar neue Spiele raus sind) [X1800/X1900]
und das ander mal weil sie alles flüssig darstellen kann (und auf einmal ist das fehlende SM3.0 egal). [x800/x850]

Und nur weil die GX2 / GTX etc. kein AA und HDR kann wird sie gnadenlos schlecht gemacht! :shake:
 
Zuletzt bearbeitet:
Hier gehts doch um 6800 Ultra Vs. X850XT, und da hat die Ati Karte ganz einfach die Nase weit vorne.
Eine 6800 Ultra hat bei FEAR enorme Probleme, bei alles auf High, eine X850XT schafft dies jedoch locker + AA und AF.
Dei 6800 Ultra wäre eigentlich besser da Shader 3.0 und HDR, aber die Karte ist dafür einfach zu schwach, deshalb X850XT.

Für mich persönlich ist Nvidia seit der Geforce 4 Reihe den Ati-Karten "unterlegen".

Geforce FX - 9000er Serie:
5950 Ultra Vs. 9800Pro oder XT -> Sieger Ati

Geforce 6 - X800er Serie:
6800 Ultra Vs. X850XT oder PE -> Sieger Ati

Geforce 7800 - X1800er Serie:
7800GTX Vs. X1800XT -> Sieger Ati

Geforce 7900 - X1900er Serie:
7900GTX Vs. X1900XTX -> Sieger Ati
 
Zuletzt bearbeitet:
Die X1900 wird für zukünftige Spiele mit HDR auch zu schwach sein wo man mit einer GX2 noch alles auf high spielen kann.
 
.... Also nochmal, eine GX2 ist doch eine SLI-Karte.

Aber wenn du es nötig hast eine Ati Karte mit 2 Nvidia Karten zu "vergleichen" dann machs halt.

Es kommt ja noch der R580+, also eine X1950XTX Karte.
Sollte im Spätsommer soweit sein.

Dann kommt der G80 von Nvidia und dann erst der R600 von Ati.
 
Zuletzt bearbeitet:
oblivion und ein einzelner NV40 sind ein schlechtes beispiel.
das kann man zwar in 2560x1024pixeln genausogut/ genausoschlecht spielen, wie auf 1280 pixeln, aber das bild ist echt kacke. HDR funzt zwar, aber man kann die karte nicht auf Q oder HQ laufen lassen.. damit flirrt dann alles und flimmert.. AA kann man ja dank GPU beschränkung nicht zusätzlich reindrücken.
beim NV40 ist es schon sinniger mit bloom und AA zu spielen, weil man dann wenigstens keinen sehschaden bekommt. am besten man beschränkt sich auch auf 1024pixel und hat dann etwas luft für kleines bis mittleres AA.


TES4, HDR, NV40 single

TES4, HDR, G71GTX single, schneller aber auch nicht wirklich besser

FarCry lief bei mir damals recht gut auf dem NV40. auch mit HDR. die screenshots liegen ja noch auf meiner website und ein framecounter ist auch eingeblendet..



im prinzip war aber die mäßige HDR leistung schuld, dass ich überhaupt einen zweiten NV40 gekauft habe - muss man zugeben. der NV40 taugt mehr im doppelpack.

mit zweien kann man sogar noch verhältnismäßig gut TES4 spielen (zumindest ohne auf leistung od. hohe leistung umschalten zu müssen od. auf native auflösung des TFTs zu verzichten). wenn man auf HDR verzichtet, statt dessen mit bloom und AA vorlieb nimmt und den AF etwas begrenzt (am besten ganz abschalten od. auf 2x forcieren), konnte man sogar ein halbwegs erträgliches bild hinbekommen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
[Rain] schrieb:
Und nur weil die GX2 / GTX etc. kein AA und HDR kann wird sie gnadenlos schlecht gemacht! :shake:

Ich wollte eigentlich nicht posten, aber jetzt muss Ich mal was dazu sagen. Anscheinend vergesst ihr alle einfach zu schnell.

Die ganzen Pro/Contra NV oder ATi Argumente, sind vor ca 2 Jahren fast die selben gewesen, nur umgedreht. Damals war ATi kühler, hatte weniger Features, war allerdings mit der X800 der 6800er in Sachen Speed deutlich überlegen, vor allem bei 1280*1024 und vollem AA/AF.

nVidia hingegen war lauter, heißer, hatte mehr Features genauso wie jetzt ATi, allerdings ist ATi mit der X1900 speedmäßig auch ungeschlagen bei den normalen Grakas mit einer GPU.

Wenn man das hier so alles liest, meint man jeder will seine Karte und die dazu gehörige Firma verteidigen. Es gibt aber keinen Gewinner bei den HighEnd Karten, dafür ist eine X1900/7900GTX nicht perfekt. Die nVidias sind halt sehr kühl und von Haus aus leise, das kann schon ein Argument sein, für Leute ohne Wakü. Allerdings ist eine X1900 nicht so laut und heiß wie mancher nVidianer es immer hinstellen zu versucht. Ich hatte meine Karte selbst 2 Wochen mit dem Lukühler in Betrieb, im Windows Betrieb ist sie eigentlich ganz ok, im Spielen hat man sowieso Headset auf, da störts dann nicht mehr.

Das jetzt die 7950GX2 immer noch technisch rückständig ist, ist natürlich schon ein negativer Punkt. Früher war das PS3 Argument der 6800er auch das Argument schlechthin und X800er wurden immer als unbrauchbar für die Zukunft abgestempelt. Das Kuriose, PS3 war Anno 2004 noch so weit weg, es war eigentlich kein Argument. HDR und AA gibts auch jetzt nicht so häufig, aber es ist doch schon eine Beschränkung, denn wer will schon noch auf AA verzichten? HDR und AA kommt schneller als PS3.

Es ist schon lustig wie schnell manche umschwenken auf Argumente, die sie früher als Nebensache abgetan haben. Hats einen Nvidia Fanboy früher gestört, wie heiß die Karten wurden? Nein! Hats einen ATi Fanboy gestört, dass eine X800 kein PS3 konnte? Nein! Es wird immer alles so hingedreht wies derjenige möchte. Ich will jetzt nicht sagen, Ich hätte eine reine Weste, Ich diskutierte auch öfters viel zu energisch beim Thema NV vs ATi, aber es ist Schwachsinn sich so auf einen Hersteller zu fixieren und den anderen nieder zu machen. Beide sind gut, NV und ATi haben beide ihre Vor-und Nachteile.

Ich für meinen Teil hätte keine 790GX2 mehr gekauft, eine X1900XT reicht für alles, sie ist auch im Vergleich richtig billig. Die Karte ist schnell, fitt für die Zukunft, hat allerdings den Nachteil des Stromhungers und des Lüfters.

Das wichtigste Argument für den Kauf der ATi, war für mich das HQAF. Ich weiß ja nicht obs manche nicht sehen, oder sehen wollen, aber es fällt doch schon auf. Da Ich sehr viele Rennsimulationen ala LFS, GTR, GTL spiele, brauche Ich eine Karte mit einem fast perfektem AF, das bietet nVidia leider nicht. Das will nVidia anscheinend auch nicht anbieten.

Und das Treiber Argument, was ist denn an den ATi Treibern bitte so schlecht? Meine erste ATi war eine 9500@9700, schon damals waren die Treiber sehr sehr gut. Dieses schlechte Treiber Argument seitens ATi ist doch kalter Kaffee. Ich nutze seit der X1900XT, sogar das Catalyst Control Center und bin auch zufrieden damit.
 
Zuletzt bearbeitet:
P0ng1 schrieb:
Für mich persönlich ist Nvidia seit der Geforce 4 Reihe den Ati-Karten "unterlegen".

Geforce FX - 9000er Serie:
5950 Ultra Vs. 9800Pro oder XT -> Sieger Ati

Geforce 6 - X800er Serie:
6800 Ultra Vs. X850XT oder PE -> Sieger Ati

Geforce 7800 - X1800er Serie:
7800GTX Vs. X1800XT -> Sieger Ati

Geforce 7900 - X1900er Serie:
7900GTX Vs. X1900XTX -> Sieger Ati

eigentlich wollte ich ja nichts mehr schreiben, aber das ist einfach müll.

Geforce 7800 - X1800er Serie:
7800GTX Vs. X1800XT -> Sieger NVidia

Geforce 7900 - X1900er Serie:
7900GTX Vs. X1900XTX -> Sieger Nvidia

--> siehe Grafikkarten topliste

ist doch klar das die x850xt schneller als eine 6800 ultra ist, denkst du das ati 4-6 monate nach der veröffentlichung der ultra eine schlechtere grafikkarte bringt?!?!

edit: eine X1900XTX ist nicht immer die beste singelkarte . Eine 7900GTX ist sehr nahe an ihr dran und zum Teil auch besser.

--> siehe topliste

thade schrieb:
Früher war das PS3 Argument der 6800er auch das Argument schlechthin

zur 6800er zeit war PS3 das hauptargument, nur hat man es als zocker eingestellt (z.b. ridddick) waren die games nicht spielbar. zum glück hat sich das geändert, guckt euch nur Prey an, das game ist super programmiert.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh