• Hallo Gast!
    Noch bis zum 20.07. kannst Du an unserer Umfrage zum Hersteller des Jahres teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal eine Grafikkarte Eurer Wahl für bis zu 1.000 EUR - über eine Teilnahme würden wir uns sehr freuen!

[Kaufberatung] XFX 8800GTS (G92) oder ATI 38070 X2

Wie auch immer... :banana:

Wenn du was zum Basteln und rumprobieren suchst, dann biste bei der X2 bzw. CF richtig.

So sieht es aus .

Mir hat damals SLI richtig spass gemacht da mann endlos einstellen kann :9)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
na super, jetzt bin ich ja total verunsichert!
eig war ich ja bei der 8800gtx schon sicher! eigentlich.... -.-

so also, vllt noch folgende infos.
der pc wird erst in 1,5 monaten bestellt.
hw wirds wohl die werden:
-q9450
-4 gb geil 1066
-asus x48 rampage
-corsair 520 ( ist schon da)
da ich eben den 27,5 zoller habe, dachte ich yeah 8800gtx ist billig und super für höhere auflösungen. jetzt seh ich im test,dass die 8800gts(g92) doch wohl besser sein soll.
also doch die gt92ger gts!?!
aber es gibt ja noch die x2. aber die ist eig mir echt fast zu teuer und ewig rumzuwursteln bist man die leistung auch wirklich hat, ist auch nich so der hit.
aber vllt fällt der preis im nächsten monat ja und es kommen bessere treiber raus...
ahhh
*verwirrt*
oooohh nei
 
Zuletzt bearbeitet:
@ PoPoPir4t
Wiso verwirt bei hoher Auflösung (1920x1440 4xAA/8xAF) liegt die 8800GTX doch vor der GTS?
 
sry, habs gerade noch mal angeschaut, scheine wohl farbenblind zu sein...
dann steht jetzt eben die frage x2/gtx im raum oO ;)
 
die treiber probleme bei der 3870 X2 sind ja mittlerweile besser geworden (oder?)
Nein. Sie haben noch nichtmal begonnen, weil es noch keinen richtigen, für MGPU ausgelegten Treiber auf ATI-Seite gibt.


Also tut mir leid, aber das is einfach nur kollosaler UNSINN!

Ich weiss auch, warum ihr diesen Denkfehler unterliegt:

  • In dem von euch gezeigten Test wird ein 32-bit-DX9-SAMPLE-TREIBER für die ATI benutzt, die SM4.1 Grakas legen aber erst ab DX10 und einem 64-bit-OS richtig los, zudem sind Beta-Treiber nie wirklich verlässlich
  • Ihr substituiert oft die 3870 X2 mit der 3870 , das sind 2 komplett verschiedene GPU-Chipsätze (RV 670 und RV 680)
  • Es wir momentan praktisch nur eine GPU von zweien benutzt, das ist dann doch schon ein grosser Unterschied
Auf tomshardware.de kann man sie Leistungsdaten der RV670 anschauen, und dort ist sie tatsächlich fast genauso lahm wie eine 8800 GTS ... die Gründe dafür hab ich bereits aufgelistet. Mit einem entsprechendem Treiber und 64bit sieht das beim RV680 ganz anders aus, das kann ich euch versichern.

Jemand hier, der ohne OC mit einer 8800GTS mehr als 13000 Punkte in 3DMark06 erreicht? Nein? Seht ihr? Hihi .... übrigens hab ich die X2

dann steht jetzt eben die frage x2/gtx im raum oO
ganz einfach: in Zukunft wird die 3870 X2 die gtx überflügeln, was sie übrigens jetzt schon teilweise macht. Siehe oben. Wer sich immernoch ne GTX holt macht schlichtweg einen Fehlkauf

Wenn du was zum Basteln und rumprobieren suchst, dann biste bei der X2 bzw. CF richtig.
Und was hat CF mit der X2 zu tun?? Nichts ... die X2 hat zwar einen CF-Anschluss, aber ob man den benutzt und ne zweite X2 dranhängt hat ja wohl nichts mit seiner Fragstellung zu tun.
MGPU != CF!
 
Zuletzt bearbeitet:
@ tha_specializt
Punkte in 3Mark 06 als Messlatte für Grafikkarten sind unsinn.
Als Fehlkauf kann mann die alte GTX bei dem Preis nun wirklich nicht bezeichen.
Sicher ist eine X2 schneller hat ja auch zwei GPUs und dazwischen einen Brückenchip.
 
@ tha_specializt
Punkte in 3Mark 06 als Messlatte für Grafikkarten sind unsinn.
Schön kannst du den Fehlglauben anderer vertreten. 3DMark ist ein mittlerweile renommiertes Benchmark-Programm, die Hersteller reizen ganz gezielt aktuelle Technologien aus und erzeugen somit ein Spieleähnliches Umfeld. Nun zu behaupten, dass ausgerechnet 3DMark keinen Aufschluss über die Leistung einer 3D-Grafikkarte gibt ist erstens ziemlich kurzsichtig und zudem beweist es, dass man selbst keine eigene Meinung hat. Ob es nun wirklich DAS Test-Tool ist bleibt zu beweisen, aber Rückschlüsse kann man ganz sicher ziehen. Man kann schon Rückschlüsse ziehen, wenn man die benötigte Zeit zum booten vergleicht, allerdings nur in ähnlichen Software und Hardware-Konstellationen.

Der Blödsinn "3DMark sagt nichts aus" ist mittlerweile recht alt und wurde schon zu Beginn der 3D-Zeiten gebrabbelt, ganz fern jeder Praxis und fern jeder Beweise. Ein 3DMark-Punktestand (Standardeinstellungen) zwischen 6000 und 9000 ist schon seit Jahren die aktuelle Mittelklasse, ab 10000 sind wir im Highend-Bereich und alles weniger als 5000 könnte man evtl. als Low-End betiteln. Dies kann man auch sehr gut in der Praxis überprüfen: mit einer X800GTO hatte ich unter 3DMark03(oder hiess es 04?) ca. 7400 Punkte ... entsprechend konnte ich auch eine Zeit lang alle Spiele auf "Medium"-Einstellungen zocken ... ich hätte noch viel mehr Beweise, aber die Beweisführung überlasse ich dir selbst, du wirst ganz überrascht sein, zu sehen wie sehr 3DMark die Wahrheit sagt (innerhalb der Toleranz)

Wenn du etwas anderes sagst, dann muss dir wohl leider die Einsicht in Fakten fehlen, sogar in der Unix-Gemeinde gibt es Funktionstests (fgl_glxgears), die zwar nur wenig Aufschluss aber immerhin einen Anhaltspunkt in Bezug auf Graka-Leistung
("habe ich ein absolut nicht geeignetes Gerät oder ein mehr oder weniger geeignetes Gerät?")
liefern ... und dieser wird global auch als socher akzeptiert.

die allerersten 3DMark-Versionen mögen fehlerhaft und teilweise sehr differenzierte Ergebnisse geliefert und dementsprechend Unmut über das Programm verbreitet haben, das ist aber schon lange Geschichte. Mittlerweile bewegen sich die Toleranzen im Bereich kleiner 10%, noch genauer is nich wirklich das wichtigste der Welt.

Du glaubst doch nicht ernsthaft, dass eine Firma jahrelang funktionslosen und aussagslosen Unsinn produziert? :stupid:

Es tut mir leid, falls du dich angegriffen fühlst aber deine Worte sind, ebenso wie die vieler anderer, einfach nur nachgeplappert und unwahr. Absolute Lösungen gab es nie, gibts nich und wirds nie geben, etwas weniger allerdings sehr wohl. In Verbindung mit evtl. Sysmark und einigen Stabilitätstest / Fehlerkorrekturtests wie Prime95 und memtes86 ist 3DMark eines der besseren Tools, die Zahlen geben durchaus Auskunft, wenn auch nur unscharf
 
Zuletzt bearbeitet:
@tha_specializt:
aber irgendwie muss ich sagen, dass ich kein bock hab für ne 3870 x2 so viel geld auszugeben und dann ewig im treiber und wohlmöglich auch noch windows und den games selber rumzufriemeln, bis es endlich klappt....
das ist dann kein high end für mich
 
Höh? Musst du doch garnicht .... Das einzige was du tun musst, ist regelmässig mal auf ati.de zu gehen und nach einem neuen Treiber zu suchen ... aber das kennst du ja schon, bei ATI is es eben wesentlich wichtiger als bei NVidia (ich freue mich schon auf den Tag, an dem "3870 X2" als Treiber zum Download bereitsteht, ich besuche die Site jeden Tag).

Das "rumfriemeln" wie du es so treffend und schön formulierst kann man getrost den 1337-h4xxorz überlassen, die dann mit massivem OC und ähnlichen Spielereien ihr System binnen Monaten über den Jordan schicken, und direkt danach die Schuld den Herstellern in die Schuhe schieben :bigok:
 
Zuletzt bearbeitet:
naja, wenn du mal ließt, was Eagleone19, mustrum und WotansZorn sagen dann muss man es ja wohl schon....

Ich kann dir nur sagen , das MGPU Recht Interessant ist , damit es aber zu 100% richtig läuft verspreche ich dir brauchst du ne woche nur um die Optimalen einstellungen zu Finden ;)

Eagleone19

Wie auch immer... :banana:

Wenn du was zum Basteln und Rumprobieren suchst, dann biste bei der X2 bzw. CF richtig.

Ich würde sagen es hängt von deinem Kollegen ab. Ist eer jemand der einfach nur ein Spiel installiert und losgamen will? Dann G92 GTS.

Ist es im egal auch etwas mit dem Treiber herumzuspielen und verschiedene Treiber durchzuprobieren bis die Performance optimal ist? Dann X2.

Die GTS is die unproblematischere Karte die eigentlich immer fantastische Performance liefert.
Die X2 hat ihre (Treiber)macken ist aber pfeilschnell.


und deine aussage bezüglich ocern ist ja auch nicht ganz korrekt...zähle mich, wenn auch nicht so massiv, selber dazu
 
naja, wenn du mal ließt, was Eagleone19, mustrum und WotansZorn sagen dann muss man es ja wohl schon....
tja, tut mir leid das sagen zu müssen, aber offensichtlich haben sie ncht den leisesten Hauch von ATI-Grafikkarten. Bei ATI gibts nicht "einszustellen", zu "tweaken" etc. Das Ding kommt fertig ins Haus und läuft zu 99% perfekt. Und hier der Beweis für den Unsinn der o.g. Aussagen:
mustrum schrieb:
und verschiedene Treiber durchzuprobieren
  • es gibt keine wirklich guten ATI-Treiber, die nicht von ATI sind
  • sie verändern nichts, wenn dann verschlechtern sie eher
  • ganz besonders die Omega-Treiber waren/sind schon ewig ein Hort der Fehler, die allermeissten Probleme waren/sind darauf zurückzuführen.
  • die ganze Diskussion ist sinnlos, denn der Catalyst war bisher fast immer der beste, nur gelegentlich konnten einige findige Cracker Bugs ausnutzen und so ganze Codeblöcke im Protokoll übergehen --> mehr Geschwindigkeit.
  • Wenn ein hochbezahltes Entwicklerteam aus eingeweihten "Profis" bisher noch nichts für MGPU veröffentlich hat, dann wird ein Kellerh4xx0r das schon zweimal ned schaffen :stupid:
  • wie ich gerade sehe, habe ich damit auch Recht. Man findet weder beim Omega noch beim DNA MGPU-Unterstützung.
  • man verliert die Garantie, wenn du eine kaputski-Graka einschickst und ATI nachweisen kann dass du nicht-Original-Treiber benutzt hast. Geheimtipp: sie können es beweisen

Das CCC (sofern man den Schnickschnack benutzt) bietet absolut keine "Tweak"-Optionen, lediglich Monitoreinstellungen und diese 3D-Sachen, die aber im Grundzustand so nicht geändert werden sollten ... oder willst du etwa immer 16xAA erzwingen? Wäre Blödsinn, sowas stellt man im Spiel ein. Und "CF-Optionen" oder gar "MGPU-Optionen" gibts schon dreimal nicht, denn den besten aktuellen Transferalgorithmus zwischen den GPU´s und der ALU bzw. dem Rest dems Systems rechnet die Grafikkarte selbst aus ... überhaupt geschieht bei ATI alles automatisch, und das ist auch gut so.

Das einzige, was evtl. einzustellen wäre ist das Smartshader und Trueform-Gedöns, das aber bei mir nur ein einziges mal einen Unterschied gemacht hat ... und der Unterschied durch meine Einstellung war mit dem nächsten Patch des Spiels weg :wink:
und deine aussage bezüglich ocern ist ja auch nicht ganz korrekt...zähle mich, wenn auch nicht so massiv, selber dazu
"ocern" ist kein deutsches Wort, und schon garnicht leetspeak. Gibbet nicht, hört auf Wörter zu erfinden!

Du meinst "übertakten".
Und nun erklär mal, was nicht korrekt sein soll, wenn man sagt dass Mikroprozessoren schneller den Geist aufgeben, die Busse schneller durchbrennen (ja, das geht auch ... RAM zerbrutzelt etc), Signale aufgrund zu hoher Frequenz gedämpft / verfälscht werden und so Berechnungsfehler enstehen, die Temperatur mitunter in gefährlich Bereiche geht (ihr Kiddies vergesst da so einige Gegebenheiten, so zb. nichtmetallische Elemente die sich gerne mal verformen) und sogar Totalausfälle schleichend monatelang ausbleiben und dann schlagartig eintreten?

--> solange alle Schaltungen des Motherboards nicht supraleitend und Widerstände, Transistoren, Dioden, Operationsverstärker & co nicht immun gegen den grösstmöglichen Stromdurchfluss sind wird OC eine ganz, ganz schlechte Idee sein, das bestätigt dir auch jeder Wissenschaftler.

Bitte revidiere mein bisheriges Wissen, da bin ich mal gespannt!
 
Zuletzt bearbeitet:
@tha_specializt
Ist dir bisher noch gar nicht aufgefallen das nirgends Hardware nach 3DMark Punkten beurteilt oder empfohlen wird?
Vielleicht weil die meisten 3D Mark Punkte eh nicht interessiert sondern andere Faktoren eine wichtigere Rolle spielen.
Es ist einfach die Gesamtperformance die ein Produkt zu High End macht und nicht 3DMark.
Mag sein das hier nicht jeder eine X2 hat aber die ein oder andere ATI Karte besitzte ich und es gab immer igendend ein Game das nicht wollte.
 
@tha_specializt
Ist dir bisher noch gar nicht aufgefallen das nirgends Hardware nach 3DMark Punkten beurteilt oder empfohlen wird?
Quatsch mit feinster Pilzsoße, guck dir grad ma tomshardware an
sondern andere Faktoren eine wichtigere Rolle spielen
als da wären? Was ist wichtiger als die Performance beim Spielen?? Etwa die 2D-Darstellung? Willst du mir jetzt verklickern dass du da heutzutage tatsächlich noch Unterschiede siehst? (mal ganz abgesehen davon dass in modernen Betriebssystemen und Spielen nur noch dreidimensional skaliert wird)
 
Zuletzt bearbeitet:
@tha_specializt
Toms Hardware zieht ein Fazit unter Berücksichtigung aller Benchmarks und genau das meine ich mit anderen Faktoren (ich gebe zu hätte ich anders Formulieren sollen aber es ist ja schon spät).;)
Warum hier im Forum die X2 weniger empfohlen wird ist die Zweifelhafte Leistung in einigen Game Performace Tests.
 
Ich würde mich einfach noch 6-10 Wochen gedulden :) Zur Zeit vergammel ich zwar noch mit meiner 1950 Pro, aber das Geld für ne RV770 oder GT200 liegt bereit. Bei zweit genanntem sollte auch ne hohe Auflösung egal sein (>> 512bit).

Ick freu mich aufn Sommer ^^
 
Zuletzt bearbeitet:
Du willst dir eine ATI-Graka der 4000er-Serie holen? Interessant, du scheinst in direkter Verbindung zu ATI zu stehen, könntest du mir evtl. 1000 Stück besorgen? Ich will nämlich schnell reich werden ...
Fantastisch wie sehr du in die ferne Zukunft greifen kannst, davon hätte ich gern auch 1000 Stück! Wenn das alles bis nächste Woche machbar is kauf ich nochmal 500 jeweils.
Bei zweit genanntem sollte auch ne hohe Auflösung egal sein (>> 512bit).
512 Bit ... Ouha, da musste ich erstmal ein Mathematik-Programm starten, denn mein wissenschaftlicher Taschenrechner kann solche Zahlen nicht mehr errechnen.
512 bit = 1.340780792·10^154
√1.340780792·10^154 = 1.157920891·10^154

Wenn wir von einem Seitenverhältnis von 1:1 ausgehen, dann willst du also eine Graka kaufen, die einen Monitor ansteuert der so gross wie unsere Galaxie ist? Wahrlich fantastische Dinge offenbarst du hier .... stehst du auch in direktem Kontakt zu Gott? Kannse ma ein gutes Wort für mich einlegen?


Warum kriegt ihr alle Ausfälle, wenn es spät wird? Ich werd da immer fit! :banana:
 
@ tha_specializt
Punkte in 3Mark 06 als Messlatte für Grafikkarten sind unsinn.
Als Fehlkauf kann mann die alte GTX bei dem Preis nun wirklich nicht bezeichen.
Ist auch unsinn...sowie einiges was hier gepostet wurde^^ mehr fällt mir echt nicht dazu ein^^

tja, tut mir leid das sagen zu müssen, aber offensichtlich haben sie ncht den leisesten Hauch von ATI-Grafikkarten.
Falsches Forum erwischt?
Eagelone keinen Hauch von ATI Karten, wird ja immer besser...soviel Bullshit was Du geschrieben hast auf einer Seite, hab ich schon lange nicht mehr gelesen...sry....
 
Zuletzt bearbeitet:
ja eig warte ich auch drauf, dass Eagleone19 hier mal seine meinung preis gibt. würde mich sehr interessieren, den an seiner kompetenz besteht kein zweifel.
also auf eagle :)
 
Ich wurde gerufen??? :fresse:
@Tha_specializt
1. Ich denke von ATI kann ich ne ne menge Lieder singen ;)
2. Ist es korrekt das bei ATI weniger eingestellt wird als bei NV dafür aber auch die Power zuwünschen übrig lässt im direkten vergleich zu NV.
3. Bändige dich mal, keiner will dir was wir wollen Helfen!

Also wenn fragen sind FRAGT aber nicht streiten, dass führt genau zu = NIX!!


:wink:

Eagleone19
 
Zuletzt bearbeitet:
Das 512-Bit-Interface der GT200 war zwar nur von mir gemeint, sonst nix. Und wieso sollte ich in Verbindung zu ATi etc. stehen?! Die HD 4870 wird im 3. Quartal erscheinen, was wohl nicht mehr lange hin ist... Spätestens nach der Computex sollten wir mehr wissen.

@ tha_specializt: DU bist ja scheinbar ganz große Nummer hier, nur der einzige der hier Ausfälle bekommt bist eher du, d.h. ganz großer Tennis!
 
Ich würde die GTS kaufen und OCen da hat man nen sehr gutes preis leistungs verhältnis! Vieleicht noch nen Accelero S1 drauf und 800Core dann sollte die leistung auch reichen!! Zocke eigentlich fast alles @ 1600x1200! Cod4 geht sogar noch mit 2048x1536 flüssig (min 50FPS)!
 
Ich würde sagen um inen Kompromiss ein zu gehen solle r sich ne 8800GTX Kaufen 212€ neu. Die ist noch ein taken besser wie die GTS und sollte eigentlich für so ziemlich alles langen!!!!
 
genau das werde ich auch tun!
vielen dank an alle beteiligten :wink:
grüße
pOpO
 
Klar die ist schon recht gut! Frage mich nur ob die gegen ne GTS@800Core bestehen kann??
 
Klar die ist schon recht gut! Frage mich nur ob die gegen ne GTS@800Core bestehen kann??

Schaff6t jede GTS ndie 800? ;)

deswietern vergleiche ich @ stock und da hat die GTS mit AA und FA das nachsehn. Desweitern lässt sich eine GTX auch OCen und sollte somit völlig ausreichen.

habe extra mal Crysis raus gesucht schaue dort mal bei :

1600x1200 4xaa und 16xaf

http://www.computerbase.de/artikel/...dia_geforce_8800_gts_512/21/#abschnitt_crysis

Und sage nicht das sich das mit 800Mhz core bessern wird ;)

Eagleone19
 
ne da ist ja schon ne OC GTS! Aber Crysis ist nicht alles ;) Also mit nem Accelero S1 sollte fast jede 780-800Core machen!!
 
da ich jetzt 2 GTS Karten hab hab ich nen guten Vergleich.

1 GTS hat keine chance gegen die X2 das sollte klar sein, und 2 GTS Karten sind zwar paar FPS schneller aber zocken ist mit der ATI deutlich besser.
Man merkt in jedem Spiel das die 512 Mb für die NVs viel zu wenig sind, da wo es anfängt zu ruckeln (und das geht ganz schnell) rennt die X2 wie Butter.

TDU zB:

die 2 GTS Karten haben ca. 20 FPS mehr als die X2, dafür ist es unspielbar mit den GTS Karten, viele GPS aber ruckelt/hängt ganz böse.

Crysis:

rennt besser mi der NV sollte klar sein (von den FPS her zumindest).

COD4:
sidn beide gleich schnell (je nach Stelle im Spiel) aber VRAm wird sehr schnell voll und fängt sofort an zu ruckeln trotz viele FPS.

Assassins Creed:
das selbe Spiel wie überall, VRAM sehr schnell voll und fängt gleich an zu ruckeln wie Sau.


Fazit: auch wenn die NV Karten paar FPS mehr haben, trotzdem bei weitem schlechter wie ein X2 oder HD 3870 CF.

lieber paar FPS weniger aber flüssig zocken damit.

hier hatte mal ein Video von Crysis gemacht mit CF, so wie das da läuft ist nicht dran zu denken mit SLI:-[
http://de.youtube.com/watch?v=aS3yT1ylHME
 
Zuletzt bearbeitet:
In vielen Benchmarks (von Usern nich CB oder so) sieht man auch das die min. FPS niedriger sind bei NV und die max. FPS höher im vergleich zu ATI, sprich der Frameverlauf hat starke up`s and downs :-[ daher läuft es bei den ATI`s trotz weniger FPS einfach smoother.
 
@zocker28: das youtube vid ist dx9...ist denke das macht schon ein unterschied^^
 
ich rede auch von DX9 mit den NVs, in DX10 ist es nichtmal Spielbar in den Settings^^
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh