8800 GTS 320MB im Sli oder nicht?

ftc

Neuling
Thread Starter
Mitglied seit
30.01.2006
Beiträge
67
Hallo!
Ich bin gerade am Überlgen mir noch eine 2. 8800GTS zu holen!
Ich bin mir aber nicht sicher we viel mir das Leistungsmässig bringen würde!
Was meint Ihr?

Gibts Irgendwo Benchmarkwerte wo Singel 8800Gts 320mb mit Sli verglichen werden?
Hoffe Ihr Könnt mir helfen!
Lg
Ftc
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
SLI ist schwachsinn, außer du hast 2 8800GTX und dir reicht die Leistung nicht, dann kannst darüber nachdenken.

Bei 'ner 320MiB 8800 hast aber erstmal das Problem das der RAM aus geht, bevor die GPU ans Leistungslimit kommt.
 
http://www.hardwareoc.at/Geforce_8800_GTS_320_SLI_Bericht.htm

da isn bericht ;)

Und naja.... Hab selber nen sli, habs deshalb gemacht, weil ich Quakewars auf 1680x1050 mit allem an was geht zock. Und da ist meine 8800gts 640mb in die knie gegangen (10-15fps im extremfall) hab dann die 640 verkauft und mit 2x320er geholt und hab dadurch 80-150fps mit 16xaa/af manchmal (bei vielen explosionen) gehts halt mal kurzzeitig auf 30fps aber das verkrafte ich auch noch :d
Ne einzelne gtx ist in quakewars viel langsamer als 2 karten...
Mein bruder hat ne gtx und kann z.b. nur auf 8xaa/af einigermaßen flüssig spielen ;)

Also wenn du spiele mit hohen auflösungen spielst, isses ok, ansonsten alles unter 1680 ist es nicht nötig....

Achja. und 15525 3dmark06 ;)
 
Zuletzt bearbeitet:
also wenn das so ist, werde ich mir auch noch eine 2. GTS dazu holen ^^ danke
 
Also ich bin ja kein Umweltfuzzi und Moralapostel, aber 2 8800GTS im SLI ist schon ganz schön krass:

Geforc48.GIF


Und dann liegt in vielen Benches die GTX trotzdem vorn...
Also ich würde lieber eine GTX nehmen oder auf den G92 warten ;)
 
einfach das zimmerlicht auslassen und schon spart man sich die 60 watt mehrverbauch *G*

wenn man schon ne gts hat, isses ja kein thema noch eine dazu zu kaufen.
bei nem neuen sys würd ich mir auch gtx/ultra holen, aber wenn man eh schon eine hat^^
 
Kann man eigentlich mit 8800ern im SLI noch übertakten oder geht das dann nicht weil die sich sowieso selbst syncronisieren? Also übertaktung dann nicht angenommen wird?

Ich überleg dann 2008 vielleicht günstig ne "alte" 8800gts mit 96 nachzukaufen. Bin mal gespannt wie sich der Preis entwickelt wenn die neuen 8800gt einschlagen. Vielleicht verkauf ich meine 8800 aber auch.
 
du kannst ganz normal übertakten, nur wenn halt eine karte dicht macht und nimmer weiter will auch wenn die andere noch könnte ist halt schluss^^
 
Mein Bruder Fährt auch 2x 8800GTS (640MB) im SLI seit 6 Monaten alles läuft selvbst auf 1900x.... mit aa und af flüssig ....
 
aber es kommt auch auf die spiele an,da nicht alle spiele multi-gpu's unterstützen.oder kann man das mit nem patch iwie einstellen?
 
Für SLI ist das VRAM der GTS³²° einfach zu klein, es macht keinen Sinn, da VRAM bei SLI nicht addiert wird. Auch bei 2 solchen Karten wird das VRAM Ausgehen, die oben genannten FPS Einbrüche werden bleiben. Für SLI eignet sich die 640 und das macht nur ab 1600x Auflösung Sinn..
 
lol wasn blödsinn....
wenn du keine ahnung hast dann lass es.....

komisch das man von solchen fps "einbrüchen" nix merkt...
komisch das man trotz "nur" 320mb in allen games bald doppelt soviel fps hat als mit ner einzelnen 640er...

und es wird nicht addiert, da haste recht, aber beide rams werden zur berechnung genutzt, so stehen in etwa 1/3 - 1/2 mehr ram zur verfügung als bei ner einzelnen karte...
Sprich wenn es genau nimmst stehen um die 450mb zur verfügung, da die berechnungen aufgeteilt werden ;)

und das reicht zur zeit dicke aus....

spiel ALLES mit 16xaa/af bei 1680 und 0 probleme....
 
solange du nicht COD2 mit 2 x 8800 GTS 320 zockst sind die ok :) ^^

Ich hatte mir damals 2 gekauft .. extra für COD 2 / 1680 x 1050 :(
Es hat doch recht gut gelaggt (VGA Ram war dann doch ein wenig überlastet)
 
lol?
dann kannste kein sli einstellen, sry ;)

in der cfg
r_mulitGpu 1
und im treiber auf afr1 lassen....
max_fps 125 reinknallen

alle details an und freude haben......

Hatte aber anfangs auch immer fps probleme bei allen möglichen spiele.

Windows frisch drauf gemacht, neusten beta treiber drauf gemacht und siehe da...
Alles funzt wunderbar ;)
 
solange du nicht COD2 mit 2 x 8800 GTS 320 zockst sind die ok :) ^^

Ich hatte mir damals 2 gekauft .. extra für COD 2 / 1680 x 1050 :(
Es hat doch recht gut gelaggt (VGA Ram war dann doch ein wenig überlastet)

ähm was hast du falsch gemacht?

also ich hatte mal ne GF8800GTS 640MB und habe die auf 650/2000 geoced und konnte damit CoD2 in 1900x1200 4xAA/8xAF flüssig zocken!

im SLI müsste 2x 320MB GTS ne einzelne 640MB locker schlagen, auch wenn der RAM nicht addiert wird, so gibt es doch meines Wissens einen Modi, in dem das Bild geteilt wird und jede Graka nur ein halbes Bild berechnet, dadurch wird eine 320MB ja erst interessant. Ohne viel AA (max. 2-4xAA) sollten 2x320MB GTS SLI auch ne GTX abhängen.
 
Es addieren sich im SLi nur die TMUs. 2x 48TMU bei GTS = 96TMUs. GTX und ULTRAs haben 64 TMUs. Bleibt also erstmal nur die Ferse mit dem RAM bei den kastrierten Karten und das lässt sich nunmal nicht kompensieren.

ich halte es für Schwachsinn ein SLi aus den Billigkarten aufzubauen, aber jeder so, wie er es sich leisten kann.


Grüße,
Euer George
 

also der Bericht zeigt bei Oblivion eindeutig, was SLI ausmachen kann, da zockt ein 320er SLI ja mal ne GTX derbs ab. Und ich möchte das Game ja eventl. in 1900x1200 zocken, da würde es ja schon nahe am Ruckeln auf der GTX kommen :eek:

Klar SLI hat auch ne Menge Nachteile, aber irgendwie fasziniert es mich, ich glaube ich hole es mir, zumindest Etappenweise (jetzt eine Karte und später ne zweite)
 
wie schon zig mal geschrieben.
Sli ab ner auflösung mit 1680x1050 und mit viel aa/af lässt einzelne karten alt aussehen.
Und da macht "komischerweise" der sonst auch so viel bemängelte fehlende ram nix aus....
Auch wenn ne 8800gtx 768mb ram hat schafft es nen gts 320er sli system LOCKER! an dieser karte in NEUEN games mit 1680 und viel aa/af vorbei zu ziehen.
Da frage ich mich wo man dann den fehlenden ram angeblich merkt?
 
gibts auch nen Test für SLI Karten vs. Single mit 1900x1200 Auflösung bei neueren Games?

ich habe mir nun vorerst eine 8800GTS 640MB bestellt und werde eventl. dann mit der später ein SLI aufbauen
 
Das Problem bei den 320ern ist das sich hier der vRam Bug bemerkbar macht , da hilft auch SLI ned ;)

Eagleone19
 
Find das Review komisch. Wieso haben die die 8800gtx nicht auch in 1680*1050 getestet?
 
Die Oblivion-Werte stimmen vorn und hinten nicht.

eher falsch:
Geforc33.GIF


eher realistisch:
ScreenShot001.jpg





Grüße,
Euer George
 
Zuletzt bearbeitet:
was isn das für nen Bug, habe schon öfters von dem gehört...

tritt er bei 640er auch auf?

Ja , auch bei ner GTX, bei enr uLtra also allen 8xxxKarten von Nv , nur die 640MB GTS hat doppelt soviel RAM wie die 320er und daher macht sich das da Fast NIE bemerkbar. Die GPU Vergisst einfach den Ram zu leeren und scheibt diesen immer weiter voll, das kann zu eckligen rucklern führen. Nein es ist noch nicht behoben ;)

:wink:

Eagleone19
 
Das Problem mit dem "VRAM-BUG" ist eher, dass die Mehrheit der User brett-doof ist. Nicht jedes die Hardware überfordernde Setting ist ein Bug und es ist auch kein Bug, wenn man versucht 400MByte Texturdaten in 320MByte Speicher unterzubringen.

Ein Bug oder Hardwarefehler müsste generell in jeder Anwendung auftreten und nicht nur in künstlich konstruierten Szenarien bzw. in zwei von tausend Titeln.


Grüße,
Euer George
 
Die 8800 GTS mit 320 mb reicht einfach noch nichtmal für World in Conflict.Spiele in der Zukunft werden Riesenmenge an Ram benötigen ohne Frage.Und wer mit dem Gedanken spielt DX 10 zu nutzen kann garnicht genug VRam haben.Zusätzlich fällt die 320 er Karte eh jetzt aus dem Programm und wird durch die 8800 GT ersetzt daher ist diese Diskussion etwas Sinnfrei.

Hier ein aktueller Bench mit WIC und der 8800 er und 2900 er Serie.

http://enthusiast.hardocp.com/article.html?art=MTM5OSw0LCxoZW50aHVzaWFzdA==
 
@Jlagreen
der Bug tritt bei allen G80 Karten auf...
Bei der 640er GTS und der GTX/Ultra merkt man davon aber nicht so viel, da die Karten (speziell die letzten beiden) so viel VRam haben, das alles dort untergebracht werden kann ohne das was ausgelagert werden muss.

Bei ner 320er GTS wird alles mögliche wärend des zockens umgelagert was zu erheblichen Performanceeinbrüchen kommt
 
naja vergleichen wir doch mal weiter mit cb:

leider nur 640MB GTS SLI (kein Test von 320MB gefunden):

SLI:
http://www.computerbase.de/artikel/...a_geforce_8800_gts_sli/30/#abschnitt_oblivion

Single:
http://www.computerbase.de/artikel/...a_geforce_8800_gts_sli/17/#abschnitt_oblivion

ist beides im gleichen Test, also kann man von denselben Treibern ausdenken, denke ich mal.

Klar ne GTS hat 640MB, was schon deutlich mehr ist als 320MB, aber trotzdem sollte die Setting 2560x1600 4xAA/16xAF auch der im SLI deutlich zu schaffen machen. Trotzdem ist sie im SLI 50% schneller als die GTX, wie kommt das?

Generell ist GTS SLI der Single GTX überlegen und bei 320MB wage ich zu behaupten, wäre es auch ned anders. Vor allem aber hat ein SLI ja den Vorteil die Min-FPS anzuheben, die ja wesentlich wichtiger als die Average sind.

EDIT:
mir ist klar, dass die 320MB GTS als Singlekarte nix taugt, aber hier gehts ja um SLI. Und mich wunderts eben, dass SLI mehr Speedbonus im Vergleich zur Singlekarte bringt je höher die Qualitysettings sind.
 
Zuletzt bearbeitet:
Das Problem mit dem "VRAM-BUG" ist eher, dass die Mehrheit der User brett-doof ist. Nicht jedes die Hardware überfordernde Setting ist ein Bug und es ist auch kein Bug, wenn man versucht 400MByte Texturdaten in 320MByte Speicher unterzubringen.

Ein Bug oder Hardwarefehler müsste generell in jeder Anwendung auftreten und nicht nur in künstlich konstruierten Szenarien bzw. in zwei von tausend Titeln.


Grüße,
Euer George

Das ist schon klar, nur treten idR die 400MB nicht mit einmal auf, sondern kommen nach und nach zusammen, ab dem Punkt wo die 320MB zu klein sind, fängs an zu ruckeln.
G3 kann man da als gutes Beispiel nennen, zockt man ohne in ne andere Klimazone zu laufen, ändert sich der VRam verbrauch nur sehr wenig, spricht steigt nur sehr sehr wenig an. Sobald man aber in ne andere Klimazone läuft/teleportiert, werden massiv viele Daten nachgeladen, bei den G80 Karten befinden sich nun alle Daten im Speicher, bei ATIs werden nahezu alle Daten, welche mit der alten Klimazone zu tun haben, aus dem Speicher geschmissen und es sind nur noch die neuen Daten drin (welche ja gebraucht werden)

Theoretisch könnte man ja das sogar als Vorteil bezeichnen, was die G80 Karten da machen, das Problem ist nur, das die Karte beliebige Daten auslagert, und nicht solche Daten, welche nicht unbedingt gebraucht werden oder wo ne längere Zeit nicht drauf zugegriffen wurde...
Bei der GTS 640 und der GTS/Ultra merkt man den Nachteil net so drastisch, da eigentlich alles in den Speicher passt, die kleine GTS 320 bekommt das nicht hin und bricht massiv ein. durch das umlagern.
 
@fdsonne

Das ist leider völliger Strunz. ATI und NV sind was das Texturhandling angeht nicht vergleichbar und es macht auch keinen Sinn, sich die Rosinen rauszupicken, bei denen die kleinen GTS-Karten straucheln. Spiele wie Gothic3 oder The Elder Scrolls 4 kann man auf den Vollpreiskarten (GTX, Ultra) stundenlang ohne Einschränkungen in der Framerate spielen.

Es ist unglaublich lächerlich alles auf einen Bug schieben zu wollen. Wie schon erwähnt: ein Bug würde generell auftreten; ein Hardwarefehler ebenfalls - egal was man wielange spielt.

Da waren die Jungs im 3DC schon weiter als ihr hier ;)


Grüße,
Euer George
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh