Bremst ein X2 3800+ die X1950XTX aus?

SaschaS

advocatus diaboli
Thread Starter
Mitglied seit
11.10.2004
Beiträge
3.876
Frage seht ihr oben ja :)

Gehen wir mal von den üblichen 1280x1024 + 4xAA + 8xAF aus. Limiert da die CPU bei aktuellen Spielen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
probiers doch einfach aus, indem du deine cpu übertaktest.

aber normal macht sich das nur bei geringen einstellungen bemerkbar
 
Wenn ich eine X1950XTX hätte dann würde ich das machen ;)
 
ich würd dir da 2,6 ghz empfehlen, dann bist du sicher dass keine Frams flötten gehen und dein Win läuft auch angenehmer :) sag ich mal aus erfahrung mit meiner x1900xt
 
Als mein X2 4800+@2600 MHz hat meine X1900XT schon ausgebremst, da ich mit dem C2D nun teilweise deutlich mehr Frames habe.
 
Er wird sie sicherlich nicht in unspielbare Bereiche "ausbremsen"
Doch ein 3800+ "gehört" auf mind. 2.4 übertaktet, das schafft jeder, mit etwas
Corev gehts richtung 2.6-2.8 Glückspilze knacken sogar die 3Ghz Schallmauer ;)
Mit den empfohlenen 2.6 wirst du alle Games mit der Powerkarte mehr als flüssig
spielen könenn, mit nen C2D sogar ÜBERflüssig :lol: dh dann statt unerträglicher 65FPS mit A64 zB 91FPS beim C2D oä :haha: Ich kommte mit meinem Venice 2.65 kurz die 1950XT antesten: Alle games absolut flüssig mit 1600x1200, nun mir C2D etwas schneller, jedoch auf hohem Niveau.
Dh es gab kein Game dass bei A64 bei 15fps lag bei C2D 30fps,
nur dann wäre es interessant. Bei 3Dmark03 wars 17900 > 19500 :hmm:
 
Also mein X2 3800+ @ default bremst meine X1800XT nicht aus!
Also ich denke nicht das nen X2 3800+ ne X1900XTX ausbremsen wird, und wenn doch dann kannste ja immernoch OC´n...
 
Also mein X2 3800+ @ default bremst meine X1800XT nicht aus!
Also ich denke nicht das nen X2 3800+ ne X1900XTX ausbremsen wird, und wenn doch dann kannste ja immernoch OC´n...

Ja gut aber wenn du deine CPU nicht über 2,4 hattest kannst du auch nicht sagen dass dein X2 @Defaul nicht ausbremst^^.
eine x1900xtx ist zudem ein gutes Stück flotter als eine x1800... man sollte zum Testen auch nicht so einfache Games wie CSS oder so rausholn sondern gleich zu Oblivion greifen.

mfg
 
Frage seht ihr oben ja :)

Gehen wir mal von den üblichen 1280x1024 + 4xAA + 8xAF aus. Limiert da die CPU bei aktuellen Spielen?

NEIN!!!!

Du wirst unter diesen Einstellungen selbst mit nem Core 2 Duo nur sehr geringe fps Unterschiede messen können. Da die Grafikkarte sehr stark gefordert wird.

Ich hatte bei CSS mit nem SC AMD @ 2.5Ghz 1280x1024 + 4xAA + 8xAF fast die gleichen fps wie mit nem E6600 @ default. Und selbst der jetztige Takt von 3.6Ghz bringt fast keinen Leistungsgewinn bei solch GPU lastigen settings!
 
Frage seht ihr oben ja :)

Gehen wir mal von den üblichen 1280x1024 + 4xAA + 8xAF aus. Limiert da die CPU bei aktuellen Spielen?

Das glaube ich nicht, den der x2 3800+ bringt @ default schon genug Dampf fürs Kärtchen.
 
Ja gut aber wenn du deine CPU nicht über 2,4 hattest kannst du auch nicht sagen dass dein X2 @Defaul nicht ausbremst^^.
eine x1900xtx ist zudem ein gutes Stück flotter als eine x1800... man sollte zum Testen auch nicht so einfache Games wie CSS oder so rausholn sondern gleich zu Oblivion greifen.

mfg

Hatte die CPU auch schon auf 2,8 Ghz laufen (prime stable @ 1,4vCore), aber da ich die Mehrleistung nicht brauche und mir die Verlustleistung zu hoch ist lasse ich die CPU nur auf 2,25Ghz laufen...

Hatte mit 3D 05 gebencht
 
CSS muss ich einigen Leuten hier mal sagen ist kein auslastendes Game, da ist Graka und CPU total unterfordert. Meine Graka wird zb in CSS grad ma 60° Warm, in COD2 oder Oblivion locker 80.
Zum Testen sollte man sich da schon neuere Games als Referenz nehmen
 
Also bei mir ist es umgekert meine Graka bremmst die CPU aus,habe den 4600+
(FSB 225*12) auf 2,7ghz laufen mit einer X850XT die Graka ist nun auch nicht mehr die beste :( leider aber in manchen spielen sind 5-10FPS schon was wert aber bis anfang april werde ich noch in den sauren apfel beißen müssen:-[ ! den isses ja soweit.
Fand Der 3500+ und die X850XT waren besser abgestimmt als meine jetziegen Komponenten!
 
Also bei Oblivion macht es einen großen Unterschied ob ich meinen C2D mit 2,1 GHz oder mit 3 GHz laufen lasse. Ich hatte gute 15 fps mehr und bei Oblivion bewegen wir uns im Bereich um die 40-50 fps und da sind dann 15 fps mehr dann auch gleich mal 35 % mehr. Auch BF2 profitierte bei mir stark vom E6600. Meine Frameeinbrüche sind nun Geschichte!
 
bei mir bremst der Prozzi die Grakas nicht aus,
es kann schon sein, dass 2-4 Frames verloren gehen, aber wenn der Prozzi maximal 70% in Games ausgelastet wird, kann ich mir schlecht vorstellen, dass ein X2 3800+ ausreicht, eine X1950XTX ist ja ein bisschen langsamer als 2 X1950pro's
 
Danke Leute! Habe jetzt glaube genug Meinungen gehört um mir ein Bild machen zu können.
 
Also bei Oblivion macht es einen großen Unterschied ob ich meinen C2D mit 2,1 GHz oder mit 3 GHz laufen lasse. Ich hatte gute 15 fps mehr und bei Oblivion bewegen wir uns im Bereich um die 40-50 fps und da sind dann 15 fps mehr dann auch gleich mal 35 % mehr. Auch BF2 profitierte bei mir stark vom E6600. Meine Frameeinbrüche sind nun Geschichte!

Aha und ich habe 500FPs mehr wenn mein Intel 230Mmx auf 5Ghz läuft, das glaubste wohlt selber nicht niemals hast du so viele Frames mehr durch 900Mhz gerade bei sehr grafiklastigen Spielen wie Oblivion. Außerdem bei BF2 hattest du Frameeinbrüche das es geruckelt hat?, dann muss dein Sys so ziemlich schlecht konfiguriert sein weil ich kann BF2 selbst mit einer 7300GT und einem A643000+ alles @ Standart auf 1280*1024 und Hohen Details usw. (ohne AA+Af)locker flüssig spielen bei 50-60Frames. Oder aber du spielst immer in 640*480 dann kommt das schon eher hin, bedauere die Core2 sind schnell, ich habe selber einen hier, aber das ist auch nur in Benches meßbar, fühlbar schon gar nicht und wenn du mir jetzt noch erzählst das du den unterschied zwischen 30-80Frames merkst dann rate ich dir dringend zum Arzt zu gehen oder endlich mal Fraps auszuschalten denn Einbildung ist auch eine Bildung. Eine andere Sache ist das Oblivion und auch das neue Gothic 3 grottig programiert sind, da haben es leute mit 4-8GB getestet auf Windows X64 und es ruckelte immer noch an einigen Stellen also vieles ist für mich auf einfach schlampige Programmierung zurückzuführen. Das selbe gillt für BF2 welches ja auch zum Patchspiel verkommen ist(ok liegt eher im Mehrspielermodus die Fehler nich unbedingt in der Grafik usw.)
 
Zuletzt bearbeitet:
Ja aber dennoch können 500-1000 Mhz um die 20 FPS unterschied machen! wenn du das nicht einsiehst hast du genauso Tomaten auf den Augen :P^^
 
ja aber seine 15FPS sind ein bisschen naja(er sagt nicht welche Auflösung usw.) ich habe ja geschrieben das wenn dann nur in niedriger Auflösung, denn ab 1280*1024 mit hohen Details wird die Graka gefordert, kommt dann noch AA+AF dazu noch mehr und dann wirst du keinen unterschied mehr feststellen wie schnell dein Proz ist.
 
Das ist jetzt ansichtssache, weil die CPU muss dennoch noch soviel wie auf der 1024er Auflösung berechnen jedoch ist hier die Grafikkarte tatsächlich mehr gefragt (das will ja auch keiner bestreiten) und ist das Game jetzt sehr CPU Lastig (Wohl ehr Strategie Spiele), dann können da tatsächlich um die 50 FPS rauskommen jedoch ist das ehr unwahrscheinlich, ich kenn jedenfalls kein Game wo sowas zutrifft. Ich denke mit den 20 Fps lieg ich nicht falsch, da ich das damals selber bei oblivion gemerkt habe @2ghz also standard hatte ich locker 20 Fps weniger als @2,8.

mfg
 
Zuletzt bearbeitet:
@hansamstart
Also ich rede von 1280x1024 und max Details. Ob man das nun hören will oder nicht, es ist fakt. Das so Sachen kommen, wie dann ist dein System schlecht aufgezogen war ja klar. Außerdem empfinde ich BF2 mit 50 fps nicht flüssig. Meine Frames fallen seit dem C2D@3GHz nicht mehr unter 70, wo ich vorher 50 und teils etwas weniger hatte. Das ganze bei max Details und 4xAA. Oblivion habe ich nur mal kurz angetestet und der Unterschied war enorm. Will mich nicht auf die 15 fps festnageln lassen, aber es lag in diesem Bereich.
 
Und wie ist dein Bild aus dem ganzen gegensprüchlichem Gefasel :)?

Mfg

Das der X2 3800+ in fast jeder Situation für die Karte ausreichend ist. Das Ergebnis war mir aber vorher schon klar. Wollte nur die Bestätigung. Ok, mehr ist immer besser aber mehr geht halt nicht immer ;)

Es ging im Prinzip um eine Diskusion was besser ist: Ein X2 3800+ mit einer X1950XTX oder ein C2D 6300 mit einer X1950Pro, was beides in etwa das gleiche kostet.

Ich bin mal gespannt wie sich das entwickelt wenn die Spiele endlich mal mehrere Cores unterstützen. Dann müsste die Anforderung theoretisch runter gehen, wenn auch nicht viel.
 
Zuletzt bearbeitet:
Eine schnelle 1950XT würde die CPU etwas weniger ausbremsen und es blieben ca 100€
in der Tasche ohne, daß man es bei 1280x1024 wirklich merken würde.;)
 
Zuletzt bearbeitet:
Hast du da jetzt irgendwas verdreht? :)
 
selbst ein 5200@2,914 ghz bremst die karte x1950xtx noch aus.habe mit dem 6550 punkte im 06 mit nem e6600@2,9ghz 7013 punkte.alles auf nem k9a platinum von msi bzw dem 965 platinum board von msi.
 
Vor allem bei den wichtigen Minimum FPS wird die CPU einbrechen. Etwas üertaktung sollte dem aber entgegenwirken.
 
selbst ein 5200@2,914 ghz bremst die karte x1950xtx noch aus.habe mit dem 6550 punkte im 06 mit nem e6600@2,9ghz 7013 punkte.alles auf nem k9a platinum von msi bzw dem 965 platinum board von msi.

self owned.... der c2d geht mit ins ergebnis ein, schon klar dass du bei diesem bench also mehr punkte hast.
 
und btw der 3D Mark ist absolut nicht aussagekräftig!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh