Kommt immer drauf an. Wer seine Kiste 24/7 durchlaufen lässt, beurteilt Powerplay anders als jemand, der die Kiste nur zum Spielen anschmeisst.
24/7 bedeutet bei 200 Watt rund fünf Kilowattstunden am Tag, 150 Kilowattstunden im Monat, 1800 im Jahr. Was kostet die Kilowattstunde noch gleich? Die Einsparung mit meiner 3870 holt mir also jährlich eine neue GraKa* ins Haus.
Meine ganze Kiste läuft kühler, und damit leiser, insgesamt habe ich in Sachen NT mehr Spielraum, und die kühlere Karte hat eine längere Lebensdauer vor sich, oder anders gerechnet, eine niedrigere Ausfallwahrscheinlichkeit. GDDR4 ist höher übertaktbar. Meine Karte läuft mit mehr als 80GB/s, und Speichertakt skaliert bei den RV670 enorm. Was dazu von Forenwichteln verbreitet wird, ist schlichtweg falsch. Ein MHz Speichertakt entspricht 0,1 % Gesamtleistung. Messbar, nachweisbar, sichtbar, und selbstredend in jedem Game wirksam.
Zieht man den Wert der Software ab, kosten beide das gleiche. Zieht man den schielenden Blick ab, sind beide gleich schnell. Mir persönlich gefällt der Aufbau mit dem S1 und den Lüftern weniger als der Passivkühler der Ultimate. Man müßte mal gucken, wie sich das platzmäßig unterscheidet.
An Stelle des OP würde ich darauf warten, daß jemand die Temps unter Last nennt. Wenn er 24/7 fahren will, ist die Sapphire erste Wahl, wenn er eher nur zum Spielen einschaltet, sollte er die kühlere Karte nehmen.
Dass eine GTX schneller ist, bestreite ich nicht, aber für eine GT stelle ich das ganz klar in Abrede. Da unterscheidet sich der Tenor aller Beiträge in den Spiele-Foren vom Tenor in den GraKa-Foren, und das finde ich verdächtig. Zumal NV schon öfter dadurch unangenehm auffiel, per Werbung in überschätzten Spielen den Hals aufzureissen, und am Ende nur laue Luft zu liefern, wenn die diskutierten Titel erstens grafisch nicht sind, was sie vorgeben, und zwotens auf ATI-Karten besser laufen. TR6 war doch auch so ein Fall. Und viel besser als die TR6-Grafik ist Crysis nun mal nicht. Ohne Spielerfigur im Bild und mit durchschnittlich weit weniger Polygonen als z. B.Oblivion im Blickfeld taugt es nicht als Referenz.
Titel wie DiRT rennen auf beiden Karten sehr ähnlich, haben aber auf der ATI das bessere Bild. Deswegen würde ich nach Geschmack, Bauform und Temps kaufen, aber nur, wenn der Spareffekt gering wäre.
EDIT: Ich möchte übigens mal wissen, wer so verrückt ist, 4xAA & 16xAF zu fahren? Wozu? 8xAF sieht in manchen Games klasse aus, bringt in anderen aber nix, weil in denen AF überhaupt nix bringt, 16xAF macht null Sinn.
Fährt hier jemand sein Auto mit 80 im zwoten Gang? Wenn die Bildqualität nix ist, hilft es nicht, und wenn sie gut ist, wählt man doch wohl die Einstellung, bei der sich der maximale Zugewinn zeigt, ohne sinnlos Leistung zu kosten, und das ist meistens 2xAA & 4xAF oder 4xAA & 8xAF, aber nie im Leben 4xAA & 16xAF.
Und vergesst mal ganz schnell die Testfälscher-Reviews. Deren Werte konnte ich nie nachvollziehen. Wenn von schierer Leistung die Rede sein soll, die steht in meiner Signatur: 80GB/s bei unter 40 Grad und unter 0,1 sone unter Last. D. h. Crysis bei 1280*1024, alles auf high, 4xAA, butterweich und flüssig bei 35 Grad GPU, ohne jeden Ruckler, ohne jeden Hänger, mit Serienkühler).
* PS OK, etwas übertrieben, weil ich habe nicht gerechnet, sondern nur den Gesamtverbrauch betrachtet, und für alle Sparmassnahmen ein Fünftel veranschlagt. Aber immerhin: 'ne SparGraKa amortisiert sich nach drei Jahren, und ich bin so ein Irrer, daß ich mir gerade so 'ne Karte zum Zocken in meinen Server gesteckt hab, auf dem ich weder für Crysis, noch zum Benchen, den Apache oder WinMx stoppe. Keine Ahnung, ob andere ihre Kisten je abschalten. Mach ich höchstens zum Umrüsten.