Dabei fiel mir eine interessante Sache auf: Die Mehrperformance durch Speichertakt ist zumindest in synthetischen Benchmarks bei dieser Karte vernachlässigbar. 100mhz Speichertakt haben ab einem Grundtakt von nur 400mhz im 3DMark2006 gerade einmal unter 200 Punkten Mehrergebnis gebracht.
ATI-Karten skalieren 100% auf RAM. Das zeigt nicht nur der Würfel, sondern auch Tests mit FRAPS. Wenn ein Benchmark das nicht reflektiert, taugt er nicht viel.
Insofern halte ich es zwar für wahrscheinlich, das eine 3870 mit DDR4 derselben Karte mit langsamer getaktetem DDR3 überlegen sein wird, vor allem da die 3870 ja auch einen höheren Kerntakt als die 3850 hat und sich der Speicher vermutlich dort auch stärker bemerkbar macht.
Das sind 20% Speichertakt, und damit 10% Gesamtleistung, die jeder sofort mit dem Würfel sieht, und genauso deutlich mit FRAPS. War mein erster Test, als ich meine Karte bekam. Würfel an, am Ram-Takt schrauben, und die Anzeige beobachten. Zwischen 1100MHz und 1350MHz immer genau 1 fps pro MHz bei unverändertem GPU-Takt von 857MHz. Dann mit FRAPS gegengetestet. Das gleiche Ergebnis in Prozent ingame. Mir unbegreiflich, wieso so viele Leute behaupten, der Speichertakt bringe nix.
Aber über die Größenordnung dieses Unterschiedes kann man sicherlich Zweifel hegen, 10% Leistungsschub werden nicht drin sein.
Wo soll die Leistung denn versickern, die aus dem schnellerem Ablauf nahezu aller Vorgänge resultiert? Wird die mit "Abrakadrabra" von Marketing-Strategen weggehext, oder wie soll ich mir das vorstellen?
Aus eigener Erfahrung kann ich aber das Ati-"Phänomen" bestätigen, die Karten neigen meinem subjektivem Spielempfinden eher dazu, gleichmäßige und flüssige Frameraten zu produzieren als ihre Nvidia-Gegner.
Mein Reden. Es kommt nicht allein darauf an, wie viele Frames pro Sekunde gerendert werden, sondern auch darauf, wie groß die gewichteten Abstände zwischen den Frames sind.
Wer es nicht versteht, möge sich das auf einer Skala vorstellen, auf der 30 Punkte in gleichmäßigen Abständen eingetragen sind. Wenn man jetzt jeden fünften entfernt, hat man quasi 25 fps, aber sechs mal pro Sekunde Abstände, die 15 fps entsprechen. Gefühlte 15 fps bei 25 fps und irritierendes Ruckeln bei Drehungen. Wenn die Lücken bleiben, ändern auch 60, 70, oder von mir aus 100 fps nix daran. Deswegen sind die meisten Testergebnisse total wertlos.
Deswegen ist DiRT auch bei 1280*1024 (mit allen Optionen auf Ultra) auf einer GT schon fast unspielbar, sobald mehrere Fahrzeuge im Bild sind, auf einer 3870 aber selbst mit zehn Fahrzeugen im Bild noch ziemlich flüssig, was ja schon genug Leute geschildert haben. Das selbe mit Crysis (alles auf high). Da bricht die 3870 auch nur im Schnee ein, wenn so gut wie nichts mehr zu rendern ist, und die Karte wegen Unterforderung in den 2D-Modus geht.
Diese schaffen zwar höhere Spitzenwerte, brechen aber dafür auch zwischendrin übelst ein.
Jo, und da wir alle Menschen sind, die bekanntlich Schwächen haben, lügen wir uns solche Dinge gern weg, wenn wir sie auf unserer Lieblingskarte bemerken.
Es wird sowieso viel Unsinn geschwätzt. Manche wollen ja sogar noch den Unterschied zwischen 80 und 90 fps sehen können, obwohl sie so blind sind, daß sie das extreme Tearing nicht mal bemerken, das Karten der dafür nötigen Leistungsklasse bei so aberwitzigen Framerates schon fast zwangsläufig machen, wenn man die ohne VSync laufen lässt. Seltsame Superman-Augen, die das eine sehen können, und das andere nicht.
Mein derzeitiger Vergleich daheim besteht in einer übertakteten 2900pro und einer 8800GT auf Werkstakt. Theoretisch sind die Karten im 3DMark2006 etliche Punkte auseinander, praktisch nehmen sie sich in meiner Spielauflösung von 1600x1200 nicht viel.
Hätte ich auch so erwartet. Wobei die 3dmark-Ergebnisse übertakteter Karten zwischen 3870 und 8800GT oft genug zugunsten der ATi ausfallen. Jedenfalls im ORB, und in einigen OC-Datenbanken auch. Das war ja schon bei der 2900 nicht selten so. Ich geb da nur nicht viel drauf, weil IMHO für viele Benchmarker Photoshop das OC-Tool No. One zu sein scheint.
Die Farbdarstellung ist jeweils "anders", was einem besser gefällt ist wiederum rein subjektiv.
Wenn man den Leuten trauen könnte... ich hab Screenshots gesehen, bei denen es herbe Unterschiede gab, was Detailgenauigkeit und Farbunterscheidung angeht. Bloß, daß man das so schlecht nachprüfen kann.
Inzw. interessiert mich auch die Häufigkeit von Renderfehlern viel stärker als früher, nachdem ich feststellen mußte, daß einige von mir als Softwarefehler eingeschätzte Phänomene auf meiner alten x1800gto wohl doch eher Defekte oder bauartbedingte Schwächen gewesen sind. Das wäre mir viel wichtiger als 10% Tempo, eine Karte zu haben, die jedes Spiel fehlerlos stemmt. Bei Topsellern erfährt man ja wenigstens noch, wenn es Probleme gibt, oder bekommt ein Bugfix früher oder später, aber bei weniger verbreiteten Titeln eben eher selten.
Wir sind als zahlende Kunden inzw. alle die letzten Deppen, die überall vorgeführt werden. Das wird durch Fan-Kulte und Meinungsgläubige nicht besser. Durch schräge Tests mit untauglichen Methoden erst recht nicht.
Zur Ultimate hat übrigens immer noch keiner die Temps unter Last gepostet. Hätte nicht gedacht, daß die so selten ist. Vielleicht traut sich keiner, weil so ganz passiv...
PS irgendwer schrieb was vom Alltagsgaming. Tip: Lest mal nach, wie viele Leute Ruckeln bei mehreren Fahrzeugen in DiRT beklagen, oder die unberechenbare Lenkung. Mit unregelmäßigen Frametimes haut es einen nämlich ständig in die Leitplanke. Ich spiele in 1280*1024, alle Optionen maximal hoch gestellt, und gewinne mit Tastatur (!) ohne groß zu üben in mittlerer Schwierigkeit Rennen. Mit Lenkrad fahre ich im ersten Versuch Siege nach Hause, und bei mir ruckeln zehn Autos auf der Strecke nicht. Mit 'ner 3870 bei 864/1251, D940 3,2 GHz, DDR400. Phasenweise leichtes Rucken beim Replay (nur bei 10 Fahrzeugen), aber nix beim Fahren. Bei mir ruckt auch in der Crysis-Demo (1280*1024, alles high, 4xAA) nie was.
PPS Ich finde übrigens total uninteressant, ob eine Karte bei anspruchslosen Shootern wie UT3 noch mal 10, 20 oder von mir aus 50 Frames mehr macht, weil die doch sowieso auf Vorvorjahres-GraKas schon gut genug laufen.