NVIDIA GeForce 6600-Serie - High-End goes Mainstream

Veröffentlicht am: von

NVIDIA stellt heute einen neuen Mainstream-GPU vor - wir durften bereits vor dem Launch einen Blick auf die Features der beiden neuen GeForce 6600-Chips werfen, die in Preisbereichen bis 199 Dollar die Features der GeForce 6800-Serie in den Mainstream-Bereich bringen sollen. Shader Model 3.0, eine multiskalare Architektur, Intellisample 3.0 und Ultrashadow II sowie viele andere Features gibt es also demnächst auch in einem Preisbereich, in dem sich viele Leser eher zu dem Kauf einer neuen Grafikkarte bewegen lassen, als im Preisbereich von 300 Euro aufwärts. Aus diesem Grund betitelt NVIDIA auch den Launch der GeForce 6800 als "The Doom 3 GPU" - denn mit den Hardware-Anforderungen dieses Spiels werden sicherlich einige neue Grafikkarten fällig.

Zuletzt gefiel dabei gerade die Performance der 6800er-Serie in neuen Spielen wie FarCry durch Shader Model 3.0-Pfade oder Doom 3. ATIs X800-Serie hat man zwar nicht abgehängt, aber auf Distanz gehalten - und im Mainstream-Markt steht bei ATI mit der X600 und X300-Serie bislang nichts bahnbrechendes in den Warenlagern der Händler. NVIDIA portiert nun also die Features der erfolgreichen 6800er-Serie praktisch auf den preisgünstigeren Markt - und genau so wird es auch gemacht : Im Endeffekt ist die GeForce 6600-Serie nichts anderes als eine GeForce 6800 mit 8 Pixelpipelines und 128 bit Speicherinterface.

Oben : Die GeForce 6600

Unten : Die GeForce 6600 GT

Zwei Modelle wird NVIDIA auf den Markt bringen - die GeForce 6600 GT und die GeForce 6600. Von der Technik her unterscheiden sich die beiden Karten nur in der Art des verwendeten Speichers, der Taktung von GPU und Speicher sowie der Tatsache, das die GeForce 6600 GT auch im SLI-Modus arbeiten kann. Das ist gerade bei diesen Mainstream-Karten praktisch - denn wenn man hier an die Grenzen der Fähigkeiten und der Performance stößt, läßt sich mit einem geeigneten Mainboard eine zweite Karte nachrüsten. Die SLI-Technologie haben wir schon ausführlich dargestellt, deshalb verweisen wir hiermit einmal auf unseren Artikel zur SLI-Technik und der bisher einzigen Einsatzmöglichkeit mit dem Intel Xeon "Nocona".

Auch auf die Technik der Karten brauchen wir nicht noch einmal eingehen : Es handelt sich um exakt die identische Technologie, die auch bei der GeForce 6800-Serie zum Einsatz kommt. Die 6600er-Serie kann also auch auf CineFX 3.0 zurückgreifen, ist mit ShaderModel 3.0 ausgestattet, unterstützt Features wie Intellisample 3.0 und Ultrashadow II, dieselben Rotated-Grid Antialiasing-Features und auch dieselben Video-Features wie die großen Brüder. Wer sich für die Architektur interessiert, die durchaus interessant ist, wenn man verstehen will, wie eine Grafikkarte arbeitet, sollte sich unseren Launch-Artikel zur GeForce 6800-Architektur ansehen.

Die Unterschiede der Karten beschränken sich also hauptsächlich in den Taktraten, Pipelines, SLI-Features, dem Interface und der Fertigung - diese Inhalte wollen wir auf der nächsten Seite thematisieren.


Die aktuellen NVIDIA High-End-Karten für PCI-Express haben wir in der folgenden Tabelle zusammengefasst :

Die GeForce 6600-Serie schließt die Lücke zwischen den bisherigen High-End-Karten der 6800er-Serie und den aus der AGP-Zeit mit HSI-Interface weiterlebenden PCX-Karten. Die PCX5900 haben wir hier exemplarisch aufgelistet.

Als erstes fällt auf, das wir nur PCI-Express-Karten aufgelistet haben, denn NVIDIA wird die 6600GT und 6600-Karten nur für PCI-Express auf den Markt bringen. Zwar behält man sich offen, mit Hilfe des HSI-Interfaces theoretisch auch noch AGP-Karten auf Basis des NV43-Kerns auf den Markt zu bringen, geplant ist dies aber zunächst nicht. Für AGP-Karten existieren somit nur die NV40-Karten, hier stellt die kürzlich bei OEMs zu findende 6800LE-Karte die kleinste Variante mit den neuen Features dar, diese besitzt mit 8 Pixelpipelines ähnliche Charakterzüge wie die 6600er-Serie, basiert aber auf dem NV40-Kern und besitzt ein 256bit-Interface.

Der zweite Unterschied besteht in der Fertigungstechnik. Der GeForce 6600-Chip ist der erste, den NVIDIA in 11nm-Fertigungsweise auf den Markt bringt. Das läßt zum einen die Möglichkeit, die Stromaufnahme der GPU zu senken - und so finden sich keinerlei Stromanschlüsse auf der Karte. Der PCI-Express-Bus ist jedoch auch in der Lage, die Grafikkarten mit einer deutlich höheren Aufnahme zufrieden zu stellen, als der alte AGP-Bus. Dies ist der zweite Grund, warum sich kein Stromanschluß auf NV43-Karten findet.

Zum anderen kann natürlich auch die Taktrate der Karten erhöht werden - 500 Mhz sind hier für eine Mid-Range-Karte schon ein erheblicher Takt, denselben Weg geht ATI mit der X600-Serie. Die 300 Mhz der GeForce 6600 sollten also für sparsame User genügend Overclocking-Möglichkeiten geben, wenn NVIDIA hier den Kern nicht deutlich selektieren muß.

Als Speicher setzt man bei der 6600 GT auf GDDR3 - 128 MB und 256 MB-Varianten wird man sicherlich am Markt finden, wobei bei Mid-Range-Karten meistens die 256 MB-Variante wenig bringt. Diese ist von NVIDIA auch nicht vorgesehen - aber man läßt den Partnern offen, derartiges zu produzieren. Bei der Performance der GeForce 6600-Serie dürfte sich die Auswirkung eines größeren Speichers eventuell erstmals ändern, denn NVIDIA verspricht, Spiele wie Doom 3 oder ähnlichen selbst bei 1024x786, 4x Antialiasing und 8x anisotopem Filter spielen zu können. Verwendet das Spiel große Texturen, so können 128 MB schnell voll sein, erst dann beginnt ein größerer Speicher etwas zu bringen, weil dann nicht in den langsameren Arbeitsspeicher des Systems ausgelagert werden muß.

Die GeForce 6600 wird nur DDR-SDRAM besitzen, was die Karte neben der niedrigen Taktfrequenz des GPUs von nur 300 Mhz nochmal etwas ausbremsen wird, da GDDR3 höher getaktet werden kann.

Die restlichen Features bleiben komplett erhalten - hier sind die GeForce 6600-Karten und die GeForce 6800-Karten nicht zu unterscheiden. Unterschiedlich ist hingegen die Anbindung des Speichers (128bit statt 256bit), was deutliche Nachteile bei der Speicherbandbreite hervorruft, sowie die Anzahl der zur Verfügung stehenden Pipelines (8 statt 8/12/16). Die superskalare Architektur bleibt hingegen ebenso erhalten wie die sechs Vertex Shader, die die GeForce 6800 bereits besitzt.


Der GeForce 6600-Karte werden wir uns in Kürze widmen - eine Karte hat man uns bereits in Aussicht gestellt, demnach werden wir uns mit einer entsprechenden Leistungsbeurteilung beeilen. Bis dahin müssen wir uns auf die Angaben von NVIDIA verlassen. Zunächst legt man natürlich Wert auf die Performance in Doom 3 - hier hat man mit HighQuality-Settings (es gibt auch ein Ultra-Setting) bei 1024x786, 32bit, 4xAA und 8x Aniso eine Frame-Rate von 42fps gemessen. Natürlich steht dabei in den Sternen, ob dies die durchschnittliche Frame-Rate ist oder ein Maximum / Minimum. Deutlich ist aber, dass die Karte Doom 3 ohne weiteres sehr gut verkraften kann.

Schließlich hat man einen Vergleich zu einer X600-Karte angestellt und dafür die schnellere X600XT-Variante von ATI verwendet. Diese Karte basiert auf der Technik der 9600er-Serie und hat 4 Pixelpipelines, aber einen ähnlich hohen GPU-Takt, allerdings auch einen niedrigeren Speichertakt. Heraus kommt eine Performance, die in Doom 3 natürlich nicht gegen die GeForce 6600 GT punkten kann. Da die X600XT im gleichen oder leicht niedrigeren Preissegment liegt, wird ATI sich etwas einfallen lassen müssen, wenn sich diese Benchmarks bewahrheiten.

Schlußendlich hat man die Performance einiger wichtiger Games analysiert. FarCry taucht hier leider nicht auf, aber viele andere vielversprechende Benchmarks, die wir auch verwenden. Auch hier liegt die GeForce 6600 GT gegenüber der ATI X600XT klar in Führung - durchschnittlich erreicht man die 2.5-fache Performance. Fraglich ist natürlich bei diesen Benchmarks, mit welchem Treiber man getestet hat, welches System als Unterbau diente und welche Quality-Settings verwendet wurden. Trotz allem sieht dies jedoch sehr vielversprechend aus - die 199 Dollar-Karte könnte sich zum Verkaufsrenner entwickeln.

Tatsächlich muß man abwarten, wie die Performance im Vergleich zu den anderen Karten aussieht. Wir arbeiten bereits an einem PCI-Express-Grafikkarten-Roundup und werden dies in Kürze veröffentlichen und in diesem unter anderem auch einen Blick auf die X600- und PCX-Karten werfen. Das die GeForce 6600-Serie in diesem Preisbereich schon aufgrund der Features aufräumen kann, ist sicherlich klar. Glaubt man den NVIDIA-Benchmarks, wird sich auch in der Performance einiges in diesem Segment ändern. Damit dürften sich auch die Kosten für die Low-End-Karten nach unten korrigieren.

Finally sind wir natürlich auch gespannt auf SLI - aber mehr als die offizielle Vorstellung und ein paar NVIDIA-Benchmarks konnten wir bislang nicht sehen. Wir hoffen, dass wir in Kürze auch hier ein paar Benchmarks präsentieren können. Dass sich NVIDIA dazu entschlossen hat, auch eine Mittelklasse-Karte mit dem SLI-Feature auszustatten, begrüßen wir sehr - denn so ist es möglich, eine zweite Karte nachzurüsten, wenn die GeForce 6600 GT nach ein paar Jahren einmal zu schwach sein sollte.

Weiterhin schön : Es sind Single-Slot Lösungen, die Kühl-Lösungen sehen auf den ersten Blick nicht nach einer lärmenden Karte, sondern nach einer Silent-Lösung aus und die fehlenden Stromanschlüsse lassen hoffen, dass sich die Leistungsaufnahme der Karten unterhalb der vom PCI-Express 1.0a-Standard spezifizierten 60 bzw. 75 Watt befindet.

Die Preise für die Karten gehen sicherlich in Ordnung. Die GeForce 6600 GT wird sich für 199 Dollar im Handel einfinden - in Europa also für knapp 180 Euro. Die GeForce 6600 wird darunter liegen - die Frage ist aber, ob man hier nicht lieber zur höher getakteten Karte greifen sollte, denn sie kostet im Vergleich nur einen geringen Aufpreis, sollte mit einem 66% höheren Takt aber auch bedeutend schneller sein.

Weitere Links :

Weitere Grafikkarten-Reviews finden Sie in unserer Testdatenbank unter Grafikkarten (aktuell über 1300 Grafikkartentests vorhanden).

Noch Fragen zum Review? Interessante Informationen oder Probleme mit der getesteten Hardware? Support nötig und Probleme mit der Hardware? Ab in unser Forum!