NVIDIA GeForce GTX 280

Veröffentlicht am: von
NVIDIA läutet eine neue Runde ein. So wird der gut 18 Monate alte G80, der auch einen Shrink unter dem Namen G92 erfahren hat, endlich abgelöst. Dabei muss allerdings gesagt werden, dass dieses "endlich" mit etwas Wehmut ausgesprochen werden darf, denn mit dem G80 ist NVIDIA ein großer Wurf gelungen, der die Kalifornier über Monate an der Spitze hielt - und noch immer hält. Erst vor wenigen Wochen präsentierte NVIDIA mit der GeForce 9800 GTX und der GeForce 9800 GX2 die letzten beiden Modelle, die auf der G80-Architektur basieren. Mit dem Refresh-Chip GT200 will NVIDIA keine Revolution starten, sondern setzt auf Altbewährtes. Ob dies gelingt, wollen wir klären.

Ganz neu ist die Namensgebung. Damit umgeht NVIDIA auch gleichzeitig das Problem, dass man mit der GeForce 9800 GTX und GX2 numerisch das Ende der sinnvollen Zahlenreihe erreicht hatte. Die beiden vorgestellten Modelle der GeForce-200-Serie hören auf die Namen GeForce GTX 280 und GeForce GTX 260.

Beginnen wollen wir wie immer mit einem Blick auf die technischen Details:

Bereits ein erster flüchtiger Blick lässt gewisse Ähnlichkeiten zwischen G80/G92 und GT200 erkennen. Allerdings wird ebenso deutlich, auf welchen Bereich NVIDIA besonderen Wert gelegt hat und wo die größte Zukunft gesehen wird - im GPU-Computing. Neben den zahlreichen, bereits in diversen Artikeln erwähnten, Vorteilen der G80/G92 Architektur übernimmt NVIDIA auch deren Nachteile in die GeForce-200-Serie. Diese zeigen sich besonders in der mangelnden Unterstützung von DirectX 10.1. Zwar sind bisher nur vereinzelt Titel in der Lage mit DirectX 10.1 zu arbeiten, dies wird sich in den kommenden Monaten aber entscheidend ändern. Möglicherweise hat NVIDIA dann aber bereits die nächste GPU-Generation am Start und sieht daher zum jetzigen Zeitpunkt keinen Bedarf.

Beginnen wir mit einer ausführlichen Betrachtung der Architektur.
Wie alle bisherigen GPUs wird auch der GT200 bei Taiwan Semiconductor Manufacturing Company (TSMC) gefertigt. Wie bereits die G92-GPU wird NVIDIAS neuer Chip wieder in 65 nm produziert. Gründe für eine kleinere Fertigung, zum Beispiel in 55 nm, wie es bei AMD der Fall ist, wären eine kleinere Die-Fläche, was wiederum die Ausbeute aus einem Wafer erhöhen würde sowie die geringere Spannung, die nötig wäre, um den Chip funktionieren zu lassen. Das würde sich wiederum positiv auf den Stromverbrauch und die Abwärme auswirken. Allerdings gibt es auch gute Gründe, um auf eine kleinere Fertigung zu diesem Zeitpunkt zu verzichten. So ist es immer deutlich einfacher eine bereits funktionierende und über längere Zeit erprobte Architektur in eine kleinere Fertigung zu überführen, als beide Schritte auf einmal zu tätigen. Dies hat auch Intel erkannt und ist in einen Tick-Tock-Rhythmus übergangen, also abwechselnd einen Shrink und Architekturwechsel.

Eine sehr markante Zahl in der Übersichtstabelle ist die Anzahl der Transistoren. Mit 1,4 Milliarden arbeiten fast genauso viele Transistoren in der GT200-GPU wie auf einer GeForce 9800 GX2 mit zwei G92-GPUs. Auch die weiteren Daten wirken beeindruckend. 240 Shader-Prozessoren, 80 Texture Filtering Units, 1024-MB-Grafikspeicher und ein 512 Bit breites Speicherinterface sowie ein leicht höherer GPU-Takt sprechen Bände und lassen ein gewaltiges Potenzial vermuten.

Die Unterschiede zwischen GeForce GTX 280 und 260 beschränken sich nicht nur auf einen niedrigeren Takt von GPU und Speicher, sondern zeigen sich auch in teilweise deaktivierten Bereichen der GPU, was dann auch zu den eher "krumm" wirkenden Zahlen für die Anzahl der Shader-Prozessoren und der Speichergröße führt.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Alle GeForce-8- und GeForce-9-Grafikkarten basierten auf dem gleichen Scalable Processor Array (SPA). Dieses hat NVIDIA nun in zweiter Generation etwas verändert, um die GPU-Computing-Eigenschaften zu verbessern. Daher unterscheidet NVIDIA auch zwischen zwei Betriebsmodi der Architektur. Unter dem Graphics Processing Mode (GPM) ist der normale Betriebsmodus zu verstehen, wie er zur Berechnung der herkömmlichen 3D-Anwendungen verwendet wird. Der Parallel Compute Mode (PCM) kommt zusammen mit der CUDA-Technologie für das GPU-Computing zum Einsatz.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Obiges Bild zeigt sehr schön die Größenverhältnisse zwischen dem GT200 und einem Penryn. Der GT200 ist 4-5 Mal größer, nicht zuletzt durch den größeren Fertigungsprozess, da Intel hier bereits bei 45 nm angekommen ist.

Das neue SPA besteht nun aus zehn Texture Processing Clustern (TPCs) anstatt den vormals acht. Im PCM werden diese Thread Processing Cluster genannt. Jedes TPC besteht wiederum aus drei Streaming-Multiprozessoren (SM). Vormals waren es hier nur zwei. Jeder SM beinhaltet dann acht Streaming-Prozessoren (SP) oder auch Shader-Prozessoren wie sie oftmals genannt werden. Aufgrund der höheren Integration von Streaming-(Multi)-Prozessoren steigt die Anzahl der Shader-Prozessoren von 128 auf 240 an. Jeder Streaming Prozessor beinhaltet auch einen Texture-Filtering-Prozessor, welcher im Graphics Processing Mode ebenso zum Einsatz kommt, wie im Parallel Compute Mode.

Graphics Processing Architecture:

Eine echte Neuerung in der Architektur ist der 16 kByte große L2-Cache. Hier können bereits fertig berechnete Daten abgelegt werden, auf die dann andere Recheneinheiten zurückgreifen können. So müssen diese Daten nicht auf dem langsamen externen Speicher abgelegt werden und wieder zurückgeführt werden, wenn sie gebraucht werden.

Parallel Computing Architecture:

Um die große Anzahl der Streaming Prozessoren auch mit ausreichend Daten füttern zu können, hat NVIDIA einen neuen Thread-Scheduler verbaut. Jeder Streaming-Multiprozessor kann Threads in Gruppen von 32 parallelen Threads, sogenannten Warps, erzeugen. Eine G80/G92-GPU schaffte nur 24 Warps. Somit kann der GT200 nun 30.720 Threads gleichzeitig ausführen, bei vormals 12.228 fast eine Verdreifachung.

Der Aufbau eines Texture-Processing-Cluster im Parallel Compute Mode kann wie folgt dargestellt werden:

Sehr gut zu erkennen ist der lokale Speicher, welcher in jedem der drei Streaming Multiprozessoren vorhanden ist. So muss auch hier nicht in den langsamen externen Speicher geschrieben werden.
SIMT Architecture:

Die Kommunikation zwischen den Texture Processing Clustern erfolgt mittels MIMD (Multiple Instruction - Multiple Data). Zwischen den Streaming-Multiprozessoren wird SIMT (Single Instruction - Multiple Thread) angewendet. SIMT bietet gegenüber MIMD den Vorteil, dass es schneller arbeitet und auch einfacher zu programmieren ist. SIMT sorgt ebenso dafür, dass alle Streaming-Prozessoren ausgelastet sind, was bei einer solchen Anzahl an Prozessoren sehr wichtig wird.

Larger Register File:

Gegenüber der "GeForce 8 & 9"-Generation wurde die Größe des Registers in den Streaming-Multiprozessoren verdoppelt. In der Vergangenheit kam es häufiger zu der Situation, dass lange Shader-Operationen ausgelagert werden mussten. Das neue, doppelt so große Register kann nun auch mit langen Shader-Operationen umgehen und erreicht so eine höhere Effektivität. Da auch in Zukunft mit immer komplexer werdenden Shader-Operationen gerechnet werden muss, sicher ein richtiger Schritt, der auch keinerlei Nachteile aufweist, da die Register nur einen sehr kleinen Teil der Streaming-Multiprozessoren ausmachen.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Special Function Units:

Sogenannte Special Function Units übernehmen in den Streaming Multiprozessoren MAD- und Floating-Point MUL-Operationen, also einfache Multiplikation sowie Addition. Der GT200 ist nun in der Lage pro Takt jeweils eine MAD- und eine MUL-Operation in den Special Function Units zu berechnen. Insgesamt erreicht eine GeForce GTX 280 so eine maximale Rechenleistung von einem Teraflop innerhalb des Scalable Processor Array.

Double Precision:

Für herkömmliche Berechnungen reicht eine 32 Bit Single-Precision aus. Da NVIDIA aber besonderen Wert auf GPGPU und GPU-Computing legt, können hier Situationen auftreten, bei denen eine Präzision von 32 Bit nicht mehr ausreicht. Hierzu hat NVIDIA nun Double Precision, also 64 Bit Floating-Point, eingeführt. Jeder Streaming-Multiprozessor besitzt eine Double-Precision-Einheit, was insgesamt zu 30 Double-Precision-64-Bit-Prozessoren führt. Die Rechenleistung soll damit auf Niveau eines Achtkern-Xeon-Systems liegen.

ROP:

Das ROP-System der GeForce-8-Serie unterstützt Multisampled, Supersampled, Transparency Adaptive und Coverage-Sampling-Antialiasing. Ebenfalls unterstützt wurde der Frame Buffer (FB) samt Floating-Point (FP16 und FP32), was dann auch Multisampled Antialiasing im Zusammenspiel mit HDR möglich macht. So wurden dann 24 Pixel pro Takt berechnet. Mit der GeForce GTX 280 sind nun 32 Pixel pro Takt möglich. Auch die Anzahl der Raster-Operation-Prozessoren (ROPs) steigt von sechs auf acht.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht
105 NVIDIA GT200 GPUs können aus einer 300 mm 65nm Wafer bei TSMC gefertigt werden. Intel schafft zum Vergleich 2500 45 nm Atom Prozessoren aus einer 300 mm Wafer.

512-Bit-Speicherinterface und 1-GB-Grafikspeicher:

Ein weiteres auffälliges Merkmal der GeForce GTX 280 ist der 1 GB große Grafikspeicher und das 512 Bit breite Speicherinterface. Aktuelle und zukünftige Spiele basieren auf immer hochauflösenderen Texturen. Cubemaps und Shadowmaps für Soft Shadows benötigen ebenfalls eine Menge Speicher. Besonders im Zusammenspiel mit Antialiasing kommen selbst aktuelle Grafikkarten wie zum Beispiel die GeForce 9800 GTX an ihre Grenzen. Die GeForce GTX 280 hat hier gegenüber der Vorgängergeneration einen doppelt so großen Frame-Buffer, wohingegen die GeForce GTX 260 mit 896 MB auskommen muss und auch wird, denn auch hier dürfte der Speicher mehr als ausreichend sein.

Die Steigerung von einem 384 Bit breiten, auf ein 512 Bit breites Speicherinterface wird durch acht 64 Bit Wide Frame Buffer Interface Units möglich gemacht. Auch das Texture zu Frame Buffer (TEX:FB) Verhältnis wurde auf aktuelle und zukünftige Bedürfnisse hin optimiert. Der Takt des Speichers bleibt mit 1100 MHz bei der GeForce GTX 280 gegenüber dem Vorgänger aber auf gleichem Niveau.

Stromsparmechanismen:

Ein großer Nachteil des G80/G92 war der fehlende Stromsparmechanismus. Doch der immer größer werdende Stromhunger scheint NVIDIA geholfen zu haben, nun doch eine entsprechende Technologie zu implementieren. In drei verschiedenen Modi können Karten der GeForce-200-Serie betrieben werden. Im Full-Performance-Mode arbeitet die Karte mit voller Leistung und zieht dann theoretisch bis zu 236 Watt an Leistung, um diese dann nahezu vollständig in Wärme umzuwandeln. Im Blu-ray-DVD-Playback-Mode soll der GT200 dann nur noch 35 Watt verbrauchen. Wem auch das noch zu viel ist, der kann die Karte im Idle/2D-Modus betreiben, wo dann nur noch 25 Watt aus dem Netzteil gesaugt werden.

Erreicht wird diese Reduzierung durch eine Absenkung des Taktes und der Spannungen. Hinzu kommt noch eine Technologie, wie sie unter anderem bei Notebook-Prozessoren eingesetzt wird. Das Clock Gating erlaubt es einzelne Bereiche der GPU abzuschalten, sodass sie gar keinen Strom mehr benötigen. Dazu wird die Auslastung der GPU überwacht und innerhalb von Sekundenbruchteilen zwischen den verschiedenen Modi umgeschaltet.

Kommt ein Mainboard mit nForce-780a-Chipsatz zum Einsatz, so bieten die GeForce GTX 280 und 260 auch Hybrid-SLI an. Mit Hybrid SLI bzw. HybridPower will NVIDIA nun die SLI-Technologie nicht nur was die Performance betrifft verbessern, sondern auch einen weiteren wichtigen Faktor einbringen, den Stromverbrauch. Auf einem Mainboard mit NVIDIA-Chipsatz der Hybrid-SLI unterstützt, lassen sich so entsprechende NVIDIA-Grafikkarten komplett abschalten wenn sie nicht gebraucht werden, und die Onboard-Grafik übernimmt die Arbeit.
Schon seit einiger Zeit ist klar, dass Grafikkarten von ihrer Rechenleistung her zu mehr geeignet sind, als nur der stupiden Berechnung von 3D-Anwendungen. Allerdings wussten die Hersteller auch lange nicht, wie die brach liegende Leistung genutzt werden könnte. Mit der weiteren Verbesserung der Shader-Prozessoren bzw. deren optimierter Programmierung sind die Anwendungsfelder nun verfügbar. Die Durchführung der Berechnungen abseits der 3D-Anwendungen nennt sich auch GPGPU (General Purpose Computation on Graphics Processing Unit).

Sowohl AMD als auch NVIDIA arbeiten verstärkt an Lösungen für das GPU-Computing. AMDs CAL (Compute Abstraction Layer) bietet eine Möglichkeit sehr hardwarenah auf der GPU zu rechnen, allerdings ist die Umsetzung für den Programmierer sehr schwierig. NVIDIAs CUDA (Compute Unified Device Architecture) ist hier dank einfacher Programmiersprache in Anlehnung an C einfacher gestaltet und wirkt auch deutlich flexibler.

Zum jetzigen Zeitpunkt sind nur wenige Programme in der Lage von CUDA zu profitieren. Wir verwendeten eine angepasste Version von [email protected] und den Media Converter BadaBOOM. Als System kam nicht unser normales Testsystem für die Grafikkarten zum Einsatz, sondern ein leicht modifiziertes bestehend aus:

  • Intel Core 2 Extreme X9770 @ 4,00 GHz
  • 2 GB DDR2-1066
  • NVIDIA nForce 790i Ultra Mainboard

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Beginnen wollen wir mit einem Test des Media Converter BadaBOOM. Dieser kann zur Transcodierung einer Video-Datei entweder auf die Grafikkarten zurückgreifen oder aber wie es normalerweise bisher üblich ist, auf die CPU. Die Quelldatei hat eine Länge von 2 Minuten. Das Ergebnis zeigt deutlich, dass NVIDIA hier vielleicht eine Anwendungslücke gefunden hat, denn die Berechnung über die GeForce GTX 280 dauerte nur knapp über 20 Sekunden, während der Intel Core 2 Extreme X9770 @ 4,00 GHz fast genau eine Minute benötigte.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Beeindruckend ist die Performance auch bei [email protected] Nur 600 Nanosekunden pro Tag benötigt die GeForce GTX 280, eine ATI Radeon HD 3870 X2 erreicht einen Wert von 180 Nanosekunden pro Tag. Schlusslich bildet unser Intel Core 2 Extreme X9770 @ 4,00 GHz mit 39 Nanosekunden pro Tag.

    Die beiden Programme [email protected] und BadaBOOM zeigen sehr deutlich welches Potenzial in der GPU-Computing-Technologie steckt. Über die Anwendungsgebiete lässt sich sicher streiten und sicherlich hat NVIDIA in den letzten Wochen und Monaten auch sehr stark seine Hardware optimieren können, sei es durch Einflussname auf die Programmierung der Programme oder auf die der Treiber. Wir sind gespannt welche Möglichkeiten hier in Zukunft noch geboten werden.
    Leider stand uns kein Sample einer GeForce GTX 260 zur Verfügung, dennoch wollen wir an dieser Stelle nicht darauf verzichten die Karte in Bildern einmal näher vorzustellen.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Rein äußerlich unterscheiden sich die GeForce GTX 280 und 260 nicht. Vom Layout des PCBs bis hin zum Kühler sind beide Karten identisch. Unterschiede finden sich nur im Detail. So reichen der GeForce GTX 260 zwei 6-Pin-PCI-Express-Stromanschlüsse.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Auch auf der Rückseite sind erst einmal keine Unterschiede erkennbar. Auf der PCI-Blende befinden sich zwei Dual-Link-fähige DVI-Ausgänge und ein TV-Anschluss.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Dank zweier SLI-Anschlüsse ist auch die GeForce GTX 260 in der Lage im SLI- oder 3-Way-SLI-Modus betrieben zu werden. Sobald die ersten Modelle verfügbar sind, werden wir uns mit diesem Thema näher beschäftigen.
    Betrachten wir nun das eigentliche Testobjekt, die GeForce GTX 280.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Mit 28 Zentimetern hat die GeForce GTX 280 die gleiche Länge wie eine GeForce 9800 GX2 oder eine ATI Radeon HD 3870 X2. Damit beachtet NVIDIA genau an die ATX-Spezifikationen, doch auch dann kann es noch zu Problemen kommen, denn nicht jeder Gehäusehersteller hält sich an die Vorgaben der ATX-Spezifikation.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Bereits mit der GeForce 9800 GX2 entschied sich NVIDIA dazu, die Karte komplett in ein Metallgehäuse zu verpacken. Diese Konstruktion konnte schon ihre Vor- und Nachteile unter Beweis stellen. So soll die Wärme besser abtransportiert werden und die Karte ist vor mechanischen Schäden und elektrostatischen Entladungen geschützt.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Aufgrund der maximalen Leistungsaufnahme von 236 Watt benötigt die GeForce GTX 280 eine 6-Pin- und einen 8-Pin-PCI-Express-Stromanschluss. Ein Betrieb mit zwei 6-Pin-Anschlüssen ist nicht möglich. Im Gegensatz zur GeForce 9800 GX2 verzichtet NVIDIA auf eine farbliche Signalisierung bei fehlender oder falscher Verkabelung.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Direkt oberhalb der Slotblende befinden sich die beiden SLI-Anschlüsse, gut versteckt hinter einer kleinen Abdeckung, ähnlich wie bei der GeForce 9800 GX2. Zwei SLI-Anschlüsse konnten zuletzt bei der GeForce 8800 GTX und Ultra sowie der GeForce 9800 GTX bewundert werden und erlauben den Betrieb dieser Karten in einem 3-Way-SLI-System.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Auf dem Slotblech bietet NVIDIA zwei Dual-Link-fähige DVI-Ausgänge, die auch HDCP-kompatibel sind. Hinzu kommt noch ein TV-Anschluss. Wird der SPDIF-Anschluss bei den Stromanschlüssen mit einem entsprechenden Signal versorgt, kann über die DVI-Ausgänge auch Ton ausgegeben werden. Zwar bietet der GT200 die Unterstützung für HDMI und den Display-Port, NVIDIA verzichtet aber noch auf einen solchen Ausgang, was zumindest im Falle von HDMI unverständlich ist.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Dank zweier SLI-Anschlüsse ist die GeForce GTX 280 in der Lage sowohl im Standard-SLI- als auch im 3-Way-SLI-Modus betrieben zu werden.

    Beginnen wir mir den ersten Messungen. Das Testsystem setzt sich wie folgt zusammen:

    • Intel Core 2 Duo Extreme X6800
    • EVGA nForce 680i SLI 775 Black Pearl
    • 2x 2048 MB CellShock DDR2-800 CL4
    • Samsung SP2504C
    • Windows Vista Ultimate 64 Bit
    • NVIDIA ForceWare 177.34
  • Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Im Idle-Betrieb kann die GeForce GTX 280 dank der Stromspartechnologien ihre Vorteile ausspielen und setzt sich, wenn auch nur knapp, sogar vor die ATI Radeon HD 3870 X2.

    Unter Last muss die Karte ihren 1,4 Milliarden Transistoren Tribut zollen, denn hier steigt der Stromverbrauch stark an. Maximal 236 Watt verbraucht eine einzelne GeForce GTX 280.

    Auch bei der Lautstärke kann uns die GeForce GTX 280 überzeugen. Unser subjektiver Eindruck unterscheidet sich allerdings vom Messwert, denn bereits im Idle-Betrieb kam uns die Karte lauter vor, als es die Messung zeigt. Offenbar sorgen hier gewisse Frequenzen für diesen Eindruck.

    Ein ähnliches Bild wie im Idle-Betrieb zeigt sich auch unter Last. Obwohl die Messwerte der Karte sehr gute Eigenschaften bescheinigen, ist unser subjektiver Eindruck anders gelagert.

    Overclocking:

    Wie auf den ersten Seiten aufgeführt arbeitet die GeForce GTX 280 mit einem GPU-Takt von 602 MHz, einem Shader-Takt von 1296 MHz und einem Speichertakt von 1107 MHz. In den ersten Übertaktungsversuchen konnten wir den Takt in einem für NVIDIA Karten üblichen Maße noch oben treiben. Schlussendlich erreichten wir einen GPU-Takt von 668 MHz, einen Shader-Takt von 1448 MHz und einen Speichertakt von 1204 MHz. Die Performancesteigerung lag zwischen sieben und zwölf Prozent, also durchaus in einem aktzeptablen Rahmen.








    Es hat sage und schreibe 18 Monate gedauert, bis wieder ein großer Sprung seitens NVIDIA zu erkennen ist. Die Kalifornier hatten es aber auch nicht wirklich nötig, Druck auf AMD/ATI aufzubauen und so ist zu verstehen, warum keine wirkliche Neuerungen eingeführt wurden, sondern Kosmetik im Detail betrieben wurde. Dieser Zustand könnte sich mit der ATI-Radeon-HD-4000-Serie bald ändern - was ein Grund dafür sein könnte, dass NVIDIA die GT200-GPU deutlich früher präsentierte, als erwartet.

     

    Was die Performance anbelangt, setzt die GeForce GTX 280 genau da an, wo GeForce 9800 GTX und GX2 endeten. Bei niedrigen Auflösungen und ohne Antialiasing und anisotrope Filterung sind kaum Unterschiede vorhanden, hier bildet der Prozessor den Flaschenhals. Werden aber Auflösungen und die Qualitätseinstellungen hochgeschraubt, zeigt die GeForce GTX 280 ihre Zähne und profitiert von den 1 GB an Grafikspeicher sowie der verbesserten Architektur. Die hohen Erwartungen, die im Vorfeld durch zahlreiche Gerüchte geschürt wurden, kann der GT200-Chip allerdings leider nicht gänzlich erfüllen.

    Negativ fiel die GeForce GTX 280 eigentlich nur durch ihre Lautstärke auf. Warum der Lüfter aber auch schon bei eigentlich niedriger Temperatur sehr schnell hoch regelt, wird wohl NVIDIAs Geheimnis bleiben. Hier könnte die komplette Ummantelung in einem Metallgehäuse eine Rolle spielen. Zwar ist der Luftstrom damit ausgerichtet und kann dahin geleitet werden, wo er am effektivsten gebraucht wird, allerdings macht es manchmal den Eindruck als könne die Karte damit nicht "frei atmen", ähnlich wie es schon mit der GeForce 9800 GX2 der Fall war. Ein weiterer Nachteil ist die fehlende Unterstützung von DirectX 10.1 sowie der fehlende HDMI-Port.

    Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

    Ein Lob verdient der GT200 für seine Stromspareigenschaften. Endlich werden im Idle-Betrieb nicht mehr sinnlos teure Kilowatt-Stunden verbraucht. Damit nimmt sich NVIDIA aber teilweise ein Argument für Mainboards mit Hybrid-SLI-Unterstützung, für die Hybrid-Power ein wichtiges Kaufargument sein könnte.

    PhysX?: Nach dem Aufkauf von Ageia hatten viele schon zum Start der GeForce GTX 280 mit einer PhysX-Unterstützung gerechnet, aber man wird sich noch etwas gedulden müssen. Erst im Laufe dieser Woche will NVIDIA einen Beta-Treiber veröffentlichen, der dann die PhysX-Unterstützung für alle GeForce-8- und -9-Grafikkarten sowie natürlich die GeForce GTX 280 bringt. In etwa vier Wochen soll der Treiber dann auch offiziell verfügbar sein. Die Physik-Berechnung soll mit diesem Treiber parallel zur Grafikdarstellung geschehen. Zumindest die GeForce GTX 280 dürfte dazu auch leistungsfähig genug sein. Es ist aber auch möglich eine extra Grafikkarte für die Physikberechnung abzustellen. So ist eine Kombination aus GeForce 8800 GT zur Physik-Berechnung und GeForce 9800 GTX zur grafischen Darstellung denkbar. Laut NVIDIA ist dies auch auf einem Mainboard ohne SLI-Unterstützung möglich.

    Mit einem Preis von 550 Euro entfernt sich NVIDIA recht weit von dem derzeitigen Preis von etwa 200 Euro der GeForce 9800 GTX. Die ersten Hersteller bieten ihre Modelle für rund 500 Euro an.

    Positive Punkte der GeForce GTX 280:

  • sehr gute Performance
  • Stromspartechnologie

    Negative Punkte der GeForce GTX 280:

  • Lautstärke des Lüfters
  • kein HDMI
  • zum Start recht hoher Preis

    Weitere Links:

  • Grafikkarten-Forum
  • NVIDIA GeForce 9800 GTX
  • NVIDIA GeForce 9800 GX2
  • ATI CrossFireX vs. NVIDIA Quad-SLI