XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

Veröffentlicht am: von

titan-logo

Die Titanen bilden das älteste Göttergeschlecht der Theogonie der griechischen Mythologie. Oft werden sie als Riesen in Menschengestalt beschrieben, die über die legendäre Goldene Ära herrschten. NVIDIA hat "Titan" als Namen seiner neuesten Desktop-Grafikkarten gewählt. Die GeForce GTX Titan soll das Non-Plus-Ultra der aktuellen GPU-Entwicklung darstellen und NVIDIA gibt in Sachen Performance und Preisgestaltung an, keinerlei Kompromisse eingehen zu wollen. In der griechischen Mythologie verloren die Titanen den Kampf gegen die Olympier und wurden in die Unterwelt verbannt. Ob die GeForce GTX Titan dieses Schicksal mit ihren Namensgebern teilen muss, klären wir in diesem Artikel.

Aufgrund des NVIDIA-NDAs für die GeForce GTX Titan mussten wir den Test in zwei Teile trennen, da wir zunächst einmal nur die technischen Daten und Fotos präsentieren durften. Natürlich konnten wir anhand dessen auch schon die architektonischen Details besprechen. Alle Messwerte und Benchmarks sind nun - zwei Tage später - aber nun im Anschluss an die ausführliche theoretische Betrachtung erlaubt und finden sich nun ebenso in diesem Artikel. 

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Mitte Mai des vergangenen Jahres erwähnte NVIDIA auf der GTC 2012 erstmals die Trennung der "Kepler"-Architektur in zwei Bereiche: Desktop (GK10x) und GPU-Computing (GK11x). Gerüchte über einen zweiten, größeren Chip gab es auch damals schon. Die ersten Daten nannte NVIDIAs CEO Jen-Hsun Huang: 7,1 Milliarden Transistoren, 13 oder 14 SMX-Cluster, 384 Bit Speicherinterface und eine dreifach höhere Double-Precision-Performance gegenüber "Fermi". Schon damals äußerte sich NVIDIA positiv über die Möglichkeit, dass GK110 in einigen Monaten auch als GeForce-Produkt das Licht der Welt erblicken könnte. Doch klar war auch, es würde noch etwas dauern, denn bislang war nicht einmal ein Tesla-Produkt in Aussicht gestellt worden.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Dies änderte sich erst im November des vergangenen Jahres, denn nun wurden die Tesla K20 und K20X offiziell vorgestellt. Anhand der technischen Daten konnte sich jeder nun ausmalen, wie ein GeForce-Produkt aussehen könnte. Unklarheit herrschte ab sofort eigentlich nur noch über die Performance in Spielen, denn anhand der für das GPU-Computing vorgesehenen Benchmarks lässt sich dies nur schwer errechnen. Zumindest aber war bereits zu diesem Zeitpunkt klar, dass ein entsprechendes GeForce-Produkt über maximal 2688 CUDA-Kerne, 6144 MB an Grafikspeicher und ein 384 Bit breites Speicherinterface verfügen wird. Über die Taktraten ließen sich aufgrund der unterschiedlichen Anwendungen einer Tesla- und einer GeForce-Karte noch keinerlei Rückschlüsse ziehen.

Heute nun fallen die letzten Hüllen und wir wollen damit beginnen uns die GeForce GTX Titan bzw. deren GK110-GPU einmal genauer anzuschauen. 

Architektonische Eckdaten

Zunächst einmal werfen wir einen Blick auf die GK110-GPU:

GK110 Die
Die-Shot des GK110

Mit dem GK110 fertigt NVIDIA einen der derzeit komplexesten und größten Chips. 7,1 Milliarden Transistoren sind in ihm untergebracht und selbst bei einer Fertigung in 28 nm misst der Chip etwas über 551 mm². In Sachen Größe können allenfalls der IBM zEC12 mit 597 mm² (32 nm) oder der Intel Itanium "Poulson" mit 544 mm² (32 nm) mithalten. Aber auch der GT200 der GeForce-200-Serie war mit 576 mm² keine kleine GPU, wurde allerdings noch in 55 nm gefertigt.

Bei der Anzahl der Transistoren ist GK110 bei den GPUs ungeschlagen und auch modernste Prozessoren kommen allenfalls auf 5 Milliarden Transistoren (62-Kerner Intel Xeon Phi). Aber Größe und Anzahl der Transistoren sagt natürlich noch wenig über die Leistungsfähigkeit aus. Vorher schauen wir uns aber an, wie sich eine solch komplexe GPU zusammensetzt.

GK110 Blockdiagramm
GK110 Blockdiagramm der GeForce GTX Titan

Genau wie bei jeder GPU auf Basis der "Kepler"-Architektur bleibt es bei den SMX-Cluster, die jeweils 192 CUDA-Kerne beheimaten. Die GPU der GeForce GTX Titan besitzt 14 dieser SMX-Cluster und kommt somit auf 2688 CUDA-Kerne. Das Blockdiagramm von GK110 zeigt in den äußeren Bereichen das PCI-Express-3.0-Host-Interface sowie die sechs Speicher-Controller, die insgesamt auf eine Breite von 384 Bit kommen. Die 14 SMX-Cluster sind in fünf Gruppen aus sogenannten Graphics-Processing-Clustern zusammengefasst.

Für die beiden Tesla-Modelle auf Basis von GK110 erreichte NVIDIA einen enormen Gewinn an Double-Precision-Performance und die im Vergleich zu GK104 nur moderate Steigerung bei der Single-Precision-Performance erklärt sich durch eine neue Ausrichtung des FP32- zu FP64-Verhältnisses. Mit GK110 setzte NVIDIA zunächst voll auf den professionellen Markt und den Einsatz im HPC (High Performance Computing). Die erste Ausbaustufe von "Kepler" in Form des GK104-GPU auf der GeForce GTX 680 ist also im eigentlichen Sinne für den Einsatz als GeForce-GPU gedacht, wo die Single-Precision-Performance für das Rendering eine entscheidende Rolle spielt. Das Verhältnis Double-Precision zu Single-Precision ist von 1/2 auf 1/24 reduziert worden. Zu guter Letzt ist bei GK104 auch nur der Grafikspeicher ECC geschützt, nicht aber die Caches. Nun will NVIDIA GK110, mit seiner speziellen Ausrichtung auf den professionellen Markt, auch als GeForce-Produkt etablieren.

GK110 SMX-Cluster Blockdiagramm

Um eine höhere Double-Precision-Performance zu erreichen, hat NVIDIA pro SMX-Cluster nun 64 Floating-Point-Kerne eingebaut. Bei GK104 waren es nur acht pro Cluster. Zusammen mit der höheren Anzahl an Clustern sorgt dies für einen enormen Schub bei der Double-Precision-Performance. NVIDIA bleibt auch seiner skalaren Architektur bzw. der "Superscalar Dispatch Method" treu, die wir erstmals bei GF104 sahen und welche die Berechnungen etwas fehleranfälliger machen. Dadurch wird man etwas abhängiger von Thread Level Parallelism (TLP) und Instruction-Level Parallelism (ILP) bzw. der ganzzahligen linearen Optimierung.

Per Default laufen die Double-Precision-CUDA-Kerne allerdings nur mit 1/8 des Taktes. Im NVIDIA Control Panel ist in den 3D-Settings ein Menüpunkt namens "CUDA - Double Precision" zu finden. Wird dieser aktiviert, laufen die Double-Precision-CUDA-Kerne mit einem höheren Takt, allerdings nicht dem vollen 3D-Takt. Dies ist also nur für Nutzer interessant, die für wissenschaftliche Anwendungen die volle Double-Precision-Performance benötigen. Spieler werden diese Option nicht nutzen wollen, da die Rendering-Performance durch den niedrigeren Takt reduziert wird.

NVIDIA Control Panel
Aktivierung der Double-Precision-CUDA-Kerne im NVIDIA Control Panel

Jedes SMX-Cluster verfügt außerdem über einen 64 kB großen L1-Cache und einen 48 kB Read-Only Data Cache. Im Vergleich zu GK104 hat man den L1-Cache also nicht angetastet, verpasst den Clustern in GK110 aber einen 48 kB großen Read-Only Data Cache. Pro SMX-Cluster bleibt es auch bei den 16 Textur-Einheiten, sodass GK110 derer maximal 240 besitzt. Die Double-Precision-Performance wird auch durch eine Änderung an den Registern erhöht. So ist die Anzahl der Register pro SMX-Cluster mit 65.536 im Vergleich zu GK104 identisch geblieben, dafür aber darf bei GK110 pro Thread auf 255 Register zugegriffen werden - bei GK104 sind es nur 63.

Was das für die reine Rechenleistung bedeutet, zeigt folgender Vergleich. Die GeForce GTX 680 kommt bei einfacher Genauigkeit auf eine Performance von 3,09 TFLOPs. Die Double-Precision-Performance liegt sogar nur bei 128 GFLOPs. GeForce GTX Titan erreicht eine Single-Precision-Performance von 4,5 TFLOPs. Bei doppelter Genauigkeit sind es 1,5 TFLOPs.

 

NVIDIA GeForce GTX Titan
Straßenpreis zirka 950 Euro
Homepage www.nvidia.de
Technische Daten
GPU GK110 (GK110-400-A1)
Fertigung 28 nm
Transistoren 7,1 Milliarden
GPU-Takt (Base Clock) 837 MHz
GPU-Takt (Boost Clock) 876 MHz
Speichertakt 1502 MHz
Speichertyp GDDR5
Speichergröße 6144 MB
Speicherinterface 384 Bit
Speicherbandbreite 288,4 GB/Sek.
DirectX-Version 11.0
Shadereinheiten 2688 (1D)
Textur Units 224
ROPs 48
Pixelfüllrate 40,2 GPixel/Sek.
SLI/CrossFire SLI
TDP 250 Watt

 

Die GK110-GPU auf der GeForce GTX Titan arbeitet mit einem Basis-Takt von 837 MHz auf allen 2688 CUDA-Kernen. GPU-Boost kennen wir bereits von den GK104-GPUs und wird auch bei der GeForce GTX Titan genutzt. Auf mindestens 876 MHz kommt die GPU hier, was laut NVIDIA aber eine sehr konservative Angabe ist. Oft sollen 1000 MHz und mehr erreicht werden. Die 224 Textureinheiten und 48 ROPs ergeben sich aus der Anzahl der SMX-Cluster und sind natürlich ebenfalls eine deutliche Steigerung gegenüber der GeForce GTX 680 (128/32).

Der Speicher arbeitet wie üblich mit 1502 MHz und kommt dank 384-Bit-Anbindung auf eine Speicherbandbreite von 288,4 GB/Sek. Insgesamt stehen nun 6144 MB GDDR5-Grafikspeicher zur Verfügung. Damit öffnet NVIDIA auch den vermeintlichen Flaschenhals gegenüber den Karten von AMD, die meist mit mehr Speicher ausgestattet sind als die Modelle von NVIDIA.

NVIDIA gibt eine TDP von 250 Watt an. Aufgrund der komplexeren GPU ist dies im Vergleich zur GeForce GTX 680 (195 Watt) zunächst einmal auch verständlich.


Nun wollen wir uns die Karte in einem Preview sowie den Vergleich zur Konkurrenz anschauen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Die wichtigsten technischen Daten in Form von 2688 CUDA-Kernen, 4,5 TFLOPs Single-Precision-Performance und 288,4 GB/Sek. Speicherbandbreite haben wir bereits genannt. Doch NVIDIA will noch einiges mehr bieten.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Auf Seiten der Performance sieht man sich vor allem durch die Verwendung der GK110-GPU und 6 GB an Grafikspeicher sowie der Möglichkeit gleich mehrere GeForce-GTX-Titan-Karten in einem SLI zu verwenden an der Spitze der aktuellen Entwicklung.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Mit der Leistung einher soll aber auch eine effektive Kühlung gehen. In vielen Belangen, sowohl bei der Konstruktion als solche als auch bei der Materialwahl, hat man sich an der GeForce GTX 690 orientiert. Obligatorisch ist die Verwendung einer Vapor-Chamber direkt über der GPU. Die Abwärme soll dann über feine Aluminium-Finnen an die Umgebungsluft abgegeben werden. Der dazu verwendete Lüfter soll neue Maßstäbe im Bereich der Temperatursteuerung setzen. Dazu ist natürlich das entsprechende Lüfter-Profil notwendig.

Doch die GeForce GTX Titan wird nicht die einzige Alternative für potenzielle Käufer sein, auch wenn sie zunächst einmal in einer eigenen Leistungsklasse spielen mag. Daher haben wir uns die bisherigen Konkurrenten ebenfalls angeschaut und wollen diese gegen die GeForce GTX Titan vergleichen.

titan-gpuz1

Der GPU-Z-Screenshot bestätigt noch einmal die bereits bekannten technischen Daten. In der folgenden Tabelle schauen wir uns die Konkurrenz der GeForce GTX Titan an.

Vergleich mit der Referenz

 

NVIDIA GeForce GTX Titan gegen die Konkurrenz
Modell AMD Radeon HD 7970 GHz Edition NVIDIA GeForce GTX 680 NVIDIA GeForce GTX Titan
Straßenpreis ab 360 Euro ab 400 Euro ab 950 Euro
Homepage www.amd.de www.nvidia.de www.nvidia.de
Technische Daten
GPU Tahiti XT2 GK104 GK110
Fertigung 28 nm 28 nm 28 nm
Transistoren 4,3 Milliarden 3,54 Milliarden 7,1 Milliarden
GPU-Takt (Base Clock) 1000 MHz 1006 MHz 837 MHz 
GPU-Takt (Boost Clock) 1050 MHz 1058 MHz 876 MHz
Speichertakt 1500 MHz 1502 MHz 1502 MHz
Speichertyp GDDR5 GDDR5 GDDR5
Speichergröße 3072 MB 2048 MB 6144 MB
Speicherinterface 384 Bit 256 Bit 384 Bit
Speicherbandbreite 288 GB/Sek. 192,3 GB/Sek. 288,4 GB/Sek.
DirectX-Version 11.1 11.0 11.0
Shadereinheiten 2048 (1D) 1536 (1D) 2688 (1D)
Texture Units 128 128 224
ROPs 32 32 48
TDP 250 Watt 195 Watt 250 Watt

 

Wir haben uns für den Vergleich ausschließlich auf die Single-GPU-Karten konzentriert. Sicherlich hätte man auch noch die GeForce GTX 690 (Hardwareluxx-Artikel) und "Radeon HD 7990" (ASUS ARES II (Hardwareluxx-Artikel) und PowerColor Devil 13 HD7990 (Hardwareluxx-Artikel)) dagegen stellen können, doch in den entsprechenden Artikeln kann man sich auch selbst einen Eindruck dieser Karten im Vergleich zur GeForce GTX Titan verschaffen. So wollen wir uns auf die AMD Radeon HD 7970 GHz Edition (Hardwareluxx-Artikel) und NVIDIA GeForce GTX 680 (Hardwareluxx-Artikel) konzentrieren.

Schon allein anhand der Unterschiede bei der Anzahl der Transistoren wird deutlich, welches Leistungspotenzial in der GeForce GTX Titan steckt. Doch die 7,1 Milliarden Transistoren müssen auch möglichst effektiv genutzt werden. Ob die "Kepler"-Architektur in der Lage ist, entsprechend gegenüber GK104 zu skalieren, wird sicherlich ein interessanter Punkt bei den Benchmarks werden. Beim GPU-Takt gibt NVIDIA recht konservative 837 MHz vor. Im Vergleich zu den 1006 MHz der GeForce GTX 680 ist dies sicherlich bemerkenswert. Im Hinterkopf muss allerdings auch die deutlich komplexere GPU behalten werden. Die 876 MHz Boost-Takt sind ebenfalls recht defensiv gewählt, zumal NVIDIA angibt, dass fast jede Karte mindestens 1000 MHz unter Last erreichen soll. Unsere Karte erreichte in den meisten 3D-Anwendungen einen Takt von 1006 MHz.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Für den Speichertakt geben sich die drei Konkurrenten nichts. 1500 MHz sind aktuell für den Grafikspeicher eine Referenzvorgabe der jeweiligen Hersteller. Schon deutlicher wird der Unterschied beim Speicherausbau. Zwar haben wir Radeon-HD-7970-Karten mit 6 GB und auch GeForce-GTX-680-Karten mit 4 GB gesehen, von AMD und NVIDIA konzipiert wurden beiden Karten allerdings mit der Hälfte an Speicher. NVIDIA hat aber offenbar erkannt, dass die Speichergröße eine wichtige Rolle spielt und die GeForce GTX 680 mit 2 GB gerade so am Limit operierte. Wichtig ist aber auch die Speicherbandbreite und hier zieht NVIDIA mit AMD gleichauf, denn durch den Takt und das 384 Bit breite Speicherinterface wird eine Speicherbandbreite von 288,4 GB/Sek. erreicht.

Interessant werden auch die Messungen zum Stromverbrauch sein. AMD gibt 250 Watt für seine Radeon HD 7970 GHz Edition an und unsere Tests zeigten auch, dass AMD mit der höheren Spannung und dem höheren Takt hier deutlich Federn lassen musste. Für NVIDIA und die GeForce GTX 680 lief zunächst alles in die richtige Richtung. Mit der GeForce GTX Titan präsentiert man nun aber ein Produkt, das in einer neuen Leistungsklasse spielen soll. Die 250 Watt TDP sind daher ein nicht erwarteter Anspruch, den sich NVIDIA allerdings auch selbst gewählt hat.

Am heutigen Tag erlaubt NVIDIA nur die Nennung der technischen Daten sowie einige Fotos. Dennoch wollen wir unseren Lesern nicht die von NVIDIA eigens erstellten Benchmarks und Messungen vorenthalten.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Am Beispiel von fünf Spielen will uns NVIDIA die Performance der GeForce GTX Titan im 3-Way-SLI näher bringen und vergleicht diese mit zwei GeForce GTX 690 im SLI. Von nur wenigen Prozent Mehrleistung in Battlefield 3 und Batman: Arkham City, bis hin zu der doppelten Performance in Max Payne 3, Crysis 3 und FarCry 3 soll mit der neuen Karten möglich sein.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Wie bereits angesprochen spielen für NVIDIA aber auch die Kühlung und dort vor allem die Lautstärke eine Rolle. Dazu zieht man auch den Vergleich mit einem CrossFire-System bestehend aus drei Radeon HD 7970 sowie einem 3-Way-SLI bestehend aus drei GeForce GTX 680. Alle diese beiden Konfigurationen soll ein 3-Way-SLI bestehend aus drei GeForce GTX Titan um Längen schlagen. In den Messungen wird zumindest eine Karte zeigen müsse, ob der Anspruch auch erfüllt werden kann.

Das Sample im Detail

Einige wichtige Daten der GeForce GTX Titan sind wir bereits angegangen, doch nun wollen wir uns einige weitere genauer anschauen.

 

Das Testsample im Detail
Taktraten (3D/2D) Chip 324 MHz/837 MHz
Speicher 162 MHz / 1502 MHz 
  Turbo 876 MHz
Speicherausstattung Größe 6144 MB
  Hersteller, Typ Samsung, GDDR5
Speicherinterface 384 Bit
Layout Länge (inkl. Slotblech) 26,5 cm
  Länge (inkl. Kühler) 26,5 cm
  Breite (inkl. Kühler) 11 cm
Höhe (inkl. Kühler) 3,6 cm (Dual-Slot)
  Stromversorgung 1x 8 Pin
1x 6 Pin
  Spannungsversorgung 6+2 Phasen
Kühler Größe Dual-Slot
Kühlkörper Vapor-Chamber
vernickelte Aluminiumfinnen
Lüfter 65-mm-Radiallüfter
Anschlüsse 2x DL-DVI 
1x DisplayPort
1x HDMI
Lieferumfang

-

 

Die 837 MHz Basis- und 876 Boost-Takt kennen wir bereits - 324 MHz im Idle-Betrieb sind auch keine große Überraschung, denn in diesen P-State versetzten sich bereits die weiteren "Kepler"-Ableger. Der Speicher taktet von 1502 auf 162 MHz, auch eine durch die Teiler vorgegebene Größe der "Kepler"-Karten. In den meisten 3D-Anwendungen stellte sich ein GPU-Takt von 1006 MHz ein, was einer Steigerung von 20,1 Prozent gegenüber dem Basis-Takt und 14,8 Prozent gegenüber dem Boost-Takt entspricht. Der von NVIDIA vorgegebene Wert von 837 MHz bzw. des Boost-Taktes von 876 MHz ist also eher ein grober Richtwert, der nur als Mindestwert eine Bedeutung hat.

Die GPU-Spannung liegt im Idle-Betrieb bei 875 mV und geht auf 1,162 Volt unter Belastung herauf. Der Nutzer kann die Spannung manuell auf bis zu 1,2 Volt anheben. NVIDIA sieht folgende P-States vor:

 

P-States der GeForce GTX Titan
875 mV 324 MHz
887 mV 327 MHz
1000 mV 836 MHz
1162 mV 1005 MHz

 

Das PCB der GeForce GTX Titan misst 26,5 cm in der Länge, ist 11 cm hoch und samt Kühler ist die Karte 3,6 cm dick - also im Dual-Slot-Design ausgeführt. Damit hält sich NVIDIA an die ATX-Spezifikationen und will auch eigene thermische Vorgaben einhalten.

Nach den ganzen technischen Daten folgt nun die äußerliche Betrachtung der GeForce GTX Titan.


Auf den folgenden Seiten wollen wir uns die GeForce GTX Titan einmal etwas genauer anschauen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Im Vergleich zum Design der GeForce-GTX-600-Serie sicherlich am auffälligsten ist die Farbgebung des Kühler-Gehäuses. Die Ähnlichkeiten zur GeFore GTX 690 sind unverkennbar. Durch den erneuten Einsatz eines Magnesium-Gehäuses verspricht sich NVIDIA bessere Wärmeleiteigenschaften, ein geringeres Gewicht und eine Geräuschdämmung. Auf die einzelnen Details gehen wir in den folgenden Bildern genauer ein.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Auf der Rückseite verzichtet NVIDIA auf eine Backplate und somit gibt die GeForce GTX Titan den Blick auf das PCB frei. Sehr schön zu erkennen sind die einzelnen Bereiche: GPU samt Speicher rechts und Strom- und Spannungsversorgung links. Rings um die Rückseite der GPU sind 12 oder 24 GDDR5-Speicherchips untergebracht.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Wieder auf der Vorderseite prangt in direkter Nähe zur Slotblende der "Titan"-Schriftzug. Er ist direkt in das Magnesium-Gehäuse eingefräst und markiert die Grafikkarte sehr deutlich.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Der Radiallüfter mit einem Durchmesser von 65 mm soll sich durch eine besondere Laufruhe auszeichnen. Bei der vergleichbaren GeForce GTX 690 setzte NVIDIA noch auf einen Axiallüfter mit einem deutlich größeren Durchmesser, dessen Lüfterschaufeln auch einen besonderen Anstellwinkel aufweisen. Neben der Einfassung des Lüfters sorgt NVIDIA auch durch die Wahl einer verchromten Abdeckung für eine edle Optik.

Die intelligente Lüftersteuerung soll einen Algorithmus einsetzen, der die Drehzahl stufenlos an die Temperatur anpasst. Auf die genauen Details gehen wir bei der Betrachtung des GPU-Boost 2.0 noch ein.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Am hinteren Ende an der oberen Kante, also an bekannter Position, befinden sich die zusätzlichen Stromanschlüsse. Jeweils einmal 6-Pin und 8-Pin versorgen die GeForce GTX Titan zusätzlich zum PCI-Express-Slot mit Strom. Theoretisch ergibt dies eine Maximalversorgung von 300 Watt. Dies sollte man ebenso wie die 250 Watt TDP im Hinterkopf behalten.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Ebenfalls bereits von der GeForce GTX 690 bekannt ist der beleuchtete "GeForce GTX"-Schriftzug. Dies ist sicher ein nettes Gimick in Gehäusen mit Seitenfenstern. In komplett geschlossenen Behausungen spielt dieses Feature natürlich keinerlei Rolle. Wer sich von der Beleuchtung gestört fühlt, kann auch einfach den Stecker vom PCB ziehen.


NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Auf der Rückseite des PCBs nahe der Slotblende sind die beiden SLI-Anschlüsse gut zu sehen. SLI- und 3-Way-SLI-Benchmarks folgen dann am kommenden Donnerstag.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Noch einmal ein detaillierter Blick auf das PCBs im Bereich der GPU bzw. deren Rückseite. Über vier Schrauben mit Feder wird die Vapor-Chamber auf die GPU gedrückt. Auf drei von vier Seiten verteilen sich 12 der 24 Speicherchips aus dem Hause Samsung.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Genauer gesagt handelt es sich dabei um Speicher des Typs K4G20325FD-FC03. Dieser hat eine Kapazität von 2 GB, also 256 MB und ist bis zu einem Takt von 1500 MHz (0,33 ns) spezifiziert. Die Betriebsspannung liegt zwischen 1,455 und 1,545 Volt - in diesem Fall wird er laut Kennung mit 1,5 Volt betrieben.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Auf der Slotblende bietet die GeForce GTX Titan zweimal Dual-Link-DVI (jeweils einmal DVI-D und DVI-I) sowie HDMI 1.3a und DisplayPort 1.2.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Ebenfalls bereits von der GeForce GTX 690 bekannt ist die Plexiglasabdeckung über den vernickelten Aluminium-Finnen des Kühlers. Über diese wird die Abwärme an die Luft abgegeben, die vom Radiallüfter durch das Kühlergehäuse geblasen wird.


NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Ohne Kühler zeigen sich GPU und die restlichen Komponenten auf dem PCB in voller Pracht. Für die von NVIDIA versprochene Leistung wirkt dies alles sehr unspektakulär und ist vom Design der GeForce GTX 680 sehr ähnlich.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Wie auch schon auf der Rückseite des PCBs sind auch auf der Vorderseite zwölf Speicherchips rund um die GPU zu finden. Sehr schön sind auch die Leiterbahnen zu erkennen, die von den Chips zur GPU geführt sind. Hat man das Blockdiagramm sowie den Die-Shot vor Augen, kann man sich auch die Anbindung an die Speichercontroller vorstellen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Die Beschriftung auf der GPU weist diese als GK110-400-A1 aus. GK110 beschreibt dabei das bereits besprochene "Big Kepler"-Design. Die Zahlenkolonne dahinter beschreibt die Ausbaustufe. Mit 14 SMX-Clustern dürfte dies für GK110 der in der Praxis machbare Maximalausbau sein, auch wenn die Architektur als solches auf 15 SMX-Cluster ausgelegt ist. A1 gibt die Revision des Chips an.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Direkt neben der GPU und den Speicherchips sitzt die Strom- und Spannungsversorgung. Offenbar reichen 6+2 Phasen für eben diese Komponenten aus. NVIDIA gibt das Design des PCBs für die GeForce GTX Titan vor. Die Partner können zwar eigene Kühllösungen realisieren, bekommen von NVIDIA aber fertige Karten geliefert. Ob und wann NVIDIA das Design öffnet und damit auch eigene PCBs mit verbesserter Strom- und Spannungsversorgung erlaubt, ist nicht bekannt.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Mit eben diesen Eigendesigns einher geht auch das hier abgebildete Modul, das wir bereits von der GeForce GTX 680 kennen. Über diese Zusatzplatine wird die Steuerung und Kontrolle von GPU-Boost 2.0 erlaubt. Ob durch die Verwendung dieses Moduls auch ältere Karten in den Genuss von GPU-Boost 2.0 kommen könnten, ist nicht bekannt, aber theoretisch möglich.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Der Kühler der GeForce GTX Titan weist eigentlich keinerlei Besonderheiten auf. Links im Kühlergehäuse ist der Radiallüfter untergebracht. Rechts ist die Bodenplatte der Vapor-Chamber zu sehen, die direkt auf die GPU gedrückt wird. Die Wärmeleitpads bedecken die Speicherchips sowie einige Komponenten der Strom- und Spannungsversorgung.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Noch einmal ein detaillierter Blick auf die Vapor-Chamber bzw. deren Bodenplatte. Über vier Schrauben wird sie auf die GPU gedrückt und soll so den richtigen Anpressdruck bekommen. Positiv zu bewerten ist die sparsame aber dennoch ausreichende Menge an Wärmeleitpaste.


NVIDIA stellte uns nicht nur eine GeForce GTX Titan zur Verfügung, sondern gleich drei. Bevor wir also mit der Theorie von GPU Boost 2.0 etc. beginnen, noch einmal ein paar optische Hightlights der 3-Way-SLI-Konfiguration:

{jphoto image=33725}

Ein paar Eckdaten:

- insgesamt 8064 CUDA-Kerne
- insgesamt 21,3 Milliarden Transistoren
- insgesamt 18 GB Grafikspeicher
- gemeinsame 750 Watt TDP

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

In den Benchmarks werden wir uns auch die Performance eines SLI- und 3-Way-SLI-Systems anschauen.


GPU-Boost 2.0

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Mit der GeForce GTX 680 führte NVIDIA ein wichtiges neues Feature ein: GPU-Boost. Mit der GeForce GTX Titan geht NVIDIA einen Schritt weiter und baut diese aus: GPU-Boost 2.0! Bei GPU-Boost 1.0 wird ein maximaler Verbrauch anhand der aktuell anspruchsvollsten Spiele gesucht. Die von der GPU erreichte Temperatur spielt hier noch keine Rolle und tritt allenfalls in Erscheinung, wenn die Shutdown-Temperatur erreicht wird. Der maximale Takt wurde also auf Basis der relativen Spannung ermittelt. Der Nachteil ist offensichtlich: GPU-Boost 1.0 konnte nicht verhindern, dass selbst bei einer eigentlich unkritischen Spannung eine zu hohe Temperatur erreicht wurde.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Bei der GeForce GTX Titan spielen künftig zwei Werte eine wichtige Rolle: Spannung und Temperatur. Zukünftig wird die relative Spannung (Vrel) also anhand dieser beiden Parameter bestimmt. Die Abhängigkeit der einzelnen GPUs aufgrund der Fertigung und Ausbeute bleibt aber natürlich bestehen und somit bleibt es auch dabei, dass nicht jede Karte wie die andere funktioniert. NVIDIA aber gibt an, dass technisch normiert ein 3-7 Prozent höherer Boost-Takt durch das Einbeziehen der Temperatur möglich ist. GPU-Boost 2.0 wäre theoretisch auch für ältere Karten möglich und umsetzbar, wird dort aber wohl nicht zum Einsatz kommen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Schauen wir uns GPU-Boost 2.0 einmal etwas genauer an. Software wie das EVGA Precision Tool oder der MSI Afterburner sollen GPU-Boost 2.0 unterstützten. Uns stand das EVGA Precision Tool in Version 4.0.0 zur Verfügung.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

GPU Boost 2.0 bezieht die Temperatur mit ein, kann bei niedriger Temperatur also noch mehr Spannung geben als zuvor. 80 °C sind die per Default gesetzte Zieltemperatur (Ttarget). Dies kommt vor allem Nutzern von Karten zu Gute, die eine Wasserkühlung verwenden, was für die GPU niedrige Temperaturen zur Folge hat. Extremere Kühlungen, z.B. mit LN2, bieten diesen Vorteil natürlich auch.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

GPU-Boost 2.0 beinhaltet also alle aus der ersten Iteration bekannten Features und bietet darüber hinaus noch die Möglichkeit eine höhere Spannung anzulegen und somit höhere Taktraten zu erreichen. Weiterhin will man Overclockern die Möglichkeit geben, über das bisherige Maß hinaus an den Einstellungen zu drehen. Eine GPU-Overvoltage ist auf Wunsch möglich. Nutzer dieser Option müssen sich allerdings darüber im Klaren sein, dass sich die Lebensdauer reduziert.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Overclocker können Vrel also auf Vmax anheben (OverVoltaging). Dies ist etwas, was man bei GK104 weder dem Nutzer noch den Herstellern zutrauen wollte. Die EVGA GTX 680 Classified (Hardwareluxx-Artikel) ist ein schönes Beispiel. Hier wollte EVGA dem Nutzer über den EVBot eine größere Kontrolle über die Spannung geben. Letztendlich musste man die Zusatzhardware auf Drängen von NVIDIA wieder vom Markt nehmen. Mit GPU-Boost 2.0 bzw. der Möglichkeit ein OverVoltaging einzustellen, geht man einen Schritt auf diese Hersteller zu. Dazu wird es von der GeForce GTX Titan mehrere SKUs (also Modelle für die Hersteller) geben. Die Hersteller können also je nach Bedarf eine Standard-Version und eine OC-Version ordern. Sie müssen das OverVoltaging allerdings per VBIOS freischalten und eine Garantie für das jeweilige Setting gewährleisten.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Auf der folgenden Seite wollen wir uns GPU-Boost 2.0 und dessen Funktionsweise sowie die Auswirkungen auf Spannung, Temperatur und Takt noch einmal genauer anschauen.


NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 1.0

GPU-Boost 1.0 bietet einen Basis-Takt, Boost-Takt sowie den Max-Takt, der anhand der relativen Spannung bestimmt wurde. Diese Vrel wurde so gewählt, dass nicht mit einer Beschädigung der GPU zu rechnen war.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

GPU-Boost 2.0 erlaubt durch die Kontrolle von Spannung/Verbrauch und der Temperatur eine deutlich höhere relative Spannung und infolgedessen auch einen höheren Takt.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Durch das OverVoltaging kann der Nutzer bei Bedarf eine noch höhere Spannung wählen. Dies muss allerdings vom Hersteller freigeschaltet und vom Nutzer abgenickt werden, denn ein negativer Einfluss auf die Lebensdauer der Karte ist nicht auszuschließen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Die obige Grafik zeigt an, wie lange bzw. wie oft sich die GPU in einem jeweiligen Taktbereich befindet. Die Fläche unter der Kurve (von Base-Clock bis Max-Clock) bildet 100 Prozent des Taktbereichs ab, in denen sich die GPU aber nur eine bestimmte Zeit (bestimmte Anzahl an Zyklen) befindet. Schaut man sich nun an, in welchen Taktbereichen sich die Karten mit GPU-Boost 1.0 und 2.0 bewegen, zeigt sich auch hier der theoretische Vorteil von GPU-Boost 2.0. Mit dem OverVoltaging wird diese Glockenkurve weiter in Richtung des höheren Taktes geöffnet.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Infolge der veränderten Spannungen an der GPU verändert sich auch das Temperaturverhalten der Karte. Die dünne Linie repräsentiert das Verhalten unter GPU-Boost 1.0. Die dicke gelbe Linie zeigt das Verhalten unter GPU-Boost 2.0. Die Karte versucht sich nahe der gewünschten Ziel-Temperatur zu bewegen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Über das Temperatur-Offset kann diese Kurve je nach Wunsch des Nutzers verschoben werden. Bei einer höheren Ziel-Temperatur ist es allerdings auch möglich, dass das Maximum von 105 °C schneller erreicht wird.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Durch eine höhere Ziel-Temperatur wird natürlich ein größeres Takt-Potenzial freigegeben. Genau dies wollte NVIDIA mit der Einbeziehung der Temperatur auch erreichen und zeigt auch, wo sich GPU-Boost 1.0 und 2.0 unterscheiden.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Großen Wert legt NVIDIA auch auf die Lüftersteuerung. Mit den Standardeinstellungen sieht dies wie oben abgebildet aus.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Wird nun die Ziel-Temperatur verändert, läuft der Lüfter schon deutlich früher mit erhöhter Drehzahl, was letztendlich dazu führt, dass die Karte lauter ist als eigentlich nötig.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Durch eine Verschiebung der Lüfterkurve kann dem entgegengewirkt werden. Auch diese Option soll in GPU Boost 2.0 kompatibler Software vorhanden sein.

Neben all dieser Theorie, haben wir ein Video erstellt, in dem die Funktionsweise von GPU Boost 2.0 in praktischen Anwendungen demonstriert wird.


Für die verschiedenen SLI-Modi und Display-Konfigurationen muss ein bestimmtes Schema beim Anschluss der Displays eingehalten werden.

Multi-Monitor SLI-Konfiguration
2-Way-SLI - 2D Surround

Multi-Monitor SLI-Konfiguration
2-Way-SLI - 3D Surround

Multi-Monitor SLI-Konfiguration
3-Way-SLI - 2D Surround

Multi-Monitor SLI-Konfiguration
3-Way-SLI - 3D Surround


Display-Overclocking

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - Display-Overclocking

Neben GPU-Boost 2.0 ist auch das Display-Overclocking ein neues Feature. Dabei möchte sich NVIDIA dem Problem annehmen, dass eine Grafikkarte beispielsweise 90 Bilder pro Sekunde berechnet, durch das Display mit 60 Hz letztendlich aber nur 60 Bilder pro Sekunde dort ankommen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan - Display-Overclocking

In Programmen wie dem EVGA Precision Tool in der Version 4.0 bietet NVIDIA nun bei aktiviertem Vsync die Möglichkeit, das Display mit mehr als nur den vom Hersteller vorgesehenen 60 Hz anzusteuern. Anstatt 60 Hz könnten dies nun 80 Hz sein und bei den zuvor bereits angenommenen 90 Bilder pro Sekunde, die von der Grafikkarte gerendert werden können, soll sich ein flüssigeres Spielerlebnis einstellen. Die Hardware in den Displays ist rein technisch oftmals in der Lage dazu und NVIDIA will kompatible Modelle auch in einer Liste aufführen.

Leider fehlte uns etwas die Zeit, um uns das Display-Overclocking einmal selbst anzuschauen.


In einigen Techdemos erklärt NVIDIA einige der neuen Features.

Mit der GeForce GTX 680 führte NVIDIA einen neuen Anti-Aliasing-Modus ein. TXAA kombiniert die Vorteile von MSAA und FXAA. TXAA basiert auf einen temporären Super-Sampling, das allerdings nicht den Speicherbedarf eines klassischen Super-Samplings haben soll. In einer Techdemo vergleicht NVIDIA die verschiedenen AA-Modi miteinander, denn des gilt nun auch für die GeForce GTX Titan.

In der "Fracture" Techdemo demonstriert NVIDIA einen zufälligen Algorithmus, um die Zerstörung per PhysX zu berechnen. Entwickler müssen nicht mehr eigene Schemata hinterlegen, sondern können auf die API zurückgreifen. Zudem ist keine Zerstörung von Gegenständen wie die andere und somit wirken diese realistischer.

Die "Fur" Techdemo dient NVIDIA dazu zu zeigen, wie über PhysX die realistische Berechnung von Haaren optimiert werden kann. Sämtliche Haare reagieren hier eigenständig aufeinander und das zu hunderttausenden. Bislang war eine solche Komplexität nicht möglich, soll in Kürze aber für Spieleentwicklung zugänglich gemacht werden.

Mit "Dawn" führte NVIDIA das Leistungspotenzial der GeForce-FX-Serie erstmals vor. Diese erschien 2003 und war damals eine der realistischsten Realtime-Demos. Für die "Kepler"-Generation hat NVIDIA "Dawn" erneut erschaffen und bietet die Techdemo auch zum Download an.


Um die Treiber-Generationen anzugleichen, aber auch um die Hardware auf ein neues Level vorzubereiten, haben wir das Testsystem etwas umgestellt. Der Intel Core i7-3960X wird von 3,2 GHz auf 4,2 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen. Folgende Systemkomponenten kommen dabei zum Einsatz:

 

Testsystem
Prozessor Intel Core i7-3960X 3,3 GHz übertaktet auf 4,2 GHz
Mainboard ASUS P9X79 Deluxe
Arbeitsspeicher ADATA XPG Gaming Series Low Voltag 4x 2 GB PC3-12800U CL 9-9-9-24
Festplatte ADATA S510 SSD 60 GB
Netzteil Seasonic Platinum Series 1000 Watt
Betriebssystem Windows 8 Pro 64 Bit
Grafikkarten
NVIDIA NVIDIA GeForce GTX Titan (837/1502 MHz, 6144 MB)
NVIDIA GeForce GTX 690 (915/1502 MHz, 4096 MB)
NVIDIA GeForce GTX 680 (1006/1502 MHz, 2048 MB)
NVIDIA GeForce GTX 670 (915/1502 MHz, 2048 MB)
NVIDIA GeForce GTX 660 Ti (915/1502 MHz, 2048 MB)
NVIDIA GeForce GTX 660 (1058/1250 MHz, 2048 MB)
NVIDIA GeForce GTX 650 Ti (925/1350 MHz 2048 MB)
NVIDIA GeForce GTX 650 (1058/1250 MHz, 1024/2048 MB)
NVIDIA GeForce GTX 590 (608/1215/854 MHz, 3072 MB - 1536 MB effektiv) 
NVIDIA GeForce GTX 580 (772/1544/1000 MHz, 1536 MB)
NVIDIA GeForce GTX 570 (732/1464/950 MHz, 1280MB)
NVIDIA GeForce GTX 560 Ti 448 Cores (732/1464/950 MHz, 1280 MB) 
NVIDIA GeForce GTX 560 Ti (820/1640/1000 MHz, 1024 MB)
NVIDIA GeForce GTX 560 (810/1620/1002 MHz, 1024 MB) 
NVIDIA GeForce GTX 550 Ti (900/1800/1026 MHz, 1024 MB)
AMD AMD Radeon HD 7970 GHz Edition (1050/1050/1500 MHz, 3072 MB) 
AMD Radeon HD 7970 (925/925/1375 MHz, 3072 MB)
AMD Radeon HD 7950 (800/800/1250 MHz, 3072 MB) 
AMD Radeon HD 7870 (1000/1000/1200 MHz, 2048 MB) 
AMD Radeon HD 7850 (860/860/1200 MHz, 2048 MB) 
AMD Radeon HD 7770 (1000/1000/1125 MHz, 1024 MB) 
AMD Radeon HD 7750 (800/800/1125 MHz, 1024 MB)
AMD Radeon HD 6990 (830/830/1250 MHz, 4096 MB - 2048 MB effektiv) 
AMD Radeon HD 6970 (880/880/1375 MHz, 2048 MB) 
AMD Radeon HD 6950 (800/800/1200 MHz, 2048 MB)
AMD Radeon HD 6870 (900/900/1050 MHz, 1024 MB)
AMD Radeon HD 6850 (775/775/1000 MHz, 1024 MB)
AMD Radeon HD 6790 (840/840/1050 MHz, 1024 MB)
AMD Radeon HD 6770 (850/850/1200 MHz, 1024 MB)
Treiber
NVIDIA GeForce 314.09 Beta
AMD Catalyst 13.2 Beta 5

 

Unsere Testsysteme werden ausgestattet von ASUS, Intel, Thermaltake und Seasonic. Vielen Dank für die Bereitstellung der Komponenten!

Treibereinstellungen NVIDIA:

Textureinstellungen AMD:

Folgende Benchmarks kommen mit den genannten Settings zum Einsatz:

Futuremark 3DMark 11 (DX11):

Futuremark 3DMark (DX11):

LuxMark 2.0 (OpenCL):

Compute Mark (Complex):

Unigine Valley (DX11):

Anno 2070 (DX11):

Battlefield 3 (DX11):

Call of Duty: Black Ops II (DX11):

Crysis Warhead (DX10):

The Elder Scrolls V: Skyrim (DX9):

Far Cry 3 (DX11):

Hitman: Absolution (DX11):


In letzter Sekunde haben wir erfahren, dass wir heute auch die ersten Messungen präsentieren dürfen.

Messung: Stromverbrauch

Die NVIDIA GeForce GTX Titan zeigt sich beim Idle-Stromverbrauch äußerst positiv und kann mit nur 104,4 Watt für das Gesamtsystem glänzen. Damit liegt man auf üblichem Single-GPU-Niveau. Wird eine zweite GeForce GTX Titan in das System gesteckt, steigt der Verbrauch um 14 Watt auf 118,4 Watt an. NVIDIA gibt einen Idle-Verbrauch von etwa 15 Watt an, was wir hiermit bestätigen können. Die dritte Karte wiederum sorgt für einen Mehrverbrauch von eben diesen 15 Watt, so dass wir auf einen Gesamt-Leistungsaufnahme von 133,2 Watt kommen und damit noch immer unterhalb einer Radeon HD 6990 oder GeForce GTX 590 liegen. Die gute Entwicklung in den vergangenen Jahren, hin zu niedrigerem Stromverbrauch zeigt sich hier also sehr deutlich.

Multi-Monitor: Schließen wir mehr als einen Monitor an die GeForce GTX Titan an, steigt der Verbrauch auf 116,7 Watt.

mess2-neu

Unter Last liegt der Verbrauch einer GeForce GTX Titan rund 32 Watt über dem einer GeForce GTX 680. Damit liegen wir auch hier im erwarteten Bereich. Auf Messungen mit speziellen Verbrauchstools wie Furmark oder OCCT verzichten wir. Gerade unter Last zeigt sich einmal mehr, was sich in Sachen Stromverbrauch seit der Vorgängergeneration bei NVIDIA getan hat.

Das SLI-System, bestehend aus zwei GeForce GTX Titan, überholt dann aber auch die GeForce GTX 590 und verbraucht mit rund 607,4 Watt etwa 220 Watt mehr, als eine einzelne Karte. Die dritte GeForce GTX Titan sorgt dann noch einmal für einen Mehrverbrauch von etwa 225 Watt. 831,8 Watt für das Gesamtsystem sind sicherlich keine günstige Dauerbelastung für den Geldbeutel. Wer allerdings fast 3000 Euro für drei Grafikkarten übrig hat, wird auch mit der Stromrechnung zurechtkommen.

Messung: Temperatur

NVIDIA verspricht durch die Verwendung hochwertiger Komponenten eine besonders effiziente Kühlung. Der Idle-Betrieb ist nicht unbedingt ein Gradmesser für die Leistungsfähigkeit der Kühlung, gibt aber dennoch eine grobe Tendenz vor. Mit 37 °C arbeitet eine GeForce GTX Titan in einem ausreichend kühlen Temperaturfenster.

Da die Karten im SLI- und 3-Way-SLI-System sehr dicht übereinander sitzen, heizen sie sich bereit im Idle-Betrieb etwas auf. 42 bzw. 43 °C sind aber keine bedenkliche Temperatur für die Karte.

Messung: Temperatur

Unter Last wird die GeForce GTX Titan wärmer, als wir es erwartet hätten. So hatte sie z.B. ihre Schwierigkeiten das Temperatur-Target mit 80 °C einzuhalten. Für den SLI- und 3-Way-SLI-Betrieb mussten wir dieses sogar hochsetzen, damit Spannung und Takt nicht reduziert wurden. Wer sich nun fragt, ob 82 bzw. 84 °C ein Problem für die Karte darstellen, dem sei gesagt, dass er das Temperatur-Target wieder auf 80 °C setzen kann. NVIDIA sieht diese Temperatur als unbedenklich an und eine Abschaltung erfolgt gar erst bei 105 °C.

Messung: Lautstärke

Neben der Performance für die meisten sicherlich am interessantesten ist die Lautstärke. Hier hält NVIDIA scheinbar sein Versprechen und lässt die GeForce GTX Titan im Idle-Betrieb mit gerade einmal 35,4 dB(A) laufen. Dies ist im Vergleich zu allen Konkurrenten der niedrigste Wert. Selbst das SLI- und 3-Way-SLI-System kann hier glänzen und ist teilweise deutlich leiser, als so manche Single-GPU-Karte.

Messung: Lautstärke

Spannend wird es aber einmal mehr unter Last. Doch die GeForce GTX Titan lässt sich offenbar nicht so gerne aus der Ruhe bringen und verrichtet ihren Dienst auch hier mit nur 52,8 dB(A) und somit auf Niveau einer GeForce GTX 680 oder Radeon HD 7950. Nicht mehr ganz mithalten kann die SLI- und 3-Way-SLI-Konfiguration, welche die Radeon HD 7970 GHz Edition einrahmen - was nicht gerade für die schnellste Single-GPU-Karte aus dem Hause AMD spricht.


Auch die neueste Generation des 3DMark wollen wir mit in den Benchmark-Parcour aufnehmen. Beim 3DMark 11 handelt es sich um den ersten vollständigen DirectX-11-Benchmark aus dem Hause Futuremark. Aus diesem Grund macht er auch ausgiebig Gebrauch von Tessellation, Depth of Field, Volumetric Lighting und Direct Compute. Obligatorisch ist natürlich auch die Unterstützung für Multi-Core-Prozessoren mit mehr als vier Kernen. Der Download ist in unserer Download-Area möglich.

3dmark11_2_rs 3dmark11_1_rs
3dmark11_4_rs 3dmark11_3_rs

Zum kostenlosen Download von Futuremarks 3DMark 11 gelangt man über diesen Link.

3dmark11-1

3dmark11-1

3dmark11-1


Mit dem neuen 3DMark versucht Futuremark vom Smartphone bis zum High-End-PC eine Vergleichbarkeit herzustellen. Dazu bietet man drei Presets an, die alle Performance-Bereiche in den verschiedenstens Settings abdecken sollen. Natürlich werden auch hier Technologien wie Tessellation, Depth of Field, Volumetric Lighting und Direct Compute verwendet. Über das Fire-Strike-Extrem-Setting lassen sich auch High-End-Karten an ihre Grenzen bringen.

3dmark11_2_rs 3dmark11_1_rs
3dmark11_4_rs 3dmark11_3_rs

Zum kostenlosen Download von Futuremarks 3DMark gelangt man über diesen Link.

3dmark1

3dmark1

3dmark1

3dmark1


Unigine bietet mit dem Heaven-Benchmarks bereits eine gute Test-Plattform, die nun mit Valley noch erweitert bzw. verbessert wurde. Dazu hat man eine 64.000.000 Quadratmeter große Landschaft erschaffen, die von detaillierter Vegatation bis hin zu dynamischen Wetterbedingungen alle Anfoderungen an moderne GPUs stellt. Der integrierte Benchmark führt durch alle Testumgebungen und gibt somit einen recht guten Eindruck der Performance.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Der Download des Unigine Valley ist direkt beim Hersteller möglich.

uni1

uni1

uni1

uni1

uni1

uni1


Sowohl AMD wie auch NVIDIA legen immer größeren Wert auf die Compute-Performance ihrer GPUs. Neben zahlreichen Engines mit OpenCL-Unterstützung wollen wir auch die Performance gesondert betrachten. Dazu nutzen wir den LuxMark 2.0, der in der Testszene "Sala" über RayTracing ein Bild berechnet und als Ausgabe die Samples pro Sekunde ausgibt.

luxmark-1-rsluxmark-2-rs

luxmark-3-rsluxmark-4-rs

Zum kostenlosen Download von LuxMark 2.0 gelangt man über diesen Link.

luxmark


Mit Hilfe des ComputeMark versuchen wir die GPU-Computing-Performance genauer zu beleuchten. Der ComputeMark führt autoamtisch durch unterschiedliche Anwendungen, die ebenso unterschiedliche Anforderungen an die Hardware haben. Auf Basis der aktuellen DirectX-11-Compute-API können Nutzer die Compute-Leistung auf den Prüfstand stellen. Mit von der Partie ist unter anderem ein RayTracing-Test.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Den ComputeMark könnt ihr direkt auf der Seite des Herstellers herunterladen.

computemark1

computemark1

computemark1

computemark1

computemark1


Der fünfte Teil der The-Elder-Scroll-Reihe spielt in der namensgebenden Provinz Skyrim (dt. Himmelsrand). Die Handlung dreht sich um die Rückkehr der Drachen, wie sie in den "Elder Scrolls" vorhergesagt wurde. Der Spieler übernimmt die Rolle eines "Dovahkiin", eines Individuums mit dem Körper eines Menschen und der Seele eines Drachen. Der Spieler durchstreift bei dem Kampf gegen die Drachen opulente Städte mit verschlungenen Gassen und atemberaubende Landschaften, deren Grenze buchstäblich der Himmel ist. Mit seiner hohen Weitsicht und der detaillierten Vegetation bringt Skyrim so manches System ins Schwitzen.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Elder Scrolls V: Skyrim in unserem Preisvergleich gelangt man über diesen Link.

skyrim1

skyrim1

skyrim1

skyrim1

skyrim1

skyrim1


Immer wieder für grafische Highlights verantwortlich zeichnen die Macher von Crysis. Die als Basis dienende CryEngine 2 sorgt dafür, dass selbst aktuelle High-End-Systeme den Anforderungen nicht immer gewachsen sind. Daher eignet sich Crysis Warhead ideal für unsere Benchmarks. Wir verwenden Crysis Warhead im DirectX-10-Modus, alle Details auf Maximum.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis Warhead in unserem Preisvergleich gelangt man über diesen Link.

crysis1-1

crysis1-1

crysis1-1

crysis1-1

crysis1-1

crysis1-1


Black Ops 2 ist der letzte und aktuellste Teil der "Call of Duty"-Reihe, die nun aber eine Überarbeitung erfahren soll. Die Welt befindet sich inmitten eines zweiten kalten Krieges zwischen der Volksrepublik China und den Vereinigten Staaten um die kostbaren Metalle der Seltenen Erden. Das Verbot des Exports verleitet die USA dazu, mit einem Cyberangriff die chinesische Börse lahmzulegen. Es kommt zum Konflikt zwischen den beiden Parteien, der allerdings nicht offen ausgefochten wird.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

cod1

cod1

cod1

cod1

cod1

cod1


Anno 2070 spielt entgegen seiner vier Vorgänger nicht mehr in der Vergangenheit sondern knapp 60 Jahre in der Zukunft. Das Spielprinzip blieb grundsätzlich gleich, das heißt fremde Inseln erkunden, besiedeln, Wirtschaftskreisläufe aufbauen, um die Bedürfnisse der unterschiedlichen Bevölkerungsteile zu befriedigen, und sich in der Diplomatie üben. Neu sind die drei Fraktionen: Die Ecos setzen auf regenerative Energie und erhalten die Natur, während ihr Gegenpart, die Tycoons, durch Schwerindustrie die Umwelt verschmutzen. Die dritte Fraktion, die Techs, ermöglicht es, neue Techniken zu nutzen und auf dem Meeresboden zu siedeln. Die großen Inseln, die lebendige Flora und Fauna und die fantastischen Wassereffekte der eigens von Related Designs entwickelten Engine (DX11) verlangen auf der höchsten Detailstufe der Grafikkarte einiges ab.

 
 

Zur Vollversion von Anno 2070 in unserem Preisvergleich gelangt man über diesen Link.

anno1

anno1

anno1

anno1

anno1

anno1


Die Battlefield-Serie erfuhr mit der Veröffentlichung des dritten Teils den vorläufigen Höhepunkt der virtuell erlebbaren Multiplayer-Action auf weitläufigen Schlachtfeldern. Differenzierte Soldatenklassen, realitätsgetreu modellierte Waffen und Fahrzeuge stellen in Verbindung mit der leistungsstarken Frostbite 2-Engine (DX11) das momentane Nonplusultra des Actiongenres dar. Die grafische Darstellung besticht durch enorme Weitsicht und wirklichkeitsnahe Bewegungsabläufe des eigenen Soldaten. Langzeitmotiviation ist dank des Aufstiegssystems mit unzählig vielen freischaltbaren Waffen und Gadgets garantiert, wobei mit Hilfe des Battlelogs stets die Übersicht gewahrt wird.

ResidentEvil1_rs ResidentEvil2_rs
ResidentEvil3_rs ResidentEvil4_rs

Zur Vollversion von Battlefield 3 in unserem Preisvergleich gelangt man über diesen Link.

bf1

bf1

bf1

bf1

bf1

bf6-neu


Der neuste Teil der Far-Cry-Serie basiert auf der Dunia Engine 2 und wurde von Ubisoft entwickelt. Es entführt den Spieler auf eine tropische Insel, wo er den Protagonisten Jason Brody spielt, der dort mit seinen Freunden Urlaub macht. Als er und seine Freunde von Piraten gefangen werden, gelingt es ihm als einzigen zu entkommen. Mit Hilfe der einheimischen Bevölkerung tritt er nun an, um seine Freunde zu retten und die Piraten zu besiegen. Far Cry 3 kann wie auch die ersten beiden Teile mit einer beeindruckenden Grafik überzeugen. Dabei kommt DirectX 11 in Verbindung mit Kantenglättung, Umgebungsverdeckung und schönen Texturen sowie einer hohen Detaildichte zum Einsatz, womit auch High-End-Grafikbeschleuniger an ihre Grenzen gebracht werden.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

far1

far1

far1


Hitman: Absolution ist der direkte Nachfolger von Hitman: Blood Money. Der Hauptcharakter 47 brachte den ehemaligen FBI-Direktor Alexander Leland Cayne, um, der wiederum Teil einer größeren Geheimorganisation names Alpha Zerox war. Weder Diana, der Rest des ICA noch der Spieler selbst kennen den exakten Aufenthaltsort von 47. Es ist lediglich bekannt, dass er zuletzt ein asiatisch anmutendes Gebäude betreten hat. In Hitman: Absolution findet sich 47 inmitten einer  Verschwörung wieder und er muss feststellen, dass er von seinen ehemaligen Freunden verlassen und verraten worden ist. Hitman: Absolution basiert auf der Glacier-2-Engine und bringt auch aktuelle High-End-Karten an ihre Grenzen.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

hit1

hit1

hit1

 


Mit Crysis 3 steht in diesem Frühjahr zumindest auf technischer Seite in Hightlight bereit. Mit der Unterstützung ausschließlich für DirectX-11-Grafikkarten geben Crytek, die Macher hinter Crysis 3 die Richtung bereits vor. Von Tesselation bis zum aufwendigen Post-Processing-Anti-Aliasing werden alle aktuellen technischen Finessen genutzt, so dass auch die aktuellste Hardware an ihre Grenzen kommt.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

crysis3-1

crysis3-1

crysis3-1

crysis3-1

crysis3-1

crysis3-1


Selbst bei einer Auflösung von 2560x1600 Pixel sowie den entsprechenden Settings für das Anti-Aliasing und die anisotropische Filterung ist eine GeForce GTX Titan kaum aus der Ruhe zu bringen. Schon gar nicht zu sprechen vom SLI- oder 3-Way-SLI-Gespann. Daher haben wir einige ausgewählte Benchmarks im Surround-Gaming ausgeführt und wollen die Werte der aktuellen High-End-Karten miteinander vergleichen.

uni7

uni8

skyrim7

skyrim8

anno7

anno8

bf7

bf8

far4

hit4


Die Leistung einer GeForce GTX Titan entfaltet sich erst bei hohen Auflösungen und ebenso hohen Qualitätseinstellungen. Aber selbst bei 2560x1600 oder 5760x1080 und 8xMSAA zusammen mit 16xAF ist noch nicht Schluss. Supersampling heißt das Zauberwort und bietet eine nochmals bessere Anti-Aliasing-Qualität als die Standard-Verfahren. Wir haben uns einige wenige Spiele mit dem sogenannten "Sparse Grid Supersampling Anti-Aliasing" oder kurz SGSSAA angeschaut.

skyrim9

skyrim10

bf9

bf10


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

GeForce GTX Titan OC: EVGA Precision
GeForce GTX Titan OC: EVGA Precision

In den Benchmarks wirkt sich dies wie folgt aus:

oc1

oc1

oc1

oc1

Natürlich hat eine solche Steigerung von Takt und Spannung auch Auswirkungen auf den Stromverbrauch, die Temperatur und die Lautstärke:

oc1

oc1

oc1

Wir haben uns auch angeschaut welchen Einfluss das Overclocking des Speichers auf die Performance hat und ob nicht die Bandbreite der Limitierende Faktor werden könnte:

speicher-oc-3

speicher-oc-4


NVIDIA hat das Offensichtliche umgesetzt: Die GK100-GPU läuft für zwei Tesla-Produkte vom Band und kann natürlich auch für den Desktop verwendet werden. Doch die GeForce GTX Titan wird auf absehbare Zeit das einzige Produkt dieser Art bleiben, denn eine komplette Serie wird NVIDIA hier nicht anbieten (wollen). Statt dessen bietet man Enthusiasten einen Übergang bis zur nächsten Generation - wenngleich dieser nicht gerade günstig ist.

Die GeForce GTX Titan lässt sich schnell und einfach auf wenige Bestandteile herunterbrechen:

Um diese Fakten herum hat NVIDIA ein Produkt gestrickt, dass kaum Kompromisse eingeht. Wir wissen nicht, welchen Anteil die Kühlung an der rund 950 Euro teuren Karten hat. Doch uns hat Materialwahl und Verarbeitung gefallen. Doch darf dies überhaupt eine Rolle spielen, schließlich verschwindet die Karte meist im nächsten PC-Gehäuse? Ja, darf es, denn beide Punkte spielen bei der Kühlung und letztlich auch der Performance eine nicht ganz unerhebliche Rolle. Dies hat NVIDIA bereits mit der GeForce GTX 690 bewiesen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

In Sachen Single-GPU-Performance darf sich NVIDIA wieder uneingeschränkt die Performance-Krone aufsetzen. Sowohl die eigene GeForce GTX 680 wie auch die AMD Radeon HD 7970 (GHz Edition) lässt man weit hinter sich. Ob 40-50 Prozent gegenüber der Konkurrenz aus eigenem Hause und in etwa der ähnliche Bereich bei der Radeon HD 7970 GHz Edition ausreichen, um 950 Euro zu rechtfertigen, ist zumindest fraglich. Etwas merkwürdig erscheint auch der Vergleich zur GeForce GTX 690, die man bei der Performance erst bei 5760x1080 Pixeln ein- bzw. überholt. Den Preisvergleich gewinnt das Dual-GPU-Modell mit rund 840 Euro in jedem Fall. Trumpf für die GeForce GTX Titan: Sie ist eine Single-GPU-Karte, die nicht mit Mikrorucklern (auch wenn deren Auftreten bei NVIDIA deutlich reduziert wurden) zu kämpfen hat. Wäre NVIDIA mit 800 Euro für die GeForce GTX Titan gestartet, hätte dies einen Kritikpunkt weniger nach sich gezogen. Da uns der Einblick in die Entwicklungskosten und die geplanten Verkaufszahlen einer solchen Karte fehlen, können wir allerdings keine wirtschaftliche echte Beurteilung des Preises vornehmen, sondern diesen nur mit den aktuellen Marktgegebenheiten abgleichen.

Dankenswerterweise stellte uns NVIDIA gleich drei GeForce GTX Titan zur Verfügung, sodass wir gleich alle nur erdenklichen Optionen zur Verfügung hatten. Doch eines wurde auch klar: Drei GeForce GTX Titan sind nicht nur preislich eine Herausforderung, sondern auch technisch, denn auch einem Intel Core i7-3960X mit 4,2 GHz fällt es schwer ausreichend Daten an die Karten zu liefern. Erst wenn diese aufgrund hoher Qualitätseinstellungen (fast) auf sich alleine gestellt sind, können sie ihr Potenzial ausspielen. Eine möglichst hohe Auflösung oder die Verwendung hardwarehungriger Anti-Aliasing-Modi sind also Pflicht.

NVIDIA GeForce GTX Titan
Straßenpreis zirka 950 Euro
Homepage www.nvidia.de
Technische Daten
GPU GK110 (GK110-400-A1)
Fertigung 28 nm
Transistoren 7,1 Milliarden
GPU-Takt 837 MHz (Boost: 876 MHz)
Speichertakt 1502 MHz
Speichertyp GDDR5
Speichergröße 6144 MB
Speicherinterface 384 Bit
Speicherbandbreite 288,4 GB/Sek.
DirectX-Version 11.0
Shadereinheiten 2688 (1D)
Textur Units 224
ROPs 48
Pixelfüllrate 40,2 Gigapixel
SLI/CrossFire SLI
Lautstärke
Idle-Modus 35,4 dB(A)
Last-Modus 52,8 dB(A) 
Leistungsaufnahme
Idle-Modus 104,4 Watt
Last-Modus 387,6 Watt 
Temperaturen
Idle-Modus 37 °C
Last-Modus 80 °C 

Gute Arbeit hat NVIDIA beim Kühler geliefert. Er arbeitet nicht nur leise, sondern auch effektiv und hält die Temperaturen niedrig. Dies spielt auch eine Rolle, wenn man sich das Hauptfeature der GeForce GTX Titan anschaut: GPU Boost 2.0. Durch die Wahl eines Power- und eines Temperatur-Targets wird die Leistung der GeForce GTX Titan maßgeblich beeinflusst. Wer sich eine solche Karte einfach nur kauft, in den Rechner steckt und damit spielt, hat dies alles nicht zu interessieren - muss es auch nicht. Wer allerdings noch etwas mehr Takt und somit Leistung aus seiner Karte herausholen will, bekommt einen Parameter mehr an die Hand, an dem er arbeiten kann. Sollten früher oder später wassergekühlte Versionen auf den Markt kommen, wird dies eine noch größere Rolle spielen. Vollends auf die Spitze getrieben wird dies dann vermutlich von den Profis, die auch noch flüssigen Stickstoff in die selbstgefrästen Kühler kippen. Doch hierzu müssen erst noch wichtige Fragen geklärt werden:

{jphoto image=33725}

Haben die Titanen den Kampf nun gegen die Olympier verloren und werden in die Unterwelt verbannt? Den Performance-Vergleich entscheidet man für sich, zumindest wenn man die Auswahl auf Single-GPU-Karten beschränkt. Doch auch dann hat man allenfalls die GeForce GTX 690 aus eigenem Hause gegen sich. AMD wurde im Vorfeld des Launches der GeForce GTX Titan nicht müde zu betonen, dass man doch mit den Radeon-HD-7990-Modellen die Performance-Krone aufsitzen hätte (was auch stimmt), dabei muss sich AMD aber allzu sehr auf die eigenen Partner und zudem auf eine Dual-GPU-Lösung verlassen - mit allen Vor- und Nachteilen.

Alternativen? Wer sich eine GeForce GTX Titan kauft, tut dies meist nicht, weil es sinnvoll ist, sondern weil er es kann. 950 Euro sind ein Preis, für den sich so mancher einen kompletten Gaming-PC zusammenstellt und damit auch die aktuellen Spiele flüssig abspulen kann. Daher kann es auch keine sinnvolle Alternative zur GeForce GTX Titan geben.


Persönliche Meinung

foto-a-schillingEine komplett neue GPU ist für einen Redakteur eine dankbare Aufgabe sich wieder einmal in die Arbeit zu stürzen. Auch wenn die Architektur nicht wirklich neu ist, so sind doch entscheidende Unterschiede zum "kleinen Kepler" vorhanden. Dies umschreibt auch gleich den technisch interessanten Bereich der GeForce GTX Titan, die Performance gerät dabei fast schon zur Nebensache. Zur Nebensache wird die Hardware so manches mal aber auch aus anderen Gründen:

In der Theorie sind NDAs (Sperrfristen) fixe Daten, die von beiden Seiten eingehalten werden sollten. Sie geben auch den Zeitraum vor, den ein Redakteur hat, um seinen Artikel fertigzustellen. Der Launch der GeForce GTX Titan ist aber ein Beispiel dafür, dass man sich nicht allzu sehr darauf verlassen sollte. Ursprünglich sollte die Karte am Montag präsentiert werden, Benchmarks waren für den Dienstag geplant. Die Karte hielten wir aber erst am Donnerstag in Händen und was zunächst nach einem nicht mehr existenten Wochenende aussah, spitzte sich noch weiter zu, als NVIDIA keinen Treiber zur Verfügung stellen konnte. Der Dienstag als Tag der Benchmarks war also kaum noch zu halten und dies hat wohl auch NVIDIA eingesehen und erlaubte an diesem Tag nur noch die Nennung der technischen Daten und Features. Benchmarks dürfen wir euch erst heute, also in zwei Tagen präsentieren. Da mutet es schon etwas seltsam an, dass eine Firma ein Pixelmonster mit 7,1 Milliarden Transistoren konstruieren kann, aber immer wieder beim Versand der Testsamples und der Bereitstellung des Treibers scheitert.

Offenbar aber scheint man selbst hier noch Unterscheidungen zwischen den Redaktionen zu machen. Mehrfach wurden wir darauf hingewiesen KEINE Benchmarks vor dem Donnerstag zu veröffentlichen. Interne Absprachen zwischen NVIDIA und einer Redaktion aber ermöglichten die Veröffentlichung einiger Crysis-3-Performancedaten bereits gestern. Wir wussten natürlich nichts davon und haben wieder einmal das Nachsehen. Soviel Spaß wir auch immer wieder mit der Hardware haben, NDAs und die Organisation auf Seiten der Hersteller schmälern diesen doch immer wieder. (Andreas Schilling)

 

Positive Aspekte der NVIDIA GeForce GTX Titan:

Negative Aspekte der NVIDIA GeForce GTX Titan:

eh geforce titan-rs

Aufgrund der enormen Single-GPU und Multi-GPU-Performance sowie der guten Kühlung und des hochwertigen Auftretens verleihen wir der NVIDIA GeForce GTX Titan den "Hardwareluxx Excellent Hardware"-Award.