NVIDIA GeForce GTX 780 Ti im Test

Veröffentlicht am: von

gtx780ti-logoDas letzte Mal dürften wir auf einer Grafikkarte aus dem Hause NVIDIA einen Chip der GK110-Familie sehen. Mit der GeForce GTX 780 Ti präsentierte NVIDIA den Vollausbau der aktuellen "Kepler"-Architektur, die erst im nächsten Jahr durch "Maxwell" ersetzt werden wird. Gerüchte zu einer solchen Karte gibt es bereits seit einiger Zeit. Spätestens aber mit der Ankündigung des entsprechenden Modells der Tesla- und Quadro-Serie war klar, dass es auch ein Desktop-Modell für Spieler geben wird. Ob nun als Reaktion auf die Radeon R9 290X von AMD oder nicht, die GeForce GTX 780 Ti rüttelt die Formation der High-End-Grafikkarten von NVIDIA zurecht. Nicht mehr die GeForce GTX Titan ist die schnellste Karte, sondern nun die GeForce GTX 780 Ti. Doch wo landet sie im Vergleich zur Titan und wie ist sie gegen die Radeon R9 290X gestellt? All diese Fragen beantworten wir im nun folgenden Review.

Doch bevor wir auf das letzte Kapitel von "Kepler" schauen, wollen wir einen kurzen Blick zurück werfen. Am 22. März 2012 präsentierte NVIDIA die GeForce GTX 680. Sie war die erste Grafikkarte mit einer GPU auf Basis der "Kepler"-Architektur. Die aus der "Fermi"-Architektur bekannten Streaming-Multiprozessoren wurden beim GK104 von 32 auf 192 CUDA-Kerne aufgebohrt und hießen nun SMX-Cluster. Letztendlich standen aber nicht nur schlicht mehr Cores zu Verfügung, sondern es hat sich auch das Verhältnis von Cores zur Control-Logic deutlich zugunsten der Recheneinheiten gewendet. Aus acht SMX-Clustern mit je 192 CUDA-Kernen resultierten 1536 Kerne insgesamt.

Fast genau ein Jahr später bohrte NVIDIA die "Kepler"-Architektur weiter auf. GK110 bot im Februar diesen Jahres zumindest die theoretische Möglichkeit bis zu 15 SMX-Cluster mit je 192 CUDA-Kernen, also insgesamt 2880 Kerne einzusetzen. Für die GeForce GTX Titan und darauf folgende GTX 780 beschränkte man sich aber auf den Einsatz von 14 bzw. 12 SMX-Cluster. Hier spielte natürlich die Fertigung eine maßgebliche Rolle, denn ein Chip mit 7,1 Milliarden Transistoren auf 533 mm2 ist auch in 28 nm nicht einfach fehlerfrei zu produzieren. Mit der Präsentation der ersten Desktop-Karten auf Basis von GK110 kochte die Gerüchteküche immer wieder hoch, was eine mögliche "GeForce GTX Titan Ultra" betrifft. Heute nun ist es endlich soweit.

Bevor wir auf die Details der GeForce GTX 780 Ti näher eingehen, werfen wir zunächst einmal einen Blick auf die technischen Daten.

NVIDIA GeForce GTX 780 Ti
Straßenpreis ab 649 Euro
Homepage www.nvidia.de
Technische Daten
GPU GK110 (GK110-425-B1)
Fertigung 28 nm
Transistoren 7,1 Milliarden
GPU-Takt (Base Clock) 876 MHz
GPU-Takt (Boost Clock) 928 MHz
Speichertakt 1.750 MHz
Speichertyp GDDR5
Speichergröße 3.072 MB
Speicherinterface 384 Bit
Speicherbandbreite 336 GB/Sek.
DirectX-Version 11.1
Shadereinheiten 2880
Textur Units 240
ROPs 48
Pixelfüllrate 42 GPixel/Sek.
SLI/CrossFire SLI
TDP 250 Watt

Ein Merkmal zeichnet die GeForce GTX 780 Ti sicherlich am besten aus: GK110 im Vollausbau! Dies bedeutet 15 SMX-Cluster mit jeweils 192 CUDA-Kernen, was in insgesamt 2880 CUDA-Kernen resultiert. In 28 nm gefertigt, verteilen sich 7,1 Milliarden Transistoren auf eine Chipfläche von 533 mm2. Für NVIDIA im Hinblick auf die aktuellen "Hawaii"-Karten von AMD weiterhin entscheidend ist ein fixer Basis-Takt von 876 MHz. Per GPU-Boost geht es auf mindestens 928 MHz. Laut NVIDIA erreichen die meisten Karten in der Praxis allerdings auch problemlos die 1-GHz-Schwelle. Als zweite Karte überhaupt aus dem Hause NVIDIA wird der schnellere GDDR5-Speicher mit 1750 MHz verwendet. Angebunden über ein 384 Bit breites Speicherinterface ergibt sich eine Speicherbandbreite von 336 GBit pro Sekunde. Allerdings verbaut NVIDIA hier nicht 6 GB Grafikspeicher wie bei der GeForce GTX Titan, sondern zunächst einmal nur 3 GB. Dies könnte sich mit dem Erscheinen erster Retail-Karten mit alternativer Kühlung allerdings ändern, und so sind auch Modelle der GeForce GTX 780 Ti mit 6 GB und mehr denkbar. Gerade im Hinblick auf die Radeon R9 290X und 290 mit jeweils 4 GB Speicher wäre das sicher ein wünschenswerter Schritt.

Mit den 15 SMX-Clustern bzw. 2880 CUDA-Kernen einher gehen 240 Textureinheiten, also 16 pro SMX-Cluster. Gebunden an das 384 Bit breite Speicherinterface ergeben sich die 48 ROPs. Anhand des Taktes ergibt sich eine theoretische Pixelfüllarte von mindestens 42 Gigapixel pro Sekunde. Per SLI lassen sich bis zu vier Karten der GeForce GTX 780 Ti zusammenfassen. Anders als AMD benötigen die High-End-Karten bei NVIDIA aber immer noch eine SLI-Brücke. Dies könnte sich allerdings mit der kommenden Generation ändern. Die TDP verbleibt bei 250 Watt - vielleicht ein weiterer Vorteil gegenüber der Radeon R9 290X, deren TDP über 250 Watt liegt.

GPU-Z-Screenshot der NVIDIA GeForce GTX 780 Ti

Der GPU-Z-Screenshot bestätigt die technischen Daten und nennt noch einige weitere Details. 

NVIDIA GeForce GTX 780 Ti gegen die Konkurrenz
Modell AMD Radeon R9 290X NVIDIA GeForce GTX 780 NVIDIA GeForce GTX 780 Ti NVIDIA GeForce GTX Titan
Straßenpreis ab 480 Euro ab 410 Euro ab 649 Euro ab 820 Euro
Homepage www.amd.de www.nvidia.de www.nvidia.de www.nvidia.de
Technische Daten
GPU Hawaii XT GK110 (GK110-300-A1) GK110 (GK110-425-B1) GK110 (GK110-400-A1)
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 6,2 Milliarden 7,1 Milliarden 7,1 Milliarden 7,1 Milliarden
GPU-Takt (Base Clock) - 864 MHz 876 MHz 837 MHz
GPU-Takt (Boost Clock) 1.000 MHz 902 MHz 928 MHz 876 MHz
Speichertakt 1.250 MHz 1.502 MHz 1.750 MHz 1.502 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 4.096 MB 3.072 MB 3.072 MB 6.144 MB
Speicherinterface 512 Bit 384 Bit 384 Bit 384 Bit
Speicherbandbreite 320,0 GB/Sek. 288,4 GB/Sek. 336 GB/Sek. 288,4 GB/Sek.
DirectX-Version 11.2 11.1 11.1 11.1
Shadereinheiten 2.816 2.304 2880 2.688 
Texture Units 176 192 240 224
ROPs 64 48 48 48
TDP > 250 Watt 250 Watt 250 Watt 250 Watt

Der Vergleich mit der Konkurrenz aus eigenem Hause sowie von AMD ergibt natürlich nur in der Theorie Vor- und Nachteile für die GeForce GTX 780 Ti. So ist die Anzahl der Shader-Prozessoren nur minimal höher und auch die Speicherbandbreite konnte NVIDIA durch den schnelleren Speicher deutlich anheben. Bei der Speichergröße, dem Boost-Takt und der Pixelfüllrate (Aufgrund der höheren Anzahl an ROPs) hat AMD allerdings die Nase vorne. Wegen der Implementierung von PowerTune und GPU-Boost ergeben sich in der Praxis aber Seiteneffekte, die auf dem Papier noch keinerlei Auswirkungen haben. Ohnehin sind theoretische Vergleiche von Rechenleistung, Speicherbandbreite und weiteren technischen Daten nicht sonderlich aussagekräftig. Die Benchmarks werden zeigen müssen, wie groß der Vorsprung gegenüber der GeForce GTX Titan und Radeon R9 290X ist.


Die-Shot des GK110
Die-Shot des GK110

Schon mehrfach haben wir dieses Bild der Die von GK110 gezeigt. Nun aber werden sämtliche abgebildeten Details auch genutzt. In den mittleren Bereichen zu sehen sind die SMX-Cluster und Caches. Rings herum angeordnet befinden sich unter anderem das PCI-Express-Interface sowie die jeweils 64 Bit breiten Speicherinterfaces.

GK110 Blockdiagramm der GeForce GTX 780 Ti
GK110 Blockdiagramm der GeForce GTX 780 Ti

Auch dieses Bild haben wir schon mehrfach im Rahmen der Reviews zur GeForce GTX Titan und GeForce GTX 780 gezeigt, doch so in dieser Form zutreffend ist es nun erstmals bei der GeForce GTX 780 Ti. Angeordnet sind die 15 SMX-Cluster in fünf GPC (Graphics Processor Cluster). Für etwas Verwirrung sorgte die Meldung, die von unterschiedlichen Versionen der GeForce GTX 780 sprachen. Diese waren offensichtlich in einer Version mit vier und fünf GPCs aufgetaucht. Zwar sind in den SMX-Clustern Recheneinheiten wie die Textureinheiten und Caches enthalten, die Rasterizer aber befinden sich in den GPCs (siehe Blockdiagramm). Jeder dieser Rasterizer bearbeitet acht Pixel pro Takt: Bei fünf GPCs sind dies also 40 Pixel pro Takt und bei vier GPCs eben nur 32 Pixel pro Takt. Bei der GeForce GTX 780 Ti wird eine solche Verwirrung keinerlei Platz haben, da alle SMX-Cluster und damit auch alle GPCs belegt sind.

GK110 SMX-Cluster Blockdiagramm

Für die beiden Tesla- und Quadro-Modelle auf Basis von GK110 erreichte NVIDIA einen enormen Gewinn an Double-Precision-Performance und die im Vergleich zu GK104 nur moderate Steigerung bei der Single-Precision-Performance erklärt sich durch eine neue Ausrichtung des FP32- zu FP64-Verhältnisses. Mit GK110 setzte NVIDIA zunächst voll auf den professionellen Markt und den Einsatz im HPC (High Performance Computing). Die erste Ausbaustufe von "Kepler" in Form der GK104-GPU auf der GeForce GTX 680 ist also im eigentlichen Sinne für den Einsatz als GeForce-GPU gedacht, wo die Single-Precision-Performance für das Rendering eine entscheidende Rolle spielt. Das Verhältnis Double-Precision zu Single-Precision ist von 1/2 auf 1/24 reduziert worden. Zu guter Letzt ist bei GK104 auch nur der Grafikspeicher ECC geschützt, nicht aber die Caches. Nun will NVIDIA GK110, mit seiner speziellen Ausrichtung auf den professionellen Markt, auch als GeForce-Produkt etablieren.

Um eine höhere Double-Precision-Performance zu erreichen, hat NVIDIA pro SMX-Cluster nun 64 Floating-Point-Kerne eingebaut. Bei GK104 waren es nur acht pro Cluster. Zusammen mit der höheren Anzahl an Clustern sorgt dies für einen enormen Schub bei der Double-Precision-Performance. NVIDIA bleibt auch seiner skalaren Architektur bzw. der "Superscalar Dispatch Method" treu, die wir erstmals bei GF104 sahen und welche die Berechnungen etwas fehleranfälliger machen. Dadurch wird man etwas abhängiger von Thread Level Parallelism (TLP) und Instruction-Level Parallelism (ILP) bzw. der ganzzahligen linearen Optimierung.

Per Default laufen die Double-Precision-CUDA-Kerne der GeForce GTX Titan allerdings nur mit 1/8 des Taktes. Auf den vollen Basis-Takt ließen sie sich bei der GeForce GTX Titan via NVIDIA Control Panel bewegen. Der GeForce GTX 780 Ti bleibt diese Option verwehrt.

NVIDIA GeForce GTX 780 Ti - Features
NVIDIA GeForce GTX 780 Ti - Features

In der Übersicht der neuen Features sticht das "Power Balancing" hervor, das bisher so noch nicht angewendet wurde. Dabei handelt es sich um eine Methode, um die verschiedenen Spannungsversorgungen über die unterschiedlichen PLLs besser zu synchronisieren. Versorgt werden GPU und Speicher über den PCI-Express-Steckplatz sowie die beiden zusätzlichen PCI-Express-Stromanschlüsse. Gerade beim Overclocking kann es dazu kommen, dass eine dieser Spannungsschienen zum limitierenden Faktor wird. Das "Power Balancing" will dies besser ausgleichen und so zu einem besseren Overclocking verhelfen.

NVIDIA GeForce GTX 780 Ti - Features
NVIDIA GeForce GTX 780 Ti - Features

Für NVIDIA neben den technischen Daten ebenfalls ein entscheidender Punkt könnte der Verbrauch und damit die Effizienz sein. Legt man eine TDP von 250 Watt für die GeForce GTX 780 Ti und 290 Watt für die Radeon R9 290X zu Grunde, ergibt dies anhand der Chipfläche von 533 bzw. 455 mm2 ein Verhältnis von Watt pro Quadratmillimeter, das deutlich zu Gunsten von NVIDIA ausschlägt. Ob nun 83 oder 95 °C als Zieltemperatur in GPU-Boost bzw. PowerTune angegeben sind, spielt dabei weniger eine Rolle.

NVIDIA Control Panel ohne Aktivierung der Double-Precision-CUDA-Kerne
NVIDIA Control Panel ohne Aktivierung der Double-Precision-CUDA-Kerne

Anders als bei der GeForce GTX Titan kann im NVIDIA Control Panel für die GeForce GTX 780 Ti nicht der höhere Takt für die Double-Precision-CUDA-Kerne aktiviert werden. Sie verbleiben also auf 1/8 des Taktes der weiteren CUDA-Kerne. Interessant war diese Option ohnehin nur für solche Nutzer, die auch genau wissen, was sie mit dieser Double-Precision-Option auch tun können. CUDA-Anwendungen gibt es sicherlich ausreichend. Diese sind aber allesamt im professionellen Bereich zu suchen.


Mit der Einführung von GPU-Boost 2.0 und der neuen Implementation von PowerTune bei den "Hawaii"-Karten spielt die Temperatur eine entscheidende Rolle, wenn es um die Frage geht, mit welchem Takt die Karte arbeitet und wie schnell der Lüfter dabei dreht. Daher haben wir uns auch bei der GeForce GTX 780 Ti angeschaut, wie warm die GPU bei den unterschiedlichen Spielen wird und welcher Takt letztendlich anliegt.

Gegenüberstellung von Temperatur und Takt
Spiel Temperatur Takt
Unigine Valley 82 °C 1.006 MHz
Crysis Warhead 81 °C 1.019 MHz
Hitman: Absolution 81 °C 1.019 MHz
Bioshock 83 °C 1.006 MHz
The Elder Scrolls V Skyrim 82 °C 1.006 - 1.019 MHz
Call of Duty: Black Ops 2 81 °C 1.019 MHz
Anno 2070 82 °C 992 MHz
Battlefield 3 83 °C 1.006 MHz
Far Cry 3 83 °C 992 MHz
Crysis 3 83 °C 1.006 MHz
Battlefield 4 83 °C 1.006 MHz

Mittels möglichst hohem Takt und dazugehöriger Spannung versucht GPU-Boost 2.0 den maximalen Takt bei einem Temperaturziel von 83 °C zu erreichen. Die Temperaturspanne in der Praxis reichte bei uns von 81 bis zu den besagten 83 °C. Der dazugehörige Takt lag bei 992 bis 1.019 MHz. Weniger als 992 MHz konnten wir in keiner Anwendung feststellen. NVIDIA gibt einen Boost-Takt von 928 MHz, der also um noch einmal 6,5 Prozent übertroffen wird.

NVIDIA GeForce GTX 780 Ti - Features
NVIDIA GeForce GTX 780 Ti - GPU-Boost vs. PowerTune

Direkte Vergleiche zum Verhalten der "Hawaii"-GPU sind hier schwierig, da AMD eine etwas andere Herangehensweise an das Thema hat. So gibt AMD einen maximalen Boost-Takt vor. Im Falle der Radeon R9 290X liegt dieser bei 1.000 MHz. Bei der Radeon R9 290 sind es 947 MHz. Erreicht werden diese mit dem Referenzkühler in einem geschlossenen Gehäuse bei guter Belüftung aber nicht immer. Ganz im Gegenteil, beide Karten müssen teilweise deutlich heruntertakten, um eine Temperatur von unter 95 °C bei einer maximalen Lüfterdrehzahl von 40 bzw. 47 Prozent halten zu können. So ging es bei der Radeon R9 290X im Quiet-Mode von 1.000 MHz auf teilweise unter 900 MHz herunter. Bei der Radeon R9 290 zeigte sich ein noch drastischeres Bild. Von den erwähnten 947 MHz kann nur in den wenigsten Fällen die Rede sein. Auf bis zu 678 MHz ging der Takt hier zurück.

NVIDIA GeForce GTX 780 Ti mit GPU-Boost-Zusatzmodul
NVIDIA GeForce GTX 780 Ti mit GPU-Boost-Zusatzmodul

Letztendlich ist aber nicht entscheidend, auf wie viele Megahertz der Takt zurückgeht, sondern was an 3D-Leistung am Ende dabei herauskommt. Daher bieten GPU-Boost und PowerTune eine in der Praxis relevante technische Umsetzung, die aber nur wenige Nutzer überhaupt hinterfragen. Sollte dies jedoch der Fall sein, können sie mittels Veränderung der Zieltemperatur und Lüfterdrehzahl die Leistung ihrer Grafikkarte teilweise deutlich steigern. Da es noch bis Ende November oder Anfang Dezember dauern kann, bis erste Retail-Karten der Radeon R9 290X und 290 mit alternativem Kühler erscheinen, bietet sich beispielsweise ein eigenhändiger Umbau auf einen anderen Kühler an. Bei der GeForce GTX 780 Ti sieht dies etwas anders aus. Bereits mit dem Erscheinen dieses Artikels hatten wir erste Modelle mit alternativem Kühler bei uns. Hier wird es interessant zu sehen sein, welche Ergebnisse wir damit erreichen.


NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Die GeForce GTX 780 Ti basiert auf dem gleichen Layout und Design wie auch schon die GeForce GTX Titan. Einziger Unterschied zwischen den Referenzlösungen ist die Beschriftung auf dem Kühler. Es bleibt also beim Einsatz des relativ guten Kühlers mit Radiallüfter, der die Luft nahezu komplett aus dem Gehäuse hinausbläst.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Im Unterschied zur GeForce GTX Titan sind auf der Rückseite keinerlei Speicherchips zu erkennen. Dies war auch schon bei der GeForce GTX 780 der Fall, die ein identisches PCB-Layout verwendete. Das PCB misst 26,5 cm und der Kühler steht auch nicht über dieses Maß hinaus.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Den eingesetzten Radiallüfter kennen wir ebenfalls bereits von der GeForce GTX Titan, 780 und 770. Er misst 65 mm im Durchmesser und soll sich durch eine besondere Laufruhe auszeichnen. Der Anstellwinkel der Lüfterschaufeln soll ebenfalls einen positiven Effekt auf die Lautstärke haben. Neben der Verwendung von Magnesium als Gehäuse für den Kühler setzt NVIDIA auch weiterhin Akzente, um die edle Optik seines Referenzkühlers zu unterstreichen. Dazu gehört auch die verchromte Abdeckung der Lüfterachse.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

In der Nähe der Slotblende ist der "GTX 780 Ti" Schriftzug zu erkennen. Wäre dieser nicht vorhanden, wird es schon schwieriger die Referenzversionen der GeForce GTX Titan, 780 und 780 Ti voneinander zu unterscheiden. Ein Blick auf die Rückseite des PCBs gäbe dann aber immer noch genügend Hinweise. Vor dem Schriftzug ist die Plexiglasabdeckung zu sehen, welche den darunter liegenden Kühlkörper aus Aluminium in Szene setzt.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Bereits angesprochen haben wir das "Power Balancing" der GeForce GTX 780 Ti. Die interne Spannungskontrolle soll sicherstellen, dass über die unterschiedlichen Spannungsquellen eine dennoch möglichst gleichmäßige Versorgung der Komponenten stattfindet. Diese wird mit 75 Watt über den PCI-Express-Steckplatz, noch einmal 75 Watt des 6-Pin-Stromanschlusses und die 150 Watt des 8-Pin-Stromanschlusses sichergestellt. Bei der TDP von 250 Watt können so also theoretisch 300 Watt an die GeForce GTX 780 Ti herangeführt werden.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Ein weiteres Element der bereits bekannten Referenzkühlung ist der beleuchtete "GeForce GTX"-Schriftzug. Er ist sicherlich das Highlight eines jeden Rechners mit Seitenfenster. Hier ebenfalls zu sehen ist die eloxierte Oberfläche des Kühlergehäuses.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Über die beiden SLI-Anschlüsse können zwei oder mehr GeForce GTX 780 Ti in einem SLI, 3-Way-SLI oder gar 4-Way-SLI betrieben werden. Entsprechende SLI-Brücken müssen natürlich vorhanden sein und auch das restliche System sollte auf eine solche GPU-Power unterstützend ausgerichtet sein. Mit der "Maxwell"-Architektur und Generation an Grafikkarte ist denkbar, dass auch NVIDIA auf die SLI-Anschlüsse verzichtet und das Timing sowie den Datenaustausch in einem Multi-GPU-System über das PCI-Express-Interface realisiert.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Am hinteren Ende der Karte befindet sich eine weitere Öffnung, welche den zur Slotblende gerichteten Luftstrom unterstützt. Warme Luft tritt an dieser Stelle nicht aus. Aufgrund der Temperaturabhängigkeit aller aktuellen High-End-GPUs ist ein aufgeheiztes Inneres eines PC-Gehäuses auch nicht wünschenswert.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Auf der Slotblende finden wir die üblichen Anschlüsse in Form von jeweils einmal DisplayPort 1.2 und HDMI 1.4a sowie zweimal Dual-Link-DVI (jeweils einmal DVI-I und DVI-D). Da auch für NVIDIA der Support von UltraHD und 4K eine wichtige Rolle spielt, bleibt hier nur der DisplayPort um entsprechende Displays anzusteuern. HDMI 1.4a bietet bei 3.840x2.160 Pixel nur eine Wiederholrate von 24 bzw. 30 Hz. Erst DisplayPort bietet eine ausreichende Bandbreit, um ab 3.840x2.160 auch 60 Hz bereitzustellen.


NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Ohne Kühler wird der Blick auf das nackte PCB frei. Auf drei Seiten der GPU befinden sich die GDDR5-Speicherchips. Im rechten Bereich sind die Komponenten der Strom- und Spannungsversorgung zu finden. Auf die einzelnen Details gehen wir im Folgenden genauer ein.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Die GPU der GeForce GTX 780 Ti wird als GK110-425-B1 bezeichnet. Es handelt sich also um ein neues Stepping in der Fertigung, das wohl nicht nur den Vollausbau erst in einer zu rechtfertigbaren Ausbeute, sondern auch die Taktsteigerung gegenüber der GeForce GTX Titan ermöglicht.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Die auf der GeForce GTX 780 Ti eingesetzten Speicherchips stammen aus dem Hause Hynix und hören auf die Bezeichnung H5GQ2H24AFR-R2C. Decodiert bedeutet dies: Der Speicher stammt aus dem Hause Hynix und es handelt sich um DRAM, genauer gesagt GDDR5-Speicher. Betrieben wird dieser mit einer VDD mit 1,5 Volt und einer VDDQ von 1,5 Volt. Organisiert ist dieser Speicher in 2 Gbit Chips mit 32 ms in 16 Bänken. Die Chips sind in der 2. Generation dieser speziellen Bausteine gefertigt und es handelt sich um ein Fine Line BGA (FBGA), also ein Ball Grid Array mit verringertem Lötpunktabstand von 0,5 mm bis 0,7 mm. Spezifiziert ist dieser Speicher bis zu einem Takt von 3,5 GHz bei einer Betriebstemperatur von 0 bis 85 °C.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Die Strom- und Spannungsversorgung erfolgt über eine 6-phasiges Design. Die dazugehörigen Komponenten sind direkt in der Nähe der GPU und Speicherchips zu finden. Zum heutigen Start werden wir keine eigenen Designs der Retail-Hersteller sehen. Dies wird erst Ende November oder Anfang Dezember der Fall sein. Im Vergleich zur GeForce GTX 780 und Titan sehen wir deutliche Unterschiede bei der Wahl der Komponenten und deren Positionierung. Solche Optimierungen sind für ein Redesign bzw. weitere Revision einer GPU nebst restlicher Elemente einer Karte allerdings auch nicht unüblich.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Um das GPU-Boost-Feature verwenden zu können, ist die hier zu sehende kleine Zusatzplatine nötig. In diesem Bild ist ebenfalls zu erkennen, dass es theoretisch möglich wäre einen weiteren 8-Pin-Anschluss aufzulöten. Ob jedoch auch die weiteren Komponenten der Versorgung dafür ausgelegt sind, ist unklar.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Den Referenzkühler der GeForce GTX 780 Ti kennen wir also bereits. Hier zu sehen sind der GPU-Kühler in der Mitte sowie die einzelnen Wärmeleitpads für die zwölf Speicherchips sowie einige Komponenten der Strom- und Spannungsversorgung.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

NVIDIA setzt also auch bei der GeForce GTX 780 Ti auf eine Vapor-Champer direkt auf der GPU. Die Abwärme wird dann an den Kühlkörper abgegeben, welcher wiederum durch den Luftstrom heruntergekühlt wird. Ob es der GeForce GTX 780 Ti auch gelingt die Temperatur bei 80 bis 83 °C bei möglichst hohem Takt zu halten, haben wir bereits auf der Seite GPU-Boost in der Praxis beleuchtet. Die Frage nach der dazugehörigen Lautstärke beantworten wir in den Messungen.


ShadowPlay

Seit vergangener Woche ist die GeForce Experience von NVIDIA in der Version 1.7 erhältlich und bietet damit auch das bereits vorgestellte ShadowPlay. Bereits auf der Computex 2013 konnten wir einen ersten Blick auf die Software werfen, aber es sollte nun doch noch einige Monate dauern, bis die erste Beta-Version ausgeliefert wird. Offiziell machte NVIDIA ShadowPlay auf dem Tech-Day in Montreal vor wenigen Tagen. Grundsätzlich bietet ShadowPlay die Möglichkeit Spielszenen in FullHD-Auflösung aufzunehmen oder diese live auf die Streaming-Plattform Twitch zu senden. Zuschauer sehen die Inhalte im Netz mit einer Verzögerung von etwa zwei Sekunden, dafür aber mit vollen 60 FPS. Zu den einzelnen Details kommen wir jetzt.

NVIDIA GeForce Experience mit ShadowPlay
NVIDIA GeForce Experience mit ShadowPlay

ShadowPlay ist Teil der GeForce Experience. Diese steht nun in der Version 1.7 bereit und beinhaltet unter Einstellungen nun auch den Punkt ShadowPlay. Um zu erkennen, ob eine Aufzeichnung läuft oder nicht, kann der Nutzer eine entsprechende Anzeige einblenden und deren Position bestimmen. Der Zielpfad der aufgezeichneten Videos kann ebenso festgelegt werden. Letztendlich wird eine Aufnahme per Tastendruck gestartet - der entsprechende Shortcut kann ebenfalls bestimmt werden.

NVIDIA GeForce Experience mit ShadowPlay

ShadowPlay besitzt aber noch weitere Einstellungen und muss auch aktiviert werden. Das Bild am Monitor flackert dann kurz. Der in Hardware gegossene H.264-Encoder der "Kepler"-GPU wird an dieser Stelle vermutlich mit einem Mirror der aktuellen Anzeige versorgt.

ShadowPlay beherrscht zwei unterschiedliche Methoden der Aufzeichnung. Zum einen kann mit dem Tastendruck des Nutzers eine Aufnahme gestartet werden. Doch wer weiß schon im Vorfeld, dass in den nächsten paar Sekunden eine spektakuläre Aktion über das Display flimmern wird. Aus diesem Grund zeichnen ShadowPlay im Time-Shift-Modus namens "Schatten" auf. Der Nutzer kann die Zeitspanne selbst wählen, die rückwirkend vorgehalten wird. Zwischen einer und 20 Minuten sind möglich.

Aufgezeichnet wird in 1.080p bei 60 FPS in H.264. Ebenfalls möglich ist eine Auswahl für die Qualität. In der höchsten Qualität belegt eine Aufzeichnung zwischen 375 MB und 7,5 GB (1 - 20 Minuten). Die gleiche Zeitspanne nimmt bei mittlerer Qualität zwischen 165 MB und 3,3 GB ein. Wer sich auch mit der niedrigsten Qualität zufrieden gibt, muss für eine bis 20 Minuten 133 MB bis 2,3 GB einplanen.

Schlussendlich haben wir noch einige Tests vorgenommen. Verbaut war dazu eine GeForce GTX Titan. Neben einigen Testszenen findet ihr im Video auch einen Vergleich der drei Qualitäten.

Zum Abschluss noch die ersten 2,5 - 3 Spielminuten aus Batman: Arkham Origins - ebenfalls aufgezeichnet mit ShadowPlay. Wer eine GeForce GTX 650 oder neuer besitzt, kann das neue Feature der GeForce Experience einmal selbst ausprobieren. Es ist Bestandteil des vergangene Woche veröffentlichten GeForce 331.65 und auch des in diesem Artikel verwendeten 331.70.

GeForce Experience ist in der Version 1.7 aber auch getrennt erhältlich:

G-SYNC

NVIDIA G-SYNC-Modul

Ein weiteres wichtiges Feature im Zusammenhang mit der GeForce GTX 780 Ti könnte G-SYNC werden. G-SYNC geht durch eine direkte Abstimmung der Frames durch GPU und Display-Panel die Ursache von Tearing, Input-Lag und anderen störenden Effekten an. Mit G-SYNC überlässt NVIDIA die Synchronisation von GPU und Display nicht mehr dem Monitor, sondern übernimmt diese Rolle - folglich sprechen nun GPU und G-SYNC miteinander. Entsprechende Monitore sollen zu Beginn des kommenden Jahres verfügbar sein. Das G-SYNC-Modul kann dabei entweder nachträglich eingebaut werden oder ist bereits fester Bestandteil der Elektronik. Die entsprechenden Displays sollen in unterschiedlichen Größen und mit Auflösungen von bis zu 3.840 x 2.160 Pixel verfügbar sein. Bereits gegen Ende des Jahres will NVIDIA einzelne Module anbieten, die dann beispielsweise in einen ASUS VG248QE gesteckt werden können. Da der Monitor diese Möglichkeit nicht von Haus aus ermöglicht, müssen bestimmte Modifikationen vorgenommen werden. Diese dürften für einen kleinen Aufpreis des VG248QE gegenüber dem Standardmodell sorgen. Alternativ kann der Nutzer auch selbst Hand anlegen und das Modul eigenhändig einbauen. BenQ, Philips und ViewSonic haben ebenfalls angekündigt, entsprechende Monitore anbieten zu wollen.

Game-Bundle

NVIDIA GeForce GTX 780 Ti - Game-Bundle
NVIDIA GeForce GTX 780 Ti - Game Bundle

Wer im Rahmen der Vorweihnachtszeit eine GeForce GTX 780 Ti erwirbt, bekommt die Spiele Assassins Creed: Black Flag, Batman: Arkham Origins und Splinter Cell: Blacklist kostenlos dazu. Nur für die USA interessant ist der zusätzliche Rabatt beim Kauf einer Shield in Höhe von 100 US-Dollar. Mit diesem Game-Bundle versucht NVIDIA gegen AMDs "Never Settle Forever" einen Gegenpol zu schaffen.


Um die Treiber-Generationen anzugleichen, aber auch um die Hardware auf ein neues Level vorzubereiten, haben wir das Testsystem etwas umgestellt. Der Intel Core i7-3960X wird von 3,2 GHz auf 4,2 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen. Folgende Systemkomponenten kommen dabei zum Einsatz:

 

Testsystem
Prozessor Intel Core i7-3960X 3,3 GHz übertaktet auf 4,2 GHz
Mainboard ASUS P9X79 Deluxe
Arbeitsspeicher ADATA XPG Gaming Series Low Voltag 4x 2 GB PC3-12800U CL 9-9-9-24
Festplatte ADATA S510 SSD 60 GB
Netzteil Seasonic Platinum Series 1000 Watt
Betriebssystem Windows 8 Pro 64 Bit
Grafikkarten
NVIDIA NVIDIA GeForce GTX 780 Ti (876/928/1.750 MHz, 3072 MB)
  NVIDIA GeForce GTX Titan (837/786/1.502 MHz, 6.144 MB)
  NVIDIA GeForce GTX 780 (863/902/1.502 MHz, 3.072 MB)
  NVIDIA GeForce GTX 770 (1.046/1.085/1.753 MHz, 2.048/4.096 MB)
  NVIDIA GeForce GTX 760 (980/1.033/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 690 (915/1.502 MHz, 4.096 MB)
  NVIDIA GeForce GTX 680 (1.006/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 670 (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 Ti (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 (1.058/1.250 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti Boost (980/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti (925/1.350 MHz 2.048 MB)
  NVIDIA GeForce GTX 650 (1.058/1.250 MHz, 1.024/2.048 MB)
  NVIDIA GeForce GTX 590 (608/1.215/854 MHz, 3.072 MB)
  NVIDIA GeForce GTX 580 (772/1.544/1.000 MHz, 1.536 MB)
  NVIDIA GeForce GTX 570 (732/1.464/950 MHz, 1.280MB)
  NVIDIA GeForce GTX 560 Ti 448 Cores (732/1.464/950 MHz, 1.280 MB)
  NVIDIA GeForce GTX 560 Ti (820/1.640/1.000 MHz, 1.024 MB)
  NVIDIA GeForce GTX 560 (810/1.620/1.002 MHz, 1.024 MB) 
  NVIDIA GeForce GTX 550 Ti (900/1.800/1.026 MHz, 1.024 MB)
AMD AMD Radeon R9 290X (1.000/1.250 MHz, 4.096 MB)
  AMD Radeon R9 290 (947/1.500 MHz, 4096 MB)
  AMD Radeon R9 280X (1.000/1.500 MHz, 3.072 MB)
  AMD Radeon R9 270X (1.000/1.400 MHz, 2.048/4.096 MB)
  AMD Radeon R7 260X (1.100/1.625 MHz, 2.048 MB)
  AMD Radeon HD 7990 (950/1.000/1.500 MHZ, 6.144 MB)
  AMD Radeon HD 7970 GHz Edition (1.000/1.050/1.500 MHz, 3.072 MB)
  AMD Radeon HD 7970 (925/925/1.375 MHz, 3.072 MB)
  AMD Radeon HD 7950 (800/800/1.250 MHz, 3.072 MB)
  AMD Radeon HD 7870 (1.000/1.000/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7850 (860/860/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7790 (1.075/1.075/1.500 MHz, 1.024/2.048 MB)
  AMD Radeon HD 7770 (1.000/1.000/1.125 MHz, 1.024 MB)
  AMD Radeon HD 7750 (800/800/1.125 MHz, 1.024 MB)
  AMD Radeon HD 6990 (830/830/1.250 MHz, 4.096 MB)
  AMD Radeon HD 6970 (880/880/1.375 MHz, 2.048 MB)
  AMD Radeon HD 6950 (800/800/1.200 MHz, 2.048 MB)
  AMD Radeon HD 6870 (900/900/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6850 (775/775/1.000 MHz, 1.024 MB)
  AMD Radeon HD 6790 (840/840/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6770 (850/850/1.200 MHz, 1.024 MB)
Treiber
NVIDIA GeForce 331.65
AMD Catalyst 13.11 Beta 9

Unsere Testsysteme werden ausgestattet von ASUS, Intel, Thermaltake und Seasonic. Vielen Dank für die Bereitstellung der Komponenten.

 

Treibereinstellungen NVIDIA:

Textureinstellungen AMD:

Folgende Benchmarks kommen mit den genannten Settings zum Einsatz:

Futuremark 3DMark 11 (DX11):

Futuremark 3DMark (DX11):

LuxMark 2.0 (OpenCL):

Compute Mark (Complex):

Unigine Valley (DX11):

Anno 2070 (DX11):

Battlefield 3 (DX11):

Call of Duty: Black Ops II (DX11):

Crysis Warhead (DX10):

Crysis 3 (DX11):

The Elder Scrolls V: Skyrim (DX9):

Far Cry 3 (DX11):

Hitman: Absolution (DX11):

Bioshock Infinite:


Werfen wir nun einen Blick auf die Lautstärke, die Leistungsaufnahme und das Temperatur-Verhalten der NVIDIA GeForce GTX 780 Ti.

Messungen: Leistungsaufnahme

Der Idle-Stromverbrauch der GeForce GTX 780 Ti liegt auf einem üblichem Niveau. Bei 104,6 Watt sticht man weder positiv noch negativ hervor. Großes Einsparpotenzial ist bei den Grafikkarten nicht mehr vorhanden. Die übrigen Komponenten unseres Testsystems sind maßgeblich für den Idle-Stromverbrauch verantwortlich.

Messungen: Leistungsaufnahme

Unter Last zeigt sich die GeForce GTX 780 Ti dann mit einem fast 20 Watt höheren Verbrauch im Vergleich zur GeForce GTX Titan. Damit kommt das Gesamtsystem auf einen Verbrauch von 404,3 Watt, was sogar noch etwas weniger ist als bei der Radeon R9 290. Die alten und aktuellen Dual-GPU-Karten aus beiden Lagern lässt die GeForce GTX 780 Ti hinter sich. Ebenso die GeForce GTX 580 und neuen AMD Radeon R9 290X sowie die bereits erwähnte R290.

Messungen: Temperatur

Bei der Idle-Temperatur liegt die GeForce GTX 780 Ti mit 38 °C zwar etwas über dem Schnitt der Vergleichskarten, dafür aber könnte NVIDIA diese etwas höhere Temperatur mit einer geringen Idle-Lautstärke wieder kompensieren. Gerade die älteren Generationen von AMD und NVIDIA waren durch die größere Fertigung im Idle-Betrieb nicht nur stromhungriger, sondern wurden auch noch deutlich wärmer.

Messungen: Temperatur

Mit GPU-Boost und PowerTune ist ein direkter Vergleich der Temperaturen eigentlich nicht mehr sinnvoll. Alle modernen High-End-GPUs versuchen über diese Mechanismen einen möglichst hohen Takt bereitzustellen und erreichen somit über kurz oder lang auch meist das Temperaturziel. Im Falle von NVIDIA bzw. der GeForce GTX 780 Ti liegt dieses Ziel bei 83 °C - unserer Karte erreichte dieses in gleich mehreren Anwendungen.

Messungen: Lautstärke

NVIDIA hat mit dem Referenzkühler für die GeForce GTX Titan, 780 und 770 gute Arbeit geleistet. Diese guten Ergebnisse bestätigt auch der Kühler der GeForce GTX 780 Ti. 35,3 dB(A) sind ein ausgezeichneter Wert und der Nutzer wird die etwas höhere Idle-Temperatur von 38 °C sicherlich für eine solche niedrige Lautstärke gerne in Kauf nehmen.

Messungen: Lautstärke

Unter Last muss der Kühler dann einmal mehr unter Beweis stellen, wie leistungsfähig er wirklich ist. Auch machte der Referenzkühler bereits auf früheren Karten einen guten Eindruck. Ähnlich verhält es sich auch mit den 52,8 dB(A) für die GeForce GTX 780 Ti. Im Hinblick auf die Ergebnisse der AMD Radeon R9 290X wird diese zumindest im Uber-Mode geschlagen. Im Quiet-Mode limitiert AMD die Karte durch eine besonders niedrige maximale Lüfterdrehzahl, was allerdings bei 94 °C zu niedrigeren Taktraten führt. Dazu aber dann in den nun folgenden Benchmarks etwas mehr.


Beim 3DMark 11 handelt es sich um den ersten vollständigen DirectX-11-Benchmark aus dem Hause Futuremark. Aus diesem Grund macht er auch ausgiebig Gebrauch von Tessellation, Depth of Field, Volumetric Lighting und Direct Compute. Obligatorisch ist natürlich auch die Unterstützung für Multi-Core-Prozessoren mit mehr als vier Kernen. Der Download ist in unserer Download-Area möglich.

Screenshot zu 3DMark 11 Screenshot zu 3DMark 11
Screenshot zu 3DMark 11 Screenshot zu 3DMark 11

Zum kostenlosen Download von Futuremarks 3DMark 11 gelangt man über diesen Link.

Benchmarks: Futuremark 3DMark 11

Benchmarks: Futuremark 3DMark 11

Benchmarks: Futuremark 3DMark 11


Mit dem neuen 3DMark versucht Futuremark vom Smartphone bis zum High-End-PC eine Vergleichbarkeit herzustellen. Dazu bietet man drei Presets an, die alle Performance-Bereiche in den verschiedensten Settings abdecken sollen. Natürlich werden auch hier Technologien wie Tessellation, Depth of Field, Volumetric Lighting und Direct Compute verwendet. Über das Fire-Strike-Extrem-Setting lassen sich auch High-End-Karten an ihre Grenzen bringen.

Screenshot zu Futuremarks 3DMark Screenshot zu Futuremarks 3DMark
Screenshot zu Futuremarks 3DMark Screenshot zu Futuremarks 3DMark

Zum kostenlosen Download von Futuremarks 3DMark gelangt man über diesen Link.

Benchmarks: Futuremark 3DMark

Benchmarks: Futuremark 3DMark

Benchmarks: Futuremark 3DMark

Benchmarks: Futuremark 3DMark


Unigine bietet mit dem Heaven-Benchmarks bereits eine gute Test-Plattform, die nun mit Valley noch erweitert bzw. verbessert wurde. Dazu hat man eine 64.000.000 Quadratmeter große Landschaft erschaffen, die von detaillierter Vegatation bis hin zu dynamischen Wetterbedingungen alle Anfoderungen an moderne GPUs stellt. Der integrierte Benchmark führt durch alle Testumgebungen und gibt somit einen recht guten Eindruck der Performance.

Screenshot zu Unigine Valley Screenshot zu Unigine Valley
Screenshot zu Unigine Valley Screenshot zu Unigine Valley

Der Download des Unigine Valley ist direkt beim Hersteller möglich.

Benchmarks: Unigine Valley

Benchmarks: Unigine Valley

Benchmarks: Unigine Valley

Benchmarks: Unigine Valley

Benchmarks: Unigine Valley

Benchmarks: Unigine Valley


Sowohl AMD wie auch NVIDIA legen immer größeren Wert auf die Compute-Performance ihrer GPUs. Neben zahlreichen Engines mit OpenCL-Unterstützung wollen wir auch die Performance gesondert betrachten. Dazu nutzen wir den LuxMark 2.0, der in der Testszene "Sala" über RayTracing ein Bild berechnet und als Ausgabe die Samples pro Sekunde ausgibt.

 

luxmark-1-rsScreenshot zu Luxmark 2.0

Screenshot zu Luxmark 2.0Screenshot zu Luxmark 2.0

 

Zum kostenlosen Download von LuxMark 2.0 gelangt man über diesen Link.

Benchmarks: Luxmark 2.0


Mit Hilfe des ComputeMark versuchen wir die GPU-Computing-Performance genauer zu beleuchten. Der ComputeMark führt automatisch durch unterschiedliche Anwendungen, die ebenso unterschiedliche Anforderungen an die Hardware haben. Auf Basis der aktuellen DirectX-11-Compute-API können Nutzer die Compute-Leistung auf den Prüfstand stellen. Mit von der Partie ist unter anderem ein RayTracing-Test.

Screenshot zu ComputeMark Screenshot zu ComputeMark
Screenshot zu ComputeMark Screenshot zu ComputeMark

Den ComputeMark könnt ihr direkt auf der Seite des Herstellers herunterladen.

Benchmarks: Computemark

Benchmarks: Computemark

Benchmarks: Computemark

Benchmarks: Computemark

Benchmarks: Computemark


Der fünfte Teil der The-Elder-Scroll-Reihe spielt in der namensgebenden Provinz Skyrim (dt. Himmelsrand). Die Handlung dreht sich um die Rückkehr der Drachen, wie sie in den "Elder Scrolls" vorhergesagt wurde. Der Spieler übernimmt die Rolle eines "Dovahkiin", eines Individuums mit dem Körper eines Menschen und der Seele eines Drachen. Der Spieler durchstreift bei dem Kampf gegen die Drachen opulente Städte mit verschlungenen Gassen und atemberaubende Landschaften, deren Grenze buchstäblich der Himmel ist. Mit seiner hohen Weitsicht und der detaillierten Vegetation bringt Skyrim so manches System ins Schwitzen.

Crysis1_rs Screenshot zu The Elder Scrolls V Skyrim
Screenshot zu The Elder Scrolls V Skyrim Screenshot zu The Elder Scrolls V Skyrim

Zur Vollversion von Elder Scrolls V: Skyrim gelangt man über diesen Link.

Benchmarks: The Elder Scrolls V Skyrim

Benchmarks: The Elder Scrolls V Skyrim

Benchmarks: The Elder Scrolls V Skyrim

Benchmarks: The Elder Scrolls V Skyrim

Benchmarks: The Elder Scrolls V Skyrim

Benchmarks: The Elder Scrolls V Skyrim


Immer wieder für grafische Highlights verantwortlich zeichnen die Macher von Crysis. Die als Basis dienende CryEngine 2 sorgt dafür, dass selbst aktuelle High-End-Systeme den Anforderungen nicht immer gewachsen sind. Daher eignet sich Crysis Warhead ideal für unsere Benchmarks. Wir verwenden Crysis Warhead im DirectX-10-Modus, alle Details auf Maximum.

Screenshot zu Crysis Warhead Screenshot zu Crysis Warhead
Screenshot zu Crysis Warhead Screenshot zu Crysis Warhead

Zur Vollversion von Crysis Warhead gelangt man über diesen Link.

Benchmarks: Cryis Warhead

Benchmarks: Cryis Warhead

Benchmarks: Cryis Warhead

Benchmarks: Cryis Warhead

Benchmarks: Cryis Warhead

Benchmarks: Cryis Warhead


Mit Crysis 3 steht in diesem Frühjahr zumindest auf technischer Seite in Hightlight bereit. Mit der Unterstützung ausschließlich für DirectX-11-Grafikkarten geben Crytek, die Macher hinter Crysis 3 die Richtung bereits vor. Von Tessellation bis zum aufwendigen Post-Processing-Anti-Aliasing werden alle aktuellen technischen Finessen genutzt, so dass auch die aktuellste Hardware an ihre Grenzen kommt.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis 3 gelangt ihr über diesen Link.

Benchmarks: Crysis 3

Benchmarks: Crysis 3

Benchmarks: Crysis 3

Benchmarks: Crysis 3

Benchmarks: Crysis 3

Benchmarks: Crysis 3


Black Ops 2 ist der letzte und aktuellste Teil der "Call of Duty"-Reihe, die nun aber eine Überarbeitung erfahren soll. Die Welt befindet sich inmitten eines zweiten kalten Krieges zwischen der Volksrepublik China und den Vereinigten Staaten um die kostbaren Metalle der Seltenen Erden. Das Verbot des Exports verleitet die USA dazu, mit einem Cyberangriff die chinesische Börse lahmzulegen. Es kommt zum Konflikt zwischen den beiden Parteien, der allerdings nicht offen ausgefochten wird.

Screenshot zu Call of Duty: Black Ops 2 Screenshot zu Call of Duty: Black Ops 2

Screenshot zu Call of Duty: Black Ops 2 Screenshot zu Call of Duty: Black Ops 2

Zur Vollversion von Call of Duty: Black Ops 2 gelangt man über diesen Link.

Benchmarks: Call of Duty: Black Ops 2

Benchmarks: Call of Duty: Black Ops 2

Benchmarks: Call of Duty: Black Ops 2

Benchmarks: Call of Duty: Black Ops 2

Benchmarks: Call of Duty: Black Ops 2

Benchmarks: Call of Duty: Black Ops 2


Anno 2070 spielt entgegen seiner vier Vorgänger nicht mehr in der Vergangenheit, sondern knapp 60 Jahre in der Zukunft. Das Spielprinzip blieb grundsätzlich gleich, das heißt fremde Inseln erkunden, besiedeln, Wirtschaftskreisläufe aufbauen, um die Bedürfnisse der unterschiedlichen Bevölkerungsteile zu befriedigen, und sich in der Diplomatie üben. Neu sind die drei Fraktionen: Die Ecos setzen auf regenerative Energie und erhalten die Natur, während ihr Gegenpart, die Tycoons, durch Schwerindustrie die Umwelt verschmutzen. Die dritte Fraktion, die Techs, ermöglicht es, neue Techniken zu nutzen und auf dem Meeresboden zu siedeln. Die großen Inseln, die lebendige Flora und Fauna und die fantastischen Wassereffekte der eigens von Related Designs entwickelten Engine (DX11) verlangen auf der höchsten Detailstufe der Grafikkarte einiges ab.

Screenshot zu Anno 2070 Screenshot zu Anno 2070
Screenshot zu Anno 2070 Screenshot zu Anno 2070

Zur Vollversion von Anno 2070 gelangt man über diesen Link.

Benchmarks: Anno 2070

Benchmarks: Anno 2070

Benchmarks: Anno 2070

Benchmarks: Anno 2070

Benchmarks: Anno 2070

Benchmarks: Anno 2070


Die Battlefield-Serie erfuhr mit der Veröffentlichung des dritten Teils den vorläufigen Höhepunkt der virtuell erlebbaren Multiplayer-Action auf weitläufigen Schlachtfeldern. Differenzierte Soldatenklassen, realitätsgetreu modellierte Waffen und Fahrzeuge stellen in Verbindung mit der leistungsstarken Frostbite 2-Engine (DX11) das momentane Nonplusultra des Actiongenres dar. Die grafische Darstellung besticht durch enorme Weitsicht und wirklichkeitsnahe Bewegungsabläufe des eigenen Soldaten. Langzeitmotiviation ist dank des Aufstiegssystems mit unzählig vielen freischaltbaren Waffen und Gadgets garantiert, wobei mit Hilfe des Battlelogs stets die Übersicht gewahrt wird.

Screenshot zu Battlefield 3 Screenshot zu Battlefield 3
Screenshot zu Battlefield 3 Screenshot zu Battlefield 3

Zur Vollversion von Battlefield 3 gelangt man über diesen Link.

Benchmarks: Battlefield 3

Benchmarks: Battlefield 3

Benchmarks: Battlefield 3

Benchmarks: Battlefield 3

Benchmarks: Battlefield 3

Benchmarks: Battlefield 3


Der neuste Teil der Far-Cry-Serie basiert auf der Dunia Engine 2 und wurde von Ubisoft entwickelt. Es entführt den Spieler auf eine tropische Insel, wo er den Protagonisten Jason Brody spielt, der dort mit seinen Freunden Urlaub macht. Als er und seine Freunde von Piraten gefangen werden, gelingt es ihm als einzigen zu entkommen. Mit Hilfe der einheimischen Bevölkerung tritt er nun an, um seine Freunde zu retten und die Piraten zu besiegen. Far Cry 3 kann wie auch die ersten beiden Teile mit einer beeindruckenden Grafik überzeugen. Dabei kommt DirectX 11 in Verbindung mit Kantenglättung, Umgebungsverdeckung und schönen Texturen sowie einer hohen Detaildichte zum Einsatz, womit auch High-End-Grafikbeschleuniger an ihre Grenzen gebracht werden.

Screenshot zu Far Cry 3 Screenshot zu Far Cry 3
Screenshot zu Far Cry 3 Screenshot zu Far Cry 3

Zur Vollversion von Far Cry 3 gelangt man über diesen Link.

Benchmarks: Far Cry 3

Benchmarks: Far Cry 3

Benchmarks: Far Cry 3


Hitman: Absolution ist der direkte Nachfolger von Hitman: Blood Money. Der Hauptcharakter 47 brachte den ehemaligen FBI-Direktor Alexander Leland Cayne um, der wiederum Teil einer größeren Geheimorganisation names Alpha Zerox war. Weder Diana, der Rest des ICA noch der Spieler selbst kennen den exakten Aufenthaltsort von 47. Es ist lediglich bekannt, dass er zuletzt ein asiatisch anmutendes Gebäude betreten hat. In Hitman: Absolution findet sich 47 inmitten einer  Verschwörung wieder und er muss feststellen, dass er von seinen ehemaligen Freunden verlassen und verraten worden ist. Hitman: Absolution basiert auf der Glacier-2-Engine und bringt auch aktuelle High-End-Karten an ihre Grenzen.

Screenshot zu Hitman Absolution Screenshot zu Hitman Absolution
Screenshot zu Hitman Absolution Screenshot zu Hitman Absolution

Zur Vollversion von Hitman: Absolution gelangt man über diesen Link.

Benchmarks: Hitman: Absolution

Benchmarks: Hitman: Absolution

Benchmarks: Hitman: Absolution


Zu den Highlights des Jahres 2013 dürte Bioshock Infinite gehören. Doch nicht nur die Story kann fesseln, sondern auch die Technik. Die Engine nutzt nahezu alle aktuellen DirectX-11-Effekte und setzt diese auch entsprechend um. Daher ist Bioshock Infinite eine logische Wahl für unsere Benchmarks.

Screenshot zu Bioshock Infinite Screenshot zu Bioshock Infinite
Screenshot zu Bioshock Infinite Screenshot zu Bioshock Infinite

Zur Vollversion von Hitman: Absolution gelangt man über diesen Link.

Benchmarks: Bioshock: Infinite

Benchmarks: Bioshock: Infinite

Benchmarks: Bioshock: Infinite


Mit Battlefield 4 setzen DICE und EA die Strategie des Vorgängers fort: Eine kleine Singleplayer-Kampagne wird angeboten, aber alles dreht sich eigentlich um die großen Multiplayer-Schlachten. Mit bis zu 63 weiteren Spielern kann auf großen Karten zwischen drei verschiedenen Kämpfer-Klassen gewählt werden. Hinzu kommen Dutzende Fahrzeuge zu Land, zu Wasser und in der Luft. Auch grafisch setzt Battlefield 4 neue Maßstäbe und ist daher auch ein offensichtlicher Kandidat für unsere Benchmarks.

Screenshot zu Battlefield 4 Screenshot zu Battlefield 4
Screenshot zu Battlefield 4 Screenshot zu Battlefield 4

Zur Vollversion von Battlefield 4 gelangt man über diesen Link.

Benchmarks: Battlefield 4

Benchmarks: Battlefield 4

Benchmarks: Battlefield 4


Nicht erst seit der AMD Radeon R9 290X wird eine neue Ausrichtung beim PC-Gaming deutlich: Neue Auflösungen (UltraHD/4K) und neue Technologien (NVIDIA G-SYNC) kommen immer mehr in Mode. Daher haben wir die GeForce GTX 780 Ti nebst einigen weiteren Vertretern durch einige Benchmarks gejagt, die mit 3.840x2.160 Pixeln auf einem ASUS PQ321QE dargestellt wurden. Angeschlossen waren die Karten jeweils über DisplayPort.

In Kürze wollen wir unser Testsystem umstellen bzw. in Sachen Software auf den neuesten Stand bringen. Dann werden wir auch diese Messungen in höheren Auflösungen standardmäßig mit ins Programm aufnehmen. Auf den folgenden zwei Seiten aber schon einmal eine kleine Auswahl aus acht Benchmarks mit unterschiedlichen Settings:

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks


NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks

NVIDIA GeForce GTX 780 Ti 4K-Benchmarks


Mittels dem Precision-Tool von EVGA haben wir uns natürlich auch dem Overclocking der GeForce GTX 780 Ti angenommen. Für möglichst gute Voraussetzungen stellten wir das Power-Target auf +106 Prozent und setzten auch das Temperaturziel auf 95 °C. Gleichzeitig stellten wir die Lüfterdrehzahl manuell auf 80 Prozent. Somit konnten wir bei unseren OC-Versionen eine GPU-Temperatur von 65 bis 70 °C gewährleisten. Schlussendlich wählten wir  eine manuelle Spannung für die GPU von 1,212 Volt.

Mit vorsichtigen Schritten beim GPU- und Speichertakt näherten wir uns dem von uns erreichten Maximum von 1.163 MHz für die GPU und 1.852 MHz für den Speicher. Sicherlich sind je nach Karte auch noch ein paar Megahertz mehr drin. Mit einer Steigerung um 25,3 Prozent gegenüber dem minimalen Boost-Takt und 14,4 Prozent gegenüber dem maximalen Praxiswert ohne OC-Eingriffe sind wir allerdings recht zufrieden. Beim Speicher entspricht die Taktsteigerung einer Verbesserung um 5,8 Prozent.

In den Benchmarks wirkte sich die Taktsteigerung wie folgt aus:

NVIDIA GeForce GTX 780 Ti: Overclocking

NVIDIA GeForce GTX 780 Ti: Overclocking

NVIDIA GeForce GTX 780 Ti: Overclocking

NVIDIA GeForce GTX 780 Ti: Overclocking

Auf die Leistungsaufnahme, die Temperatur und die Lautstärke haben diese Eingriffe natürlich ebenfalls Einfluss.

NVIDIA GeForce GTX 780 Ti: Overclocking

NVIDIA GeForce GTX 780 Ti: Overclocking

NVIDIA GeForce GTX 780 Ti: Overclocking


NVIDIA ruft zum letzten Gefecht. Mit der GeForce GTX 780 Ti geht man den letzten Schritt mit der "Kepler"-Architektur und schafft sprichwörtlich in letzter Sekunde den Vollausbau der bisher größten und komplexesten GPU. Ob sich NVIDIA durch den Release der Radeon R9 290X dazu berufen gesehen hat, eine solche Karte auf den Markt zu bringen, oder ob man Titan nicht ohnehin durch die verbesserte Fertigung hat ersetzen wollen, bleibt dabei unklar. Technisch beeindruckend ist dieser Schritt im Hinblick auf die Komplexität der GPU allemal. Etwas mehr als sieben Prozent mehr CUDA-Kerne als die GeForce GTX Titan und eine Steigerung des Boost-Taktes um fest sechs Prozent, lassen eigentlich nur wenig Potenzial dafür, dass sich die GeForce GTX 780 Ti weit von der GeForce GTX Titan absetzen kann. Etwas anders sieht dies im Hinblick auf den Namensvetter GeForce GTX 780 aus. 25 Prozent mehr CUDA-Kerne spielen wohl die maßgeblichste Rolle. Der Speicherausbau ist in diesem Fall mit 3.072 MB identisch. AMD hat mit der Radeon R9 290X und den darauf verbauten 4.096 MB GDDR5-Speicher bewiesen, dass eine solche Größe des Grafikspeichers gerade bei UltraHD- und 4K-Auflösung Sinn machen kann. Gleiches gilt auch für die 6.144 MB der GeForce GTX Titan. Für die GeForce GTX 780 Ti könnten die 3.072 MB zum Flaschenhals werden, den NVIDIA aber durch eine hohe Speicherbandbreite von 336 GBit pro Sekunde zu minimieren versucht. Erstmals kommt hier der mit 1.750 MHz schnellste GDDR5-Speicher in einer High-End-Grafikkarte zum Einsatz.

Kommen wir nun zur Leistungsbeurteilung: Die GeForce GTX 780 Ti liefert sich einen harten Kampf mit der Radeon R9 290X von AMD. Dabei gilt hier zwischen dem Quiet- und dem Uber-Mode zu unterscheiden. Während die GeForce GTX 780 Ti die Konkurrenz im erstgenannten Fall meist im Griff hat, tut sie sich recht schwer mit der entfesselten Radeon R9 290X. Aufgrund der Vergleichs mit der GeForce GTX Titan war uns eigentlich aber auch klar, dass es ein enges Duell werden könnte. Besonders in hohen Auflösungen und zugeschaltetem Anti Aliasing kommt die Radeon R9 290X häufig besser klar. Schaut man sich die Radeon R9 290X isoliert im Quiet-Mode an, zieht die GeForce GTX 780 Ti teilweise mit deutlichem Vorsprung vorbei.

{jphoto image=45887}

Mit in Betracht gezogen werden muss aber auch, dass der Verbrauch der Radeon R9 290X zwischen drei und fast zehn Prozent (Quiet-Mode/Uber-Mode) über dem der GeForce GTX 780 Ti liegt. Einher geht dies mit niedrigeren Temperaturen (die aber letztendlich weder vergleichbar noch im Standard-Betrieb relevant sind) und einer geringeren Lautstärke zu Gunsten der Karte von NVIDIA. Bei der Laustärke möchten wir noch einmal darauf hinweisen, dass nicht nur die objektive Messung ausschlaggebend sein kann, sondern auch das subjektive Empfinden aufgrund unterschiedlicher Klangprofile. Bezieht man dies ebenfalls mit ein, schlägt der Zeiger in Sachen Laustärke noch weiter in Richtung GeForce GTX 780 Ti aus. Einfacher gesagt - NVIDIA hat bei der Kühlung einfach den besseren Job gemacht.

NVIDIA legt sehr viel Wert darauf, dass die GeForce GTX 780 Ti wie alle "Kepler"-Karten mit GPU-Boost ja einen Mindesttakt vorgeben, der auch nicht unterschritten wird. Wenn dies aber bedeutet, dass eine Karte aus dem Hause NVIDIA bei beispielhaften 1.000 MHz und über dem vorgegebenen Boost-Takt die gleiche Performance erbringt, wie eine Karte von AMD bei bis zu 1.000 MHz, die aber mit nur 800 MHz arbeitet, dann ist das dem Spieler sicherlich egal. Was zählt ist das, was am Ende dabei herauskommt. Die unterschiedlichen Ansätze von AMD und NVIDIA sind durchaus interessant zu beobachten und es macht auch ebenso viel Spaß damit zu arbeiten. Im Falle der GeForce GTX 780 Ti konnten wir mit unseren bereits gewonnen Erkenntnissen arbeiten. Dies fürte zu einem durch respektablen Overclocking-Ergebnis. Bei einer Taktsteigerung der GPU um 14,4 Prozent gegenüber dem Praxiswert des maximalen Boost-Taktes sind wir mit einem Performance-Gewinn von 12 bis 13 Prozent durchaus zufrieden. Mehr dürfen wir uns sicherlich erst dann erwarten, wenn die ersten Retail-Hersteller ihre Karten mit alternativen Kühlungen versehen und zusätzliche OC-Optionen anbieten. Bei 80 Prozent Lüfterdrehzahl und einer Temperatur von 77 °C waren wir weit vom Temperaturziel entfernt und die derzeit maximal mögliche Spannung von 1,212 Volt lag ebenfalls an. Software-Tools, die eine GPU-Spannung von 1,35 Volt ohne Wechsel des BIOS möglich machen, funktionierten mit der GeForce GTX 780 Ti noch nicht.

NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX 780 Ti

Am Ende haben wir auch verstanden, warum NVIDIA die Karte GeForce GTX 780 Ti nennt und nicht als Nachfolger der GeForce GTX Titan ein Ultra-Modell oder ähnliches auf dem Markt bringt. Die GeForce GTX Titan war in der gewählten Umsetzung nicht als Desktop-Karte gedacht. Die nun geringen Performance-Vorteile der GeForce GTX 780 Ti gegenüber der GeForce GTX Titan sind zu erwarten gewesen. Mit der GeForce GTX 780 Ti schafft es NVIDIA aber endlich den Preis der großen GK110-GPU zu senken. Während die GeForce GTX Titan nämlich immer noch mehr als 800 Euro kostet, soll die GeForce GTX 780 Ti bereits ab heute für 649 Euro erhältlich sein. Preislich hat man es damit noch immer recht schwer gegen eine AMD Radeon R9 290X für etwas weniger als 500 Euro. Schwer zu rechtfertigen dürfte auch der Aufpreis gegenüber den 410 Euro einer GeForce GTX 780 sein. Wer aber auf der Suche nach der derzeit absolut besten Performance von NVIDIA ist, der wird mit der GeForce GTX 780 Ti fündig. Gespannt sind wir nun noch, welche Modelle uns die Retail-Hersteller in Kürze präsentieren werden. Zwar werden diese auf der Referenzversion des PCBs aufbauen, eine alternative Kühlung könnte aber ein deutlicheres Kaufargument für eine GeForce GTX 780 Ti sein.

Ähnlich wie TrueAudio und die Mantle-API bietet NVIDIA ebenfalls eine interessante Technik für die Zukunft, die ihr Potenzial aber ebenfalls noch unter Beweis stellen muss. G-Sync könnte im Zusammenspiel mit dem richtigen Monitor eine echte Revolution des Gamings am PC werden, da es sich endlich der Darstellungsprobleme annimmt. Zur gegebenen Zeit werden wir sicherlich einen Blick auf das Zusammenspiel einer GeForce GTX 780 Ti mit einem G-SYNC-Monitor werfen können.

Alternativen? Mit der Radeon R9 290X hat AMD bereits die passende Alternative zur GeForce GTX 780 Ti vorgestellt und bietet diese sogar 150 Euro günstiger an. Einen Pferdefuß hätte die Entscheidung allerdings: Erst im Uber-Mode und damit 55 Prozent der Lüfterdrehzahl kann die Radeon R9 290X mit der GeForce GTX 780 Ti mithalten. Für kalte Winter hätte man in jedem Fall vorgesorgt, auch wenn sich die Radeon R9 290X in Sachen Verbrauch noch etwas schlechter darstellt. Eine echte Alternative ist die Radeon R9 290X somit also erst, wenn man ihr eigenhändig einen alternativen Lüfter aufsetzt oder bis Ende November bzw. Anfang Dezember wartet, bis die Retail-Hersteller dies tun.

 

Persönliche Meinung

Viel Neues gibt es bei der GeForce GTX 780 Ti nicht und im Vergleich mit der GeForce GTX Titan ist die neue Karte nur unwesentlich schneller. Die technische Faszination einer auf den professionellen Bereich ausgelegte und auch den Desktop adaptierten Karte lässt die GeForce GTX 780 Ti missen. Die zuschaltbaren Double-Precision-CUDA-Kerne vermissen sicherlich nur Profis und keine Spieler. Die fehlenden 3.072 MB GDDR5-Grafikspeicher könnte der ein oder andere hingegen schon vermissen. Sicher, dort wo 3.072 MB Grafikspeicher voll werden, müssen schon eine Menge Texturen geladen oder anderweitige Bildverbesserungen aktiviert sein. Ich möchte die GeForce GTX 780 Ti nicht schlecht machen, aber fragt man mich welche Karte ich kaufen würde, dann fiele die Wahl derzeit sicherlich auf eine AMD Radeon R9 290X mit Dritthersteller-Lüfter. Den dazu notwendigen Aufpreis mache ich aufgrund der 150 Euro günstigeren Karten dicke wieder wett. (Andreas Schilling)

 

Positive Aspekte der GeForce GTX 780 Ti:

Negative Aspekte der GeForce GTX 780 Ti: