> > > > XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

PDFDruckenE-Mail
Erstellt am: von

Seite 1: XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

titan-logo

Die Titanen bilden das älteste Göttergeschlecht der Theogonie der griechischen Mythologie. Oft werden sie als Riesen in Menschengestalt beschrieben, die über die legendäre Goldene Ära herrschten. NVIDIA hat "Titan" als Namen seiner neuesten Desktop-Grafikkarten gewählt. Die GeForce GTX Titan soll das Non-Plus-Ultra der aktuellen GPU-Entwicklung darstellen und NVIDIA gibt in Sachen Performance und Preisgestaltung an, keinerlei Kompromisse eingehen zu wollen. In der griechischen Mythologie verloren die Titanen den Kampf gegen die Olympier und wurden in die Unterwelt verbannt. Ob die GeForce GTX Titan dieses Schicksal mit ihren Namensgebern teilen muss, klären wir in diesem Artikel.

Aufgrund des NVIDIA-NDAs für die GeForce GTX Titan mussten wir den Test in zwei Teile trennen, da wir zunächst einmal nur die technischen Daten und Fotos präsentieren durften. Natürlich konnten wir anhand dessen auch schon die architektonischen Details besprechen. Alle Messwerte und Benchmarks sind nun - zwei Tage später - aber nun im Anschluss an die ausführliche theoretische Betrachtung erlaubt und finden sich nun ebenso in diesem Artikel. 

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Mitte Mai des vergangenen Jahres erwähnte NVIDIA auf der GTC 2012 erstmals die Trennung der "Kepler"-Architektur in zwei Bereiche: Desktop (GK10x) und GPU-Computing (GK11x). Gerüchte über einen zweiten, größeren Chip gab es auch damals schon. Die ersten Daten nannte NVIDIAs CEO Jen-Hsun Huang: 7,1 Milliarden Transistoren, 13 oder 14 SMX-Cluster, 384 Bit Speicherinterface und eine dreifach höhere Double-Precision-Performance gegenüber "Fermi". Schon damals äußerte sich NVIDIA positiv über die Möglichkeit, dass GK110 in einigen Monaten auch als GeForce-Produkt das Licht der Welt erblicken könnte. Doch klar war auch, es würde noch etwas dauern, denn bislang war nicht einmal ein Tesla-Produkt in Aussicht gestellt worden.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Dies änderte sich erst im November des vergangenen Jahres, denn nun wurden die Tesla K20 und K20X offiziell vorgestellt. Anhand der technischen Daten konnte sich jeder nun ausmalen, wie ein GeForce-Produkt aussehen könnte. Unklarheit herrschte ab sofort eigentlich nur noch über die Performance in Spielen, denn anhand der für das GPU-Computing vorgesehenen Benchmarks lässt sich dies nur schwer errechnen. Zumindest aber war bereits zu diesem Zeitpunkt klar, dass ein entsprechendes GeForce-Produkt über maximal 2688 CUDA-Kerne, 6144 MB an Grafikspeicher und ein 384 Bit breites Speicherinterface verfügen wird. Über die Taktraten ließen sich aufgrund der unterschiedlichen Anwendungen einer Tesla- und einer GeForce-Karte noch keinerlei Rückschlüsse ziehen.

Heute nun fallen die letzten Hüllen und wir wollen damit beginnen uns die GeForce GTX Titan bzw. deren GK110-GPU einmal genauer anzuschauen. 

Architektonische Eckdaten

Zunächst einmal werfen wir einen Blick auf die GK110-GPU:

GK110 Die
Die-Shot des GK110

Mit dem GK110 fertigt NVIDIA einen der derzeit komplexesten und größten Chips. 7,1 Milliarden Transistoren sind in ihm untergebracht und selbst bei einer Fertigung in 28 nm misst der Chip etwas über 551 mm². In Sachen Größe können allenfalls der IBM zEC12 mit 597 mm² (32 nm) oder der Intel Itanium "Poulson" mit 544 mm² (32 nm) mithalten. Aber auch der GT200 der GeForce-200-Serie war mit 576 mm² keine kleine GPU, wurde allerdings noch in 55 nm gefertigt.

Bei der Anzahl der Transistoren ist GK110 bei den GPUs ungeschlagen und auch modernste Prozessoren kommen allenfalls auf 5 Milliarden Transistoren (62-Kerner Intel Xeon Phi). Aber Größe und Anzahl der Transistoren sagt natürlich noch wenig über die Leistungsfähigkeit aus. Vorher schauen wir uns aber an, wie sich eine solch komplexe GPU zusammensetzt.

GK110 Blockdiagramm
GK110 Blockdiagramm der GeForce GTX Titan

Genau wie bei jeder GPU auf Basis der "Kepler"-Architektur bleibt es bei den SMX-Cluster, die jeweils 192 CUDA-Kerne beheimaten. Die GPU der GeForce GTX Titan besitzt 14 dieser SMX-Cluster und kommt somit auf 2688 CUDA-Kerne. Das Blockdiagramm von GK110 zeigt in den äußeren Bereichen das PCI-Express-3.0-Host-Interface sowie die sechs Speicher-Controller, die insgesamt auf eine Breite von 384 Bit kommen. Die 14 SMX-Cluster sind in fünf Gruppen aus sogenannten Graphics-Processing-Clustern zusammengefasst.

Für die beiden Tesla-Modelle auf Basis von GK110 erreichte NVIDIA einen enormen Gewinn an Double-Precision-Performance und die im Vergleich zu GK104 nur moderate Steigerung bei der Single-Precision-Performance erklärt sich durch eine neue Ausrichtung des FP32- zu FP64-Verhältnisses. Mit GK110 setzte NVIDIA zunächst voll auf den professionellen Markt und den Einsatz im HPC (High Performance Computing). Die erste Ausbaustufe von "Kepler" in Form des GK104-GPU auf der GeForce GTX 680 ist also im eigentlichen Sinne für den Einsatz als GeForce-GPU gedacht, wo die Single-Precision-Performance für das Rendering eine entscheidende Rolle spielt. Das Verhältnis Double-Precision zu Single-Precision ist von 1/2 auf 1/24 reduziert worden. Zu guter Letzt ist bei GK104 auch nur der Grafikspeicher ECC geschützt, nicht aber die Caches. Nun will NVIDIA GK110, mit seiner speziellen Ausrichtung auf den professionellen Markt, auch als GeForce-Produkt etablieren.

GK110 SMX-Cluster Blockdiagramm

Um eine höhere Double-Precision-Performance zu erreichen, hat NVIDIA pro SMX-Cluster nun 64 Floating-Point-Kerne eingebaut. Bei GK104 waren es nur acht pro Cluster. Zusammen mit der höheren Anzahl an Clustern sorgt dies für einen enormen Schub bei der Double-Precision-Performance. NVIDIA bleibt auch seiner skalaren Architektur bzw. der "Superscalar Dispatch Method" treu, die wir erstmals bei GF104 sahen und welche die Berechnungen etwas fehleranfälliger machen. Dadurch wird man etwas abhängiger von Thread Level Parallelism (TLP) und Instruction-Level Parallelism (ILP) bzw. der ganzzahligen linearen Optimierung.

Per Default laufen die Double-Precision-CUDA-Kerne allerdings nur mit 1/8 des Taktes. Im NVIDIA Control Panel ist in den 3D-Settings ein Menüpunkt namens "CUDA - Double Precision" zu finden. Wird dieser aktiviert, laufen die Double-Precision-CUDA-Kerne mit einem höheren Takt, allerdings nicht dem vollen 3D-Takt. Dies ist also nur für Nutzer interessant, die für wissenschaftliche Anwendungen die volle Double-Precision-Performance benötigen. Spieler werden diese Option nicht nutzen wollen, da die Rendering-Performance durch den niedrigeren Takt reduziert wird.

NVIDIA Control Panel
Aktivierung der Double-Precision-CUDA-Kerne im NVIDIA Control Panel

Jedes SMX-Cluster verfügt außerdem über einen 64 kB großen L1-Cache und einen 48 kB Read-Only Data Cache. Im Vergleich zu GK104 hat man den L1-Cache also nicht angetastet, verpasst den Clustern in GK110 aber einen 48 kB großen Read-Only Data Cache. Pro SMX-Cluster bleibt es auch bei den 16 Textur-Einheiten, sodass GK110 derer maximal 240 besitzt. Die Double-Precision-Performance wird auch durch eine Änderung an den Registern erhöht. So ist die Anzahl der Register pro SMX-Cluster mit 65.536 im Vergleich zu GK104 identisch geblieben, dafür aber darf bei GK110 pro Thread auf 255 Register zugegriffen werden - bei GK104 sind es nur 63.

Was das für die reine Rechenleistung bedeutet, zeigt folgender Vergleich. Die GeForce GTX 680 kommt bei einfacher Genauigkeit auf eine Performance von 3,09 TFLOPs. Die Double-Precision-Performance liegt sogar nur bei 128 GFLOPs. GeForce GTX Titan erreicht eine Single-Precision-Performance von 4,5 TFLOPs. Bei doppelter Genauigkeit sind es 1,5 TFLOPs.

 

NVIDIA GeForce GTX Titan
Straßenpreis zirka 950 Euro
Homepage www.nvidia.de
Technische Daten
GPU GK110 (GK110-400-A1)
Fertigung 28 nm
Transistoren 7,1 Milliarden
GPU-Takt (Base Clock) 837 MHz
GPU-Takt (Boost Clock) 876 MHz
Speichertakt 1502 MHz
Speichertyp GDDR5
Speichergröße 6144 MB
Speicherinterface 384 Bit
Speicherbandbreite 288,4 GB/Sek.
DirectX-Version 11.0
Shadereinheiten 2688 (1D)
Textur Units 224
ROPs 48
Pixelfüllrate 40,2 GPixel/Sek.
SLI/CrossFire SLI
TDP 250 Watt

 

Die GK110-GPU auf der GeForce GTX Titan arbeitet mit einem Basis-Takt von 837 MHz auf allen 2688 CUDA-Kernen. GPU-Boost kennen wir bereits von den GK104-GPUs und wird auch bei der GeForce GTX Titan genutzt. Auf mindestens 876 MHz kommt die GPU hier, was laut NVIDIA aber eine sehr konservative Angabe ist. Oft sollen 1000 MHz und mehr erreicht werden. Die 224 Textureinheiten und 48 ROPs ergeben sich aus der Anzahl der SMX-Cluster und sind natürlich ebenfalls eine deutliche Steigerung gegenüber der GeForce GTX 680 (128/32).

Der Speicher arbeitet wie üblich mit 1502 MHz und kommt dank 384-Bit-Anbindung auf eine Speicherbandbreite von 288,4 GB/Sek. Insgesamt stehen nun 6144 MB GDDR5-Grafikspeicher zur Verfügung. Damit öffnet NVIDIA auch den vermeintlichen Flaschenhals gegenüber den Karten von AMD, die meist mit mehr Speicher ausgestattet sind als die Modelle von NVIDIA.

NVIDIA gibt eine TDP von 250 Watt an. Aufgrund der komplexeren GPU ist dies im Vergleich zur GeForce GTX 680 (195 Watt) zunächst einmal auch verständlich.

 

Social Links

Seitenübersicht

Kommentare (903)

#894
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Wesseling nähe Köln/Bonn
Vizeadmiral
Beiträge: 7685
Ja für mich sind das normal übliche Settings, immerhin kostet sone Karte 800€-900€ das ist auch nicht "normal" üblich. Ich kaufe mir doch keine 690er oder Titan und verrote auf FullHD???? Was ein Schwachsinn.

@ Scully 4x MSAA, da kannste AA auch auslassen :/ SGSSAA ist eigtl. standart da reicht schon fast full HD für 2GB....

eagle[COLOR="red"]

---------- Post added at 11:19 ---------- Previous post was at 11:14 ----------

[/COLOR]Oder Spiel Mal Hitman Absolution in 2400x1350 mit SGSSAA und AF da habe ich 2,2GB im Speicher und bei 4K Auflösung sind dann knapp 3GB und das sind keine Extreme settings. Simples Downsampling mit besserem AA...

Eagle
#895
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Eagleone19;20375723

@ Scully 4x MSAA, da kannste AA auch auslassen :/ SGSSAA ist eigtl. standart da reicht schon fast full HD für 2GB....
.

Eagle


Aber sicher doch;)





Spielt überhaupt keine tragende Rolle ob MSAA oder SparseGrid der Vram Verbrauch ist in etwa der selbe bei beiden Samplingmodis

Zitat
bekommt sie ab 4xMSAA+2xSGSSAA so ihre Probleme und wird dann auch von einer GeForce GTX 680 mit 4 GB geschlagen
#896
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Wesseling nähe Köln/Bonn
Vizeadmiral
Beiträge: 7685
Wieso holst du Skyrim als Vergleich raus?? Das Game spiele ich nicht... Kann dazu auch nix sagen. Die Games die ich genannt habe, da kann ich aus Erfahrung sprechnen. Von Far Cry 3 und Metro 2033 rede ich garnicht die sind unspielbar in solchen Settings....

Eagle
#897
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Eagleone19;20375803
. Die Games die ich genannt habe, da kann ich aus Erfahrung sprechnen. Von Far Cry 3 und Metro 2033 rede ich garnicht die sind unspielbar in solchen Settings....

Eagle


Komm lass gut sein jeder der moderne Grafikengines kennt der weiß das sie die zu Verfügung stehenden Recourcen ausnutzen tun ,das heißt wenn 3GB Vram vorhanden sind,werden die größtenteils vollgepumpt ganz gleich ob es da schon Engpässe gibt oder auch nicht

Deshalb kannst du so Vergleiche mal gleich hinten anstellen denn sie sind nichtssagend

Das haben wir alles schon durch mit ner 680er Classified Karte frag mal jenen Kollegen hier
#898
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Wesseling nähe Köln/Bonn
Vizeadmiral
Beiträge: 7685
Ich soll´s guts ein lassen??? Ich soll also nach 8 Jahren Forum meine Erfahrungen nicht mehr teilen, weil sie Jemanden nicht ins Bild passen?? Interessant ...

Eagle
#899
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Welche Erfahrungen denn bitte?

Das deine 3GB Karte mehr in den Vram pumpt wie ne 2GB Karte bei aktuellen Grafikengines?

Was ist daran jetzt so neu oder was für Schlussfolgerungen ziehst du daraus?

Die vom Vram Mangel sinds definitiv nicht,weil das das Thema erst tangiert wenn der Datenbus nicht mehr ausreicht,für die Ein u Auslagerung

Und das kannst du nunmal nicht an nem Vram Counter vom Riva Tuner fest machen

Das Spiel u das ist nur verständlich nimmt sich das was da ist,weil Zugriffe aus dem eigenen Vram nunmal problemloser laufen,wie wenn ich das Ganze erst zwischendrin über den Bus einladen muss

Dieses Verhalten ist aber noch nicht gleichzusetzen mit nem vorhandenen Flaschenhals!

Ich bin mir sicher Titan mit seinen 6GB wird da noch einen oben drauf setzen beim "Vram Verbrauch"
#900
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 27579
Zitat Jacke wie Hose;20374880
Der Durchschnittsuser nutzt weder Downsampling noch SGSSAA, die meisten wissen nicht einmal was MSAA ist.


Neja grundsätzlich stimme ich da natürlich zu... Dennoch gebe ich zu bedenken, das der Durchschnittsnutzer eben auch keine 900€ für so ein Produkt hinblättert.
Beim Durchschnittsnutzer ist der ganze PC inkl. NT und Gehäuse sowie HDDs nichtmal 900€ schwer ;)

Schau dich mal bei der Steam Hardwareumfrage um, was dort so für GPUs im Einsatz sind... Mal völlig abgesehen von der Verbreitung ob NV oder AMD kommen dort Karten mit nem Leistungniveau von GTX 460 - GTX 560TI zum Einsatz. Und dieses Leistungsniveau ist in den letzten Monatsumfragen in etwa so häufig vertreten wie die ganzen 600er NV Karten zusammen.
Ne GTX 690 kommt auf 0,18% aller! DX11 GPUs in der Umfrage...

Im Vergleich zu beispielsweise den Auflösungen stehen Tripplescreen Setups mit ~0,1% gegen beispielsweise 30% für FullHD. Der Durchschnitt spielt also in der Tat mit FullHD oder 136xer kleine HD Auflösung (in Summe gute 50%)
Die große Preisfrage ist nun, wie häufig sind überdurchschnittlich hohe Auflösungen bei überdurchschnittlich schnellen GPUs vertreten? Und ich denke mal, hier ist klar ne Tendenz zu mehr Pixel bei mehr GPU Power vorhanden.
Leider lässt sich die Umfrage nicht! über inGame benutzte Auflösungen sowie Settings aus. Sprich Downsamplingauflösungen oder verwendete AA Level sieht man dort nicht.

Auch ist zu erkennen, das sowohl die 690er als auch Titan ihre Stärken erst bei hohen Settings ausfahren. Wer da mit FullHD ohne AA (was ich jetzt einfach mal so schreibe, weil du sagst, die meisten wissen wohl nicht, was MSAA ist) zockt, hat zwar keine Probleme mit irgendwelchen VRAM Limits, könnte die Kohle aber durchaus auch besser investieren. Denn die GPU wird nichtmal ansatzweise voll ausgefahren.

Zitat scully1234;20375760
Spielt überhaupt keine tragende Rolle ob MSAA oder SparseGrid der Vram Verbrauch ist in etwa der selbe bei beiden Samplingmodis


Weist du wie genau getestet wird?
Ich hatte vor ner Zeit lang mal einblick in so Vergleiche...
Zu meinem Bedauern geht dort oftmals das Motto "Masse statt Klasse" um. Heist, da wird nicht geprüft, ob die Settings laufen, oder ob das, was rauskommt auch wirklich gut ausschaut. Oder ob überhaupt irgendwas von den Settings wirkt. Bestenfalls schaut man, ändern sich die FPS -> dann muss es wirken.

Da du gerade Skyrim ansprichst. Es ist ein Himmelweiter Unterschied, ob du SSAA via InGame MSAA + Inspector Erweiterung zuschaltest. Oder ob du beispielsweise mit AA Bits und ohne InGame AA das MSAA + SGSSAA im Inspector drauf bringst.
Der Unterschied ist dabei nicht nur in Sachen Optik massiv (In Skyrim wird beim InGame AA nicht alles gelättet, Bücher, manche Ladeszenen, Schlossknackspiele usw.) sondern auch im Ressourcenbedarf.
Drück mal Skyrim 4xSGSSAA mit 10C1 oder 12C1er AA Bits drauf. Natürlich override im Inspector...
Der VRAM Bedarf steigt extrem... Was von den Bits kommt.

Ich für meinen Teil finde aber ein Inspector erzwungenes SGSSAA deutlich hübscher, weil eben das komplette Bild vollumfänglich geglättet wird. Ist natürlich persönliche Meinung, klar ;) Aber genau für solche Spielereien sollten Preisstarke GPUs auch herhalten müssen. Im Falle von Titan geht sich das definitiv aus... Bei der 690er, trotz mehr Rohleistung nicht vollumfänglich. Zumindest im Falle Skyrim.
Wie so oft bleibt aber der Nachteil des enormen VRAM Bedarfs durch die Bits (teils doppelte Belegung bei der selben Szene direkt beim Start!) sowie der Enorme Leistungsbedarf an die GPU bestehen...

PS: auch nicht zu vergessen, es gibt mehrere Stufen von VRAM Limitation.
Das fängt bei leichten Nachladerucklern mit kurzen FPS Einbrüchen an, und geht bis zu unspielbarkeits FPS durchgängig.



Zitat scully1234;20376014
Das Spiel u das ist nur verständlich nimmt sich das was da ist,weil Zugriffe aus dem eigenen Vram nunmal problemloser laufen,wie wenn ich das Ganze erst zwischendrin über den Bus einladen muss


Das ist aber auch nur die halbe Wahrheit...
Der meiste/größte Bedarf an VRAM kommt wohl nach wie vor von Texturen. Und ja, wenn mehr VRAM da ist, dann können auch mehr Texturen über längere Zeit dort drin gehalten werden.

Nur kann natürlich nicht mehr belegt werden, als es an Texturen in dem Fall auch gibt. Heist, beispielsweise hat ein Spiel Texturen in Summe mit einer Größe von sagen wir 1GB. Nun spielt man, und das 1GB wandert nach und nach vollständig in den VRAM. Mehr ist aber an der Stelle nicht. Da bringt dich keine 2, 3 oder 6GB Karte auf mehr VRAM Belegung, weil einfach nix mehr da ist, was rein wandern kann. -> ergo absolut kein Limit, keine Nachladeruckler und alles ist schick.

Nun gibts aber auch den anderen Fall. Nämlich Games, die Texturen von mehreren 10GB über die Spielwelt verteilt haben.
Klassisches Beispiel ist dabei Gothic 3. Riesige Spielwelt, drei Klimazonen mit vollständig anderen Texturen pro Klimabereich und eine offene Welt absolut ohne Ladescreens. Sprich anders als Skyrim, kein Laden in Städten, kein Laden in Häusern, kein Laden beim Wechsel der Klimazonen usw.
Im diesem zugegebenen Extrembeispiel bringt dich mehr VRAM natürlich auch deutlich vorran. Denn du kannst zwischen den Klimazonen hin und her reisen ohne jemals Nachladeruckler zu verspüren. Hast du nicht genügend VRAM, gibts Nachladeruckler. Und diese sind teils enorm, weil große Datenmengen geschaufelt werden müssen.


Kommt man nun auf stupide Balkenbenches mit avg. FPS zurück, ja selbst wenn min. und max. FPS mit angegeben währen heist das im ersten Fall, es gibt nen avg. FPS Wert, der egal ob nun 2, 3 oder 6GB vorhanden sind, immer gleich ist. Bzw. direkt nur von der reinen GPU Power beeinflusst wird.
Im zweiten Fall kommt es drauf an, was gebencht wird. Läuft der Bench über mehrere Klimazonen, hat die Karte mit wenig VRAM deutlich! das Nachsehen. Weil die Nachladeruckler teils recht lange die FPS einbrechen lassen. Wärend bei viel VRAM eben dies nicht der Fall ist. Bencht man hingegen ne Szene, die sich Texturtechnisch nicht nennenswert ändert, bringt auch die Karte mit wenig VRAM wiederum die gleichen FPS wie die mit viel VRAM und wird einzig durch die GPU Power beeinflusst.

Genau das ist der Grund, wieso ist seit jeher sage, das die default ~20-60sec Benchszenen der ganzen Redaktionen absolut unbrauchbar für VRAM Verbrauchsanalysen bzw. VRAM Bedarfsanalysen sind. Einfach weil nicht praxisrelevant gebencht wird. Ich zumindest spiele nicht nur! 20-60 Sekunden am Stück und beende dann das Spiel ;) Sondern im Falle von Open World Games kommen da auch mal mehrere Stunden am Stück bei rum.
#901
customavatars/avatar101638_1.gif
Registriert seit: 30.10.2008
Dorsten
Kapitänleutnant
Beiträge: 1877
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
#902
customavatars/avatar142461_1.gif
Registriert seit: 23.10.2010
NRW
Kapitän zur See
Beiträge: 3839
Zitat BennofreakSBB;20379194
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App


Naja, 4-Way skaliert nicht immer optimal, bzw. deutlich schlechter als 2-way oder noch 3-way. 2 GK110 könnten mit rund 1,1GHz wohl so schnell wie zwei 690 sein, vom spielgefühl gar nicht erst zu sprechen.
#903
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat BennofreakSBB;20379194
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App


Hast du dir schonmal die Größe des DIEs betrachtet? Der ist nicht grundlos so groß bei Titan sondern da stecken auch fast die doppelte Anzahl an Transistoren drin zum kleinen GK104




Und ja es gibts Situationen da sind auch 2Titan Karten schneller wie 2Dualkarten der 690er Liga einmal wie LSSJBroly schon sagt wenn die 4Way SLI Profile nicht passen u dann wenn das Setup in nen Vram Engpass rennt

Beide müssen nicht eintreffen sind aber möglich[COLOR="red"]

---------- Post added at 11:02 ---------- Previous post was at 10:42 ----------

[/COLOR]
Zitat fdsonne;20376124

Das ist aber auch nur die halbe Wahrheit...
Der meiste/größte Bedarf an VRAM kommt wohl nach wie vor von Texturen. Und ja, wenn mehr VRAM da ist, dann können auch mehr Texturen über längere Zeit dort drin gehalten werden.

Nur kann natürlich nicht mehr belegt werden, als es an Texturen in dem Fall auch gibt. Heist, beispielsweise hat ein Spiel Texturen in Summe mit einer Größe von sagen wir 1GB. Nun spielt man, und das 1GB wandert nach und nach vollständig in den VRAM. Mehr ist aber an der Stelle nicht. Da bringt dich keine 2, 3 oder 6GB Karte auf mehr VRAM Belegung, weil einfach nix mehr da ist, was rein wandern kann. -> ergo absolut kein Limit, keine Nachladeruckler und alles ist schick.



Die wirst du aber nur noch schwerlich finden wenn wir jetzt mal bei aktuellen AA Titeln bleiben.

Allerdings war das ja nicht der Schwerpunkt an der Sache sondern das man eben generell aus der Riva Tuner Anzeige keine Schlussfolgerungen ziehen kann da es eben ein normales Prozedere der Engine ist den verfügbaren Ram auch zu nutzen soweit als möglich

Was jetzt die Testszenen der Redaktionen betrifft finde ich schon das 30-40 Sekunden ausreichen sollten um den Vram so zu füllen das man zu einer spieletypischen Speicherbusauslastung kommt die auch Rückschlüsse auf Enpässe oder nicht zulässt

Natürlich gibts ab u an mal Wurst Käse Stellen mit mehr Texturumwälzungen die das ganze vielleicht mal kurzzeitig auf den Kopf stellen,nur solange das nicht kontinuierlich geschieht ists eigentlich vernachlässigbar
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Sechs Modelle der GeForce GTX 770 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2013/GTX-770/GTX-770-LOGO

Nach dem Launch-Review zur GeForce GTX 770 fuhren wir zunächst einmal auf die Computex 2013 um nach der Rückkehr gleich ein halbes Dutzend Retail-Modelle der GeForce GTX 770 vorzufinden. Diese stammen aus dem Hause ASUS, EVGA, Gigabyte, Inno3D, MSI und Palit. Alle Karten unterscheiden... [mehr]

AMD Radeon R9 280X, R9 270X und R7 260X im Test

Logo von IMAGES/STORIES/LOGOS-2013/AMD-RADEON-2013

Heute ist es nun endlich soweit und Teil eins des großen Neustarts bei AMD kann beginnen. Mit der Radeon R9 280X, R9 270X und R7 260X haben wir die ersten drei Grafikkarten der neuen Generation von AMD im Test. Doch auch wenn die Gerüchteküche bereits seit Wochen köchelt, so wirklich... [mehr]

Vier Modelle der GeForce GTX 760 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2013/GTX-760/GTX760-LOGO

Nach der GeForce GTX 780 und GeForce GTX 770 dürfte NVIDIA mit der GeForce GTX 760 am heutigen Tage die GTX-700-Serie für dieses Jahr abschließen - zumindest sieht die NVIDIA-Roadmap keine weiteren Modelle vor. Gleich zum Launch heute haben wir uns vier Modelle der GeForce GTX 760 nebst der... [mehr]

Erste Ergebnisse im Kampf Mantle vs. DirectX (Update: Multiplayer-Benchmarks)

Logo von IMAGES/STORIES/LOGOS-2013/AMD-RADEON-2013

Mit einigen Tagen Verspätung hat uns heute morgen der Catalyst 14.1 in seiner ersten Beta-Version erreicht. Wir haben uns gleich daran gemacht und die ersten Messungen durchgeführt. Allerdings ist die Erhebung dieser Daten nicht so einfach. Führen wir unsere Messungen meist mithilfe des Tools... [mehr]

AMD Radeon R9 290X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2013/AMD-HAWAII/290X/AMD-290X-LOGO

Nicht wirklich mit Neuigkeiten konnten die Radeon R9 280X, R9 270X und R7 260X in der vergangenen Woche aufwarten. Neue Features wie TrueAudio und DirectX 11.2 mit Tier-2-Support blieben bisher der Radeon R7 260X vorbehalten und das flexiblere Eyefinity beherrschen im Grunde genommen auch die... [mehr]

Test: 3x GeForce GTX 780 von EVGA, Gigabyte und Inno3D

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2013/GTX-780/GTX780-LOGO

In der letzten Woche startete NVIDIA mit der GeForce GTX 780 in eine neue GeForce-Generation - zumindest bei der Namensgebung. Die GPU-Architektur ist keine Neuheit, sondern nur eine abgespeckte Version der GeForce GTX Titan. Dies tat der Leistung allerdings keinerlei Abbruch und so reichte es für... [mehr]