> > > > XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

DruckenE-Mail
Erstellt am: von

Seite 2: Das Testsample im Detail

Nun wollen wir uns die Karte in einem Preview sowie den Vergleich zur Konkurrenz anschauen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Die wichtigsten technischen Daten in Form von 2688 CUDA-Kernen, 4,5 TFLOPs Single-Precision-Performance und 288,4 GB/Sek. Speicherbandbreite haben wir bereits genannt. Doch NVIDIA will noch einiges mehr bieten.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Auf Seiten der Performance sieht man sich vor allem durch die Verwendung der GK110-GPU und 6 GB an Grafikspeicher sowie der Möglichkeit gleich mehrere GeForce-GTX-Titan-Karten in einem SLI zu verwenden an der Spitze der aktuellen Entwicklung.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Mit der Leistung einher soll aber auch eine effektive Kühlung gehen. In vielen Belangen, sowohl bei der Konstruktion als solche als auch bei der Materialwahl, hat man sich an der GeForce GTX 690 orientiert. Obligatorisch ist die Verwendung einer Vapor-Chamber direkt über der GPU. Die Abwärme soll dann über feine Aluminium-Finnen an die Umgebungsluft abgegeben werden. Der dazu verwendete Lüfter soll neue Maßstäbe im Bereich der Temperatursteuerung setzen. Dazu ist natürlich das entsprechende Lüfter-Profil notwendig.

Doch die GeForce GTX Titan wird nicht die einzige Alternative für potenzielle Käufer sein, auch wenn sie zunächst einmal in einer eigenen Leistungsklasse spielen mag. Daher haben wir uns die bisherigen Konkurrenten ebenfalls angeschaut und wollen diese gegen die GeForce GTX Titan vergleichen.

titan-gpuz1

Der GPU-Z-Screenshot bestätigt noch einmal die bereits bekannten technischen Daten. In der folgenden Tabelle schauen wir uns die Konkurrenz der GeForce GTX Titan an.

Vergleich mit der Referenz

 

NVIDIA GeForce GTX Titan gegen die Konkurrenz
Modell AMD Radeon HD 7970 GHz Edition NVIDIA GeForce GTX 680 NVIDIA GeForce GTX Titan
Straßenpreis ab 360 Euro ab 400 Euro ab 950 Euro
Homepage www.amd.de www.nvidia.de www.nvidia.de
Technische Daten
GPU Tahiti XT2 GK104 GK110
Fertigung 28 nm 28 nm 28 nm
Transistoren 4,3 Milliarden 3,54 Milliarden 7,1 Milliarden
GPU-Takt (Base Clock) 1000 MHz 1006 MHz 837 MHz 
GPU-Takt (Boost Clock) 1050 MHz 1058 MHz 876 MHz
Speichertakt 1500 MHz 1502 MHz 1502 MHz
Speichertyp GDDR5 GDDR5 GDDR5
Speichergröße 3072 MB 2048 MB 6144 MB
Speicherinterface 384 Bit 256 Bit 384 Bit
Speicherbandbreite 288 GB/Sek. 192,3 GB/Sek. 288,4 GB/Sek.
DirectX-Version 11.1 11.0 11.0
Shadereinheiten 2048 (1D) 1536 (1D) 2688 (1D)
Texture Units 128 128 224
ROPs 32 32 48
TDP 250 Watt 195 Watt 250 Watt

 

Wir haben uns für den Vergleich ausschließlich auf die Single-GPU-Karten konzentriert. Sicherlich hätte man auch noch die GeForce GTX 690 (Hardwareluxx-Artikel) und "Radeon HD 7990" (ASUS ARES II (Hardwareluxx-Artikel) und PowerColor Devil 13 HD7990 (Hardwareluxx-Artikel)) dagegen stellen können, doch in den entsprechenden Artikeln kann man sich auch selbst einen Eindruck dieser Karten im Vergleich zur GeForce GTX Titan verschaffen. So wollen wir uns auf die AMD Radeon HD 7970 GHz Edition (Hardwareluxx-Artikel) und NVIDIA GeForce GTX 680 (Hardwareluxx-Artikel) konzentrieren.

Schon allein anhand der Unterschiede bei der Anzahl der Transistoren wird deutlich, welches Leistungspotenzial in der GeForce GTX Titan steckt. Doch die 7,1 Milliarden Transistoren müssen auch möglichst effektiv genutzt werden. Ob die "Kepler"-Architektur in der Lage ist, entsprechend gegenüber GK104 zu skalieren, wird sicherlich ein interessanter Punkt bei den Benchmarks werden. Beim GPU-Takt gibt NVIDIA recht konservative 837 MHz vor. Im Vergleich zu den 1006 MHz der GeForce GTX 680 ist dies sicherlich bemerkenswert. Im Hinterkopf muss allerdings auch die deutlich komplexere GPU behalten werden. Die 876 MHz Boost-Takt sind ebenfalls recht defensiv gewählt, zumal NVIDIA angibt, dass fast jede Karte mindestens 1000 MHz unter Last erreichen soll. Unsere Karte erreichte in den meisten 3D-Anwendungen einen Takt von 1006 MHz.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Für den Speichertakt geben sich die drei Konkurrenten nichts. 1500 MHz sind aktuell für den Grafikspeicher eine Referenzvorgabe der jeweiligen Hersteller. Schon deutlicher wird der Unterschied beim Speicherausbau. Zwar haben wir Radeon-HD-7970-Karten mit 6 GB und auch GeForce-GTX-680-Karten mit 4 GB gesehen, von AMD und NVIDIA konzipiert wurden beiden Karten allerdings mit der Hälfte an Speicher. NVIDIA hat aber offenbar erkannt, dass die Speichergröße eine wichtige Rolle spielt und die GeForce GTX 680 mit 2 GB gerade so am Limit operierte. Wichtig ist aber auch die Speicherbandbreite und hier zieht NVIDIA mit AMD gleichauf, denn durch den Takt und das 384 Bit breite Speicherinterface wird eine Speicherbandbreite von 288,4 GB/Sek. erreicht.

Interessant werden auch die Messungen zum Stromverbrauch sein. AMD gibt 250 Watt für seine Radeon HD 7970 GHz Edition an und unsere Tests zeigten auch, dass AMD mit der höheren Spannung und dem höheren Takt hier deutlich Federn lassen musste. Für NVIDIA und die GeForce GTX 680 lief zunächst alles in die richtige Richtung. Mit der GeForce GTX Titan präsentiert man nun aber ein Produkt, das in einer neuen Leistungsklasse spielen soll. Die 250 Watt TDP sind daher ein nicht erwarteter Anspruch, den sich NVIDIA allerdings auch selbst gewählt hat.

Am heutigen Tag erlaubt NVIDIA nur die Nennung der technischen Daten sowie einige Fotos. Dennoch wollen wir unseren Lesern nicht die von NVIDIA eigens erstellten Benchmarks und Messungen vorenthalten.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Am Beispiel von fünf Spielen will uns NVIDIA die Performance der GeForce GTX Titan im 3-Way-SLI näher bringen und vergleicht diese mit zwei GeForce GTX 690 im SLI. Von nur wenigen Prozent Mehrleistung in Battlefield 3 und Batman: Arkham City, bis hin zu der doppelten Performance in Max Payne 3, Crysis 3 und FarCry 3 soll mit der neuen Karten möglich sein.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

Wie bereits angesprochen spielen für NVIDIA aber auch die Kühlung und dort vor allem die Lautstärke eine Rolle. Dazu zieht man auch den Vergleich mit einem CrossFire-System bestehend aus drei Radeon HD 7970 sowie einem 3-Way-SLI bestehend aus drei GeForce GTX 680. Alle diese beiden Konfigurationen soll ein 3-Way-SLI bestehend aus drei GeForce GTX Titan um Längen schlagen. In den Messungen wird zumindest eine Karte zeigen müsse, ob der Anspruch auch erfüllt werden kann.

Das Sample im Detail

Einige wichtige Daten der GeForce GTX Titan sind wir bereits angegangen, doch nun wollen wir uns einige weitere genauer anschauen.

 

Das Testsample im Detail
Taktraten (3D/2D) Chip 324 MHz/837 MHz
Speicher 162 MHz / 1502 MHz 
  Turbo 876 MHz
Speicherausstattung Größe 6144 MB
  Hersteller, Typ Samsung, GDDR5
Speicherinterface 384 Bit
Layout Länge (inkl. Slotblech) 26,5 cm
  Länge (inkl. Kühler) 26,5 cm
  Breite (inkl. Kühler) 11 cm
Höhe (inkl. Kühler) 3,6 cm (Dual-Slot)
  Stromversorgung 1x 8 Pin
1x 6 Pin
  Spannungsversorgung 6+2 Phasen
Kühler Größe Dual-Slot
Kühlkörper Vapor-Chamber
vernickelte Aluminiumfinnen
Lüfter 65-mm-Radiallüfter
Anschlüsse 2x DL-DVI 
1x DisplayPort
1x HDMI
Lieferumfang

-

 

Die 837 MHz Basis- und 876 Boost-Takt kennen wir bereits - 324 MHz im Idle-Betrieb sind auch keine große Überraschung, denn in diesen P-State versetzten sich bereits die weiteren "Kepler"-Ableger. Der Speicher taktet von 1502 auf 162 MHz, auch eine durch die Teiler vorgegebene Größe der "Kepler"-Karten. In den meisten 3D-Anwendungen stellte sich ein GPU-Takt von 1006 MHz ein, was einer Steigerung von 20,1 Prozent gegenüber dem Basis-Takt und 14,8 Prozent gegenüber dem Boost-Takt entspricht. Der von NVIDIA vorgegebene Wert von 837 MHz bzw. des Boost-Taktes von 876 MHz ist also eher ein grober Richtwert, der nur als Mindestwert eine Bedeutung hat.

Die GPU-Spannung liegt im Idle-Betrieb bei 875 mV und geht auf 1,162 Volt unter Belastung herauf. Der Nutzer kann die Spannung manuell auf bis zu 1,2 Volt anheben. NVIDIA sieht folgende P-States vor:

 

P-States der GeForce GTX Titan
875 mV 324 MHz
887 mV 327 MHz
1000 mV 836 MHz
1162 mV 1005 MHz

 

Das PCB der GeForce GTX Titan misst 26,5 cm in der Länge, ist 11 cm hoch und samt Kühler ist die Karte 3,6 cm dick - also im Dual-Slot-Design ausgeführt. Damit hält sich NVIDIA an die ATX-Spezifikationen und will auch eigene thermische Vorgaben einhalten.

Nach den ganzen technischen Daten folgt nun die äußerliche Betrachtung der GeForce GTX Titan.

 

Social Links

Seitenübersicht

Kommentare (904)

#895
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Eagleone19;20375723

@ Scully 4x MSAA, da kannste AA auch auslassen :/ SGSSAA ist eigtl. standart da reicht schon fast full HD für 2GB....
.

Eagle


Aber sicher doch;)





Spielt überhaupt keine tragende Rolle ob MSAA oder SparseGrid der Vram Verbrauch ist in etwa der selbe bei beiden Samplingmodis

Zitat
bekommt sie ab 4xMSAA+2xSGSSAA so ihre Probleme und wird dann auch von einer GeForce GTX 680 mit 4 GB geschlagen
#896
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Nähe Köln/Bonn
Admiral
Beiträge: 8385
Wieso holst du Skyrim als Vergleich raus?? Das Game spiele ich nicht... Kann dazu auch nix sagen. Die Games die ich genannt habe, da kann ich aus Erfahrung sprechnen. Von Far Cry 3 und Metro 2033 rede ich garnicht die sind unspielbar in solchen Settings....

Eagle
#897
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Eagleone19;20375803
. Die Games die ich genannt habe, da kann ich aus Erfahrung sprechnen. Von Far Cry 3 und Metro 2033 rede ich garnicht die sind unspielbar in solchen Settings....

Eagle


Komm lass gut sein jeder der moderne Grafikengines kennt der weiß das sie die zu Verfügung stehenden Recourcen ausnutzen tun ,das heißt wenn 3GB Vram vorhanden sind,werden die größtenteils vollgepumpt ganz gleich ob es da schon Engpässe gibt oder auch nicht

Deshalb kannst du so Vergleiche mal gleich hinten anstellen denn sie sind nichtssagend

Das haben wir alles schon durch mit ner 680er Classified Karte frag mal jenen Kollegen hier
#898
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Nähe Köln/Bonn
Admiral
Beiträge: 8385
Ich soll´s guts ein lassen??? Ich soll also nach 8 Jahren Forum meine Erfahrungen nicht mehr teilen, weil sie Jemanden nicht ins Bild passen?? Interessant ...

Eagle
#899
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Welche Erfahrungen denn bitte?

Das deine 3GB Karte mehr in den Vram pumpt wie ne 2GB Karte bei aktuellen Grafikengines?

Was ist daran jetzt so neu oder was für Schlussfolgerungen ziehst du daraus?

Die vom Vram Mangel sinds definitiv nicht,weil das das Thema erst tangiert wenn der Datenbus nicht mehr ausreicht,für die Ein u Auslagerung

Und das kannst du nunmal nicht an nem Vram Counter vom Riva Tuner fest machen

Das Spiel u das ist nur verständlich nimmt sich das was da ist,weil Zugriffe aus dem eigenen Vram nunmal problemloser laufen,wie wenn ich das Ganze erst zwischendrin über den Bus einladen muss

Dieses Verhalten ist aber noch nicht gleichzusetzen mit nem vorhandenen Flaschenhals!

Ich bin mir sicher Titan mit seinen 6GB wird da noch einen oben drauf setzen beim "Vram Verbrauch"
#900
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat Jacke wie Hose;20374880
Der Durchschnittsuser nutzt weder Downsampling noch SGSSAA, die meisten wissen nicht einmal was MSAA ist.


Neja grundsätzlich stimme ich da natürlich zu... Dennoch gebe ich zu bedenken, das der Durchschnittsnutzer eben auch keine 900€ für so ein Produkt hinblättert.
Beim Durchschnittsnutzer ist der ganze PC inkl. NT und Gehäuse sowie HDDs nichtmal 900€ schwer ;)

Schau dich mal bei der Steam Hardwareumfrage um, was dort so für GPUs im Einsatz sind... Mal völlig abgesehen von der Verbreitung ob NV oder AMD kommen dort Karten mit nem Leistungniveau von GTX 460 - GTX 560TI zum Einsatz. Und dieses Leistungsniveau ist in den letzten Monatsumfragen in etwa so häufig vertreten wie die ganzen 600er NV Karten zusammen.
Ne GTX 690 kommt auf 0,18% aller! DX11 GPUs in der Umfrage...

Im Vergleich zu beispielsweise den Auflösungen stehen Tripplescreen Setups mit ~0,1% gegen beispielsweise 30% für FullHD. Der Durchschnitt spielt also in der Tat mit FullHD oder 136xer kleine HD Auflösung (in Summe gute 50%)
Die große Preisfrage ist nun, wie häufig sind überdurchschnittlich hohe Auflösungen bei überdurchschnittlich schnellen GPUs vertreten? Und ich denke mal, hier ist klar ne Tendenz zu mehr Pixel bei mehr GPU Power vorhanden.
Leider lässt sich die Umfrage nicht! über inGame benutzte Auflösungen sowie Settings aus. Sprich Downsamplingauflösungen oder verwendete AA Level sieht man dort nicht.

Auch ist zu erkennen, das sowohl die 690er als auch Titan ihre Stärken erst bei hohen Settings ausfahren. Wer da mit FullHD ohne AA (was ich jetzt einfach mal so schreibe, weil du sagst, die meisten wissen wohl nicht, was MSAA ist) zockt, hat zwar keine Probleme mit irgendwelchen VRAM Limits, könnte die Kohle aber durchaus auch besser investieren. Denn die GPU wird nichtmal ansatzweise voll ausgefahren.

Zitat scully1234;20375760
Spielt überhaupt keine tragende Rolle ob MSAA oder SparseGrid der Vram Verbrauch ist in etwa der selbe bei beiden Samplingmodis


Weist du wie genau getestet wird?
Ich hatte vor ner Zeit lang mal einblick in so Vergleiche...
Zu meinem Bedauern geht dort oftmals das Motto "Masse statt Klasse" um. Heist, da wird nicht geprüft, ob die Settings laufen, oder ob das, was rauskommt auch wirklich gut ausschaut. Oder ob überhaupt irgendwas von den Settings wirkt. Bestenfalls schaut man, ändern sich die FPS -> dann muss es wirken.

Da du gerade Skyrim ansprichst. Es ist ein Himmelweiter Unterschied, ob du SSAA via InGame MSAA + Inspector Erweiterung zuschaltest. Oder ob du beispielsweise mit AA Bits und ohne InGame AA das MSAA + SGSSAA im Inspector drauf bringst.
Der Unterschied ist dabei nicht nur in Sachen Optik massiv (In Skyrim wird beim InGame AA nicht alles gelättet, Bücher, manche Ladeszenen, Schlossknackspiele usw.) sondern auch im Ressourcenbedarf.
Drück mal Skyrim 4xSGSSAA mit 10C1 oder 12C1er AA Bits drauf. Natürlich override im Inspector...
Der VRAM Bedarf steigt extrem... Was von den Bits kommt.

Ich für meinen Teil finde aber ein Inspector erzwungenes SGSSAA deutlich hübscher, weil eben das komplette Bild vollumfänglich geglättet wird. Ist natürlich persönliche Meinung, klar ;) Aber genau für solche Spielereien sollten Preisstarke GPUs auch herhalten müssen. Im Falle von Titan geht sich das definitiv aus... Bei der 690er, trotz mehr Rohleistung nicht vollumfänglich. Zumindest im Falle Skyrim.
Wie so oft bleibt aber der Nachteil des enormen VRAM Bedarfs durch die Bits (teils doppelte Belegung bei der selben Szene direkt beim Start!) sowie der Enorme Leistungsbedarf an die GPU bestehen...

PS: auch nicht zu vergessen, es gibt mehrere Stufen von VRAM Limitation.
Das fängt bei leichten Nachladerucklern mit kurzen FPS Einbrüchen an, und geht bis zu unspielbarkeits FPS durchgängig.



Zitat scully1234;20376014
Das Spiel u das ist nur verständlich nimmt sich das was da ist,weil Zugriffe aus dem eigenen Vram nunmal problemloser laufen,wie wenn ich das Ganze erst zwischendrin über den Bus einladen muss


Das ist aber auch nur die halbe Wahrheit...
Der meiste/größte Bedarf an VRAM kommt wohl nach wie vor von Texturen. Und ja, wenn mehr VRAM da ist, dann können auch mehr Texturen über längere Zeit dort drin gehalten werden.

Nur kann natürlich nicht mehr belegt werden, als es an Texturen in dem Fall auch gibt. Heist, beispielsweise hat ein Spiel Texturen in Summe mit einer Größe von sagen wir 1GB. Nun spielt man, und das 1GB wandert nach und nach vollständig in den VRAM. Mehr ist aber an der Stelle nicht. Da bringt dich keine 2, 3 oder 6GB Karte auf mehr VRAM Belegung, weil einfach nix mehr da ist, was rein wandern kann. -> ergo absolut kein Limit, keine Nachladeruckler und alles ist schick.

Nun gibts aber auch den anderen Fall. Nämlich Games, die Texturen von mehreren 10GB über die Spielwelt verteilt haben.
Klassisches Beispiel ist dabei Gothic 3. Riesige Spielwelt, drei Klimazonen mit vollständig anderen Texturen pro Klimabereich und eine offene Welt absolut ohne Ladescreens. Sprich anders als Skyrim, kein Laden in Städten, kein Laden in Häusern, kein Laden beim Wechsel der Klimazonen usw.
Im diesem zugegebenen Extrembeispiel bringt dich mehr VRAM natürlich auch deutlich vorran. Denn du kannst zwischen den Klimazonen hin und her reisen ohne jemals Nachladeruckler zu verspüren. Hast du nicht genügend VRAM, gibts Nachladeruckler. Und diese sind teils enorm, weil große Datenmengen geschaufelt werden müssen.


Kommt man nun auf stupide Balkenbenches mit avg. FPS zurück, ja selbst wenn min. und max. FPS mit angegeben währen heist das im ersten Fall, es gibt nen avg. FPS Wert, der egal ob nun 2, 3 oder 6GB vorhanden sind, immer gleich ist. Bzw. direkt nur von der reinen GPU Power beeinflusst wird.
Im zweiten Fall kommt es drauf an, was gebencht wird. Läuft der Bench über mehrere Klimazonen, hat die Karte mit wenig VRAM deutlich! das Nachsehen. Weil die Nachladeruckler teils recht lange die FPS einbrechen lassen. Wärend bei viel VRAM eben dies nicht der Fall ist. Bencht man hingegen ne Szene, die sich Texturtechnisch nicht nennenswert ändert, bringt auch die Karte mit wenig VRAM wiederum die gleichen FPS wie die mit viel VRAM und wird einzig durch die GPU Power beeinflusst.

Genau das ist der Grund, wieso ist seit jeher sage, das die default ~20-60sec Benchszenen der ganzen Redaktionen absolut unbrauchbar für VRAM Verbrauchsanalysen bzw. VRAM Bedarfsanalysen sind. Einfach weil nicht praxisrelevant gebencht wird. Ich zumindest spiele nicht nur! 20-60 Sekunden am Stück und beende dann das Spiel ;) Sondern im Falle von Open World Games kommen da auch mal mehrere Stunden am Stück bei rum.
#901
customavatars/avatar101638_1.gif
Registriert seit: 30.10.2008
Dorsten
Kapitän zur See
Beiträge: 3869
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
#902
customavatars/avatar142461_1.gif
Registriert seit: 23.10.2010
NRW
Flottillenadmiral
Beiträge: 4537
Zitat BennofreakSBB;20379194
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App


Naja, 4-Way skaliert nicht immer optimal, bzw. deutlich schlechter als 2-way oder noch 3-way. 2 GK110 könnten mit rund 1,1GHz wohl so schnell wie zwei 690 sein, vom spielgefühl gar nicht erst zu sprechen.
#903
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat BennofreakSBB;20379194
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App


Hast du dir schonmal die Größe des DIEs betrachtet? Der ist nicht grundlos so groß bei Titan sondern da stecken auch fast die doppelte Anzahl an Transistoren drin zum kleinen GK104




Und ja es gibts Situationen da sind auch 2Titan Karten schneller wie 2Dualkarten der 690er Liga einmal wie LSSJBroly schon sagt wenn die 4Way SLI Profile nicht passen u dann wenn das Setup in nen Vram Engpass rennt

Beide müssen nicht eintreffen sind aber möglich[COLOR="red"]

---------- Post added at 11:02 ---------- Previous post was at 10:42 ----------

[/COLOR]
Zitat fdsonne;20376124

Das ist aber auch nur die halbe Wahrheit...
Der meiste/größte Bedarf an VRAM kommt wohl nach wie vor von Texturen. Und ja, wenn mehr VRAM da ist, dann können auch mehr Texturen über längere Zeit dort drin gehalten werden.

Nur kann natürlich nicht mehr belegt werden, als es an Texturen in dem Fall auch gibt. Heist, beispielsweise hat ein Spiel Texturen in Summe mit einer Größe von sagen wir 1GB. Nun spielt man, und das 1GB wandert nach und nach vollständig in den VRAM. Mehr ist aber an der Stelle nicht. Da bringt dich keine 2, 3 oder 6GB Karte auf mehr VRAM Belegung, weil einfach nix mehr da ist, was rein wandern kann. -> ergo absolut kein Limit, keine Nachladeruckler und alles ist schick.



Die wirst du aber nur noch schwerlich finden wenn wir jetzt mal bei aktuellen AA Titeln bleiben.

Allerdings war das ja nicht der Schwerpunkt an der Sache sondern das man eben generell aus der Riva Tuner Anzeige keine Schlussfolgerungen ziehen kann da es eben ein normales Prozedere der Engine ist den verfügbaren Ram auch zu nutzen soweit als möglich

Was jetzt die Testszenen der Redaktionen betrifft finde ich schon das 30-40 Sekunden ausreichen sollten um den Vram so zu füllen das man zu einer spieletypischen Speicherbusauslastung kommt die auch Rückschlüsse auf Enpässe oder nicht zulässt

Natürlich gibts ab u an mal Wurst Käse Stellen mit mehr Texturumwälzungen die das ganze vielleicht mal kurzzeitig auf den Kopf stellen,nur solange das nicht kontinuierlich geschieht ists eigentlich vernachlässigbar
#904
Registriert seit: 02.04.2008

Hauptgefreiter
Beiträge: 235
ich komm nicht mit, wieso ist die GTX Titan die schnellste Single GPU und vergleicht sie mit einer GTX 680. Was ist denn mit der GTX 980 ?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]