> > > > XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

DruckenE-Mail
Erstellt am: von

Seite 30: Fazit

NVIDIA hat das Offensichtliche umgesetzt: Die GK100-GPU läuft für zwei Tesla-Produkte vom Band und kann natürlich auch für den Desktop verwendet werden. Doch die GeForce GTX Titan wird auf absehbare Zeit das einzige Produkt dieser Art bleiben, denn eine komplette Serie wird NVIDIA hier nicht anbieten (wollen). Statt dessen bietet man Enthusiasten einen Übergang bis zur nächsten Generation - wenngleich dieser nicht gerade günstig ist.

Die GeForce GTX Titan lässt sich schnell und einfach auf wenige Bestandteile herunterbrechen:

  • derzeit komplexeste GPU
  • derzeit schnellste Single-GPU-Karte
  • derzeit teuerste Single-GPU-Karte

Um diese Fakten herum hat NVIDIA ein Produkt gestrickt, dass kaum Kompromisse eingeht. Wir wissen nicht, welchen Anteil die Kühlung an der rund 950 Euro teuren Karten hat. Doch uns hat Materialwahl und Verarbeitung gefallen. Doch darf dies überhaupt eine Rolle spielen, schließlich verschwindet die Karte meist im nächsten PC-Gehäuse? Ja, darf es, denn beide Punkte spielen bei der Kühlung und letztlich auch der Performance eine nicht ganz unerhebliche Rolle. Dies hat NVIDIA bereits mit der GeForce GTX 690 bewiesen.

NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX Titan

In Sachen Single-GPU-Performance darf sich NVIDIA wieder uneingeschränkt die Performance-Krone aufsetzen. Sowohl die eigene GeForce GTX 680 wie auch die AMD Radeon HD 7970 (GHz Edition) lässt man weit hinter sich. Ob 40-50 Prozent gegenüber der Konkurrenz aus eigenem Hause und in etwa der ähnliche Bereich bei der Radeon HD 7970 GHz Edition ausreichen, um 950 Euro zu rechtfertigen, ist zumindest fraglich. Etwas merkwürdig erscheint auch der Vergleich zur GeForce GTX 690, die man bei der Performance erst bei 5760x1080 Pixeln ein- bzw. überholt. Den Preisvergleich gewinnt das Dual-GPU-Modell mit rund 840 Euro in jedem Fall. Trumpf für die GeForce GTX Titan: Sie ist eine Single-GPU-Karte, die nicht mit Mikrorucklern (auch wenn deren Auftreten bei NVIDIA deutlich reduziert wurden) zu kämpfen hat. Wäre NVIDIA mit 800 Euro für die GeForce GTX Titan gestartet, hätte dies einen Kritikpunkt weniger nach sich gezogen. Da uns der Einblick in die Entwicklungskosten und die geplanten Verkaufszahlen einer solchen Karte fehlen, können wir allerdings keine wirtschaftliche echte Beurteilung des Preises vornehmen, sondern diesen nur mit den aktuellen Marktgegebenheiten abgleichen.

Dankenswerterweise stellte uns NVIDIA gleich drei GeForce GTX Titan zur Verfügung, sodass wir gleich alle nur erdenklichen Optionen zur Verfügung hatten. Doch eines wurde auch klar: Drei GeForce GTX Titan sind nicht nur preislich eine Herausforderung, sondern auch technisch, denn auch einem Intel Core i7-3960X mit 4,2 GHz fällt es schwer ausreichend Daten an die Karten zu liefern. Erst wenn diese aufgrund hoher Qualitätseinstellungen (fast) auf sich alleine gestellt sind, können sie ihr Potenzial ausspielen. Eine möglichst hohe Auflösung oder die Verwendung hardwarehungriger Anti-Aliasing-Modi sind also Pflicht.

NVIDIA GeForce GTX Titan
Straßenpreis zirka 950 Euro
Homepage www.nvidia.de
Technische Daten
GPU GK110 (GK110-400-A1)
Fertigung 28 nm
Transistoren 7,1 Milliarden
GPU-Takt 837 MHz (Boost: 876 MHz)
Speichertakt 1502 MHz
Speichertyp GDDR5
Speichergröße 6144 MB
Speicherinterface 384 Bit
Speicherbandbreite 288,4 GB/Sek.
DirectX-Version 11.0
Shadereinheiten 2688 (1D)
Textur Units 224
ROPs 48
Pixelfüllrate 40,2 Gigapixel
SLI/CrossFire SLI
Lautstärke
Idle-Modus 35,4 dB(A)
Last-Modus 52,8 dB(A) 
Leistungsaufnahme
Idle-Modus 104,4 Watt
Last-Modus 387,6 Watt 
Temperaturen
Idle-Modus 37 °C
Last-Modus 80 °C 

Gute Arbeit hat NVIDIA beim Kühler geliefert. Er arbeitet nicht nur leise, sondern auch effektiv und hält die Temperaturen niedrig. Dies spielt auch eine Rolle, wenn man sich das Hauptfeature der GeForce GTX Titan anschaut: GPU Boost 2.0. Durch die Wahl eines Power- und eines Temperatur-Targets wird die Leistung der GeForce GTX Titan maßgeblich beeinflusst. Wer sich eine solche Karte einfach nur kauft, in den Rechner steckt und damit spielt, hat dies alles nicht zu interessieren - muss es auch nicht. Wer allerdings noch etwas mehr Takt und somit Leistung aus seiner Karte herausholen will, bekommt einen Parameter mehr an die Hand, an dem er arbeiten kann. Sollten früher oder später wassergekühlte Versionen auf den Markt kommen, wird dies eine noch größere Rolle spielen. Vollends auf die Spitze getrieben wird dies dann vermutlich von den Profis, die auch noch flüssigen Stickstoff in die selbstgefrästen Kühler kippen. Doch hierzu müssen erst noch wichtige Fragen geklärt werden:

  • Wie sehen die speziellen OC-Versionen aus, die NVIDIA an die Hersteller liefert? Bisher ist unser Kenntnisstand, dass sich die Karten einzig und alleine durch das höhere OC-Potenzial unterscheiden. NVIDIA liefert die Karten samt montiertem Kühler an die Hersteller und dieser muss diese dann umbauen und gegebenenfalls ein anderes BIOS aufspielen.
  • Welche Vorgaben macht NVIDIA in Sachen Spannung? Unsere Referenzkarten erlaubten maximal 1,2 Volt. Dies ist durchaus beachtlich, von 1,162 Volt maximaler Spannung im Boost kommend aber kein allzu großer Spielraum. Die Hersteller halten sich bisher noch bedeckt. Gerüchte sprechen aber bereits von bis zu 1,5 Volt, die per BIOS zugänglich gemacht werden sollen. In diesem Bereich aber dürfte sich nur noch fachkundiges Personal bewegen, ansonsten segnen 7,1 Milliarden Transistoren nur allzu schnell das Zeitliche.

Haben die Titanen den Kampf nun gegen die Olympier verloren und werden in die Unterwelt verbannt? Den Performance-Vergleich entscheidet man für sich, zumindest wenn man die Auswahl auf Single-GPU-Karten beschränkt. Doch auch dann hat man allenfalls die GeForce GTX 690 aus eigenem Hause gegen sich. AMD wurde im Vorfeld des Launches der GeForce GTX Titan nicht müde zu betonen, dass man doch mit den Radeon-HD-7990-Modellen die Performance-Krone aufsitzen hätte (was auch stimmt), dabei muss sich AMD aber allzu sehr auf die eigenen Partner und zudem auf eine Dual-GPU-Lösung verlassen - mit allen Vor- und Nachteilen.

Alternativen? Wer sich eine GeForce GTX Titan kauft, tut dies meist nicht, weil es sinnvoll ist, sondern weil er es kann. 950 Euro sind ein Preis, für den sich so mancher einen kompletten Gaming-PC zusammenstellt und damit auch die aktuellen Spiele flüssig abspulen kann. Daher kann es auch keine sinnvolle Alternative zur GeForce GTX Titan geben.


Persönliche Meinung

foto-a-schillingEine komplett neue GPU ist für einen Redakteur eine dankbare Aufgabe sich wieder einmal in die Arbeit zu stürzen. Auch wenn die Architektur nicht wirklich neu ist, so sind doch entscheidende Unterschiede zum "kleinen Kepler" vorhanden. Dies umschreibt auch gleich den technisch interessanten Bereich der GeForce GTX Titan, die Performance gerät dabei fast schon zur Nebensache. Zur Nebensache wird die Hardware so manches mal aber auch aus anderen Gründen:

In der Theorie sind NDAs (Sperrfristen) fixe Daten, die von beiden Seiten eingehalten werden sollten. Sie geben auch den Zeitraum vor, den ein Redakteur hat, um seinen Artikel fertigzustellen. Der Launch der GeForce GTX Titan ist aber ein Beispiel dafür, dass man sich nicht allzu sehr darauf verlassen sollte. Ursprünglich sollte die Karte am Montag präsentiert werden, Benchmarks waren für den Dienstag geplant. Die Karte hielten wir aber erst am Donnerstag in Händen und was zunächst nach einem nicht mehr existenten Wochenende aussah, spitzte sich noch weiter zu, als NVIDIA keinen Treiber zur Verfügung stellen konnte. Der Dienstag als Tag der Benchmarks war also kaum noch zu halten und dies hat wohl auch NVIDIA eingesehen und erlaubte an diesem Tag nur noch die Nennung der technischen Daten und Features. Benchmarks dürfen wir euch erst heute, also in zwei Tagen präsentieren. Da mutet es schon etwas seltsam an, dass eine Firma ein Pixelmonster mit 7,1 Milliarden Transistoren konstruieren kann, aber immer wieder beim Versand der Testsamples und der Bereitstellung des Treibers scheitert.

Offenbar aber scheint man selbst hier noch Unterscheidungen zwischen den Redaktionen zu machen. Mehrfach wurden wir darauf hingewiesen KEINE Benchmarks vor dem Donnerstag zu veröffentlichen. Interne Absprachen zwischen NVIDIA und einer Redaktion aber ermöglichten die Veröffentlichung einiger Crysis-3-Performancedaten bereits gestern. Wir wussten natürlich nichts davon und haben wieder einmal das Nachsehen. Soviel Spaß wir auch immer wieder mit der Hardware haben, NDAs und die Organisation auf Seiten der Hersteller schmälern diesen doch immer wieder. (Andreas Schilling)

 

Positive Aspekte der NVIDIA GeForce GTX Titan:

  • enorme Single-GPU-Performance
  • selbst höchste Auflösungen und Qualitätseinstellungen laufen flüssig
  • hohes Overclocking-Potenzial
  • GPU Boost 2.0 mit mehr Optionen für den Nutzer
  • gute Compute-Performance
  • effektive und leise Kühlung

Negative Aspekte der NVIDIA GeForce GTX Titan:

  • hoher Preis
  • preislich nicht gerechtfertigstes Performance-Plus gegenüber der GeForce GTX 680/690 und Radeon HD 7970
  • hoher Stromverbrauch im SLI und 3-Way-SLI

eh geforce titan-rs

Aufgrund der enormen Single-GPU und Multi-GPU-Performance sowie der guten Kühlung und des hochwertigen Auftretens verleihen wir der NVIDIA GeForce GTX Titan den "Hardwareluxx Excellent Hardware"-Award.

 

 

Social Links

Seitenübersicht

Kommentare (904)

#895
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Eagleone19;20375723

@ Scully 4x MSAA, da kannste AA auch auslassen :/ SGSSAA ist eigtl. standart da reicht schon fast full HD für 2GB....
.

Eagle


Aber sicher doch;)





Spielt überhaupt keine tragende Rolle ob MSAA oder SparseGrid der Vram Verbrauch ist in etwa der selbe bei beiden Samplingmodis

Zitat
bekommt sie ab 4xMSAA+2xSGSSAA so ihre Probleme und wird dann auch von einer GeForce GTX 680 mit 4 GB geschlagen
#896
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Nähe Köln/Bonn
Admiral
Beiträge: 8385
Wieso holst du Skyrim als Vergleich raus?? Das Game spiele ich nicht... Kann dazu auch nix sagen. Die Games die ich genannt habe, da kann ich aus Erfahrung sprechnen. Von Far Cry 3 und Metro 2033 rede ich garnicht die sind unspielbar in solchen Settings....

Eagle
#897
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Eagleone19;20375803
. Die Games die ich genannt habe, da kann ich aus Erfahrung sprechnen. Von Far Cry 3 und Metro 2033 rede ich garnicht die sind unspielbar in solchen Settings....

Eagle


Komm lass gut sein jeder der moderne Grafikengines kennt der weiß das sie die zu Verfügung stehenden Recourcen ausnutzen tun ,das heißt wenn 3GB Vram vorhanden sind,werden die größtenteils vollgepumpt ganz gleich ob es da schon Engpässe gibt oder auch nicht

Deshalb kannst du so Vergleiche mal gleich hinten anstellen denn sie sind nichtssagend

Das haben wir alles schon durch mit ner 680er Classified Karte frag mal jenen Kollegen hier
#898
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Nähe Köln/Bonn
Admiral
Beiträge: 8385
Ich soll´s guts ein lassen??? Ich soll also nach 8 Jahren Forum meine Erfahrungen nicht mehr teilen, weil sie Jemanden nicht ins Bild passen?? Interessant ...

Eagle
#899
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Welche Erfahrungen denn bitte?

Das deine 3GB Karte mehr in den Vram pumpt wie ne 2GB Karte bei aktuellen Grafikengines?

Was ist daran jetzt so neu oder was für Schlussfolgerungen ziehst du daraus?

Die vom Vram Mangel sinds definitiv nicht,weil das das Thema erst tangiert wenn der Datenbus nicht mehr ausreicht,für die Ein u Auslagerung

Und das kannst du nunmal nicht an nem Vram Counter vom Riva Tuner fest machen

Das Spiel u das ist nur verständlich nimmt sich das was da ist,weil Zugriffe aus dem eigenen Vram nunmal problemloser laufen,wie wenn ich das Ganze erst zwischendrin über den Bus einladen muss

Dieses Verhalten ist aber noch nicht gleichzusetzen mit nem vorhandenen Flaschenhals!

Ich bin mir sicher Titan mit seinen 6GB wird da noch einen oben drauf setzen beim "Vram Verbrauch"
#900
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Zitat Jacke wie Hose;20374880
Der Durchschnittsuser nutzt weder Downsampling noch SGSSAA, die meisten wissen nicht einmal was MSAA ist.


Neja grundsätzlich stimme ich da natürlich zu... Dennoch gebe ich zu bedenken, das der Durchschnittsnutzer eben auch keine 900€ für so ein Produkt hinblättert.
Beim Durchschnittsnutzer ist der ganze PC inkl. NT und Gehäuse sowie HDDs nichtmal 900€ schwer ;)

Schau dich mal bei der Steam Hardwareumfrage um, was dort so für GPUs im Einsatz sind... Mal völlig abgesehen von der Verbreitung ob NV oder AMD kommen dort Karten mit nem Leistungniveau von GTX 460 - GTX 560TI zum Einsatz. Und dieses Leistungsniveau ist in den letzten Monatsumfragen in etwa so häufig vertreten wie die ganzen 600er NV Karten zusammen.
Ne GTX 690 kommt auf 0,18% aller! DX11 GPUs in der Umfrage...

Im Vergleich zu beispielsweise den Auflösungen stehen Tripplescreen Setups mit ~0,1% gegen beispielsweise 30% für FullHD. Der Durchschnitt spielt also in der Tat mit FullHD oder 136xer kleine HD Auflösung (in Summe gute 50%)
Die große Preisfrage ist nun, wie häufig sind überdurchschnittlich hohe Auflösungen bei überdurchschnittlich schnellen GPUs vertreten? Und ich denke mal, hier ist klar ne Tendenz zu mehr Pixel bei mehr GPU Power vorhanden.
Leider lässt sich die Umfrage nicht! über inGame benutzte Auflösungen sowie Settings aus. Sprich Downsamplingauflösungen oder verwendete AA Level sieht man dort nicht.

Auch ist zu erkennen, das sowohl die 690er als auch Titan ihre Stärken erst bei hohen Settings ausfahren. Wer da mit FullHD ohne AA (was ich jetzt einfach mal so schreibe, weil du sagst, die meisten wissen wohl nicht, was MSAA ist) zockt, hat zwar keine Probleme mit irgendwelchen VRAM Limits, könnte die Kohle aber durchaus auch besser investieren. Denn die GPU wird nichtmal ansatzweise voll ausgefahren.

Zitat scully1234;20375760
Spielt überhaupt keine tragende Rolle ob MSAA oder SparseGrid der Vram Verbrauch ist in etwa der selbe bei beiden Samplingmodis


Weist du wie genau getestet wird?
Ich hatte vor ner Zeit lang mal einblick in so Vergleiche...
Zu meinem Bedauern geht dort oftmals das Motto "Masse statt Klasse" um. Heist, da wird nicht geprüft, ob die Settings laufen, oder ob das, was rauskommt auch wirklich gut ausschaut. Oder ob überhaupt irgendwas von den Settings wirkt. Bestenfalls schaut man, ändern sich die FPS -> dann muss es wirken.

Da du gerade Skyrim ansprichst. Es ist ein Himmelweiter Unterschied, ob du SSAA via InGame MSAA + Inspector Erweiterung zuschaltest. Oder ob du beispielsweise mit AA Bits und ohne InGame AA das MSAA + SGSSAA im Inspector drauf bringst.
Der Unterschied ist dabei nicht nur in Sachen Optik massiv (In Skyrim wird beim InGame AA nicht alles gelättet, Bücher, manche Ladeszenen, Schlossknackspiele usw.) sondern auch im Ressourcenbedarf.
Drück mal Skyrim 4xSGSSAA mit 10C1 oder 12C1er AA Bits drauf. Natürlich override im Inspector...
Der VRAM Bedarf steigt extrem... Was von den Bits kommt.

Ich für meinen Teil finde aber ein Inspector erzwungenes SGSSAA deutlich hübscher, weil eben das komplette Bild vollumfänglich geglättet wird. Ist natürlich persönliche Meinung, klar ;) Aber genau für solche Spielereien sollten Preisstarke GPUs auch herhalten müssen. Im Falle von Titan geht sich das definitiv aus... Bei der 690er, trotz mehr Rohleistung nicht vollumfänglich. Zumindest im Falle Skyrim.
Wie so oft bleibt aber der Nachteil des enormen VRAM Bedarfs durch die Bits (teils doppelte Belegung bei der selben Szene direkt beim Start!) sowie der Enorme Leistungsbedarf an die GPU bestehen...

PS: auch nicht zu vergessen, es gibt mehrere Stufen von VRAM Limitation.
Das fängt bei leichten Nachladerucklern mit kurzen FPS Einbrüchen an, und geht bis zu unspielbarkeits FPS durchgängig.



Zitat scully1234;20376014
Das Spiel u das ist nur verständlich nimmt sich das was da ist,weil Zugriffe aus dem eigenen Vram nunmal problemloser laufen,wie wenn ich das Ganze erst zwischendrin über den Bus einladen muss


Das ist aber auch nur die halbe Wahrheit...
Der meiste/größte Bedarf an VRAM kommt wohl nach wie vor von Texturen. Und ja, wenn mehr VRAM da ist, dann können auch mehr Texturen über längere Zeit dort drin gehalten werden.

Nur kann natürlich nicht mehr belegt werden, als es an Texturen in dem Fall auch gibt. Heist, beispielsweise hat ein Spiel Texturen in Summe mit einer Größe von sagen wir 1GB. Nun spielt man, und das 1GB wandert nach und nach vollständig in den VRAM. Mehr ist aber an der Stelle nicht. Da bringt dich keine 2, 3 oder 6GB Karte auf mehr VRAM Belegung, weil einfach nix mehr da ist, was rein wandern kann. -> ergo absolut kein Limit, keine Nachladeruckler und alles ist schick.

Nun gibts aber auch den anderen Fall. Nämlich Games, die Texturen von mehreren 10GB über die Spielwelt verteilt haben.
Klassisches Beispiel ist dabei Gothic 3. Riesige Spielwelt, drei Klimazonen mit vollständig anderen Texturen pro Klimabereich und eine offene Welt absolut ohne Ladescreens. Sprich anders als Skyrim, kein Laden in Städten, kein Laden in Häusern, kein Laden beim Wechsel der Klimazonen usw.
Im diesem zugegebenen Extrembeispiel bringt dich mehr VRAM natürlich auch deutlich vorran. Denn du kannst zwischen den Klimazonen hin und her reisen ohne jemals Nachladeruckler zu verspüren. Hast du nicht genügend VRAM, gibts Nachladeruckler. Und diese sind teils enorm, weil große Datenmengen geschaufelt werden müssen.


Kommt man nun auf stupide Balkenbenches mit avg. FPS zurück, ja selbst wenn min. und max. FPS mit angegeben währen heist das im ersten Fall, es gibt nen avg. FPS Wert, der egal ob nun 2, 3 oder 6GB vorhanden sind, immer gleich ist. Bzw. direkt nur von der reinen GPU Power beeinflusst wird.
Im zweiten Fall kommt es drauf an, was gebencht wird. Läuft der Bench über mehrere Klimazonen, hat die Karte mit wenig VRAM deutlich! das Nachsehen. Weil die Nachladeruckler teils recht lange die FPS einbrechen lassen. Wärend bei viel VRAM eben dies nicht der Fall ist. Bencht man hingegen ne Szene, die sich Texturtechnisch nicht nennenswert ändert, bringt auch die Karte mit wenig VRAM wiederum die gleichen FPS wie die mit viel VRAM und wird einzig durch die GPU Power beeinflusst.

Genau das ist der Grund, wieso ist seit jeher sage, das die default ~20-60sec Benchszenen der ganzen Redaktionen absolut unbrauchbar für VRAM Verbrauchsanalysen bzw. VRAM Bedarfsanalysen sind. Einfach weil nicht praxisrelevant gebencht wird. Ich zumindest spiele nicht nur! 20-60 Sekunden am Stück und beende dann das Spiel ;) Sondern im Falle von Open World Games kommen da auch mal mehrere Stunden am Stück bei rum.
#901
customavatars/avatar101638_1.gif
Registriert seit: 30.10.2008
Dorsten
Kapitän zur See
Beiträge: 3869
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
#902
customavatars/avatar142461_1.gif
Registriert seit: 23.10.2010
NRW
Flottillenadmiral
Beiträge: 4537
Zitat BennofreakSBB;20379194
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App


Naja, 4-Way skaliert nicht immer optimal, bzw. deutlich schlechter als 2-way oder noch 3-way. 2 GK110 könnten mit rund 1,1GHz wohl so schnell wie zwei 690 sein, vom spielgefühl gar nicht erst zu sprechen.
#903
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat BennofreakSBB;20379194
Aber jetzt mal ehrlich. Glaubt ihr 2 Titanen sind stärker als 2 690er? Da sind 4 gpu im Einsatz. Bei den Titanen nur 2

Gesendet von meinem GT-I9100 mit der Hardwareluxx App


Hast du dir schonmal die Größe des DIEs betrachtet? Der ist nicht grundlos so groß bei Titan sondern da stecken auch fast die doppelte Anzahl an Transistoren drin zum kleinen GK104




Und ja es gibts Situationen da sind auch 2Titan Karten schneller wie 2Dualkarten der 690er Liga einmal wie LSSJBroly schon sagt wenn die 4Way SLI Profile nicht passen u dann wenn das Setup in nen Vram Engpass rennt

Beide müssen nicht eintreffen sind aber möglich[COLOR="red"]

---------- Post added at 11:02 ---------- Previous post was at 10:42 ----------

[/COLOR]
Zitat fdsonne;20376124

Das ist aber auch nur die halbe Wahrheit...
Der meiste/größte Bedarf an VRAM kommt wohl nach wie vor von Texturen. Und ja, wenn mehr VRAM da ist, dann können auch mehr Texturen über längere Zeit dort drin gehalten werden.

Nur kann natürlich nicht mehr belegt werden, als es an Texturen in dem Fall auch gibt. Heist, beispielsweise hat ein Spiel Texturen in Summe mit einer Größe von sagen wir 1GB. Nun spielt man, und das 1GB wandert nach und nach vollständig in den VRAM. Mehr ist aber an der Stelle nicht. Da bringt dich keine 2, 3 oder 6GB Karte auf mehr VRAM Belegung, weil einfach nix mehr da ist, was rein wandern kann. -> ergo absolut kein Limit, keine Nachladeruckler und alles ist schick.



Die wirst du aber nur noch schwerlich finden wenn wir jetzt mal bei aktuellen AA Titeln bleiben.

Allerdings war das ja nicht der Schwerpunkt an der Sache sondern das man eben generell aus der Riva Tuner Anzeige keine Schlussfolgerungen ziehen kann da es eben ein normales Prozedere der Engine ist den verfügbaren Ram auch zu nutzen soweit als möglich

Was jetzt die Testszenen der Redaktionen betrifft finde ich schon das 30-40 Sekunden ausreichen sollten um den Vram so zu füllen das man zu einer spieletypischen Speicherbusauslastung kommt die auch Rückschlüsse auf Enpässe oder nicht zulässt

Natürlich gibts ab u an mal Wurst Käse Stellen mit mehr Texturumwälzungen die das ganze vielleicht mal kurzzeitig auf den Kopf stellen,nur solange das nicht kontinuierlich geschieht ists eigentlich vernachlässigbar
#904
Registriert seit: 02.04.2008

Hauptgefreiter
Beiträge: 235
ich komm nicht mit, wieso ist die GTX Titan die schnellste Single GPU und vergleicht sie mit einer GTX 680. Was ist denn mit der GTX 980 ?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]