> > > > Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI

Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI

DruckenE-Mail
Erstellt am: von

Seite 14: Fazit

Über Sinn oder Unsinn vor vier GeForce GTX Titan X im 4-Way-SLI lässt sich sicherlich streiten. Unbestritten ist aber, dass zwei Karten durchaus Sinn machen können, wenn das notwendige Kleingeld vorhanden ist. Bei 2.150 Euro sind aber bereits zwei Karten kein Pappenstiel. Die dann zur Verfügung stehende Leistung lässt sich durchaus mit UltraHD-Auflösung und maximalen Grafikeinstellungen begründen. Ebenfalls mit bedacht werden sollte aber auch, dass neben den Grafikkarten auch noch einige weitere Systemkomponenten entsprechend gewählt werden sollten. Dazu gehört eine möglichst potenter Prozessor, ein ausreichend großzügig dimensioniertes Netzteil, aber auch ein Monitor, der es den Karten ermöglicht möglichst viele Pixel über das Panel zu scheuchen.

Der Einsatz von mehr Karten macht in der Praxis auch kaum Sinn, das zumindest legen unsere Messungen dar. Der Performance-Gewinn liegt bei zwei Karten im Vergleich zu einer zwischen 50 und 80 Prozent - in einigen Fällen sind sicherlich auch bis zu 90 Prozent möglich. Abhängig ist dies vom jeweiligen Spiel bzw. den verwendeten Einstellungen. Kommt eine dritte oder vierte Karte zum Einsatz, verschwindet der Leistungszugewinn meist gänzlich oder wird auf nur wenige Prozentpunkte reduziert.

Teilweise ist dies durch eine mangelnde Unterstützung des Treibers und/oder der Engine begründet. Teilweise aber ist auch der Prozessor nicht in der Lage, die notwendigen Daten zu liefern und so langweilen sich die Karten und warten auf Aufgaben für ihre Render-Pipelines.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Während man den Leistungszugewinn einer zweiten Karte also durchaus rechtfertigen kann, wird die Argumentation für eine dritte und vierte Karte schon schwieriger. Gleichzeitig steigt mit der Anzahl der Grafikkarten auch der Stromverbrauch, wenngleich wir uns mit 1.200 Watt bei vier Karten noch immer in einem überschaubaren Bereich bewegen. Schon deutlich kritischer ist die Kühlung zu beurteilen. Je nach Gehäuse kann bereits eine einzelne GeForce GTX Titan X recht nahe an ihr Temperatur-Ziel herankommen. Bei zwei oder mehr Karten wird diese Situation umso schwieriger. Drei und vier Karten sitzen auf einem Mainboard derart dicht aufeinander, dass ihnen kaum noch Luft bleibt, um über den Radiallüfter ausreichend Frischluft anzusaugen. Da sich das Leistungsplus ohnehin in Grenzen hält, fallen die Reduktionen durch den Boost-Mechanismus aber kaum noch auf.

Wie also kann das Fazit zu bis zu vier GeForce GTX Titan X lauten? Während es für zwei Karten sicherlich eine Rechtfertigungsgrundlage gibt, wird dies bei drei oder vier Karten unmöglich. Sicher ist so ein System imposant, in der Praxis relevant ist eine dritte oder vierte Karte aber nicht mehr. Über den Preis muss man eigentlich nicht weiter sprechen. Mehr als 1.000 Euro sind bereits für eine Karte mehr als Vierfache, was ein durchschnittlicher Spieler für seinen 3D-Beschleuniger ausgibt. Vor ein paar Jahren wäre man noch müde belächelt worden, wenn 1.000 Euro für eine Grafikkarte aufgerufen worden wären.

 

Social Links

Seitenübersicht

Kommentare (33)

#24
Registriert seit: 07.03.2013

Fregattenkapitän
Beiträge: 2948
Warum langweilen sich dann in manchen Games zwei der vier Karten zu Tode und in einem anderen Game, das CPU lastiger ist nicht?
Ich habe auch genug benchmarks gesehen die das zeigen, zum untermauern! Je nach Spiel, unabhängig von der CPU Last werden die Karten Belastet..
#25
customavatars/avatar189210_1.gif
Registriert seit: 27.02.2013
München
Admiral
Beiträge: 9321
wenn man nach pcgh geht, wären das u-n-g-l-a-u-b-l-i-c-h-e 48GB vRam :bigok:
#26
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Zitat derneuemann;23361004
Warum langweilen sich dann in manchen Games zwei der vier Karten zu Tode und in einem anderen Game, das CPU lastiger ist nicht?
Ich habe auch genug benchmarks gesehen die das zeigen, zum untermauern! Je nach Spiel, unabhängig von der CPU Last werden die Karten Belastet..


Das ist natürlich von der Engine und Anwendung abhängig. Niemand weiß genau, wie stark nun bei einem Spiel die CPU oder GPU nun belastet wird und welche Faktoren berücksichtigt wer müssen. Das ist bei jedem Programm anders aufgeteilt.
Aber. Dann sollte man bei solchen Tests wenigstens die Basis auf das Optimum bringen um am Ende genauerer Resultate zu bekommen.
Bei synthetischen Benchmarks sollte zumindest eine gewisse Gleichförmigkeit der Skalierung ersichtlich sein. Wenn es da schon zu Problemen der 3. und 4. Karte kommt, dann ist der gesamte Test schon als sehr ungenau zu betrachten.
Am Ende weiß man dann eben nicht genau, ob es jetzt wirklich an der Engine oder einfach nur an der viel zu lahmen CPU liegt !
#27
customavatars/avatar41359_1.gif
Registriert seit: 09.06.2006

Admiral
Beiträge: 27192
Zitat loopy83;23360831
Mal eine ehrlich gemeinte Frage: Was hat die Engine mit SLI und nicht SLI zu tun? Jede Karte rendert im SLI einen eigenen Frame. Kann es da nicht der Engine egal sein, wie viele Karten verbaut sind? Alle Informationen liegen redundant im VRAM vor. Das Handling der vier VRAMs übernimmt der Treiber und nicht die Spiele-Engine... oder war ich da bisher auf dem Holzweg?


Na frag das mal Siedler 7 oder Company of Heroes II

Wenn die Engine nicht will, dann wird das mit SLI nichts. Scheinbar ist selbst das einfach AFR nicht immer einfach.
Eventuell schaltet auch NV bewusst bei diesen Games auf Single-GPU, weil Du sonst die ganze Zeit nur Bilder-Fehler hast oder noch weniger FPS als mit einer Single-Karte.
#28
customavatars/avatar23976_1.gif
Registriert seit: 16.06.2005
■█▄█▀█▄█■█▄█▀█▄█■ addicted to black & white kaname chidori ftw!
SuperModerator
Bruddelsupp
Luxx Labor

Hippie
Beiträge: 24193
Zitat derneuemann;23360751

Auch vier Karten brachten noch mehr Leistung, das obwohl ein CPU Limit vorhanden war. Crysis 3 wäre auch gut zum testen der CPU und Ihre Auswirkungen auf das Setup.


Da Evolve die Cryengine 3 nutzt, braucht man nicht zusätzlich Crysis 3 testen. Aber man sieht, wie gut die Engine auf GPU Power steht.
#29
Registriert seit: 07.03.2013

Fregattenkapitän
Beiträge: 2948
Aber in Evolve ist die CPU Last viel geringer! Daher würde ich für die Auswrikungen der CPU eher Crysis 3 testen.
#30
customavatars/avatar157503_1.gif
Registriert seit: 23.06.2011

Kapitänleutnant
Beiträge: 1845
neuer mann, hast du das von king gelesen? mfg
#31
customavatars/avatar6035_1.gif
Registriert seit: 03.06.2003
Bochum
Oberbootsmann
Beiträge: 1002
Warum steht bei Pillars of Eternity "3DMark Points
"? - Das müssten doch eher FPS sein oder nicht?
#32
customavatars/avatar42212_1.gif
Registriert seit: 27.06.2006
NRW
Kapitän zur See
Beiträge: 4024
Schade das die Infos so spärlich sind (verständlicherweise).

Habt ihr für Shadow of Mordor den eignen Bench verwendet?

Habe mein 3-way-Titan Black SLI mal benchen lassen:

3840 x 2160 (mit DSR)
alles höchste Stufe (auf ULTRA wenn es geht, auch Umgebungsverdeckung auf Ultra).

Max. 108,27
Durchschnitt: 52,75
Minimum: 39,27

Wenn ich Umgebungsverdeckung nur auf "hoch" stelle, wirds schon deutlich flotter:

Max.: 126,29
Durchschnitt: 68,30
Minimum: 48,63
#33
Registriert seit: 23.05.2015

Matrose
Beiträge: 1
Hello ,

Can you please update this test using three 1440P , 1600 P screens in Ultra settings ?

that is : 7680 x 1440 or 7680 x 1600

People are ignoring 3 screens tests after the release of 4K monitors :(

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]