> > > > Kompromisslose Leistung: NVIDIA Titan X im SLI-Test

Kompromisslose Leistung: NVIDIA Titan X im SLI-Test

DruckenE-Mail
Erstellt am: von

Seite 3: Aufbau des SLI-Systems

Doch nun zum Aufbau eines SLI-Systems bestehend aus zwei Titan X:

Viel gibt es zum Aufbau eines solchen Systems eigentlich nicht zu sagen. Natürlich sollte der Nutzer darauf achten, dass das restliche System darauf ausgelegt ist, zwei solcher Karten zu verkraften. Dies betrifft natürlich das Netzteil, welches eine ausreichende Ausgangsleistung liefern sollte, aber auch den Prozessor, der in der Lage sein sollte die beiden Grafikkarten mit ausreichenden Daten zu beliefern. Ein 50 Euro Intel Core i3 ist dazu nicht in der Lage, es muss aber auch nicht der 1.500 Euro teure Core i7-6950X sein.

Blick in das NVIDIA Control Panel
Blick in das NVIDIA Control Panel

Prinzipiell genügt es, die beiden Karten in das System zu stecken und zu starten. Der Treiber erkennt die beiden Karten und bietet dem Nutzer direkt an, diese in einem SLI-Verbund zusammenzufassen. Im Treiber werden zugleich auch Tipps gegeben, welche Display-Ausgänge verwendet werden sollten. Der Einsatz einer SLI-Brücke ist bei NVIDIA weiterhin Pflicht. Mit der Pascal-Architektur und den beiden schnellsten Karten dieser Generation führte NVIDIA einen neuen Modus namens SLI HB ein. Dabei handelt es sich einfach um eine schnellere Datenübertragung über die SLI-Brücke, um den höheren Auflösungen und Bildwiederholungsraten gerecht zu werden.

NVIDIA bietet diese neuen SLI-HB-Brücken selbst an, dort kosten sie 39,99 Euro und sind in drei Größen verfügbar. Aber auch die Boardpartner wollen SLI-Brücken im eigenen Design anbieten und tun dies bereits. EVGA hat entsprechende SLI-HB-Brücken vorgestellt. Zunächst einmal aber noch einmal ein paar Worte zur Funktionsweise von SLI, besonders im Zusammenspiel mit den neuen Karten.

NVIDIA Titan X im SLINVIDIA Titan X im SLI

NVIDIA Titan X im SLI

In einem SLI-System erfolgt der Abgleich der fertig gerenderten Frames über die dazugehörigen SLI-Brücken. Theoretisch wäre die Übertragung auch per PCI-Express-Interface möglich, allerdings ist die Bandbreite dort limitiert und auch die Latenzen sind höher, als es die Anforderungen von SLI meist erlauben. NVIDIA verwendet daher einen oder zwei SLI-Anschlüsse auf seinen Karten. Die High-End-Modelle verfügen meist über zwei dieser Anschlüsse, während es in der Mittelklasse nur noch einer ist und im Low-End-Segment komplett darauf verzichtet wird. In Notebooks und auch im Low-End-Bereich ist manchmal ein SLI-Abgleich per PCI-Express möglich, allerdings sind die Bildrate und die Auflösung dann meist deutlich geringer, sodass dies kein größeres Problem ist.

Mit dem Aufkommen immer höher auflösender Displays sowie Bildwiederholungsraten von 144 Hz und mehr werden die Anforderungen an den Frame-Austausch via SLI-Brücken aber auch immer größer. Die Verbindung der SLI-Anschlüsse wird üblicherweise mit 400 MHz, also dem gleichen Takt wie die Ansteuerung der Display-Ausgänge betrieben. Im vergangenen Jahr aber haben Hersteller wie ASUS, EVGA und MSI spezielle SLI-Bridges vorgestellt, die nicht mehr mit 400 MHz arbeiten, sondern mit 540 MHz zu Werke gehen. Die damit einhergehende Erhöhung der Bandbreite kommt vor allem solchen Systemen zugute, die einen Monitor mit mehr als 144 Hz oder der 4K-Aufösung betreiben. Allerdings sollen diese SLI-Brücken nicht so funktioniert haben, wie sich die Hersteller das vorgestellt haben – so NVIDIA.

NVIDIA Titan X im SLINVIDIA Titan X im SLI

NVIDIA Titan X im SLI

Wer ein Multi-Monitor-Setup mit besonders hoher Auflösung verwendet und dazu auch noch ein SLI-System bestehend aus zwei GeForce GTX 1080, GTX 1070 oder Titan X betreibt, wird in Zukunft per Treiber darüber in Kenntnis gesetzt, dass die verwendete SLI-Brücke nicht in der Lage ist, die notwendige Bandbreite zur Verfügung zu stellen. Dann muss eine der neuen SLI-HD-Brücken erstanden werden, die NVIDIA selbst anbietet. Die Brücken sind in verschiedenen Längen erhältlich. Je nachdem wie viele Slots Platz zwischen den Karten ist, muss eine passende Brücke erstanden werden. Wird ein anderes Mainboard mit einem größeren oder kleineren Abstand verbaut, muss eine neue Brücke gekauft werden. Flexible Brücken möchte NVIDIA nicht anbieten, da diese sich nicht in einer dafür notwendig hohen Qualität fertigen lassen.

NVIDIAs Empfehlungen sehen die alten Brücken für eine Auflösung bis zu 2.560 x 1.440 Pixel bei 60 Hz vor. Darüber hinaus, also ab 2.560 x 1.440 Pixel und ab einer Bildwiederholungsrate von 120 Hz sollen die neuen Brücken eingesetzt werden.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 2

Tags

Kommentare (51)

#42
customavatars/avatar255568_1.gif
Registriert seit: 27.05.2016
München
Oberbootsmann
Beiträge: 974
Zitat fdsonne;24830220
S

Anstatt das du dich immer zu aufregst, wie wäre es mit selbst mal machen?
.


Willst du mich in den Arm nehmen??
Also sollen wir uns Blenden lassen Bravo, ich Gratuliere dir wirklich Bravo.

Intel Core i7-3960X Witcher 3 mit 2x GTX1080


Core i7-6950X Witcher 3 mit 2x GTX1080


Wenn du alle Zahlen vergleichen würdest mit dem GTX1070/GTX1080 SLI Review sind die mit diesen neuen TITAN Review 100% identisch. Also haben die FPS nicht geändert obwohl man eine 6950X Prozessor genommen hat.
Alleine wegen der 6950X müssten sich die FPS Werte anders ausfallen bei dem GTX1070/GTX1080 im SLI. Komisch oder die Punkte Zahlen sind 100% gleich geblieben also hat eine 6950X kein Performnce bei den GTX1070/GTX1080 gebracht aber dafür bei den TITAN oder wie??????
#43
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31937
Woher nimmst du das denn mit dem Prozessor???

In beiden Tests steht der alte 3960X mit 3,9GHz im Artikel.
Du schreibst erst was von 6950X, jetzt von 5960X...

Also entweder ich hab was auf den Augen oder du denkst dir da grad was aus...
Und natürlich sind die Werte 1:1 vom 1070/1080er Test übernommen, weil keine Redaktion sich die Arbeit 3x macht das durchzutesten und wie gesagt, die Karten meines Wissens nach zu NV zurück mussten...

EDIT:
Das steht da bei mir...



Und das bei dem anderen SLI Test:


Es ist sogar in beiden Fällen der gleiche Schreibfehler beim Board vorhanden...
#44
customavatars/avatar113331_1.gif
Registriert seit: 12.05.2009
de_dust2
Oberleutnant zur See
Beiträge: 1521
Zitat Fatal Justice;24829127
Das Potenzial ist groß, was da brach liegt.


Das ist aber nicht nur bei den Grakas so. Das ist überall so. Mal davon ab, dass bis auf ein paar Benchmarks, jegliche Software fehlt, die mit soviel Power umgehen könnte. Also wird die Power der Entwicklung der Software angepasst und Stück für Stück auf den Markt geworfen. So hast du jederzeit "neue" Angebote und "neue" Technik. Spielehersteller müssen sich ja auch irgendwie absprechen, bzw. anpassen mit Nvidia und AMD. Die brauchen ja auch nen paar Jahre für nen gutes Game. In den paar Jahren gibts aber 10 neue Karten wo jede 5,10,15% schneller ist als die vorige. Was soll Nvidia und AMD machen? Dicksten Vollausbau auf den Markt hauen der möglich ist und dann die nächsten 20 Jahre Urlaub? Stimm dir aber zu, möglich wär vermutlich einiges.
#45
customavatars/avatar65558_1.gif
Registriert seit: 06.06.2007

Leutnant zur See
Beiträge: 1240
@ dings

Ich bezog mich dabei auf das Problem von Kühlung, Lautstärke (gerade bei Referenzdesign) etc. einer GPU, die die Komponente ist, welche mit Abstand am meisten Strom konsumiert. Dort fällt das dann auch am meisten auf. Die CPU kommt etwas dahinter und die ist leise kühlbar, weil meist genügend Platz für Kühler aller Art vorhanden ist.
#46
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29103
Ein paar Worte von mir:

Wir und auch andere Redaktionen können nicht mit jedem neuen NVIDIA- oder AMD-Treiber alle Karte neu durchtesten. Das passiert im Rahmen regelmäßiger Aktualisierungen, aber nicht bei jedem Treiber. Da sind wir aber auch nicht die einzigen. Im Falle der GeForce GTX 1080 und GTX 1070 im SLI waren die Treiber in der Tat nicht gut optimiert, wir haben aber nicht immer zwei GeForce GTX 1080 und GTX 1070 hier um das erneut testen zu können.

Was ich nächste Woche aber sofort machen werde ist beispielsweise die Radeon RX 480 und RX 470 mit dem 16.8.1 zu testen, da sich da einiges getan hat.

Was sich hier aber einige an Märchen mit unterschiedlichen Prozessoren etc. ausdenken grenzt an Lächerlichkeit und auf so etwas werde ich auch nicht mehr reagieren.
#47
Registriert seit: 31.12.2015

Matrose
Beiträge: 13
ich würde mir wünschen das die Redaktion bei den Benchmarks das Verhältnis zwischen Games und Pro Apps ein wenig in Balance bringen würde... was bringen mir Luxmark, GPUPI und Futuremark3D wenn bspw. unter Adobe CS, Resolve, Natron, Fusion, Nuke uva eventuell eine FuryX im Single- oder Crossfire-Betrieb die TitanX her brennt und das ums halbe Geld.

#48
customavatars/avatar165912_1.gif
Registriert seit: 03.12.2011
Room 101
Oberstabsgefreiter
Beiträge: 454
Danke für den Test. Was m.E. aber bei einem SLI-Test dazu gehört, ist das Thema Mikroruckler. Insbesondere, ob das mit den neuen HB-Brücken evtl. weniger auftritt.

Ein paar Frametimes dafür wären hilfreich gewesen.
#49
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31937
Zitat motiongroup;24832641
ich würde mir wünschen das die Redaktion bei den Benchmarks das Verhältnis zwischen Games und Pro Apps ein wenig in Balance bringen würde... was bringen mir Luxmark, GPUPI und Futuremark3D wenn bspw. unter Adobe CS, Resolve, Natron, Fusion, Nuke uva eventuell eine FuryX im Single- oder Crossfire-Betrieb die TitanX her brennt und das ums halbe Geld.


Und dann finden sich genau so noch andere Anwendungen, wo AMD GPUs gar nicht liefern, bspw. weil es nur Cuda Support gibt.
Was soll das bringen?

Die gewählte Software abseits der Games ist so oder so eigentlich unnütz, da man daraus für sogut wie keinen Fall eine Leistungsabschätzung herleiten kann. Gerade beim Thema GPGPU nicht. Dort läuft ohne dedizierte Anpassungen oftmals gar nix... :wink:
Ich halte es für grundätzlich den falschen Weg auf spezial Software zu setzen für ein Review, was einen grundlegenden Überblick und dazu klar mit dem Fokus auf Fames, geben will...

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat econaut;24834090
Danke für den Test. Was m.E. aber bei einem SLI-Test dazu gehört, ist das Thema Mikroruckler. Insbesondere, ob das mit den neuen HB-Brücken evtl. weniger auftritt.

Ein paar Frametimes dafür wären hilfreich gewesen.


Neja, ohne FCAT Messungen ist das ewas wenig aussagend. MR sind immernoch vorhanden. Mit der HB-Brücke sind es (teils) weniger starke Ausschläge als mit der alten Lösung.
Ob das allerdings auch mit niedrigen Auflösungen und Hz Werten gilt? Keine Ahnung...

Vielleicht testet Don ja bei passender Gelegenheit nochmal mit dem FCAT Verfahren die neue Generation. Für DX12/Vulcan gibt es das allerdings bis dato nicht! Also auch wieder mist...
#50
Registriert seit: 27.09.2010
Magdeburg
Oberbootsmann
Beiträge: 891
Leider wieder nur mit Geforce Treiber. Es bringt nichts, wenn man nur den Namen Geforce weglässt und damit sagen will es ist keine Gamerkarte und dann nur den Geforce Treiber als Unterstützung bietet. So fallen viele professionelle Programme wieder raus, die halt wirklich nach Quadro fragen und nur dann volle Programmbreite bereitstellen.
Jetzt muss man halt warten, ob die Karte sich dann wirklich mit einer M5000 in den gewünschten Anwendungen messen kann(GTX980 mit 8gb), ansonsten ist diese Karte immernoch ein Nieschenprodukt wie die anderen TITANS auch.

BTW: weil viele immer behaupten solche Karten kommen in kleinen Firmen und Forschungen mit niedrigen Budget vor, kann ich leider mit jain beantworten. Gerade in Deutschland werden Workstations zu 90% von Systemsellern gekauft. Und die verkaufen halt wirklich nur professional. Auch an Universitäten ist es schwierig Gelder für solche Karten zu bekommen. Hier ist es zwar öfter zu sehen, dass PC-Systeme von selbst aufgebaut werden, jedoch gibt es meist einen maximalen Kostensatz der dafür eingesetzt werden darf, ansonsten Systemseller.
Unter der Hand oder mit ein bisschen Zahlendrehen wird da auch was gehen, das ist mir bewusst. Es gibt auch, gerade für "Elite" Universitäten, Systemseller die bauen extra Workstations mit einer solchen Karte. Aber selbst hier dürfte der Absatzmarkt kein Ziel für Nvidia sein(siehe Treiber). Ich kenne keine Zahlen aber ich denke das Verhältnis Pro<->Gamer Nutzung fällt auf 1:1 bis max 1:2.

Edit:
Vielleicht sollte ich noch anführen, dass ich von Workstations rede. Bei Renderclients, Compute-Servern und anderen Rechenknechte ohne Softwarefrontend wird dass vielleicht anders aussehen.
#51
Registriert seit: 31.12.2015

Matrose
Beiträge: 13
Zitat fdsonne;24834165
Und dann finden sich genau so noch andere Anwendungen, wo AMD GPUs gar nicht liefern, bspw. weil es nur Cuda Support gibt.
Was soll das bringen?

Die gewählte Software abseits der Games ist so oder so eigentlich unnütz, da man daraus für sogut wie keinen Fall eine Leistungsabschätzung herleiten kann. Gerade beim Thema GPGPU nicht. Dort läuft ohne dedizierte Anpassungen oftmals gar nix... :wink:
Ich halte es für grundätzlich den falschen Weg auf spezial Software zu setzen für ein Review, was einen grundlegenden Überblick und dazu klar mit dem Fokus auf Fames, geben will...



welche wären denn das? die Welt dreht sich schon lange nicht mehr nur um Cuda und schon gar nicht um Games sondern auch ums Geldverdienen.

es gibt Standardverfahren und Tests für die Apps die auf allen Plattformen laufen sogar auf IGPUs nur dieser Test hat den Fokus auf die Spieler.. sei es drum man orientiert sich halt bei anderen Portalen.. schönen tag noch
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]