> > > > Kompromisslose Leistung: NVIDIA Titan X im SLI-Test

Kompromisslose Leistung: NVIDIA Titan X im SLI-Test

DruckenE-Mail
Erstellt am: von

Seite 7: Lautstärke, Temperatur und Leistungsaufnahme

Die Messungen beginnen wir wie immer mit der Lautstärke, später schauen wir uns dann aber auch die Leistungsaufnahme und GPU-Temperaturen an.

Lautstaerke

Idle

in dB(A)
Weniger ist besser

Für die Idle-Lautstärke messen wir im Prinzip identische oder ähnliche Werte wie für die anderen Founders Editionen. Die Titan X ist minimal lauter als die GeForce GTX 1080 oder GeForce GTX 1070 in der Founders Edition. Hier spielen aber auch Messungenauigkeiten eine Rolle, da die Karte sehr dicht zusammenliegen. Ein SLI-System kommt natürlich auf eine höhere Lautstärke, da NVIDIA auch bei einer zweiten Karte darauf verzichtet den Lüfter stillstehen zu lassen.

Lautstaerke

Last

in dB(A)
Weniger ist besser

Unter Last hat der Kühler der Titan X mit der Abwärme so seine Probleme, was auch anhand der Drehzahl und letztendlich der Lautstärke ersichtlich ist. Die Titan X ist aber noch immer leiser als die Vorgänger-Versionen. NVIDIA nimmt dafür aber auch recht hohe GPU-Temperaturen in Kauf, wie wir später noch sehen werden. Hätte NVIDIA versucht die Temperatur noch unter dem Limit zu halten, wäre die Laustärke noch deutlich höher gewesen. Wir haben dies per Erhöhung der Lüfterdrehzahl getan und kamen dabei auf Werte, die nicht mehr zumutbar sind.

Noch einmal deutlich lauter ist natürlich das SLI-System bestehend aus zwei Titan X. Hier macht sich dann auch die höhere Abwärme im System bemerkbar, denn auch damit muss der Kühler klarkommen.

Temperatur

Idle

in Grad C
Weniger ist besser

Die relativ niedrige Idle-Lautstärke macht sich bei den Idle-Temperaturen bemerkbar. Hier messen wir einen Wert von 42 °C für die GP102-GPU im Idle-Betrieb. Im SLI-Betrieb sind es 44 °C, allerdings lassen sich daraus kaum Rückschlüsse auf die Effizienz der Kühlung schließen, denn abhängig vom Design des Kühlers ergeben sich hier bestimmte Werte, die mal höher und mal niedriger ausfallen. Aus rein technischer Sicht sind die gemessenen Werte nicht besorgniserregend.

Temperatur

Last

in Grad C
Weniger ist besser

Schon anders sieht dies unter Last aus. Egal ob sich eine oder zwei Titan X im System befinden, schnell erreicht die GPU-Temperatur einen Wert von maximale 85 °C, der allerdings bereits über dem Temperatur-Ziel liegt. Die Lüftersteuerung versucht daher die GPU-Temperatur wieder zu reduzieren. Dies erreicht die Karte indem der Lüfter mit mehr als 2.000 Umdrehungen pro Minute dreht. Aber selbst dann arbeitet die Karte ständig im Temperatur-Limit und reduziert ständig ihren Takt.

Leistungsaufnahme (Gesamtsystem)

Idle

in W
Weniger ist besser

Keinerlei Unterschied sehen wir bei der Idle-Leistungsaufnahme. Hier geben sich aktuelle Grafikkarten allesamt kaum noch eine Blöße. Einzig fehlerhafte Implementierungen im Speicher können noch dafür sorgen, dass es hier zu Ausreißern kommt. Die Titan X kommt ohne einen solchen Ausreißer aus.

Leistungsaufnahme (Gesamtsystem)

Last

in W
Weniger ist besser

Unter Last macht sich die maximale Leistungsaufnahme von 250 W dann schon bemerkbar, denn für das Gesamtsystem messen wir einen Wert von 405,8 W und erreichen damit in etwa das Niveau früherer High-End-Karten, die ebenfalls bis zu 250 W verbrauchen sollten. In diesem Punkt unterscheidet sich die Titan X also nicht von den Vorgängern, wohl aber bei der Rechenleistung, die aus diesen 250 W gewonnen wird. Das SLI-System legt mit 638,7 W dann noch einmal eine Schippe drauf. Ob und wie sich die Leistungsaufnahme im Zusammenspiel mit der 3D-Leistung verhält, schauen wir uns in den nun folgenden Benchmarks an.

Leistungsaufnahme (Gesamtsystem)

Idle - 2 Monitore

in W
Weniger ist besser

Keinerlei Schwierigkeiten sehen wir beim Multi-Monitor-Betrieb, denn der Verbrauch der Karte steigt nur unwesentlich an. Der Einsatz von zwei Karten hat immer einen gewissen Mehrverbrauch zur Folge, da die zweite Karte nicht vollständig abgeschaltet werden kann.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 2

Tags

Kommentare (51)

#42
customavatars/avatar255568_1.gif
Registriert seit: 27.05.2016
München
Oberbootsmann
Beiträge: 993
Zitat fdsonne;24830220
S

Anstatt das du dich immer zu aufregst, wie wäre es mit selbst mal machen?
.


Willst du mich in den Arm nehmen??
Also sollen wir uns Blenden lassen Bravo, ich Gratuliere dir wirklich Bravo.

Intel Core i7-3960X Witcher 3 mit 2x GTX1080


Core i7-6950X Witcher 3 mit 2x GTX1080


Wenn du alle Zahlen vergleichen würdest mit dem GTX1070/GTX1080 SLI Review sind die mit diesen neuen TITAN Review 100% identisch. Also haben die FPS nicht geändert obwohl man eine 6950X Prozessor genommen hat.
Alleine wegen der 6950X müssten sich die FPS Werte anders ausfallen bei dem GTX1070/GTX1080 im SLI. Komisch oder die Punkte Zahlen sind 100% gleich geblieben also hat eine 6950X kein Performnce bei den GTX1070/GTX1080 gebracht aber dafür bei den TITAN oder wie??????
#43
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Woher nimmst du das denn mit dem Prozessor???

In beiden Tests steht der alte 3960X mit 3,9GHz im Artikel.
Du schreibst erst was von 6950X, jetzt von 5960X...

Also entweder ich hab was auf den Augen oder du denkst dir da grad was aus...
Und natürlich sind die Werte 1:1 vom 1070/1080er Test übernommen, weil keine Redaktion sich die Arbeit 3x macht das durchzutesten und wie gesagt, die Karten meines Wissens nach zu NV zurück mussten...

EDIT:
Das steht da bei mir...



Und das bei dem anderen SLI Test:


Es ist sogar in beiden Fällen der gleiche Schreibfehler beim Board vorhanden...
#44
customavatars/avatar113331_1.gif
Registriert seit: 12.05.2009
de_dust2
Oberleutnant zur See
Beiträge: 1521
Zitat Fatal Justice;24829127
Das Potenzial ist groß, was da brach liegt.


Das ist aber nicht nur bei den Grakas so. Das ist überall so. Mal davon ab, dass bis auf ein paar Benchmarks, jegliche Software fehlt, die mit soviel Power umgehen könnte. Also wird die Power der Entwicklung der Software angepasst und Stück für Stück auf den Markt geworfen. So hast du jederzeit "neue" Angebote und "neue" Technik. Spielehersteller müssen sich ja auch irgendwie absprechen, bzw. anpassen mit Nvidia und AMD. Die brauchen ja auch nen paar Jahre für nen gutes Game. In den paar Jahren gibts aber 10 neue Karten wo jede 5,10,15% schneller ist als die vorige. Was soll Nvidia und AMD machen? Dicksten Vollausbau auf den Markt hauen der möglich ist und dann die nächsten 20 Jahre Urlaub? Stimm dir aber zu, möglich wär vermutlich einiges.
#45
customavatars/avatar65558_1.gif
Registriert seit: 06.06.2007

Leutnant zur See
Beiträge: 1241
@ dings

Ich bezog mich dabei auf das Problem von Kühlung, Lautstärke (gerade bei Referenzdesign) etc. einer GPU, die die Komponente ist, welche mit Abstand am meisten Strom konsumiert. Dort fällt das dann auch am meisten auf. Die CPU kommt etwas dahinter und die ist leise kühlbar, weil meist genügend Platz für Kühler aller Art vorhanden ist.
#46
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29105
Ein paar Worte von mir:

Wir und auch andere Redaktionen können nicht mit jedem neuen NVIDIA- oder AMD-Treiber alle Karte neu durchtesten. Das passiert im Rahmen regelmäßiger Aktualisierungen, aber nicht bei jedem Treiber. Da sind wir aber auch nicht die einzigen. Im Falle der GeForce GTX 1080 und GTX 1070 im SLI waren die Treiber in der Tat nicht gut optimiert, wir haben aber nicht immer zwei GeForce GTX 1080 und GTX 1070 hier um das erneut testen zu können.

Was ich nächste Woche aber sofort machen werde ist beispielsweise die Radeon RX 480 und RX 470 mit dem 16.8.1 zu testen, da sich da einiges getan hat.

Was sich hier aber einige an Märchen mit unterschiedlichen Prozessoren etc. ausdenken grenzt an Lächerlichkeit und auf so etwas werde ich auch nicht mehr reagieren.
#47
Registriert seit: 31.12.2015

Matrose
Beiträge: 13
ich würde mir wünschen das die Redaktion bei den Benchmarks das Verhältnis zwischen Games und Pro Apps ein wenig in Balance bringen würde... was bringen mir Luxmark, GPUPI und Futuremark3D wenn bspw. unter Adobe CS, Resolve, Natron, Fusion, Nuke uva eventuell eine FuryX im Single- oder Crossfire-Betrieb die TitanX her brennt und das ums halbe Geld.

#48
customavatars/avatar165912_1.gif
Registriert seit: 03.12.2011
Room 101
Oberstabsgefreiter
Beiträge: 454
Danke für den Test. Was m.E. aber bei einem SLI-Test dazu gehört, ist das Thema Mikroruckler. Insbesondere, ob das mit den neuen HB-Brücken evtl. weniger auftritt.

Ein paar Frametimes dafür wären hilfreich gewesen.
#49
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat motiongroup;24832641
ich würde mir wünschen das die Redaktion bei den Benchmarks das Verhältnis zwischen Games und Pro Apps ein wenig in Balance bringen würde... was bringen mir Luxmark, GPUPI und Futuremark3D wenn bspw. unter Adobe CS, Resolve, Natron, Fusion, Nuke uva eventuell eine FuryX im Single- oder Crossfire-Betrieb die TitanX her brennt und das ums halbe Geld.


Und dann finden sich genau so noch andere Anwendungen, wo AMD GPUs gar nicht liefern, bspw. weil es nur Cuda Support gibt.
Was soll das bringen?

Die gewählte Software abseits der Games ist so oder so eigentlich unnütz, da man daraus für sogut wie keinen Fall eine Leistungsabschätzung herleiten kann. Gerade beim Thema GPGPU nicht. Dort läuft ohne dedizierte Anpassungen oftmals gar nix... :wink:
Ich halte es für grundätzlich den falschen Weg auf spezial Software zu setzen für ein Review, was einen grundlegenden Überblick und dazu klar mit dem Fokus auf Fames, geben will...

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat econaut;24834090
Danke für den Test. Was m.E. aber bei einem SLI-Test dazu gehört, ist das Thema Mikroruckler. Insbesondere, ob das mit den neuen HB-Brücken evtl. weniger auftritt.

Ein paar Frametimes dafür wären hilfreich gewesen.


Neja, ohne FCAT Messungen ist das ewas wenig aussagend. MR sind immernoch vorhanden. Mit der HB-Brücke sind es (teils) weniger starke Ausschläge als mit der alten Lösung.
Ob das allerdings auch mit niedrigen Auflösungen und Hz Werten gilt? Keine Ahnung...

Vielleicht testet Don ja bei passender Gelegenheit nochmal mit dem FCAT Verfahren die neue Generation. Für DX12/Vulcan gibt es das allerdings bis dato nicht! Also auch wieder mist...
#50
Registriert seit: 27.09.2010
Magdeburg
Oberbootsmann
Beiträge: 891
Leider wieder nur mit Geforce Treiber. Es bringt nichts, wenn man nur den Namen Geforce weglässt und damit sagen will es ist keine Gamerkarte und dann nur den Geforce Treiber als Unterstützung bietet. So fallen viele professionelle Programme wieder raus, die halt wirklich nach Quadro fragen und nur dann volle Programmbreite bereitstellen.
Jetzt muss man halt warten, ob die Karte sich dann wirklich mit einer M5000 in den gewünschten Anwendungen messen kann(GTX980 mit 8gb), ansonsten ist diese Karte immernoch ein Nieschenprodukt wie die anderen TITANS auch.

BTW: weil viele immer behaupten solche Karten kommen in kleinen Firmen und Forschungen mit niedrigen Budget vor, kann ich leider mit jain beantworten. Gerade in Deutschland werden Workstations zu 90% von Systemsellern gekauft. Und die verkaufen halt wirklich nur professional. Auch an Universitäten ist es schwierig Gelder für solche Karten zu bekommen. Hier ist es zwar öfter zu sehen, dass PC-Systeme von selbst aufgebaut werden, jedoch gibt es meist einen maximalen Kostensatz der dafür eingesetzt werden darf, ansonsten Systemseller.
Unter der Hand oder mit ein bisschen Zahlendrehen wird da auch was gehen, das ist mir bewusst. Es gibt auch, gerade für "Elite" Universitäten, Systemseller die bauen extra Workstations mit einer solchen Karte. Aber selbst hier dürfte der Absatzmarkt kein Ziel für Nvidia sein(siehe Treiber). Ich kenne keine Zahlen aber ich denke das Verhältnis Pro<->Gamer Nutzung fällt auf 1:1 bis max 1:2.

Edit:
Vielleicht sollte ich noch anführen, dass ich von Workstations rede. Bei Renderclients, Compute-Servern und anderen Rechenknechte ohne Softwarefrontend wird dass vielleicht anders aussehen.
#51
Registriert seit: 31.12.2015

Matrose
Beiträge: 13
Zitat fdsonne;24834165
Und dann finden sich genau so noch andere Anwendungen, wo AMD GPUs gar nicht liefern, bspw. weil es nur Cuda Support gibt.
Was soll das bringen?

Die gewählte Software abseits der Games ist so oder so eigentlich unnütz, da man daraus für sogut wie keinen Fall eine Leistungsabschätzung herleiten kann. Gerade beim Thema GPGPU nicht. Dort läuft ohne dedizierte Anpassungen oftmals gar nix... :wink:
Ich halte es für grundätzlich den falschen Weg auf spezial Software zu setzen für ein Review, was einen grundlegenden Überblick und dazu klar mit dem Fokus auf Fames, geben will...



welche wären denn das? die Welt dreht sich schon lange nicht mehr nur um Cuda und schon gar nicht um Games sondern auch ums Geldverdienen.

es gibt Standardverfahren und Tests für die Apps die auf allen Plattformen laufen sogar auf IGPUs nur dieser Test hat den Fokus auf die Spieler.. sei es drum man orientiert sich halt bei anderen Portalen.. schönen tag noch
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]