[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Ich glaube man kann von "alle" auf eine schließen, ohne sich dabei in den Zeh zu schießen.

Wat ha ick immer jesacht? Det kommt davon, wenn ma als Berliner eenen off hochdeutsch machen will (Die sagen dann wohl von "allen"), wa. Ick gloobe, Du verstehst mir jetzt.
Trotzdem muss ich Dir nochmal frajen: Wie heeß wern de VRAMs?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibts überhaupt nen Sensor in den Dingern, bzw. ein Tool was die Temperatur anzeigt, oder müssen wieder die Laser ran (unter dem Fullcover).
 
Da bin ich überfragt, ich hab mich nur wegen der technischen Diskussion eingeklinkt. Meine 290X hat Sensoren an beiden VRMs, ob es bei der Titan X so ist - kp. GPU-Z starten und schauen, würde ich sagen.
Wenn die Karte Sensoren an den VRMs hat, dann liest das sie fast sicher aus. Wenn nicht, hat sie wohl keine.
 
Zuletzt bearbeitet:
Bekannt wäre mir keins.
 
mach es doch einfach so - betreibe die Titan x erstmal mit etwas OC@Stock Lüfter und dann wenn es was passendes, schöneres und vor allem besseres gibt, bauste um.

wie schon erwähnt die passive VRM Kühlung finde ich alles andere als sinnvoll. bin mir fast sicher das die VRM mit Stockkühler kühler bleiben als beim Xtreme IV..

Denke ich lass es doch Lieber wobei der Kühler mich schon reizt. Gibt es denn schon Alternativen die im nächster Zeit kommen sollen ?
 
Denke ich lass es doch Lieber wobei der Kühler mich schon reizt. Gibt es denn schon Alternativen die im nächster Zeit kommen sollen ?

es gibt ja diese Corsair HG10 Lösung, zwar nur für 780er und old Titans ,aber denke da wird bestimmt was kommen für die Maxwells. Wann ist natürlich die Frage.

EVGA bietet ja bald auch eine Hybrid Kühlung für die 980er an bzw. gibt es wohl schon. Vielleicht werden die es auch für ne X anbieten.. Sollte man dort mal anfragen..
 
Der VRM Kühler vom Morpheus für Hawaii wird auch nicht passen nehme ich an?
Warum kann man so was nicht mal normem? Würde es den Aftermarket-Kühlern arg vereinfachen...
 
Auf GA-Mainboards liegt die Throttel-Temp für die Spawas bei 120°. Deshalb sage ich immer "um die 100° rum". Nicht wörtlich nehmen.

Ist auch OK ich halte da eigentlich sogar für unter 90°C als ideal.

Da man z.b bei AMD Grafikkarten die Spawa Temps auslesen kann weis ich auch gut was eine Wakü bringt .
Und da gehen je Bach OC die Temps auf 45° 65°C zurück.

Darum halte ich OC auch mit 1,27 V für unbedenklich ist aber nur meine Persönliche Meinung habe auch ein Laser Temp Messer und Meine Ti hat angenehm kühl bei 365W TDP gehabt.
 
Der Markt für Alternativen Graka Kühler ist aus meine sicht echt Mau. Arctic Kühlt die GPU zwar recht ordentlich runter aber an denn anderen Bauteile scheinen sie nicht zu denken oder ? ob die nicht wüssten das es noch neben der GPU andere Bauteile geben würde
 
Zuletzt bearbeitet:
Hat jemand vielleicht eine umfängliche Anleitung wie man die Karte flasht?Schon klar es gibt hunderte Anleitungen aber viele sind älter und gewisse Dinge machen die Leute anderst.
 
Du lädst Dir das Webmi-Zeug runter.
Dann schaltest Du über den Gerätemanager die Graka im Windows aus.
Ziehst mit der Maus Dein Bios auf das NVFlash.exe
Drückst zwei mal Y
Und das wars schon.

Ne Anleitung für die zwei Schritte? Umfangreich? Wirklich?
Oder meinst Du gar nicht das flashen an sich?
 
Zuletzt bearbeitet:
Doch ja es gibt gewisse Punkte die manche Leute auslassen wie das deaktivieren der Gk oder die Oc Settings zurückstellen oder den Treiber ganz deinstallieren. Also du meinst Nvflash mit dem Bios in einen Ordner und dann Wind+X und die nötigen Befehle eintippen?Nach deiner Methode hört sich das ja wieder anderst an:)
 
is doch tota einfach?

Bios besorgen
Graka im Gerätemanager deaktivieren
flashen
Graka aktivieren
reboot
fertig
 
HisN habs so gemacht wie du gesagt hast,Gpu deaktiviert, den GM200boostmod.rom über den nvflash gezogen der startete ich drückte y und das Fenster schloss sich von selbst. Hab die Gpu wieder aktiviert neu gestartet nichts hat sich geändert.
Edgecrusher86 die verlinkte Methode hab ich auch mal versucht zu machen, leider steht da immer das der Befehl falsch geschrieben wurde. Ich hab alle Dateien im C:\Users gespeichert..hmm


Edit:
ok es steht da ERROR: PCI subysystem ID mismatch, da brauchts nen zusätzliche Befehl oder?
 
Zuletzt bearbeitet:
HisN habs so gemacht wie du gesagt hast,Gpu deaktiviert, den GM200boostmod.rom über den nvflash gezogen der startete ich drückte y und das Fenster schloss sich von selbst. Hab die Gpu wieder aktiviert neu gestartet nichts hat sich geändert.
Edgecrusher86 die verlinkte Methode hab ich auch mal versucht zu machen, leider steht da immer das der Befehl falsch geschrieben wurde. Ich hab alle Dateien im C:\Users gespeichert..hmm

Ich habe es über die anleitung gemacht. Bilder angeschaut, mir die befehle kopiert und zack geflasht :)

Easy NVFlash Guide with Pictures for GTX 970/980
 
HisN habs so gemacht wie du gesagt hast,Gpu deaktiviert, den GM200boostmod.rom über den nvflash gezogen der startete ich drückte y und das Fenster schloss sich von selbst. Hab die Gpu wieder aktiviert neu gestartet nichts hat sich geändert.

Haste auch mal gelesen was da so im Fenster stand? Ich meine das gibt schon Auskunft darüber was passiert :-)
Und dass das Fenster sich schließt wenn der Flash fertig ist, ist auch ganz normal. Beept dann immer so nett :-)
 
ok es steht da ERROR: PCI subysystem ID mismatch, da brauchts nen zusätzliche Befehl oder?
 
Ich verstehe das voll und ganz das sich ein Paar Leute schwer tun mit dem Flaschen.
Mit Kind Haus und Hof stand ich vor einiger Zeit so unter Druck das ich beim Flaschen der 580 meinen Jüngeren Bruder ran gesetzt habe erst bei der 780Ti hatte ich etwas Luft mit der Hilfe von Naennon ging es dann auch mit dem flaschen.
So ein kleines How To Video wäre für viele eine gute Hilfe dann direkt verlinkt auf der Start Seite.

Nicht jeder hat die Zeit die Musse und den Mut das umzusetzen.:wink:
 
Zuletzt bearbeitet:
ok es steht da ERROR: PCI subysystem ID mismatch, da brauchts nen zusätzliche Befehl oder?

So isses. Da ist glaub ich ein -6 gefragt. Das bedeutet aber auch im Umkehrschluss dass Du ein Bios flashen willst, dass nicht vom Hersteller Deiner Karte kommt.
 
hmm trotz der -6 Software protected.

Edit: ist -5 -6 laut der neuen PCGH Ausgabe.
 
Zuletzt bearbeitet:
Bei der Ti ging alles -4-5-6.
 
ok es steht da ERROR: PCI subysystem ID mismatch, da brauchts nen zusätzliche Befehl oder?

Vorher ein Backup von dein Bios erstellen und bevor du flasht die Karte im Gerätemanager deaktivieren !

Du erstellst auf C ein Ordner mit dem Namen nvflash in diesen Ordner Kopierst du das flash tool und das Bios was du flashen möchtest
Dann Startest du Cmd mit der rechte Maustaste als administrator.

Wenn du Cmd auf hast fügst du erst diesen cd C:\nvflash Befehl ein und drückst enter danach sollte sich das flash tool in Cmd Öffnen. Und danach fügst du noch diesen Befehl ein nvflash -6 (ROM_NAME.rom) das in klammern ersetzt du mit dem Bios Namen das du vorher auf C im Ordner nvflash kopiert hattest danach drückst du enter und musst jetzt nur noch die taste y drücken und dies fragt er dich 2 oder 3 mal ab
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh