[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Das habe ich auch vor....
Nicht zu verachten sind die 12GB VRam...sehe ich in Tomb Raider. Fast 9GB belegt in 4K.

P.S
Ja, ich spiele Tomb Raider erst jetzt.
Vorher lief es nicht zufriedenstellend.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gehen die neuen Brücken auch auf die Titan und bringt es was?

Gesendet von meinem SM-N910F mit Tapatalk
 
@sharif

habe keine Softwareprobleme.
Egal ob das Zeugs von MSI drauf ist oder nicht.
Auslastung der Gpu's zwischen 95-99%

Ohne SLI ,lief Tomb Raider sehr bescheiden. Durch die 2. Karte gab es einen schönen Boost.
 
Gehen die neuen Brücken auch auf die Titan und bringt es was?

Gesendet von meinem SM-N910F mit Tapatalk

nein, der alten gen fehlt die logik beide anschlüsse zusammen zu nutzen. bringt genauso nix wie 2 brücken.

btw,
12GiB sind ohne frage toll.. damit und zusammen mit dem richtigen bildschirm kann man auch schön mit 6k und 8k rumspielen.
so habe ich schon etliche titel auf über 11GiB VRAM-last bekommen. 1455MHz ist im SLi auch hier der takt, der überall läuft.. ^^

ausgehend von meinen beobachtungen würde ich mit 4, 6 und 8GiB karten kein SLi zusammenstecken.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
wie macht sich zu hoher VRAM-Takt bemerkbar ?
Nur durch Fehlerkorrektur oder auch durch Treiberreset?
 
Bei GDDR5 ist die Spanne zwischen "Stable" - "Fehlerkorrektur" - "Absturz" nur sehr klein. Soll heißen, entweder läufts, oder es kratzt ab. 4000 Auf einer X mit 12GB sind schon nicht ohne und werden sicher durch geringe vRam Temps begünstigt. Zu hoher vRam Takt macht sich durch Bildfehler, Treiberresets und kompett-Freezes bemerkbar. 4000 ist eine schöne Zahl, aber oft leider nicht 100%ig stable, vor allem wenns warm wird macht der vRam das nicht gerne mit. 3900 oder gar 3800 erachte ich aber als solide.
 
Dann versuche ich's mal mit 3900Mhz.....
Die 2 TitanX waren bei maximal 46 Grad...Speicher bestimmt mehr. Speicherbelegung bei fast 10GB VRam.
 
Ich plane ein SLI mit 2x Titan X 2.0 oder 1080 Ti unter Wasser. Mit OC natürlich.

Der größte Vorteil ist aus meiner Sicht auch der größte Nachteil bei der Titan: der rückseitige RAM.

Wie habt ihr die Kühlung gelöst? Ich habe schon von Leute gelesen, deren RAM auf der Rückseite abgeraucht ist, war aber die erste Titan, glaube ich.
 
Denke mal es wird keine rückseitigen RAM Module beim GP102 geben. Die 256er bit Karten 980/1080 haben alle ihre 8 Speicher vorne und da werden bei den großen mit 384bit Interface einfach 4 dazukommen und dann hat sie genauso viele Module wie die 780/Titan/980Ti Karten auf der Vorderseite. ;)
 
Das wäre natürlich ideal! :-)
 
Wie habt ihr die Kühlung gelöst? Ich habe schon von Leute gelesen, deren RAM auf der Rückseite abgeraucht ist, war aber die erste Titan, glaube ich.

Aquacomputer kryographics Backplates. Das sind massive Alubackplates welche so präzise gefertigt sind, das mit Wärmeleitpaste statt mit Pads gearbeitet wird. Also nicht der übliche Zierkram.
Ich habe die schon auf der Titan classic und Titan X im Einsatz gehabt und bin sehr zufrieden mit den Temps. Gibt es sogar als aktive Variante, wer noch bessere Kühlung will.

Aber wie hier schon gesagt wurde, die Titan X 2.0 wird ziemlich sicher keine Speicherbausteine auf der Rückseite haben, nicht bei 12 GB.
 
Zuletzt bearbeitet:
@econaut

VRAM nimmt bei mir per Paste kontakt mit der aktiven Backplate von AC auf.







 
Zwar etwas spät aber egal....980Sc non ti @ekwb für 420 verkauft und TXM @ekwb für 500 gekauft....und bin rundum zufrieden. Lastet den 144hz Asus etwas mehr aus und ich denk mal mit den 12gb hab Ich erst mal Ruhe. Die 4gb der 980 wären wohl nächstes Jahr eher schlecht gewesen. So war ich mit der Karte aber zufrieden. Webmi s bios mit 1400@1.17V läuft auch supi...1500 braucht mir zuviel V.

Gesendet von meinem LG-H815 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Ich versichere dir dass der dual-MOSFET auch kaputt ist. Tausch die um. Ich kann es nur gebetsmühlenartig Wiederholen: Wenn Referenz-Design mit (stärkerem) OC dann unbedingt Wakü, sonst passiert genau das. Das ist übrigens keine Schadenfreude. Ich ärgere mich immer wieder über nVidia, da dieses Problem schon seit der Titan besteht und man es dabei belässt.

Edit: Die Teile mit R22 und R33 sind übrigens Kupferspulen mit Ferrit-Kern (Induktivitäten).

Ich habe mal einen etwas älteren Post ausgegraben als Aufhänger für mein Problem. Ich habe zwei MSI GTX 770 Twin Frozr im SLI (gehabt), die jahrelang einwandfrei ihren Dienst getan haben. Einen Tag bevor ich die GPU mit neuer WLP behandeln wollte, hatte ich beim Zocken einen Absturz. Es roch streng vom PCB einer Karte (die andere läuft einwandfrei). Nach dem Entfernen des Kühlers konnte ich diesen Geruch auf einen R33 Inductor lokalisieren, der allerdings optisch (wie der Rest des PCB) einwandfrei ist. Fehlerbild ist: kein Bild, Lüfter läuft ab Power On mit 100 %.

Natürlich ist das hier der Titan-Thread aber es geht ja bei mir um die Ebene einzelner elektrischer Bauteile, welche hier schon vom erfahrenen Leuten diskutiert worden sind. :)

Gibt es aus der Erfahrung heraus realistische Chance auf Rettung durch Tauschen von Bauteilen oder taugt die Karte nur noch als Ersatzteilspender?

Grauer R33 links unten vom GPU-Die (knapp über dem PCI-E)
949117_5__8576662-5.jpg
 
Zuletzt bearbeitet:
Gibt es eigentlich noch Leute die eine TitanX betreiben?
Ich habe das Problem das ich seit einiger Zeit kein Mod BIOS nutzen kann da die neuen Treiber dann die Grafikkarte nicht mehr akzeptiert.
Wenn hier jemand vielleicht eine Lösung für das Problem kennt wäre ich echt sehr erfreut.
 
Ja ich, brauch den neuen Müll nicht [emoji16]....was heißt seit geraumer Zeit bei dir? Hab meine TX eigentlich schon immer mit nem Mod BIOS laufen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh