> > > > GTC 2014: NVIDIA GeForce GTX Titan Z abgelichtet

GTC 2014: NVIDIA GeForce GTX Titan Z abgelichtet

Veröffentlicht am: von

gtc2014Auch wenn unser Resumee zur GPU Technology Conference 2014 bereits abgeschlossen ist, tröpfeln doch immer noch einige Informationen zu den Neuvorstellungen durch. So sind bei den russischen Kollegen von 3DNews.ru einige Bilder der GeForce GTX Titan Z aufgetaucht. Kurz nach der Keynote hatte man wohl die Gelegenheit einige Bilder zu schießen - eine Chance, die wir verpasst haben. Bisher spricht NVIDIA im Zusammenhang mit der GeForce GTX Titan Z nur von 5.760 Shadereinheiten, also zwei GK110-GPUs im Vollausbau, 12 GB GDDR5-Grafikspeicher und einem Preis von 2.999 US-Dollar. Noch nichts bekannt ist über die weiteren technischen Daten der Karte.

NVIDIA GeForce GTX Titan Z (Bild: 3DNews.ru)
NVIDIA GeForce GTX Titan Z (Bild: 3DNews.ru)

Mit Hilfe der drei Fotos von 3DNews.ru lassen aber zumindest einige wenige Unklarheiten beseitigen. So ist ein SLI-Anschluss zu sehen, so dass zwei GeForce GTX Titan Z in einem Multi-GPU-Gespann zusammengefasst werden können. Weiterhin zu erkennen sind zwei 8-Pin-Stromanschlüsse, was laut ATX-Spezifikation eine maximale Leistungsaufnahme von 375 Watt nahelegt. Allerdings können über diese Anschlüsse auch deutlich mehr als 150 Watt an die Karte herangeführt werden. Bei einer Spannung von 12 Volt und einer stabilen Stromstärke des Netzteils von 26,5 Ampere letztendlich auch 318 Watt durchaus möglich. Die genaue Thermal Design Power der GeForce GTX Titan Z wollte NVIDIA auf der GTC 2014 aber noch nicht nennen. Somit müssen wir hier noch etwas abwarten.

NVIDIA GeForce GTX Titan Z (Bild: 3DNews.ru)
NVIDIA GeForce GTX Titan Z (Bild: 3DNews.ru)

Auf den Bildern ebenfalls zu erkennen (dies war allerdings auch schon bei den Pressebildern der Fall, ist der große zentrale Lüfter mit einem Durchmesser von etwa 10 cm. Er soll ausreichend Frischluft in das Gehäuse der Karte führen, damit die beiden GPUs möglichst unterhalb des Temperaturzieles arbeiten. Man darf gespannt sein, welche Taktraten und welches Temperaturziel NVIDIA hier gewählt hat und ob bzw. wie lange die Karte innerhalb des vorgesehen Bereiches unter Volllast arbeitet.

Auf dem letzten Bild ist die Karte von der Rückseite zu sehen. Hier ist dann eine Backplate zu erkennen, welche das komplette PCB abdeckt. Anders als viele andere Hersteller lässt NVIDIA keinerlei Öffnungen in der Metallplatte, die oftmals mit der Verhinderung von Hitzestaus begründet werden. Die Oberfläche der Backplate ist nicht glatt, sondern mit zahlreichen Rillen versehen, welche vermutlich die Oberfläche vergrößern und damit Kühlleistung erhöhen sollen.

NVIDIA GeForce GTX Titan Z (Bild: 3DNews.ru)
NVIDIA GeForce GTX Titan Z (Bild: 3DNews.ru)

Noch im April soll die GeForce GTX Titan Z auf den Markt kommen. Anders als bei der GeForce GTX Titan Black Edition hoffen wir in diesem Fall frühzeitig ein Sample zu erhalten. Einige wichtige Fragen werden aber sicherlich schon etwas früher geklärt - unter anderem auch die Taktraten der beiden GPUs und des Grafikspeichers.

NVIDIA GeForce GTX Titan Z im Vergleich
Modell NVIDIA GeForce GTX Titan Black NVIDIA GeForce GTX Titan Z
Straßenpreis ab 850 Euro noch nicht verfügbar
Homepage www.nvidia.de www.nvidia.de
Technische Daten
GPU GK110 (GK110-400-A1) 2x GK110
Fertigung 28 nm 28 nm
Transistoren 7,1 Milliarden 2x 7,1 Milliarden
GPU-Takt (Base Clock) 889 MHz unbekannt
GPU-Takt (Boost Clock) 980 MHz unbekannt
Speichertakt 1.750 MHz unbekannt
Speichertyp GDDR5 GDDR5
Speichergröße 6.144 MB 12.288 MB
Speicherinterface 384 Bit 384 Bit
Speicherbandbreite 336 GB/Sek. unbekannt
DirectX-Version 11.1 11.1
Shadereinheiten 2.880  2x 2.880
Texture Units 240 2x 240
ROPs 48 2x 48
TDP 250 Watt unbekannt

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (32)

#23
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29947
Zitat AuerEiswaffel;22037631
@don
eine firma sagt was, einfach so, dann wird das blind geglaubt?


Ich habe mit keinem Wort erwähnt, dass ich diese Zahlen als absolute Wahrheit hinnehme, so lange mir aber keine unabhängigen vorliegen, sind sie die einzigen, auf die ich mich zumindest zu einem gewissen Teil verlassen kann. Wenn mir jemand andere Zahlen nennen kann, schaue ich mir die an.
#24
Registriert seit: 28.03.2014

Obergefreiter
Beiträge: 97
@tonmann
ich setzte beim rendern auf die firepro, weil es bei mir laufen muss, ich will eine 24h support nichtmehr missen,
amd support kontaktieren, das seit dem update was nicht geht, welches programm, 24h später hab ich einen fix der zu 99,99% das problem löst

bei den consumerkarten ist das egal, da heisst es warten auf das nächste treiber-update

abgesehen davon ist eine titan ca. 25-40% je nach programm, hinter einer K6000 wegen dem treiber
#25
customavatars/avatar131601_1.gif
Registriert seit: 18.03.2010

Hauptgefreiter
Beiträge: 250
Zitat AuerEiswaffel;22037458
was sprechen die dann an, workstation?
falsche treiber/ support

du willst mir jetzt nicht weis machen das nv die titan z nicht an gamer richtet oder?

klar sicher doch für obenangeführtes nutzt man sehr gerne die geforce treiber,
für was denn noch quaddro/tesla kaufen wenn die consumer doch auch so toll sind

:stupid:


Dazu muss ich auch mal was sagen. Auch ich glaube die Aussage von Don bzgl. der Verwendung der aktuellen NVidia GPUs und kann sie auch sehr gut nachvollziehen. GPU-Computing ist das Zauberwort. Ich selbst nutze für meine Arbeit im 3D-Bereich GPU-basierte Renderer und dafür eignen sich auch Geforce Karten. Falsche Treiber ist in diesem Zusammenhang einfach falsch. Optimierte Treiber wäre richtig, die gibt es aber auch nicht für jede Software und die haben auch nicht DIE Vorzüge, dass sich die Investition in Quadros m.M.n. lohnt. Für das Geld was mich eine halbwegs potente Quadro kostet, kaufe ich mir lieber 3 GTX 780, 780ti oder eben Titan, wenn 6 GB RAM sein müssen. Auf die Treiber kann ich getrost verzichten, auf die double precision performance auch.

Zitat AuerEiswaffel;22038173


abgesehen davon ist eine titan ca. 25-40% je nach programm, hinter einer K6000 wegen dem treiber


Zeig mir mal einen aussagekräftigen Benchmark der das belegt. Mag sein, dass man durch die tiefere Treiberintegration in z.B. 3DS Max eine flüssigere OpenGL Darstellung hat und gerade bei Objekten mit sehr vielen Polygonen besser arbeiten kann. Aber beim puren Rendern glaube ich nicht, dass da eine Quadro Vorteile durch den Treiber hat. Da zählen nur Cuda Kerne und Takt.
#26
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3655
Sind das 5 Slots?!?

Beim Lotto hätte ich gerne 5 Slots!
#27
customavatars/avatar180392_1.gif
Registriert seit: 03.10.2012
Schleswig in Schleswig Holstein!
Leutnant zur See
Beiträge: 1171
Zitat AuerEiswaffel;22038173
@tonmann
ich setzte beim rendern auf die firepro, weil es bei mir laufen muss, ich will eine 24h support nichtmehr missen,
amd support kontaktieren, das seit dem update was nicht geht, welches programm, 24h später hab ich einen fix der zu 99,99% das problem löst

bei den consumerkarten ist das egal, da heisst es warten auf das nächste treiber-update

abgesehen davon ist eine titan ca. 25-40% je nach programm, hinter einer K6000 wegen dem treiber


Ja du machst das so und natürlich hast du recht was den Support angeht.
Nur heisst es eben nicht das jeder es so macht oder machen will!
Es kommt ja auch stark auf den Einsatzzweck an, vor allem da immer mehr Software mit GPU Beschleunigung arbeitet.
Nicht jeder ist bereit ein paar tausend Euro nur für besseren Support/Treiber zu bezahlen, wenn das was er für deutlich weniger Geld geliefert bekommt völlig ausreicht, wie gesagt.
Da spart man das Geld für andere Hardware z.B.
Darum kann ich die Aussage von Nvidia durchaus nachvollziehen!
Dazu passt auch die Aussage eines Bekannten auf die Frage warum er keine Tesla verbaut hat: "Ich will keinen Superrechner bauen, sondern meine Software (in dem Fall Foto- und gelegentlich Videobearbeitung) beschleunigen!"
Das sind Aufgaben für die auch eine "normale" GPU meist völlig ausreichen würde, für die man aber sicher keine Tesla oder Fire Pro braucht, zumindest nicht zwingend.

Besonders bei Software die CUDA unterstützt kann ich mich über die Treiber die Nvidia für Consumer Karten rausbringt nicht beschweren!
Bisher hatte ich genau null Probleme damit..
#28
Registriert seit: 28.03.2014

Obergefreiter
Beiträge: 97
naja, stimmt jetzt auch nicht so vorallem bei NV,
es gibt schon sehr viel sw die cl/gl nutzt und da wäre wiederum amd das beste mit dem p/l

genauso zieht sich der faden bei den cpu´s thema multic. anwendungen durch,
bei anwendungen ist ein fx 8320, oft genug auf dem niveau eines i7

und spätestens jetzt hat sich die diskussion erübrigt zum thema titan
#29
customavatars/avatar100019_1.gif
Registriert seit: 05.10.2008
AT - NÖ
Flottillenadmiral
Beiträge: 4951
3k$? Vermutlich ohne Tax oder?
#30
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Zitat Minutourus;22038939
3k$? Vermutlich ohne Tax oder?


Naja die "Preisempfehlungen" münden hier eigentlich meist in solche Preise inklusive Steuern. ;)
#31
Registriert seit: 10.03.2004
Köln
Leutnant zur See
Beiträge: 1138
Bei dem Preis erwarte ich aber eine besser Kühlung. Am besten gleich unter Wasser das Teil...
#32
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33223
Zitat AuerEiswaffel;22038414
genauso zieht sich der faden bei den cpu´s thema multic. anwendungen durch,
bei anwendungen ist ein fx 8320, oft genug auf dem niveau eines i7


Es macht mir arg den Eindruck, als ist das viel zu allgemein gehalten.
Vor allem kippst du alles in eine Schublade.
Du sprichst von Cuda Performance der 600er Karten, meinst aber vermutlich Leistung in doppelter Genauigkeit, du sprichst von Multicore Leistung in Anwendungen auf der CPU und kehrst das über einen Kamm -> die AMD CPUs sind "grottig" was die Gleitkommazahlen Berechnung angeht. (mitunter Architekturbedingt) Auch die Integerperformance ist nur bedingt auf "Höhe" der Zeit der aktuellen Xeon E5/E7 Modelle. Und es fehlt völlig der Energiebedarf in der Betrachtungsweise.

Nichts für Ungut. Aber gerade die GK110 GPUs in Form der Titan Modelle machen für den ein oder anderen Prof. Einsatz durchaus Sinn. Speziell sind die Teile einfach mal deutlich günstiger als die Quadro/Tesla Parts und haben zum Teil noch mehr Performance auf der Uhr. Was man am Ende berechnet, steht auf nem ganz anderen Blatt.
Das Gamerhardware quasi liebend gern für GPU Computing verwendet wird, zeigen doch diverse Modelle von SuperComputern im HPC Bereich. Kosten/Nutzenfaktor. Zumal deine Render Beispiele auch ungleich GPGPU sind. -> beim Rendering zählt massiv die Software und der Treiber mit rein. Verschiedene Treiber zu ein und der gleichen Hardware vom selben Hersteller machen unterm Strich teils drastisch andere Ergebnise in der Leistung. Für GPGPU zählt aber eher nakte Rechenpower. Im HPC Bereich sogar noch viel mehr...

PS: die Titan Modelle haben analog zu den Radeon Modellen keinen ECC RAM, was zum massiven Nachteil werden kann! -> das sollte einem trotz des geringeren Preises bewusst sein.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]