> > > > Finale Spezifikationen des GK110 enthüllt

Finale Spezifikationen des GK110 enthüllt

DruckenE-Mail
Erstellt am: von

nvidiaMitte Mai präsentierte NVIDIA erstmals einige Daten zum GK110, also dem vermeintlichen Vollausbau der aktuellen "Kepler"-Architektur. Zum damaligen Zeitpunkt war aber noch nicht klar, über wie viele Shader-Prozessoren GK110 verfügen wird, wie breit das Speicherinterface sein würde und wie schnell der Speicher getaktet ist. Wohlgemerkt sprechen wir hier von GK110 für den Einsatz auf den Tesla K20 Karten, also nicht von einem Endkundenprodukt. NVIDIA hat sich bisher noch nicht dazu geäußert, ob wir eine GK110-GPU auch auf einer GeForce-Grafikkarte sehen werden. Es ist aber sehr wahrscheinlich, dass genau das Anfang 2013 geschehen wird.

 Tesla K20 auf Basis von GK110
Tesla K20 auf Basis von GK110

Heise hat nun weitere Details von einem Lieferanten von GPU-Rackservern namens CADnetworks erfahren. Demnach soll die GK110-GPU in der Ausbaustufe für die Tesla K20 Karten über 13 SMX-Cluster mit jeweils 192 CUDA-Kernen verfügen. Dies resultiert in 2496 CUDA-Kernen insgesamt. Auf der GTC 2012 war noch von 2880 CUDA-Kernen die Rede. Die reduzierte Anzahl sollen mit 705 MHz arbeiten, einen GPU-Boost gibt es hier nicht. Dies bedeutet eine theoretische Rechenleistung von 3,52 TFlops bei Single-Precision- und 1,17 TFlops bei Double-Precision-Berechnungen. Der Speicher besitzt eine Transferrate von 200 GB/Sek. Geht man von einem 384 Bit breiten Speicherinterface aus, würde der GDDR5-Speicher mit 1014 MHz arbeiten. Bei 256 Bit wären es 1562 MHz. Insgesamt sollen 5 GB GDDR5-Speicher auf der Tesla K20 zum Einsatz kommen. Die maximale Leistungsaufnahme soll bei 225 Watt liegen. Anfang November sollen die ersten Karten ausgeliefert werden. Der Preis liegt bei 2950 Euro.

GF110 GK104 GK110 auf Tesla K20
Fertigung 40 nm 28 nm 28 nm
Transistoren 3 Milliarden 3,54 Milliarden 7,1 Milliarden
Die-Größe 530 mm² 294 mm² etwa 600 mm²
TDP 225 Watt 225 Watt 225 Watt
GPU-Takt 772 MHz 1006 MHz 705 MHz
Speichertakt 1000 MHz 1502 MHz 1014 oder 1562 MHz
Speichertyp GDDR5 GDDR5 GDDR5
Speichergröße 1536 MB 2048 MB 5120
Speicherinterface 384 Bit 256 Bit 256 oder 384 Bit
Speicherbandbreite 192 GB/Sek. 192,2 GB/Sek. 200 GB/Sek.
Shadereinheiten 512 (1D) 1536 (1D) 2496 (1D)
Textur Units 64 128 240
L1-Cache 64 KB 64 KB 64 KB
L2-Cache 768 KB 512 KB 1,5 MB
ECC Speicher und Caches nur Speicher Speicher und Caches
FP64 1/2 FP32 1/24 FP32 1/3 FP32

Die Ausrichtung auf den professionellen Bereich wird vor allem durch folgende Punkte deutlich: GK110 beherrscht ein ECC-Fehlererkennungsverfahren, hat eine höhere Double-Precision-Performance, höhere Speicherbandbreite und mehr CUDA-Kerne. Hinzu kommen Features wie Hyper-Q und Dynamic Parallelism. Hyper-Q nimmt sich dem Problem an, dass CPUs nicht immer in der Lage sind die GPUs mit ausreichend Rohdaten zu füttern. "Fermi" beispielsweise hatte nur eine Work-Queue, Kepler kann nun mit 32 Work-Queues besser ausgelastet werden. Dediziert werden 32 CPU-Kerne unterstützt, ohne das Optimierungen in der Software vorgenommen werden müssen. Dynamic Parallelism verteilt die anfallenden Daten und Berechnungen selbständiger. Die Qeue-List wird nicht mehr von der CPU bestimmt, sondern von der GPU selbst.

 GK110 Die
GK110 Die

Auf alle diese Punkte gingen wir bereits im Mai in einer ausführlichen News mit genauen Erklärungen ein.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (19)

#10
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29102
Die News erwähnt ja auch mehrfach, dass wir hier von Tesla K20 reden und ausdrücklich nicht von einem Consumer-Produkt. Dennoch geben die Informationen ja einen Ausblick auf das, was uns im Frühjahr erwarten könnte.
#11
customavatars/avatar18709_1.gif
Registriert seit: 30.01.2005
Österreich
Leutnant zur See
Beiträge: 1181
@don
war nicht auf die News bezogen, die ist super

War allgemein auf den GK110 für den Consumermarkt.
#12
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5593
Zitat its_a_me;19604332
Also das mit dem Vollausbau und das der GK104 nur ein performance Chip ist, das kauf ich ihnen noch immer nicht ab. Aber gute Markting blabla Leistung das so gut zu verkaufen.

Zum Chip für mich ist das ein eigener Chip der halt auf dem neuen 1D Shadderprinzip aufbaut. Aber die Rohleistung liest sich schon mal top. Hoffe das es bei der Produktion nicht Probleme gibt 7,1 Milliarden auf 600mm2 ist schon ne Hausnummer.


"Ihnen" brauchst Du das sowieso nicht abkaufen denn soviel ich weiß hat nV das nie behauptet daß der GK104 nur ein kastrierter GK110 ist und somit der Performance Chip. Aber einige Berichterstatter sowie viele Freaks in den Foren (mich eingeschlossen) vermuten stark daß es so ist.

Die ersten Gerüchte und vermuteten Spezifikationen des GK110 kamen etwa zeitgleich mit den ersten News zu den GTX680er Karten auf. Jedoch war damals schon die Rede von Tesla Karten im Zusammenhang mit dem GK110. Das Namensschema deutet auch darauf hin daß eben der GK110 der eigentliche Nachfolger des GF110 ist und eben der GK104 "nur" ein Ableger des GK110.
Es wäre auch das allererste Mal daß nV einen eigenen High End Chip NUR für den professionellen Bereich rausbringen würde und eben einer der deutlich über den High End Desktop Chips liegt. Die Quadro Karten und die Tesla Modelle waren bis jetzt IMMER mit GPUs bestückt die es auch im Desktop Sektor gab. Die Karten waren oft anders (meist deutlich mehr Speicher als die Desktop Karten [vor allem bei den Tesla Modellen da hier Speicher eine grosse Rolle bei Berechnungen spielt] aber auch anderen und teils höhere Anzahl an Anschlüssen) aber die GPUs waren meist baugleich wenn auch ab und zu sogar etwas abgespeckt (weniger Shader, weniger Speicheranbindung, weniger Takt).

Ich vermute (und damit bin ich anscheinend nicht alleine) daß aus irgendeinem Grund auch immer nV den GK110 zurückgehalten hat und kurzerhand eine kleinere Version (aka GK104 aka GTX680/670/660Ti) rausgebracht hat. Gründe mögen sein daß es eventuell in der Fertigung des GK110 Probleme gab/gibt oder die Leistung so hoch war daß es genügt hat einen kleineren Chip als High End einzusetzen oder sonst irgendetwas.
Im Computing Bereich schneiden die GTX6xx Karten jedoch auch relativ schlecht ab (schlechter als die Konkurrenz von AMD und sogar als die eigenen Vorgänger GTX580/570). Der GK110 ist hier bestimmt deutlich besser.

Ich kann mir auch nicht vorstellen daß nVidia den GK110 nur für Tesla Systeme verwendet. Klar - für viele Großkunden und Betreiber von Serverfarmen, Rechenzentren und Forschungseinrichtungen sind dies bestimmt tolle Systeme und da werden bestimmt auch einige gekauft und nV macht da wohl auch gutes Geld, aber der meiste Umsatz steckt doch im normalen PC Sektor (Großkunden wie Dell, HP etc. und Endkunden).

Also ich glaube noch immer stark daran daß ein GK110 in was für einer Form oder Bezeichnung auch immer für den Desktop / Gaming Sektor kommt. Wann, in was für einer Form, unter was für einem Namen [GTX 780 ?] und mit was für einem Preis auch immer ...
Gerade beim Preis befürchte ich jedoch daß dieses Monster schon einiges kosten wird. Die Karten werden bestimmt keine 5GB Speicher wie die Tesla Karten haben ... eher so um die 3GB um den Preis doch etwas niedriger zu halten, aber wenn man sich aktuelle (wie ich persönlich finde deutlich überteuerte) Grafikkartenpreise in den oberen Leistungsklassen ansieht wird dann so eine GTX 780 bestimmt mind. 600 EUR kosten wenn nicht sogar noch mehr.
#13
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6546
Wenn GK110 nicht für Desktop kommen sollte, warum hat er dann 240 TMUs? Ein Großteil des Chips ist immer noch auf 3D ausgelegt. Wollte man nur ein Tesla-Rechenmonster, würde das Ding ganz anders aussehen. Oder bei Quadros, da braucht es ja vorrangig Geometrieperformance für CAD und Modelle mit vielen Polygonen.
#14
customavatars/avatar180392_1.gif
Registriert seit: 03.10.2012
Schleswig in Schleswig Holstein!
Leutnant zur See
Beiträge: 1137
Zitat

Ich kann mir auch nicht vorstellen daß nVidia den GK110 nur für Tesla Systeme verwendet. Klar - für viele Großkunden und Betreiber von Serverfarmen, Rechenzentren und Forschungseinrichtungen sind dies bestimmt tolle Systeme und da werden bestimmt auch einige gekauft und nV macht da wohl auch gutes Geld, aber der meiste Umsatz steckt doch im normalen PC Sektor (Großkunden wie Dell, HP etc. und Endkunden).


Ich würde eher sagen das Umgekehrt ein Schuh daraus wird!
In so einem Rechenzentrum stecken oft einige hundert/tausend Karten, je nach Grösse. Zumal die Grosskunden sich nicht über einen höheren Preis/höhere Leistungsaufnahme beschweren!
Ich kann mir vorstellen das Nvidia im Grosskundenmarkt sogar mehr umsetzt als im Konsumenten Markt. Ist bei Dell, HP und co. auch nicht anders ;)

Kann man das nicht irgendwo nachprüfen?

Aber wie auch immer, ich glaube erst an eine Konsumentenkarte mit GK110 wenn ich irgendwo einen ersten Benchmark oder Handfeste Hinweise darauf sehe, aber die gibt es nach wie vor nicht. Im Gegenteil, selbst eigentlich gut informierte Seiten spekulieren wild drauflos.
Bisher hat es immer irgendwo einen Leak zu kommenden Grafikkarten gegeben, nur beim angeblich (laut diversen Internetseiten bei Launch der GTX 680) schon für August angekündigten GK 110 für Konsumenten nicht.
Ich glaube auch nicht das ein GK110 für Konsumenten kommen wird, denn Nvidia hat eine hervorragende PR vor allem dadurch bekommen das die GTX 680 verdammt wenig Strom verbraucht bei einer mehr als ausreichenden Leistung. Damit schafft man sich heutzutage mehr Freunde als mit einer GTX 480 z.B. die von allen Seiten zerrissen wurde, weil sie zu laut war und zuviel Strom verbraucht hat.
Nvidias Manager wären schön Blöd wenn sie eben diesen Ruf aufs Spiel setzen würden, denn auch wenn die meisten Gamer nicht auf den Verbrauch gucken, so gibt es genug Leute die das tun!
Weit mehr vermutlich als welche die 50% mehr Leistung wollen!
Ich schreibe bewusst nicht "brauchen", denn die meisten Spieler sind mit Auflösungen unterwegs für die sogar ein GK104 eigentlich Übertrieben ist.
So kann Nvidia den grünen Daumen auspacken und sein Image aufpolieren.

Die sind nach wie vor ein Börsennotiertes Unternehmen und da ist den Grünen der Ruf und das Image vermutlich weit wichtiger als der Nerd der 3D Mark und co. "spielt", denn für was anderes kann ich mir den Ruf nach einer noch stärkeren Karte nicht erklären.
Ich habe auch GTX 680er mit 4GB Speicher und übertaktet im Multi GPU Setup auf 2560x1440ern und einem Triple Monitor Setup laufen, aber ich kenne aktuell kein Spiel bei dem ich mehr Leistung als die einer einzelnen GTX 680er wirklich brauchen würde, von Metro 2033 vielleicht mal abgesehen.
#15
customavatars/avatar58810_1.gif
Registriert seit: 25.02.2007

Banned
Beiträge: 8170
Wie geil !! Jetzt haben wir hier nicht nur mehr einen Trankmann sondern auch noch einen Tonmann !! :fresse:



PS: Sorry für OT, aber der musste sein !! :D
#16
customavatars/avatar18709_1.gif
Registriert seit: 30.01.2005
Österreich
Leutnant zur See
Beiträge: 1181
Zitat Bucho;19605142
"Ihnen" brauchst Du das sowieso nicht abkaufen denn soviel ich weiß hat nV das nie behauptet daß der GK104 nur ein kastrierter GK110 ist und somit der Performance Chip. Aber einige Berichterstatter sowie viele Freaks in den Foren (mich eingeschlossen) vermuten stark daß es so ist.


Stimmt, ihnen schreibt man in dem Fall klein.

Es gab da doch vor Release immer wieder inoffizielle Stichelleien zu dem Thema. Klar das man sowas nicht offiziell austragt. Aber hat hier eigentlich nix mim Thema zu tun.

Der GK 110 war meiner Meinung zu der Zeit nicht möglich, da der 28nm Prozess viel zu schlecht lief ... Ich würde aber noch nicht 100%ig ausschließen, dass sich nicht ein paar Karten vlt als prestige HighEnd in den Consumermarkt schleichen werden.

€dit: Laut Bild schauts mehr nach 300Watt Verbrauch aus, 6 und 8Pin.
#17
customavatars/avatar103609_1.gif
Registriert seit: 03.12.2008
Hamburg
Bootsmann
Beiträge: 604
Stumpf was ankündigen oder direkt überspecs durchsickern lassen ,damit die Leute warten und keine Amd Karte kaufen.
Das hat doch seit Fermi vs Cypress Tradition.

Entweder hat NV bewusst erstmal mit den defekten Chips abkassiert oder funktionierende GK110 Chips sind einfach so selten wie ein 6er im Lotto.

Im Computingbereich hingegen zahlt man dann 2000-3000 für eine der seltenen Vollausbaukarten.
Riecht aber jetzt schon nach einem nicht verfügbaren Paperlaunch.
#18
Registriert seit: 22.07.2007
zu Hause
Obergefreiter
Beiträge: 86
Hi

ich seh das ganz einfach

GK-104 ----> GTX 680
GK-100 ----> ausgesetzt aufgrund von yield or whatever

GK-114 ----> GTX 780
GK-110 ----> Tesla K-20 (yield nur halbwegs im griff deshlab
nur 13 statt 15 cluster)

verstehe nicht das das so sonst keiner sieht wo der fehlende GK-100
doch darauf hindeutet.


gruss Digger
#19
Registriert seit: 01.01.1970


Beiträge:
ich kann das ganze palaver nicht nachvollziehen - welche rückschlüsse lässt mercedes' neue S-klasse denn auf ein kommendes C-modell zu? und nur weil die ledersitze aus ersterer nicht lieferbar sind, ist das nicht auf das velours des kommenden kleineren modells übertragbar.

gequatsche, weil das geld nicht für eis, essengehen, kino oder ein PC-spiel gereicht hat. kauft euch einen hund!


(..)

mfg
tobi
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]