> > > > Turing: RT und Tensor Cores belegen nur wenig Chipfläche

Turing: RT und Tensor Cores belegen nur wenig Chipfläche

Veröffentlicht am: von

turing-gpuMit der GeForce GTX 1660 Ti und GeForce GTX 1660 hat NVIDIA bereits zwei Grafikkarten auf den Markt gebracht, die auf der Turing-Architektur basieren, aber auf die neuen Hardware-Einheiten in Form der Tensor und RT Cores und damit auf das Deep Learning Super Sampling und die RTX-Funktionen verzichten.

Mit der TU116-GPU entbrannte die Frage, warum diese eine Größe von 284 mm² hat und wie groß der Einfluss der Tensor und RT Cores auf die Größe des Chips ist. Der nominelle Vorgänger GP106 hat eine Größe von 200 mm². Die Anzahl der Transistoren steigt von 4,4 auf 6,6 Milliarden. Das Verhältnis aus Größe des Chips und Anzahl der Transistoren steigt für die GP106- auf die TU116-GPU fast linear an.

Vergleich der Chipgrößen zwischen Pascal und Turing
Chip TU102 TU104 TU106 TU116
Chipgröße 754 mm² 545 mm² 445 mm² 284 mm²
Anzahl der Transistoren 18,6 Milliarden 13,6 Milliarden 10,8 Milliarden 6,6 Milliarden
RT Cores 68 46 36 -
Tensor Cores 544 368 288 -

Die Turing-GPUs von NVIDIA werden weiterhin in 12 nm bei TSMC gefertigt und sind im Falle der TU102-GPU mit 754 mm² recht groß geraten. Die TU104- und TU106-GPU skalieren entsprechend ihres Ausbaus an Shadereinheiten sowie der RT und Tensor Cores in ihrer Größe.

Doch wie groß sind die neuen Hardware-Einheiten der Turing-Architektur? Darüber wollte NVIDIA bisher keinerlei Auskunft geben. Unser Forenmitglied OC_Burner hat auf Flickr wieder einmal neue Die-Shots veröffentlicht. Auch wenn die hochauflösenden Bilder der kompletten GPU mitsamt verschiedener Lichtfilter noch fehlen, erlauben die Fotos der abgeschliffenen TU106- und TU116-GPU einen Vergleich der Chipfläche der Texture Processor Cluster (TPC). Eine TU106-GPU besitzt 18 TPCs – sechs pro Graphics Processing Clusters (GPC).

Messungen auf Basis der veröffentlichen Die-Shots zeigen eine Größe des TPC von 10,89 mm² auf der TU106-GPU, während das Cluster auf der TU116-GPU nur 8,94 mm² groß ist. Der Größenunterschied von 1,95 mm² sollte sich demzufolge auf die fehlenden Tensor und RT Cores zurückführen lassen. Aus früheren Die-Shots zur GV100-GPU auf Basis der Volta-Architektur lässt sich die Größe der Tensor Cores mit 1,25 mm² abschätzen. Bleiben also 0,7 mm² für die fehlenden RT Cores auf der TU116-GPU. Pro TPC sprechen wir von zwei RT Cores, die sich auf 0,7 mm² verteilen und 16 Tensor Cores, die sich in den 1,25 mm² befinden sollten.

Drei Dinge lassen sich nun daraus ableiten:

1. Die Tensor und RT Cores sind weitaus kleiner, als dies im Vorfeld vermutet wurde. Ja, die Turing-GPUs sind keine kleinen und effizient zu fertigenden Chips. Dies liegt aber auch daran, dass NVIDIA an der Fertigung in 12 nm festgehalten und die Anzahl an Funktionseinheiten deutlich gesteigert hat.

2. Auch ohne die Tensor und RT Cores hat NVIDIA die Architektur durch die größeren Caches und dedizierten INT32-Recheneinheiten aufgebläht, sodass die Chips zwangsläufig eine solche Größe erreichen mussten. Zudem dürften die neu organisierten Shadereinheiten einen gewissen Einfluss auf die Größe der Chips gehabt haben.

3. Nach der Veröffentlichung der GeForce GTX 1660 Ti mit der TU116-GPU wurde darüber spekuliert, ob NVIDIA die Tensor Cores als dedizierte FP16-Einheiten verwendet, die in der TU116-GPU zu finden sind. Dies ist offenbar nicht der Fall. In den TU10x-GPUs werden Fließkommaberechnungen für FP16 in den Tensor Cores vorgenommen, doch diese sind bei der TU116-GPU offenbar nicht vorhanden.

Das Argument, NVIDIA könne die Turing-Karten nur so teuer verkaufen, weil die Tensor und RT Cores zu viel Chipfläche belegten, kann also nicht zwangsläufig gelten. Sicherlich wird NVIDIA die Entwicklungskosten in gewisser Weise einfließen lassen. Wie groß dieser Anteil aber ist, lässt sich nur schwer abschätzen.

Social Links

Kommentare (54)

#45
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3248
Irgendwie ist die Überschrift irreführend. Turing RTX SMs sind 22% größer als Turing GTX SMs. Da diese den allergrößten Anteil des Chips darstellen dürften (zumindest bei TU106 und TU102), ist das eben doch nicht wenig. Sagen wir von den 22% bleibt auf dem gesamten Chip noch 15% übrig beim TU102, dann wäre der Chip nur noch 650mm² groß. In den Bereichen wär das schon ein ordentlicher Unterschied. Das ist eben alles relativ.
#46
customavatars/avatar189276_1.gif
Registriert seit: 01.03.2013

Bootsmann
Beiträge: 612
Zitat Gamerkind;26894599
Was glaube ich?



Zitat

Was fragst du dich?
Du hast doch behauptet, AMD würde die Leistung einer 2080 Ti nie erreichen.
Das kann doch nur bedeuten, daß du davon ausgehst, daß AMD in naher Zukunft aufhört neue dGPUs auf den Markt zu bringen.

Oder meintest du das anders?


Ich empfehle dir dringend mal "Schulz von Thun" anzuschauen. Das hilft ungemein ;)
#47
Registriert seit: 01.01.1970


Beiträge:
Zitat Morrich;26894817
Na WO denn? Zeig doch mal her, wo es ne 1660 für 189€ gibt.


anscheinend wohl nicht in Deutschland :haha:


Google hilft ungemein hin, außer man ist natürlich so in seiner Welt am dahin träumen und bildet sich ein Deutschland wäre der Mittelpunkt von irgendwas

Aber ich helfe ja gerne, hier bitte....
[ATTACH=CONFIG]463831[/ATTACH]
#48
customavatars/avatar151613_1.gif
Registriert seit: 11.03.2011
Leipzig
Flottillenadmiral
Beiträge: 5566
Naja, mit einen FX8320 braucht man sich sowieso keine Karte mehr kaufen :p
#49
Registriert seit: 01.01.1970


Beiträge:
und wieso nicht?, ich spiel permanent im GPU Limit......

als primär MMORPG Spieler isf mein Target 30 Fps der Rest an Leistung wandert in Grafikqualitat....

nebenbei ist nicht jedes MMO s grottig Programmiert wie WoW,; FFXIV zb.
Normal werden 6 Threads verwendet in Raids auch alle 8.....
#50
customavatars/avatar151613_1.gif
Registriert seit: 11.03.2011
Leipzig
Flottillenadmiral
Beiträge: 5566
Bei 30 FPS ist bei mir die Kiste aus :d

Ich hatte selbst sehr lange die FX'ler und musste oft kotzen wenn es auf -40 runter ging.

Da hatte ich auch schon eine 1070 und war nicht immer im GPU Limit, meistens ist genau dass gegenteil passiert :coffee:

Aber wer natürlich mit 30 FPS leben kann, wird natürlich auch damit glücklich sein.
#51
Registriert seit: 01.01.1970


Beiträge:
:haha: mag sein,
dann wirst du wohl kein MMORPG Spieler sein den in manch games gehts selbst mit einem 7700K runter auf 15 FPS


der ach so lahme FX hält in 24er Raids bei FFXIV seine 30 Fps wo der Kollege in der FG mit seinem i5 7500 gerne mal nur noch unter 20 Fps hält von diversen Aussetzern im TS ganz zu schweigen.
:p



edit : (nicht persönlich, aber entweder man incvestiert in HEDT oder bleibt beim Comsumer Produkt)
aber dein 7800x ist auch ein Fehlgriff sondersgleichen, ein 3930k hatte schon das selbe auf Sockel 2011 bzw. mittlerweile wird deiner vom Mainstream Sockel 1151 gnadenlos angeschissen :vrizz:
#52
customavatars/avatar151613_1.gif
Registriert seit: 11.03.2011
Leipzig
Flottillenadmiral
Beiträge: 5566
Der 7800X ist definitiv kein griff ins klo, das ist schon eher AMD Ryzen mit der schwachen Leistung pro Kern. Bin froh das wieder losgeworden zu sein.

Und die Intel Mainstream sind auch nicht sehr viel schneller.

7800X liegt auf 6700K Niveau. Habe beide hier und nehmen sich nichts. Der 9900K ist wenn es hochkommt 10-20% schneller Aber auch nur in manchen Games. Von gnadenlos unterlegen kann man hier also nicht sprechen. Bei 30% hätte ich dir durchaus recht gegeben aber nicht bei 10-20%.

Ab 12 Kerne sieht dagegen der 9900K alt aus :D Irgendwann kommt der zu Papi xD

Edit: Desweiteren kommt noch eine CPU Generation für X299 mit der Coffee Lake Performance.
#53
Registriert seit: 01.01.1970


Beiträge:
Träumen darf man ja, sag ich gerne mal....
#54
customavatars/avatar151613_1.gif
Registriert seit: 11.03.2011
Leipzig
Flottillenadmiral
Beiträge: 5566
Ich Träume keinesfalls.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]