> > > > NVIDIAs Pascal-GPU wird von TSMC im 16 nm FinFET-Verfahren gefertigt

NVIDIAs Pascal-GPU wird von TSMC im 16 nm FinFET-Verfahren gefertigt

Veröffentlicht am: von

nvidia 2013Im kommenden Jahr werden sowohl AMD als auch NVIDIA bei der Fertigung ihrer GPUs auf das FinFET-Verfahren wechseln. Alle aktuellen Chips für die Grafikbeschleuniger werden noch in 28 nm gefertigt, so dass der Wechsel ein großer Sprung sein wird. Für die Hersteller bedeutet er sowohl eine Herausforderung als auch die Möglichkeit, hinsichtlich der Komplexität und Effizienz deutlich aufzustocken. TSMC und Samsung gelten als die einzigen beiden Auftragsfertiger, die in der Lage sind, solch komplexe Chips in einem neuen Verfahren fertigen zu können. Wie die Business Korea nun berichtet, scheint der südkoreanische Konzern-Gigant mit Halbleitersparte - Samsung - nun aber aus dem Rennen zu sein und das taiwanesische Unternehmen TSMC (Taiwan Semiconductor Manufacturing Company) bekommt zumindest den Auftrag, weiterhin für NVIDIA die GPUs zu fertigen. Auch für AMD ist dieser Schritt mehr als wahrscheinlich, die Meldung bezieht sich aber zunächst einmal auf NVIDIA.

Am 15. September soll NVIDIA die endgültige Entscheidung für TSMC und gegen Samsung gefällt haben. Konkret geht es um die Fertigung der Pascal-GPU, die in der ersten Jahreshälfte 2016 erscheinen soll. Denkbar wäre auch ein Aufspalten der Aufträge gewesen, allerdings verwenden TSMC und Samsung unterschiedliche Iterationen des FinFET-Verfahrens. Die jahrelange Zusammenarbeit und das Vertrauen in TSMC sollen letztendlich dazu beigetragen haben, dass sich NVIDIA für TSMC entschieden hat.

Pascal-Modul mit HBM
Pascal-Modul mit HBM (rot eingefärbt).

Für Samsung ist der Verlust eines solchen Auftrages aber sicherlich verkraftbar. Die Halbleitersparte von Samsung ist aktuell der größte Wachstumsbereich des südkoreanischen Unternehmens. Neben den eigenen Exynos-SoCs fertigt man auch die A8- und A9-Prozessoren für Apples iPhones und iPads. Im Falle des A9 kommt auch hier schon das FinFET-Verfahren zum Einsatz. Eine gewisse Erfahrung lässt sich Samsung also in dieser Hinsicht nicht absprechen, allerdings besteht ein Unterschied zwischen der Fertigung eines SoCs und einer komplexen GPU mit fast zehn Milliarden Transistoren.

Während der Fertigung müssen Auftraggeber und Fertiger eng zusammenarbeiten, um eventuellen Problemen mit spezifischen Details der GPU oder Architektur zu begegnen. NVIDIA hat hier bereits schlechte Erfahrungen gemacht. Bei der Fermi-GPU verwendete NVIDIA wie in der aktuellen Architektur auch die sogenannten SMs (Streaming-Multiprozessoren), die über einen Interconnect untereinander und mit dem Speicher kommunizieren. Die Verbindungen zwischen den SMs und dem Speicher werden über ein "Fabric", ein Gewebe aus feinen Drähten (Wires), hergestellt. Da diese Verbindungen mit extrem hohen Taktraten arbeiten müssen, kommt es aufgrund der räumlichen Nähe der einzelnen Verbindungen zu elektromagnetischen Interferenzen. Diese Interferenzen sorgen für große Probleme bei der Fertigung der Fermi-GPU. Mit dem Vertrauensvorschuss zu TSMC möchte NVIDIA diesen sicherlich bei Pascal aus dem Wege gehen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (48)

#39
customavatars/avatar20397_1.gif
Registriert seit: 07.03.2005

Admiral
Beiträge: 11189
Zitat Thunderburne;23874660
Ich glaube schon das man gleich 50%+ Mehrleistung auf den Markt los lassen kann.
Ohne sich das Geschäft mit den anderen Karten zu versauen.


Ist in der vergangenheit oft genug Passiert.

Geforce 6 auf Geforce 5 zb.
Geforce 7 auf Geforce 6 auch.
Geforce 8 auf Geforce 7 auch.
usw.
Bei Radeons das gleiche Spiel.

Zitat Thunderburne;23874660

Denke nicht das die Stückzahlen in den ersten Monaten all zu hoch sein werden wenn man mal bei AMD rüber schaut mit HBM sieht man ja das es schleppend angelaufen ist oder läuft.
Da zu kommt noch ein shrink und wenn man von 8GB ausgeht ist ein hoher Preis garantiert.
Das wird man sich auf jeden Fall in Euronen veredeln lassen.


Damit könntest du Recht haben.
Ich bin aber gespannt auf die Midrange Modelle.

Ich vermute, das Karten wie R9 290/390 mit HBM und Shrink, quasi die neuen Midrange Modelle werden,die nur noch 1x8pin Strom anschluss benötigen.
Die Fury Nano schaft das ja schon in 28nm, also sollte das mit Shrink locker drin sein.

Aber, ob Nvidia und AMD auch bei den Mid Range Karten HBM verbauen werden, ist halt die Frage...
Generell bin ich gespannt wie Teuer HBM im vergleich zu GDDR5 wird, und ob es in ein paar Jahren sogar bei Low End karten zu sehen sein wird oder nicht..


Zitat RoBBe07;23889221
Stärkstes Modell ist übrigens nicht der GTI.


Ach okay.
Mein Metier sind eher Italiener und Japaner und keine Volksabzockwagen.
#40
customavatars/avatar220193_1.gif
Registriert seit: 29.04.2015

Banned
Beiträge: 965
Zitat BrennPolster;23888113
oder gibt es schon highend skylake 8 core CPUs?

die Yield bei 14nm ist einfach zu niedrig...


Zitat
ne, sie liegen aber schon in der Schublade.

typischer stammtischunsinn...

Zitat
intel könnte 3 CPUs Generationen in einer Woche veröffentlichen, mit drei unterschiedlichen Nanometern.

lol, offensichtlich willst du nur trollen, den blödsinn kannst du doch nicht ernst meinen:\
#41
customavatars/avatar192568_1.gif
Registriert seit: 26.05.2013

Kapitän zur See
Beiträge: 3200
Intel macht ein Umsatz von über 50 Mrd. im Jahr. ( amd knapp 5mrd )

Was denkste was die alles können, hätte Intel ein Konkurrenten gäbe es auch viel schnellere CPUs.
Dann würde man nämlich wieder was in die Forschung investieren, anstatt es einfach baumeln zu lassen.

Nach 3 CPUs Generationen kaum Fortschritt, aber für dich scheint das ja normal zu sein.

und Highend skylake liegt sehr wohl bereits schon in der Schublade, aber man wartet halt einfach wieder 1 Jahr ab so wie die vorherigen male davor auch.

aber du glaubst auch an den Weihnachtsmann, lassen wir das.
#42
Registriert seit: 24.06.2015

Banned
Beiträge: 913
Zitat BrennPolster;23900184

Was denkste was die alles können, hätte Intel ein Konkurrenten gäbe es auch viel schnellere CPUs.
Dann würde man nämlich wieder was in die Forschung investieren, anstatt es einfach baumeln zu lassen.



so siet es aus anfangs dachte ich als ich die benschmarks sandy vs skylake gesehen habe man da hat sich was getan teilweise 20fps mehr
pustekuchen waren 1080p benches bei 1440p gibts da bei gleichem takt nur 3-4fps unterschied

ich meine wie alt ist jetzt mein 2500k?
und der hat immer noch top gaming performance, nur dafür nutze ich den.
der wird ganz sicher noch einige jahre bei mir drinbleiben

bei den gpus wird sich in 16nm auf jeden fall was tun amd ist nvidia teilweise gleichauf
das ist ein gutes zeichen für die kunden
#43
customavatars/avatar220193_1.gif
Registriert seit: 29.04.2015

Banned
Beiträge: 965
Zitat BrennPolster;23900184
Was denkste was die alles können, hätte Intel ein Konkurrenten gäbe es auch viel schnellere CPUs.

bei der fertigung hat Intel konkurrenz, die ficken Intel gerade!

Zitat
und Highend skylake liegt sehr wohl bereits schon in der Schublade

unsinn den du nicht belegen kannst!

Zitat
aber du glaubst auch an den Weihnachtsmann, lassen wir das.

eher du stammtisch prolet!
#44
Registriert seit: 03.05.2013

Bootsmann
Beiträge: 547
BrennPolster
Welches Ziel willst du mit dieser nicht belegbaren Aussage, Intel könnte wenn sie möchten, erreichen?

Auf der anderen Seite gibt es viele Punkte die dagegen sprechen, dass Intel angebliche ultra krasse Performance zurückhält.
Somit nochmal die Frage. Was bringt deine nicht belegbare Anal drüse, ä sorry, Anal lyse?
#45
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5814
Zitat tanuki82;23900248
so siet es aus anfangs dachte ich als ich die benschmarks sandy vs skylake gesehen habe man da hat sich was getan teilweise 20fps mehr
pustekuchen waren 1080p benches bei 1440p gibts da bei gleichem takt nur 3-4fps unterschied

Wenn eine CPU in niedriger Auflösung deutlich mehr FPS bringt als eine andere, aber bei höherer Auflösung der FPS Unterschied nur noch gering ist, dann hat man wohl eher ein GPU Limit ;)

CPU Tests in Spielen werden deswegen gerne bei niedriger Auflösung und starken GPUs gemacht damit möglichst die GPU nicht limitiert.

Viele reden dagegen daß solche Tests keinen Sinn machen weil ja kein Mensch mehr in so einer Auflösung spielt, schon gar nicht mit solchen GPUs. Was ja im Prinzip auch stimmt, aber die verbeissen sich dann darauf daß in 1080p mit max. Details und Bildverbesserungen oder eben in 1440p die neue CPU ja fast nichts bringt und bei Ihnen ergo nicht wirklich schneller als die alten sind. Das ist jedoch in meinen Augen eine falsche Aussage. Klar bringt die CPU da dann nicht viel, aber die generelle Leistung der CPU darauf zu beschränken ist falsch.
Ich denke wenn man in ein bis mehreren Jahren dann die GPU auswechselt kann eine schnelle CPU durchaus was bringen. Wenn man sich ansieht wie viele Leute heute noch einen Sandy im System haben, trotzdem gepaart mit einer aktuellen GPU. Tja damals hat halt eine GTX 470 vielleicht nicht so viel mehr FPS auf einem Sandy als auf einem Core2Quad gebracht als wenn man das aktuell mit einer GTX 980 Ti machen würde.

Aber ja, Skylake bringt auf Sandy Bridge keine Weltenunterschiede. In ein paar Jahren ist man mit einem Skylake jedoch bestimmt besser dran als mit einem Sandy Bridge.

Zitat tanuki82;23900248

bei den gpus wird sich in 16nm auf jeden fall was tun amd ist nvidia teilweise gleichauf
das ist ein gutes zeichen für die kunden

Finde ich auch denn mit der neuen Fertigung ist für beide wieder einiges möglich. "Die Karten werden neu gemischt" kann man vielleicht wörtlich nehmen - haha.
#46
Registriert seit: 24.06.2015

Banned
Beiträge: 913
Zitat Bucho;23901733
Das ist jedoch in meinen Augen eine falsche Aussage. Klar bringt die CPU da dann nicht viel, aber die generelle Leistung der CPU darauf zu beschränken ist falsch.


das ist mir auch klar das die power ja vorhanden ist aber noch nicht wirklich genutzt werden kann
man wird sehen inwiefern die cpu bei der neuen gpu generation limitiert
aber das dauert noch bis 2017 denke ich bis dahin bleibt mein sandy drin
und sollte dann ein skylake erforderlich sein wird der dann auch günstiger werden
#47
customavatars/avatar209656_1.gif
Registriert seit: 25.08.2014

Bootsmann
Beiträge: 733
Zitat fdsonne;23879540
Und ganz ehrlich, wer im Jahr 2000/2001 sich ne absolute HighEnd Geforce 2 Ultra für 1200DM kauft, der kann sich 15 Jahre später sicher auch eine HighEnd 980TI/Fury X für 700€ leisten... Das sind absolute ~100€ Anstieg. Also grob 15%. Um wie viel sind die Preise im allgemeinen, also auch abseits der GPUs in den letzten 15 Jahren gestiegen? Um wie viel ist das Lohnniveau in der Zeit gestiegen?


Deutschland ist so ziemlich das Schlusslicht in Europa was Lohnerhöhungen betrifft. Euro hat schon mal einen Cut um 50% bedeutet und gestiegen sind Löhne ja, aber die Kosten umso mehr!
2010: https://www.tagesschau.de/wirtschaft/bruttoloehne100.html
2010: Gehältervergleich der Industriestaaten: Deutschland ist Lohnminus-Meister - SPIEGEL ONLINE
2013: http://www.nachdenkseiten.de/upload/bilder/141425_wl_01.gif

Das wird sich mit der aktuellen Politik und Wirtschaft auch nicht mehr ändern...Von daher würde ich auch sagen, dass man heute mehr zahlt!
Ich werde mir auch eine Fury zulegen, weil ich es brauche aber preislich versteht man es bei einer Fury eher als bei der 980ti.
980ti muss richtig saftige Gewinne generieren, so einfach wie das im vergleich zur Fury zu produzieren ist :)
#48
Registriert seit: 28.09.2015

Gefreiter
Beiträge: 61
Gute Tag an alle. Es scheint wohl jetzt als bestätigt das der stacked Speicher in der zweiten Ausführung kommt. Jetzt sollen sie noch den Display port 1.3 bestätigen, dann wird es wahrscheinlich meine nächste Karte. Wobei ich sehr offen bin und sicherlich zu Amd rüber schaue und dem besseren Produkt zusage.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]