> > > > Endlich Besserung bei TSMC? 40-nm-GPUs von NVIDIA Ende September

Endlich Besserung bei TSMC? 40-nm-GPUs von NVIDIA Ende September

Veröffentlicht am: von

tsmc_logoIn einem Artikel der Digitimes wird primär über die Probleme des Auftragsfertigers UMC mit seinem 65-nm-Prozess berichtet. Viel interessanter für die meisten unserer Leser dürfte jedoch eine kleine Bemerkung am Ende des Berichts sein, die auf die aktuelle Lage der Chip-Manufaktur TSMC eingeht. Aufgrund der schlechten Ausbeute an brauchbaren Chips im 40-nm-Verfahren von TSMC, verzögert sich der Start der neuen GPUs von AMD und NVIDIA und die bereits gelaunchte Radeon HD4770 von AMD ist alles andere als gut verfügbar. Aus industrienahen Quellen will Digitimes nun erfahren haben, dass sich die Ausbeute an funktionsfähigen 40-nm-Chips verbessert habe. Es wird von einer Yield-Rate von über 60 Prozent gesprochen. Vor einigen Wochen war noch von weniger als 25 Prozent die Rede und einer möglichen Besserung erst im August.

Ein anderer Bericht der Internetseite scheint die gute Nachricht zu bestätigen. Laut der chinesischen Commercial Times erwarte NVIDIA den Start seiner - auf 40-nm-GPUs basierenden - Grafikkarten GeForce GT220 und G210 zum Ende des Septembers. Bislang ging man eher von Oktober aus. Als Grund für den früheren Launch wird auch hier ein verbesserter 40-nm-Prozess von TSMC angeführt.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (19)

#10
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Zitat PCZeus;12397783

Wo genau liegen denn da die Probleme? Weiß jemand genaueres dazu?


28nm soll es laut TSMC vielleicht sogar schon 2010 geben - wird sicher nicht einfach, da am anfang eine gute Yield - Rate zu realisieren.

Zitat

Zitat Channel Partner zu TSMCs Probs mit der 40nm Fertigung:

Statt wie erwartet deutliche Einsparungen beim Energieverbrauch zu ermöglichen, sollen die von TSMC hergestellten 40nm-Samples an starken Leckströmen leiden. Dieser Effekt ist bei den immer kleineren Strukturen zwar vollkommen normal, soll aber bei TSMC dafür sorgen, dass die 40nm-Chips eventuell mehr Energie verbrauchen als die bisherigen 55nm-Produkte


Also atm 60% bei Low - End (G210 / GT220) bis Midrange GPUs (HD 4770) klingt net schlecht. Wichtig ist nun im Hinblick auf die deutlich komplexeren DX 11 High - End GPUs bis Herbst / Späterherbst auch hier eine ähnlich profitable Ausbeute zu erlangen. Das dürfte erwartungsgemäßg beim 2,4 Mrd. Transistor "schweren" G(T)300 deutlich schwieriger werden als beim viel kleineren RV870 (meinte es wären dann etwa 475 mm² vs. 190 mm²).

MfG
Edge
#11
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Handelt es sich bei dem 40nm-Verfahren von TSMC um Immersionslithographie?
Da muss sich aber noch einiges verändern bevor die ersten 40nm High-End GPUs auf den Markt kommen. Ein G300 mit heftigen Leckströmen und zu niedrigen Taktraten wäre nicht so gut
#12
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Ja, basiert noch auf Immersionlithographie - dies wird wohl auch noch beim 28nm und 22nm (ab 2011 - imho wohl eher für CPUs) Fertigungsprozess der Fall sein. nV will ja schon am liebsten Anfang 2010 im 28nm Prozess fertigen lassen - hoffentlich gibt das kein Reinfall.

Nun ja - man hat ja aus früheren Fehlern gelernt und so sollten die ersten 28nm nV GPUs auch allerhöchstens Midragen - Karten werden.

Jo - hohe Leckströme beim G(T)300 wär wirklich nicht gut - gerade wo doch das Taktpotenzial durch 40nm (siehe etwa HD 4770) so hoch ist.

Hier würde man mit niedrigen Taktraten viel Leistung verschenken.

Aber ich bin mal optimistisch, dass die Probleme auch bei High End GPUs bis Ende Oktober / November in den Griff gekriegt werden (dann soll ja die GTX 300 Serie kommen).
#13
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Anfang 2010 schon in 28nm halte ich persönlich für etwas verfrüht. Da sind die 40nm Karten erst vor kurzem in den Handel gekommen und nVidia will die Midrange und Low-End Karten wieder neu aufsetzen?
#14
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Nun ja - der Plan sieht halt vor, dass TSMC im Q1/10 schon in 28nm produziert.

Ich persöhnlich würde aber auch erstmal bis Mitte 2010 auf 40nm setzen - ich hab da aber nichts zu sagen. :fresse:


Ich denke mal, dass die ersten Karten auf die dies zu trifft im Midrange und Performance Segment angesiedelt sind - mit abgespecktem G(T)300.

Vergleichbar im Preis wohl mit den heutigen 9400 GT und schneller - bis etwa GTS 250.
#15
customavatars/avatar50294_1.gif
Registriert seit: 27.10.2006

Kapitänleutnant
Beiträge: 1615
Und wenn die Leckströme zu groß sind führt man halt einfach ein 10pin PCIe ein und knallt davon dann 2 An die GPU, den wenigstens Kunden achten doch darauf wieviel Performance sie pro Watt bekommen. Hier im Forum seh ich dies jedoch anders, da dies ein Hardwareforum ist und hier doch die meisten sich mit sowas auskennen :)
Ich Hoffe allerdings das es mit 2 PCIe 6fach Steckern noch zu realisieren ist. Reicht ja auch irgendwie an TDP finde ich :/

MFG Jubeltrubel
#16
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Also wenn das mit den 225W TDP des GT300 stimmt, dann würden 2 x 6 Pin PCIe Stecker genau reichen (2 x 75 Watt + 75 Watt aus PCIe 2.0 x16) - wenn man auf Nummer sicher geht, verwendet man wie gehabt 1 x 6+2 Pin und 1 x 6 Pin.

Die "GTX 360" wird aber definitv wohl 2 x 6 Pin Buchsen bekommen und Midrange - Karten werden wohl mit 1 x 6 Pin auskommen.
#17
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat Jubeltrubel;12398567
Und wenn die Leckströme zu groß sind führt man halt einfach ein 10pin PCIe ein und knallt davon dann 2 An die GPU, den wenigstens Kunden achten doch darauf wieviel Performance sie pro Watt bekommen. Hier im Forum seh ich dies jedoch anders, da dies ein Hardwareforum ist und hier doch die meisten sich mit sowas auskennen :)
Ich Hoffe allerdings das es mit 2 PCIe 6fach Steckern noch zu realisieren ist. Reicht ja auch irgendwie an TDP finde ich :/

MFG Jubeltrubel


Das wäre eine Lösung, nur funktioniert das bis zu dem Punkt wo man so viel Spannung anliegen hat und die Karte dermaßen viel Strom aufnimmt, dass es zu Elektronenmigration kommt...

Das wird mMn bei immer kleineren Fertigungsverfahren ein ernst zu nehmendes Thema werden.
#18
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32998
Zitat PCZeus;12403217
Das wird mMn bei immer kleineren Fertigungsverfahren ein ernst zu nehmendes Thema werden.


Wird es auch, zumahl ja bei um die 10nm laut derzeitigem Stand schluss sein wird...

Mal gucken was dann passiert, wenn die Entwicklung so weiter geht, wie bissher, dann stehen wir in 3-5Jahren schon beim derzeit technisch machbaren...
Und andere Lösungen scheinen derzeit wohl nicht in Sicht :(
#19
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat Edgecrusher86;12398255
Nun ja - der Plan sieht halt vor, dass TSMC im Q1/10 schon in 28nm produziert.

Ich persöhnlich würde aber auch erstmal bis Mitte 2010 auf 40nm setzen - ich hab da aber nichts zu sagen. :fresse:


Ich denke mal, dass die ersten Karten auf die dies zu trifft im Midrange und Performance Segment angesiedelt sind - mit abgespecktem G(T)300.

Vergleichbar im Preis wohl mit den heutigen 9400 GT und schneller - bis etwa GTS 250.


Bei einem Übergang auf einen kleineren Prozess werden immer erst kleine Chips mit wenig Leistung im neuen Prozess gefertigt. Erst danach wird der Prozess für komplexere Chips mit mehr Leistung fit gemacht. TSMC fertigt zum Beispiel schon seit knapp nem Jahr Chips in 40 nm.

Die ersten Karten von NV in 40nm werden aber die GT 21x sein die nichts mit dem GT300 zu tun haben.

Zitat fdsonne;12403587
Wird es auch, zumahl ja bei um die 10nm laut derzeitigem Stand schluss sein wird...

Mal gucken was dann passiert, wenn die Entwicklung so weiter geht, wie bissher, dann stehen wir in 3-5Jahren schon beim derzeit technisch machbaren...
Und andere Lösungen scheinen derzeit wohl nicht in Sicht :(


Da gehen die Meinungen auseinander. Das wohl kleinste bisher denkbare (nicht unbedingt machbare) scheint der 11nm Prozess zu sein. Intel möchte diesen Prozess 2015 einsetzen, wärend Experten der Halbleiterindustrie von 2022 ausgehen. Allerdings sollte man die mögliche Geschwindigkeit und Baugröße nicht nur an der Fertigungsgröße fest machen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]