> > > > Endlich Besserung bei TSMC? 40-nm-GPUs von NVIDIA Ende September

Endlich Besserung bei TSMC? 40-nm-GPUs von NVIDIA Ende September

Veröffentlicht am: von

tsmc_logoIn einem Artikel der Digitimes wird primär über die Probleme des Auftragsfertigers UMC mit seinem 65-nm-Prozess berichtet. Viel interessanter für die meisten unserer Leser dürfte jedoch eine kleine Bemerkung am Ende des Berichts sein, die auf die aktuelle Lage der Chip-Manufaktur TSMC eingeht. Aufgrund der schlechten Ausbeute an brauchbaren Chips im 40-nm-Verfahren von TSMC, verzögert sich der Start der neuen GPUs von AMD und NVIDIA und die bereits gelaunchte Radeon HD4770 von AMD ist alles andere als gut verfügbar. Aus industrienahen Quellen will Digitimes nun erfahren haben, dass sich die Ausbeute an funktionsfähigen 40-nm-Chips verbessert habe. Es wird von einer Yield-Rate von über 60 Prozent gesprochen. Vor einigen Wochen war noch von weniger als 25 Prozent die Rede und einer möglichen Besserung erst im August.

Ein anderer Bericht der Internetseite scheint die gute Nachricht zu bestätigen. Laut der chinesischen Commercial Times erwarte NVIDIA den Start seiner - auf 40-nm-GPUs basierenden - Grafikkarten GeForce GT220 und G210 zum Ende des Septembers. Bislang ging man eher von Oktober aus. Als Grund für den früheren Launch wird auch hier ein verbesserter 40-nm-Prozess von TSMC angeführt.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (19)

#10
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Vizeadmiral
Beiträge: 7081
Zitat PCZeus;12397783

Wo genau liegen denn da die Probleme? Weiß jemand genaueres dazu?


28nm soll es laut TSMC vielleicht sogar schon 2010 geben - wird sicher nicht einfach, da am anfang eine gute Yield - Rate zu realisieren.

Zitat

Zitat Channel Partner zu TSMCs Probs mit der 40nm Fertigung:

Statt wie erwartet deutliche Einsparungen beim Energieverbrauch zu ermöglichen, sollen die von TSMC hergestellten 40nm-Samples an starken Leckströmen leiden. Dieser Effekt ist bei den immer kleineren Strukturen zwar vollkommen normal, soll aber bei TSMC dafür sorgen, dass die 40nm-Chips eventuell mehr Energie verbrauchen als die bisherigen 55nm-Produkte


Also atm 60% bei Low - End (G210 / GT220) bis Midrange GPUs (HD 4770) klingt net schlecht. Wichtig ist nun im Hinblick auf die deutlich komplexeren DX 11 High - End GPUs bis Herbst / Späterherbst auch hier eine ähnlich profitable Ausbeute zu erlangen. Das dürfte erwartungsgemäßg beim 2,4 Mrd. Transistor "schweren" G(T)300 deutlich schwieriger werden als beim viel kleineren RV870 (meinte es wären dann etwa 475 mm² vs. 190 mm²).

MfG
Edge
#11
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Handelt es sich bei dem 40nm-Verfahren von TSMC um Immersionslithographie?
Da muss sich aber noch einiges verändern bevor die ersten 40nm High-End GPUs auf den Markt kommen. Ein G300 mit heftigen Leckströmen und zu niedrigen Taktraten wäre nicht so gut
#12
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Vizeadmiral
Beiträge: 7081
Ja, basiert noch auf Immersionlithographie - dies wird wohl auch noch beim 28nm und 22nm (ab 2011 - imho wohl eher für CPUs) Fertigungsprozess der Fall sein. nV will ja schon am liebsten Anfang 2010 im 28nm Prozess fertigen lassen - hoffentlich gibt das kein Reinfall.

Nun ja - man hat ja aus früheren Fehlern gelernt und so sollten die ersten 28nm nV GPUs auch allerhöchstens Midragen - Karten werden.

Jo - hohe Leckströme beim G(T)300 wär wirklich nicht gut - gerade wo doch das Taktpotenzial durch 40nm (siehe etwa HD 4770) so hoch ist.

Hier würde man mit niedrigen Taktraten viel Leistung verschenken.

Aber ich bin mal optimistisch, dass die Probleme auch bei High End GPUs bis Ende Oktober / November in den Griff gekriegt werden (dann soll ja die GTX 300 Serie kommen).
#13
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Anfang 2010 schon in 28nm halte ich persönlich für etwas verfrüht. Da sind die 40nm Karten erst vor kurzem in den Handel gekommen und nVidia will die Midrange und Low-End Karten wieder neu aufsetzen?
#14
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Vizeadmiral
Beiträge: 7081
Nun ja - der Plan sieht halt vor, dass TSMC im Q1/10 schon in 28nm produziert.

Ich persöhnlich würde aber auch erstmal bis Mitte 2010 auf 40nm setzen - ich hab da aber nichts zu sagen. :fresse:


Ich denke mal, dass die ersten Karten auf die dies zu trifft im Midrange und Performance Segment angesiedelt sind - mit abgespecktem G(T)300.

Vergleichbar im Preis wohl mit den heutigen 9400 GT und schneller - bis etwa GTS 250.
#15
customavatars/avatar50294_1.gif
Registriert seit: 27.10.2006

Kapitänleutnant
Beiträge: 1615
Und wenn die Leckströme zu groß sind führt man halt einfach ein 10pin PCIe ein und knallt davon dann 2 An die GPU, den wenigstens Kunden achten doch darauf wieviel Performance sie pro Watt bekommen. Hier im Forum seh ich dies jedoch anders, da dies ein Hardwareforum ist und hier doch die meisten sich mit sowas auskennen :)
Ich Hoffe allerdings das es mit 2 PCIe 6fach Steckern noch zu realisieren ist. Reicht ja auch irgendwie an TDP finde ich :/

MFG Jubeltrubel
#16
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Vizeadmiral
Beiträge: 7081
Also wenn das mit den 225W TDP des GT300 stimmt, dann würden 2 x 6 Pin PCIe Stecker genau reichen (2 x 75 Watt + 75 Watt aus PCIe 2.0 x16) - wenn man auf Nummer sicher geht, verwendet man wie gehabt 1 x 6+2 Pin und 1 x 6 Pin.

Die "GTX 360" wird aber definitv wohl 2 x 6 Pin Buchsen bekommen und Midrange - Karten werden wohl mit 1 x 6 Pin auskommen.
#17
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat Jubeltrubel;12398567
Und wenn die Leckströme zu groß sind führt man halt einfach ein 10pin PCIe ein und knallt davon dann 2 An die GPU, den wenigstens Kunden achten doch darauf wieviel Performance sie pro Watt bekommen. Hier im Forum seh ich dies jedoch anders, da dies ein Hardwareforum ist und hier doch die meisten sich mit sowas auskennen :)
Ich Hoffe allerdings das es mit 2 PCIe 6fach Steckern noch zu realisieren ist. Reicht ja auch irgendwie an TDP finde ich :/

MFG Jubeltrubel


Das wäre eine Lösung, nur funktioniert das bis zu dem Punkt wo man so viel Spannung anliegen hat und die Karte dermaßen viel Strom aufnimmt, dass es zu Elektronenmigration kommt...

Das wird mMn bei immer kleineren Fertigungsverfahren ein ernst zu nehmendes Thema werden.
#18
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34161
Zitat PCZeus;12403217
Das wird mMn bei immer kleineren Fertigungsverfahren ein ernst zu nehmendes Thema werden.


Wird es auch, zumahl ja bei um die 10nm laut derzeitigem Stand schluss sein wird...

Mal gucken was dann passiert, wenn die Entwicklung so weiter geht, wie bissher, dann stehen wir in 3-5Jahren schon beim derzeit technisch machbaren...
Und andere Lösungen scheinen derzeit wohl nicht in Sicht :(
#19
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat Edgecrusher86;12398255
Nun ja - der Plan sieht halt vor, dass TSMC im Q1/10 schon in 28nm produziert.

Ich persöhnlich würde aber auch erstmal bis Mitte 2010 auf 40nm setzen - ich hab da aber nichts zu sagen. :fresse:


Ich denke mal, dass die ersten Karten auf die dies zu trifft im Midrange und Performance Segment angesiedelt sind - mit abgespecktem G(T)300.

Vergleichbar im Preis wohl mit den heutigen 9400 GT und schneller - bis etwa GTS 250.


Bei einem Übergang auf einen kleineren Prozess werden immer erst kleine Chips mit wenig Leistung im neuen Prozess gefertigt. Erst danach wird der Prozess für komplexere Chips mit mehr Leistung fit gemacht. TSMC fertigt zum Beispiel schon seit knapp nem Jahr Chips in 40 nm.

Die ersten Karten von NV in 40nm werden aber die GT 21x sein die nichts mit dem GT300 zu tun haben.

Zitat fdsonne;12403587
Wird es auch, zumahl ja bei um die 10nm laut derzeitigem Stand schluss sein wird...

Mal gucken was dann passiert, wenn die Entwicklung so weiter geht, wie bissher, dann stehen wir in 3-5Jahren schon beim derzeit technisch machbaren...
Und andere Lösungen scheinen derzeit wohl nicht in Sicht :(


Da gehen die Meinungen auseinander. Das wohl kleinste bisher denkbare (nicht unbedingt machbare) scheint der 11nm Prozess zu sein. Intel möchte diesen Prozess 2015 einsetzen, wärend Experten der Halbleiterindustrie von 2022 ausgehen. Allerdings sollte man die mögliche Geschwindigkeit und Baugröße nicht nur an der Fertigungsgröße fest machen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]