> > > > NVIDIA spricht über die 28-nm-Fertigung von Kepler

NVIDIA spricht über die 28-nm-Fertigung von Kepler

Veröffentlicht am: von

nvidiaDas NVIDIA mit "Kepler" bzw. der GK104-GPU bei der Effizienz einen Schritt in die richtige Richtung gemacht hat, zeigte bereits der erste Test der GeForce GTX 680. Da NVIDIA nicht einfach nur einen Shrink einer bestehenden Architektur auf eine kleinere Fertigung vollzogen hat, sind die Einsparungen und Optimierungen beim Stromverbrauch also nicht einfach nur auf die kleineren Transistoren zurückzuführen. Dennoch geht NVIDIA in einem Blogeintrag auf die Details genauer ein.

TSMC-NVIDIA-Kepler-28nm-vs-40nm-1

Eigenen Angaben zufolge hat NVIDIA über drei Jahre hinweg zusammen mit TSMC an der Fertigung von "Kepler" gearbeitet. Letztendlich dabei herausgekommen ist eine 28 nm High Performance (HP) Fertigung mit der 1. Generation der High-K Metal Gate (HKMG) Technologie zusammen mit der 2. Generation der SiGe (Silicon Germanium) Dotierung. Im Vergleich zu früheren SiON-Gates in den Transistoren verursacht das Dielektrikum beim HKMG-Verfahren weitaus geringere Leckströme. Durch die SiGe-Dotierung stehen mehr bewegliche Elektronen zur Verfügung, was die Leitfähigkeit weiter erhöht. Insgesamt konnte die benötigte Energie um 15 Prozent und die Leckströme um 50 Prozent im Vergleich zur 40-nm-Fertigung reduziert werden. Insgesamt spricht NVIDIA von einer Verbesserung der Effizient um 35 Prozent.

TSMC-NVIDIA-Kepler-28nm-vs-40nm-2

Über die dreijährige Zusammenarbeit zwischen NVIDIA und TSMC hinweg haben beide Unternehmen ein sogenanntes Production Qualification Vehicle (PQV) entwickelt, dass es beiden Unternehmen erlaubte das Design und die Fertigung über die verschiedenen Phasen des Prototyping hindurch zu optimieren - schon weit bevor der erste Tape-Out stattfand.

Laut eigenen Angaben hat NVIDIA vor kurzem das erste PQV für den 20-nm-Prozess erhalten und hofft somit die Ausbeute und Effizient kommender GPUs weiter verbessern zu können.

Social Links

Ihre Bewertung

Ø Bewertungen: 1

Tags

es liegen noch keine Tags vor.

Kommentare (42)

#33
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6548
Der GK110 ist doch gar nicht primär für Gamer gedacht. Die Freaks haben sich eh nicht über den Verbrauch beschwert, denen war das egal. Ich meinte das bzgl. der 680. Im Schnitt schnellste Karte im relevanten Anwendungsbereich (<= 2560x1600), sparsamer, (imo) mehr sinnvolle Features. Nur der Preis stört noch etwas aktuell, aber ansonsten ist die 680 was Gaming angeht, das Maß der Dinge. Bei Fermi (v1) konnte man ja noch über den Verbrauch meckern, hier geht das nicht mehr. Entsprechend wird GK110 Tahiti bei GPGPU in den Boden rammen, jedenfalls ist das meine Vermutung. Das Ding wird größer sein und mehr verbrauchen, aber ich schätze bei DP/W wird man die Firestream Karten schlagen.
#34
customavatars/avatar145005_1.gif
Registriert seit: 12.12.2010

Oberleutnant zur See
Beiträge: 1355
Zitat Pirate85;18803933
Erm, was hat das jetzt damit zu tun? Wenn man was nicht richtig optimieren kann stellt man es halt um... wo ist da jetzt das Problem?

Bzw. warum diskutiere ich hier überhaupt mit dir über so nen Quark? :vrizz:


Also doch Kopie. Warum negierst du es dann? :confused:

Ziemlich offensichtlich, dass Slow Island mehr mit Fermi zu tun hat als mit Cayman. Dagegen ist Kepler im Grunde nur GF114 auf Stereoide.

Und daher meine Frage: Was hat AMD die Umstellung der Architektur jetzt nochmal genau gebracht? Deswegen diskutierst du doch mit mir?! Oder ging es dir nur um ein bisschen virales Marketing ala "oh, da kritisiert jemand AMD - schnell mal vom Thema ablenken"?

Zitat boxleitnerb;18804115
Der GK110 ist doch gar nicht primär für Gamer gedacht. Die Freaks haben sich eh nicht über den Verbrauch beschwert, denen war das egal. Ich meinte das bzgl. der 680. Im Schnitt schnellste Karte im relevanten Anwendungsbereich (<= 2560x1600), sparsamer, (imo) mehr sinnvolle Features. Nur der Preis stört noch etwas aktuell, aber ansonsten ist die 680 was Gaming angeht, das Maß der Dinge. Bei Fermi (v1) konnte man ja noch über den Verbrauch meckern, hier geht das nicht mehr. Entsprechend wird GK110 Tahiti bei GPGPU in den Boden rammen, jedenfalls ist das meine Vermutung. Das Ding wird größer sein und mehr verbrauchen, aber ich schätze bei DP/W wird man die Firestream Karten schlagen.


Wird dieser Quatsch immer noch wiederholt? Unglaublich. BigK wird genauso gut für Spiele sein wie GF110. Eventuell sogar besser. Denn eins sollte man im Jahr 2012 wirklich verstanden haben: Gaming = Graphics = Quadro.
#35
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6548
Zitat sontin;18804121
Wird dieser Quatsch immer noch wiederholt? Unglaublich. BigK wird genauso gut für Spiele sein wie GF110. Eventuell sogar besser. Denn eins sollte man im Jahr 2012 wirklich verstanden haben: Gaming = Graphics = Quadro.


Sei doch nicht gleich so aggressiv, nur weil jemand anderer Meinung ist als du. GK110 wird natürlich auch als Geforce verkauft. Aber mit dem Fokus auf GPGPU muss man Kompromisse eingehen. 7 Mrd. Transistoren gibts nicht umsonst. Die Mehrperformance ggü. GK104 wird man sich mit einem überproportional gestiegen Verbrauch und Diefläche erkaufen müssen. Starke DP-Performance und Effizienz dort bringt einem Spieler rein gar nichts.

Willst du nochmal eine Schätzung machen oder hat es dir gereicht, mit GK104 massiv danebengelegen zu haben (statt 60% ggü. GF110 nur 30%)? Ich schätze GK110 wird auf GK104 40% drauflegen, die TDP wird aber bei 300W liegen. Preise...teuer :D
#36
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
@sontin
Trotzdem ist Big K fürs reine Gaming eine "Verschwendung" von Resourcen da hat er schon recht

Gamer brauchen keine zusätzlichen DP Einheiten auch wenn diese in der Lage sind in SP zu rendern blähen sie das Chipdesign doch um einige Größen zusätzlich auf
#37
customavatars/avatar145005_1.gif
Registriert seit: 12.12.2010

Oberleutnant zur See
Beiträge: 1355
Zitat boxleitnerb;18804182
Sei doch nicht gleich so aggressiv, nur weil jemand anderer Meinung ist als du. GK110 wird natürlich auch als Geforce verkauft. Aber mit dem Fokus auf GPGPU muss man Kompromisse eingehen. 7 Mrd. Transistoren gibts nicht umsonst. Die Mehrperformance ggü. GK104 wird man sich mit einem überproportional gestiegen Verbrauch und Diefläche erkaufen müssen. Starke DP-Performance und Effizienz dort bringt einem Spieler rein gar nichts.


Es ist nicht "aggressiv", wenn man mit den Augen rollt, weil Leute eben nicht gewisse Dinge verstehen.
GF110 Karten haben sich prächtig im Gamingmarkt verkauft. Du hast sogar 2x GTX580 Karten. Irgendwas muss also nVidia richtig gemacht haben.

Zitat

Willst du nochmal eine Schätzung machen oder hat es dir gereicht, mit GK104 massiv danebengelegen zu haben (statt 60% ggü. GF110 nur 30%)? Ich schätze GK110 wird auf GK104 40% drauflegen, die TDP wird aber bei 300W liegen. Preise...teuer :D


Es sind keine 60%? Oh. Dann muss die Karte doch langsamer als die 7970 sein, sowie es von jedem hier prophezeit wurde.
#38
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6548
Zitat sontin;18804283
Es ist nicht "aggressiv", wenn man mit den Augen rollt, weil Leute eben nicht gewisse Dinge verstehen.




Es sind keine 60%? Oh. Dann muss die Karte doch langsamer als die 7970 sein, sowie es von jedem hier prophezeit wurde.


Ich verstehe sehr gut und habe auch erklärt warum.

Ich spreche immer (!) vom Schnitt. Einzelfälle interessieren mich nicht und haben es nie. Und ich bin ziemlich sicher, dass das die große Mehrheit hier auch so sieht. Schließlich kauft man sich eine Karte nicht nur für ein oder zwei Spiele, sondern für Dutzende. Fakt ist, du lagst falsch. Aber du darfst natürlich gerne eine neue Prognose abgeben, dann sehen wir in Q3/Q4, ob du diesmal näher dran liegst.
#39
customavatars/avatar18548_1.gif
Registriert seit: 27.01.2005

Flottillenadmiral
Beiträge: 5465
Ich vermute mal das die Entwickler beim GK104 vielleicht auf 90% Game und 10% prof. Anwendung Eigenschaften wert legten. Beim GK1x0 wird wohl die Wichtung bei vielleicht 50 Game und 50 prof. Anwendung liegen. Ich schäze mal, das nur durch diese Ausrichtung auf zwei weitere Anwendungsfelder (Quadro/Tesla) solch eine 550mm² Monster GPU wirtschaftlich wird. Dadurch dürfte, gemessen an der jeweils aufgebrachten Transistormenge, der GK1x0 "ineffizienter" als der GK104 in Games sein. Weil wie bereits mehrfach gesagt einige GPGPU Transistoren verbaut werden, welche bei Games vielleicht völlig überflüssig sind und nix an Mehrleistung erzeugen.

Früher oder später werden wirs ja aber zum Glück wissen und nicht nur Vermutungen anstellen :)


PS: Wenn man alle computerbase Leistungsübersichten (ohne AA/mit AA/nach API/mit SSAA) in den verschiedene Auflösungen (1680x1050/1920x1080/2560x1600) addiert, kommt man auf einen Durchschnitt von genau 33% Mehrleistung der GTX 680 zur 580.
#40
customavatars/avatar145005_1.gif
Registriert seit: 12.12.2010

Oberleutnant zur See
Beiträge: 1355
Zitat mr.dude;18799610

Man war ein Quartal später als die Konkurrenz dran, obwohl der GF110 sogar leicht früher als Cayman kam. Vom grossen Kepler ist bisher noch gar nichts zu sehen. Wo genau hat denn die Abspaltung gut gefruchtet?


Hier: NVIDIA Unveils GeForce GTX 690 -- Dual Graphics Card Combines World's Fastest Gaming Performance With Sleek, Sexy Design - NVIDIA Newsroom

Kaufbar in 4 Tagen. Damit war es das für AMD. Die können schonmal ihre tolle Webseite anpassen. Und ein neues Logo - mein Avatar passt doch zur jetzigen Situation.
#41
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6258
Zitat sontin;18803493
Vorallem G92 und GT200 ist doch mit dem Vorgang jetzt identisch.

Nicht wirklich. Beide basierten doch auf unterschiedlichen Architekturen bzw war der GT200 die Weiterentwicklung der Architektur. G92 war mehr oder weniger ein G80 Shrink mit leichten Überarbeitungen.

Zitat sontin;18803493
Ersten sind es ca. 10% und zweitens sind 10% nach 2 Monaten und 3 Wochen deutlich besser als 20% nach 14 Monaten.

Ich sehe auf CB zwar Unterschiede von 1-11%, je nach Auflösung und AA/AF, was im Schnitt weniger als 10% sind. Aber gut, ob 5% oder 10% verändert die Sachlage natürlich vollkommen. :rolleyes:

Zitat sontin;18803493
Nö. Es geht darum, dass man angeblich mit Lahmiti doch so schön auf dem GPGPU Zug aufspringen könnte. Dumm nur, dass die, die wirklich interesse haben, dass schon in den letzten Jahren mit Fermi und Cuda getan haben. Die, die also erstmal auf dem Lahmiti-Zug wollen, sind Gamer.
Also nochmal: Was hat AMD's Fermi Kopie ihnen gebracht?

Nun gut, deine Unsachlichkeit ist ja für jedermann zu sehen. Insofern nehme ich deine Aussagen nicht wirklich ernst. Aber um mal was wahres beizutragen, für die Leute, die sachlich über das Thema diskutieren wollen, AMD hat zB schon bei der HD 3870 Double Precision Support implementiert, um GPUs auch mehr Möglichkeiten für GPGPU zu geben. Wenn du glaubst, die Fokussierung auf GPGPU gibt's erst seit Fermi, liegst du ziemlich falsch. Auch war CUDA bei weitem nicht die erste softwareseitige Lösung für GPGPU. Eine Fermi Kopie ist SI natürlich nicht. Dafür sind die Unterschiede der Architekturen viel zu gravierend. SI hat mehr mit NI als mit Fermi zu tun. Fermi hat eine ganz andere Pipeline, eine andere Shader Architektur, eine andere Geometrie Engine, andere Taktdomains, etc.

Zitat sontin;18803612
Okay, wenn man den Umbau auf die skalare Rechenarchitektur, das hierarchische Cache-System, den unified L2-Cache etc. ignoriert, dass ist Slow Island keine Fermi (GF100) kopie.

SI ist keine skalare Architektur. Nur weil das einige Seiten immer mal wieder schreiben, wird es nicht wahr. SI ist grundsätzlich aus Vector-ALUs aufgebaut, 16-fach. Sozusagen "16D", wenn man die Analogie zur vorherigen "5D" bzw "4D" Architektur sucht. Skalare Einheiten gibt's nur für Integer. Man sollte auch immer zwischen der Vektorisierung der Daten und der Instruktionen unterscheiden. Non-VLIW gehört zu letzterem und ist ganz gewiss keine Nvidia Erfindung. Intel GPUs sind zB auch Non-VLIW. ATIs GPUs vor dem R600 waren meines Wissens auch Non-VLIW. Und was soll bitteschön an einem "hierarchischen Cache-System" besonderes sein? Ein Cache-System ist immer hierarchisch. Und das gab es auch schon vor Fermi.

Zitat sontin;18804121
Und daher meine Frage: Was hat AMD die Umstellung der Architektur jetzt nochmal genau gebracht?

Grundsätzlich ging es um die Aussage von Poloniumium. Und diese war nun mal subjektiv und lässt sich nicht anhand von Fakten belegen. Aber um auf deine Frage zu antworten, GCN wurde vor allem in Hinblick auf Fusion entwickelt. Das erste Design kommt nächstes Jahr in Form von Kaveri. Weitere werden folgen. Was die Architektur gebracht hat, kannst du also gerne nochmal in ein paar Jahren nachfragen.

Zitat sontin;18804886
Kaufbar in 4 Tagen. Damit war es das für AMD. Die können schonmal ihre tolle Webseite anpassen. Und ein neues Logo - mein Avatar passt doch zur jetzigen Situation.

Klar, das war es für AMD. Die sollten am besten gleich den ganzen Laden dicht machen, oder? Seit wann sind Dual-GPU Karten wirtschaftliche Zugpferde? Das ist ein Nischenmarkt, mehr nicht. Mensch Junge, wir haben über die eventuelle Abspaltung von GK104 und GK110 diskutiert und nicht über irgendwelche Dual-GPU Lösungen.
#42
customavatars/avatar108709_1.gif
Registriert seit: 17.02.2009
Sachsen, Naunhof b. Leipzig
Admiral
Beiträge: 17528
Er wird es nicht kapieren... von daher...

Selten sowas Verblendetes gesehen... schon krass.



getippt auf meinem Defy (@1,2Ghz + CM7.1) mit der HardwareLuxx-App :hail:
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]