> > > > NVIDIA arbeitet schon an GK200-GPU

NVIDIA arbeitet schon an GK200-GPU

DruckenE-Mail
Erstellt am: von

nvidiaZugegeben: Zum jetzigen Zeitpunkt mag es noch etwas zu früh für Spekulationen sein, kam die erste Grafikkarte der GeForce-GTX-600-Reihe doch erst im März dieses Jahres auf den Markt. Die Kollegen von Videocardz.com wollen aber jetzt auf ein vermeintliches NVIDIA-Dokument gestoßen sein, das belegen soll, dass die nächste Generation unter dem Codenamen GK200 laufen wird.

Bislang gab es hierzu zwei mögliche Ansätze: GK110 oder GK114 jeweils für das Topmodell. Doch die ausdrücklich genannte GK208-GPU dürfte später wohl nicht im High-End-Bereich anzusiedeln sein, wohl eher im Einsteiger-Segment. Mid-Range und High-End dürften dann vermutlich unter GK206 und GK204 laufen – je kleiner die Zahl, desto größer/schneller der Chip. Intern gearbeitet an diesem Grafikchip soll im Zeitraum von Juni bis September 2012 worden sein.

steam-halloween-sales-angebot
Basiert die GeForce-700-Familie auf GK200?

Weiterhin wollen die Kollegen in Erfahrung gebracht haben, dass die kommende GeForce GTX 780 bzw. der Nachfolger des aktuellen Topmodells mit einer Shaderanzahl von 1728 bis 2212 CUDA-Cores auf sich aufmerksam machen könnte.

In Kürze soll NVIDIA erst einmal den GK110 auf den Markt bringen. Ob Tesla K20 aber auch für den Desktop-Markt erscheinen wird, bleibt abzuwarten. Dann wird sich vielleicht auch die Echtheit dieses Dokuments besser einschätzen können.

Social Links

Kommentare (18)

#9
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Eigentlich deutet vieles darauf hin, dass Nvidia wieder eine abgespeckte Gaming GPU bringt.
Die Produktion des GK110 wirft derzeit keine guten Yields ab, deswegen ist das binning auch aktuell auf 13SMX beschränkt.
Gerüchte um einen GK208 ( 2xGK104) von der Namensgebung.
Ich tippe auf einen aufgebohrten GK 104 mit ~2000 Shadern ~1000 mhz defaultTakt und ~1100 Mhz Turbo Takt. Und insgesamt eine Mehrleistung von gut 20 vielleicht auch 25%.
#10
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6546
Größere Nummern bedeuten kleinere Chips. GK208 wäre ein Lowend Chip.
Und was du da spekulierst, macht keinen Sinn. GK104 ist schon jetzt etwas bandbreitenlimitiert, gib ihm satte 33% mehr Shader und es wird nicht besser, das wäre pure Verschwendung. Pack ein 384bit Interface drauf und wir machen GK110 im Desktop obsolet. Man legt den GK104 lieber mit kleinen Verbesserungen neu auf und bringt ihn im Performancesegment, das ist viel billiger als einen neuen Chip zu entwickeln. Übrigens, es gibt K20X mit 14 SMX. Abgesehen davon haben wir noch ca. 4 Monate bis zu einem möglichen Launch im März - bis dahin kann man genug 14/15 SMX Dies sammeln - die wird man wohl kaum wegschmeißen oder? :)
#11
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Korvettenkapitän
Beiträge: 2432
Box du redest auch wie es dir passt, oder? GK110 ist Wirtschaftlich gesehen eine Katastrophe und wird garantiert nicht als 13SMX oder gar 14SMX den Weg in den Markt finden.. Bisher haben nur Supercomputer die möglichkeit diese zu bekommen und die derzeitigen Yieldraten lassen ja nichtmal zu, dass Cray z.b. mehr von diesen Rechenmonstern verkaufen kann. Ich tippe daher wie Schaffe auf einen GK204 mit 20-25% Mehrleistung eines GK104, die GTX690 wird wohl Anwednungstechnisch ne weile die No. 1 bleiben
Und ja GK104 ist bandbreitenlimmiertiert, und? Das hat NV in der Vergangenheit auch wenig gejuckt.
Es wird wieder eine Gamer Version geben mit GK204 und eine Consumer HPC Version irgendwann 2014 um die Tesla abzulösen. Alles andre wäre ja auch Schwachsinn
#12
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6546
Hast du eine Quelle für die Yieldraten? Absolutwerte bitte und kein Semiaccurate, die um den heißen Brei herumreden und nichts Greifbares bringen. 13 SMX ist recht niedrig gegriffen, da sind immerhin 14% deaktiviert. Wie kommst du also darauf, dass sowas nicht in den Markt finden wird?

Und du bist witzig - Bandbreite interessiere Nvidia nicht, die zaubern dann einfach oder wie? Wo sollen die 20-25% Mehrleistung denn herkommen? Aber ich rede es, wie mir es passt? :D
Ach ja: Schwachsinn ist es, zig Millionen in die Entwicklung von GK110 zu stecken und ihn dann wegen angeblich mieser Yields und der Beschränkung auf das Profisegment kaum zu verkaufen. Sprich ein Produkt zu entwickeln und die Entwicklungskosten dafür absichtlich nicht mehr reinzuholen. Also was noch Bescheuerteres hab ich ja schon lang nicht mehr gelesen.
#13
customavatars/avatar55236_1.gif
Registriert seit: 07.01.2007
D:\NRW\Cologne
Kapitänleutnant
Beiträge: 1785
Lustig sind die Leute die sagen "ach wenn nach der jetzigen Generation noch eine kommt nehme ich die nächste", als hätte bis da hin noch nicht festgestanden, dass eine neue Generation kommen wird :D
#14
customavatars/avatar100302_1.gif
Registriert seit: 10.10.2008
Kölle
Fregattenkapitän
Beiträge: 2748
Da haste wohl recht. :haha:
#15
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Unrockstar;19717811
GK110 ist Wirtschaftlich gesehen eine Katastrophe und wird garantiert nicht als 13SMX oder gar 14SMX den Weg in den Markt finden..


Wirtschaftliche Katastrophe?

Na da hat Nvidia die Quartalszahlen wieder mal stark geschönt nicht war:haha:

Und das er garantiert nicht als 14 SMX Paket kommt hast du wo aufgeschnappt?

Nochmal K20 alias Tesla ist BigK und dieser hat lediglich einen termalen Spielraum bis 225Watt

Oak Ridge besitzt bereits Zwanzigtausend dieser Chips und falls diese Wissenschaftler nicht gänzlich zu blöd sind ihre eigenen Spezifikationen zu verkennen werkeln dort bereits 14 Shadercluster pro Tesla Karte
http://www.hardwareluxx.de/community/f14/nvidias-tesla-k20-bzw-gk110-doch-mit-14-smx-clustern-und-2688-cuda-kernen-922326.html

Man kann sich dann sicherlich ausmalen was mit einem Budget von 300Watt,wie es dem Geforce zugestanden wird möglich ist.Und das Märchen von Fertigungsproblemen ist angesichts der schon ausgelieferten Chips u anderen Verpflichtungen GTX6XX,Apple Deals und andere mobile Lösungen im 28nm Prozess,ebenso reichlich obsolet,denn die Fertigungskapazitäten sind nunmal begrenzt bei TSMC auch für einen exklusiven und langjährigen Partner wie Nvidia

Fraglich ist lediglich ob Nvidia das bringen will,nicht ob es geht,denn dazu existieren nunmal schon real greifbare Anschauungsobjekte
#16
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat boxleitnerb;13
Und du bist witzig - Bandbreite interessiere Nvidia nicht, die zaubern dann einfach oder wie? Wo sollen die 20-25% Mehrleistung denn herkommen? Aber ich rede es, wie mir es passt?


Warum? 20 bis 25% Merhleistung kannst du auch aus 256bit generieren, siehe Übertaktungen, dasist überhaupt kein Problem nach einem Jahr Wartezeit.
Schnellerer GDDR5 Speicher ist für 2013 ja auch angekündigt.

Zitat
Schwachsinn ist es, zig Millionen in die Entwicklung von GK110 zu stecken und ihn dann wegen angeblich mieser Yields und der Beschränkung auf das Profisegment kaum zu verkaufen. Sprich ein Produkt zu entwickeln und die Entwicklungskosten dafür absichtlich nicht mehr reinzuholen.


Du meinst die teildefekten Chips dann in den Gamermarkt entlassen? Mit wievielen SMX? 10? 12? Sowas kann man gleich knicken und lieber ne "MAinstream" GPU als High End vermarkten.

[QUOTEScully1234]Man kann sich dann sicherlich ausmalen was mit einem Budget von 300Watt,wie es dem Geforce zugestanden wird möglich ist.Und das Märchen von Fertigungsproblemen ist angesichts der schon ausgelieferten Chips u anderen Verpflichtungen GTX6XX,Apple Deals und andere mobile Lösungen im 28nm Prozess,ebenso reichlich obsolet,denn die Fertigungskapazitäten sind nunmal begrenzt bei TSMC auch für einen exklusiven und langjährigen Partner wie Nvidia
[/QUOTE]

Viel interessanter dürfte die Frage sein, warum Nvidia entgegen bisherier Vorgehensweise die professionellen Karten vor den Gamerkarten bringt.
Ich würde Fertigungsprobleme nicht als Märchen abtun, sondern eher als logische Konsequenz aus einerm großen Die und aus einer neuen Fertigung.

Sowas ist aus meiner Sicht auch ein Anzeichen dafür, dass keine Gamingkarten des GK110 kommen.
Selbst Nvidia hat angekündigt man wählt ein neues Design.

Und ich schätze mal das ist ein aufgebohrter GK 104.
#17
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Schaffe89;19721247


Viel interessanter dürfte die Frage sein, warum Nvidia entgegen bisherier Vorgehensweise die professionellen Karten vor den Gamerkarten bringt.
Ich würde Fertigungsprobleme nicht als Märchen abtun, sondern eher als logische Konsequenz aus einerm großen Die und aus einer neuen Fertigung.

.


Da hast du allerdings recht ich tu das bei der belegbaren Anzahl an ausgelieferten Chips sogar als Hirnfurz ein paar Unverbesserlicher ab;)

Ein Klischee was bedient werden muss,so wie die Intelverschwörung gegen AMD,die immer wieder als Alibi dient

Denn Nvidia hat u hatte in 28nm nicht nur Verpflichtungen am obersten Ende wo sich K20 wiederfindet.Andere mögen wohl verrstehen das Schwergewichte wie Apple oder eben Oak Ridge und andere Großcluster sich nicht gerne vertrößten lassen und deshalb auch primär beliefert werden und nebenbei musste auch noch die 600er Serie gestämmt werden mit dem ganzen mobilen Part.

Da werden andere (nicht du natürlich) ebenso verstehen das die 28nm Wafer bei TSMC bis zum Äußersten ausgereizt waren.Genau das prangerte Huang bereits im Mai an

An "Fertigungsproblemen" kann es augenscheinlich ja nicht gelegen haben,sonst wäre die Bilanz,bei den diskreten Steckkarten,sicher nicht so positiv ausgefallen wie sie ist,sondern hätte das selbe traurige Bild gezeichnet wie zu Fermi 1.0.
#18
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6546
Zitat Schaffe89;19721247
Warum? 20 bis 25% Merhleistung kannst du auch aus 256bit generieren, siehe Übertaktungen, dasist überhaupt kein Problem nach einem Jahr Wartezeit.
Schnellerer GDDR5 Speicher ist für 2013 ja auch angekündigt.

Du meinst die teildefekten Chips dann in den Gamermarkt entlassen? Mit wievielen SMX? 10? 12? Sowas kann man gleich knicken und lieber ne "MAinstream" GPU als High End vermarkten.

Viel interessanter dürfte die Frage sein, warum Nvidia entgegen bisherier Vorgehensweise die professionellen Karten vor den Gamerkarten bringt.
Ich würde Fertigungsprobleme nicht als Märchen abtun, sondern eher als logische Konsequenz aus einerm großen Die und aus einer neuen Fertigung.

Sowas ist aus meiner Sicht auch ein Anzeichen dafür, dass keine Gamingkarten des GK110 kommen.
Selbst Nvidia hat angekündigt man wählt ein neues Design.

Und ich schätze mal das ist ein aufgebohrter GK 104.


Nein kann man nicht mMn. In manchen Spielen könnte es klappen, aber in den meisten wird die Mehrleistung des Chips nicht gescheit ankommen. Es ist vieles angekündigt, obs dann auch rechtzeitig kommt ist fraglich. Und zu welchem Preis/Verbrauch - da kann man dann gleich GK110 nehmen. Mehr wie 7 Gbps wirds wohl auch nicht sein, sollte es so kommen, das wären 16% mehr und noch etwas entfernt von den bis zu 25%.

Nein, du hast mich nicht verstanden. Ich meine, wenn man GK110 eben [U]nicht[/U] im Gamermarkt verkauft, sind die Stückzahlen so gering, dass man die Entwicklungskosten nie und nimmer reinholt. Man kann natürlich querfinanzieren, doch geschickter ist es mMn, die Chips gleich mit Gewinn zu verkaufen. Zumal ein aufgebohrter GK104 wohl auch nicht Sea Islands schlagen wird können.

Und die Antwort auf diese Frage ist so einfach wie oft genug durchgekaut:
Yields. Großer Chip + unreifer Prozess = nogo. Zu teuer, lohnt sich nicht. Sprich, bei der ersten Generation werden wir in Zukunft auch GM104, GE104 usw. sehen, aber nach einem Jahr beim jeweiligen Refresh kann das ganz anders aussehen. Nvidia würde sich viel Geld sparen, wenn sie statt die Chips alle neu zu entwickeln leichte Verbessungen anbringen, GK110 als GTX770/780 bringen und der Rest rutscht einfach runter.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]