> > > > NVIDIA Pascal soll kurz vor Produktionsstart stehen

NVIDIA Pascal soll kurz vor Produktionsstart stehen

Veröffentlicht am: von

nvidia 2013NVIDIA hat erst vor wenigen Tagen mit der GeForce GTX 980 Ti eine neue Grafikkarte mit einer "Maxwell"-GPU vorgestellt. Dies ist natürlich nicht der letzte 3D-Beschleuniger aus dem Hause NVIDIA und deshalb entwickelt die kalifornische Grafikschmiede im Hintergrund bereits fleißig den Nachfolger „Pascal“. Wie nun bekannt wurde, hat die neue GPU angeblich das Tape-Out erreicht. Damit soll der unter dem Codenamen GP100 entwickelte Grafikprozessor bereit für die Produktion sein. Die GPUs werden im 16-nm-Prozess gefertigt und sollen mit der zweiten Generation des HBM-Speichers gekoppelt werden.

Die ersten Grafikkarten auf Basis von Pascal werden für das erste Quartal 2016 erwartet. Jedoch soll es sich dabei erstmal nur um Modelle für professionelle Anwender handeln, während für Privatanwender der Start für das zweite Quartal 2016 vorgesehen ist. Aufgrund des schnelleren Speichers sowie der kleineren Strukturbreite und verbesserten Architektur sollen die Pascal-Chips eine um zehn Mal höhere Leistung pro Watt besitzen, als dies bei den aktuellen Maxwell-GPUs der Fall ist. Ob dies tatsächlich der Fall sein wird, wird sich jedoch erst noch zeigen müssen.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (310)

#301
customavatars/avatar199366_1.gif
Registriert seit: 30.11.2013

Bootsmann
Beiträge: 759
War zu erwarten, da Pascal HBM2 nutzt ;)

Die Spezifikationen des selbigen sind schon eine Weile bekannt.

Beide Hersteller setzen dann wohl auf exakt den gleichen Speicher, könnte interessant werden.
Bisher gab es da ja sogar innerhalb einer Serie Unterschiede, siehe Elpida/Hynix debatten.
#302
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4828
Jep, da könnte man dann auch gleich mal über die Speichermengen für die jeweiligen Pascal GPUs spekulieren...

GM200 --> GP100 = 16GB
GM204 --> GP104 = 8GB
GM206 --> GP106 = 4GB

So in etwa könnte es dann aussehen. :xmas:
#303
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12470
Unter der Annahme dass Hynix genug für Beide produzieren kann...
#304
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4828
Stimmt. Was machen dann überhaupt alle anderen Speicherhersteller, wie Samsung z.B., wenn plötzlich AMD und nVidia mehr und mehr auf HBM setzen. Da scheint Hynix auch in Zukunft alleiniger Produzent zu sein...
#305
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12470
HBM ist ja soweit ich gelesen habe, zum JEDEC Standard erklärt worden. D.h. eigentlich wäre es möglich dass andere Hersteller auch solche Chips produzieren und das resultat ist dann auch austauschbar (wie bisher bei gddr5).
Allerdings ist das schwerer als bei normalem RAM, da ein Speichercontroler auch Basis des HBM Chips ist und genau auf diesen hat Hynix und offenbar sogar teilweise AMD Patente drauf.
D.h. Samsung, etc. müssten alles selbst entwickeln.
#306
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4828
NVIDIA Pascal GPU To Feature 17 Billion Transistors and 32 GB HBM2 VRAM - Full CUDA Compute Architecture Arrives in 2016

Falls die 17 Millionen Transistoren für die GPU stimmen sollten, kann man sich auf einen schönen Leistungssprung freuen.
#307
customavatars/avatar109724_1.gif
Registriert seit: 04.03.2009
Rheinbach, NRW
Stabsgefreiter
Beiträge: 265
17 Millionen Transistoren gepaart mit 16-32GB HBM2 wären ne Hausnummer. Bin mal gespannt ob sich das bewahrheitet.
#308
Registriert seit: 22.02.2010

Bootsmann
Beiträge: 761
Billion = Milliarden =/= Millionen
#309
customavatars/avatar109724_1.gif
Registriert seit: 04.03.2009
Rheinbach, NRW
Stabsgefreiter
Beiträge: 265
Stimmt, nicht aufgepasst ;-)
#310
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3216
Zitat Cippoli;23695326
Jep, da könnte man dann auch gleich mal über die Speichermengen für die jeweiligen Pascal GPUs spekulieren...

GM200 --> GP100 = 16GB
GM204 --> GP104 = 8GB
GM206 --> GP106 = 4GB

So in etwa könnte es dann aussehen. :xmas:

Da bisher nur der GP100 entwickelt wurde und schon in Silizium verfügbar ist, denke ich nicht, dass es einen GP10x geben wird. NV wird die kleineren Chips bei der Volta-Generation ergänzen. Das liegt einfach daran, weil NV schon mit dem GP100 ein enormes Risiko eingeht - man wird das bei einem Chip belassen.
Wir reden hier von einem Chip mit maxwellähnliche Grundarchitektur (obendrein noch eine komplett neue Architektur wär wohl zuviel des Guten gewesen) der in einem komplett neuen Prozess mit FinFETs ca. 600mm² betragen dürfte und für NV zum ersten Mal auf HBM setzt und obendrein noch nen Haufen neuer Profifeatures samt 1:2 DP-Genauigkeit mitbringen dürfte. Das wär einfach zu viel für ne komplette Generation. Zudem plant NV explizit für 2017 mit Volta. Zwei komplette Lineups in 2 Jahren sind sehr unwahrscheinlich ;).

Auch den Zeitfaktor darf man nicht außer Acht lassen. Wenn GP100 jetzt Tapeout hatte, muss man 18 Monate bis zur Fertigstellung des Chips rechnen. Bei AMD wird das schneller gehen, da sie schon Erfahrung mit HBM und Interposern haben. Zudem dürfte das bei AMD das Tapeout des Produktionschips gewesen sein und beim GP100 das das A0-Siliziums. Früher wär das bei TSMC sicherlich auch nicht gegangen, die hinken GloFo/Samsung ja hinterher. Lt. Aussagen einiger AMD-Mitarbeiter arbeiten die schon seit 2014 an 14nm-GPU-Silizium.
AMD hat wohl auch Vorzug bei HBM2, viel dürfte für NV da eh nicht übrigbleiben zum Start hin. AMD will HBM2 ja von oben bis unten verbauen, also eine komplette 14nm HBM2-Serie bringen - kein Wunder also, dass man jetzt mit Rebrands abgespeist wurde.
AMDs Generation wird dann denke ich spätesten im Herbst 2016 aufschlagen, NVs GP100 ist denke ich Weihnachten 2016 soweit. Und Volta (GV104/6) wird irgendwann 2017 erscheinen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]