> > > > Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

Veröffentlicht am: von

nvidiaBereits seit Monaten ist der Name der vermeintlich nächsten GPU-Architektur von NVIDIA bekannt: Ampere. Was aber genau hinter Ampere stecken wird, ist nicht bekannt. Bisher sind keinerlei Details an die Öffentlichkeit gelangt. Dass die Volta-Architektur für die GeForce-Grafikkarten bis auf ein Plus an Shadereinheiten wenig zu bieten hat, zeigte unser Test der NVIDIA Titan V. Mit einem Preis von 2.999 Euro und dem Fokus auf Compute-Anwendungen dürfte aber klar sein, dass Volta kein Nachfolger von Pascal sein wird.

Bereits im Vorfeld des besagten Test sind wir darauf eingegangen, das NVIDIA in Zukunft vermutlich zweigleisig fahren wird: Eine GPU-Architektur für das professionelle Umfeld und eine weitere, abgespeckte Variante für die GeForce-Karten.

Im Hinblick auf die Volta-Architektur vorstellbar ist folgendes: NVIDIA nimmt diese als Grundbaustein, verzichtet aber auf "Fixed Function Hardware" wie die Tensor Cores. Damit könnte NVIDIA eine GA104, GA102 oder wie auch immer bezeichnete GPU entwickeln, die auf +/- 35 % mehr Shadereinheiten zurückgreifen kann. Die auf der Titan V verwendete GV100 bringt es auf 5.120 Shadereinheiten, die Titan Xp konnte auf 3.840 Shadereinheiten zurückgreifen. Theoretisch kann es der GV100 sogar auf 5.376 Shadereinheiten bringen. Rohleistung im Überfluss also.

Ampere als Volta-Feintuning

Bisher meist untergegangen ist, dass NVIDIA mit der Volta-Architektur kleinere Änderungen in den Volta SM (Streaming Multiprocessor) vorgenommen hat. Dazu gehören ein verbesserter L1-Data-Cache für geringe Latenzen und höhere Bandbreiten, ein schlankeres Instruction-Set für ein einfacheres Decoding und reduzierte Latenzen sowie ein theoretisch höherer Takt und eine verbesserte Energieeffizienz. Zusammen mit dem vermuteten Plus an Shadereinheiten (und damit einhergehend auch bei den Texturheinten, vermutlich weiterhin vier pro SM) ergäbe dies sicherlich ein ausreichendes Leistungsplus.

Hinsichtlich der Rechenleistung wäre eine abgespeckte Volta-Variante damit als Gaming-GPU denkbar. Das größte Fragezeichen besteht noch beim Speicher, doch auch hier sind Lösungen bereits in Sicht. Nicht zu erwarten ist, dass NVIDIA HBM2 bei den Consumer-Karten einsetzen wird. Dazu sind die Verfügbarkeit und der Preis einfach zu hoch. GDDR6 steht aber bereits in den Startlöchern und mit entsprechendem Speicherinterface ergäbe sich eine ansprechende Speicherbandbreite, die auch in der Lage wäre, die Shaderinheiten zu füttern. Sowohl Samsung als auch SK Hynix haben den Start der Massenproduktion bereits angekündigt.

Fragwürdige Gerüchte über Turing-Karte

In den vergangenen Tagen gesellte sich eine weitere Meldung hinzu. Zu den guten Quartalszahlen von NVIDIA kommentierte Reuters: "The new GPU gaming chip, code named Turing, is expected to be unveiled next month."

Aus zwei Gründen könnte Reuters aber zumindest etwas falsch verstanden haben. Erstens ist der Codename Turing zuvor noch nicht gefallen und kommt daher aus heiterem Himmel – er passt auch nicht zum aktuellen Namensschema. Zweitens beschreibt ein nach Alan Turing benannter Test eine Methode, eine künstliche Intelligenz von einem Menschen unterscheiden zu können. Dies hat recht wenig mit einer Spieler-Grafikkarte zu tun. Denkbar wäre, dass Turing der Codename der nächsten Compute-Architektur aus dem Hause NVIDIA wird oder aber nur eine entsprechende Compute-Hardware beschreibt.

Neuigkeiten im Frühjahr erwartet

Aktuellen Gerüchten zufolge hat NVIDIA die Produktion des GP102 bereits im Herbst des vergangenen Jahres eingestellt. Alles ist also auf eine baldige Veröffentlichung des Nachfolger vorbereitet, der sogar schon seit diesem Monat in der Produktion sein soll. Als Startdatum wird der 12. April kolportiert, die GPU Technology Conference rund um den Compute-Fokus wird vom 26. bis 29. März stattfinden. Im vergangenen Jahr hat NVIDIA hier die Details zur Volta-Architektur verraten. Vielleicht wissen wir also Ende März mehr – sowohl zu Ampere als auch zu Turing.

Social Links

Ihre Bewertung

Ø Bewertungen: 4

Tags

Kommentare (123)

#114
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 12672
Irgendwie glaube ich langsam, Nvidia bringt erst ne neue Generation wenn 7nm breit verfügbar ist.
#115
customavatars/avatar280571_1.gif
Registriert seit: 11.01.2018
Im Norden
Stabsgefreiter
Beiträge: 328
Zitat Richthofen;26170247
Der Nachteil ist, dass die Hemmschwelle zum Wechseln des GPU Anbieters deutlich geringer ist. Im Grunde machen die allermeisten den Fehler und gehen davon aus, dass G-Sync für die große Masse gedacht ist. Genau das ist es eben nicht. Es geht Nvidia einzig und allein um langfristige Bindung der sehr gut zahlenden GPU Kundschaft. Also jeder der 300 Euro und mehr für eine Graka ausgibt. Für Low-End Kunden interessiert sich Nvidia im GPU Bereich m.E. langfristig nur noch wenig. Für diese bastelt Nvidia am eigenen Gamestreaming und weniger an netten Features im GPU Bereich. Der zuvor genannten Kundschaft (300 Euro Aufwärts) versucht man natürlich allerlei Features und Funktionen anzubieten die Nvidia only sind. Man bastelt sich sozusagen Stück für Stück sein eigenes Ökosystem. Im Prinzip das klassische Apple Modell. Jemand der 500 Euro für ne Graka jedes Jahr oder alle 2 Jahre ausgibt und ggf. 500 Euro und mehr für einen G-Sync Monitor den er dann länger nutzen will, der ist eben beim zukünftigen Kauf eher geneigt weiter Nvidia zu kaufen und sich gar nicht erst mit AMD zu beschäftigen. Im Falle eines Kombimonitors gibt es diese Bindung einfach nicht mehr.

Nvidia hat heute bereits unter Gamern locker einen Anteil von 70 bis 80%. Es bringt ihnen einfach keinen einzigen Mehrwert Freesync zu unterstützen oder auf Kombimonitore zu setzen, da der Großteil des Marktes dieser Clientel von ihnen bereits besetzt ist. Hier geht es einzig und allein darum diesen Markt nach Möglichkeit langfristig zu halten und für den Fall dass sie mal etwas hinten liegen mit den GPUs im Vergleich zur Konkurrenz in der 300 Euro und höher Klasse jede Marktverschiebung in Richtung AMD zu verlangsamen und Zeit für den entsprechenden Gegenschlag zu gewinnen. Genau dafür sind Dinge wie G-Sync da.

Langamtig...GSync hat sich einfach nicht durchgesetzt und immer weniger Monitorhersteller setzen darauf, wenn Nvidia da nicht nachhelfen würde, wäre es sicher niemand mehr.

Das ist so wie mit Cuda-PhysX, bis Nvidia merkt das man sie nicht mehr braucht und auch nicht mehr will - dauert das halt, bis dahin melken sie diejenigen ab, die sich dafür interessieren. Demnächst setzt Intel auf Adaptivsync auf, wieso sollte sich da noch jemand für GSync interessieren? Im mGPU Bereich sowieso kein Schwein...

Nvidia gewinnt Zeit? Ja - zu Lasten des gesamten Marktes (wie immer) und nein, Sie beherrschen nicht 70-80% des Gameranteils, ganz bestimmt nicht, denn dieser definiert sich nicht nur aus Highend und Enthusiast/Prosumer dGPU Anteilen oder Steamnutzern. Wenn sie das machen wären sie schön blöd, denn dort kauft der geringste Anteil - auch wenn dort die größte Marge gemacht wird.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat RAZ0RLIGHT;26170684
Irgendwie glaube ich langsam, Nvidia bringt erst ne neue Generation wenn 7nm breit verfügbar ist.


Die bringen erst was neues wenn sie meinen der Gewinn stimmt nicht mehr, kann noch lange dauern, gerade jetzt fährt man fette Margen bei Miningkäufern ein. Wer weiß schon wie gut Ampera sich zum Mining eignet.
#116
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
Kapitän zur See
Beiträge: 4002
Das ist wirklich eine Katastrophe für die Gaming Industrie - es werden irgendwann keine moderneren Spiele mehr weiterentwickelt werden, weil sie kaum ein Gamer kaufen wird, da er keine notwendige High-End Grafikkarte besitzt.
#117
customavatars/avatar62126_1.gif
Registriert seit: 14.04.2007
Euskirchen, NRW
AMD-Fanboy
Beiträge: 22114
satuan :lol:

nvidia gewinnt Zeit zu Lasten des Marktes? verdient Geld am Mining?

ist es nicht eher der Fakt, das nvidia nichts bringen muss, weil gerade AMD Karten nur beim Mining punkten?
#118
customavatars/avatar280571_1.gif
Registriert seit: 11.01.2018
Im Norden
Stabsgefreiter
Beiträge: 328
Zitat Naennon;26170886
satuan :lol:

nvidia gewinnt Zeit zu Lasten des Marktes? verdient Geld am Mining?

ist es nicht eher der Fakt, das nvidia nichts bringen muss, weil gerade AMD Karten nur beim Mining punkten?


Du meinst sie bringen Karten wie die 1070ti umsonst....ja selbst - :lol:.

Unter Dirt4 und Wolfenstein2 lässt Vega optimiert eine ti mit neustem Treiber stehen! Das zeigt wie gut Entwickler GPU optimiert Nvidia unterwegs ist.
Grafikkarten-Rangliste 2018: 15 Radeon- und Geforce-GPUs im Benchmarkvergleich [Februar]

*was die PCGH bei HSS gemessen hat, weiß ich auch nicht, in1080p läuft die V64 stellenweise mit über 100fps bei 1490MHz- hab's gerade mal gemessen. Wahrscheinlich irgendeine benchmarklastige Szene die wieder nicht passt und anderen gut schmeckt.:stupid:

Ja - sie halten den Markt mit ihren proprietären Ansätzen auf - wie immer (von DX Analogien ganz zu schweigen), solange Gameworks nicht passt und DX nichts für sie verspricht, lassen sie alles beim alten und beeinflussen den Markt gezielt. Hauptsache lange grüne Balken, der Rest ist ja egal. Wahrscheinlich würden sie anderweitig sogar einen Haufen R&D Kosten sparen, weil sie sich damit größtenteils einkaufen, aber was geht's mich an.

Das Nvidia bei Ampera wegen Yieldrates und anderem, wohl die Hashrate zugunsten einer annehmbaren Verfügbarkeit kastriert ist auch nicht neu...jedenfalls ist wohl GDC gestorben. Vermutlich haben sie nachbestellt und wollen Pascal ohne Preissenkungen abverkaufen.
#119
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
Kapitän zur See
Beiträge: 4002
Zitat Naennon;26170886


ist es nicht eher der Fakt, das nvidia nichts bringen muss, weil gerade AMD Karten nur beim Mining punkten?


Genau das ist nicht korrekt, AMD Vega punktet nicht nur beim Mining, das ist Fakt. Sollte aber bekannt sein und muss nicht ständig wiederholt werden.
#120
customavatars/avatar280571_1.gif
Registriert seit: 11.01.2018
Im Norden
Stabsgefreiter
Beiträge: 328
Zitat Holzmann;26170962
Genau das ist nicht korrekt, AMD Vega punktet nicht nur beim Mining, das ist Fakt. Sollte aber bekannt sein und muss nicht ständig wiederholt werden.


Nicht das Ampera doch kein Überflieger wird? Poor Volta und so...Verschiebungen sind nie ein gutes Zeichen. Mining soll er jedenfalls gar nicht gut können. Nvidia will halt melken.
#121
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017
Zürich
Kapitän zur See
Beiträge: 4002
Jup eventuell eine KI Co-Prozessorkarte? ;)

Es gibt auch keinerlei einigermaßen taugliche Gerüchte zu Ampere, nix, Funkstillen, Schweigen im Walde. Ich glaub erst dran, wenn es offiziell angekündigt wird ...
#122
customavatars/avatar280571_1.gif
Registriert seit: 11.01.2018
Im Norden
Stabsgefreiter
Beiträge: 328
Zitat Holzmann;26171017
Jup eventuell eine KI Co-Prozessorkarte? ;)

Es gibt auch keinerlei einigermaßen taugliche Gerüchte zu Ampere, nix, Funkstillen, Schweigen im Walde. Ich glaub erst dran, wenn es offiziell angekündigt wird ...

Glaub ich nicht, wäre schon Blödsinn eine Prokarte auf einer Gamerkonferenz vorzustellen. Nicht undenkbar wenns eine Entwicklerkarte ist, aber dann auch nichts weiter als eine billigere Volta wie schon vermutet. Teurer geht ja kaum noch. Das kauft ja niemand mehr.
#123
Registriert seit: 23.08.2010

Bootsmann
Beiträge: 766
Zitat satuan;26170958
Unter Dirt4 und Wolfenstein2 lässt Vega optimiert eine ti mit neustem Treiber stehen!


Nicht immer, es kommt stark darauf an, welche Settings verwendet wurden. :wink:

Unter 1080p und CMAA sind die Vega vor der 1080ti, welche sich aus irgendwelchen Gründen nicht voll entfalten kann und dadurch eingebremst wird. Eine 1080ti ist eigentlich gute 25 schneller als eine 1080, aber mit diesen Settings beträgt der Unterschied nur ~16%. Vergleicht man dann aber die Werte bei 1440p oder 4K, dann sind wieder die gewohnten ~25% Unterschied zwischen diesen beiden Karten zu sehen und die 1080ti steht auch wieder von den Vega Karten.

The Radeon RX Vega 64 Liquid, Vega 64 & Vega 56 Test: 32 Games Benchmarked > Benchmarks: Civilization VI, Deus Ex: MD, DiRT 4 - TechSpot

Wenn man bei 1080p bleibt und anstatt CMAA einfach 4xMSAA wählt, dann wird wieder hauptsächlich die Grafikkarte zum limitierenden Faktor und der Unterschied von ~26% zwischen der 1080 und 1080ti ist wieder vorhanden. Dann lässt die 1080ti auch wieder die Vega hinter sich, wie üblich.

Radeon RX Vega 64 und RX Vega 56: Härtetest in Spielen mit Worst-Case-Benchmarks [Update]

Dirt4 läuft allgemein sehr gut auf GCN, denn auch Polaris schlägt sich hier sehr gut. Vergleich dazu einfach mal die rx 580 und 1060.

Ähnlich sieht es auch bei Wolfenstein2 aus. Je mehr die Grafikkarte den limitierenden Faktor darstellt, desto besser schneiden die Nvidia Grafikkarten gegenüber die Vega ab.

Wolfenstein 2 im ersten Technik-Test: Shooterfest mit Vega-Stärke, Vulkan only! [Update mit GTX 1070 Ti]


Zitat satuan;26170958

Ja - sie halten den Markt mit ihren proprietären Ansätzen auf - wie immer (von DX Analogien ganz zu schweigen), solange Gameworks nicht passt und DX nichts für sie verspricht, lassen sie alles beim alten und beeinflussen den Markt gezielt.


Gibt es dafür irgendwelche Beweise oder ist es wieder nur dieses typische mimimi Nvidia ist so böse mimimi Alle sind se gegen AMD mimimi Alle benachteiligen AMD mimimi Immer sind alle anderen Schuld mimimi

Und mal so ganz im Ernst, Gameworks hin oder her. Was juckt es mich als Kunden, warum sie besser performen?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]