> > > > AMD: Kommende GPUs sollen pro Takt doppelt so effizient sein

AMD: Kommende GPUs sollen pro Takt doppelt so effizient sein

Veröffentlicht am: von

AMD Logo 2013Bereits vor einigen Wochen hatten wir berichtet, dass die kommende Grafikkarten-Generation „Arctic Island“ von AMD das Tape-Out erreicht habe und somit nur noch kleinste Änderungen bis zur Serienproduktion vorgenommen würden. Inzwischen hat sich AMD selbst zu Wort gemeldet und bestätigt, dass die kommenden GPUs deutlich effizienter arbeiten sollen. Laut CEO Dr. Lisa Su sei die kommende Generation pro Takt bis zu zweimal effizienter als dies noch bei den aktuellen Modellen der Fall sei.

Die Leistungssteigerung würde laut Hersteller jedoch nicht nur durch eine neue Architektur erreicht. Zwar soll diese auch dazu beitragen, jedoch soll vor allem die kleinere Strukturbreite von 16 nm für eine höhere Effizienz sorgen. Die kommenden Grafikchips mt dem Codenamen "Greenland" werden von TSMC im 16-nm FinFET-Produktionsprozess produziert, während die aktuellen 3D-Beschleuniger noch auf den 28-nm-Prozess zurückgreifen. Durch die kleinere Strukturbreite kann AMD auf die gleiche Fläche deutlich mehr Transistoren packen. Die Gerüchte sprechen sogar davon, dass die Anzahl der Transistoren nahezu verdoppelt werden soll. NVIDIA hatte bereits gemeldet, dass die kommenden Pascal-GPUs bis zu 17 Milliarden Transistoren aufweisen soll und wahrscheinlich wird sich AMD auf ähnlichem Niveau befinden.

amd gpu greenland

Weiterhin soll auch die zweite Generation des schnellen HBM-Speichers zum Einsatz kommen, sodass auch an dieser Stelle nochmals ein Leistungszuwachs zu erwarten ist. Die ersten Grafikkarten auf Basis von Artic-Island sollen im kommenden Jahr in den Handel kommen. Wann genau wollte AMD allerdings allerdings nicht verraten.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

es liegen noch keine Tags vor.

Kommentare (57)

#48
customavatars/avatar220193_1.gif
Registriert seit: 29.04.2015

Banned
Beiträge: 965
wenn die neuen GPUs DP 1.3 unterstützen, dann funktionieren eh auch passive adapter auf HDMI 2.0
dann ist HDMI 2.0 support nicht mehr wichtig.
#49
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Korvettenkapitän
Beiträge: 2542
Zitat mr.dude;24049719
Die Anzahl der Kerne ist weder korrekt, noch ist sie nicht korrekt. Es gibt schlichtweg keine standardisierte Definition eines Kerns, an die sich die Hersteller halten müssen. Das wird auch kein Gericht definieren.


Sagte Carsten bei PCGH schon, aber weisst ja, die Forumsfachleute sind da Intelligenter als Wissenschaftler... Hat sicher Gründe warum weder Intel noch AMD eine Gesetzlich Stichfeste Definition für Core geben können.. Selbst Moore und Konsorten würden mit den früheren Core Definitionen nicht mehr weit kommen.. Wenn man nun die FPU mal aussen vorlassen würde und nur die Decode Einheit und quasi die CMT Kerne teilt, dann wäre es ein 8 Core.. Könnte spannend werden, welcher Wissenschaftliche MIT Professor sich daran die Finger verbrennen will ;)

@ Rehacomp:
Da mache ich mir keine sorgen, da Tonga und Fiji alles mitbringen.. Man muss nur die UVD updaten, der Controller sollte auch DP 1.3 verstehen können..

Ich vermute eh Ellesmere wird ein Tonga in 16nm, Baffin sicherlich ein verbessserter GCN 2.0 und Greenland wird 2017 aufkreuzen. Ich halte es für Aussichtslos dass NV GP104 gleich in HBM Released. Somit würden GP 110 (100) und Greenland wohl eher 2017 aufschlagen. Ich denke auch nicht, dass AMD groß Investment in die Mittel und Einstiegsklasse stecken wird, Tonga ist 20nm tauglich und das Design sollte auch für 16nm FinFet reichen.. Ausserdem wäre Tonga die Eierlegende Wollmilchsau für AMD, ich sage dazu nur Fiji entspricht einem doppelten Tonga

Vermutlich werden wir sehen 2016:

470 / X Tonga in 16nm mit UVD Update
480 Baffin (Tonga XT oder vllt ein kastrierter Fiji in 16nm) GDDR5
490 GCN 2.0 mit HBM / GDDR5X

So kann man mit 2 Diemasken ziemlich viel Abdecken.. Und 2017 kommt Greenland mit HBM2 und mehr DP Power...
Ich denke aber das trotz 16/14nm Fertigung die Karten nicht Pascal GP 104 überholen, sondern eher dass AMD wieder Effizienztechnisch aufholt. Die Zeit wird zeigen, ob das reicht um Marktanteile zu bekommen.. Ich vermute aber dass Apple wieder Interesse haben wird, vllt gelingt es AMD Fiji in 16nm auch in die Macbooks zu klatschen..
#50
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6078
Zitat ELKINATOR;24058183
wenn die neuen GPUs DP 1.3 unterstützen, dann funktionieren eh auch passive adapter auf HDMI 2.0
dann ist HDMI 2.0 support nicht mehr wichtig.

HDMI 2.0 ist heute schon nicht mehr wichtig, da es nur die Übertragunsrate von DP 1.2 bietet (bzw. spezifiziert und zertifiziert wurde)
DP 1.3 wird 8K mit 120Hz befeuern können. ;)
#51
customavatars/avatar160319_1.gif
Registriert seit: 17.08.2011

Vizeadmiral
Beiträge: 8170
wann kann man damit rechnen, mit DP 1.3?
#52
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6078
Zitat slot108;24058932
wann kann man damit rechnen, mit DP 1.3?

DP 1.3 ist schon Beta, also aus dem HW only "Feature" raus.
Wenn man 4K mit 3D-Brille geniesen will, führt kein Weg an an DP 1.2 vorbei.
#53
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6696
Zitat Phantomias88;24058832
HDMI 2.0 ist heute schon nicht mehr wichtig, da es nur die Übertragunsrate von DP 1.2 bietet (bzw. spezifiziert und zertifiziert wurde)
DP 1.3 wird 8K mit 120Hz befeuern können. ;)


Und wo hast du das schon wieder augeschnappt?
Das ist falsch!

HDMI 1.4 unterstützt [email protected]
HDMI 2.0 unterstützt [email protected]
Displayport 1.2 unterstützt [email protected]
Displayport 1.3 unterstützt [email protected] (mehr nicht)

SuperMHL unterstützt erstmal als einziges 4320p(8K)@120Hz

Und nööö HDMI 2.0 ist überhaupt nicht wichtig, nur jeder moderne Fernseher und die Multimediabranche nutzen zu >90% ausschließlich HDMI...



Bis 8K Fernseher draußen sind ist SuperMHL wahrscheinlich etabliert und es gibt Displayport 1.4 mit [email protected], welches dann aber bestimmt wieder fast nur für Monitore genutzt wird.

MMn. ist die größte Schwäche für Displayport der Standardstecker, diese Verriegelung ist einfach nur Kacke wenn man den Stecker abziehen will. Dies eHaken gehen so oft richtig mies raus.
HDMI sitzt einfach fest genug und lässt sich dennoch ohne Probleme entfernen - das gleiche trifft auf mini Displayport zu.
Man sollte den großen Displayportstecker mMn. aussterben lassen und nur noch mini-Displayport und zukünftig USB-C-Stecker nutzen!
#54
Registriert seit: 03.08.2006

Oberbootsmann
Beiträge: 786
Zitat ELKINATOR;24047920
Qt = C++ was per HSA auf der GPU ausgeführt werden kann.
war wohl einer der hauptgründe um von .NET wegzugehen.

Ichn meinte nicht den CPU-Limit des CCC... :rolleyes:
#55
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6078
Zitat NasaGTR;24059049
Und wo hast du das schon wieder augeschnappt?
Das ist falsch!

Das ist mir völlig Jacke wie Hose!
Ich arbeite in einem ISO Betrieb, da geht es nicht um einzelne Feature sonder um trough-put!
Geht doch heulen wenn es für dich unfair ist... (srry ist nichts gegen dich persönlich!)
#56
Registriert seit: 20.04.2012

Stabsgefreiter
Beiträge: 292
Zitat Phantomias88;24059119

Ich arbeite in einem ISO Betrieb, da geht es [...] um trough-put!

Schweinemastbetrieb?
#57
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6078
Zitat IlDuce;24059169
Schweinemastbetrieb?

Die Henne hat das letzte Wort! Also eher Puten-farm...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]