> > > > AMD bekräftigt: Polaris-Grafikkarten mit GDDR5 und HBM geplant

AMD bekräftigt: Polaris-Grafikkarten mit GDDR5 und HBM geplant

DruckenE-Mail
Erstellt am: von

amd radeon 2013Wir haben bereits mehrfach über AMDs neue GPU-Architektur Polaris berichtet. Die ersten Grafikkarten auf Basis der Chips sollen Mitte 2016 auf den Markt kommen. AMD wirbt vor allem mit der Energieeffizienz der kommenden Modelle. Was bisher nun allerdings zu der Speicherausstattung der Karten vage gehalten wurde, hat AMD jetzt offiziell nochmals bekräftigt: Je nach Preissegment werden die Polaris-Grafikkarten mit HBM-RAM oder aber traditionellem GDDR5-Speicher aufwarten. Demnach werde der HBM-RAM den High-End-Modellen vorbehalten sein. AMD erklärt wörtlich: „Wir haben bisher die Polaris-Architektur nur in Kombination mit GDDR5-RAM vorgeführt, da sich HBM nicht für alle GPU-Marktsegmente eignet. Dafür sind vor allem die Kosten ein Grund. Für das Mainstream-GPU-Segment bleibt daher GDDR5 eine extrem kosteneffektive, effiziente und sinnvolle Speichertechnik.“

amd polaris

Laut AMDs Robert Hallock wolle das Unternehmen jedoch bei HBM weiterhin ganz vorne mitmischen, wie dann 2016 auch die Polaris-Grafikkarten für Enthusiasten zeigen sollen. 2015 nutzten Modelle der Reihe AMD Radeon R9 Fury als erste den gemeinsam mit SK Hynix entwickelten Speicher. Vorteile gegenüber klassischem GDDR5-RAM sind höhere Bandbreiten, größere Energieeffizienz und weniger Platzbedarf. Auch bei Einsatz von HBM2 wolle man sich laut Hallock jedoch nicht von GDDR5-Speicher verabschieden. Je nach Preis- und Leistungsanforderungen setze man entweder auf die eine oder die andere Technik – AMD Polaris sei zu beiden Speichersorten kompatibel.

Auch wenn damit nun nochmals offiziell bestätigt wurde, dass AMD je nach Preisbereich / Marktsegment wahlweise GDDR5 oder HBM auf seinen neuen Grafikkarten verbauen wird, fehlen noch etliche Informationen zu den kommenden Polaris-GPUs. So heißt es weiter gespannt sein, schließlich sollen die neuen Radeon-Modelle auch in der Leistung Nvidia Paroli bieten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (30)

#21
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
Genau aus dem Grund halte ich den Einsatz von GDDR5 auch nicht für abwegig .
Da so ein Chip wohl gerade so die Leistung einer FuryX überbieten würde und es noch durchaus händelbar wäre den GDDRX einzusetzen um die Leistung leicht drüberzu realisieren.
#22
Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.
Könnte für Mittelklasse Karten eine ganz interessante Option werden. Ich denke mal es wird wieder Karten mit 128 und 256 Bit Anbindung geben.
Karten mit so breitem Interface wie 390(X) erwarte ich nicht mehr. Da macht HBM einfach deutlich mehr Sinn.
#23
Registriert seit: 18.03.2007

Kapitänleutnant
Beiträge: 1693
Na hoffentlich kommen die Karten bald, meine 6850 nervt mich schon was und wollte sie auch letztens ersetzen.
Just in den moment, was sehe ich eine neue VGA Generation kommt und schon wollte ich warten.

Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.

Hätte ich damals gewusst, das die 7890 solange den Markt beherrscht, bei AMD Karten dann hätte ich wohl zugeschlagen.
#24
Registriert seit: 30.08.2014

Banned
Beiträge: 7060
Zitat nappi;24240713

Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.


Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.
#25
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Flottillenadmiral
Beiträge: 5094
Zitat elchupacabre;24240755
Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.


Zwei Sätze die sich nicht vertragen. Reicht für alles aus, solange man nicht alles (an Grafik) nutzt... ahja...

Auf jeden Fall: Der älteste genutzte Chip ist von 2013 mit GCN1, dann noch Hawaii mit GCN2 (oder 1.1) dann Tonga mit GCN2,75 dann Fiji mit GCN3 und die ganze Mischung ist in der aktuellen Generation... Das ist einfach ne Freakshow an Chips!

Es muss endlich ne einheitliche GCN4 14nm Generation her.
#26
Registriert seit: 30.08.2014

Banned
Beiträge: 7060
Na wenn du das forderst, dann muss es wohl.

Der PC ist eben dafür gedacht, nicht einfach einzuschalten und fertig, dass viele Leute heute nur mehr alle Regler nach rechts knallen und sich dann wundern, dass es nicht so klappt, wie sie es sich vorstellen, hat nix mit "alten" Chips zu tun.
#27
customavatars/avatar220193_1.gif
Registriert seit: 29.04.2015

Banned
Beiträge: 965
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!

Zitat [email protected];24240372
Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.

Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.
#28
Zitat ELKINATOR;24240912
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!


Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.


Wo ich über die 1.35V Spannung für GDDR5X zum ersten mal gelesen habe weiss ich nicht mehr, war aber auf mehreren Hardware Seiten in der Gerüchteküche.
Unter anderem hier findet man das Gerücht wieder:

GDDR5X ermöglicht Speicherausbau von 16 GB an 256 Bit Interface - Hardwareluxx
How fast is GDDR5X vs HBM? • Pokde

Oft wurde bei GDDR5X ja von Frequenzen bis 1.75Ghz gesprochen bei GDDR5 bis zu 2GHz. Wäre denkbar das man die Spannung aufgrund der geringeren Frequenz senken kann.
Wobei man den Energiebedarf für den Speicherausbau bei moderaten Taktraten ja bis zu 256Bit Interfaces noch wirklich gut im Griff hat. So richtig Problematisch wurde das ja meiner Meinung nach erst mit 2/390(x).
#29
Registriert seit: 18.03.2007

Kapitänleutnant
Beiträge: 1693
Zitat elchupacabre;24240755
Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.

Naja cod bo2 habe ich alles auf Minimum und eine Auflösung von 1280 zu xxx.
Trotzdem ruckelt das game.

Also leider stimmt das mit den Regler nicht
#30
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5603
Bei welchen Modellen GDDR5X eingesetzt wird hängt wohl mitunter mit dessen Preis zusammen. Wenn der ähnlich viel wie GDDR5 kostet werden wir wohl bis auf wenige Modelle im Low Budget und eventuell Mid Range Bereich, wo dann weiterhin billiger GDDR3 bzw. GDDR5 (da schauen die Hersteller ja auf jeden Cent) verwendet wird, überall sonst GDDR5X vorfinden. Erst im High End Bereich wird dann HBM2 eingesetzt. Und je nachdem wie dieser High End Bereich aussieht (also ob z.B. bei nV zuerst wieder die "kleinen" Pascal Chips [GP104] als GTX 1080 und 1070 o.ä. bringt) könnte dieser aber erst auch noch auf GDDR5X basieren und vielleicht erst der Enthusiast Vollausbau Ende 2016 a'la GP100 mit HBM2 daher kommen.
Für eine GTX 1080 will man wohl 8GB RAM und das könnte als HBM2 anfangs sehr teuer werden. Ich persönlich finde ja nach wie vor den Performance Bereich (GTX 970, 980 sowie R9 390/X) etwas überteuert. Wenn die neuen Karten dann da noch einen draufsetzen dann gute Nacht, dann kann man sich für die dicken Modelle (1080Ti) schon mal mind. 800 EUR zur Seite legen und mit Custom Layouts und Kühlung nochmal gut mehr.

Zitat ELKINATOR;24240912

Quelle?

Ich hätte jetzt mal drauf geantwortet: "Ist doch Grundwissen", oder?
Nein ernsthaft wenn man in Google "GDDR5X Volt" eingibt findet man sofort Folien von Micron wo das zu sehen ist.

Wie auch immer wird wohl GDDR5X doch noch mehr Verbrauch haben sowie auf jeden Fall mehr Platz benötigen als HBM/2.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]