> > > > AMD bekräftigt: Polaris-Grafikkarten mit GDDR5 und HBM geplant

AMD bekräftigt: Polaris-Grafikkarten mit GDDR5 und HBM geplant

Veröffentlicht am: von

amd radeon 2013Wir haben bereits mehrfach über AMDs neue GPU-Architektur Polaris berichtet. Die ersten Grafikkarten auf Basis der Chips sollen Mitte 2016 auf den Markt kommen. AMD wirbt vor allem mit der Energieeffizienz der kommenden Modelle. Was bisher nun allerdings zu der Speicherausstattung der Karten vage gehalten wurde, hat AMD jetzt offiziell nochmals bekräftigt: Je nach Preissegment werden die Polaris-Grafikkarten mit HBM-RAM oder aber traditionellem GDDR5-Speicher aufwarten. Demnach werde der HBM-RAM den High-End-Modellen vorbehalten sein. AMD erklärt wörtlich: „Wir haben bisher die Polaris-Architektur nur in Kombination mit GDDR5-RAM vorgeführt, da sich HBM nicht für alle GPU-Marktsegmente eignet. Dafür sind vor allem die Kosten ein Grund. Für das Mainstream-GPU-Segment bleibt daher GDDR5 eine extrem kosteneffektive, effiziente und sinnvolle Speichertechnik.“

amd polaris

Laut AMDs Robert Hallock wolle das Unternehmen jedoch bei HBM weiterhin ganz vorne mitmischen, wie dann 2016 auch die Polaris-Grafikkarten für Enthusiasten zeigen sollen. 2015 nutzten Modelle der Reihe AMD Radeon R9 Fury als erste den gemeinsam mit SK Hynix entwickelten Speicher. Vorteile gegenüber klassischem GDDR5-RAM sind höhere Bandbreiten, größere Energieeffizienz und weniger Platzbedarf. Auch bei Einsatz von HBM2 wolle man sich laut Hallock jedoch nicht von GDDR5-Speicher verabschieden. Je nach Preis- und Leistungsanforderungen setze man entweder auf die eine oder die andere Technik – AMD Polaris sei zu beiden Speichersorten kompatibel.

Auch wenn damit nun nochmals offiziell bestätigt wurde, dass AMD je nach Preisbereich / Marktsegment wahlweise GDDR5 oder HBM auf seinen neuen Grafikkarten verbauen wird, fehlen noch etliche Informationen zu den kommenden Polaris-GPUs. So heißt es weiter gespannt sein, schließlich sollen die neuen Radeon-Modelle auch in der Leistung Nvidia Paroli bieten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (30)

#21
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8745
Genau aus dem Grund halte ich den Einsatz von GDDR5 auch nicht für abwegig .
Da so ein Chip wohl gerade so die Leistung einer FuryX überbieten würde und es noch durchaus händelbar wäre den GDDRX einzusetzen um die Leistung leicht drüberzu realisieren.
#22
Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.
Könnte für Mittelklasse Karten eine ganz interessante Option werden. Ich denke mal es wird wieder Karten mit 128 und 256 Bit Anbindung geben.
Karten mit so breitem Interface wie 390(X) erwarte ich nicht mehr. Da macht HBM einfach deutlich mehr Sinn.
#23
Registriert seit: 18.03.2007

Kapitänleutnant
Beiträge: 1702
Na hoffentlich kommen die Karten bald, meine 6850 nervt mich schon was und wollte sie auch letztens ersetzen.
Just in den moment, was sehe ich eine neue VGA Generation kommt und schon wollte ich warten.

Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.

Hätte ich damals gewusst, das die 7890 solange den Markt beherrscht, bei AMD Karten dann hätte ich wohl zugeschlagen.
#24
Registriert seit: 30.08.2014

Banned
Beiträge: 7059
Zitat nappi;24240713

Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.


Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.
#25
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6526
Zitat elchupacabre;24240755
Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.


Zwei Sätze die sich nicht vertragen. Reicht für alles aus, solange man nicht alles (an Grafik) nutzt... ahja...

Auf jeden Fall: Der älteste genutzte Chip ist von 2013 mit GCN1, dann noch Hawaii mit GCN2 (oder 1.1) dann Tonga mit GCN2,75 dann Fiji mit GCN3 und die ganze Mischung ist in der aktuellen Generation... Das ist einfach ne Freakshow an Chips!

Es muss endlich ne einheitliche GCN4 14nm Generation her.
#26
Registriert seit: 30.08.2014

Banned
Beiträge: 7059
Na wenn du das forderst, dann muss es wohl.

Der PC ist eben dafür gedacht, nicht einfach einzuschalten und fertig, dass viele Leute heute nur mehr alle Regler nach rechts knallen und sich dann wundern, dass es nicht so klappt, wie sie es sich vorstellen, hat nix mit "alten" Chips zu tun.
#27
customavatars/avatar220193_1.gif
Registriert seit: 29.04.2015

Banned
Beiträge: 965
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!

Zitat [email protected];24240372
Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.

Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.
#28
Zitat ELKINATOR;24240912
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!


Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.


Wo ich über die 1.35V Spannung für GDDR5X zum ersten mal gelesen habe weiss ich nicht mehr, war aber auf mehreren Hardware Seiten in der Gerüchteküche.
Unter anderem hier findet man das Gerücht wieder:

GDDR5X ermöglicht Speicherausbau von 16 GB an 256 Bit Interface - Hardwareluxx
How fast is GDDR5X vs HBM? • Pokde

Oft wurde bei GDDR5X ja von Frequenzen bis 1.75Ghz gesprochen bei GDDR5 bis zu 2GHz. Wäre denkbar das man die Spannung aufgrund der geringeren Frequenz senken kann.
Wobei man den Energiebedarf für den Speicherausbau bei moderaten Taktraten ja bis zu 256Bit Interfaces noch wirklich gut im Griff hat. So richtig Problematisch wurde das ja meiner Meinung nach erst mit 2/390(x).
#29
Registriert seit: 18.03.2007

Kapitänleutnant
Beiträge: 1702
Zitat elchupacabre;24240755
Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.

Naja cod bo2 habe ich alles auf Minimum und eine Auflösung von 1280 zu xxx.
Trotzdem ruckelt das game.

Also leider stimmt das mit den Regler nicht
#30
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5785
Bei welchen Modellen GDDR5X eingesetzt wird hängt wohl mitunter mit dessen Preis zusammen. Wenn der ähnlich viel wie GDDR5 kostet werden wir wohl bis auf wenige Modelle im Low Budget und eventuell Mid Range Bereich, wo dann weiterhin billiger GDDR3 bzw. GDDR5 (da schauen die Hersteller ja auf jeden Cent) verwendet wird, überall sonst GDDR5X vorfinden. Erst im High End Bereich wird dann HBM2 eingesetzt. Und je nachdem wie dieser High End Bereich aussieht (also ob z.B. bei nV zuerst wieder die "kleinen" Pascal Chips [GP104] als GTX 1080 und 1070 o.ä. bringt) könnte dieser aber erst auch noch auf GDDR5X basieren und vielleicht erst der Enthusiast Vollausbau Ende 2016 a'la GP100 mit HBM2 daher kommen.
Für eine GTX 1080 will man wohl 8GB RAM und das könnte als HBM2 anfangs sehr teuer werden. Ich persönlich finde ja nach wie vor den Performance Bereich (GTX 970, 980 sowie R9 390/X) etwas überteuert. Wenn die neuen Karten dann da noch einen draufsetzen dann gute Nacht, dann kann man sich für die dicken Modelle (1080Ti) schon mal mind. 800 EUR zur Seite legen und mit Custom Layouts und Kühlung nochmal gut mehr.

Zitat ELKINATOR;24240912

Quelle?

Ich hätte jetzt mal drauf geantwortet: "Ist doch Grundwissen", oder?
Nein ernsthaft wenn man in Google "GDDR5X Volt" eingibt findet man sofort Folien von Micron wo das zu sehen ist.

Wie auch immer wird wohl GDDR5X doch noch mehr Verbrauch haben sowie auf jeden Fall mehr Platz benötigen als HBM/2.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

NVIDIA GeForce GTX 1080 und GeForce GTX 1070 im SLI

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/PASCAL-SLI/GTX1080-SLI-LOGO

Die beiden aktuell schnellsten Single-GPU-Karten GeForce GTX 1080 und GeForce GTX 1070 liefern eine ausreichende Leistung für die höchsten Auflösungen und Qualitätseinstellungen. Allerdings müssen dabei hin und wieder ein paar Einschränkungen gemacht werden. Um diesen aus dem Weg zu gehen,... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]

Drei Modelle der GeForce GTX 1060 von ASUS, EVGA und Inno3D im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060-2/GTX1060_ROUNDUP2-TEASER

Nach einer kurzen Unterbrechung durch die AMD Radeon RX 470 und Radeon RX 460 machen wir weiter mit dem nächsten Schwung verschiedener Custom-Modelle zur NVIDIA GeForce GTX 1060. Während die Eigenlösungen der AMD-Partner teilweise noch immer auf sich warten lassen, ist man bei der Konkurrenz... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]