> > > > AMD bekräftigt: Polaris-Grafikkarten mit GDDR5 und HBM geplant

AMD bekräftigt: Polaris-Grafikkarten mit GDDR5 und HBM geplant

Veröffentlicht am: von

amd radeon 2013Wir haben bereits mehrfach über AMDs neue GPU-Architektur Polaris berichtet. Die ersten Grafikkarten auf Basis der Chips sollen Mitte 2016 auf den Markt kommen. AMD wirbt vor allem mit der Energieeffizienz der kommenden Modelle. Was bisher nun allerdings zu der Speicherausstattung der Karten vage gehalten wurde, hat AMD jetzt offiziell nochmals bekräftigt: Je nach Preissegment werden die Polaris-Grafikkarten mit HBM-RAM oder aber traditionellem GDDR5-Speicher aufwarten. Demnach werde der HBM-RAM den High-End-Modellen vorbehalten sein. AMD erklärt wörtlich: „Wir haben bisher die Polaris-Architektur nur in Kombination mit GDDR5-RAM vorgeführt, da sich HBM nicht für alle GPU-Marktsegmente eignet. Dafür sind vor allem die Kosten ein Grund. Für das Mainstream-GPU-Segment bleibt daher GDDR5 eine extrem kosteneffektive, effiziente und sinnvolle Speichertechnik.“

amd polaris

Laut AMDs Robert Hallock wolle das Unternehmen jedoch bei HBM weiterhin ganz vorne mitmischen, wie dann 2016 auch die Polaris-Grafikkarten für Enthusiasten zeigen sollen. 2015 nutzten Modelle der Reihe AMD Radeon R9 Fury als erste den gemeinsam mit SK Hynix entwickelten Speicher. Vorteile gegenüber klassischem GDDR5-RAM sind höhere Bandbreiten, größere Energieeffizienz und weniger Platzbedarf. Auch bei Einsatz von HBM2 wolle man sich laut Hallock jedoch nicht von GDDR5-Speicher verabschieden. Je nach Preis- und Leistungsanforderungen setze man entweder auf die eine oder die andere Technik – AMD Polaris sei zu beiden Speichersorten kompatibel.

Auch wenn damit nun nochmals offiziell bestätigt wurde, dass AMD je nach Preisbereich / Marktsegment wahlweise GDDR5 oder HBM auf seinen neuen Grafikkarten verbauen wird, fehlen noch etliche Informationen zu den kommenden Polaris-GPUs. So heißt es weiter gespannt sein, schließlich sollen die neuen Radeon-Modelle auch in der Leistung Nvidia Paroli bieten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (30)

#21
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 9037
Genau aus dem Grund halte ich den Einsatz von GDDR5 auch nicht für abwegig .
Da so ein Chip wohl gerade so die Leistung einer FuryX überbieten würde und es noch durchaus händelbar wäre den GDDRX einzusetzen um die Leistung leicht drüberzu realisieren.
#22
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 886
Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.
Könnte für Mittelklasse Karten eine ganz interessante Option werden. Ich denke mal es wird wieder Karten mit 128 und 256 Bit Anbindung geben.
Karten mit so breitem Interface wie 390(X) erwarte ich nicht mehr. Da macht HBM einfach deutlich mehr Sinn.
#23
Registriert seit: 18.03.2007

Kapitänleutnant
Beiträge: 1721
Na hoffentlich kommen die Karten bald, meine 6850 nervt mich schon was und wollte sie auch letztens ersetzen.
Just in den moment, was sehe ich eine neue VGA Generation kommt und schon wollte ich warten.

Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.

Hätte ich damals gewusst, das die 7890 solange den Markt beherrscht, bei AMD Karten dann hätte ich wohl zugeschlagen.
#24
Registriert seit: 30.08.2014

Banned
Beiträge: 7004
Zitat nappi;24240713

Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.


Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.
#25
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7625
Zitat elchupacabre;24240755
Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.


Zwei Sätze die sich nicht vertragen. Reicht für alles aus, solange man nicht alles (an Grafik) nutzt... ahja...

Auf jeden Fall: Der älteste genutzte Chip ist von 2013 mit GCN1, dann noch Hawaii mit GCN2 (oder 1.1) dann Tonga mit GCN2,75 dann Fiji mit GCN3 und die ganze Mischung ist in der aktuellen Generation... Das ist einfach ne Freakshow an Chips!

Es muss endlich ne einheitliche GCN4 14nm Generation her.
#26
Registriert seit: 30.08.2014

Banned
Beiträge: 7004
Na wenn du das forderst, dann muss es wohl.

Der PC ist eben dafür gedacht, nicht einfach einzuschalten und fertig, dass viele Leute heute nur mehr alle Regler nach rechts knallen und sich dann wundern, dass es nicht so klappt, wie sie es sich vorstellen, hat nix mit "alten" Chips zu tun.
#27
customavatars/avatar220193_1.gif
Registriert seit: 29.04.2015

Banned
Beiträge: 965
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!

Zitat [email protected];24240372
Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.

Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.
#28
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 886
Zitat ELKINATOR;24240912
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!


Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.


Wo ich über die 1.35V Spannung für GDDR5X zum ersten mal gelesen habe weiss ich nicht mehr, war aber auf mehreren Hardware Seiten in der Gerüchteküche.
Unter anderem hier findet man das Gerücht wieder:

GDDR5X ermöglicht Speicherausbau von 16 GB an 256 Bit Interface - Hardwareluxx
How fast is GDDR5X vs HBM? • Pokde

Oft wurde bei GDDR5X ja von Frequenzen bis 1.75Ghz gesprochen bei GDDR5 bis zu 2GHz. Wäre denkbar das man die Spannung aufgrund der geringeren Frequenz senken kann.
Wobei man den Energiebedarf für den Speicherausbau bei moderaten Taktraten ja bis zu 256Bit Interfaces noch wirklich gut im Griff hat. So richtig Problematisch wurde das ja meiner Meinung nach erst mit 2/390(x).
#29
Registriert seit: 18.03.2007

Kapitänleutnant
Beiträge: 1721
Zitat elchupacabre;24240755
Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.

Naja cod bo2 habe ich alles auf Minimum und eine Auflösung von 1280 zu xxx.
Trotzdem ruckelt das game.

Also leider stimmt das mit den Regler nicht
#30
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5969
Bei welchen Modellen GDDR5X eingesetzt wird hängt wohl mitunter mit dessen Preis zusammen. Wenn der ähnlich viel wie GDDR5 kostet werden wir wohl bis auf wenige Modelle im Low Budget und eventuell Mid Range Bereich, wo dann weiterhin billiger GDDR3 bzw. GDDR5 (da schauen die Hersteller ja auf jeden Cent) verwendet wird, überall sonst GDDR5X vorfinden. Erst im High End Bereich wird dann HBM2 eingesetzt. Und je nachdem wie dieser High End Bereich aussieht (also ob z.B. bei nV zuerst wieder die "kleinen" Pascal Chips [GP104] als GTX 1080 und 1070 o.ä. bringt) könnte dieser aber erst auch noch auf GDDR5X basieren und vielleicht erst der Enthusiast Vollausbau Ende 2016 a'la GP100 mit HBM2 daher kommen.
Für eine GTX 1080 will man wohl 8GB RAM und das könnte als HBM2 anfangs sehr teuer werden. Ich persönlich finde ja nach wie vor den Performance Bereich (GTX 970, 980 sowie R9 390/X) etwas überteuert. Wenn die neuen Karten dann da noch einen draufsetzen dann gute Nacht, dann kann man sich für die dicken Modelle (1080Ti) schon mal mind. 800 EUR zur Seite legen und mit Custom Layouts und Kühlung nochmal gut mehr.

Zitat ELKINATOR;24240912

Quelle?

Ich hätte jetzt mal drauf geantwortet: "Ist doch Grundwissen", oder?
Nein ernsthaft wenn man in Google "GDDR5X Volt" eingibt findet man sofort Folien von Micron wo das zu sehen ist.

Wie auch immer wird wohl GDDR5X doch noch mehr Verbrauch haben sowie auf jeden Fall mehr Platz benötigen als HBM/2.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]