> > > > Neue Gerüchte zur kommenden Grafikkarten-Generation von AMD

Neue Gerüchte zur kommenden Grafikkarten-Generation von AMD

DruckenE-Mail
Erstellt am: von

amd-radeon-2013Nach der Vorstellung der NVIDIA GeForce GTX 960 und dem Spezifikationsskandal rund um die GeForce GTX 970, welcher für die kalifornische Grafikschmiede vermutlich keinen wirtschaftlichen Schaden zur Folge haben wird, ist in diesen Tagen auf dem Grafikkarten-Markt wieder ein bisschen Ruhe eingekehrt. Diese Gelegenheit haben die Kollegen von 3DCenter.org genutzt, um die aktuellsten Informationshäppchen zur kommenden Grafikkarten-Generation von AMD zusammenzutragen.

Zum Teil will man dabei aber nicht nur auf zuverlässige Informationen aus Kreisen der Grafikkarten-Hersteller zurückgegriffen, sondern an einigen Stellen auch selbst spekuliert haben. Als ziemlich sicher aber gilt, dass es von AMD im Rahmen der „Pirate Islands“-Generation vermutlich nur einen einzigen neuen Grafikchip geben wird, während die anderen Ableger nur mit kleineren Anpassungen im Vergleich zu den bestehenden Modellen ausgerüstet werden sollen.

Dies soll „Fiji“ werden, welcher vermutlich auf der Radeon R9 390X und Radeon R9 390 zum Einsatz kommen wird. Im Vollausbau soll es die GPU auf 4.096 Streamprozessoren bringen, die bereits der dritten GCN-Generation entspringen sollen. Erstmals soll AMD auf HBM-Speicher mit einer Kapazität von voraussichtlich 4 GB zurückgreifen. Bei „Bermuda“ soll es sich laut 3DCenter.org um eine neue Dual-GPU-Grafikkarte handeln, die AMD mit gleich zwei vollwertigen „Fiji“-Chips ausgestattet dürfte. Die AMD Radeon R9 395X2 soll es allerdings nicht vor Herbst auf den Markt schaffen, während die Single-GPU-Ableger bereits ab dem zweiten Quartal in den Handel kommen sollen.

videocardz asetek amd r9 390x kuehler k
Dies könnte der Referenz-Kühler für die kommenden AMD Radeon R9 390X werden (Bild: Videocardz.com).

Die AMD-Radeon-R9-380-Reihe dürfte hingegen auf einen leicht überarbeiteten „Hawaii“-Chip aufbauen, welcher aktuell auf der Radeon R9 290(X) zum Einsatz kommt. Ähnliches schwirrte bereits vor ein paar Wochen durch die Gerüchteküche. Gleiches Schicksaal könnte der Radeon R9 370X und Radeon R9 370 erfahren, die höchstwahrscheinlich auf Basis des aktuellen „Tonga“-Chips gebildet werden. „Tonga“ kommt bislang nur auf der AMD Radeon R9 285 zum Einsatz und brachte vor allem in Sachen Energieeffizienz einige Verbesserungen. Vermutlich dürfte dann auch endlich eine 4-GB-Version auf „Tonga“-Basis erscheinen.

Bei der Radeon-R7-360-Familie stützt man sich auf die Informationen von VR-Zone.com. Ob „Trinidad“ allerdings eine Neuentwicklung werden wird, ist unklar, denn wahrscheinlich könnte AMD noch einmal den „Pitcairn“-Chip neu auflegen, welcher bereits auf der Radeon HD 7800 und Radeon R9 270 zum Einsatz kommt. Als sicher aber scheint ein 256 Bit breites Speicherinterface samt 2 GB fassenden Videospeicher zu sein. Würde AMD „Trinidad“ auf Basis der „Pitcairn“-GPU präsentieren, dann würden zahlreiche Features wie FreeSync und VSR nicht unterstützt werden, weil „Pitcairn“ noch auf die erste GCN-Architektur aufbaut.

Eine offizielle Stellungnahme seitens AMD gibt es natürlich noch nicht. Auf einer Facebook-Fanseite von AMD ließ ein Mitarbeiter vor Kurzem aber verlauten, dass man in den finalen Zügen der Entwicklung stünde und man schon jetzt heiß darauf sei, die ersten Details zur verraten. Allzu lange dürfte es also nicht mehr dauern.

Fiji im Vergleich
Modell AMD Radeon R9 390X AMD Radeon R9 290X AMD Radeon R9 290
Straßenpreis nicht erhältlich etwa 320 Euro etwa 250 Euro
Homepage www.amd.com www.amd.com www.amd.com
Technische Daten
GPU Fiji XT Hawaii XT Hawaii Pro
Fertigung 20 nm 28 nm 28 nm
GPU-Takt (Base Clock) - 800 MHz 800 MHz
GPU-Takt (Boost Clock) 800 bis 1.000 MHz 1.000 947
Speichertakt 1.250 MHz 1.250 MHz 1.250 MHz
Speichertyp HBM GDDR5 GDDR5
Speichergröße 4.096 MB 4.096 MB 4.096 MB
Speicherbandbreite 640,0 GB/Sek. 320,0 GB/Sek. 320,0 GB/Sek.
Shadereinheiten 4.096 (1D) 2.816 (1D) 2.560 (1D)

Social Links

Kommentare (226)

#217
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Zitat fdsonne;23205271
Wenn es nur das wäre, dann wäre aber auch die Unterteilung von v1 und v2 irgendwie unsinn ;)


Naja, viel mehr sehe ich da im Moment einfach nicht. Oder willst du da auf etwas konkretes hinaus?
#218
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31950
Ne, ich nicht... Aber offenbar hat der Hersteller sich dazu entschlossen, so eine Trennung wenigstens namentlich zu tätigen... Also entweder da ist noch mehr dahinter, was wir aktuell (noch) nicht wissen, oder es geht vielleicht einfach in der v1 Version nicht bzw. ist nicht vorgesehen, die Größe zu varieren, weil man eben das unter dem Deckmantel der v2 vermarkten möchte.
#219
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat fdsonne;23204486
Gibt es aktuell Infos, ob man einer GPU, der man HBMv1 beiseite stellt, ohne weiteres/ohne dedizierte Anpassungen auch HBMv2 beiseite stellen kann? Oder wird dafür eine Anpassung an der GPU selbst notwendig?

Sofern die Anbindung gleich bleibt, sollten keinen Anpassungen notwendig sein. Erst wenn sich die Anbindung ändert, zB von 4 auf 8 Stacks, sind auch Anpassungen an der GPU notwendig.

Zitat fdsonne;23204486
Für mich ist das ganze HBMv1 Thema irgendwie ziemlich undurchsichtig. Der Sinn dahinter erschließt sich mir einfach nicht, sich einer 4GB Limitierung in v1 zu beugen obwohl die Vorteile primär auf die Computing/den Profimarkt abziehlen.

Die meisten Vorteile sind für jeden Markt wichtig, nicht nur für Computing. Kompaktere Speicheranbindung (weniger Transistorbedarf), geringere Leistungsaufnahme / höhere Bandbreite und auch schnellerer Zugriff sind ebenso für Spiele von Bedeutung. Die einzige Limitierung bei HBM1 ist der Speicher. Aber im Moment ist abseits von Premium Produkten wie der Titan auch nicht mehr als 4 GB an Bord. Daher sehe ich das für dieses Jahr nicht problematisch. Und ob man bei höheren Auflösungen wie 4K Nachteile gegenüber zB 6 GB hat, bleibt auch abzuwarten. Dafür müsste man HBM erst mal in Aktion sehen.


Zitat justINcase;23205015
Das ist natürlich völliger Blödsinn. Maxwell ist was Computing angeht meist schneller als Hawaii.
Siehe: AnandTech | The NVIDIA GeForce GTX 980 Review: Maxwell Mark 2

Und meist heisst für dich was? Synthetischer Firlefanz wie CompuBench oder veraltete [email protected] Implementierungen? :rolleyes: Schau dir richtige und aktuelle professionelle Anwendungen an. Da ist Hawaii immer noch unerreicht. Auch Maxwell kommt da nicht ran. Und viel sparsamer ist Maxwell dann meist auch nicht.
#220
customavatars/avatar172838_1.gif
Registriert seit: 11.04.2012

Flottillenadmiral
Beiträge: 4567
"Professionelle" setzen sicher nicht auf Consumer Hardware. Also was soll der Vergleich?

Rede deinen Hawaii schön. Aber Einfach zu sagen anandtech labere Mist. Ist ja wohl einer der neutralsten da draußen. Firlefanz? Ich glaub ich hör nicht recht. Glaubst du die Software basiert nur auf Luft?

Wenn du so willst, kannst doch gleich intel nehme. Da läuft "professionelle" Software auch drauf.

Erzähl doch mal was von deiner "professionellen" und "richtigen" Software die so viel besser auf der 290X als 980 läuft und gleichzeitig weniger Strom verbraucht. Office zählt nicht ... Ich bin ja gespannt Mr. pro.

Ich lasse ja allerhand boinc Projekte laufen. Und da ist bei mir Maxwell schneller und brauch weniger Strom. Erzähl mal den Projektleitern dahinter, dass ihre Software nicht "richtige Software" sei. Was für ein Blödsinn.
#221
customavatars/avatar116308_1.gif
Registriert seit: 12.07.2009

Oberleutnant zur See
Beiträge: 1479
Zitat
Also entweder da ist noch mehr dahinter, was wir aktuell (noch) nicht wissen


Wenn mich mein Englisch nicht ganz im Stich lässt - bei technischen Beschreibungen hakt es da hier und da - ist der Unterschied HBM1/HBM2 lediglich eine von Hynix frei gewählte Nummer zur Unterscheidung der verschiedenen Generationen.
IM JEDEC "JESD235" ist nur der Stack an sich spezifiziert, aber nicht wie der Stack intern aufgebaut ist, deshalb anscheinend die Nummernvergabe.


Auch scheint, das die JEDEC-Normierung "JESD235" noch nicht ganz fertig ist und ohne Normierung wird auch kein OEM diesen Typ verbauen.

AMD setzt ihn wohl Hauptsächlich ein, wegen dem geringeren Verbrauch: HBM1 -> 0,32 mW/Gbps/pin und GDDR5 -> 0,55 mW/Gbps/pin. Nvidia spricht hier sogar nur noch von 1/3 bis 1/4 Verbrauch.
Der zweite Grund könnte sein, daß es anscheinend immer wieder Spitzen in der Bandbreite gibt, die von GDDR 5 nicht mehr geleistet werden können. Stichwort Frametimes.
#222
Registriert seit: 01.01.1970


Beiträge:
Zitat Schaffe89;23204670

Wo kann ich mir denn einen Tonga Vollausbau kaufen?


Davon erwarte ich mir nicht wirklich viel. Sonst wäre der nicht die kommende 370. Der Abstand zur 290x/380 sollte ja gewahrt bleiben.
#223
customavatars/avatar122409_1.gif
Registriert seit: 31.10.2009

Oberbootsmann
Beiträge: 1020
Zitat justINcase;23206705
"Professionelle" setzen sicher nicht auf Consumer Hardware. Also was soll der Vergleich?

Rede deinen Hawaii schön. Aber Einfach zu sagen anandtech labere Mist. Ist ja wohl einer der neutralsten da draußen. Firlefanz? Ich glaub ich hör nicht recht. Glaubst du die Software basiert nur auf Luft?

Wenn du so willst, kannst doch gleich intel nehme. Da läuft "professionelle" Software auch drauf.

Erzähl doch mal was von deiner "professionellen" und "richtigen" Software die so viel besser auf der 290X als 980 läuft und gleichzeitig weniger Strom verbraucht. Office zählt nicht ... Ich bin ja gespannt Mr. pro.

Ich lasse ja allerhand boinc Projekte laufen. Und da ist bei mir Maxwell schneller und brauch weniger Strom. Erzähl mal den Projektleitern dahinter, dass ihre Software nicht "richtige Software" sei. Was für ein Blödsinn.


Dann lass mal ein paar Zahlen folgen. Du Pappnase. [ATTACH=CONFIG]313444[/ATTACH] Mit Maxwell GPGPU wie BOINC geht dir die Effizienz flöten.
#224
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat mr.dude
Und ob man bei höheren Auflösungen wie 4K Nachteile gegenüber zB 6 GB hat, bleibt auch abzuwarten. Dafür müsste man HBM erst mal in Aktion sehen.


Nö, dafür muss man HBM nicht erst in Aktion sehen, oder was soll denn mit HBM beim Speicherverbrauch anders werden?
Ich konnte da nichts in den Folien von Hynix zu finden, also kann man davon ausgehen, das sich nicht viel ändern wird.
Abgesehen von dem schnelleren Zugriff und geringeren Latenzen passiert da nüscht.
#225
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31950
Zitat mr.dude;23206237
Sofern die Anbindung gleich bleibt, sollten keinen Anpassungen notwendig sein. Erst wenn sich die Anbindung ändert, zB von 4 auf 8 Stacks, sind auch Anpassungen an der GPU notwendig.


OK, das lässt dann zumindest drauf hoffen, dass eine Version mit v2 HBM Speichern hinterher kommt, wo eben dann auch mehr Speicher geht...

Zitat mr.dude;23206237
Die meisten Vorteile sind für jeden Markt wichtig, nicht nur für Computing. Kompaktere Speicheranbindung (weniger Transistorbedarf), geringere Leistungsaufnahme / höhere Bandbreite und auch schnellerer Zugriff sind ebenso für Spiele von Bedeutung. Die einzige Limitierung bei HBM1 ist der Speicher.

Im Moment haben wir auch keine SGPU Karte im Programm, die spekuliert ~40-45% schneller als der Hawaii Vollausbau ist. :wink:
Auch wenn es keine direkte Abhängigkeit von VRAM Größe und GPU Power gibt, so besteht einfach das "Problem", dass mehr GPU Power umgesetzt in mehr BQ idR gleichbedeutend mit mehr VRAM Verbrauch ist. Das zeigen so ziemlich alle GPUs in den letzten Jahren. Mit Fermi SLI und 1,25/1,5GB spielen ist trotz viel GPU Leistung einfach seit einer Weile nicht mehr wirklich drin. Und im SLI skaliert Fermi in etwa auf aktuellem HighEnd SGPU Niveau. -> was fehlt ist VRAM.
Diese Tatsache gibts nicht nur bei Fermi zu sehen. Auch andere Modelle zeigen dieses Verhalten -> GK104 mit 2GB VRAM, Tonga mit 2GB VRAM, RV870 mit 1GB VRAM usw. usf.
Ab einem gewissen GPU Leistungslevel kann man Effekte in Spielen fahren, die mehr VRAM benötigen -> und ist der VRAM nicht da, gehts einfach nicht.

Von den anderen aufgezählten Sachen halte ich ebenso vieles Marketing. Wie schonmal angesprochen, die Bandbreite ist dann entscheidend, wenn sie limitiert. Tonga und auch GM204 zeigen, dass man wenig Bandbreite in aktuellen Leistungsklassen braucht. Gemessen am realen Durchsatz, die die 970er erreicht, wäre der HBMv1 Ansatz mehr als 4x so schnell! Das verpufft, da brauch ich die Karte nichtmal kennen um das vorrauszusagen...
Und durch diese Annahme schrumpft auch der Verbrauchsvorteil... Denn GDDR5 basierte Interfaces scheinen in erster Linie durch die Interfacebreite und auch ein Stück weit durch den Speichertakt/die dafür benötigte Spannung ihren Verbrauch zu bestimmen. 256Bit bei gängigen Taktraten und GDDR5 heist dann eben nicht mehr 2/3 weniger Verbrauch für HBM(v1), sondern nur noch in etwa 1/4 weniger. Die Rechnung geht allerdings nur auf, wenn die Bandbreite ausreicht -> und das scheint mir die große Unbekannte zu sein aktuell.
Auch schnellerer Zugriff ist alles andere als greifbar. Mit mehr Takt wird der Spaß auch schneller im Zugriff -> interessiert unter Spielelast aber nur die wenigsten GPUs.
Transistorbedarf scheint mir da noch am greifbarsten -> für mich als Endkunde aber eine Tatsache, die mich einfach nicht interessiert ;)
#226
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat justINcase;23206705
"Professionelle" setzen sicher nicht auf Consumer Hardware. Also was soll der Vergleich?

Ich habe auch nicht von Consumer Hardware gesprochen. Ich sprach von Hawaii. Und der kommt genauso bei FirePros zum Einsatz.

Zitat justINcase;23206705
Rede deinen Hawaii schön. Aber Einfach zu sagen anandtech labere Mist. Ist ja wohl einer der neutralsten da draußen.

Habe ich gesagt, dass Anandtech Mist labert? Nein. So ein Testparcours sagt trotzdem nicht viel. Ach ja, Anandtech und einer der neutralsten da draussen. Der ist echt zu gut. :haha:

Zitat justINcase;23206705
Ich lasse ja allerhand boinc Projekte laufen.

Dir ist aber schon bewusst, dass BOINC Projekte teils schlecht für neue Hardware optimiert sind? Adäquater GPU Support ist meines Wissens nach wie vor Mangelware. Es ist immer noch ein Unterschied zwischen dem, was eine Anwendung kann und was eine Hardware hergibt. Hast du denn deine Projekte mal mit einer Hawaii basierten Karte laufen lassen, um zu vergleichen? Kannst du uns ein paar Zahlen dazu bringen? Und welche Projekte sind das überhaupt?


Zitat fdsonne;23207768
Im Moment haben wir auch keine SGPU Karte im Programm, die spekuliert ~40-45% schneller als der Hawaii Vollausbau ist. :wink:
Auch wenn es keine direkte Abhängigkeit von VRAM Größe und GPU Power gibt, so besteht einfach das "Problem", dass mehr GPU Power umgesetzt in mehr BQ idR gleichbedeutend mit mehr VRAM Verbrauch ist. Das zeigen so ziemlich alle GPUs in den letzten Jahren. Mit Fermi SLI und 1,25/1,5GB spielen ist trotz viel GPU Leistung einfach seit einer Weile nicht mehr wirklich drin. Und im SLI skaliert Fermi in etwa auf aktuellem HighEnd SGPU Niveau. -> was fehlt ist VRAM.

Wenn Mantle / DirectX 12 den VRAM zusammenschalten kann, dann wäre zumindest auch mit HBM1 und einem Crossfire Gespann drin, mindestens 8 GB effektiv bei entsprechenden Qualitätseinstellungen zu nutzen. Bei Single-GPU Setups oder bisherigen DirectX Anwendungen nützt das natürlich nichts.

Zitat fdsonne;23207768
Von den anderen aufgezählten Sachen halte ich ebenso vieles Marketing. Wie schonmal angesprochen, die Bandbreite ist dann entscheidend, wenn sie limitiert. Tonga und auch GM204 zeigen, dass man wenig Bandbreite in aktuellen Leistungsklassen braucht. Gemessen am realen Durchsatz, die die 970er erreicht, wäre der HBMv1 Ansatz mehr als 4x so schnell! Das verpufft, da brauch ich die Karte nichtmal kennen um das vorrauszusagen...

Das ist dann aber reines Balancing. Was du an Bandbreite nicht brauchst, gewinnst du an Energie, und umgekehrt. So oder so, mindestens ein Vorteil bleibt. 4096 Shader brauchen sicherlich auch mehr Bandbreite als Hawaii und erst recht als Tonga. Auch Delta Color Compression kann das nicht komplett kompensieren. Zumal das eben auch nur für Bilddaten genutzt wird. Bei Computing nützt dir das nicht viel.

Zitat fdsonne;23207768
Transistorbedarf scheint mir da noch am greifbarsten -> für mich als Endkunde aber eine Tatsache, die mich einfach nicht interessiert

Wenn dadurch mehr Shader für mehr Performance implementiert werden können oder der Chip kleiner und damit kostengünstiger wird, interessiert dich das auch als Endkunde. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]