> > > > Informationen zur Radeon RX Vega 32 und Vega 28 als Einsteigermodelle

Informationen zur Radeon RX Vega 32 und Vega 28 als Einsteigermodelle

Veröffentlicht am: von

radeon-vega-frontier-edition

Bisher kennen wir die Vega-Architektur von AMD nur in einer Ausführung. Die Radeon RX Vega 64, Radeon RX Vega 56, Radeon Vega Frontier Edition und Radeon Instinct MI25 basieren allesamt auf der Vega-10-GPU mit maximal 4.096 Shadereinheiten und einem 2.048 Bit breitem Speicherinterface – einzig der Speicherausbau liegt bei entweder 8 oder 16 GB High Bandwidth Memory der zweiten Generation.

Ebenfalls bereits mehrfach berichtet wurde über eine Vega-11-GPU, die eine abgespeckte Variante sein soll. Zur Siggraph stellte AMD die Radeon Pro WX 9100 und Radeon Pro SSG mit Vega-10-GPU und besagten 16 GB HBM2 vor. In diesem Zusammenhang wurde auch die Rechenleistung der Vega-10-GPU noch einmal zum Thema, denn die Die Vega-Architektur besitzt ein Verhältnis für die doppelte Genauigkeit von 1:16 im Vergleich zur einfachen Genauigkeit, sodass die Radeon Pro WX 9100 auf 768 GFLOPS kommt. In einem Nebensatz wurde damals erwähnt, dass man an Produkten arbeitet, die sich der doppelten Genauigkeit annehmen. Mutmaßlich wird die Vega-20-GPU dieses Bedürfnis an höherer Genauigkeit befriedigen können. Weitere Details dazu stehen aber wie zu Vega-11-GPU noch aus.

Radeon RX Vega 32 und Radeon RX Vega 28

Aus Asien stammen nun Gerüchte zu einer Radeon RX Vega 32 und Radeon RX Vega 28. Beide sollen grundsätzlich auf der Vega-11-GPU basieren. Die Radeon RX Vega 32 auf der Vega-11-XT-GPU und die Radeon RX Vega 28 auf der Vega-11-Pro-GPU. Während erstgenannte 2.038 Shadereinheiten (32 CUs), 4 GB HBM2 und ein 1.024 Bit breites Speicherinterface bieten soll, bringt es die Radeon RX Vega 28 auf 1.792 Shadereinheiten (28 CUs) und ebenfalls 4 GB HBM2 sowie ein 1.024 Bit breites Speicherinterface.

Sollten die technischen Daten zutreffen, dürfte AMD mit den entsprechenden Radeon-RX-Vega-Karten in der Mittelklasse antreten. Die GeForce GTX 1060 und GeForce GTX 1050 sind dann die entsprechenden Gegenstücke aus dem Hause NVIDIA. Damit dürften solche Modelle auch die Nachfolger der Polaris-basierten Karten sein.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (45)

#36
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3075
Das Problem egalisiert sich grade, weil HBM und die dazu passenden Packages immer günstiger werden (Interposer kosten eh so gut wie nichts), da man immer größere Mengen produziert, und normaler DRAM wird immer teurer. GDDR5 ist schon 30% teurer geworden durch Verknappung bei den Speicherherstellern und wird noch mal um 40% steigen, mit den restlichen DRAMs. Langfristig dürfte sich HBM durchaus lohnen oder jedenfalls kein Nachteil mehr sein.
Durch den HBCC ist auch die Speichermenge kein Problem, die Technik ist ganz gut nutzbar, lt. mehreren Tests mittlerweile, wichtig hierbei ist halt, dass der System-RAM auch etwas besser ist als Minimum (2133). Texturen kommen durchaus mit langsamen Speicher aus, wenn sie brauchbar gecached sind.


Dass Vega an der Bandbreite hängt, liegt mitnichten am HBM, sondern daran, dass die Primitive-Shader noch nicht aktiv sind. Die sparen neben den DSBR Bandbreite. Das Design ist halt ohne diese Technologien zu sehr auf Kante gebaut. Das hat mit HBM nichts zu tun.
#37
Registriert seit: 16.05.2015

Leutnant zur See
Beiträge: 1115
Jaja, wenn erst dies und das gemacht wird. Seit wann höre ich das? Ach ja seit der Geforce Fx. Wann ist es mal eingetreten?
#38
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3075
Neue Technologien gab es oft und die meisten setzten sich letztendlich durch.
Irgendjemand muss halt in den sauren Apfel beißen. In diesem Falle ist das AMD, aber es wird halt den ganzen Markt, auch NV, weiterbringen, da HBM schon einige Vorteile hat. Ich kann diese Ablehnung solcher Technologien einfach nicht verstehen. Ist das weil es von AMD kommt? Wenn sowas von NV kommen würde, säh man bestimmt die gleichen Leute plötzlich HBM total abfeiern...
#39
Registriert seit: 16.05.2015

Leutnant zur See
Beiträge: 1115
Nicht Weil es von AMD kommt. Weil AMD die Rohleistung nicht auf die Straße bekommt. Und wenn man schon kaum Kohle hat, sollte man auf teure Experiment verzichten.
#40
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33227
Zitat [HOT];25836395
Ist das weil es von AMD kommt? Wenn sowas von NV kommen würde, säh man bestimmt die gleichen Leute plötzlich HBM total abfeiern...


Nein, der Unmut kommt doch deswegen, wenn durch einführen neuer Techniken A) kein sichtbarer Vorteil aber B) ggf. ein Nachteil entsteht.
Wenn ich mir die Fury ansehe, erster HBM Versuch. Eigentlich ne tolle Hardware, hier und dort ein paar Schwachstellen, aber geschenkt, das hat doch jedes Produkt. Der VRAM bricht dem Ding aber HEUTE das Genick. Es ist einfach zu wenig... Genau so wie es bei anderen Karten (nicht nur AMD) auch nach ein paar Monaten der Fall ist/war. -> ist halt keine Eigenart von solchen Techniken. Aber das relativiert eben Nachteile durch solche Techniken nicht... Nenn es von mir aus Spaßbremse. Ich für meinen Teil zahle ungern mit Nachteile für Techniken, die mich nicht weiter bringen.

Und die Fury GPU war bis vor kurzem noch das höchste der AMD GPU Gefühle am Markt. DAS ist (aus meiner ganz persönlichen Sicht) AMDs Problem. Sie wollen solche Techniken pushen. Alles kein Problem, aber es geht nicht selten eben zulasten von irgendwas. Und das kommt ggf. halt umgedreht nach ein paar Monaten zurück.
Gleiches Spiel bspw. auch mit den Lower Level APIs... AMD pusht das, alles kein Ding, aber es geht zulasten der DX11 Umsetzung und die geneingten Kunden haben damit potentiell einfach einen Nachteil, weil AMD das nicht versucht gerade zu rücken. Bestes Beispiel war da BF4 mit Mantle. Das lief derart bescheiden auf DX11 und gemunkelt wurde dann, dass es AMD absichtlich nicht optimiert um Mantle zu pushen, was rückblickend auf die Möglichkeiten, wie NVs DX11 Umsetzung skalierte, nicht von der Hand zu weisen ist.

Am Ende ist es dem Kunden doch völlig egal, ob da HBM drauf ist oder nicht. Speicher kostet Geld und gibts in Größe xyz. Die Wahl zwischen 4-8GB HBM zu 8+ GB GDDR5 stellt sich von der Warte her gar nicht, wenn man die 8GB HBM dann soweit runterkastriert, dass die Vorteile gar nicht mehr ankommen... Und wie man hier sehen kann, 4GB für ne Mittelklasse will auch keiner mehr. HBM hin oder her.
#41
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3075
Leute, das hat mit HBM nichts, aber auch gar nichts damit zu tun, dass AMD die Rohleistung nicht auf die Strasse bekommt... ich find diesen Zusammenhang sowas von dämlich... das geht auch nicht zulasten von irgendwas. AMDs Problem sind die Magerjahre 2012 und 13, sonst gar nichts. Hier fehlte eben GPU und Softwareentwicklung massiv. Hier gabs den Braindrain, der die Softwareabteilung immer noch richtig beschäftigt. Bei HBM liegt der Löwenanteil der Entwicklungsarbeit bei den Speicherherstellern, nicht bei AMD. Die haben das Problem ein brauchbares Package in Massenproduktion zu bekommen. Dass AMD auf HBM setzt ist nur kostentechnisch z.Z. nicht toll, aber das wird sich im Laufe von 2018 relativieren. Schmeisst da doch nicht dauernd Sachen zusammen, die nicht zusammen gehören.
Was ich meine, dass es pausenlos Dauerfeuer auf die Technologie HBM gibt, ohne zu verstehen, was da eigentlich Sache ist. Und das ist sehr wohl gegen AMD gerichtet. Da sind halt doch einiges frustriert und andere schadenfroh.
#42
Registriert seit: 16.05.2015

Leutnant zur See
Beiträge: 1115
Dann hätte man ja auf das teure Experiment verzichten können.
#43
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33227
Hot, ist denke du missinterprätierst den Unmut... Man macht aus meiner Sicht HBM und AMD als Hersteller nur teils verantwortlich, nicht WEIL die Technik so Mist ist (ganz im Gegenteil), sondern weil es man diese Technik durch Kompromisse erkauft... Wobei das klar nicht ausschließlich HBM ist sondern eher im Gesamten zu sehen ist. Sachen wie die notwendigen Softwareanpassungen um ihre Leistung auf die Straße zu bringen. Oder auch das permanente Strohhalmgreifen nach Treiberoptimierungen und zukünftigen Ansätzen (FP16, PrimitiveShader, LowerLevel APIs, HBCC usw.)
Die Leute wollen keine 300-400W Schleuder, die erst in 2 Jahren ihre Performance auf die Straße bringt. HBM/DX12/Vulcan hin oder her... Schließlich will AMD bzw. der Händler auch heute das Geld und nicht erst in zwei Jahren, denn dann gibts die Hardware auch für deutlich günstiger.

Vega sagt man nach, es lag maßgeblich am HBM, dass die GPU so spät kam
Fiji verhungert nicht erst seit heute an den 4GB
Vega wird vorerst nicht auf 16GB im Gamerbereich kommen. Die 8GB könnten früher oder später ebenso zum Limit werden. Die 4GB, die man hier spekuliert, definitiv.


Und was 2012/13 angeht, auch das sehe ich anders. 2012 mit Tahiti war AMD näher dran an NV als jemals zuvor in der AMD-GPU Geschichte... Und nun, 2017 sind sie weiter weg als jemals zu vor. Nach Steamumfrage sind auch heute noch die 7900er Modelle ganz oben im Rating (Anzahl) dabei.
Die Vergangenheit zeigt, die Masse kauft vermehrt energieeffiziente Modelle. Siehe RV670, RV770, RV870, GK104, GM204 und GP104. Mit GV104 wird sich das wahrscheinlich nicht ändern... Blöderweise hat AMD ab Cayman Effizienz gegen absolute Leistung getauscht. Damit haben sie sich aus meiner Sicht selbst ihren dicksten Pluspunkt ggü. der Konkurrenz abgesägt. Der zweite Pluspunkt war VRAM Menge. Und das ist mit HBM ebenso vom Tisch ;)


Wenn es AMD packt, keine Ahnung, Mitte 2018 GV104 Leistungsniveau mit HBM 12-16GB und das bei ~180-200W Verbrauch zu bringen. Diese bescheuerten Packs weglassen wäre auch ne Idee. -> die Leute würden kaufen ;) Dann wären quasi alle Nachteile vom Tisch. Nur wird es so kommen? Mit leichten Prozessoptimierungen machst du aus 300W nicht 200W bei mehr Leistung schon gar nicht... Da nutzt dir der HBM und dessen Verbrauchseinsparungspotential auch nix... Selbst das Preisargument ist mit Vega nicht mehr gültig. Teils 650€ für ne 64er Vega :stupid: -> kann AMD nicht direkt was für, aber der Bockmist mit den Packs geht klar auf ihre Kappe!
#44
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

Korvettenkapitän
Beiträge: 2474
Das Ende von Polaris steht wohl bevor:
AMD: Radeon-RX-500-Karten weichen der RX Vega 28 und 32
#45
customavatars/avatar274425_1.gif
Registriert seit: 14.09.2017

Gefreiter
Beiträge: 47
Ihr dürft nicht immer davon ausgehen, dass jeder der sich eine neue Karte kauft in 1440p (oder mehr) spielen will. Es gibt durchaus Menschen die auf die aktuellen GraKa-Generationen umsteigen wollen, weil:
- weniger Strom verbraucht wird
- die alte Karte kaputt ist
- die Optic sich verbessert hat (RGB,...)

alle Games die in 1080p mit einem 60 Hz Monitor gespielt werden laufen mit solchen vermeindlich schwachen Karten perfekt. IMHO sind in bestimmten Anwendungsfällen Karten mit 4GB Grafikspeicher in Ordnung.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]