> > > > Polaris neu aufgelegt: AMD Radeon RX 580 und RX 570 im Test

Polaris neu aufgelegt: AMD Radeon RX 580 und RX 570 im Test

DruckenE-Mail
Erstellt am: von

Seite 1: Polaris neu aufgelegt: AMD Radeon RX 580 und RX 570 im Test

amd rx500 logoNach dem durchaus erfolgreichen Start der RYZEN-Prozessoren im High-End- und Mittelklasse-Segment beginnt bei AMD die zweite Phase des Neustarts – könnte man meinen. Heute soll aber noch nicht die Vega-Architektur das Thema sein, sondern AMD legt mit der Radeon-RX-500-Serie die Polaris-Architektur neu auf und will über Verbesserungen in der Fertigung auch für den Endkunden ein besseres Gesamtpaket bieten. Wer bereits eine Karte der RX-400-Serie besitzt, wird aber keinen Kaufanreiz verspüren, vielmehr zielt AMD auf die Käuferschicht ab, die von früheren Karten wechseln möchte. Wir schauen uns heute zwei Modelle der Radeon RX 580 sowie eines der Radeon RX 570 an.

Wo AMD die Käufer sieht, macht man mit folgenden Zahlen deutlich: Rund 80 % aller Gaming-Rechner besitzen eine Grafikkarte der Leistungsklasse Radeon RX 380X oder niedriger. Ab dieser soll sich ein Update auf die Radeon RX 580 lohnen. Virtual Reality spielt auch eine Rolle, wenngleich die Stückzahlen sich sicherlich nicht alleine durch VR erreichen lassen werden. AMD setzt aber weiter auf diesen Trend.

Ein Hinweis zum Test: Über die Osterfeiertage hatten wir natürlich nicht die Zeit für einen ausführlichen Test, wie wir ihn sonst anfertigen können. Wir werden diesen Artikel in den nächsten Stunden aber weiter ergänzen – beispielsweise um Overclocking-Ergebnisse. Eventuell werden wir auch die einzelnen Karten etwas ausführlicher beschreiben.

Die AMD Radeon-RX-500-Serie basiert weiterhin auf der Polaris-Generation. AMD bezeichnet dies als "Polaris. Refined". Maßgeblich dafür verantwortlich ist die Fertigung in 14 nm. Laut AMD verwendet man hier die dritte Generation eines Fertigungsprozesses in 14 nm. Dazu hat man sich die Technologie von Samsung zertifiziert, die GPUs laufen aber auch bei GlobalFoundries vom Band. Es handelt sich bei der Fertigung um eine Verbesserung des 14LPP-Prozesses. Wir bezeichnen dies hier einmal als 14LPP+ – LPP steht dabei für Low Power Performance.

AMD erwartet sich von der neuen Fertigung einige kleinere Verbesserungen bei der Leistungsaufnahmen oder umgekehrt einen höheren Takt bei gleicher Leistungsaufnahme. Dies zeigt sich auch gleich bei den Taktraten. Auf die einzelnen Modelle gehen wir nun genauer ein.

Heute vorgestellt werden die Radeon RX 580, RX 570, RX 560 und RX 550. Alle vier Karten setzen auf die Polaris-Architektur und einige der GPUs werden uns auch bekannt vorkommen. Andere wiederum haben wir bei der RX-400-Serie so noch nicht gesehen. Von allen Karten unterstützt wird FreeSync, Radeon Chill sowie das De- und Encoding in HEVC H.265 in 4K-Auflösung.

AMD Radeon RX 580

Die technischen Daten der Radeon RX 580 in der Übersicht
Modell: Radeon RX 580 Radeon RX 480
Straßenpreis: 259 Euro 229 Euro
Technische Daten
GPU: Polaris 20 Polaris 10
Fertigung: 14 nm 14 nm
Transistoren: 5,7 Milliarden 5,7 Milliarden
GPU-Takt (Basis): 1.257 MHz 1.120 MHz
GPU-Takt (Boost): 1.340 MHz 1.266 MHz

Speichertakt:

2.000 MHz 2.000 MHz
Speichertyp: GDDR5 GDDR5
Speichergröße: 4 / 8 GB 4 / 8 GB
Speicherinterface: 256 Bit 256 Bit
Speicherbandbreite: 256 GB/s 256 GB/s
DirectX-Version: 12 12
Shadereinheiten: 2.304 2.304
Textureinheiten: 144 144
ROPs: 32 32
Pixelfüllrate: 42,88 GPixel/s 40,512 GPixel/s
Texturfüllrate: 192,96 GTexel/s 182,304 GTexel/s
Rechenleistung: 6,125 TFLOPS 5,833 TFLOPS
Typische Boardpower: - 150 W
SLI/CrossFire CrossFire CrossFire

Die Radeon RX 580 basiert auf der Polaris-20-GPU, die rein auf die Architektur bezogen keinerlei Unterschiede zur Polaris-10-GPU zu bieten hat. Die Fertigung wurde verbessert und daher auch die neue Namensgebung. Den Basis- und Boost-Takt hat AMD aufgrund dieser neuen Fertigung auf 1.257 bzw. 1.340 MHz anheben können. Die Custom-Modelle gehen hier aber noch einen Schritt weiter und takten auf über 1.400 MHz.

Die Radeon RX 580 wird mit 4 und 8 GB an Grafikspeicher erhältlich sein. Zu empfehlen ist aber nur die 8-GB-Variante, da ansonsten der Speicherausbau zu Limitierung werden könnte. Der Speicher ist über ein 256 Bit breites Speicherinterface angebunden. Der Takt beläuft sich auf 2.000 MHz und damit die Speicherbandbreite auf 256 GB/s. Zu den 36 Compute Units bzw. 2.304 Shadereinheiten gesellen sich auch noch 144 Textureinheiten und 32 ROPs.

AMD Radeon RX 570

Die technischen Daten der Radeon RX 570 in der Übersicht
Modell: Radeon RX 570 Radeon RX 470
Straßenpreis: 199 Euro 170 Euro
Technische Daten
GPU: Polaris 20 Polaris 10
Fertigung: 14 nm 14 nm
Transistoren: 5,7 Milliarden 5,7 Milliarden
GPU-Takt (Basis): 1.168 MHz 926 MHz
GPU-Takt (Boost): 1.244 MHz 1.206MHz

Speichertakt:

1.650 MHz 1.650 MHz
Speichertyp: GDDR5 GDDR5
Speichergröße: 4 GB 4 GB
Speicherinterface: 256 Bit 256 Bit
Speicherbandbreite: 211,2 GB/s 211,2 GB/s
DirectX-Version: 12 12
Shadereinheiten: 2.048 2.048
Textureinheiten: 128 128
ROPs: 32 32
Pixelfüllrate: 39,808 GPixel/s 38,592 GPixel/s
Texturfüllrate: 159,232 GTexel/s 135,072 GTexel/s
Rechenleistung: 5,095 TFLOPS 4,322 TFLOPS
Typische Boardpower: - 120 W
SLI/CrossFire CrossFire CrossFire

Auch die Radeon RX 570 basiert auf der Polaris-20-GPU, kommt allerdings in einer anderen Ausbaustufe daher. Dies ist auch der entscheidende Unterschied zur Radeon RX 470, die hier etwas anders aufgestellt war. Die Variante mit 1.792 Shadereinheiten war allerdings dem chinesischen Markt vorbehalten. Die Variante der Radeon RX 470 mit 2.048 an Shadereinheiten war auch hierzulande erhältlich. Die Anzahl der Textureinheiten beträgt 128. Da AMD bei der Radeon RX 570 ebenfalls ein Speicherinterface mit 256 Bit zum Einsatz kommt, sehen wir auch hier 32 ROPs.

Die Radeon RX 570 kommt mit 4 GB GDDR5 daher. Dieser arbeitet mit einem Takt von 1.650 MHz und kommt damit auf eine Speicherbandbreite von 211,2 GB/s. Auch bei der Radeon RX 570 kann AMD den Basis- und Boost-Takt durch die verbesserte Fertigung erhöhen. 1.168 bzw. 1.244 MHz sollen es in der Referenzversion sein. Auch hier werden wir aber sicherlich schnellere Varianten durch die Boardpartner geboten werden.

AMD Radeon RX 560 und 550

Die technischen Daten der Radeon RX 560 und RX 550 in der Übersicht
Modell: Radeon RX 560 Radeon RX 550 Radeon RX 460
Straßenpreis: 99 Euro 79 Euro 85 Euro
Technische Daten
GPU: Polaris 21 Polaris 12 Polaris 11
Fertigung: 14 nm 14 nm 14 nm
Transistoren: 3 Milliarden - 3 Milliarden
GPU-Takt (Basis): 1.175 MHz 1.183 1.090 MHz
GPU-Takt (Boost): 1.275 MHz 1.183 MHz 1.200 MHz

Speichertakt:

1.750 MHz - 1.750 MHz
Speichertyp: GDDR5 GDDR5 GDDR5
Speichergröße: 4 GB 2 GB 2 GB
Speicherinterface: 128 Bit 64 Bit 128 Bit
Speicherbandbreite: 112 GB/s - 112 GB/s
DirectX-Version: 12 12 12
Shadereinheiten: 1.024 512 896
Textureinheiten: 64 32 56
ROPs: 16 8 16
Pixelfüllrate: 20,592 GPixel/s - 19,2 GPixel/s
Texturfüllrate: 72,072 GTexel/s - 67,2 GTexel/s
Rechenleistung: 2,636 TFLOPS - 2,15 TFLOPS
Typische Boardpower: - - 75 W
SLI/CrossFire CrossFire CrossFire CrosFire

Auch bei der Radeon RX 560 und RX 550 kommen zwei neue GPUs zum Einsatz. Auf der Radeon RX 560 ist dies die Polaris 21 mit 16 Compute Units bzw. 1.024 Shadereinheiten. Hinzu kommen 64 Textureinheiten und 16 ROPs. Der Basis- bzw. Boost-Takt beläuft sich auf 1.175 bzw. 1.275 MHz. Der Speicherausbau hat sich mit 4 GB im Vergleich zum Vorgänger verdoppelt. Der Takt des GDDR5 liegt bei 1.750 MHz. Das 128 Bit breite Speicherinterface kommt mit diesem Takt auf eine Speicherbandbreite von 112 GB/s.

Kleinster Neuling ist die Radeon RX 550. Mit acht Compute Units bzw. 512 Shadereinheiten eignet sie sich nur noch für Gelegenheitsspieler. Derzeit ist nur der Boost-Takt von 1.183 MHz bekannt. Unbekannt sind aber der Basis- und Speichertakt. Der Speicherausbau beläuft sich auf 2 GB GDDR5, die über ein 64 Bit breites Speicherinterface angebunden sind. Bei der Radeon RX 550 sind also noch einige Fragezeichen vorhanden, die wir aber sicherlich in Kürze klären wären.

 

Social Links

Seitenübersicht

Kommentare (129)

#120
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 11329
Muss nicht sein, sieht man an der mäßigen DX12 Performance (mangelnde Compute Power) und die deutlich höhere Abhängigkeit von optimierten Treibern (ältere Nvidia Karten ohne wirklichen Treibersupport) von Nvidia, da sie einen Software Scheduler verwenden was u.a. auch Strom spart.

Das was Nvidia jetzt macht (auf compute verzichten usw.) hat AMD mit der HD5000er Reihe etc. auch gemacht, erst ab GCN wurde wieder auf Compute gesetzt.
Außerdem gewinnt Nvidia noch mehr Effizienz durch das fehlen eines Hardware Schedulers und durch das Tile-Based Rasterization, was AMD ähnlich mit Vega einführen wird.

Wie er im Video schon sagte, GCN = Master of all

Man sieht einfach perfekt, wie das besser Produkt durch einen schlechteren Ruf (der u.a. durch die Nvidia Fanboys hervorgerufen wurde/wird und durch AMDs Fehler in der Vergangenheit) nicht gekauft wird. (nicht spezifisch nur auf die RX400/500er Serie bezogen)
#121
customavatars/avatar15725_1.gif
Registriert seit: 28.11.2004

Admiral
Beiträge: 13097
Zitat RAZ0RLIGHT;25494861
Man sieht einfach perfekt, wie das besser Produkt durch einen schlechteren Ruf...

nvidia hat keinen schlechten ruf. allerdings AMD schon im bereich grafikkarten, selbst leute die ich kenne, die AMD CPUs kaufen, meiden AMD grafikkarten.
#122
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4310
Zitat RAZ0RLIGHT;25494861
Muss nicht sein, sieht man an der mäßigen DX12 Performance (mangelnde Compute Power)...


Da vermischst du etwas, denn nVidias "DX12-Schwäche" hat mit mangelnder Compute Power wenig zu tun. Das liegt viel mehr am Context Switching (-> Google). Zudem sind alle Games FP32 abhängig. Compute Power, also FP64 wird hier i.d.R. nicht benötigt.

In dem Video geht es u.a. darum zu zeigen, dass nVidia mittlerweile die finanziellen Mittel hat um im Chipdesign zweigleisig zu fahren. AMD setzt auf einen All-in-One Chip mit ausgewogener FP32 [U]und[/U] FP64 Performance. NVidia setzt dagegen auf 2 Chips, jeweils einen für den Comsumer und einen für das Profisegment. Dem Consumer-Chip fehlen (u.a.) die FP64-Einheiten, das spart Die-Fläche und damit Kosten. Für den Gamer hat das aber wie bereits geschrieben kaum eine Auswirkung, da Games hauptsächlich von der FP32-Leistung abhängig sind.
#123
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 11329
Dann hör dir nochmal an WIE Nvidia an diese Gelder gekommen ist, nur durch den Ruf, weniger durch die Produkte (vor Maxwell!)

Aber egal, sowas ist heutzutage ja normal *hust* Apple *hust* :)
#124
Registriert seit: 07.04.2015

Gefreiter
Beiträge: 45
Zitat Simaryp;25494588
Du meinst aber die 4GB Variante, oder?

Nein. Lohnt sich immer mal wieder auf mydealz zu schauen, da findet man sowas.

Gesendet von meinem ONE A2003 mit Tapatalk
#125
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 32569
Zitat Cippoli;25494840
Das Video ist sehr empfehlenswert, aber leider verfehlt es hier den Kontext, denn diese "Abstriche" sind für den reinen Gamer eher uninteressant.

Nicht nur das... Der Markt bzw. die potentiellen Kunden dürfte es auch wenig bis gar nicht interessieren, WARUM das so ist wie es ist... Die wollen doch wohl viel eher überzeugt werden, das es auch anders geht, denn schließlich geben sie das Geld und wollen was dafür "sehen".

Man könnte die Aussagen da irgendwie unter Hinhalteparolen verbuchen... Bei AMD krankt es aus meiner Sicht im GPU Gamer Bereich primär am Zeitfaktor, nicht wirklich aber an der Hardware. Während Tahiti und die ersten GCN Ableger noch zeitlich vorn lagen, war fast alles folgende zum Teil wirklich deutlich später ran. Das hat auch NV offenbar gemerkt, da bis dato alle drei größeren Pascal Releases irgendwie AMD in die Parade gefahren haben. GP104 eher als Polaris, GP102 TitanX aus der Kalten für einen spekulierten Vega Termin. GP102 1080TI am Ryzen Release, gefolgt von der neuen TitanX als max. der Reihe. Und Vega weiterhin nicht im Regal, stattdessen ein mehr oder weniger simpler Refresh der Polaris GPUs samt weiteren Karten noch weiter drunter. -> in Leistungsklassen, die seit 2012-2013! schon bedient werden, auch von AMD...

Hätten se doch wenigstens noch nen doppelten Tonga samt vollem 384Bit SI und 12GB GDDR5 im aktuellen Prozess über Polaris gestellt. Dann wäre wenigstens im Bereich 1070-1080 irgendwie Konkurenz da und Fiji als schnellstes AMD Modell im Moment müsste nicht veruschen die "Fahne hochzuhalten", wohlwissen, das der VRAM mittlerweile eng wird. -> hat man aber nicht gemacht und könnte durchaus als Indiz verstanden werden, dass AMD der HighEnd Gamermarkt so wichtig gar nicht zu sein scheint...

Zitat RAZ0RLIGHT;25494988
Dann hör dir nochmal an WIE Nvidia an diese Gelder gekommen ist, nur durch den Ruf, weniger durch die Produkte (vor Maxwell!)

Wie andere Unternehmen auch... Effektiv ist das in der kompletten Wirtschaft so, dass "Ruf" ein starkes und gutes Mittel sein kann um Produkte an den Mann zu bringen...
Die große Preisfrage ist und bleibt dabei eigentlich nur -> warum sind AMDs Produkte nicht so gut, den "Ruf" von NV zu überdecken??

Nur mal als Beispiel, was die "Leute" durchaus als komisch empfinden und warum das mit dem Ruf bei NV definitiv zu ziehen scheint:
AMDs GPU-Architektur Polaris: Hocheffiziente 14-nm-Grafikchips ab Mitte 2016 | heise online
"AMD hat im Vorfeld der CES einen Ausblick auf seine kommende Grafikchip-Architektur "Polaris" gegeben."
...
"AMD spricht von einem "historischen Durchbruch" bezüglich des Performance-pro-Watt-Verhältnisses von Radeon-GPUs."

Ist Polaris genau das was diese Zeilen an Erwartung schüren!? ;)
Und ja, dem aufmerksamen Leser fällt auch auf, dass da "von Radeon-GPUs" steht und eine Ableitung auf NV damit eigentlich unpassend wäre... Nur hat NV eben nicht nur "Ruf", wie du es behauptest, sondern es kommt auch hier und dort mal eine GPU hinten bei raus. Auch vor Polaris war das nicht anders. Und offenbar scheint dem Markt das zu reichen, sonst hätte NV nicht ein Rekord-Quartal nach dem anderen auf der Habenseite... (und das mit deutlich mehr Umsatz im Gamerbereich als im Profibereich!!). Wie oben erwähnt, das WARUM interessiert den Markt offenbar nicht die Bohne ;)
#126
Registriert seit: 23.08.2010

Stabsgefreiter
Beiträge: 288
Nvidia hat sich diesen besseren Ruf aber auch dadurch erarbeitet, indem sie enger mit den Spielentwicklern zusammen gearbeitet haben als Amd, sodass Fehler schneller behoben wurden oder dass durch Game Ready-Treiber am Releasetag die Performance on point war. Ich weiß z.B. noch beim Release von GTA 4, wo Nvidia viel schneller reagiert hat und man das Spiel wenigstens spielen konnte, während man mit Amd Grafikkarten länger warten musste, siehe hier.

Dann ist noch Gameworks zu nennen, welche Spiele teilweise echt schöner machen, ja ist ehr ein subjektiver Punkt. Ich bin Fan von HBAO+, finde aber dafür PCSS nicht so toll, zu viel Leistung für zu wenig optische Aufwertung.

Was Nvidia aber auch deutlich von Amd absetzt ist der viel bessere Dx11 Treiber, Stichwort AMD und die bescheidene Performance im DX11 CPU Limit.

Die bessere Effizienz scheint für einige auch eine wichtige Rolle zu spielen, bei der frage, welche Grafikkarte sie sich zu legen sollen. Die 580 verbraucht fast 90 Watt mehr als eine 1060 bei ungefähr gleicher Leistung. Dabei spielt es keine Rolle, ob sich diese Effizienz durch, für den Anwender, unbedeutende "Abstriche" erkauft werden. Ich meine, wie viele Leute wissen überhaupt wofür FP32 oder FP64 stehen? Brauchen Sie das zu wissen, wenn die Grafikkarte die Leistung bringt, die sie wollen?
#127
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4310
Zitat fdsonne;25495123
Hätten se doch wenigstens noch nen doppelten Tonga samt vollem 384Bit SI und 12GB GDDR5 im aktuellen Prozess über Polaris gestellt. Dann wäre wenigstens im Bereich 1070-1080 irgendwie Konkurenz da und Fiji als schnellstes AMD Modell im Moment müsste nicht veruschen die "Fahne hochzuhalten", wohlwissen, das der VRAM mittlerweile eng wird. -> hat man aber nicht gemacht und könnte durchaus als Indiz verstanden werden, dass AMD der HighEnd Gamermarkt so wichtig gar nicht zu sein scheint...


Rückblickend war es von AMD wohl ein kalkuliertes Risiko den High-End Markt zu vernachlässigen. Den Spielraum, den man nVidia damit gewährt hat erweißt sich heute aber als nicht gerade unbedeutend. Aber es bleibt auch die Frage, ob das mit dem doppelten Tonga 1. auch so einfach realisierbar gewesen wäre und 2. auch die Option mit dem größtmöglichen wirtschaftlichen Erfolg gewesen wäre. Ich denke nicht, dass der High-End Gamermarkt für AMD gänzlich unwichtig ist, nur war man anscheinend gezwungen Prioritäten zu setzen und die begrenzten zur Verfügung stehenden Ressourcen zu bündeln und u.a. auf ein potenziell wichtigeres Produkt wie z.B. Vega zu richten. Das AMD in der Vergangenheit einige Projekte verschieben/begraben musste ist nicht neu. Man merkt, das an einigen Stellen auch aufgrund der finanziellen Probleme die Man-Power nicht mehr so da ist wie einst früher noch. Das was du als Desinteresse interpretierst, sehe ich mehr oder weniger als Konsequenz der finanziellen Lage an.
#128
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 32569
Neja, desinteresse würde ich nun nicht unbedingt sagen... Aber eben "so wichtig gar nicht zu sein scheint". Macht anderes, wie du schon sagst, sicher wichtiger... Desinteresse an HighEnd ist/war für mich die Zeit R600 bis Cayman. Ich denke wir sind uns einig, die aktuelle Situation ist da schon noch etwas anders.

Was einen doppelten Tonga angeht. Im Grunde ist ein Fiji ja ein quasi doppelter Tonga. Am FrontEnd ist es nicht doppelt. Aber möglicherweise wäre das sogar nichtmal ein Problem. (lässt sich schwerer beurteilen ohne direkten Vergleich)
Technisch gesehen hätte man auch Fiji neu in 14nm auflegen können. Samt GDDR5(X) auf 384Bit. Bei letzterem sogar mit entsprechend hohen und dann auch ausreichenden Bandbreiten für eine 4096 ALU breite fiktive neue Fiji GPU.

Wirtschatlich, klar wohl für AMD der bessere Weg es nicht zu machen... Aber das war ja nicht der Punkt meiner Aussage. Der Punkt war eher drauf bezogen, dass die Leute es durchaus wollen bzw. gewollt hätten, da mehr als Polaris und damit mehr als Leistungsniveau von 2012-2013 zu bekommen. Der Punkt mit den Finanzen ist leider einer, der zwar nachvollziehbar ist aus Firmensicht, aus Endkundensicht aber eigentlich wenig interessiert. Denn dem Endkunden schenkt ja auch keiner was. Er muss auch arbeiten für sein Geld (meisten jedenfalls) und hier hat AMD nunmal nur für die Mittelklasse gearbeitet. Dann bekommen sie auch nur aus der Mittelklasse Geld und die Frage, ob mit einer HighEnd GPU es finanziell vielleicht anders hätte ausgesehen, muss sich einfach gefallen gelassen werden. -> könnte man theoretisch sogar dem Fiji ebenso stellen. Denn so wirklich dürfte sich Fiji nicht verkauft haben, denke ich mal. ;)
#129
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 4138
Zitat fdsonne;25495908
Technisch gesehen hätte man auch Fiji neu in 14nm auflegen können. Samt GDDR5(X) auf 384Bit. Bei letzterem sogar mit entsprechend hohen und dann auch ausreichenden Bandbreiten für eine 4096 ALU breite fiktive neue Fiji GPU.


Dann würde man aber bei ca. 1300MHz Takt nur etwa 25% über Fiji landen, und somit in den Titeln, in denen Fiji schwächelt, auch gegen Nvidia schwach bleiben. Wer sollte dann den Aufpreis zahlen, für so einen fetten Chip, der in zu vielen Titeln kaum mehr Leistung bringt... AMD hätte den somit viel zu günstig verscherbeln müssen.
Die ALUs sind für die damalige Zeit zu viel gewesen, die Fiji Karte selbst ist problematisch konstruiert und nutzt sie nicht mal gescheit, wenn es eigentlich relativ gut optimierte Programme sind. Deshalb ist man jetzt bei 4096 geblieben, was kaum mehr über der Anzahl von den Nvidia- Topkarten ist, und kümmert sich darum, dass die Karte überhaupt mal besser ausgelastet wird. Vega wird deutlich größer als ein halber Fiji- Chip, und das nicht ohne Grund. Gleichzeitig greift man mit FP16 an, was zu heftigsten Vorsprüngen führen kann, wenn es ein Spieleprogrammierer auf die Spitze treibt und konsequent alles mit 16 Bit- Zahlen macht, was nur geht, und zusätzliche Features einbaut, die man speziell mit 16 Bit berechnen kann, wie mehr Haare etc. Im Extremfall steigt die Leistung um bis zu 100%.

Ich finde es sehr gut, dass AMD aus dem Teufelskreis raus will, und sich mit den Zwischenlösungen erst mal Ressourcen gespart hat, um jetzt wieder mit Ryzen und Vega angreifen zu können, ohne hektisch auf den Markt zu reagieren und möglichst schnell eigene Produkte zu bringen, nur weil die Konkurrenz es auch tut. Die Vergangenheit hat ja auch gezeigt, dass der alte Weg nicht erfolgreich war - man muss halt mal zwischendrin der Konkurrenz das Feld überlassen und in der Zeit seine Hausaufgaben machen, wenn man erfolgreich sein möchte, und etwas aufzuarbeiten hat. Irgendwelche strategischen Fehltritte der Geschäftsführung kann ich in den letzten 3 Jahren nicht mehr erkennen und bin mir sicher, dass in diesem Sommer konkurrenzfähige CPUs und GPUs auf dem Markt sein werden, die dann im späteren Jahresverlauf noch mit APUs und Mobil-CPUs erweitert werden, die sogar eine deutliche Führungsrolle übernehmen könnten.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

NVIDIA GeForce GTX 1080 und GeForce GTX 1070 im SLI

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/PASCAL-SLI/GTX1080-SLI-LOGO

Die beiden aktuell schnellsten Single-GPU-Karten GeForce GTX 1080 und GeForce GTX 1070 liefern eine ausreichende Leistung für die höchsten Auflösungen und Qualitätseinstellungen. Allerdings müssen dabei hin und wieder ein paar Einschränkungen gemacht werden. Um diesen aus dem Weg zu gehen,... [mehr]