AMD Radeon RX Vega 64 und RX Vega 56 im Test

Veröffentlicht am: von

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an die Vega-Architektur sind dementsprechend hoch – sowohl von AMD selbst, als auch von der vermeintlichen Käuferschaft. Im Vorfeld deutet sich jedoch an, dass AMD bzw. die Vega-Architektur diesen Ansprüchen womöglich nicht gerecht werden wird. In unserem Test wollen wir diese Frage nun final klären.

AMD wird als Unternehmen auf zwei Standbeinen angesehen. Während es bei den Prozessoren in den vergangenen Jahren eher mäßig lief, konnte man beim GPU-Geschäft zumindest mithalten. Seit diesem Jahr scheint sich die Situation umgekehrt darzustellen. Mit der Zen-Architektur und den dazugehörigen Desktop-Lösungen der Ryzen-Serie erreicht AMD die notwendigen und erwarteten Stückzahlen und kann Intel einige Prozentpunkte am Markt abgewinnen. Mit Ryzen Threadripper hat AMD seinen Konkurrenten auch im High-End-Segment unter Druck gesetzt. Noch offen ist die Frage, ob die Serverprozessoren Epyc ebenso erfolgreich sein können – dies wird sich aber erst in einigen Monaten zeigen.

Dies bringt uns zurück zu den Erwartungen an die Vega-Architektur. Das Marketing von AMD sorgte selbst dafür, dass eigentlich jeder glauben musste, dass die dazugehörigen Grafikkarten mit Vega-GPU die Konkurrenz dominieren, zumindest aber mit dieser aufschließen werden. Dazu trägt immer wieder bei, dass AMD die eigenen Entwicklungen für einzelne Technologien anpreist, diese aber erst einmal richtig implementiert werden müssen. Die Vulkan-API ist nur ein Beispiel dafür. Auf Seiten der Hardware ist die Entscheidung für High Bandwidth Memory sicherlich zu hinterfragen. Noch immer gibt es hier technische Limitierungen, sei es auf Seiten der zur Verfügung stehenden Kapazität oder bei der Verfügbarkeit. Die Radeon R9 Fury X offenbarte diese Problematik bereits und auch NVIDIA musste bei der Präsentation der Tesla V100 eingestehen, dass der derzeitige Entwicklungsstand von HBM2 nicht derart fortgeschritten ist, wie man dies in den eigenen Plänen vorgesehen hatte.

» zur Galerie

Nun aber wollen wir uns den neuen Karten widmen. Ab heute verfügbar sein sollen drei Endkunden-Grafikkarten mit Vega-GPU. Die Radeon RX Vega 56 folgt am 28. August. Bis die Boardpartner ihre Karten präsentieren, wird es aber wohl noch bis zum vierten Quartal dauern. AMD spricht allerdings auch davon, dass einige Hersteller womöglich etwas schneller sein werden. Zum aktuellen Zeitpunkt gibt es aber keinerlei Informationen zu diesen Karten und ASUS hat als einziger Herteller mit der ROG STRIX RX Vega 64 OC Edition eine konkrete Karte vorgestellt.

Die technischen Daten der AMD Radeon RX Vega in der Übersicht
Modell: AMD Radeon RX Vega 64 Liquid Cooled AMD Radeon RX Vega 64 Air Cooled AMD Radeon RX Vega 56
UVP 715 Euro 599 Euro 499 Euro
Technische Daten
GPU: Vega 10 Vega 10 Vega 10
Fertigung: 14 nm 14 nm 14 nm
Transistoren: 12,5 Milliarden 12,5 Milliarden 12,5 Milliarden
GPU-Takt (Basis): 1.406 MHz 1.247 MHz 1.156 MHz
GPU-Takt (Boost): 1.750 MHz 1.630 MHz 1.590 MHz

Speichertakt:

945 MHz 945 MHz 800 MHz
Speichertyp: HBM2 HBM2 HBM2
Speichergröße: 8 GB 8 GB 8 GB
Speicherinterface: 2.048 Bit 2.048 Bit 2.048 Bit
Bandbreite: 484 GB/s 484 GB/s 410 GB/s
DirectX-Version: 12_1 12_1 12_1
Shadereinheiten: 4.096 4.096 3.584
Textureinheiten: 256 256 224
ROPs: 64 64 64
TDP: 345 W 295 W 210 W
Rechenleistung (Single-Precision) 13,7 TFLOPS 12,66 TFLOPS 10,5 TFLOPS
Rechenleistung (Half-Precision) 27,5 TFLOPS 25,3 TFLOPS 21 TFLOPS
SLI/CrossFire CrossFire CrossFire CrossFire

Es gibt also für den Consumer-Bereich zwei Varianten der Vega-10-GPU, einmal mit 64 Next Generation Compute Units und einmal mit 56 der sogenannten Next-Gen-CUs. Beim größeren Ausbau gibt es insgesamt drei Hardware-Modelle: Eines wassergekühlt und zwei weitere luftgekühlte Varianten. Neben der von uns getesteten schwarzen Referenzversion gibt es noch eine Limited Edition, die allerdings identische Taktraten aufzuweisen hat und sich damit nur hinsichtlich der Kühlung unterscheidet. Beiden GPUs gemein sind eine Graphics Engine, vier Asynchronous Compute Engines und vier Geometry Engines. Die Vega-10-GPU mit 64 CUs kommt auf 256 Textureinheiten, bei der Vega-10-GPU mit 56 CUs sind es derer 224. Die Zahl der ROPs ist mit 64 jeweils identisch, was auch am identischen Speicherinterface mit einer Breite von 2.048 Bit liegt. Alle Karten sind mit 8 GB HBM2 ausgestattet. Durch einen Takt von 945 bzw. 800 MHz beläuft sich die Speicherbandbreite auf 484 bzw. 410 GB/s.

Es gibt also viele identische technische Daten, aber auch einige Unterschiede. Diese sind vor allem beim Takt zu suchen. Bei der Radeon RX Vega 64 in der luftgekühlten Version liegt der Basis-Takt bei 1.247 MHz, per Boost sollen bis zu 1.630 MHz möglich sein. Hier steht der Karte eine Thermal Design Power von 295 W zur Verfügung. Die wassergekühlte Version kommt auf einen Basis-Takt von 1.406 MHz und soll per Boost auf bis zu 1.750 MHz kommen. Dazu wird ihr ein größeres Leistungsbudget zur Verfügung gestellt: 345 W. Mit einer Thermal Design Power von 210 W ist die Radeon RX Vega 56 deutlich sparsamer. Hier kommt allerdings auch eine abgespeckte Variante der Vega-10-GPU zum Einsatz. AMD reduziert die Taktraten auf einen Basis-Takt von 1.156 MHz sowie auf einen Boost-Takt von 1.590 MHz. Interessantes Detail: AMD hat die Boost-Frequenzen aller Vega-Karten noch einmal deutlich nach oben geschraubt. Zur offiziellen Vorstellung der Karten Ende Juli gab man noch deutlich niedrigere Taktraten an.

Die technischen Radeon RX Vega gegen GeForce GTX 1070 und GTX 1080
Modell: GeForce GTX 1070 Radeon RX Vega 56 GeForce GTX 1080 Radeon RX Vega 64
UVP ab 420 Euro 405 Euro ab 530 Euro 499 Euro
Technische Daten
GPU: GP104 Vega 10 GP104 Vega 10
Fertigung: 16 nm 14 nm 16 nm 14 nm
Transistoren: 7,2 Milliarden 12,5 Milliarden 7,2 Milliarden 12,5 Milliarden
GPU-Takt (Basis): 1.506 MHz 1.156 MHz 1.607 MHz 1.247 MHz
GPU-Takt (Boost): 1.683 MHz 1.590 MHz 1.733 MHz 1.630 MHz

Speichertakt:

2.000 MHz 800 MHz 2.500 MHz 945 MHz
Speichertyp: GDDR5 HBM2 GDDR5X HBM2
Speichergröße: 8 GB 8 GB 8 GB 8 GB
Speicherinterface: 256 Bit 2.048 Bit 256 Bit 2.048 Bit
Bandbreite: 256 GB/s 410 GB/s 320 GB/s 484 GB/s
DirectX-Version: 12_1 12_1 12_1 12_1
Shadereinheiten: 1.920 3.584 2.560 4.096
Textureinheiten: 120 224 160 256
ROPs: 64 64 64 64
TDP: 150 W 210 W 180 W 295 W
SLI/CrossFire SLI CrossFire SLI CrossFire

In obiger Tabelle wollen wir noch einmal einen Vergleich zwischen der Radeon RX Vega 64 und Vega 56 sowie zur direkten Konkurrenz in Form der GeForce GTX 1070 und GeForce GTX 1080 anstellen. Die Vergleiche der technischen Daten auf Zahlenbasis sind allerdings nicht immer ganz einfach, da sie sich nicht so einfach vergleichen lassen. Wir wollen uns daher auf einige wichtige Punkte konzentrieren und beginnen bei der Fertigung. AMD und NVIDIA lassen in 14 bzw. 16 nm fertigen. Große Unterschiede gibt es hier demnach nicht, wohl aber bei der Komplexität der Aufgabe für die Auftragsfertiger TSMC und GlobalFoundries. Während die GP104-GPU bei NVIDIA auf 7,2 Milliarden Transistoren kommt, sind es für die Vega-10-GPU 12,5 Milliarden. Damit liegt AMD in diesem Bereich auf Niveau der GP102-GPU von NVIDIA, die auf der GeForce GTX 1080 Ti zum Einsatz kommt. Allerdings erreicht AMD nicht das gleiche Leistungsniveau. Ein Großteil der zusätzlichen Transistoren kommt in der Vega-10-GPU zum Einsatz, um einen höheren GPU-Takt zu erreichen. Dies klingt etwas paradox, bietet aber auch die entsprechende technische Berechtigung. Die GP104-GPU kommt auf eine Chipgröße von 314 mm², während es die Vega-10-GPU auf 484 mm² bringt. Damit dürfte NVIDIA einige Vorteile bei der Fertigung haben – unabhängig vom HBM2.

Zweiter wichtiger Punkt sollte der Verbrauch sein. Hier stehen 210 zu 150 W für die Radeon RX Vega 56 zur GeForce GTX 1070. Ähnlich ist auch das Verhältnis zwischen der Radeon RX Vega 64 und der GeForce GTX 1080 mit 295 zu 180 W. Ob sich dies so in der Praxis darstellen wird, werden wir uns auf den folgenden Seiten näher anschauen.


» zur Galerie

Wie bereits erwähnt, fertigt AMD die Vega-10-GPU in 14 nm im FinFET-Design. Insgesamt 12,5 Milliarden Transistoren sind in der GPU vorhanden und damit ist diese in etwa so komplex wie NVIDIAs GP102 auf der GeForce GTX 1080 Ti. Insgesamt verteilen sich 45 MB an SRAM auf der GPU und AMD hat den L2-Cache auf 4 MB verdoppelt. Im Folgenden wollen wir uns einige der neuen Komponenten der Vega-Architektur genauer ansehen.

High Bandwidth Memory der zweiten Generation

» zur Galerie

Zunächst einmal aber zum verwendeten Speicher. AMD setzt auf HBM der zweiten Generation. Die Verwendung von AMD als Grundbaustein des Designs der Vega-Architektur dürfte nicht ganz frei von Kritik sein, denn die Entwicklung und Fertigung von HBM2 hat sich nicht so entwickelt, wie AMD und NVIDIA dies prognostiziert haben. NVIDIA hat allerdings den Vorteil, dass man sich im Consumerbereich nicht derart abhängig von HBM2 gemacht hat und derzeit seine GPUs noch mit GDDR5X koppelt.

Bei AMD sieht dies anders aus. Die Vega-Architektur ist klar auf die Verwendung von HBM2 ausgelegt und so musste AMD auch sicherlich einige Verzögerungen hinnehmen, da die Entwicklung und Fertigung von HBM2 nicht in den Schritten erfolgt, wie man das geplant hatte.

Doch HBM2 soll, was den Speicherausbau betrifft, im Unterschied zu HBM1 deutlich flexibler sein. Spezifiziert ist HBM2 in Speicherstacks zu 2 (2Hi HBM2), 4 (4Hi HBM2), 8 GB (8Hi HBM2) sowie 16 GB (16Hi HBM2). Bisher haben SK Hynix und Samsung als Hersteller von HBM2 aber nur bis zu 8Hi HBM2 in der Produktion vorgesehen und auch vorgestellt. Ob AMD nun auf HBM2-Speicher von SK Hynix oder Samsung setzt, ist unklar.

16Hi HBM2 sind theoretisch bereits spezifiziert und damit umsetzbar. Je nachdem, wie viele Speicherstacks nun zum Einsatz kommen, kann der Speicherausbau und dessen Anbindung unterschiedlich ausgeführt werden. NVIDIA setzt bei der Tesla V100 auf vier Speicherstacks mit jeweils 4 GB, also 16 GB insgesamt. AMD sieht für die Radeon RX Vega einen Ausbau mit zweimal 4 GB, also 8 GB insgesamt vor.

Einige Vorteile des High Bandwidth Memory kennen wir bereits von der ersten Generation, die auf der Radeon R9 Fury X zum Einsatz kommt. Hier liegt die Speicherbandbreite mit 512 GB/s zwar auch schon auf einem recht hohen Niveau, schon damals war es aber wichtig festzuhalten, dass der HBM1 um den Faktor zwei effizienter, weil sparsamer, bei der Leistungsaufnahme ist. Um den Faktor 3,5 soll HBM2 im Vergleich zu GDDR5-Speicher effizienter sein. Hinzu kommt, dass der High Bandwidth Memory auf einem Interposer direkt neben der GPU und damit im GPU-Package platziert wird. Damit nimmt der Speicher deutlich weniger Platz auf dem PCB ein. AMD spricht hier von Einsparungen um 75 %.

Diese Vorteile gelten natürlich auch für die Radeon RX Vega. Aufgrund der Verwendung von nur zwei Speicherstacks und den damit verbundenen 2.048 Bit für das Speicherinterface ergibt sich eine Speicherbandbreite, die mit 484 bzw. 410 GB/s nur geringfügig langsamer ist.

Next Generation Compute Unit

» zur Galerie

AMD hat die Shadereinheiten innerhalb der Vega-Architektur im Vergleich zu Polaris in weiten Teilen verbessert. Die wichtigsten Punkte sind die folgenden:

Dazu hat AMD eine neue Instruction Set Architecture (ISA) erstellt, die rund 40 neue Instruktionen enthält. Einige davon sind in der obigen Auflistung bereits zu finden, einige andere ermöglichen das Ausführen von 512 8-Bit Operationen pro Takt (QSAD und MQSAD Instructions), 256 16-Bit Operationen pro Takt und 128 32-Bit Operationen pro Takt. All diese Maßnahmen führen dazu, das die Vega-Architektur eine höhere IPC-Leistung (Instructions per Cycle) erreicht. Da AMD die ISA öffentlich macht, können auch Compiler von diesen neuen Instruktionen profitieren und diese anwenden.

» zur Galerie

Wie bereits erwähnt, verwendet AMD in der Vega-Architektur einen auf 4 MB verdoppelten L2-Cache im Vergleich zur Polaris-Architektur. Dieser größere L2-Cache macht es weniger häufig notwendig, dass Daten in und aus dem HBM2 heraus in den L2-Cache übertragen werden müssen. Zudem bekommen den Render Backends direkten Zugriff auf den L2-Cache. Das dazugehörige SRAM-Design und dessen Auslegung hat man von der Zen-Architektur übernommen und soll für eine um 18 % geringe Chipfläche und eine 43 % geringere Leistungsaufnahme in diesem Bereich sorgen.

Ein Ziel der Vega-Architektur war es außerdem, höhere Taktraten zu erreichen und hier spielen die NCUs eine wichtige Rolle. AMD stattet diese mit kürzeren Signalpfaden für geringere Latenzen aus und verwendet eine ALU mit einer 4-stufigen Pipeline. Drei NCUs teilen sich einen Instruction- und Data-Cache. All diese Maßnahmen sollen dazu beigetragen haben, dass eine wassergekühlte Radeon RX Vega 64 mit einem Boost-Takt von 1.750 MHz ausgeliefert werden kann.

Primitive Shaders und Rapid Packed Math

» zur Galerie

Neu innerhalb der Geometry Pipeline ist, dass Vertex Shader und Geometry Shader nicht mehr getrennt voneinander behandelt werden. Stattdessen können sogenannte Primitive Shader eingesetzt werden. Diese beinhalten Vertex- und Geometry-Berechnungen, lassen sich über einen verbesserten Load Balancer besser auf die zur Verfügung stehenden Hardware-Ressourcen verteilen. Damit sollen die Shadereinheiten besser ausgelastet werden. Die GPU überwacht sich bzw. die Auslastung ständig selbst und versucht die ideale Verteilung zu erreichen.

» zur Galerie

Diese Primitive Shaders kommen unter anderem für die Conservative Rasterization zum Einsatz. AMDs Vega-GPU beherrscht als bisher einzige diskrete GPU die DirectX 12_1 Conservative Rasterization Tier 3. Die Conservative Rasterization ermöglicht ein Shadowmapping im Subpixel-Bereich und zudem eine Voxel Based Global Illumination. Tier 3 ermöglicht die Aufteilung des inneren Bereiches, sodass diese direkt an die Pixel Shader weitergegeben werden können.

» zur Galerie

AMD nennt außerdem einige Werte zu den Primitive Shadern. Im Vergleich enthalten sind die Fiji-GPU mit nativer Pipeline, die Vega-GPU mit nativer Pipeline und die Vega NGG-Fast-Path-Implementierung. Die Balken lassen sich in dieser Form natürlich nicht auf die Spieleleistung übertragen. Die Frage ist, welche Auswirkungen dies auf die Leistung in der Praxis hat. NGG Fast Path wird zum Start wohl nicht verfügbar sein.


High Bandwidth Cache Controller

» zur Galerie

Für den HBM2-Speicher eine wichtige Rolle spielt der High Bandwidth Cache Controller (HBCC), der neben dem HB Cache (so benennt AMD den Grafikspeicher auf den Vega-Karten) auch angebundenen Massenspeicher (SSDs) und den Arbeitsspeicher verwalten kann. Insgesamt kann der HBCC 512 TB an virtuellem Adressraum verwalten. 49 Bit können als Shared Memory auf alle GPUs in einem System verteilt werden. Dazu werden Speicherpools angelegt. 256 TB kann ein einzelner physikalischer Speicher theoretisch groß werden.

Zusammen mit dem HBCC führt AMD ein Page Based Memory Management ein. Daten liegen nicht mehr als große zusammenhängende Pakete im Speicher, sondern dieser ist in Pages aufgeteilt. Diese kleineren Pakete lassen sich schneller abrufen und nicht verwendete Daten können vom schnellen HBM2 in langsameren Speicher übertragen werden. Schaut man sich die Nutzung der Daten im Grafikspeicher an, stellt man fest, dass nur etwa 50 % der Daten im Grafikspeicher tatsächlich von der GPU genutzt werden.

Hat nun nicht die Game-Engine die Kontrolle über den Grafikspeicher, sondern der HBCC, können häufig benötigte Pages im schnellen Speicher verbleiben und hier zudem priorisiert werden. Die Größe dieser Pages ist variabel und hängt von den jeweiligen Daten ab. AMD sieht Page-Größen von 2 MB, 1 MB, 512 kB, 256 kB, ... usw. vor.

» zur Galerie

Es ist aber nicht so, dass alle Radeon RX Vega standardmäßig mit dem HBCC arbeiten. Der derzeitige Standardfall sieht noch eine Speicherverwaltung durch die Spiele selbst vor. Hier kann AMD durch den Treiber und den HBCC keinerlei Kontrolle übernehmen. Erst wenn diese vom Entwickler an AMD durch eine Option im Spiel übergeben wird, kann der HBCC aktiv werden. Dieser Standardfall ohne HBCC wird als Exclusive Cache Mode benannt. Im Inclusive Cache Mode kann der HBCC den HBM2 und Arbeitsspeicher gemeinsam verwenden und übernimmt außerdem die Kontrolle der Zuteilung.

Auf einer Radeon RX Vega mit 8 GB HBM2 bedeutet dies im Extremfall, dass selbst eine Speicherbelegung von 27 GB an Daten und ein Echtzeit-Rendering mit 500 Millionen Polygonen im Speicher gehalten und verarbeitet werden können. Der Nutzer hat dazu im Treiber die Möglichkeit, einen virtuellen Speicher aus Kombination der 8 GB an HBM2 plus dem zur Verfügung stehenden Arbeitsspeicher zu erstellen. Dies erfolgt über einen Schiebregler.

Draw Stream Binning Rasterizer

» zur Galerie

Änderungen hat es zudem bei der Pixel Engine gegeben. Diese kann nun neue sogenannte Draw Stream Binning Rasterizer ausführen, die für eine bessere Kompression der vorhandenen Daten sorgen. Damit soll der Speicherbedarf reduziert werden, was bei der Übertragung dieser Daten aus und in den Speicher Vorteile bei der Geschwindigkeit bringt. In einer Szene wird jedes Objekt nacheinander berechnet, dies alles muss durch den Rasterizer – ob sichtbar oder nicht spielt dabei zunächst einmal keine Rolle. Durch den Draw Stream Binning Rasterizer können Pixel entfernt werden, die nicht sichtbar sind. Ein Shading ist in diesem Fall nicht mehr notwendig. Dadurch wird Speicherkapazität und Speicherbandbreite eingespart. In bisherigen GPU-Architekturen von AMD ist der Pixel- und Texturspeicher nicht kohärent ausgelegt und musste daher teilweise doppelt verwendet werden. Mit der Vega-Architektur nutzen die Geometry Pipeline, die Compute Engine und die Pixel Engine den zur Verfügung stehenden L1- und L2-Cache parallel. Dies gilt auch für die Render Backends.

Der Draw Stream Binning Rasterizer ist nicht immer aktiv. AMD bzw. der Treiber entscheidet, bei welchem Spiel oder bei welcher Anwendung er aktiviert wird. Damit soll verhindert werden, dass es in einigen wenigen Spielen zu Einschränkungen in Form von geringerer Leistung kommt. Der Nutzer wird nicht merken, ob DSBR aktiv ist oder nicht. AMD denkt aber darüber nach, eine Treiberoption anzubieten.

» zur Galerie

Der Einsatz des Draw Stream Binning Rasterizer wird die Leistung in bestimmten Szenarien deutlich steigern können. Dies gelingt vor allem durch die Einsparung von Berechnungen durch die Erkennung der Überlappungen. Auch dazu stellte AMD einige Werte vor.

Display Engine

» zur Galerie

Die Display Engine der GPU wurde mit der Vega-Architektur leicht überarbeitet. Wir sehen allerdings nicht die großen Sprünge bei der Unterstützung neuer Standards, wie dies bei den vorherigen Architekturen öfter der Fall war.

DisplayPort 1.4 unterstützt auf den Vega-Karten nun den erweiterten Farbraum HBR3, MST für HDR. HDMI 2.0 ermöglicht eine UHD-Auflösung bei 60 Hz mit 12 Bit HDR und einen 4:2:0-Encoding. HDCP 2.2 und FreeSync werden auf allen DisplayPort- und HDMI-Ausgängen unterstützt.

Die Anzahl der Displays, die gleichzeitig mit bestimmten Auflösungen angesteuert werden können, hat sich ebenfalls erhöht.


Infinity Fabric

Mit der Zen- und Vega-Architektur führt AMD einen neuen Interconnect ein. An diesem Infinity Fabric hat AMD seit vier Jahren gearbeitet. Der Name Fabric legt im Grunde schon nahe, um welche Struktur es sich handelt, denn Fabric heißt übersetzt Stoff und eben so ist auch dieser Interconnect aufgebaut. Laut AMD ist der Infinity Fabric modular aufgebaut und kann beliebig komplex ausgeführt werden. Eben diese Skalierbarkeit soll den Infinity Fabric in allen neuen Prozessoren und GPUs einsetzbar machen.

Im Falle der Vega-Architektur soll der Infinity Fabric als Mesh, also in einer Gitterstruktur, ausgeführt werden. Dies liegt vor allem daran, dass in einer GPU tausende von Shadereinheiten mit Daten gefüttert werden müssen und eine effiziente Verteilung der Daten ist über ein Mesh am besten möglich. Bei den Prozessoren verwendet AMD eher Punkt-zu-Punkt-Verbindungen.

Energieeffizienz

» zur Galerie

Überarbeitet hat AMD auch das Power Management und verbaut dafür neue Microcontroller. Diese bieten zum Beispiel eine eigene Clock Domain für den Infinity Fabric. Die Leistungsaufnahme im Idle- und Nicht-Volllastbetrieb soll ebenfalls verbessert worden sein. Dazu verwendet AMD einen neuen Deep Sleep State mit eigenem Clock Generator. Der HBM2 soll sich zudem mit niedrigeren Taktraten betreiben lassen.

Wir sprechen bei den Varianten der Radeon RX Vega von Karten mit einer TDP von etwa 350 bzw. 300 W, den Sweet Spot hat aber auch diese Karte in einem anderen Bereich.

» zur Galerie

AMD hat dazu ein paar Zahlen präsentiert. Diese zeigen eine Radeon RX Vega mit einer Typical Graphics Power, die sich nur auf die GPU bezieht, von 220 und 150 W. Bei diesen 150 W soll die Karte fast an eine GeForce GTX 1080 Founders Edition heranreichen können.


AMD steht etwas zwischen den Stühlen, wenn es um die derzeit hitzig geführte Diskussion um die Nutzung der Grafikkarte für das Mining von Kryptowährungen geht. Einerseits sind die Spieler unzufrieden, da es wochenlang kaum eine Möglichkeit gab, eine aktuelle AMD-Grafikkarte zu einem gerechtfertigten Preis zu kaufen, auf der anderen Seite kann AMD sicherlich einfach über jede im Handel abgesetzte GPU glücklich sein. AMD sieht den eigenen Vorteil bei der Verwendung im Rahmend der Kryptowährungen durch die Open-Source-Software begründet.

Allerdings will man diesem Trend auch in gewisser Weise entgegenwirken, um Spielern zumindest die Chance zu geben, die aktuelle Hardware kaufen zu können. Zu diesem Zweck will man mit der Radeon RX Vega die Anzahl der Karten auf einen Kunden pro Kauf einschränken. Diese Maßnahme muss natürlich mit dem Online-Handel koordiniert werden.

» zur Galerie

Zudem bietet AMD zusammen mit der Radeon RX Vega einige Bundles an, in denen die Grafikkarten verkauft werden. Diese Radeon Packs bestehen aus der Grafikkarte selbst, zwei Spielecodes und auf Wunsch einem FreeSync-Monitor sowie einer Ryzen-CPU plus dazugehörigem Mainboard.

Wer sich also für den Kauf einer Radeon RX Vega entscheidet, bekommt folgende Optionen:

Für den dann verfügbaren FreeSync-Monitor plant AMD mit dem Samsung C34F791. Dabei handelt es sich um ein Modell mit einer Bilddiagonale von 34 Zoll im 21:9-Format. Die Auflösung beträgt 3.440 x 1.440 Pixel, welche über ein VA-Panel dargestellt werden. Der Radius bzw. die Biegung des Displays beträgt 1.500 mm, das statische Kontrastverhältnis soll sich auf 3.000:1 belaufen und die Helligkeit wird mit 300 cd/m² angegeben. Der Samsung C34F791 ist hierzulande ab 850 Euro zu haben. Für die USA gibt AMD eine Preisreduzierung des Monitors von 200 US-Dollar an. Hierzulande wird es kein Radeon Pack mit FreeSync-Monitor geben, was etwas unverständlich ist, denn gerade der starke deutsche Markt würde vom Bundle mit einem solchen Monitor profitieren. Warum AMD den Samsung C34F791 oder einen anderen FreeSync-Monitor hierzulande nicht in einem Bundle reduziert anbietet, ist unverständlich.

Neben dem Monitor und den Spielecodes weitere wichtige Bestandteile des Bundles sind Prozessor und Mainboard. Hier wird der Käufer einer Radeon RX Vega die Wahl im Angebot des jeweiligen Online-Shops haben. Konkret aber geht es um eine Ryzen-7-CPU und ein dazugehöriges Mainboard, deren Preis zusammengenommen auch noch einmal um 100 US-Dollar reduziert werden.

Wer ausschließlich den Kauf einer Radeon RX Vega plant, kann sich für folgende Modelle entscheiden:

Möglich ist natürlich auch der Kauf der Limited Edition und Liquid Cooled zu oben genannten Preisen, die dann auch immer die zwei Gamecodes beinhalten. Zum Kauf des Monitors, des Ryzen-7-Prozessors und des Mainboards wird niemand gezwungen, so dass der Preis für die Radeon RX Vega 64 Limited Edition bei 609 Euro liegt und die Radeon RX Vega Liquid Cooled 715 Euro kostet.

Noch einmal zur Situation in Deutschland: Hier werden die Radeon Packs mit Sniper Elite 4 und Prey angeboten. Einen Rabatt zum FreeSync-Monitor gibt es nicht. Bei den Prozessoren hat der Käufer die Wahl zwischen einem Ryzen 7 1700X oder 1800X. Das passende Mainboard muss ein ASUS ROG Crosshair VI Extreme X370, Gigabyte GA-AX370-Gaming K7 oder MSI X370 XPOWER GAMING TITANIUM sein. Warum AMD in Deutschland kein Bundle mit Monitor anbietet, ist unklar.

Radeon Software Crimson ReLive Edition Vega Update

» zur Galerie

Neben der Hardware stellt AMD auch den dazugehörigen Treiber vor, der als Radeon Software Crimson ReLive Edition 17.7.2 vor einigen Tagen vorgestellt wurde. Für die Radeon RX Vega gibt es natürlich einige Anpassungen, die spezifisch auf die neue Hardware ausgelegt sind.

So spricht AMD von einer reduzierten Leistungsaufnahme mit iChill im Bereich von bis zu 76 %. Spiele wie Battlefield 1 sollen um 52 % sparsamer berechnet werden können und dennoch eine gewisse Framerate abliefern können. Die Latenzen lassen sich mit Enhanced Sync um bis zu 68 % reduzieren.

» zur Galerie

Der Treiber bietet in den WattMan-Einstellungen zudem einige weitere Neuheiten. Dazu gehören zwei Profile, die als "Power Save" und "Turbo" die Radeon RX Vega entsprechend effizienter machen sollen, also mit reduzierten Taktraten laufen oder aber eine Übertaktung vornehmen. AMD bietet dazu je nach VBIOS – alle Karten bieten einen BIOS-Switch – unterschiedliche Voreinstellungen. AMD liefert dazu die passenden Zahlen in Form von FPS/Watt. Allerdings sind diese Angaben in der Tabelle etwas verwirrend und erschließen sich uns nicht direkt. Das Spinnennetzdiagramm hingegen stellt die Verbesserungen dar.

» zur Galerie

Über den Treiber steuern lässt sich wie gesagt der HBCC. Der Treiber sieht hier einen Slider vor, der einen virtuellen Speicher einrichten lässt. Werden mehr als die 8 GB des vorhandenen HBM2 ausgewählt, nimmt sich der Treiber zusätzlichen Speicher aus dem Arbeitsspeicher. Vom HBCC profitieren sollen vor allem Spiele und Anwendungen, die mehr als die zur Verfügung stehenden 8 GB HBM2 benötigen.


Kommen wir nun zur ersten Karte, der Radeon RX Vega 64, die wir uns genauer anschauen wollen. Auf der ersten Seite widmen wir uns den technischen Voraussetzungen in der Praxis.

» zur Galerie

Der GPU-Screenshots bestätigt die technischen Daten der AMD Radeon RX Vega 64 noch einmal. Durch die fehlende Unterstützung durch GPU-Z werden allerdings nicht alle Daten korrekt ausgelesen.

Radeon RX Vega 64: Gegenüberstellung von Temperatur und Takt
Spiel Temperatur Takt
The Witcher 3: Wild Hunt 85 °C 1.401 MHz
Rise of the Tomb Raider 84 °C 1.536 MHz
Hitman 82 °C 1.401 MHz
Far Cry Primal 81 °C 1.401 MHz
DiRT Rallye 84 °C 1.536 MHz
Anno 2205 85 °C 1.536 MHz
The Division 85 °C 1.401 MHz

Einen Boost-Takt von 1.630 MHz soll die Radeon RX Vega 64 unter idealen Bedingungen erreichen. Dazu muss das Zusammenspiel aus Kühlung und Leistungsaufnahme stimmen, damit die dazugehörigen Grenzen eingehalten werden können. Wir verbauen die Karten in einem geschlossenen Gehäuse. In der Praxis messen wir eine GPU-Temperatur im Bereich von 81 bis 85 °C. Damit läuft die Karte in einigen Spielen bereits an ihrem Temperaturlimit. Entsprechend reduziert sich der Boost-Takt auf 1.401 bis 1.536 MHz. Damit erreicht die Karte meist noch nicht einmal den versprochenen Boost-Takt von 1.630 MHz sondern verbleibt leicht darunter.

Auf der folgenden Seite schauen wir uns die Karte etwas genauer an. Dabei soll aber nicht unerwähnt bleiben, dass AMD den Testern und damit auch uns eine spezielle Verpackung mit Zugaben im Lieferumfang zugeschickt hat, die so sicherlich nicht in der Retail-Version zu finden sein werden. Die Karte selbst wird aber exakt so in den Handel kommen.


Bevor wir uns nun die Karte aus allen Winkeln anschauen, werfen wir noch einen Blick auf die wichtigsten technischen Daten in Form von Abmessung und Kühlung.

AMD Radeon RX Vega 64
Länge des PCBs 266 mm
Länge mit Kühler 266 mm
Slothöhe 2 Slots
zusätzliche Stromanschlüsse 2x 8-Pin
Lüfterdurchmesser 1x 75 mm
Display-Anschlüsse

3x Displayport 1.4
1x HDMI 2.0

Lüfter aus im Idle Nein

Die Radeon RX Vega 64 misst 266 mm. Das PCB und die Kühlung weisen eine identische Länge auf. Ob die Limited Edition etwas länger ist, können wir nicht sagen, da uns das entsprechende Sample fehlt. Mit dieser Länge sowie einer Dicke von zwei Slots kommt die Radeon RX Vega 64 auf übliche Desktop-Abmessungen – Probleme in den meisten Gehäusen sollte es nicht geben und selbst externe Grafikkartengehäuse kommen mit den Abmessungen zurecht. Auf die weiteren Details gehen wir noch genauer ein, wenn wir in den dazugehörigen Bildern dazu kommen.

» zur Galerie

Die schwarze Variante der Radeon RX Vega 64 zeichnet sich eigentlich schon fast durch ihre Schlichtheit aus. Wie auch schon bei den Referenzkarten der Polaris-Generation verwendet AMD eine Art Softtouch-Lack auf der Oberfläche des Kühlers. Ein Radiallüfter sorgt für die notwendige Frischluft und saugt diese am hinteren Ende der Karte an. Alles in allem dominiert die Farbe Schwarz und das Gesamtbild wird nur von einigen roten Akzenten durchbrochen.

» zur Galerie

Der Radiallüfter kommt auf einen Durchmesser von 75 mm. Er saugt die kühle Luft an und drückt sie durch das geschlossene Kühlergehäuse in Richtung der Slotblende. Ein Abschalten des Lüfters im Idle-Betrieb ist nicht vorgesehen. Diese Funktion werden wir demnach nur auf Partnerkarten sehen.

» zur Galerie

Die Rückseite der Karte ist komplett mit einer schwarzen Backplate besetzt. Diese dient dem Schutz vor Schäden, sorgt aber auch für eine gewisse mechanische Stabilität und macht die Karte steifer, so dass sie sicher im Slot verbleiben kann. An der Stelle des Kreuzes befindet sich die Befestigung des eigentlichen GPU-Kühlers, der mit Hilfe dieses Kreuzes auf die GPU gepresst wird.

» zur Galerie

Die Rückseite der Karte bietet ebenfalls einige Besonderheiten. So verbaut AMD bei den zusätzlichen Stromanschlüssen eine GPU Tach getaufte LED-Anzeige. Diese besteht aus acht LEDs und zeigt die Auslastung der GPU an. Über zwei DIP-Schalter, welche darüber in der Backplate eingebettet zu sehen sind, kann diese Anzeige deaktiviert werden. Abgestimmt auf die Farben der Radeon Vega Frontier Edition, die in blau und gelb daherkommt, kann die Farbe der LEDs auf blau umgestellt werden.

» zur Galerie

Parallel zur Slotblende zeigt sich auf der Front der Karte der Radeon-Schriftzug. Hier sind noch einmal sehr schön die Noppen zu sehen, die auf der Oberfläche vorhanden sind. Die schwarze Radeon RX Vega 64 wirkt optisch sehr schlicht, wer es einfach nur auf die Leistung abgesehen hat, wird sich über die Optik aber keine großen Gedanken machen. Deutlich hochwertiger wirken natürlich die Limited Edition und die wassergekühlte Variante. Diese konnten wir uns beriet auf dem Vega und Ryzen Threadripper Tech Day in Los Angeles näher anschauen.

» zur Galerie

Der Radeon-Schriftzug ist in beleuchteter Form auch auf der Stirnseite der Karte vorhanden. Darüber ist ein BIOS-Switch zu sehen, der zwischen einem primären und sekundären BIOS wechseln lässt. Darin inbegriffen sind unterschiedliche Verbrauchsprofile für die GPU.

» zur Galerie

Die zusätzliche Stromversorgung der Karte erfolgt über zwei 8-Pin-Anschlüsse. Laut ATX-Spezifikation liefern diese zusammen mit dem PCI-Express-Steckplatz eine Leistung von 375 W. AMD belässt es bei der Radeon RX Vega 64 in der luftgekühlten Variante bei einer TDP von 300 W, so dass die Versorgung ausreichend sein sollte.

» zur Galerie

Auf der Slotblende sieht AMD dreimal DisplayPort 1.3/1.4 und einmal HDMI 2.0 vor. Damit verzichtet auch AMD auf den Dual-Link-DVI-Ausgang. Vermutlich tut man dies, um auf der Slotblende etwas mehr Platz für die warme Abluft zu haben – dies wurde zumindest bei NVIDIA und der GeForce GTX 1080 Ti Founders Edition so begründet.


Natürlich haben wir uns es nicht nehmen lassen, den Kühler der Radeon RX Vega 64 zu entfernen und einen Blick auf das PCB zu werfen.

» zur Galerie

Zunächst einmal fällt das zweigeteilte PCB auf. Während die erste Hälfte von der Slotblende ausgehend deutlich enger bestückt ist und sich hier auch das GPU-Package befindet, ist der hintere Bereich recht leer. AMD betont immer wieder die Tatsache, dass sich eine GPU mit HBM deutlicher enger bestückt auf einem PCB unterbringen lässt. Dies ist auch richtig, allerdings wird der Vorteil im Falle der Referenzversion nicht genutzt. Auf der Siggraph gab AMD allerdings bereits eine Vorschau auf eine Radeon RX Vega Nano mit deutlich kompakteren Abmessungen.

» zur Galerie

Das Package von GPU und HBM bedarf im Falle der Radeon RX Vega 64 offenbar einer engen Anbindung der Spannungsphasen. Derer sind zwölf vorhanden. Die Spannungsphasen sind in L-Form um das GPU-Package angeordnet. Der geringe Abstand erhöht die Effizienz und verringert den Spannungsabfall. Der High Bandwidth Memory wird über eine 13. Spannungsphase versorgt.

» zur Galerie

Im hinteren Bereich des PCBs befinden sich kaum Komponenten. Hier sind eigentlich nur die Anschlüsse für die zusätzliche Spannungsversorgung über zweimal 8-Pin sowie der Lüfteranschluss für den Radiallüfter untergebracht.

» zur Galerie

Auf der Rückseite der Karte befinden sich einige Komponenten, die hauptsächlich der Spannungsglättung und damit stabilen Versorgung des GPU-Packages dienen. Hier wirkt der hintere Bereich das PCBs deutlich voller. Unter anderem zu finden ist der Spannungscontroller (IR35217) für das 12-VRM-Design. Dieser wiederum steuert sechs Treiber (IR3598) an, die sich ebenfalls auf der Rückseite befinden.

» zur Galerie

AMD lieferte außerdem eine GPU mit, die nicht verlötet wurde und daher ein paar genaue Blicke zulässt und uns das Entfernen der Wärmeleitpaste erspart. Sehr schön ist der große Die zu sehen, der auf 484 mm² kommt. Daneben sitzen die beiden HBM2-Speicherstacks. Rund um diese Komponenten befinden sich einige SMD-Bauteile. Ein Rahmen sorgt dafür, dass der Kühler korrekt auf Die und Speicher aufliegt. Die Verbindung zwischen GPU-Package und PCB wird über ein Ball Grid Array (BGA) hergestellt. 2.088 Kontakte sorgen für die notwendigen Datenverbindungen und solche für die Spannungsversorgung.

» zur Galerie

Bei der Kühlung der Karte vertraut AMD auf einen großen Kupferblock, der auf dem GPU-Package aufsitzt. In diesem befindet sich eine Vapor-Chamber, die den Abtransport der Abwärme optimieren soll. Der HBM wird ebenfalls durch diesen Kupferkühler abgedeckt. Die weiteren Komponenten und hier vor allem die der Spannungsversorgung liegen teilweise auf dem Metallrahmen des Kühlers auf, der hier als eine Art Frontplate gestaltet ist. Damit ist auch die Kühlung einiger dieser Komponenten sichergestellt. Der Lüfter sitzt im hinteren Bereich des Kühlers, dort wo auf dem PCB eigentlich nicht mehr viel vorzufinden ist.


Auch die Radeon RX Vega 56 wollen wir uns etwas genauer anschauen, auch wenn es rein optisch keinerlei Unterschiede gibt.

» zur Galerie

Der GPU-Screenshots bestätigt die technischen Daten der AMD Radeon RX Vega 56. Auch hier gilt aber, dass GPU-Z einige der Daten noch nicht richtig auslesen kann. Beispielsweise stimmt der Boost-Takt nicht und liegt etwas unter den Angaben der Software.

Gegenüberstellung von Temperatur und Takt
Spiel Temperatur Takt
The Witcher 3: Wild Hunt 74 °C 1.312 MHz
Rise of the Tomb Raider 74 °C 1.474 MHz
Hitman 73 °C 1.312 MHz
Far Cry Primal 73 °C 1.312 MHz
DiRT Rallye 72 °C 1.474 MHz
Anno 2205 74 °C 1.474 MHz
The Division 73 °C 1.312 MHz
Fallout 4 72 °C 1.312 MHz

Kommen wir nun zu den ersten Messungen und diese betreffen das Verhalten von GPU-Temperatur und Takt unter Last. Anders als die Radeon RX Vega 64, die sozusagen am Limit arbeitet, kann die Radeon RX Vega 56 den GPU-Takt mit 1.312 bis 1.474 MHz in weiten Teilen halten. Auch hier sehen wir Reduzierungen im Takt. Diese sind aber nicht durch die Temperatur begründet, denn sie liegt mit 72 bis 74 °C unterhalb des Temperaturtargets. Also kommt die Versorgung der GPU bzw. deren Limitierung ins Spiel, die dafür sorgt, dass die Karte ihren Boost-Takt nicht ständig halten kann. Welche Auswirkungen dies auf die Leistung hat, schauen wir uns später in den Benchmarks an.


Bevor wir uns nun die Karte aus allen Winkeln anschauen, werfen wir noch einen Blick auf die wichtigsten technischen Daten in Form von Abmessung und Kühlung.

AMD Radeon RX Vega 56
Länge des PCBs 266 mm
Länge mit Kühler 266 mm
Slothöhe 2 Slots
zusätzliche Stromanschlüsse 2x 8-Pin
Lüfterdurchmesser 1x 75 mm
Display-Anschlüsse

3x Displayport 1.4
1x HDMI 2.0

Lüfter aus im Idle Nein

Sehr schnell zeigt sich: In der Referenzversion gibt es keinerlei Unterschiede hinsichtlich der Ausstattung zwischen der Radeon RX Vega 64 und RX Vega 56. Länge, Slothöhe, Anschlüsse usw. stimmen vollständig überein. Keinerlei große Überraschung, denn so kann AMD einfach das identische Design mit abgespeckten GPUs bestücken. Diese stammen aus der Fertigung bzw. den weniger guten Modellen, die dabei entstehen. Wie hoch der Ausschuss ist, will AMD nicht verraten. Neben den Vega-10-GPUs mit nur 56 aktivierten CUs wird es sicherlich noch welche geben, die komplett unbrauchbar sind.

» zur Galerie

Aufgrund der Tatsache, dass sich die Radeon RX Vega 64 und Vega 56 rein äußerlich nicht unterscheiden, verzichten wir auf eine detaillierte Betrachtung der Karte. Spannend wäre noch ein Blick auf eine wassergekühlte Variante der Radeon RX Vega 64 oder die Limited Edition gewesen. So aber müssen wir uns mit zwei äußerlich identischen Karten begnügen, die unter der Haube aber große Unterschiede machen.


Rund um die Veröffentlichung der Radeon RX Vega und das zu erwartende Leistungsniveau entbrannte eine Diskussion über die Synchronisierungstechniken FreeSync und G-Sync. FreeSync ist für AMD ein entscheidender Bestandteil fürs Gaming, auch weil trotz immer höherer Leistung der Grafikkarten nicht immer eine bestimmte Mindest-FPS gehalten werden kann. Auch die GeForce GTX 1080 Ti kommt mit 3.840 x 2.160 Pixel ins Schwitzen, der Radeon RX Vega 64 geht es aufgrund der zu erwartenden Leistung nicht anders. FreeSync und G-Sync haben sich inzwischen etabliert, doch noch immer tauchen Fragen dazu auf, die wir nun klären wollen.

Kein Stottern, kein Tearing, geringe Latenzen – all das versprechen FreeSync und G-Sync. In der Umsetzung gibt es jedoch einige Unterschiede, die im Falle von FreeSync über die Tatsache des freien Standards hinausgehen. Noch immer nutzt FreeSync Adaptive Sync als Basis und daher können die Display-Hersteller auf Standard-Komponenten für den Timing Controller (TCON) zugreifen, was die Kosten einschränkt. AMD verlangt keinerlei Gebühren für die Verwendung von FreeSync – im Gegensatz zu NVIDIA. Dies ist wohl der wichtigste Grund dafür, dass es eine Vielzahl an FreeSync-Monitoren gibt, die Auswahl bei den G-Sync-Displays eingeschränkt ist.

Preislich gibt es ebenfalls Unterschiede. Das günstigste FreeSync-Modell ist ab knapp über 100 Euro zu haben. Solche mit Low Framerate Compensation sind allerdings mehr als doppelt so teuer. Das günstigste G-Sync-Modell startet bei rund 380 Euro. Also ganz ohne den technischen Hintergrund zu kennen, machen FreeSync und G-Sync bereits preislich einen Unterschied. Aus technischer Sicht könnte man FreeSync im Vorteil sehen, weil dies über DisplayPort und HDMI funktioniert, während G-Sync auf DisplayPort beschränkt ist.

Synchronisations-Reichweite und technische Unterschiede

Doch kommen wir nun zu den Unterschieden: Hier spielt die minimale Frequenz, mit der ein Display angesteuert wird, die wichtigste Rolle. Im Falle von FreeSync gibt es einen Bereich, der von 35 bis 40 Hz als unterste Grenze bis hin zu 144 Hz reicht. 144 Hz sind allerdings nur per DisplayPort möglich, über HDMI ist man auf 120 Hz beschränkt. Je nach Auflösung kann dieser Bereich schwanken und so reichen manche Monitor-Modelle im Extremfall nur von 40 bis 60 Hz in der sogenannten FreeSync-Range. Beim Kauf und der Abstimmung mit der Leistung der Grafikkarte sollte darauf geachtet werden. Eine Radeon RX 480 reicht mit FreeSync nicht aus, um ein neues Spiel bei 3.840 x 2.160 Pixel in einer Range von 40 bis 60 FPS zu halten und damit flüssig darzustellen.

Die Low Framerate Compensation (LFC) ist bei der Kompensation eines der Probleme von FreeSync ein entscheidender Faktor. Fällt die Framerate unter die minimale Bildwiederholungsrate des FreeSync-Displays, kommt es normalerweise zu einem kurzen Stottern. Eigentlich soll genau das durch FreeSync verhindert werden. Ein Algorithmus erkennt nun, wenn die Framerate unter die minimale Bildwiederholungsrate des Displays fällt und hält die Ausgabe an Frames am Ausgang eben über dieser Schwelle. Dabei kann es natürlich dazu kommen, dass ein Frame mehrfach ausgegeben wird, ohne jedes Mal neu gerendert zu werden.

Eine Bedingung für eine funktionierende Low Framerate Compensation ist, dass der Monitor eine um den Faktor 2,5 höhere, maximale FreeSync-Bildwiederholungsrate beherrscht als die Minimum-FreeSync-Bildwiederholungsrate. Im Falle des ASUS MG279Q ermöglicht dieser ein FreeSync zwischen 35 und 90 Hz. Dies entspricht genau der Vorgabe um den Faktor 2,5. Da nicht alle FreeSync-Monitore diese Bedingung erfüllen, gilt es beim Kauf zu prüfen, in welcher Spanne der Monitor mit FreeSync arbeitet. Eine entsprechende Kennzeichnung nehmen die Hersteller häufig selbst vor. AMD führt eine Liste aller FreeSync-Monitore und listet auf, ob diese LFC unterstützen oder nicht.

Bei NVIDIAs G-Sync spielen solche einzelne Techniken wie LFC zunächst einmal keine Rolle. Es gibt natürlich – meist abhängig von der Auflösung – Unterschiede bei der maximalen Bildwiederholungsrate. Diese liegt bei G-Sync-Monitoren zwischen 60 und 240 Hz. Mehr als 144 Hz sind derzeit also nur mit G-Sync-Monitoren möglich. Ob dies sinnvoll ist oder nicht, muss der Käufer entscheiden. Einige sagen mehr als 144 Hz machen kaum Sinn, andere wiederum sehen darin einen entscheidenden Vorteil. Für G-Sync noch wichtig ist, dass LFC bei NVIDIA anders gelöst ist. Fallen die FPS der Karte unter 30 FPS, wird automatisch das V-Sync eingeschaltet. Allerdings wird dabei keine 1:1-Einstellung verwendet, sondern es werden Vielfache der Minimum-FPS angewendet. Rendert die Grafikkarte beispielsweise mit 20 FPS, kann der Monitor die Ausgabe mit 40 Hz erledigen. G-Sync soll insgesamt die rundere Technologie sein, da sich der Käufer eines Displays weniger Gedanken um andere technische Daten als die Auflösung und maximale Bildwiederholungsrate machen muss.

G-SYNC HDR und FreeSync 2

AMD und NVIDIA arbeiten bereits an weiteren Verbesserungen für FreeSync und G-Sync bzw. haben diese bereits vorgestellt. Für FreeSync 2 wird die Low Framerate Compensation zur Pflicht. Im Fokus von FreeSync 2 steht die Unterstützung von HDR. Dazu ein Blick darauf, wie GPU und Monitor aktuell zusammenarbeiten, wenn eine HDR-Darstellung erfolgen soll. Das Rendering bis zum Tone-Mapping findet dabei natürlich in der GPU statt. Nach der Übertragung der Bilddaten an ein HDR-Display, erfolgt hier ein erneutes Tone-Mapping, welches das Bild bzw. die Farbdarstellung an die Möglichkeiten des Monitors anpasst. Dieses doppelte Tone-Mapping ist zum einen überflüssig, zum zweiten sorgt es für eine gewisse Latenz bis zur Darstellung. Mit FreeSync 2 erfolgt das Tone-Mapping ausschließlich auf der GPU und das Tone-Mapping des Monitors wird übersprungen. Dazu muss dies der Monitor natürlich unterstützen – was eben ein Bestandteil der Anforderungen von FreeSync 2 ist.

» zur Galerie

Bei G-Sync HDR stehen der erweiterte Farbraum sowie der höhere Kontrast ebenfalls im Fokus. Dazu verwendet NVIDIA ein Full Array Local Dimming (FALD) mit 384 Zonen, was deutlich mehr als bei den bisherigen Monitoren ist. Auch die Helligkeit soll mit 1.000 nits höher als bei den bisherigen Modellen sein. Hinsichtlich des Farbraums werden die ersten Modelle mit DCI-P3 an den Start gehen und stellen damit 25 % mehr Farben als sRGB-Monitore dar. In Zukunft will NVIDIA dies auf Rec. 2020 (+72 % gegenüber sRGB) erweitern. Derzeit sind zwar einige G-Sync-HDR-Monitore angekündigt, verfügbar ist aber noch keiner.

FreeSync und G-Sync sind also weiter im Kommen. Beide Technologien werden weiterentwickelt und können als essenziell für Spieler angesehen werden, denn sie bieten durchaus ihre Vorteile. Trotz der technischen Unterschiede zwischen G-Sync und FreeSync sind diese eigentlich gar nicht so groß. Meist beschränkt sich die Wahl der einen oder anderen Technologie ohnehin schon durch die Grafikkarte, denn G-Sync funktioniert nur mit NVIDIA-Karten, während FreeSync weiterhin nur mit AMD-GPUs zusammenarbeitet. Insofern hat der Nutzer häufig gar nicht die Wahl, sondern entscheidet schon beim Kauf der Grafikkarte.


Die Software in Form der Spiele und Benchmarks haben wir umgestellt, die Hardware ist aber weitestgehend identisch geblieben. Um möglichst praxisnah zu testen, befindet sich das Testsystem in einem geschlossenen Gehäuse. Zudem befindet sich zwar das Windows 10 auf der SSD, die Spiele mussten wir aber auf eine Festplatte auslagern. Den Tests tut dies aber keinen Abbruch.

Das Testsystem
Prozessor Intel Core i7-3960X 3,3 @ 3,9 GHz
Kühlung Corsair H110i GT All-in-One-Wasserkühlung
Mainboard ASUS P9X97 Deluxe
Arbeitsspeicher G.Skill
SSD OCZ Arc 100 240 GB
Netzteil Seasonic Platinum Series 1.000 Watt
Betriebssystem Windows 10 64 Bit
Gehäuse Fractal Design Define R5

Folgende Treiber kamen für die Tests zum Einsatz:

Folgende Spiele und Benchmarks haben wir verwendet:


Die Messungen beginnen wir wie immer mit der Lautstärke, schauen uns dann aber auch die Leistungsaufnahme und GPU-Temperaturen an.

Lautstärke

Idle

in dB(A)
Weniger ist besser

Die ersten Messungen beschäftigen sich mit der Lautstärke der beiden Vega-Karten. Eine kleine Überraschung ist, dass beide Karten im Idle-Betrieb recht leise bleiben und dabei gerade einmal auf 36,6 dB(A) kommen. Damit sind die Karten aus einem laufenden System nur dann herauszuhören, wenn auch die übrigen Kühlkomponenten recht leise sind.

Lautstärke

Last

in dB(A)
Weniger ist besser

Unter Last aber müssen beide Karten Tribut für die hohe Leistungsaufnahme zollen. Mit 49,3 bzw. 49,9 dB(A) sind sie einfach deutlich zu laut. Allerdings versuchen beide die GPU-Temperatur unter dem dazugehörigen Limit zu halten, was im Falle der Radeon RX Vega 64 nicht immer gelingt. Hier sind wir auf die Messungen mit den alternativen Leistungsprofilen gespannt, die wir später noch präsentieren werden. Gespannt sind wir außerdem, wie die Boardpartner die Abwärme der GPU in den Griff bekommen werden.

Temperatur

Idle

in Grad C
Weniger ist besser

Vermutlich auch weil die Idle-Lautstärke positiv überzeugen konnte, sind die Idle-Temperaturen relativ hoch, aber keineswegs besorgniserregend. 44 bzw. 46 °C liegen im Rahmen dessen, was eine solche Karte hergeben kann. Spannender wird es unter Last. Der jeweils zweite Wert beschreibt die Temperatur des HBM2. Die Temperaturen sind auch hier relativ niedrig.

Temperatur

Last

in Grad C
Weniger ist besser

Während die Radeon RX Vega 56 mit 74 °C noch im Rahmen bleibt und auch aufgrund der Temperatur damit keine Leistungsreduzierung zu erwarten ist, muss die Radeon RX Vega 64 an der Temperaturgrenze kämpfen. 85 °C sind hier einfach zu viel – auch wenn die Hersteller inzwischen gezielt auf ein Temperaturziel hinarbeiten und die Kühlung entsprechend auslegen. Der HBM2 wird auf der Radeon RX Vega 56 77 °C warm, was recht nahe der GPU-Temperatur ist und keinerlei Problem darstellt. Bei der Radeon RX Vega 64 sprechen wir von 91 °C, ebenfalls technisch noch kein Problem. Dieser Wert zeigt aber deutlich, dass eine aktive Kühlung des HBM2 notwendig ist.

Leistungsaufnahme (Gesamtsystem)

Idle

in W
Weniger ist besser

Der Idle-Stromverbrauch bringt keinerlei Überraschungen mit sich. Das Gesamtsystem wird kaum durch die Grafikkarte belastet und damit sollten beide Karten recht sparsam arbeiten. Ein paar Watt mehr oder weniger wird der Käufer einer solchen Karte auf der Jahresrechnung des Stromanbieters wohl nicht spüren, vor allem nicht für den Idle-Betrieb. Auch hier bietet der Verbrauch unter Last das spannendere Thema.

Leistungsaufnahme (Gesamtsystem)

Last

in W
Weniger ist besser

Hier dann das fast schon erwartete Bild: Die Radeon RX Vega 64 kommt im Gesamtsystem auf 462,7 W und damit verbraucht sie deutlich mehr als die High-End-Modelle der Konkurrenz. AMD hat offenbar keinen Weg gefunden, die Karte mit dieser Leistung sparsamer zu machen. Ein echtes Effizienzwunder wird die Radeon RX Vega 64 wohl nicht mehr werden, denn auch die Partnerkarten werden hier keinerlei Wunder ans Tageslicht bringen können.

Schon besser gefällt uns die Radeon RX Vega 56. Ihr Verbrauch im Gesamtsystem liegt mit 394,3 W deutlich darunter Ob dies auch entsprechende Auswirkungen auf die Leistung hat bzw. wie hoch diese ausfallen, werden wir uns in den Benchmarks anschauen. Die Radeon RX Vega 56 könnte die effizientere Karte und damit womöglich bessere Wahl werden.

Leistungsaufnahme (Gesamtsystem)

Idle - 2 Monitore

in W
Weniger ist besser

Keinerlei Probleme sehen wir für den Multi-Monitor-Betrieb. Der Verbrauch steigt zwar leicht an, ein großes Problem sollte dies jedoch nicht sein.


Der 3DMark von Futuremark gehört zu den beliebtesten synthetischen Benchmarks und bietet damit eine breite Basis für den Vergleich unterschiedlicher Systeme oder einzelner Komponenten. Dabei bieten die unterschiedlichen Presets die Möglichkeit das System auf unterschiedliche Herausforderungen zu testen - bis hin zu UltraHD/4K-Auflösungen. Ursprünglich als reiner DirectX-11-Benchmark entwickelt bietet der 3DMark inzwischen auch die Möglichkeit sich eine Leistungs-Domäne von DirektX 12 genauer anzuschauen, die sogenannten Draw Calls.

Futuremark 3DMark

Fire Strike

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Fire Strike Extreme

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Fire Strike Ultra

Futuremark-Punkte
Mehr ist besser


Der Luxmark 3.0 ist ein Render-Benchmark, der auf die OpenCL-Schnittstelle zurückgreift und damit eine breite Hardware-Basis adressiert. Der Luxmark wurde als Programm zur Leistungsbestimmung für den LuxRender entwickelt. Die LuxRender-2.x-API wird verwendet um eine Szene zu berechnen. Die Ausgabe erfolgt in Samples pro Sekunde.

Luxmark 3.0

Sala

Punkte
Mehr ist besser


Mit Hilfe von GPUPI wird Pi auf Basis unterschiedlicher Schnittstellen berechnet. Möglich ist die Berechnung auf Prozessoren sowie Grafikkarten und Programme wie SuperPi und ähnliche dienen schon lange als Möglichkeit die Rechenleistung von Hardware zu bestimmen. GPUPI verwendet, wie der Name schon sagt, die GPU der Grafikkarte zu Berechnung. Wir verwenden dazu die OpenCL-API und lassen Pi auf 500 Millionen oder 1 Milliarde Stellen berechnen. GPUPI beschreibt besonders gut die 64 Bit Integer Performance der Hardware.

GPUPI 2.0

500M

Sekunden
Weniger ist besser

GPUPI 2.0

1000M

Sekunden
Weniger ist besser


The Witcher 3: Wild Hunt ist ein Rollenspiel und basiert auf der Hintergrundgeschichte und Spielwelt der Buchvorlage von Andrzej Sapkowski. Als Geralt von Riva gilt es sich durch eine mittelalterliche Fantasiewelt zu schlagen und sich dabei zahlreichen Aufgaben zu stellen. Als Spieleengine kommt die von CD Project Red eigens entwickelte Red Engine in der Version 3 zum Einsatz. Für ein Open-World-Rollenspiel setzt sie neue Maßstäbe bei der grafischen Darstellung.

The Witcher 3

1.920 x 1.080

Bilder pro Sekunde
Mehr ist besser

The Witcher 3

2.560 x 1.440

Bilder pro Sekunde
Mehr ist besser

The Witcher 3

3.840 x 2.160

Bilder pro Sekunde
Mehr ist besser


Rise of the Tomb Raider

1.920 x 1.080 1xFXAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Rise of the Tomb Raider

1.920 x 1.080 2xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Rise of the Tomb Raider

2.560 x 1.440 1xFXAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Rise of the Tomb Raider

2.560 x 1.440 2xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Rise of the Tomb Raider

3.840 x 2.160 1xFXAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Rise of the Tomb Raider

3.840 x 2.160 2xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Hitman

1.920 x 1.080 SMAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Hitman

2.560 x 1.440 SMAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Hitman

3.860 x 2.160 SMAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Far Cry Primal

1.920 x 1.080 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Far Cry Primal

2.560 x 1.440 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Far Cry Primal

3.840 x 2.160 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Mit Dirt Rally legte Codemasters den Fokus im Gegensatz zu seinen Vorgängern wieder mehr auf Simulation. Im Spiel enthalten sind 17 Autos, u. a. Audi S1 quattro, Lancia Delta und Ford Fiesta RS WRC, sowie 36 Etappen in drei Gebieten: Wales, Griechenland und Monte Carlo. Im Laufe des Jahres sollen weitere Inhalte in Form von Updates über Steam in das Spiel gebracht werden, dazu gehören Pikes Peak, Rally Deutschland sowie Inhalte der FIA Rallycross Championship.

DiRt Rally

3.840 x 2.160 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

DiRt Rally

3.840 x 2.160 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Anno 2205

3.840 x 2.160 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Anno 2205

3.840 x 2.160 4xAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Tom Clancys The Division

1.920 x 1.080

Bilder pro Sekunde
Mehr ist besser

Tom Clancys The Division

2.560 x 1.440