> > > > Radeon Vega Frontier Edition mit Gaming Mode – Wechsel zwischen Profi- und Consumer-Treiber möglich

Radeon Vega Frontier Edition mit Gaming Mode – Wechsel zwischen Profi- und Consumer-Treiber möglich

Veröffentlicht am: von

radeon-vega-frontier-edition

Ab heute ist die erste Grafikkarte auf Basis von AMDs Vega-Architektur im Handel erhältlich. Erst gestern tauchte eine Vergleich zwischen der Radeon Vega Frontier Edition und der NVIDIA Titan Xp auf, der allerdings nur einige wenige Workstation-Benchmarks bot (die zudem auch noch diskussionswürdig sind) und bei den Spielen keinerlei Leistungsdaten anbieten konnte.

Ab heute ist die Radeon Vega Frontier Edition in zwei Varianten im Handel erhältlich – sofern man denn die Chance bekommt eine durch die extrem geringe Stückzahl stark limitierte Karte zu erstehen: Einmal in einer luftgekühlten und einmal in einer wassergekühlten Variante. Unterschiede beim Takt scheint es nicht zu geben, denn die Karten sind jeweils mit einer Rechenleistung von 13,1 TFLOPS aufgeführt.

Mit der Verfügbarkeit veröffentlicht AMD auch einige technische Daten, die bisher unbekannt waren:

AMD Radeon Vega Frontier Edition
Modell luftgekühlt wassergekühlt
GPU Vega 10 Vega 10
Shadereinheiten 4.096 4.096
GPU-Takt 1.382 MHz 1.382 MHz
Boost-Takt 1.600 MHz 1.600 MHz
Speicher 16 GB HBM2 16 GB HBM2
Speichertakt 945 MHz 945 MHz
Speicherbandbreite 483,84 GB/s 483,84 GB/s
FP64-Rechenleistung 0,819 TFLOPS 0,819 TFLOPS
FP32-Rechenleistung 13,1 TFLOPS 13,1 TFLOPS
FP16-Rechenleistung 26,2 TFLOPS 26,2 TFLOPS
Int8-Rechenleistung - -
TDP 300 W 375 W

Beide Varianten basieren natürlich auf der Vega-GPU und verwenden 4.096 Shadereinheiten, organisiert in 64 New Compute Units. Weitere Details zur Architektur findet ihr in unserem ausführlichen Artikel zur Vega-Architektur.

Erstmals macht AMD nicht nur grobe Angaben zur Rechenleistung (aus denen sich der GPU-Takt errechnen ließe), sondern benennt auch den GPU-Takt. Der typische GPU-Takt soll bei 1.382 MHz liegen, während eine "Peak Engine Clock" von 1.600 MHz erreicht werden soll. Dies betrifft sicherlich Bedingungen, unter denen die Karte ausreichend kühl bleibt. Unter diesen Bedingungen sollen beide Varianten eine Spitzenrechenleistung von 13,1 TFLOPS bei einfacher Genauigkeit abrufen können. Wird die Genauigkeit halbiert, sind es 26,2 TFLOPS. Im Vergleich zu den Tesla-Karten von NVIDIA liegt die Rechenleistung bei doppelter Genauigkeit nur bei 0,819 TFLOPS.

Den maximalen Takt von 1.600 MHz wird die wassergekühlte Variante der Radeon Vega Frontier Edition sicherlich länger halten können, als dies bei der luftgekühlten Variante der Fall ist. Dies alles ist aber abhängig von der zur Verfügung stehenden Kühlung. Ab heute ist aber auch nur die luftgekühlte Variante verfügbar, die 999 US-Dollar kosten soll. Die wassergekühlte Variante soll im dritten Quartal folgen und 1.499 US-Dollar kosten.

Nutzer kann zwischen Profi-Treiber und Gaming Mode wechseln

AMD legt die Radeon Vega Frontier Edition derart aus, dass man sie zwischen dem typischen Profi- und Endkunden-Markt sieht. Zumindest ist die Karte und der dazugehörige Treiber in der Lage sowohl professionelle Anwendungen auszuführen, wie auch Spiele. Daher stellen sich natürlich viele die Frage, welcher Treiber denn nun genau zum Einsatz kommt. Diese Frage lässt sich nun klar beantworten.

Die Radeon Vega Frontier Edition verwendet einen Treiber der Radeon-Pro-Software-Reihe. Dieser besitzt aber auch eine Funktion namens "Gaming Mode", die entsprechende Optimierungen für Spiele mitbringen soll. Für reine Compute-Anwendungen soll am 29. Juni der dazugehörige ROCm-Treiber folgen. Bisher dahin steht der Radeon Pro Software in der Version 17.6 für die Radeon Vega Frontier Edition zur Verfügung, der direkt bei AMD heruntergeladen werden kann.

Auch einige weitere Leistungswerte führt AMD auf:

Bis auf die exklusive Vorschau durch PCWorld gibt es derzeit keine unabhängige Tests oder anderweitige Auftritte der Radeon Vega Frontier Edition. Kein Magazin wurde bisher mit einem Sample bestückt und dies soll sich laut AMD auch nicht ändern, denn man ziele mit der Karte auf einen Markt ab, der auch ohne solche Tests die Leistung der Karte einzuschätzen wisse.

Die größeren Publikationen werden aber sicherlich über einen Kauf nachdenken – wenngleich dies bei der geringen Verfügbarkeit schwierig werden dürfte. Derzeit listet noch kein deutscher Shop die Karte. Daher kennen wir auch keine Euro-Preise zur Karte.

Update:

Inzwischen führt auch der erste deutsche Online-Shop die Radeon Vega Frontier Edition. Bei Caseking ist die Karte in der luftgekühlten Variante für 1.199 Euro gelistet. Die wassergekühlte Version wird etwas später folgen, soll aber 1.749 Euro kosten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (97)

#88
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3844
Zitat mr.dude;25642837


Mal davon abgesehen, AMD selbst empfiehlt für ein FE System mindestens ein 850W Netzteil. Mit 550W oder ähnlich unterdimensionieren Netzteilen machen Tests eh nicht sonderlich viel Sinn.


Ach komm. Hier im Forum wird für single gpu systeme immer nur 500W empfohlen, auch wenn ne 1080Ti OC drin hängt, die sich auch 300W gönnt.

550W sind locker genug um ne 300W Karte zu befeuern. Der i7 von dem Kerl braucht doch im Bench keine 100W, dazu 300w gpu, bleiben 150W für platten und mainboard.

Und der "prosumer" quark ist doch auch nur geschwafel. Die treiber beinhalten selbst den game mode, rx vega wird exakt die gleiche gpu, pcb etc werden, nur in andrer kühlerfarbe. Bis rx sinds 4 wochen, in der zeit holt niemand magisch noch +40% in sinnvollem ausmaß raus.

Ist doch auch logisch der score. 12TF. Wann hat AMD das letzte mal aus nem TF so viel rausgeholt wie Nvidia? Richtig, ich kann mich auch nicht dran erinnern. Bei gleicher Rohleistung ist AMD mittlerweile immer langsamer als Nvidia im Schnitt, und hier ists genauso. Erwartet hier ernsthaft jemand dass AMD plötzlich mit Vega all das überwindet?


Sent from OP3T
#89
Registriert seit: 26.09.2007
Kärnten/Österreich
Fregattenkapitän
Beiträge: 2574
aufgrund der vielen Änderungen in der Architektur war zumindest die Hoffnung das man mehr aus der Rohleistung rausholt nicht ganz unangebracht - spätestens in einem Monat werden wir es hoffentlich schwarz auf weiß am tisch haben ...
#90
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3844
Naja eins der Probleme an GCN war schon immer dass sie in die Breite gehen, während Nvidia "nach oben" i.e. Takt geht. Ne breite GPU ist immer schwerer auszulasten als ne dünnere und dafür schneller getaktete.

Und das Problem schiebt AMD seitdem vor sich her im high end. Die breite voll zu nutzen schaffen spiele dann meist erst, wenn so breite gpus im midrange angekommen sind, aber dann ist halt zu spät.

Sent from OP3T
#91
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 12215
mmhh also AMD geht nicht in die Höhe?

Polaris geht 1400+Mhz, Vega 1600+Mhz
Fiji war bei 1100Mhz wobei da andere Dinge gebremst haben... aber ja AMD geht NICHT in die Höhe :rolleyes:
#92
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3844
Zitat RAZ0RLIGHT;25643245
mmhh also AMD geht nicht in die Höhe?

Polaris geht 1400+Mhz, Vega 1600+Mhz
Fiji war bei 1100Mhz wobei da andere Dinge gebremst haben... aber ja AMD geht NICHT in die Höhe :rolleyes:

Ja. Schön. Damit ist AMD also auf Stand von Maxwell (2015). Fiji kam auf den Stand von Kepler (2012).

GCN ist gezielt auf Breite ausgelegt. So ziemlich immer hat das GCN Flaggschiff mehr Kerne als das Nvidia Counterpart. Aber das gibt halt Probleme in Spielen.

Sent from OP3T
#93
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 12215
Du kannst doch nicht den Takt von AMD mit dem von Nvidia vergleichen *facepalm*
Sind doch unterschiedliche Architekturen.
#94
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3844
Doch kann ich. Das ist doch grad der Punkt.

AMD: Mehr cores, dafür weniger takt
Nvidia: Weniger cores, dafür mehr takt

Ich treffe keine Aussagen zur Leistung. Die Architekturen kann ich aber definitiv vergleichen, bzw zumindest die grundlegenden Designstrategien.

Wenn du mal ne Chance hast, unterhalt dich mit nem AMD Engineer, der wird dir das bestätigen können.

Sent from OP3T
#95
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6272
Zitat Powl;25642939
550W sind locker genug um ne 300W Karte zu befeuern.

Das denkst du. Das kann sich schnell aufsummieren, ja nachdem was du an CPU, Board, Laufwerken, zusätzlichen Karten, Lüftern, etc im System hast. Und da ist noch nicht mal OC berücksichtigt. Die mindestens 850W von AMD mögen übertrieben erscheinen, aber es ist halt auch nur eine Empfehlung.

Zitat Powl;25642939
Und der "prosumer" quark ist doch auch nur geschwafel. Die treiber beinhalten selbst den game mode ...

Nur bewirkt der Game Mode bei Pro Karten nix. Scheint dort nur eine Art Compatibility Mode zu sein.

Zitat Powl;25642939
rx vega wird exakt die gleiche gpu, pcb etc werden, nur in andrer kühlerfarbe.

Die gleiche GPU, sicherlich. PCB könnte schon noch etwas anders werden. Das ist in dem Kontext aber nebensächlich. Der springende Punkt ist, über den Treiber kann gesteuert werden, wie die Pipeline arbeitet, welche Einheiten zB genutzt werden usw. Und natürlich kann das einen erheblichen Unterschied machen. Gerade bei einer so radikal umgestrickten Architektur wie Vega.

Zitat Powl;25642939
Ist doch auch logisch der score. 12TF. Wann hat AMD das letzte mal aus nem TF so viel rausgeholt wie Nvidia? Richtig, ich kann mich auch nicht dran erinnern. Bei gleicher Rohleistung ist AMD mittlerweile immer langsamer als Nvidia im Schnitt, und hier ists genauso. Erwartet hier ernsthaft jemand dass AMD plötzlich mit Vega all das überwindet?

Warum nicht? Schliesslich sind die CUs bei Vega anders als bei allen anderen GCN Generationen aufgebaut. Und dass FPS nicht einzig auf TFLOPS zurückzuführen sind, sollte auch klar sein. TFLOPS kommen vor allem bei Computing zum Tragen. Und da scheint die Vega FE die Titan Xp laut bisheriger Tests ziemlich nass zu machen. AMD holt hier also mehr tatsächliche Performance aus der Rohleistung raus als Nvidia. Was aber auch keine allzu grosse Neuigkeit ist. Das hat man teils auch schon in der Vergangenheit.


Zitat Powl;25643013
Naja eins der Probleme an GCN war schon immer dass sie in die Breite gehen, während Nvidia "nach oben" i.e. Takt geht.

Nicht wirklich. Nvidia hat nach dem Debakel mit Thermi doch das gleiche gemacht wie AMD. Weg von den Hot Clocks, hin zu vielen Shadern und niedrigem Takt. Daran ändert auch Pascal erstmal nur wenig. Die Architektur wurde dort zwar etwas angepasst für höhere Taktraten. Der Hauptanteil kommt aber vermutlich vom 16nm TSMC Prozess.

Zitat Powl;25643013
Ne breite GPU ist immer schwerer auszulasten als ne dünnere und dafür schneller getaktete.

Was genau soll denn schwerer auszulasten sein? Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.
#96
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Kapitän zur See
Beiträge: 3844
Zitat mr.dude;25648119
Das denkst du. Das kann sich schnell aufsummieren, ja nachdem was du an CPU, Board, Laufwerken, zusätzlichen Karten, Lüftern, etc im System hast. Und da ist noch nicht mal OC berücksichtigt. Die mindestens 850W von AMD mögen übertrieben erscheinen, aber es ist halt auch nur eine Empfehlung.


Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.

Zu 1: nicht denken, das weiß ich. Hab ne 980Ti bei knapp 1500mhz zusammen mit nem i5, leds im case, ner handvoll platten, laufwerk etc mit nem 520W 80+B betrieben.
Selbst nachdem aus dem i5 ein ryzen 1700 bei 3.9ghz wurde, hätts noch gereicht. Kam damit bisher noch nie über 450W ohne gezielt stresstest auf sowohl cpu als auch gpu laufen zu lassen. Benchmarks sind fast lachhaft dagegen.
Für nen Benchmark ists allemal genug.

Zu 2: das trifft auf die theorie zu, vlt auf gpgpu mit hochparallelisiertem code. Aber nicht unbedingt auf spiele. Da wirds schwer breit auszulasten, weil eben oftmals shadercode etc genug verzweigung hat, dass ein großer teil der einheiten nur stalled, und dann rettet einen nur mehr takt.


Sent from OP3T
#97
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6272
Zitat Powl;25648128
Zu 2: das trifft auf die theorie zu, vlt auf gpgpu mit hochparallelisiertem code. Aber nicht unbedingt auf spiele. Da wirds schwer breit auszulasten, weil eben oftmals shadercode etc genug verzweigung hat, dass ein großer teil der einheiten nur stalled, und dann rettet einen nur mehr takt.

Nein. Ich wiederhole es nochmal. Lesen und verstehen!
Zitat
Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.

Wenn andere Grafik relevante Einheiten limitieren, dann helfen dir weder mehr Shader noch höherer Shadertakt was. Dann musst du mehr von diesen anderen Einheiten implementieren oder die vorhandenen höher takten. So oder so, das Prinzip bleibt das gleiche. Mehr Einheiten + niedrigerer Takt = mehr Energieeffizienz. Das gilt auf allen Ebenen. So zumindest die Theorie, da hast du Recht. In der Praxis spielen natürlich auch andere Faktoren noch eine Rolle, wie Flächeneffizienz. Diese kann mit mehr Einheiten bei niedrigerem Takt abnehmen, was wiederum kontraproduktiv für das Gesamtdesign sein kann. Hier gilt es einfach, den besten Kompromiss zu finden. Niedrigerer Takt ermöglicht zB den Einsatz von HD Bibliotheken, was die Flächeneffizienz wiederum verbessern kann.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]