> > > > Radeon Vega Frontier Edition mit Gaming Mode – Wechsel zwischen Profi- und Consumer-Treiber möglich

Radeon Vega Frontier Edition mit Gaming Mode – Wechsel zwischen Profi- und Consumer-Treiber möglich

Veröffentlicht am: von

radeon-vega-frontier-edition

Ab heute ist die erste Grafikkarte auf Basis von AMDs Vega-Architektur im Handel erhältlich. Erst gestern tauchte eine Vergleich zwischen der Radeon Vega Frontier Edition und der NVIDIA Titan Xp auf, der allerdings nur einige wenige Workstation-Benchmarks bot (die zudem auch noch diskussionswürdig sind) und bei den Spielen keinerlei Leistungsdaten anbieten konnte.

Ab heute ist die Radeon Vega Frontier Edition in zwei Varianten im Handel erhältlich – sofern man denn die Chance bekommt eine durch die extrem geringe Stückzahl stark limitierte Karte zu erstehen: Einmal in einer luftgekühlten und einmal in einer wassergekühlten Variante. Unterschiede beim Takt scheint es nicht zu geben, denn die Karten sind jeweils mit einer Rechenleistung von 13,1 TFLOPS aufgeführt.

Mit der Verfügbarkeit veröffentlicht AMD auch einige technische Daten, die bisher unbekannt waren:

AMD Radeon Vega Frontier Edition
Modell luftgekühlt wassergekühlt
GPU Vega 10 Vega 10
Shadereinheiten 4.096 4.096
GPU-Takt 1.382 MHz 1.382 MHz
Boost-Takt 1.600 MHz 1.600 MHz
Speicher 16 GB HBM2 16 GB HBM2
Speichertakt 945 MHz 945 MHz
Speicherbandbreite 483,84 GB/s 483,84 GB/s
FP64-Rechenleistung 0,819 TFLOPS 0,819 TFLOPS
FP32-Rechenleistung 13,1 TFLOPS 13,1 TFLOPS
FP16-Rechenleistung 26,2 TFLOPS 26,2 TFLOPS
Int8-Rechenleistung - -
TDP 300 W 375 W

Beide Varianten basieren natürlich auf der Vega-GPU und verwenden 4.096 Shadereinheiten, organisiert in 64 New Compute Units. Weitere Details zur Architektur findet ihr in unserem ausführlichen Artikel zur Vega-Architektur.

Erstmals macht AMD nicht nur grobe Angaben zur Rechenleistung (aus denen sich der GPU-Takt errechnen ließe), sondern benennt auch den GPU-Takt. Der typische GPU-Takt soll bei 1.382 MHz liegen, während eine "Peak Engine Clock" von 1.600 MHz erreicht werden soll. Dies betrifft sicherlich Bedingungen, unter denen die Karte ausreichend kühl bleibt. Unter diesen Bedingungen sollen beide Varianten eine Spitzenrechenleistung von 13,1 TFLOPS bei einfacher Genauigkeit abrufen können. Wird die Genauigkeit halbiert, sind es 26,2 TFLOPS. Im Vergleich zu den Tesla-Karten von NVIDIA liegt die Rechenleistung bei doppelter Genauigkeit nur bei 0,819 TFLOPS.

Den maximalen Takt von 1.600 MHz wird die wassergekühlte Variante der Radeon Vega Frontier Edition sicherlich länger halten können, als dies bei der luftgekühlten Variante der Fall ist. Dies alles ist aber abhängig von der zur Verfügung stehenden Kühlung. Ab heute ist aber auch nur die luftgekühlte Variante verfügbar, die 999 US-Dollar kosten soll. Die wassergekühlte Variante soll im dritten Quartal folgen und 1.499 US-Dollar kosten.

Nutzer kann zwischen Profi-Treiber und Gaming Mode wechseln

AMD legt die Radeon Vega Frontier Edition derart aus, dass man sie zwischen dem typischen Profi- und Endkunden-Markt sieht. Zumindest ist die Karte und der dazugehörige Treiber in der Lage sowohl professionelle Anwendungen auszuführen, wie auch Spiele. Daher stellen sich natürlich viele die Frage, welcher Treiber denn nun genau zum Einsatz kommt. Diese Frage lässt sich nun klar beantworten.

Die Radeon Vega Frontier Edition verwendet einen Treiber der Radeon-Pro-Software-Reihe. Dieser besitzt aber auch eine Funktion namens "Gaming Mode", die entsprechende Optimierungen für Spiele mitbringen soll. Für reine Compute-Anwendungen soll am 29. Juni der dazugehörige ROCm-Treiber folgen. Bisher dahin steht der Radeon Pro Software in der Version 17.6 für die Radeon Vega Frontier Edition zur Verfügung, der direkt bei AMD heruntergeladen werden kann.

Auch einige weitere Leistungswerte führt AMD auf:

Bis auf die exklusive Vorschau durch PCWorld gibt es derzeit keine unabhängige Tests oder anderweitige Auftritte der Radeon Vega Frontier Edition. Kein Magazin wurde bisher mit einem Sample bestückt und dies soll sich laut AMD auch nicht ändern, denn man ziele mit der Karte auf einen Markt ab, der auch ohne solche Tests die Leistung der Karte einzuschätzen wisse.

Die größeren Publikationen werden aber sicherlich über einen Kauf nachdenken – wenngleich dies bei der geringen Verfügbarkeit schwierig werden dürfte. Derzeit listet noch kein deutscher Shop die Karte. Daher kennen wir auch keine Euro-Preise zur Karte.

Update:

Inzwischen führt auch der erste deutsche Online-Shop die Radeon Vega Frontier Edition. Bei Caseking ist die Karte in der luftgekühlten Variante für 1.199 Euro gelistet. Die wassergekühlte Version wird etwas später folgen, soll aber 1.749 Euro kosten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (97)

#88
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Banned
Beiträge: 3311
Zitat mr.dude;25642837


Mal davon abgesehen, AMD selbst empfiehlt für ein FE System mindestens ein 850W Netzteil. Mit 550W oder ähnlich unterdimensionieren Netzteilen machen Tests eh nicht sonderlich viel Sinn.


Ach komm. Hier im Forum wird für single gpu systeme immer nur 500W empfohlen, auch wenn ne 1080Ti OC drin hängt, die sich auch 300W gönnt.

550W sind locker genug um ne 300W Karte zu befeuern. Der i7 von dem Kerl braucht doch im Bench keine 100W, dazu 300w gpu, bleiben 150W für platten und mainboard.

Und der "prosumer" quark ist doch auch nur geschwafel. Die treiber beinhalten selbst den game mode, rx vega wird exakt die gleiche gpu, pcb etc werden, nur in andrer kühlerfarbe. Bis rx sinds 4 wochen, in der zeit holt niemand magisch noch +40% in sinnvollem ausmaß raus.

Ist doch auch logisch der score. 12TF. Wann hat AMD das letzte mal aus nem TF so viel rausgeholt wie Nvidia? Richtig, ich kann mich auch nicht dran erinnern. Bei gleicher Rohleistung ist AMD mittlerweile immer langsamer als Nvidia im Schnitt, und hier ists genauso. Erwartet hier ernsthaft jemand dass AMD plötzlich mit Vega all das überwindet?


Sent from OP3T
#89
Registriert seit: 26.09.2007
Kärnten/Österreich
Korvettenkapitän
Beiträge: 2390
aufgrund der vielen Änderungen in der Architektur war zumindest die Hoffnung das man mehr aus der Rohleistung rausholt nicht ganz unangebracht - spätestens in einem Monat werden wir es hoffentlich schwarz auf weiß am tisch haben ...
#90
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Banned
Beiträge: 3311
Naja eins der Probleme an GCN war schon immer dass sie in die Breite gehen, während Nvidia "nach oben" i.e. Takt geht. Ne breite GPU ist immer schwerer auszulasten als ne dünnere und dafür schneller getaktete.

Und das Problem schiebt AMD seitdem vor sich her im high end. Die breite voll zu nutzen schaffen spiele dann meist erst, wenn so breite gpus im midrange angekommen sind, aber dann ist halt zu spät.

Sent from OP3T
#91
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 11887
mmhh also AMD geht nicht in die Höhe?

Polaris geht 1400+Mhz, Vega 1600+Mhz
Fiji war bei 1100Mhz wobei da andere Dinge gebremst haben... aber ja AMD geht NICHT in die Höhe :rolleyes:
#92
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Banned
Beiträge: 3311
Zitat RAZ0RLIGHT;25643245
mmhh also AMD geht nicht in die Höhe?

Polaris geht 1400+Mhz, Vega 1600+Mhz
Fiji war bei 1100Mhz wobei da andere Dinge gebremst haben... aber ja AMD geht NICHT in die Höhe :rolleyes:

Ja. Schön. Damit ist AMD also auf Stand von Maxwell (2015). Fiji kam auf den Stand von Kepler (2012).

GCN ist gezielt auf Breite ausgelegt. So ziemlich immer hat das GCN Flaggschiff mehr Kerne als das Nvidia Counterpart. Aber das gibt halt Probleme in Spielen.

Sent from OP3T
#93
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 11887
Du kannst doch nicht den Takt von AMD mit dem von Nvidia vergleichen *facepalm*
Sind doch unterschiedliche Architekturen.
#94
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Banned
Beiträge: 3311
Doch kann ich. Das ist doch grad der Punkt.

AMD: Mehr cores, dafür weniger takt
Nvidia: Weniger cores, dafür mehr takt

Ich treffe keine Aussagen zur Leistung. Die Architekturen kann ich aber definitiv vergleichen, bzw zumindest die grundlegenden Designstrategien.

Wenn du mal ne Chance hast, unterhalt dich mit nem AMD Engineer, der wird dir das bestätigen können.

Sent from OP3T
#95
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6215
Zitat Powl;25642939
550W sind locker genug um ne 300W Karte zu befeuern.

Das denkst du. Das kann sich schnell aufsummieren, ja nachdem was du an CPU, Board, Laufwerken, zusätzlichen Karten, Lüftern, etc im System hast. Und da ist noch nicht mal OC berücksichtigt. Die mindestens 850W von AMD mögen übertrieben erscheinen, aber es ist halt auch nur eine Empfehlung.

Zitat Powl;25642939
Und der "prosumer" quark ist doch auch nur geschwafel. Die treiber beinhalten selbst den game mode ...

Nur bewirkt der Game Mode bei Pro Karten nix. Scheint dort nur eine Art Compatibility Mode zu sein.

Zitat Powl;25642939
rx vega wird exakt die gleiche gpu, pcb etc werden, nur in andrer kühlerfarbe.

Die gleiche GPU, sicherlich. PCB könnte schon noch etwas anders werden. Das ist in dem Kontext aber nebensächlich. Der springende Punkt ist, über den Treiber kann gesteuert werden, wie die Pipeline arbeitet, welche Einheiten zB genutzt werden usw. Und natürlich kann das einen erheblichen Unterschied machen. Gerade bei einer so radikal umgestrickten Architektur wie Vega.

Zitat Powl;25642939
Ist doch auch logisch der score. 12TF. Wann hat AMD das letzte mal aus nem TF so viel rausgeholt wie Nvidia? Richtig, ich kann mich auch nicht dran erinnern. Bei gleicher Rohleistung ist AMD mittlerweile immer langsamer als Nvidia im Schnitt, und hier ists genauso. Erwartet hier ernsthaft jemand dass AMD plötzlich mit Vega all das überwindet?

Warum nicht? Schliesslich sind die CUs bei Vega anders als bei allen anderen GCN Generationen aufgebaut. Und dass FPS nicht einzig auf TFLOPS zurückzuführen sind, sollte auch klar sein. TFLOPS kommen vor allem bei Computing zum Tragen. Und da scheint die Vega FE die Titan Xp laut bisheriger Tests ziemlich nass zu machen. AMD holt hier also mehr tatsächliche Performance aus der Rohleistung raus als Nvidia. Was aber auch keine allzu grosse Neuigkeit ist. Das hat man teils auch schon in der Vergangenheit.


Zitat Powl;25643013
Naja eins der Probleme an GCN war schon immer dass sie in die Breite gehen, während Nvidia "nach oben" i.e. Takt geht.

Nicht wirklich. Nvidia hat nach dem Debakel mit Thermi doch das gleiche gemacht wie AMD. Weg von den Hot Clocks, hin zu vielen Shadern und niedrigem Takt. Daran ändert auch Pascal erstmal nur wenig. Die Architektur wurde dort zwar etwas angepasst für höhere Taktraten. Der Hauptanteil kommt aber vermutlich vom 16nm TSMC Prozess.

Zitat Powl;25643013
Ne breite GPU ist immer schwerer auszulasten als ne dünnere und dafür schneller getaktete.

Was genau soll denn schwerer auszulasten sein? Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.
#96
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Banned
Beiträge: 3311
Zitat mr.dude;25648119
Das denkst du. Das kann sich schnell aufsummieren, ja nachdem was du an CPU, Board, Laufwerken, zusätzlichen Karten, Lüftern, etc im System hast. Und da ist noch nicht mal OC berücksichtigt. Die mindestens 850W von AMD mögen übertrieben erscheinen, aber es ist halt auch nur eine Empfehlung.


Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.

Zu 1: nicht denken, das weiß ich. Hab ne 980Ti bei knapp 1500mhz zusammen mit nem i5, leds im case, ner handvoll platten, laufwerk etc mit nem 520W 80+B betrieben.
Selbst nachdem aus dem i5 ein ryzen 1700 bei 3.9ghz wurde, hätts noch gereicht. Kam damit bisher noch nie über 450W ohne gezielt stresstest auf sowohl cpu als auch gpu laufen zu lassen. Benchmarks sind fast lachhaft dagegen.
Für nen Benchmark ists allemal genug.

Zu 2: das trifft auf die theorie zu, vlt auf gpgpu mit hochparallelisiertem code. Aber nicht unbedingt auf spiele. Da wirds schwer breit auszulasten, weil eben oftmals shadercode etc genug verzweigung hat, dass ein großer teil der einheiten nur stalled, und dann rettet einen nur mehr takt.


Sent from OP3T
#97
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6215
Zitat Powl;25648128
Zu 2: das trifft auf die theorie zu, vlt auf gpgpu mit hochparallelisiertem code. Aber nicht unbedingt auf spiele. Da wirds schwer breit auszulasten, weil eben oftmals shadercode etc genug verzweigung hat, dass ein großer teil der einheiten nur stalled, und dann rettet einen nur mehr takt.

Nein. Ich wiederhole es nochmal. Lesen und verstehen!
Zitat
Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.

Wenn andere Grafik relevante Einheiten limitieren, dann helfen dir weder mehr Shader noch höherer Shadertakt was. Dann musst du mehr von diesen anderen Einheiten implementieren oder die vorhandenen höher takten. So oder so, das Prinzip bleibt das gleiche. Mehr Einheiten + niedrigerer Takt = mehr Energieeffizienz. Das gilt auf allen Ebenen. So zumindest die Theorie, da hast du Recht. In der Praxis spielen natürlich auch andere Faktoren noch eine Rolle, wie Flächeneffizienz. Diese kann mit mehr Einheiten bei niedrigerem Takt abnehmen, was wiederum kontraproduktiv für das Gesamtdesign sein kann. Hier gilt es einfach, den besten Kompromiss zu finden. Niedrigerer Takt ermöglicht zB den Einsatz von HD Bibliotheken, was die Flächeneffizienz wiederum verbessern kann.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

NVIDIA GeForce GTX 1080 und GeForce GTX 1070 im SLI

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/PASCAL-SLI/GTX1080-SLI-LOGO

Die beiden aktuell schnellsten Single-GPU-Karten GeForce GTX 1080 und GeForce GTX 1070 liefern eine ausreichende Leistung für die höchsten Auflösungen und Qualitätseinstellungen. Allerdings müssen dabei hin und wieder ein paar Einschränkungen gemacht werden. Um diesen aus dem Weg zu gehen,... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]

Drei Modelle der GeForce GTX 1060 von ASUS, EVGA und Inno3D im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060-2/GTX1060_ROUNDUP2-TEASER

Nach einer kurzen Unterbrechung durch die AMD Radeon RX 470 und Radeon RX 460 machen wir weiter mit dem nächsten Schwung verschiedener Custom-Modelle zur NVIDIA GeForce GTX 1060. Während die Eigenlösungen der AMD-Partner teilweise noch immer auf sich warten lassen, ist man bei der Konkurrenz... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]