> > > > Eine Analyse zu den Benchmarks der Radeon Vega Frontier Edition

Eine Analyse zu den Benchmarks der Radeon Vega Frontier Edition

Veröffentlicht am: von

amd-vega-logo Auf dem 2017 Financial Analyst Day von AMD hat der Gafikkarten-Hersteller nicht nur den ersten GPU-Beschleuniger mit Vega-GPU vorgestellt, sondern auch gleich einige Benchmarks geliefert. Demnach soll die Radeon Vega Frontier Edition mit 16 GB HBM2 um den Faktor 1,5 mal schneller sein als eine NVIDIA Tesla P100. Die Kollegen der c't-Redaktion, genauer gesagt Kollege Andreas Stiller, der sich auf die Analyse von Prozessor-Architekturen und dem High Performance Computing spezialisiert hat, haben sich die von AMD präsentierten Ergebnisse einmal etwas genauer angeschaut.

Doch zunächst einmal zu dem Vergleich, den AMD zum Start der Radeon Vega Frontier Edition präsentiert hat. Man will sich mit Intels Xeon Phi Knights Landing 7250 und NVIDIAs Tesla M40 bzw. Tesla P100 vergleichen. So ganz fair ist dieser Vergleich jedoch nicht, da NVIDIA mit der Tesla P40 bereits vor einiger Zeit einen Nachfolger der kleineren Karte vorgestellt hatte. Außerdem stellte NVIDIA vor etwa zwei Wochen die Tesla V100 auf Basis der neuen Volta-Architektur vor. Hier allerdings kann AMD sicherlich aus Mangel an der notwendigen Hardware noch keine Vergleiche anstellen.

Jeder Hersteller will bestmöglich dastehen

Zunächst einmal aber zur allgemeinen Einschätzung von Benchmarks, die vom Hersteller präsentiert werden. Jedem sollte klar sein, dass jeder Hersteller sich bestmöglich darstellen möchte. Daher werden die Benchmarks meist so ausgewählt, dass die eigene Hardware ihre Stärken ausspielen kann. Während dies bei den Spielen noch recht einfach aussehen kann und beinahe jedes Entwicklerstudio sich seinen Partner, egal ob AMD oder NVIDIA, sucht, können die Benchmarks im professionellen Bereich durch unterschiedliche Compiler und Bibliotheken derart optimiert werden, dass dies auf den ersten Blick gar nicht so ersichtlich ist.

AMD hat in seinem ersten Leistungsvergleich den DeepBench verwendet. Dieser kennt Werte wie sie AMD angibt (Millisekunden) eigentlich gar nicht. AMD hat hier offenbar einen Teil der Benchmarks-Suite verwendet, der als Convolution bezeichnet wird. Diese besteht aus 36 Einzelbenchmarks und die Ergebnisse werden eigentlich in TFLOPS ausgegeben.

Wie dies aussehen kann, zeigt Intel im Graphen unter diesem Textabschnitt. AMD hingegen hat die Einzelzeiten einfach aufaddiert, was man in diesem Fall aber nicht so einfach tun kann. Manche Teilbenchmarks benötigen mehrere hundert Millisekunden, andere wiederum sind in einigen Mikrosekunden erledigt. Selbst das Bilden eines geometrischen Mittels ist hier keine geeignete Maßnahme.

Aber auch beim einfachen Aufaddieren scheint es Unstimmigkeiten zu geben. Laut c't stimmen nicht alle Werte mit dem überein, was in der Datenbank zu finden ist. Eine Randnotiz ist, dass AMD offenbar die PCI-Express-Variante der Tesla P100 verwendet hat, was im Hinblick auf die Radeon Vega Frontier Edition, die ebenfalls eine PCI-Express-Karte ist, aber sinnvoll erscheint.

Die c't hat die Werte der Github-Seite Baidu-Research einmal aufbearbeitet und eine andere Darstellung gewählt. Dabei hat man die DeepBench-Werte im geometrischen Mittel genommen und die Leistungswerte aufgelistet. Demnach ist eine NVIDA Titan Xp um den Faktor 2,75 mal schneller als eine Intel Xeon Phi 7250, die als Basiswert genommen wurde. Eine NVIDIA Tesla P100 ist 1,83 mal schneller als der Intel-GPU-Beschleuniger und die AMD Radeon Vega Frontier Edition ist doppelt so schnell wie die Xeon Phi. Der Abstand zwischen der NVIDIA Tesla P100 und Radeon Vega Frontier Edition schrumpft im Vergleich zu der Aufarbeitung von AMD aber deutlich zusammen.

In den von Intel präsentierten Werten wird außerdem deutlich, wie groß der Einfluss verschiedener Bibliotheken ist. NVIDIA optimiert beispielsweise CudaDNN auf bestimmte Algorithmen, solche Optimierungen fehlen dann bei Intel und AMD möglicherweise. Bei AMD ist nur bekannt, dass der Treiber ROCm 1.5 eingesetzt wurde. Einzelheiten über die verwendeten Bibliotheken und Algorithmen kennt man jedoch nicht. AMD verwendet in diesem Bereich unterschiedliche Bibliotheken, mal bis Graphics Core Next 3 (Fiji-GPU) und mal bis GCN4 (Polaris-GPU) optimiert.

Noch einmal sei an dieser Stelle betont, dass die Hersteller allesamt in einem möglichst guten Licht darstehen möchten und dementsprechend auch solche Leistungsangaben wählen. Hier immer mal wieder einen kritischen Blick darauf zu werfen kann aber nicht schaden, wie die Ergebnisse der c't zeigen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (31)

#22
customavatars/avatar168454_1.gif
Registriert seit: 18.01.2012

Vizeadmiral
Beiträge: 8099
Wo ist da das Problem? Das hat doch mit amd nix zu tun
#23
Registriert seit: 27.04.2017

Stabsgefreiter
Beiträge: 356
Naja wenn im AMD Labor (Das Bild wurde vom AMD Mitarbeiter im AMD Labor gemacht) Intel CPUs eingesetzt wird, hat man die letzten Jahre etwas falsch gemacht :)

Oder denkst du, dass sich der BMW Chef öffentlich mit ein Audi zeigt?
#24
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 12178
Die müssen doch sicherstellen, dass alles kompatibel ist *facepalm*
#25
customavatars/avatar77654_1.gif
Registriert seit: 19.11.2007

Moderator
Beiträge: 1795
Denkemal, dass jeder professionelle hardwareanbieter auch die zusammenarbeit mit den konkurrenzprodukten testet und diese slmit auch nutzt. Und wohl gerade amd weiss sehrwihl, dass intel in gewissen bereichen besser ist als sie. Wo liegt also das problem?

Bei fahrzeugen gibts halt noch mehr markengeist als bei pc hardware, da wird so ein verhalten auch erwartet...
#26
Registriert seit: 27.04.2017

Stabsgefreiter
Beiträge: 356
Soweit hab ich gar nicht gedacht :angel:

Nehme es zurück, finde es aber trotzdem Lustig

Ja aber normal hat man im Labor, also so war es bei mir damals, keine Tower zum testen, sondern halt nackte hw ohne tower damit man schneller Grakas etc Switchen kann...
#27
customavatars/avatar104207_1.gif
Registriert seit: 12.12.2008
Wien
Kapitänleutnant
Beiträge: 1615
Zitat Pickebuh;25561358
https://www.hartware.de/2017/05/22/amd-zeigt-radeon-rx-vega-naechste-woche/

Hmm, sollte die FE nicht 16GB VRAM haben

Zitat
Die erste Grafikkarte, die auf dem „Vega 10“ Grafikchip basiert, wird die „Radeon RX Vega Frontier Edition“ sein. Die Vega-Grafikkarte für den professionellen Bereich wird über 8 GByte HBM2 Grafikspeicher verfügen (High Bandwidth Memory der zweiten Generation).
#28
Registriert seit: 27.04.2017

Stabsgefreiter
Beiträge: 356
Radeon RX Vega Frontier Edition, vorallem...

RX steht fällt soweit ich weiß auch weg... :D
#29
customavatars/avatar70861_1.gif
Registriert seit: 19.08.2007
Bayern
Admiral
Beiträge: 12178
jaja Journalismus at its best!
#30
customavatars/avatar11466_1.gif
Registriert seit: 22.06.2004

Banned
Beiträge: 3250
Zitat Bucho;25561185
Lol ... Du weißt aber schon daß man das vom CPU Bereich nicht unbedingt in den GPU Bereich umlegen kann von wegen min. FPS?
Abgesehen davon, faszinierend daß Du schon weißt daß die Karte vielleicht nicht immer die höchsten avg. (oder max.?) FPS haben wird, aber bessere min. FPS.


Das gibt die Breite Struktur her. 4096SP sind nunmal das breiteste was auf dem Markt existiert. Dazu noch die Schlüsselkomponente HBCC inkl. HMB².
Die höchsten max. fps erreicht man mit möglichst hohem Chiptakt und wenig Cores (NV), das war aber nie das Ziel von AMD.
Die ganze GCN Reihe ist auf *smooth* ausgelegt, spricht wenig Schwankung von min. zu max. fps, und zwar in jeder Leistungs-Kategorie besonders in Verbindung mit low-lvl-API. Spiele sollen wenig droppen bzw. flüssig laufen und nicht die höchsten max. fps erreichen, was ja sinnlose Leistungsverschwendung ist.
#31
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5820
@vinacis_vivids
Zu Deinem letzten Beitrag: Nö, nicht wirklich

Zitat vinacis_vivids;25564466
Das gibt die Breite Struktur her.

Nicht wirklich denn wie ich schon erwähnte kann man das aus dem CPU Sektor nicht auf den GPU Sektor umlegen. GPUs sind sehr gut auf parallele Arbeit ausgelegt sonst würden so viele Shader Einheiten auch keinen Sinn machen. Schlechte min. FPS Werte bzw. starke Schwankungen im Vergleich zu den max. FPS bekommt man nur wenn man irgendwo ins Limit läuft, und das sind bestimmt nicht die Shader Einheiten sondern eben meist ein CPU Limit oder ein VRAM Limit etc.

Zitat vinacis_vivids;25564466

4096SP sind nunmal das breiteste was auf dem Markt existiert.

Klar, 3584 bzw. 3840 einer 1080Ti bzw. Titan Xp sind ja auch soooo viel weniger. Abgesehen davon konnte man die Shader Einheiten von AMD (bzw. zuvor ATI) und nVidia noch nie direkt miteinander Vergleichen da unterschiedliche Architekturen und zusätzlich ist die Gesamtleistung auch noch abhängig von ein paar anderen Faktoren wie z.B. die TMUs und ROPs und natürlich auch die Speicheranbindung.

Zitat vinacis_vivids;25564466

Die höchsten max. fps erreicht man mit möglichst hohem Chiptakt und wenig Cores (NV), ...

Nein, denn wie schon gesagt ist es bei GPUs nicht so wie bei CPUs wo womöglich nicht alle Einheiten/Kerne ausgelastet werden.

Zitat vinacis_vivids;25564466

Die ganze GCN Reihe ist auf *smooth* ausgelegt, spricht wenig Schwankung von min. zu max. fps, und zwar in jeder Leistungs-Kategorie besonders in Verbindung mit low-lvl-API. Spiele sollen wenig droppen bzw. flüssig laufen und nicht die höchsten max. fps erreichen, was ja sinnlose Leistungsverschwendung ist.

Also für mich sieht es z.B. bei einer 980Ti im Vergleich zur "super breiten" Fury X mit "Schlüsselkomponente" HBM HIER nach gleichmäßigeren Frametimes bei fast jedem gestesteten Spiel bzw. Auflösung aus.

Ach und btw. - nice Cherry Picking da in Deiner Signatur bzgl. "Nvidia DX12-2017 click" ;) .
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]