Erstes Custom-Design: ASUS ROG Strix Radeon Vega 64 OC Edition im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
69.485
asus-vega.jpg
Es ist endlich soweit: Wir können uns das erste Custom-Modell der Radeon RX Vega 64 anschauen. ASUS war der erste Hersteller, der ein entsprechendes Modell vorgestellt hat, nun erreichte uns das finale Produkt. Im Zentrum steht natürlich die Frage, welche Verbesserungen ASUS mit der ROG Strix Radeon Vega 64 OC Edition erreichen kann und wo die Vorteile gegenüber der Referenzversion liegen.
Die Radeon RX Vega 64 und Vega 56 sind zwei lang erwartete Projekte von AMD und entsprechend groß war auch das Interesse zum Start. In unserem gewohnt ausführlichen...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für den Test. Habt ihr auch untervolten versucht?
 
Nein, haben wir bisher nicht. Schaue ich mir aber vielleicht noch an. Leider wird die Arbeit auf dem Schreibtisch nicht weniger. Besteht denn mehr Interesse daran?
 
Auf jeden Fall!
Auch von meiner Seite definitiv gewünscht.

Danke auch für den Test, die Leistungsaufname ist irgendwie echt erdrückend...
 
Wäre toll wenn es noch einen versuch mit undervolting geben würde.

Der Sprung von Referenz zu Custom ist wirklich gar nicht übel, allerdings wie zu befürchten war mit einem noch höheren Stromverbrauch.
Mal sehen wie sich die anderen Partner so verkaufen werden und wie die 56 so wird.
 
Jupp, undervolting ist bei Vega SEHR interessant.

Mein HBM2 konnte HÖHERE Frequenzen stabil stemmen, weil die Karte kühler lief - +50% PT ist imho die "schnelle" OC-Variante - das wahre Potential einer Karte bekommt man imho aber nur mit einem längerem Getweake hin - ob das zeitlich effiziente Redaktionszeit ist, kann ich leider nicht beurteilen. :-/

Ansonsten: Mit HBM2 bei 1020 MHz und einem Core bei 1700 scheint es doch ein eher durchschnittlicher Chip zu sein (bei +50% PT) - schade. Hab da auf ein vorhandenes/besseres Binning gehofft.
 
Ist der letzte vrm vom kühler überhaupt bedeckt man kann das auf den Bildern nicht er kennen. Da der kühler niedriger ist als das PCB und der letzten vrm sehr weit außen ist.
 
Vielen Dank für den schönen Test . Zu meinen Steckenpferd Spulenfiepen, habt ihr ja folgendes fest gestellt.

Leider verzeichnen wir bei der ASUS ROG Strix Radeon RX Vega 64 OC Edition ein leichtes Spielenfiepen unter Last. In einem geschlossenen Gehäuse ist dieses jedoch schon nur noch schwer wahrzunehmen.

Ist das Spulenfiepen fps abhängig ? Vom Ton eher hoch oder tief ?

Ernüchternd und etwas abschreckend, hatte die Hoffnung das dort nichts zu hören ist. Bei einer WK ist das bestimmt dann noch deutlicher zu hören. Argh.

Edit: Undervolting ist zwar allgemein interessant, aber im Punkto der Asus für mich eher nicht. Denke das hier das bestimmende die "Güte" des Chips ist .....
 
Zuletzt bearbeitet:
Nein, haben wir bisher nicht. Schaue ich mir aber vielleicht noch an. Leider wird die Arbeit auf dem Schreibtisch nicht weniger. Besteht denn mehr Interesse daran?
ja, das würde mich zB durchaus interessieren. gerne auch mal NUR den GraKa-Verbrauch (also nicht das Gesamtsystem).

in manchen Spielen bei 1080p gerade mal auf Niveau einer stock 980Ti. Alter Schwede ...
 
Ist der letzte vrm vom kühler überhaupt bedeckt man kann das auf den Bildern nicht er kennen. Da der kühler niedriger ist als das PCB und der letzten vrm sehr weit außen ist.

Die werden alle abgedeckt, der obere zwar nur noch zu 60 %, aber abgedeckt sind alle.

Ist das Spulenfiepen fps abhängig ? Vom Ton eher hoch oder tief ?

Ernüchternd und etwas abschreckend, hatte die Hoffnung das dort nichts zu hören ist. Bei einer WK ist das bestimmt dann noch deutlicher zu hören. Argh.

Eher in tiefes und dumpfes Fiepen wenn ich das beschreiben müsste. Tritt unter jeglicher Last auf und ist damit nicht direkt abhängig von den FPS.
 
Ich finde das Fazit etwas zu negativ gehalten.
So groß die Enttäuschung darüber, dass die GTX1080Ti nicht geschlagen werden konnte...ect.
Die Karte bietet aber genau das was die User wollen. Endlich ordentliche Leistung mit FreeSync-Support.
Wen interessieren, gegenüber der Konkurrenz, 100 Watt mehr Verbrauch wenn die Karte trotzdem leiser ist und die Temps im Rahmen bleiben ?
Man tut immer so als ob die paar Watt das alleinige Kriterium darstellt, ob man eine Grafikkarte empfehlen kann oder nicht.

Das Einzige was man hier bemängeln sollte ist das Spulenfiepen. Das sollte in der heutigen Zeit, von lieferbaren lautlosen Spulen einfach nicht mehr vorkommen. Die letzten AMD-Karten die ich gekauft habe, hatten immer verharzte Spulen, die absolut lautlos waren. Selbst die Sapphire RX470 und die RX580 Limitet Edition fiept hier bei mir nicht.
Warum ASUS dies nicht ändert, ist wohl wiedermal ihrer Vermarktungsphilosophie zuzusprechen.
Dies ist in der Tat ein größerer Mangle als ein paar Watt mehr Verbrauch, denn diesen Mangel kann man, wenn man will, abstellen !
 
ja, das würde mich zB durchaus interessieren. gerne auch mal NUR den GraKa-Verbrauch (also nicht das Gesamtsystem).

in manchen Spielen bei 1080p gerade mal auf Niveau einer stock 980Ti. Alter Schwede ...

Na ja, daran wird sich nix ändern. Bei genau diesen Spielen wäre eine sich mit der 1080ti auf Augenhöhe befindende AMD Karte wahrscheinlich auch nur auf 1070 Niveau.
Wenn der Preis passt, wovon ich aber leider nicht ausgehe, machen auch die Custom Modelle nur mit UV Sinn. Ein durchschnittlicher Chip packt eigentlich immer 1600/1000 bei geringer VDDC. Dann schauts auch mit dem Stromverbrauch nicht mehr so schlimm aus.
 
Ich finde das Fazit etwas zu negativ gehalten.
So groß die Enttäuschung darüber, dass die GTX1080Ti nicht geschlagen werden konnte...ect.

Das ist meine persönliche Meinung. Daher steht da "Persönliche Meinung" drüber ;)

So etwas halten wir aus dem Review raus, aber ich bin irgendwo auch ein normaler Nutzer und habe daher auch meine eigene Meinung.
 
... machen auch die Custom Modelle nur mit UV Sinn. Ein durchschnittlicher Chip packt eigentlich immer 1600/1000 bei geringer VDDC. Dann schauts auch mit dem Stromverbrauch nicht mehr so schlimm aus.
das aber auch nur, weil es Vega @stock als Vergleich gibt. oder ältere GPU-Generationen.
 
Es wird ja immer vom verfehlten Sweetspot geschrieben. Aber ich habe noch keine Werte dazu finden können. Hat jemand das mal genauer untersucht? Also einen einzigen Benchmark nehmen und dann verschiedene Frequenzen mit tiefster Spannung gegentesten. Maxwell wird ja von der Effizienz her geschlagen, da müsste doch noch einiges drin sein. Gerne auch parallel zu einer 1080 oder Ti. Das würde imho für einen oder zwei eigene Artikel reichen.
 
Jeden der seinen Strom selbst bezahlen muss und ob der Rechner 400 oder 500 Watt zieht ist schon ein Unterschied.
Aber wie immer kommt es am Ende natürlich auf den Preis an denn eine GTX1080 bekommt man bereits ab 499Euro.
Solange Vega 64 Modelle nicht mehr kosten heißt es höherer Stromverbrauch bei AMD vs. Nvidia G-Sync Strafgebühr.

Und diese Personen übertakten gerne den CPU, lassen überall Licht an und und schmeißen für 2 Tiefkühlbrötchen den 500Watt Herd an.
Wenn ich mir 100Watt nicht leisten kann dann muss ich überlegen ob ich überhaupt mir das PC Hobby leisten kann.
 
verdammt viele interessiert das.

Komischer Weise aber immer nur bei AMD GPUs. Als seinerzeit die berüchtigten "Thermi" Karten von NVidia kamen, haben deren Jünger die Dinger trotzdem wie die Wilden gekauft und der höhere Stromverbrauch gegenüber der AMD Konkurrenz wurde einfach weggeredet oder ignoriert.

Ich will AMD nicht verteidigen, denn auch ich bin der Meinung, dass der Stromverbrauch deutlich zu hoch ist. Aber wenn man dieses Kriterium schon in die Betrachtung mit einfließen lässt, dann sollte man doch wenigstens so objektiv sein und das auch bei der NVidia Konkurrenz tun.
 
Vielen dank für den ausführlichen test. Anscheinend braucht die vega gpu einfach wasser....

Würde mich so sehr reizen wenn meine aio draufpassen würdr.
 
Ich wäre sogar froh, wenn meine XP mehr als die 300W@120% (250W@100%) ziehen dürfte... :fresse: Bei VEGA ist es aber halt eher ein: leistet weniger, verbraucht trotzdem mehr und das ist der Punkt.

Ansonsten @Redaktion, würde ich mir bei euren Tests wirklich mal einen "Leistungsindex" über die getesteten Games wünschen. Einfach kurz einen Querschnitt zeigen.
 
Und diese Personen übertakten gerne den CPU, lassen überall Licht an und und schmeißen für 2 Tiefkühlbrötchen den 500Watt Herd an.
Wenn ich mir 100Watt nicht leisten kann dann muss ich überlegen ob ich überhaupt mir das PC Hobby leisten kann.

Sehe ich genau so. Auf 100W (unter Vollast! wohlgemerkt) kommts mir definitv nicht an. Wie viele Stunden spiele ich schon in der Woche. Hochgerechnet auf den jährlichen Verbrauch ist das wirklich lächerlich. Den großen Nachteil, den beim Verbrauch sehe ist, dass man das alles wegkühlen muss. Da ist die Kritik berechtigt. (Für die Miner ist das natürlich ein ganz wesentlicher Faktor, aber das soll mir nur recht sein, dass sich das nicht mehr so stark rechnet..)
Viele rechnen außerdem beim Jahresverbrauch der Karte nicht mit ein, dass im Winter die 100W nicht durch Öl/Gas/sonstwas geheizt werden müssen :rolleyes:

Ps.: UV wäre interessant! Und danke für den guten Artikel!
 
Zuletzt bearbeitet:
Komischer Weise aber immer nur bei AMD GPUs. Als seinerzeit die berüchtigten "Thermi" Karten von NVidia kamen, haben deren Jünger die Dinger trotzdem wie die Wilden gekauft und der höhere Stromverbrauch gegenüber der AMD Konkurrenz wurde einfach weggeredet oder ignoriert. ....
Dinge ändern sich mit der Zeit. wann war Fermi nochmal?


... Wenn ich mir 100Watt nicht leisten kann dann muss ich überlegen ob ich überhaupt mir das PC Hobby leisten kann.
vielmehr ist es ein "nicht bezahlen wollen" als ein "nicht leisten können".
 
vielmehr ist es ein "nicht bezahlen wollen" als ein "nicht leisten können".


"Jeden der seinen Strom selbst bezahlen muss und ob der Rechner 400 oder 500 Watt zieht ist schon ein Unterschied" <---------- Klingt eher nach nicht leisten können
 
Jeden der seinen Strom selbst bezahlen muss und ob der Rechner 400 oder 500 Watt zieht ist schon ein Unterschied.
Aber wie immer kommt es am Ende natürlich auf den Preis an denn eine GTX1080 bekommt man bereits ab 499Euro.
Solange Vega 64 Modelle nicht mehr kosten heißt es höherer Stromverbrauch bei AMD vs. Nvidia G-Sync Strafgebühr.


Um die Strafgebühr die man bei G-Synce bezahlt kann man sich auch eine Menge Strom kaufen. Ich bin auch gerade am überlegen. Obwohl die 1080 die ich ins Auge gefasst habe um ca. 636.-€ zu bekommen ist. Also ca. auf den Preis der zur Zeit erhältlichen Vega 64, über lege ich echt FreeSync zu nehmen und eine Vega. Schön wäre natürlich wenn die Asus schon zum kaufen wäre. Genau darum könnte es noch die 1080 werden.

- - - Updated - - -

Viele rechnen außerdem beim Jahresverbrauch der Karte nicht mit ein, dass im Winter die 100W nicht durch Öl/Gas/sonstwas geheizt werden müssen :rolleyes:

Ps.: UV wäre interessant! Und danke für den guten Artikel!

Jetzt wissen wir woher die Klimaerwärmung kommt. Die AMD GPUs sind schuld.-)

Ne aber es stimmt schon, wir haben zwei Rechner im Zimmer ( manchmal drei ) stehen und im Winter merkt man das schon. Man mag es gar nicht glauben. Wenn die Türen zu sind ist dieser Raum dann wärmer. Daher drehe ich da auch immer die Heizung zurück in dem Raum.
 
"Jeden der seinen Strom selbst bezahlen muss und ob der Rechner 400 oder 500 Watt zieht ist schon ein Unterschied" <---------- Klingt eher nach nicht leisten können
hapert da ein wenig mit deinem Verständnis. macht ja nix, ändert ja nix.
 
Ich habe meine 1080 nun verkauft und eine vega im mindstar mit wakü bestellt.
Alleine weil mir gsync einfach zu teuer ist.

Übertaktet komme ich an die Leistung der 1080 oc und dank freesync brauche ich auch nicht so viele frames.
Dabei spreche ich von mir als normalen Gelegenheitsspieler der keine
onlineshooter spielt.

Und ich hoffe noch ein bisschen auf nette Features welche in naher Zukunft freigeschaltet werden.
 
Ich hätte auch gern AMD mal wieder an der Spitze gesehen, aber dass sollte nun mal leider nicht sein.

Dennoch beeindruckend wie sich manche die Vega in Verbindung mit Freesync schön reden :)
Der Stromverbrauch, geht in Bezug auf die Leistung überhaupt nicht!

Dazu muss man noch erwähnen, dass sich eine Pascal GPU sehr sehr gut UV + OC gleichzeitig lässt.
Meine GTX1080 lief mit 0,975V bei 2050/5500 und hat ca. 160-180 Watt verbraucht.
Meine GTX1080ti läuft mit 0,950V bei 1936/6000 und ich erreiche selten die 250 Watt meistens ca. 200-240 Watt.
Davon ist eine Vega meilenweit entfernt
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh