Aktuelles

Radeon Pro Vega II Duo bietet 2x Vega in 7 nm und 64 GB HBM2

Thread Starter
Mitglied seit
06.03.2017
Beiträge
2.236
Zusammen mit dem neuen Mac Pro wurden auch neue Grafikkarten aus dem Hause AMD vorgestellt. Die Radeon Pro Vega II Duo bietet wie der Duo-Vorgänger gleich zwei GPUs auf einem PCB, verwendet jedoch die aktuellen Vega-20-GPUs mit bis zu 64 GB HBM2. Mehr Leistung auf derart kompaktem Raum ist auf Seiten der Grafikkarten derzeit kaum zu bekommen. Wir haben uns die Radeon Pro Vega II Duo daher einmal etwas genauer angeschaut. Ebenfalls neu ist die Radeon...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

e junkie

Member
Mitglied seit
16.11.2015
Beiträge
213
Der Pentathlon 2019 hat geszeigt, dass ich eine dual Radeon VII brauche. :-) Wenn Apple sowas als Workstation verkauft, sollte der Treiber ja ein Pro Treiber werden. Eventulle zieht man da ja bei Windows noch nach. Ansonsten reichen mir auch gescheite Linux Treiber, die endlich mal sorgenfrei mit Kernel 5.0 und größer umgehen können.
 
Zuletzt bearbeitet:

Pickebuh

Active member
Mitglied seit
27.07.2008
Beiträge
3.361
Ich flipp noch aus, wenn AMD eine Radeon Seven-Duo im Vollausbau präsentiert! Könnte durchaus noch kommen. :fresse:
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.980
Ort
Exil
System
Desktop System
Todesstern
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Aura RGB Eisblock Kühler mit AM4-Kit
Speicher
Corsair Dominator 32 GB 3600/3600 cl18 oder G Skill 16GB 3800/3800
Grafikprozessor
AMD Sapphire Nitro+SE 5700XT
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10
Ich flipp noch aus, wenn AMD eine Radeon Seven-Duo im Vollausbau präsentiert! Könnte durchaus noch kommen. :fresse:
In sehr ausgewählten Situationen könnte so eine RTX2080ti knapp geschlagen werden. :d
 

e junkie

Member
Mitglied seit
16.11.2015
Beiträge
213
Ja z.B. bei Einstein@Home zieht eine Radeon VII (3Min20Sek/WU) einfach nur ab. bzw. ist da auch eine FuryX schneller als NVIDIA.
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.980
Ort
Exil
System
Desktop System
Todesstern
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Aura RGB Eisblock Kühler mit AM4-Kit
Speicher
Corsair Dominator 32 GB 3600/3600 cl18 oder G Skill 16GB 3800/3800
Grafikprozessor
AMD Sapphire Nitro+SE 5700XT
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10

e junkie

Member
Mitglied seit
16.11.2015
Beiträge
213
@Holzmann Man muss den Client installieren (BOINC) Sich bei Einstein@Home anmelden (Mailadresse und Username reicht) und als Aufgabe dem Client zuweisen. Das geht so in 5-10 Minuten je nach Interntgeschwindigkeit. Dann mal ein paar WU´s laufen lassen und da sieht man dann wie schnell das geht. Ich habe es mit Ubuntu 18.04.2 und dem Radeon Treiber 19.10 getestet (bzw. durch Pentathlon Erfahrung gesammelt). Läuft aber auch unter Windows. Da habe ich aber keine Werte da solche Berechnung meist unter Linux schneller laufen. Nicht alle aber fast alle.
 
Zuletzt bearbeitet:

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Ihr wisst aber schon, daß es sich da um keine Gamerkarte handelt?
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.980
Ort
Exil
System
Desktop System
Todesstern
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Aura RGB Eisblock Kühler mit AM4-Kit
Speicher
Corsair Dominator 32 GB 3600/3600 cl18 oder G Skill 16GB 3800/3800
Grafikprozessor
AMD Sapphire Nitro+SE 5700XT
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10
AMD sollte die Karte für Gamer bringen, wenn man damit gegen Nvidia anstinken kann. ;)
 

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
32.063
In Zeiten in denen Multi-GPU-Systeme zunehmend in den Hintergrund rücken? Das halte ich für keine gute Idee.
 

e junkie

Member
Mitglied seit
16.11.2015
Beiträge
213
@Don Das liegt aber wohl weniger an der Hardware als an schlecht programmierter Software. Sieht man auch an multicore Unterstützung bei den CPU´s.
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Woran es liegt ist doch eigentlich egal, für Gamer sidn solceh Karten einfach nicht geeignet.

Wenn jemand zu viel Geld hat, kann er sich die Karte kaufen, bringt halt nur nichts;)
 

e junkie

Member
Mitglied seit
16.11.2015
Beiträge
213
Nein ich denke es ist nicht egal, wenn es Leute gibt, die in 4K oder 8K spielen wollen, mit mehr al 30 FPS und sich ein AMD oder NVIDIA Gespann leisten können/wollen. Das es mit 2 Radeon VII und TombRaider mit sehr guter Skallierung geht, hat Cracky schon bewiesen. BIONC mit Einstein skalliert auch 1:1 Wenn ich mir meine FuryX und Pro Duo (Fiji) anschaue. Wir wären schon viel weiter, wenn Software gescheit programmiert wird. Ubisoft Titel machen es vor, das man aktuelle CPU´s auslasten kann. Warum nicht auch GPU´s?
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.980
Ort
Exil
System
Desktop System
Todesstern
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Aura RGB Eisblock Kühler mit AM4-Kit
Speicher
Corsair Dominator 32 GB 3600/3600 cl18 oder G Skill 16GB 3800/3800
Grafikprozessor
AMD Sapphire Nitro+SE 5700XT
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10
Viele Gamer würden sicher allein wegen 32GB V-Ram entzückt sein.
Man dürfte vorausgesetzt die Games skalieren und der Treiber bieten ein CF-Profil ca. 45% vor der 2080ti raus kommen.
Der Verbrauch dürfte zwar im OC jenseits von 600 Watt liegen aber bei guter Kühlung geschenkt.

Mal schauen was AndoredTV dazu bringen wird. :coolblue:
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Bei SLI/CF werden aus 2x16GB aber nicht 32GB

Gibt es denn überhaupt ein Spiel, bei dem 16GB knapp werden?
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.980
Ort
Exil
System
Desktop System
Todesstern
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Aura RGB Eisblock Kühler mit AM4-Kit
Speicher
Corsair Dominator 32 GB 3600/3600 cl18 oder G Skill 16GB 3800/3800
Grafikprozessor
AMD Sapphire Nitro+SE 5700XT
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10

jrs77

Well-known member
Mitglied seit
17.06.2005
Beiträge
2.016
Ihr seht aber schon, daß das keine normale PCIe-Karte ist sondern eine MPX-Karte speziell für den neuen Mac Pro.
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.980
Ort
Exil
System
Desktop System
Todesstern
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Aura RGB Eisblock Kühler mit AM4-Kit
Speicher
Corsair Dominator 32 GB 3600/3600 cl18 oder G Skill 16GB 3800/3800
Grafikprozessor
AMD Sapphire Nitro+SE 5700XT
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10
Ihr seht aber schon, daß das keine normale PCIe-Karte ist sondern eine MPX-Karte speziell für den neuen Mac Pro.
Ja ist klar, dass AMD nochmal ran muss und 5 PCIe 8 Anschlüsse (OC) anbringen muss.
Man muss immer "Frontarbeit" leisten, aber mittlerweile zahlt es sich häufig aus. :fresse:
 

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
32.063
Mal schauen was AndoredTV dazu bringen wird. :coolblue:
Können wir AdoredTV dann zukünftig bitte etwas reflektiert betrachten. Die Prognosen kann man nach der Vorstellung der ersten Ryzen-Prozessoren durch AMD wohl als katastrophal und keines Wegs glaubwürdig bezeichnen.
 

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
32.063
Das ist mir ehrlich gesagt ziemlich egal. Ich musste mir hier mehrfach Sachen wie das hier gefallen lassen, weil ich die Informationen von AdoredTV hinterfragt habe: "Ist deine Ehre dadurch verletzt weil ein Youtuber informativer ist als eure Artikel"

Und wo stehen wir jetzt? Ich gebe einfach nichts auf solche Quellen, die sich bereits mehrfach als falsch herausgestellt haben.

Aber jetzt zurück zur Radeon Pro Vega II Duo.
 
Zuletzt bearbeitet:

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Also ich habe AdoredTV hier doch eh nie ernst genommen, schon zu Ryzen 3000 war einiges ziemlich falsch.
Ich warte nochimmer auf den völlig unrealitischen 32C mit 5Ghz:O

Aber jetzt zurück zur Radeon Pro Vega II Duo.
OK

Ist eine schöne sehr teure Karte!
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.980
Ort
Exil
System
Desktop System
Todesstern
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Aura RGB Eisblock Kühler mit AM4-Kit
Speicher
Corsair Dominator 32 GB 3600/3600 cl18 oder G Skill 16GB 3800/3800
Grafikprozessor
AMD Sapphire Nitro+SE 5700XT
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10

DeckStein

Well-known member
Mitglied seit
08.05.2018
Beiträge
2.333
Das ist mir ehrlich gesagt ziemlich egal. Ich musste mir hier mehrfach Sachen wie das hier gefallen lassen, weil ich die Informationen von AdoredTV hinterfragt habe: "Ist deine Ehre dadurch verletzt weil ein Youtuber informativer ist als eure Artikel"

Und wo stehen wir jetzt? Ich gebe einfach nichts auf solche Quellen, die sich bereits mehrfach als falsch herausgestellt haben.

Aber jetzt zurück zur Radeon Pro Vega II Duo.
Wie jetzt, erst meckeret du darüber dass seine prognose falsch war, und dann kannst du keine belege liefern. Das ist doof.
 

Nozomu

Active member
Mitglied seit
11.03.2011
Beiträge
6.123
Nein ich denke es ist nicht egal, wenn es Leute gibt, die in 4K oder 8K spielen wollen, mit mehr al 30 FPS und sich ein AMD oder NVIDIA Gespann leisten können/wollen.
Find erstmal aktuelle Spiele wo es überhaupt unterstützt wird.

Und 30 FPS kommen dabei auch nicht raus. Zumindest nicht mehr.

Hatte bis Anfang dieses Jahres noch 2x 1070.
 

Shevchen

Well-known member
Mitglied seit
20.01.2011
Beiträge
1.867
Also ich habe AdoredTV hier doch eh nie ernst genommen, schon zu Ryzen 3000 war einiges ziemlich falsch.
Ich warte nochimmer auf den völlig unrealitischen 32C mit 5Ghz:O
Er hat sowohl das kommende Lineup exakt getroffen, als auch die Ballpark-Taktraten. Binning liegt auf AMDs Kalkulations-Seite. Ich wette mit dir, es gibt bei den Ingenieuren 5 GHz Samples - so eines von tausend produzierten Chiplets fällt da drauf ab. Wenn sein Leaker so ein Ding in der Hand hatte, ist er wohl auf den Euphoriewagen gesprungen und hat gesagt: "Up to 5 GHz!"

Stimmt ja auch - aber eben nicht für die Produktion. So ein Sample verschwindet im Glaskasten oder im Rechner von Lisa persönlich. :d
Preise genauso: AMD kann derzeit viel mit den Preisen rumspielen und Jims Abschätzungen waren schon ziemlich akkurat, was das angeht.
 

Gamerkind

Banned
Mitglied seit
29.08.2018
Beiträge
2.329
Nein, hat er eben nachweislich NICHT!

Bei den TDPs lag er zb. oft falsch, es gibt keine Matisse-CPU mit 125/135W TDP.
Bei den Taktraten lag er falsch.
Bei der Kernanzahl für die Serien Ryzen 3, Ryzen 5 ,... lag er falsch.
...
 
Oben Unten