Aktuelles

Radeon RX 6000: AMD liefert weitere Benchmarks und will Raytracing- und AI-Werte nachliefern

Thread Starter
Mitglied seit
06.03.2017
Beiträge
30.740
radeon-rx-6000.jpg
In der vergangenen Woche präsentierte AMD die Radeon-RX-6000-Serie in Form dreier Modelle: Der Radeon RX 6800, Radeon RX 6800 XT und Radeon RX 6900 XT. Diese sollen NVIDIAs Ampere-Karten kräftig auf die Füße treten und durch die Bank mindestens genauso schnell sein, wie ihre Gegenstücke. Bereits zum Start lieferte AMD einige Benchmarks, auf die man natürlich nicht vollständig vertrauen sollte, die aber eine grobe Richtung vorgeben.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

ToppaHarley

Experte
Mitglied seit
11.08.2020
Beiträge
1.058
Ort
@Home
Gefällt mir alles sehr gut, für mich wird die 6800 reichen, hoffe Anfang Januar eine ergattern zu können.
 

Olaf16

Legende
Mitglied seit
28.09.2008
Beiträge
6.053
@HWLUXX
Gibt es evtl. mal auch VR Benchmarks von den Karten? Das fehlt mir irgendwie heutzutage - Immer nur normal aufm Display gebenched. Viele würde aber auch so nen Standardset interessieren, wie die in 3D Performen. Da gibt es manchmal interessante Ausreißer :)
 

Terr0rSandmann

Legende
Mitglied seit
19.06.2010
Beiträge
25.357
Ort
Berlin
Krass ... Dass RDNA2 gut wird, war fast klar, aber so gut? Selbst wenn eine 6800XT am Ende keine 3090 angreift, so wird die 3080 doch ordentlich in die Schranken gewiesen! Wenn dann ggf. nächstes Jahr der VRAM der 3080 zu knapp wird, und AMD die Treiber besser weiterentwickelt, wird der Abstand eher noch größer. Ich hoffe, dass da Custom Karten kommen, die bei mir ins ITX Case passen. Ich will für all den Scheiß den Nvidia in den letzten Wochen da so abgezogen hat, denen nicht auch noch Geld für eine 3080 FE (denn die würde, auch mit dem Kühlkonzept, ehrlicherweise perfekt passen) geben. Abgesehen davon, dass die wohl eh nie wirklich lieferbar sein wird ...
 
Zuletzt bearbeitet:

Shevchen

Urgestein
Mitglied seit
20.01.2011
Beiträge
2.739
Joar, mit der Bandbreite an Spielen ist dann das Thema "Cherry Picking" auch vom Tisch - bleibt halt nur noch die Metrik (average FPS vs max FPS - niemand bei Sinnen misst in max. FPS)

Sollte aber trotzdem als grobe Leistungsübersicht reichen, um ne Vorstellung zur Konkurrenzfähigkeit zu Nvidia zu haben.

Raytracing wurde hier schon tot-diskutiert:
- Klassischer Modus kann praktisch genauso gut aussehen, wenn man den nicht künstlich nerft
- Performanceverlust ist noch zu krass, als dass es ohne DLSS/Fidelity-FX nutzbar wäre
- DLSS ist nicht perfekt - in sich schnell ändernden Szenen bzw. Szenen mit Natureffekten (Nebel, Regen, Dreck) gibts halt noch temporale Artefakte

RT wird irgendwann die Zukunft sein, ist derzeit aber kein kaufentscheidendes Argument (zu mindest für mich)

Ja, mit DLSS on sieht das alles hübsch für Nvidia aus, mit DLSS off auf einmal nicht mehr.

AMD hat da auch ne Lösung, aber die muss es erstmal durch das Marketing-Bling-Bling schaffen.
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
10.191
Ich schaue mir in aller Ruhe die Benches am 18.11 sowie am 8.12 genau an, und entscheide mich dann, 2021 obs 6800XT oder sogar das Top Modell wird.

Ampere ist so oder so raus, schon wegen meinem Monitor, der mit NVIDIA g-sync compatible einfach schrecklich funktioniert.

Leistung spricht zum Glück nicht mehr nur für NV.
 

Tonmann

Enthusiast
Mitglied seit
03.10.2012
Beiträge
4.074
Ort
Schleswig in Schleswig Holstein!
Ja, mit DLSS on sieht das alles hübsch für Nvidia aus, mit DLSS off auf einmal nicht mehr.

AMD hat da auch ne Lösung, aber die muss es erstmal durch das Marketing-Bling-Bling schaffen.
Ja das könnte noch Lustig werden, vor allem weil ja spekuliert wird das AMDs RT Lösung nicht so dolle sein soll.
Der Leak sagt irgendwie was anderes, aber es ist auch irgendwo Clever von AMD sich da zurück zu halten, was Leaks angeht.
Ob es dann am Ende etwas nützt, bleibt abzuwarten!
In jedem Fall ist es wohl für alle ein Gewinn das da endlich mal Bewegung in den Markt kommt und auch die kommenden Entwicklungen (SAM, RTX i/o bzw. das Äquivalent von AMD/MS usw.) deuten an das da in nächster Zeit ziemlich viel bewegt wird!
 

hi-tech

Enthusiast
Mitglied seit
08.09.2006
Beiträge
1.925
Fehlen nur noch Stabilität / Temperatur / Verbrauch. Denke 2021 könnte mein erster AMD Komplettrechner entstehen.
 

Tzk

Ich Horst
Mitglied seit
13.02.2006
Beiträge
18.319
Ort
Koblenz
Die große Frage ist doch ob man DLSS und RT braucht/nutzt oder nicht. Ich brauche es z.B. nicht, sondern nutze in den meisten Spielen die "klassische" Beschleunigung. Und dort sieht RDNA2 sehr gut aus.

Was ich mich darüber hinaus noch frage: Wie steht die 6800 gegen die 3070 wenns um die Effizienz geht. Immerhin ist die 3070 mit 220W angegeben während die 6800 mit 250-260 gelistet ist...
 

hi-tech

Enthusiast
Mitglied seit
08.09.2006
Beiträge
1.925
Unglaublich starke Aufholjagd von AMD. Werde das aber nächstes Jahr ganz nüchtern neu evaluieren. Nehme das was mir mehr bringt für mein Geld, unterm Strich ist mir egal ob Intel + Nvidia oder AMD dran steht.

@Tzk
Genau das ist es. Einfach nur Balken gucken ist nicht ^^
 

DeckStein

Experte
Mitglied seit
08.05.2018
Beiträge
3.189
An der RT leistung wird man treiberseitig noch viel machen können deshalb denke ich wartet amd damit koch bis zum release/review.
 

Olaf16

Legende
Mitglied seit
28.09.2008
Beiträge
6.053
Ja, mit DLSS on sieht das alles hübsch für Nvidia aus, mit DLSS off auf einmal nicht mehr.

AMD hat da auch ne Lösung, aber die muss es erstmal durch das Marketing-Bling-Bling schaffen.
Auf lange Sicht könnte es für AMD besser werden. Letztendlich haben die neuen Konsolen auch RT Funktionen für Spiele - Und da AMD die HW bereitstellt, wird evtl. RT für AMD Karten im PC auch in Zukunft besser optimiert. WIr werden sehen. Es wird aber ab jetzt Spannend, auch für die nächste Generation
 

Tonmann

Enthusiast
Mitglied seit
03.10.2012
Beiträge
4.074
Ort
Schleswig in Schleswig Holstein!
Was ich mich darüber hinaus noch frage: Wie steht die 6800 gegen die 3070 wenns um die Effizienz geht. Immerhin ist die 3070 mit 220W angegeben während die 6800 mit 250-260 gelistet ist...
Das ist halt noch ein Fragezeichen?
Die großen stehen ja ziemlich gut da, was die Performance pro Watt angeht, besonders die 6900Xt sieht auf dem Papier richtig gut aus!
Was die Kleine angeht, die liegt Leistungsmäßig ja etwas über der 3070/2080ti... vielleicht schon in Erwartung einer 3070 ti?
Es kommt ja noch eine 6700Xt die vermutlich eher so in der Gewichtsklasse der 3070 boxt, aber da gibt es außer Spekulationen noch nicht viel!
Wenn aber die Angaben von 50% mehr Leistung gegenüber RDNA 1 stimmen, wird es wohl darauf hinauslaufen!
 
Mitglied seit
02.07.2020
Beiträge
829
Ich hoffe auch, dass die Karten die Erwartung erfüllen, oder dass sie zumindest einer 3080 ebenbürtig sind und lieferbar sind. Ich bin ein großer von Verfechter Hypes zu ignorieren (z.B. für jeden Preis eine 3080 ergattern). Aber da mein neues System jetzt schon seit August auf eine Grafikkarte wartet wär es schon schön, wenn man für die kommenden Wintermonate eine hätte...
 

Shevchen

Urgestein
Mitglied seit
20.01.2011
Beiträge
2.739
Yo, für klassische Beleuchtungsmethoden sieht AMD extrem stark aus und hat Nvidia sowohl in max. Leistung als auch in P/L so ziemlich in der Tasche. RT ist halt auch irgendwie an die CUs gekoppelt und da würde ich halt eher zur 80CU Variante greifen. Wer sich nicht für RT interessiert oder es nur mal zum austesten an/ausschalten will, der kann auch zur 350€ günstigeren Version greifen.
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
10.191
Ich kann mir nicht vorstellen das es so krasse unterschiede von 72 auf 80 CUs geben wird. Sind doch gerade mal 8 CUs weniger.
 

Shevchen

Urgestein
Mitglied seit
20.01.2011
Beiträge
2.739
Ich kann mir nicht vorstellen das es so krasse unterschiede von 72 auf 80 CUs geben wird. Sind doch gerade mal 8 CUs weniger.
Es werden nicht alle CUs für RT benutzt. N Typ von AMD hat gesagt, dass ~20CUs dafür (im Durchschnitt) aufgewendet werden. Im Verhältnis kann da also mal 1-2CUs mehr rauskommen, je nachdem wie gut/schlecht die restlichen Shader ausgelastet sind. Ich erwarte da tatsächlich noch nen sichtbaren Sprung. (aka ~10% bessere RT Performance)

Edit: Falls nicht, muss ich nochmal in den µArch deep-dive und nach den Tomaten suchen.
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
10.191
Kann also nur die Zukunft zeigen, ob die 6900XT länger als 68XX durchhält ^^
 

Shevchen

Urgestein
Mitglied seit
20.01.2011
Beiträge
2.739
Och, wer sich ne 6900XT wird wohl nicht "so schnell" in Wechsellaune sein. Hier muss ich auch mal ganz hart betonen, dass RDNA3 weniger als 1 Jahr entfernt ist. Das wird mit der 6000'er Serie also eher... kurzlebig. Anderseits ein schönes Sammlerstück, da es wohl die letzte monolitische GPU von AMD sein wird.

Wer also noch mit seiner alten Karte gut kann und noch bis zur next-gen warten kann, dem würde ich das fast ans Herz legen. Ansonsten - wenn man die Knete hat 1x im Jahr die GPU zu wechseln...
 

RNG_AGESA

Experte
Mitglied seit
16.09.2020
Beiträge
806
SAM erfordert neuste chipsatzmobo+CPU....
habe hier eine von AMD künstlich gedrosselte X470 mobo mit 3900x
will sagen, X470(mit PCIe4.0, falls AMD es erlauben würde) + 3900x könnten SAM ebenso

...die können mich mit solch einer plumpen erpressung gerne mal am a lecken
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
10.191
12% ca. also ähnlich wie bei 6800Xt zur 6900XT.... :unsure:
Ist ja prozentual auch kein Unterschied bei den CUs ;)
Ja 12% sind schon was. Schauen wir mal was letztendlich bei den Tests tatsächlich rauskommt.

Och, wer sich ne 6900XT wird wohl nicht "so schnell" in Wechsellaune sein. Hier muss ich auch mal ganz hart betonen, dass RDNA3 weniger als 1 Jahr entfernt ist. Das wird mit der 6000'er Serie also eher... kurzlebig. Anderseits ein schönes Sammlerstück, da es wohl die letzte monolitische GPU von AMD sein wird.

Wer also noch mit seiner alten Karte gut kann und noch bis zur next-gen warten kann, dem würde ich das fast ans Herz legen. Ansonsten - wenn man die Knete hat 1x im Jahr die GPU zu wechseln...
Und das ist sicher, dass AMD schon 2021 die nächste High End rausknallt, statt Mittelklasse?
 

Shevchen

Urgestein
Mitglied seit
20.01.2011
Beiträge
2.739
SAM erfordert neuste chipsatzmobo+CPU....
habe hier eine von AMD künstlich gedrosselte X470 mobo mit 3900x ...die können mich mal mit solch einer plumpen erpressung gerne am a lecken
SAM funktioniert seit 7 Jahren auf Linux. Troll wo anders. (Das funktioniert dort sogar mit Intel CPUs)
 

Tzk

Ich Horst
Mitglied seit
13.02.2006
Beiträge
18.319
Ort
Koblenz
Ich kann mir nicht vorstellen das es so krasse unterschiede von 72 auf 80 CUs geben wird. Sind doch gerade mal 8 CUs weniger.
Im Hinblick auf die 3080 und 3090 ist das in der Tat wenig. 3090 hat 82 SM, 3080 hat 68, das sind 20% Differenz. Bei AMD sind es nur ~10%. Trotzdem ist die 3090 nur magere 10% vor der 3080... Ich bin sehr gespannt ob die Skalierung bei AMD besser aussieht, insbesondere da die TBP identisch bleibt....
 

Tonmann

Enthusiast
Mitglied seit
03.10.2012
Beiträge
4.074
Ort
Schleswig in Schleswig Holstein!
SAM erfordert neuste chipsatzmobo+CPU....
habe hier eine von AMD künstlich gedrosselte X470 mobo mit 3900x
will sagen, X470(mit PCIe4.0, falls AMD es erlauben würde) + 3900x könnten SAM ebenso

...die können mich mal mit solch einer plumpen erpressung gerne mal am a lecken
Naja andere sind Froh (gewesen) das der 3900X auf dem X470 Board läuft und sie nicht mit jeder CPU Generation auch ein neues Board kaufen mussten :hust:Intel:hust:
Außerdem wird da nichts künstlich gedrosselt, sondern du bekommst einen Mehrwert wenn die drei Komponenten (CPU, Chipsatz und GPU) aktuell sind!
Der liegt aber mal grad im Messbaren Bereich, nach allem was man so liest...
 
Mitglied seit
05.01.2005
Beiträge
10.748
Ort
Nähe Köln/Bonn
Sieht doch alles super aus, kann den 18.11 kaum erwarten!
 
Oben Unten