Endlich wieder ein Duell auf Augenhöhe: Radeon RX 6800 und Radeon RX 6800 XT im Test

Es ist, wie so oft, ne Optimierungssache. Ich bin mir sehr sicher, dass AMD mit Treibern noch einiges nachlegt. Was mich auch wundert ist, dass die 6800xt in einigen Games, selbst in 4K, noch immer schneller ist als die 3080.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es ist, wie so oft, ne Optimierungssache. Ich bin mir sehr sicher, dass AMD mit Treibern noch einiges nachlegt. Was mich auch wundert ist, dass die 6800xt in einigen Games, selbst in 4K, noch immer schneller ist als die 3080.
4K ist so ne sache es gibt games die reduzieren automatisch die testuren wenn der speicher ausgeht.
Darum muss man mit 4K benchmarks der experten immer sehr vorsichtig sein.
Karten mit zu wenig speicher für 4K legen dann zu die balken werden länger.
Das 10 GB wie bei der 3080 öfters mal nicht reichen für 4K jetzt und in zukunft erst recht sollte jedem klar sein.
Balken zeigen halt nicht alles das ist so. ;)
 
AMDs Magic Driver :lol:

Zuletzt bei der Radeon 7 ist auch erst nach dem offiziellen release ein Treiber gekommen, der die volle Leistung besonders was Übertaktung betraf, frei gesetzt hat. 🤓
 
Wenn interessiert 4k? Die 1.5% der spielerschaft? Irrelevant.
Mich interessiert 4K, weil ich einen 4K Monitor habe und auch mal die volle Pixelpracht genießen möchte. Es geht nur bei wenigen Spielen ohne Anforderungen. :sneaky:
 
Da Fernseher bereits (fast) komplett auf 4K sind und 4k bei einer Enthusiastencommunity wie 3D-Center bereits bei 27% der Nutzer genutzt wird. Zumal die letzte Steamumfrage vom Oktober bei 3,3% (UW+4K) steht, würde ich deine Meinung als ebenso irrelevant und rückwärtsgewandt bezeichnen.
Screenshot 2020-11-20 102008.jpg

 
Wesentlich mehr als du denkst. Wenn 100k alleine in DE jetzt gerade bereit dazu wären soviel auszugeben für ihr wunschmodel. Next

wenn die leute wüssten das nvidia mit der 2080ti mehr verdient hat als amd mit 5700 und 5700xt zusammen.
 
können wir diese sinnfreie diskussion jetzt bitte beenden!
was wie relevant ist, entscheidet jeder für sich.
 
Zumal die letzte Steamumfrage vom Oktober bei 3,3% (UW+4K) steht
Anhang anzeigen 551846
3,3% sind nicht wirklich viel.
UW und 4K würde ich auch nicht zusammenwerfen. Selbst UWQHD ist von der Pixelanzahl her nur ~60% von UHD. Das braucht also immernoch deutlich weniger Grafikleistung.

Und zu erwähnen, das irgendwas auf 3% kommt, aber ignorieren, das einfaches FullHD immernoch fette 65% hat... naja.

Also klar, für mich ist es relevant, weil mit der neuen Grafikkarte wechsle ich dann auch von FHD zu UWQHD. Aber halt eben nicht UHD.
 
4K juckt mich auch nicht, 1440p reicht völlig. Auch dafür werden in nächster Zeit mit Sicherheit die 16gb Vram von Vorteil sein, wenn die neuen Konsolentitel erstmal portiert sind.
 
klar hat die mehrheit nur 1080p
aber die mehrheit hat auch nur einen quadcore.

trotzdem kommen da keine trolle und kotzen ins forum wie unnoetig die tests der neuen CPUs doch sind, weil sich eh niemand fuer 8-cores interessiert.
 
Das 10 GB wie bei der 3080 öfters mal nicht reichen für 4K jetzt und in zukunft erst recht sollte jedem klar sein.
Balken zeigen halt nicht alles das ist so. ;)
Sorry aber du stellst jetzt einfach so eine unbelegte Behauptung in den Raum...

Wenn interessiert 4k? Die 1.5% der spielerschaft? Irrelevant.
So kann man auch wieder nicht argumentieren denn die Menge der Leute die eine >500€ GPU haben/kaufen dürfte sich mit den besagten 1.5% zu einem signifikanten Teil decken.

Wir reden hier natürlich allgemein von sehr hohem Niveau. Selbst wenn die Games die Texturen tatsächlich reduzieren würden, ist die Darstellungsqualität immernoch sehr hoch.
Vieleicht sollte man am Ende aufhören über wenige Prozent Leistung und theoretischem Optimum nachzudenken und einfach mal die Games genießen :)
 
Zuletzt bearbeitet:
Sorry aber du stellst jetzt einfach so eine unbelegte Behauptung in den Raum...
In Ghost Recon Breakpoint reichen auch die 10 GB der GeForce RTX 3080 für maximale Performance nicht aus, hier sind die 16 GB Speicher der beiden Radeon-Grafikkarten klar im Vorteil. Wie sich das zeigt? Bei den Durchschnitts-FPS ergeht es den Radeon-Grafikkarten zwar nicht gut, die Radeon RX 6800 XT ist 10 Prozent langsamer als die GeForce RTX 3080. Bei den Perzentil-FPS schneidet die Radeon RX 6800 XT dann aber plötzlich 2 Prozent besser ab – da die höchste Texturstufe des Spiels in den 16-GB-Speicher passt. Darum kann auch die Radeon RX 6800 den 9 Prozent großen Durchschnitts-FPS-Vorsprung zur GeForce RTX 3070 auf satte 26 Prozent bei den Perzentil-FPS ausbauen. Die 8 GB der Nvidia-Grafikkarten reichen noch weniger als die 10 GB des größeren Modells. Die Radeon kann damit zumindest stabile 30 FPS in Ultra HD halten, die GeForce RTX 3070 nicht.
 
Wenn interessiert 4k? Die 1.5% der spielerschaft? Irrelevant.
In Ghost Recon Breakpoint reichen auch die 10 GB der GeForce RTX 3080 für maximale Performance nicht aus, hier sind die 16 GB Speicher der beiden Radeon-Grafikkarten klar im Vorteil. Wie sich das zeigt? Bei den Durchschnitts-FPS ergeht es den Radeon-Grafikkarten zwar nicht gut, die Radeon RX 6800 XT ist 10 Prozent langsamer als die GeForce RTX 3080. Bei den Perzentil-FPS schneidet die Radeon RX 6800 XT dann aber plötzlich 2 Prozent besser ab – da die höchste Texturstufe des Spiels in den 16-GB-Speicher passt. Darum kann auch die Radeon RX 6800 den 9 Prozent großen Durchschnitts-FPS-Vorsprung zur GeForce RTX 3070 auf satte 26 Prozent bei den Perzentil-FPS ausbauen. Die 8 GB der Nvidia-Grafikkarten reichen noch weniger als die 10 GB des größeren Modells. Die Radeon kann damit zumindest stabile 30 FPS in Ultra HD halten, die GeForce RTX 3070 nicht.
Naja, dem würde ich entgegnen dass diese GPUs generell nicht für diese Settings geeignet sind wodurch sich die Relevanz der Ergebnisse relativiert. Wer will denn mit 30Fps spielen?
 
Wer will bitte mit 60 fps spielen? Wenn man 100+ gewöhnt ist. 8-) UHD dauert noch bis mir eine Karte immer 120 fps liefert grob. Nein nicht in jedem spiel ein RDR 2 reicht auch 72 Fps.
 
Naja, dem würde ich entgegnen dass diese GPUs generell nicht für diese Settings geeignet sind wodurch sich die Relevanz der Ergebnisse relativiert. Wer will denn mit 30Fps spielen?
Das ist völlig egal. Deine Antwort hätte lauten müssen, gut es gibt doch einen Beleg dafür.
 
Das ist völlig egal. Deine Antwort hätte lauten müssen, gut es gibt doch einen Beleg dafür.
Nicht wirklich. Es war natürlich klar dass man irgendeinen unrealistischen Usecase basteln kann wo die Aussage zutrifft.
Du hast dich aber sehr allgemein ausgedrückt (mit "öfters mal nicht reichen") und das ist damit schlicht irreführend.
 
In Ghost Recon Breakpoint reichen auch die 10 GB der GeForce RTX 3080 für maximale Performance nicht aus, hier sind die 16 GB Speicher der beiden Radeon-Grafikkarten klar im Vorteil. Wie sich das zeigt? Bei den Durchschnitts-FPS ergeht es den Radeon-Grafikkarten zwar nicht gut, die Radeon RX 6800 XT ist 10 Prozent langsamer als die GeForce RTX 3080. Bei den Perzentil-FPS schneidet die Radeon RX 6800 XT dann aber plötzlich 2 Prozent besser ab – da die höchste Texturstufe des Spiels in den 16-GB-Speicher passt. Darum kann auch die Radeon RX 6800 den 9 Prozent großen Durchschnitts-FPS-Vorsprung zur GeForce RTX 3070 auf satte 26 Prozent bei den Perzentil-FPS ausbauen. Die 8 GB der Nvidia-Grafikkarten reichen noch weniger als die 10 GB des größeren Modells. Die Radeon kann damit zumindest stabile 30 FPS in Ultra HD halten, die GeForce RTX 3070 nicht.
Sorry aber das ist einfach nur eine sehr gewagte These, wenn man sich auf die 0,2% Percentile bezieht, und dann mit 2% Unterschieden argumentiert.
 
Nur mal als Ausblick, wie sich der Markt bei PC-Monitoren entwickeln wird. Alle Monitore bei Geizhals die im Jahr 2020 erschienen sind.

509 insgesamt, 85 Stück davon oberhalb WQHD (2560x1440), das sind 16,7%.
 
Wenn interessiert 4k? Die 1.5% der spielerschaft? Irrelevant.
Ich muss mich hier nochmal einklinken. Ich hatte schon in verschiedenen Beiträgen versucht eine Antwort zu dem Thema zu finden aber niemand ist darauf eingegangen.

Wie sieht es aus mit VR. 2x 2160x2160 also effektiv 4320x2160. Aber kann man das wie 4K werten? Die linke und rechte Seite haben ja nur die Texturauflösung von weniger als 4K. Und soweit ich weiß muss nicht alles "komplett" doppelt berechnet werden sondern diverse Berechnungen können für beide Seiten verwendet werden.
 
Ich muss mich hier nochmal einklinken. Ich hatte schon in verschiedenen Beiträgen versucht eine Antwort zu dem Thema zu finden aber niemand ist darauf eingegangen.

Wie sieht es aus mit VR. 2x 2160x2160 also effektiv 4320x2160. Aber kann man das wie 4K werten? Die linke und rechte Seite haben ja nur die Texturauflösung von weniger als 4K. Und soweit ich weiß muss nicht alles "komplett" doppelt berechnet werden sondern diverse Berechnungen können für beide Seiten verwendet werden.
Richtig, gewisse Dinge laufen "singlepass" wie manche Beleuchtungsalgorithmen und ausserdem braucht es nicht unbedingt 4K Texturen, denn das Auge sieht ja nur die niederigere Auflösung.
Allerdings merkst du framedrops bei VR leider schneller als bei normalen Monitoren und du willst unbedingt über 75 FPS bleiben wegen Motionsickness.
Daher wird es mit "alle Regler nach Rechts" auch in dieser Generation schwierig (und wahrscheinlich wird das auch immer so sein bei brandaktuellen Games weil die Entwickler gern für die Werbevideos, Unmengen an Augenschmaus einbauen selbst wenn das mit der stärksten exisitierenden GPU, Drops auf 50Fps ergibt).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh