Verzerrte Benchmark Welt

n3cron

Experte
Thread Starter
Mitglied seit
13.05.2020
Beiträge
4.905
Ort
DE - BY - MILF
Nach diesem Artikel:

Sind die AMD Karten relativ weit hinter Nvidia Karten, Youtuber darunter bekannte Gesichter wie der8auer haben eher gegenteiliges zu berichte.

Bin ein wenig irritiert, hat jemand beide Karten da? Jemand von HWLUXX der eine Gegenüberstellung liefern kann?

Ich habe noch nie so einen schlechten Artikel gesehen, es fehlt die Testplattform, die Methode Index 0% ist von abgeleitet? Usw..... ist eher ein Marketing Benchmark für Grün, es steht auch nicht welche Features wurden verwendet? Mit oder ohne DLSS etc?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Tests und Vergleiche gibts doch hier. Einfach mal nachschauen ;)
 
Wo ist das Problem? Passt doch alles. Da steht doch z.b bei der 3080 ist die Karte im Mittel über alle spiele 8% schneller, was ist daran WEIT? ... Bei der 6800 vs 3070 sind es sogar 3% für die AMD karte in 1440p. Und es ist Ohne Sam und rage Modus, für Leute mit Ryzen 5000 Plattform kommen da nochmal 5-15% oben drauf. Von Weit hinter nvidia sehe ich da nix
 
Jo. Ich finde das auch recht nah an dem, was man sonst so im Netz findet.
6800 ist schneller als 3070 und die 3080 ist schneller als die 6800 XT. Mit Sam und Rage verschiebt sich das etwa mehr pro AMD.



Der Test macht mir nur wieder klar, dass ich mit der 3070 für BF5 definitiv auf die falsche Farbe gesetzt habe :ROFLMAO: Eine 6800 ist krasse 19% schneller als meine 3070 bei 1440p (meine Auflösung) und das auch noch ohne Rage und Sam. Schon heftig. Wobei man derzeit eh nehmen muss was man kriegt und da bin ich mit der 3070 FE schon gut bedient ^^ Aber Spaß bei Seite, ist eher off-topic
 
Wo ist das Problem? Passt doch alles. Da steht doch z.b bei der 3080 ist die Karte im Mittel über alle spiele 8% schneller, was ist daran WEIT?
Also 6800xt VS 3080 in FullHD komme ich auf 13,8% wenn ich die Einzelwerte zusammenrechne, nicht auf 10%.
Laut diesem Test ist die 6800xt in FullHD 10% langsamer, in UHD sogar nur 9%.
Alle anderen Tests die ich kenne haben gänzlich andere Ergebnisse geliefert und vorallem gezeigt, das die 6800xt in FullHD durchaus mithalten kann, aber in UHD abfällt. Nach dem Test hier soll sie in UHD sogar näher an der 3080 sein als in FullHD?

Z.b. der Test von Gamestar sagt, das die 6800xt in FullHD bei alten Spielen 1% und in neueren sogar 8% VOR der 3080 liegt, wie oben aber schon angedeutet, in UHD auf einmal bei -7%.

Wir reden hier also von der PCGH-Angabe für FullHD von -10% gegen die Angabe von Gamestar mit +8%. Das ist ein Unterschied von 18% und das ist eine Menge, vorallem bei so einem Test.

Und wenn ich die Einzelergebnisse mit anderen Tests vergleiche, wurden hier anscheinend bevorzugt Spiele ausgewählt, die auf NVidia besser laufen. Einzelne Titel die auf der AMD-Karte teils deutlich vorne liegen, fehlen hier komischerweise. Laut Gamestartest z.B. AC Valhalla, Horizon und Watch Dogs Legion.
Klar kann man sich die Spiele aussuchen wie man will, aber das zeigt auch gleichzeitig, wie die Ergebnisse solcher "Tests" durchaus auch absichtlich in eine Richtung bringen kann.

Ich will nichts unterstellen, aber hieß es nicht schon länger, das PCGH ein wenig auffällig "NVidia-freundlich" sein soll?

Also so ein bisschen "riecht" der Test von PCGH schon...
Vielleicht riecht auch der von Gamestar ein bisschen, aber beide passen auf jedenfall nicht zusammen. :d
 
Zuletzt bearbeitet:
Ich habe noch nie so einen schlechten Artikel gesehen, es fehlt die Testplattform, die Methode Index 0% ist von abgeleitet? Usw..... ist eher ein Marketing Benchmark für Grün, es steht auch nicht welche Features wurden verwendet? Mit oder ohne DLSS etc?
Bist du blind oder heulst du einfach nur rum, weil die 3080 in dem Test besser abschneidet als die 6800XT?
Wenn dies doch Marketing für Grün wäre, warum schneidet die 3070 dann schlechter ab?

Der Test vermittelt auch genau das, was man so aus die Gesamtheit der Tests entnehmen kann und zwar:
3080 > 6800XT
3070 < 6800

Hier findest du Informationen zu dem verwendeten Testsystem und der Testmethodik: https://www.pcgameshardware.de/Graf...s/Benchmark-Vergleich-Rangliste-Test-1354679/
Manchmal hilft es auch sich den Text durchzulesen, welcher die Bilder umrandet. Da kann man auch Informationen finden, nach denen man sucht ;)
 
Wie isses mit lesen, ich sagte 1440p....
Lesen kannst du, verstehen nicht? Ich hab halt für FullHD nachgerechnet, so wie ich es auch geschrieben habe. Ich hab ja auch nicht deine 8% nachgeplappert, sondern von den 10% gesprochen die PCGH bei FullHD angegeben hat.

Bei 1440p stimmts übrigens auch nicht. Ich komme auf 10,95, nicht auf 8%.

Und Horizon ist auch drin, @Liesel Weppen
Horizon Zero Dawn, nicht Forza Horizon 4.
 
Leute...:rolleyes2:

 
Bist du blind oder heulst du einfach nur rum, weil die 3080 in dem Test besser abschneidet als die 6800XT?
Wenn dies doch Marketing für Grün wäre, warum schneidet die 3070 dann schlechter ab?

Der Test vermittelt auch genau das, was man so aus die Gesamtheit der Tests entnehmen kann und zwar:
3080 > 6800XT
3070 < 6800

Hier findest du Informationen zu dem verwendeten Testsystem und der Testmethodik: https://www.pcgameshardware.de/Graf...s/Benchmark-Vergleich-Rangliste-Test-1354679/
Manchmal hilft es auch sich den Text durchzulesen, welcher die Bilder umrandet. Da kann man auch Informationen finden, nach denen man sucht ;)
DX11 DX12_x? VULKAN? Trotzdem nicht transparent. Ich such mir doch nicht einen Wolf zusammen um dann feststellen, ja das könnte so reinpassen?
Mit oder ohne Hardware scheduling? Mit oder ohne Xbox "Game mode" usw. logischerweise verwendet man ja in keine Benchmarks andere Parameter wie die Rechner auch genutzt werden, aber sowas sollte schon möglichst konkret sein. Gerade weil zwischen den Benchmarks Variation dazwischen ist.

Sowas ist totaler Bullshit;
1606333959141.png


1606333909627.png


Wie willst du als normal da irgendwas vergleichen, selbst nach innerhalb der eigenen "Testumgebung"

Da ist definit kein Einheitliches Konzept drin. Spiele die beides können, macht Sin beides zu testen. Schließlich kann der Spieler ja zu der API wechseln die für ihn günstiger läuft.
Auch haben manche Spiele wie Total Warhammer DX11 &/ DX12.

Natürlich kann man nicht immer alles Test, aber eine gewissen Einheitlichkeit sollte schon sein. Das ist Methodisch mumpels.
1606334391387.png


Ich kann nicht her gehen und Karten die Vulkan können mit Vulkan Benchen und die anderen mit DX11 das sind Äpfel und Birnen.... irgendwie

Ich bin nicht parteiisch weder für die eine noch die andere Seite, ich bin froh irgend eine Karte davon für einen vernünftigen Preis zu bekommen.
 
Die PCGH-Benchmarks sind eigenwillig:
  • Wolcen ... stimmt 100%, ob mit dem Game oder ein Bug seitens des Treiber ...
  • The Witcher ... irgendeine spezielle Konfiguration mit Hairworks, eigenem Setp ...
  • Black Mesa ... ein DX9 Titel ...
  • Desperados 3 ... sieht ebenfalls schräg aus ...
Schaut man sich andere Seiten an liegt eine RX6800XT in Full HD und WQHD auf Augenhöhe (ohne SAM oder OC) mit der RTX3080 und fällt in 4K wenige Prozentpunkte ab. Im Vergleich RX6800 zu RTX3070 hinkt Letztere hinterher. Wird die AMD-Karte getuned, wird es beträchtlich.

Ich sehe die Karten bis jetzt auf Augenhöhe. Ich denke durch die neuen Konsolen werden auf AMD die zukünftigen Spiele besser laufen und mehr VRAM benötigen.
 
Letzlich ist es in der Praxis unwesentlich welche Karte man kauft, außer man konzentriert sich auf den FPS Zähler an Stelle als aufs Spiel. Oder will jemand behaupten er würde ohne FPS Zähler erkennen können ob zB ein Spiel mit 68 FPS anstelle mit 60 FPS läuft? Der einzige mit freiem Auge erkennbare Unterschied liegt derzeit noch beim RT da derzeit die AMD noch deutlich nachhinkt.
 
Natürlich ist unwesentlich ob Nvidia 10FPS hier und AMD dort 10 FPS mehr hat. Ich habe nur die Resultate ein wenig angezweifelt.
Ich finde beide sehr gut und würde mir die Frau das erlauben hätte ich mir 3090 geholt und die nächsten 4-5 Jahre definitiv Ruhe gehabt.
Auch unter Berücksichtigung von Werteverlust, end of life Treiber nach 4 Jahren etc.
 
Ich sehe die Karten bis jetzt auf Augenhöhe. Ich denke durch die neuen Konsolen werden auf AMD die zukünftigen Spiele besser laufen und mehr VRAM benötigen.

Da die PS5 z.B. 16GB Speicher angeben hat (es wird nicht zwischen RAM und VRAM unterschieden) wird dank SAM und Co. der VRAM Bedarf nicht exorbitant steigen so wie es in der letzten Generation der Fall war.
Da waren ja plötzliich auch die 4GB Karten Oboslet bloß weil die Konsolen einen anderen Speicheraufbau hatten und sich die Entwickler nicht die Arbeit machen wollten alles akribisch an den PC anzupassen.

Es wird kein Zufall sein dass gerade jetzt AMD und Nvidia mit so Speicher Lösungen um die Ecke kommen genau zum Release der neuen Konsolengeneration.
 
Die Vorgängerkonsolen hatten das gleiche Funktionsprinzip. Die hatten 8GB shared. Die neuen haben jetzt 16GB.
Die von Spielen benötigte Speichermenge ändert sich nicht, nur weil der Speicher der Konsolen shared ist. Man braucht nachwievor Speicherplatz für das was am PC im RAM landet und Speicherplatz für Grafikberechnungen, was am PC im VRAM landet.
Man kann sich das also durchaus so vorstellen, das der Shared-RAM der Konsolen "aufgeteilt" werden muss. Von den 16GB werden dann z.B. 8GB für RAM und 8GB für VRAM verwendet. Oder halt 10GB für Grafik, dann bleiben halt nur 6GB für den Rest. Oder gar 12GB für Grafik, 4GB für alles andere.
Also kann man schon einiges daraus schlussfolgern, wenn man nur weiß, das die Konsolen 16GB haben.

Nachdem die alten Konsolen nur 8GB hatten, haben sie 4GB PC-Karten nicht obsolet gemacht, sondern müssten diese sogar gestärkt haben. Gleiches Problem hier. Bei einer 4/4 aufteilung kann eine 4GB Karte exakt mithalten. Bei einer 2/6 Aufteilung kann eine 4GB-Karte ein Problem kriegen. Die 8GB in den Konsolen erklären aber auf keinen Fall, warum sich am PC doch mittlerweile 8GB auf der Grafikkarte recht gut etabliert haben.

Nvidia könnte gemeint haben, das eine Aufteilung ala 10/6 gebräuchlich sein wird. Demnach müssten auch die 10GB der 3080 ausreichen. Zumindest, wenn man sich am PC mit 1:1 Konsolenports zufrieden gibt.
AMD denkt offenbar, das der Speicherbedarf trotzdem noch weiter steigen wird und packt dementsprechend gleich 16GB drauf, auch auf das "kleinere" Modell.

SMA oder RTX-IO beschleunigen wohl hauptsächlich Ladezeiten, dementsprechend auch Texture-Streaming. Für Texturen die im aktuellen Bild gebraucht werden, ist das aber immernoch viel zu langsam.
 
Ich denke persönlich das 8 GB noch für WQHD in nächster Zeit noch okay seien werden. Gerade Nvidia hat proprietäre Kompression.
Viel hilft halt nicht immer viel, aber ich denke gerade so ausladende Spiele mit Open World werden immer mehr benötigen.
4K mit 10 GB Ram ist halt zu wenig.

Ist zwar ein Auszug über Videos und dessen Speicherverbrauch / benötigte Bandbreitenhttps://jell.yfish.us/

Jetzt rechne mal eine File Size als 1 Frame/sec.

1606392852868.png


Es gibt ja keine WQHD als Video material zumindest nicht so wirklich aber wenn ich schon die ~700mb/ Frame nehme ohne irgenwelche Kompressen, braucht der schon für 10 Bilder schon an die 7 GB. Den rest kann sich jeder selbst ausrechnen wie schnell wieviel benötigt wird.
 
Es gibt ja keine WQHD als Video material zumindest nicht so wirklich aber wenn ich schon die ~700mb/ Frame nehme ohne irgenwelche Kompressen, braucht der schon für 10 Bilder schon an die 7 GB.
Ein lineares Video sagt überhaupt nichts darüber aus, wieviel Speicher man für eine Grafikkarte braucht. Der Speicher auf Grafikkarte ist kein Framebuffer, in dem schonmal die nächsten 5 Minuten als Video vorberechnet werden. :rolleyes2:

Der meiste Speicher geht für Texturen drauf. Und selbst die haben nur indirekt mit der Monitorauflösung zu tun. Jede Textur hat eine fixe Auflösung z.B. 1024x1024. Die echten 1024x1024 siehst du nur, wenn du im Spiel vor einer senkrechten Wand stehst und dadurch quasi frontal auf die Textur guckst. Spielt man in FullHD und hat virtuell den richtigen Abstand zu Wand, so das die Textur exakt bildschirmfüllen wäre, hätte die Textur eine optimale Auflösung von 1920x1080. Guckst du jetzt sehr schräg auf die Wand, belegt die Wand von deinem Sichtbereich nur noch z.B. 1/10. Um das Rendern zu können, brauchst du aber trotzdem die volle Textur. Die wird zwar gestaucht und du siehst im fertigen Frame wesentlich weniger Pixel davon, für die Berechnung brauchst du trotzdem die ganze Textur. Und das ist jetzt nur eine einzige Wand sozusagen 2 Polygone. Aktuelle Spiele haben mehrere MILLIONEN Polygone gleichzeitig im Bild. Du hast auf JEDER Oberfläche eine solche Textur und weil das ein 3D-Raum ist, können sich diese Objekte auch noch überlappen, gegenseitig teilweise oder ganz überlappen, etc, du bist also auch nicht auf die 2D-Anzeigefläche des Monitors beschränkt. Da kommt dann an Texturen W E S E N T L I C H mehr zusammen, als die Auflösung des Monitors. Und da ist noch nicht von MipMap-Stufen gesprochen und das eine Oberfläche nicht unbedingt nur eine Textur hat, da können noch LightMaps, BumpMaps, SpecularMaps und was ich noch alles dazukommen.
 
Natürlich ist das nicht so, aber wenn schon bei Video Material mit sehr hoher Bitrate für viele Detail die Speicherauslastung so hoch ist dürfte es bei Komplexen virtuellen Welten nicht weniger werden.
Es gibt ja nicht nur den sichtbaren Bereich bei Spielen sondern auch im Hintergrund existiert möglicherweise die Welt. Auch wenn die beste variante ist nur im Sichtbaren Bereich die Welt zu rendern, nur weil man nicht hinschaut heißt es nicht das sie nicht da ist.

Je grö0er die Welt aber ist und je weniger ich nachladen ich möchte, desto mehr muss ich im Speicher parken. Sonst droht möglicherweise lag beim nachladen der nächsten Szene, so habe ich das aus der PS5 Technik vorstellen über die hochbandbreiten Technik der SSD in der PS5 verstanden. So wird die SSD als erweiterter Speicher verwendet und durch die ausreichende Geschwindigkeit müssen keine Texturen/Daten geparkt werden und können nachfließen ohne das die Szene ins stocken gerät oder mit Wartezeit überbrückt werden muss.
 
Natürlich ist das nicht so, aber wenn schon bei Video Material mit sehr hoher Bitrate für viele Detail die Speicherauslastung so hoch ist dürfte es bei Komplexen virtuellen Welten nicht weniger werden.
Es hat trotzdem nichts miteinander zu tun. Nachts isses kälter als draussen.


Es gibt ja nicht nur den sichtbaren Bereich bei Spielen sondern auch im Hintergrund existiert möglicherweise die Welt. Auch wenn die beste variante ist nur im Sichtbaren Bereich die Welt zu rendern, nur weil man nicht hinschaut heißt es nicht das sie nicht da ist.
Es wird nur gerendert was im sichtbaren Bereich ist. Für alles andere würde die Rechenleistung gar nicht ausreichen.

Je grö0er die Welt aber ist und je weniger ich nachladen ich möchte, desto mehr muss ich im Speicher parken. Sonst droht möglicherweise lag beim nachladen der nächsten Szene, so habe ich das aus der PS5 Technik vorstellen über die hochbandbreiten Technik der SSD in der PS5 verstanden.
Jap, das ist Texture Streaming. Ist nichts neues, gibts schon seit mindestens 10 Jahren. Ist auch nötig, denn ohne sowas wären OpenWorld-Spiele (ohne Ladeunterbrechungen) gar nicht möglich.
Der Speicher muss im Prinzip nur für die nähere Umgebung reichen, der übrige freie Speicher ist dann sozusagen "Buffer". Du willst die Texturen der kompletten näheren Umgebung im VRAM haben, also auch das was hinter dir ist und aktuell gar nicht gerendert wird. Wenn Texturen die aktuell hinter dir sind aber erst von SSD geladen werden würden, wenn du dich mal schnell umdrehst, dann ist das zu langsam.

Man braucht also nachwievor einen gewisse Menge an VRAM UND schnelle Möglichkeiten zum nachladen/streamen. Das eine kann das andere nicht ersetzen.

So wird die SSD als erweiterter Speicher verwendet und durch die ausreichende Geschwindigkeit müssen keine Texturen/Daten geparkt werden und können nachfließen ohne das die Szene ins stocken gerät oder mit Wartezeit überbrückt werden muss.
Jap, das beschleunigt wie ich schon sagte nur das Nachladen von Texturen, reicht aber bei weitem nicht für eine Echtzeitberechnung. In dem Moment wo du eine Textur in einem Frame brauchst muss die schon im Speicher sein. Wenn du dann erst anfängst, die von der SSD zu laden, egal ob mit oder ohne SMA oder RTX-IO, ist das zu langsam.
Die Beschleunigung dabei macht übrigens die Festplatte nicht schneller, es spart aber Rechenleistung, weil aktuell muss die CPU die Texturen erstmal in den RAM schaufeln, und von dort kann dann die GPU die Texturen erst in den Grafikspeicher laden. RTX-IO ermöglicht der Grafikkarte direkten Zugriff auf die SSD, die CPU ist dann nichtmehr beteiligt und es muss kein RAM als Zwischenstation herhalten. Bei SMA kriegt afaik die CPU direkten Zugriff auf den VRAM. Die CPU ist also immernoch beteiligt, kann aber direkt von der SSD in den VRAM laden und braucht damit keinen Umweg mehr über den RAM.

Und das wiederrum darf man nicht mit der Busbandbreite des VRAMs verwechseln. Die AMD-Karten sind bei UHD langsamer, weil der 256-Bit Bus zum Flaschenhals wird. Du hast quasi innerhalb eines Frames soviele Daten (Texturen), das das Lesen aus dem VRAM auf die Frametime drückt. Da geht halt bei der 3080 mit 320Bit noch mehr durch. Ist aber auch nur so lange schneller, wie die 10GB noch ausreichen.
 
Nach diesem Artikel:

Sind die AMD Karten relativ weit hinter Nvidia Karten, Youtuber darunter bekannte Gesichter wie der8auer haben eher gegenteiliges zu berichte.

Bin ein wenig irritiert, hat jemand beide Karten da? Jemand von HWLUXX der eine Gegenüberstellung liefern kann?

Ich habe noch nie so einen schlechten Artikel gesehen, es fehlt die Testplattform, die Methode Index 0% ist von abgeleitet? Usw..... ist eher ein Marketing Benchmark für Grün, es steht auch nicht welche Features wurden verwendet? Mit oder ohne DLSS etc?
ich verstehe was du meinst. hier wird halt mit einem, für rx 6000er gpus, nicht optimalen system getestet.
das lässt die 6000er gpus schlechter dastehen als sie könnten. auch wird nicht erwähnt, daß sich die 6000er gpus gegenüber den rtx 3000er gut übertakten lassen.
man könnte meinen nvidia hat einen lederkoffer bei pcgh verloren.
 
Nichts gegen den Test bei PCGH, aber schau dir lieber die Launch-Analyse bei 3D-Center an. Leo verrechnet dabei die Ergebnisse von dutzenden Testseiten. Das gibt einen deutlich ausgewogeneren Überblick.

In der neuen PCGH 12/2020 ist ein Artikel über die 3070 drin, der auch auf den eventuell knapp bemessenen Speicher angeht. Ich habe bisher nur einen Blick reinwerfen können, deshalb nur als Hinweis.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh