GPU-Benchmarks zur finalen Version von Battlefield V

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.371
battlefieldv.jpg
Ab diesem Wochenende können Abonnenten des Origin Access Premier auf dem PC bereits Battlefield V spielen. Der Titel begleitet uns bereits seit dem Juni, denn schon zur Closed Alpha haben wir einige Benchmarks gemacht. Darauf folgte eine Open Beta mit neuen Erkenntnissen und auch einen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zieht man den Preis mit ein, so sieht das ganze schon etwas anders aus! Nvidia 2080 Ti ist mehr als doppelt so teuer, da erwartet man doch mehr!
 
Zuletzt bearbeitet:
Das Spiel ist aktuell sehr CPU lastig und die TR CPU finde ich ist eine schlechte Wahl für einen Benchmark. Intels 99k wäre da wohl besser gewesen.

Gesendet von meinem Mi MIX 2S mit Tapatalk
 
wo sind die anderen gpus?
 
Komisch, der Test hier weicht extrem von ComputerBase und auch meinen Erfahrungen ab. Wo habt ihr genau gebencht? (Ich weiß ist subjektiv): Aber auch in CB steht das mit DX11 und UHD@hoch die Vega 64 ca. 60FPS pmacht. Meine Frontier Edition ist auch meist bei ca. 60FPS unter UHD@hoch. Eure Werte sind da eklatant niedriger.
 
eine 2080ti ist nur 50% schneller als ne vega 64? das war in den launchbenchmarks aber anders?

was ich auch nicht versteh.

warum bencht ihr eine 580 aber alle pascal karten nicht?
 
wo sind die anderen gpus?

Nach häufigen Hardwarewechsel sperrt Origin das Spiel.

Komisch, der Test hier weicht extrem von ComputerBase und auch meinen Erfahrungen ab. Wo habt ihr genau gebencht? (Ich weiß ist subjektiv): Aber auch in CB steht das mit DX11 und UHD@hoch die Vega 64 ca. 60FPS pmacht. Meine Frontier Edition ist auch meist bei ca. 60FPS unter UHD@hoch. Eure Werte sind da eklatant niedriger.

Ich schau mir das heute Abend noch einmal an.
 
Wer den Text list wird es wissen warum nur bis zu rx 580 getestet wurde

recht hast du. hätte man aber auch direkt am anfang erwähnen können.^^

das ist wirklich mist. kapier nicht was EA für ein geschiss macht. steam hat damit 0 probleme und die sind gefühlt 100x größer als drecks origin/ea
 
Zuletzt bearbeitet:
Danke für den Test!

Bei CB im Test hat Vega deutlich besser abgeschnitten dort trennen vega 64 und rtx 2080 nur 10-15%!

Woran liegt das?
 
Er sagte doch er will sich das nochmals ansehen. Meine Frontier liegt auch weit über dem was hier für eine Vega 64 angegeben ist. Wir wissen aber nicht wo genau gebencht wurde. Gibt ja keinen integrierten Benchmark.
 
Die Vega-Karten wurden im Balanced-Modus getestet. Sobald Origin das Spiel wieder freigibt für uns, teste ich die Turbo-Einstellung nach.
 
Die Tabellen sind absolut fürchterlich zum lesen, bei den Vergleichen alle Karten in die Übersicht zu werfen ist nutzlos. Besser eine Tabelle mit ner AMD Karte, eine andere mit einer NVIDIA.

Die Luxx Benchmarks werden jedes Mal seltsamer und weniger vertrauenswürdig. Damals einen TR zu nehmen war ohnehin ein großer Fehler.
 
Komisch, der Test hier weicht extrem von ComputerBase und auch meinen Erfahrungen ab. Wo habt ihr genau gebencht? (Ich weiß ist subjektiv): Aber auch in CB steht das mit DX11 und UHD@hoch die Vega 64 ca. 60FPS pmacht. Meine Frontier Edition ist auch meist bei ca. 60FPS unter UHD@hoch. Eure Werte sind da eklatant niedriger.

CB hat keinen Test mit UHD und hohen Einstellungen gemacht hat. Es gibt in UHD nur Test mit den mittleren Einstellungen und FFR ein.
Die Vega 64 schafft laut CB bei UHD mittleren Einstellungen und FFR ein im Singleplayer 60,3 FPS und im Multiplayer 68,7 FPS.
Oder habe ich etwas übersehen?

In den Tabellen in diesem Testbericht findet man nur einen Test der vergleichbar sein könnte. Dort wurde mit UHD und Mittleren Einstellungen im Singleplayer (mit FFR ein oder aus, steht dort leider nicht) getestet. Und welcher Balken Durchschnitt, Maximum oder Minimum ist, ist mir auch nicht klar.
 
Wirklich interessant wäre jetzt zu wissen, um wie viel ms sich durch FFR der Input lag verlängert. Am besten in verschiedenen Szenarien (Vsync/ GSync/ Freesync/ off). ;-) Der FPS Gewinn ist ja schon beachtlich - ggf. ist die Umsetzung ja so gut, dass der Input Lag durch das mehr an FPS fast wieder ausgeglichen wird?
 
Wirklich interessant wäre jetzt zu wissen, um wie viel ms sich durch FFR der Input lag verlängert. Am besten in verschiedenen Szenarien (Vsync/ GSync/ Freesync/ off). ;-) Der FPS Gewinn ist ja schon beachtlich - ggf. ist die Umsetzung ja so gut, dass der Input Lag durch das mehr an FPS fast wieder ausgeglichen wird?

Das wäre wirklich interessant.

Durch mehr FPS kann das nicht ausgeglichen werden. Der Input lag beschreibt ja die Zeit Zwischen Eingabe und Ausgabe des Frames. Ob nun 60Bilder in der Sekunde um 20 Millisekunden verschoben zur Eingabe auf dem Display erscheinen oder 100 Bilder, ist ja völlig egal.
 
Nicht ganz - hierbei handelt es sich ja nicht um ein festes Delay wie z.b. bei einer Mauseingabe. Hier geht es darum wie lange ein im voraus berechnetes Bild im Puffer "zurückgehalten" wird und da spielt die Hz Zahl und die FPS Zahl eine Rolle.

*hier* gibts z.B. ganz allgemein was zu dem Thema.
 
Ah okay, das ist interessant.
Das heißt wenn man mit FFR eine Bestimme Frame Rate erreichen kann, könnten sich die beiden Verzögerungen negieren und man hätte somit eine höhere FPS mit gleichbleibendem Input lag
Was wiederum bei G-Sync egal wäre, da dort ja der Monitor mit der Grafikkarte synchronisiert sind. Dort wurde der zusätzliche Input Lag von der FFR Technik Addieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh