Wolfenstein 2: The New Colossus im Benchmark-Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.376
wolfenstein2.jpg
Es ist der Herbst der großen Spieleankündigungen. Entsprechend haben wir uns auch die Leistung einiger Spieler mit unterschiedlichen Grafikkarten angeschaut. Zuletzt waren die die Open-Beta von Star Wars: Battlefront 2 und Destiny 2. Heute nun wollen wir uns Wolfenstein 2: The New Colossus einmal etwas genauer anschauen. Das...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sehr schön getestet, mit HBCC an/aus usw. Die Ergebnisse sind durchaus interessant.

Mich wundert es aber, dass Vega 64 so oft bei 1080p und sehr hoher Shader-Komplexität an die 1080 Ti herankommt, aber dann bei 4K in Richtung der 1080 einbricht. Da muss doch irgendwo ein Flaschenhals beim abschließenden Zeichnen der einzelnen Pixel pro Sekunde sein...

Edit: Oder ist das womöglich der VRAM? - Anscheinend ist die Bandbreite ja ein wenig knapp bemessen...
 
Zuletzt bearbeitet:
Was sind das nun?

Average fps?

Ohne min fps ist so ein Test totaler Quatsch.
 
Was sind das nun?

Average fps?

Ohne min fps ist so ein Test totaler Quatsch.

Mit Vulkan ist das Thema Benchmarks nicht einfacher geworden. Wir haben sie Min-FPS weggelassen, weil da teilweise unsinnige Werte auftauchten.

Art und Weise der Kritik ist übrigens auch totaler Quatsch.
 
Hat aber Recht. Average-FPS = pupu. Hinzu kommt nicht Jeder (vorsicht: Ironie) hat einen ThreadRipper 1950X.

Unsinnige Werte? Bloß bestimmte GPUs nicht schlecht aussehen lassen, sonst gibt es kein Geld mehr :d
 
Also ich habe auch keine Probleme mit dem Game. Endlich mal eines das von Anfang an gut funktioniert und super Performance hat.

System"nur" ein 6600k @4,3GHz und eine 980ti.

In FullHd Max Details nie unter 60FPS.
 
Bloß bestimmte GPUs nicht schlecht aussehen lassen, sonst gibt es kein Geld mehr :d

Ja, genau. Aber sie dürfen ja beide voneinander nichts wissen. AMD und NVIDIA sollen schön weiter monatlich sechsstellige Beträge überweisen.

Wir haben ja noch die CSV-Datein. Die schaue ich mir noch einmal an und kann die Minimum-Werte eventuell nachtragen.
 
Zuletzt bearbeitet:
Hallo Don Wenn ich mir das so anschaue seit Ihr auch in das Worste Case Cenario wie eure Konkurrenz reingefallen.

P.s. es würde mich freuen wenn ihr das nächste Mal die 1080"TI" für den grapic preset Vergleich benutzt.
 
Ihr schreibt, dass sich Async Compute auf den Vega Karten ausschalten lässt und bei Pascal immer aktiv ist. Die Leute von Computerbase behaupten aber genau das Gegenteil.

Mein Fehler, ich habe in meiner Tabelle die falsche Karte eingetragen und daher sind AMD und NVIDIA bzw. deren Karten vertauscht worden. Das sollte nun stimmen.
 
Gerade wenn unsinnige min fps rumkommen - Benchmark wiederholen zum verifizieren und darauf hinweisen, dass da was komisch ist.

Nur weil Werte ab der Norm sind einfach weglassen? Naja macht mal ...

Sorry, aber vom langzeitigen Tief gings mit den Tests / Reviews wieder bergauf und dann wieder sowas?

Min fps ist das was eher relevant ist. Nicht die average fps.

Finds eh langsam wundersam, dass es ein paar wenige Seiten nicht auf die Kette bekommen min, avg, max fps anzugeben.

Was juckt es den Nutzer, ob er 60 oder 80 fps average hat, wenn er bei min fps im Vergleich zur Konkurrenz nur 40 anstatt 60 fps bekommt.

Gerade bei Freesync/G-Sync interessiert das. Niemand will <60Hz egal ob Sync oder nicht.
 
Zuletzt bearbeitet:
Ich habe mir die CSV-Dateien noch einmal alle vorgenommen, die Durchschnittswerte passen, die Minimumwerte sind nun auch mit drin.
 
"Wolfenstein 2: The New Colossus zeigt, dass es auch anders gehen kann."
Je ne is klar :stupid:. Treiberupdate von Nvidia bis Anfang der Woche abwarten, dann ist Pustekuchen für Vega,wie bei Forza........
 
Je ne is klar :stupid:. Treiberupdate von Nvidia bis Anfang der Woche abwarten, dann ist Pustekuchen für Vega,wie bei Forza........

35 Beiträge seit 2010 und nur sinnlose Kommentare. :wall:
 
Konnte schon jemand Erfahrungen sammeln, wie sich das Spiel mit 8GB anstelle der empfohlenen 16GB RAM verhält?
 
Geht ja richtig ab mit Vega. Jetzt noch die Vega schön undervolten und schon zieht sie mit der GTX1080Ti gleich. :cool:
 
Hab jetzt ca. 90 min gespielt und kann hier die min. FPS bisher nicht nach vollziehen.

Spiele FHD @ "Mein Leben" und habe noch Bildstreaming auf Extreme erhöht.
Für die GTX 1060 Nutzer: Wenn du Bildstreaming nur auf Ultra setzt liegt der Vram bei ca. 5600MB :)

CPU kaum ausgelast und 7300MB Vram + 5600MB Arbeitsspeicher und GPU langweilt sich auf seine bombenfesten 144FPS .
50-90% GPU Last je nach szene.

Schade das man die Auflösungsskallierung nicht erhöhen kann.
Mit Bildschärfe und Körnung hatte ich mal auf max. gestellt , aber das sah aus wie so leichter schnee :d

Die Texturen sehen schon gut aus , aber noch nicht so schön wie in BF1 .
Da habe ich auch die Auflösungsskallierung auf 134% welche dann 1440P entsprechen .
Das sieht auf meinem Bildschirm am besten aus .

Insgesamt muss man sagen das game ist ein guter mix aus performance und Grafik und läuft sehr sauber dafür das es gerade released wurde.
 
Zuletzt bearbeitet:
seh ich das richtig, dass der 900€ threadripper in 1080p ab der gtx 1080 limitiert :fresse: ?

dnxmk6chxtd13pnah.jpg
 
Zuletzt bearbeitet:
Da solltest du mal den NVIDIA-Treiber danach fragen warum dieser Threadripper nicht voll ausnutzt. Bei AMD zieht deshalb VEGA fast an die GTX1080Ti heran. Bei höheren Auflösungen entfernt sich die VEGA wieder wegen des GPU-Limit.
 
Zuletzt bearbeitet:
Ich finde die Ergebnisse etwas ernüchternd, dafür das Wolfenstein wohl der Best Case überhaupt sein dürfte. Darüber hinaus stell ich mal die Frage, ob es für Spiele-Tests wirklich sinnvoll ist, eine 16 Kern CPU mit verschiedenen Modi zu nehmen, was gerade die 1080p Auflösung durchaus tangiert und wohl kaum in einem heimischen Zocker-PC anzutreffen ist. Wäre da der 1800X @4Ghz oder ein 8700k @5Ghz nicht besser geeignet?
 
Er wird nicht jedes Jahr eine neue Kiste kaufen wollen, folglich ist der 16-Kerner für die nächsten Jahre sehr gut ausgestattet, um umfangreiche Tests zu machen.

Die Programmierfehler kann man auch nicht unendlich lange mit hohen Taktraten ausbügeln und nachdem nun die 8-Kerner mit 16 Threads breit verfügbar sind, bleibt den Spieleentwicklern gar nichts anderes übrig, diese auch zu unterstützen - und das tun sie auch, wenn es nicht gerade Indie-Studios sind, wie bei PUBG oder ARK. Aber selbst dort ist es ja nur kurzzeitig mit der Optimierung weit her. Langfristig ist man ja gerade bei ARK dabei, Vulkan zu implementieren und das Spiel hat noch ganz andere Probleme, die erst mal wichtiger sind, als die Performance.
 
Die Programmierfehler kann man auch nicht unendlich lange mit hohen Taktraten ausbügeln und nachdem nun die 8-Kerner mit 16 Threads breit verfügbar sind, bleibt den Spieleentwicklern gar nichts anderes übrig, diese auch zu unterstützen

Selten so einen absoluten Schwachsinn gelesen. :lol:
 
Selten so einen absoluten Schwachsinn gelesen. [emoji38]
Er hat da nicht ganz unrecht. Ich spiele liebend gern Arma 3. Aufgrund der schlechten Engine zählt jedes bisschen Takt, da fest alles von 1 Kern berechnet wird. Sprich schlechte Programmierung, schlechte Leistung. Da hat er Recht.

Gesendet von meinem DUK-L09 mit Tapatalk
 
Sind die 4GB der Fury X schuld, dass diese so schlecht weg kommt?

Gruß
 
Das würde jedoch erneut vehement gegen die 16 Kerne sprechen bzw gar 32 Threads.

Kein Spiel der Welt skaliert über 8 Kerne hinaus.

Gesendet von meinem HTC 10 mit Tapatalk
 
Das würde jedoch erneut vehement gegen die 16 Kerne sprechen bzw gar 32 Threads.

Kein Spiel der Welt skaliert über 8 Kerne hinaus.

Gesendet von meinem HTC 10 mit Tapatalk

Es geht einfach darum eine CPU zu haben, mit der bei Grafikkarten Benchmarks so gut wie kein CPU Limit vor liegt. Die Jungs kaufen sich nicht alle 6 Monate ein neues Benchmark System, deshalb ist das Ganze weit in die Zukunft Vorraus geplant. Außerdem hat man so die Möglichkeit zu testen ob Spiele in naher Zukunft nicht doch von mehr als 8 kernen Profitieren. Hellsehen können die Jungs nicht und daher geht man auf Nummer sicher. Egal wie die es machen, es wird immer gejammert.
Hätten die ein 5Ghz 4C/8T CPU verbaut würden die anderen rumheulen, warum nur sowenig kerne verbaut sind und dass dies nicht zukunftssicher sei. Die Redaktion hat hier alles richtig gemacht.

und nun BTT
 
Finde ich auch richtig. Die benchmark Ergebnisse müssen auf lange sicht untereinander vergleichbar bleiben. Mit einer 16kern CPU wird man jedenfalls nicht in ein "thread limit" rennen.
Der schnellere 18 Kerner von intel wäre beinahe noch lukrativer aber eben auch unerreichbar teuer.
 
Zuletzt bearbeitet:
Ich denke ich Kaufe mir das Spiel heute.

Mal sehen wie das auf 2x E5-2690, 128GB RAM, 2x GTX1070 auf 4k Skaliert.. :fresse:

Vielleicht hab ich es überlesen, aber: Hat das Spiel einen Integrierten Benchmark?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh