CPUs in Spielen - Limits, Benchmarks,Testbedingungen

boxleitnerb

Enthusiast
Thread Starter
Mitglied seit
11.01.2007
Beiträge
6.549
Ein immer wieder brisanter Diskussionsstoff bei Spielebenchmarks im Zuge von CPU-Tests ist die Frage, wie man testen sollte. Es gibt hier grundsätzlich zwei Ansichten.

1. Man muss Spiele so benchen wie man sie auch spielt. Mit möglichst hohen Auflösungen und viel AA/AF. Also sozusagen realitätsnah.

Da kann dann z.B. sowas hier bei rauskommen (hohe Auflösung, 4xMSAA/16xAF):


2. Man muss die relative Last anderer Komponenten (z.B. der Grafikkarte) soweit wie möglich senken, um die Unterschiede in den fps möglichst gut hervorzuheben (selbes Spiel, 800x600, ohne AA/AF):


Ich lasse das mal ohne jegliche Wertung so stehen. Es sei nur gesagt, dass man aus dem Diagramm in 1. praktisch keine nützlichen Informationen ziehen kann, soviel ist offensichtlich. Diagramm 1 ist für die Entscheidungsfindung, welche CPU nun besser ist - samt Unterbau natürlich - (=mehr fps liefert), völlig nutzlos.

Eine wichtige Frage war seit dem Aufkommen der Benchmarks in niedrigen Auflösungen ohne AA/AF, ob man diese beiden Ansichten halbwegs unter einen Hut bekommen kann. Es wird ja oft behauptet, dass die Ergebnisse in z.B. 640x480 nutzlos sind, da nicht übertragbar.
Diese Aussage fand ich interessant und habe mal ein bisschen gesucht:

Computerbase hat gegen Ende 2010 das Testsystem umgebaut und eine stärkere Grafikkarte (vorher HD5870, nachher GTX580) eingebaut. Computerbase ist auch die einzige Seite, die ich kenne, die sowohl in hohen als auch in niedrigen Auflösungen bencht - perfekt für eine nähere Untersuchung.

Test 1 (mit 5870):
Test: AMD Phenom II X6 1100T Black Edition - 07.12.2010 - ComputerBase

Test 2 (mit 580):
Test: Prozessoren 2010 - 24.12.2010 - ComputerBase

Als Kandiatenpaare seien beispielhaft i5-750/P2-965BE bzw. i5-760/P2-970BE genommen, weil beide dieselbe Anzahl von Threads ausführen können (um nicht später durch multithreaded-Optimierungen einen Kandidaten zu bevorzugen). Der Wechsel kommt daher, weil die alten CPUs im neuen Test rausgeflogen sind. Die Taktverhältnisse beider Paare unterscheiden sich nur um 2,4%

Test 1:
800x600-Rating: 21% Differenz
1680x1050-Rating: 4% Differenz

Test 2:
640x480-Rating: 18% Differenz
1680x1050-Rating: 14% Differenz

Hierbei sei darauf hingewiesen, dass sich auch der Spieleparcour verändert hat. Ein Vergleich zwischen den beiden Tests gestaltet sich somit als schwierig - interessanter ist jedoch, die beiden Differenzen in den Tests getrennt zu vergleichen:

Während in Test 1 der beachtliche Vorsprung der stärkeren CPU auf nur 19% (4/21) zusammenschmilzt, ist dieses Phänomen bei Test 2 deutlich abgeschwächt. Hier sind es nur gut 77% (14/18).

Wie ist das zu erklären, wenn nicht in Test 1 die Grafikkarte die CPU ausbremst?
Anders gesagt: Ist die Grafikkarte schnell genug, bewirkt eine schnellere CPU samt Unterbau auch in höheren Auflösungen mit AA und AF ein Plus an fps - in diesem Fall (Test 2) immer noch 14%.
Schaut man sich die Ergebnisse in niedrigen Auflösungen an, kann man also grob abschätzen, wie zwei Systeme mit unterschiedlichen CPUs bzgl. der am Ende gelieferten fps zueinander stehen können, wenn eine ausreichend starke Grafikkarte (oder SLI/CF) zum Einsatz kommt.

Hier hat xbitlabs mal einen sehr interessanten Skalierungsartikel gemacht:
May Power Be with You: Find the Best CPU for a Single ATI Radeon HD 5870 and ATI Radeon HD 5870 CrossFireX Configuration - X-bit labs

Auch hier sieht man:
Das CPU-Testfeld ist nah beieinander, wenn eine schwache Grafiklösung verwendet wird und zieht sich auseinander, wenn die Grafikleistung massiv erhöht wird.

Noch ein kurzes Wort zum Benchmarken an sich:
Dynamische Szenen, in denen viel Wegfindung, KI und Physik berechnet werden muss, können kaum oder nur mit erheblichem Aufwand reproduzierbar gebencht werden. Da in Timedemos vieles vorberechnet ist, wird die CPU-Plattform hier im Vergleich zu einer wirklichen Spielsituation (Savegame) oft unterfordert - ungeschickt für einen CPU-Benchmark.

Das kriegt man nur in den Griff, wenn man das Lastverhältnis zwischen GPU-Subsystem und CPU-Subsystem verschiebt, sei es durch Übertakten/Untertakten, Abschalten von Cores usw. Alles suboptimal und zu aufwändig. Einfachste Methode ist es wohl, dem Grafiksystem weniger zu tun zu geben bzw. die Grafikleistung zu erhöhen (nicht möglich, wenn man schon die schnellste Karte verbaut hat). MGPU ist problematisch, weil hier zusätzliche Unwägbarkeiten wie Bugs, Skalierung usw. hinzukommen.

Angesichts dessen und der Messergebnisse/Betrachtungen von weiter oben bin ich der Meinung, dass Benchmarks in "realitätsfernen" Einstellungen durchaus Wert haben, wenn man sie zu interpretieren weiß.

Wie denkt ihr darüber? Habt ihr selbst Benchmarks/Untersuchungen zu dem Thema gemacht oder seid ihr auf einen informativen Artikel gestoßen?

Ein Hinweis noch zur Diskussion:
Jeder hat seine freie Meinung, die kann man niemandem verbieten. Für diesen Diskurs wäre es aber wünschenswert, wenn man Thesen und Behauptungen auch anhand von Beispielen irgendwie belegen kann. Und wenn es Material von jemand anderem ist, egal - substanzlose Posts bringen uns hier nicht weiter. Wisst ihr etwas, was der Rest nicht weiß? Könnt ihr den anderen Thesen und Zusammenhänge erklären, die ihr für wichtig erachtet? Dann tut es bitte auch :)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann mir einer mal erklären warum ein x4965 schneller ist in 800x600 als ein 1100 T?
Auch wenn vielleicht das Game evtl. nur vier Kerne unterstützt ist doch ein Kern eines Thuban doch auch so schnell wie einer von einem Deneb.
 
Weil CB ne alte Version genutzt hat, die mit den X6-Thubans buggt. Im GPU-Limit fällt das halt nicht auf.

Changes v1.1

* Removed 16x quality coverage sampled anti-aliasing support
* Added support for MS Sidewinder Force-Feedback USB Wheel
* Added support for Logitech Driving Force USB Wheel
* Added support for Logitech Cordless RumblePad 2 USB controller
* Machines with 6 cores will now use the 4-core worker map rather than the single core map
 
Zuletzt bearbeitet:
Gut, die i5/i7 sind bei 800x600 schneller. Aber mir kommt es eher darauf an, wie
sich das unter realen Bedingungen verhält. Bei Spielen finde ich die minimalen FPS
eher interessant. Wenn bei aktuellen Prozessoren minimal das erreicht wird, was
vorher der Durschnitt war hat es einen praktischen Vorteil der genutzt werden kann.
Ansonsten ist die reine CPU-Leistung besser mit Anwendungen wie z.B. Foto- oder
Videobearbeitung zu vergleichen.
 
Die CPU, die Average schneller ist, leistet auch im Minimum mehr. Die i5/i7 sind freilich auch unter 19x12 schneller - du brauchst nur ein entsprechend CPU-lastiges Spiel und es zeigt sich. Beispielsweise Anno 1404.
 
Gut, die i5/i7 sind bei 800x600 schneller. Aber mir kommt es eher darauf an, wie
sich das unter realen Bedingungen verhält. Bei Spielen finde ich die minimalen FPS
eher interessant. Wenn bei aktuellen Prozessoren minimal das erreicht wird, was
vorher der Durschnitt war hat es einen praktischen Vorteil der genutzt werden kann.
Ansonsten ist die reine CPU-Leistung besser mit Anwendungen wie z.B. Foto- oder
Videobearbeitung zu vergleichen.

Du hast den Eingangspost schon gelesen, oder? Wer reale Bedingungen will, sollte auch reale Benchmarks wollen (Stichwort "Savegames"). Das kannst du bloß nicht benchen. Benche mal 10x hintereinander eine Szene aus einem Starcraft 2-Match, wo die Post abgeht. Oder 10x eine Fahrt in GTA4. 10 verschiedene Ergebnisse..., weil Spieler und KI immer anders reagieren. Und da hängt ja noch mehr dran. Physik, Animation usw.

Minimalwerte sind problematisch, wenn sie nicht reproduzierbar sind und wenn man nicht weiß, ob sie CPU- oder GPU-bedingt sind. Da es in den meisten Tests dazu keine Informationen gibt, sind die Minimumwerte so gesehen nutzlos.
 
Zuletzt bearbeitet:
Einspruch: Die Minimum-Fps lassen sich in ausgesuchten, CPU-lastigen Saves problemlos reproduzieren (sofern sie denn an der CPU hängen, was idR der Fall ist - CPU oder GraKa).
 
Was mich mehr interressieren würde , wäre mal ein Test oder ein Sammelthread mit CPU´s von Core 2 duo /Quad bis sandy und amd x3- x6 mit Grakas von 5770- 6990 und gtx 460-gtx 590 von 1280x1024-1900x1200 mit diversen Games , was min FPS und MAX FPS betrifft um mal zu sehen bis was für eine GPU man für seinen Prozessor nutzen kann , da immer die Frage kommt "Ist meine CPU stark genug für die oder die GPU".
 
Zuletzt bearbeitet:
[Schleichwerbung] Die PCGH macht das öfter's im Heft. [/Schleichwerbung]

Ansonsten online THIS.
 
Damit meinte ich, dass die MIN-Fps idR nur durch CPU oder GraKa limitiert werden und in CPU-Benches hängt's idealerweise nur an der CPU - in meinen Benches ist das der Fall (zu wenig RAM lasse ich heutzutage nicht gelten). Die HDD klemmt höchstens mal bei mäßigem Streaming, was aber durch die Cross-Plattform-Entwicklung verdammt selten geworden ist und in den von mir getätigen Benches (siehe FAQs) praktisch nie auftritt; zumal man beim Benchen von CPU/GraKa einen "Stream in"-Run machen sollte für reproduzierbare Resultate.
 
"Ist meine CPU stark genug für die oder die GPU".

Und genau die Frage hat meiner Meinung wenig bis gar nix mit der Hardware zu tun, sondern mehr mit der Software und den Settings die benutzt werden.

Meine Gedanken dazu.

Limitiert CPU XYZ die Graka ABC? - ForumBase

Oder will mir jetzt hier irgendwer erklären das mein Core i7@>4Ghz eine GTX480 dermaßen limitiert (per se) dass sie nur 18 FPS rechnet in 640x408?
Ich sag da mal einfach: Hängt von der benutzen Software ab^^
Beispiel:


Kann man sich natürlich alles schön-Benchen. Aber rein von der Logik her ist die Frage nicht zu beantworten, sondern müsste in jedem Fall einzeln betrachtet werden um "korrekt" beantworten werden zu können. Ein Rundumschlag mit der Benchmark-Kelle kann mir persönlich da gleich zuhause bleiben.
 
Zuletzt bearbeitet:
Damit meinte ich, dass die MIN-Fps idR nur durch CPU oder GraKa limitiert werden und in CPU-Benches hängt's idealerweise nur an der CPU - in meinen Benches ist das der Fall (zu wenig RAM lasse ich heutzutage nicht gelten). Die HDD klemmt höchstens mal bei mäßigem Streaming, was aber durch die Cross-Plattform-Entwicklung verdammt selten geworden ist und in den von mir getätigen Benches (siehe FAQs) praktisch nie auftritt; zumal man beim Benchen von CPU/GraKa einen "Stream in"-Run machen sollte für reproduzierbare Resultate.

Jaja, das ist ja alles klar. Man muss aber auchmal feststellen, dass das Minimum wirklich an der CPU hängt. Solange das im jeweiligen Benchmark nicht hieb- und stichfest bewiesen ist, ist das Minimum für den CPU-Test sinnlos. Ich weiß nicht, wie Volker und Co. hier vorgehen. Dir traue ich zweifellos zu, dass die Ergebnisse nachher passen.
 
Zuletzt bearbeitet:
Oder will mir jetzt hier irgendwer erklären das mein Core i7@>4Ghz eine GTX480 dermaßen limitiert (per se) dass sie nur 18 FPS rechnet in 640x408?
Ich sag da mal einfach: Hängt von der benutzen Software ab^^
Beispiel:

Wie viel fps bekommst du in 800x600 oder 1024x768? Dann wirst du sehen was da wohl limitiert.
 
Du verstehst nicht auf was ich hinauswill :-)
Es ändert sich nicht weil meine CPU limitiert. Natürlich limitiert sie. Aber nicht weil eine GTX480 im Rechner sitzt (jede Gülle-Graka würde die 18 FPS rechnen können, schau Dir die Auslastung an) sondern weil ich Star-Ruler benutze, weil ich 200 Computer-Gegner eingestellt habe, und weil ich 20-Fach-Zeitraffer zu laufen habe.

Ich will damit klar machen das es nicht eine Frage der Hardware alleine ist, sondern man das in erster Linie mit der Software die man benutzt und deren Einstellungen zusammen sehen muss, dass die Frage "Limitiert meine CPU meine Graka" nicht ohne diese Betrachtung zu beantworten ist.
Das es umsonst ist einen Benchmark-Parcours von 200 Programmen zu durchlaufen und die Frames zu ermitteln wenn meine Software in meinen Settings nicht dabei ist.
 
Zuletzt bearbeitet:
Jaja, das ist ja alles klar. Man muss aber auchmal feststellen, dass das Minimum wirklich an der CPU hängt. Solange das im jeweiligen Benchmark nicht hieb- und stichfest bewiesen ist, ist das Minimum für den CPU-Test sinnlos. Ich weiß nicht, wie Volker und Co. hier vorgehen. Dir traue ich zweifellos zu, dass die Ergebnisse nachher passen.
Mir ist kein Titel aus dem (unsrigen) aktuellen CPU-Parcours bekannt, bei dem die MIN-Fps nachweislich der GraKa zuzuordnen sind. Der Parcours skaliert [iirc] bis hoch zu einem 2600K mit 4,0 GHz noch relativ linear mit dem Takt (hab's getestet). Anno 1404 sowie BC2 legen zudem von 4 auf 6 Kerne zu, F1 ein bisschen. Wäre dem nicht so, wird es sinnlos, daher muss alle Jahr der Parcours neu aufgelegt werden - zudem sollten die Spiele auch halbwegs aktuell bzw. populär sein. BF3 incoming :coolblue:
 
Du verstehst nicht auf was ich hinauswill :-)
Es ändert sich nicht weil meine CPU limitiert. Natürlich limitiert sie. Aber nicht weil eine GTX480 im Rechner sitzt (jede Gülle-Graka würde die 18 FPS rechnen können, schau Dir die Auslastung an) sondern weil ich Star-Ruler benutze, weil ich 200 Computer-Gegner eingestellt habe, und weil ich 20-Fach-Zeitraffer zu laufen habe.

Ich will damit klar machen das es nicht eine Frage der Hardware alleine ist, sondern man das in erster Linie mit der Software die man benutzt und deren Einstellungen zusammen sehen muss, dass die Frage "Limitiert meine CPU meine Graka" nicht ohne diese Betrachtung zu beantworten ist.
Das es umsonst ist einen Benchmark-Parcours von 200 Programmen zu durchlaufen und die Frames zu ermitteln wenn meine Software in meinen Settings nicht dabei ist.

Ich verstehe schon. Natürlich ist es auch eine Frage der Software, wer behauptet denn etwas anderes? Wenn das Spiel tatsächlich eine so hohe CPU Last verursacht, wird es auch auch in 640x480 limitieren. Eine ganz natürliche Sache ist das. Allerdings sind diese Spiele die Ausnahme. Ich kenne kein anderes Spiel das in der Auflösung mit einem übertakteten Sandy Bridge und GTX480 noch ins CPU Limit rennt. Das ist nur völlig am Thema vorbei und ändert nichts an der Intention des Threads. Wäre sogar eher ein Beispiel dafür, dass der CPU die Auflösung egal ist. Man könnte das Spiel dann auch in viel größeren Auflösungen testen und dabei trotzdem die erwartungsgemäßen Leistungsunterschiede zwischen den verschiedensten CPUs sehen, also genau so wie in niedriger Auflösung.
 
Zuletzt bearbeitet:
Wenn ich das hier so sehe, dann brauche ich mir ja momentan keine Gedanken machen mit meinem X3 450 @ 3,9 Ghz, was Spielbarkeit angeht, oder was denkt Ihr?
 
Nein, um die Spielbarkeit sicher nicht. Sieht man von Ausnahmen wie SC2 in großen Schlachten ab, aber da geht selbst ein i7-2600K @ 4,0 GHz in die Knie, wenn man es drauf anlegt. Es geht mehr um die Relation bzw. die viel zitierte Zukunftssicherheit: Wer einen Sandy Bridge oder Phenom II X4 für den gleichen Preis kauft, muss bei letzterem aus CPU-Sicht viel früher aufrüsten. Denn die CPU ist trotz höheremTakt viel viel langsamer und bietet ein klar schlechteres OC-Potenzial.
 
Zuletzt bearbeitet:
wenn ich mal zuviel zeit hab, werde ich das mal selbst etwas untersuchen.
ich hab nun leider schon seit ~4 jahren nur noch auf intel gesetzt, zwischenzeitlich hatte ich mal nen x2 4800+ aber das ding hat ja kein land gegen nen e4300 @ stock gesehen. cod4 war schon ne qual damit.

was aber zur zeit auffällt, ist dass wohl jede halbwegs aktuelle cpu ausreichend ist. ich wette, dass man die spiele, die einen p2 ~3.4ghz oder einen i750 zu 100% ausreizen, an einer hand abzählen kann.
ich hab auch einfach nur aus lust auf neues gewechselt, nicht weil der i5 zu langsam war.
 
Finde die Min Fps auch viel wichtiger und Aussagekräftiger als der Average Vergleich.

Zum Beispiel schafft mein 2600K @ Stock bei F1 in 1980x1080 DX11 und 8xAA mit einer ATI 5850@5870 Niveau das an Min Fps, was mein Q9650 vorher an Average geschafft hat. Die Average FPS sind zwar auch gestiegen, aber nicht im gleichen Maße, da sicherlich die ATI 5850 hier etwas limitiert, aber die Min Fps sind um 20% bzw. real um 8Fps gestiegen. Man erkennt also deutlich das der 2600K die GPU in sicherlich CPU fordernden Szenen (Start, viele Auto berechnen usw.) deutlich stärker mit Input füttert.

Die relevante Auflösung heutzutage ist auch nicht 1680x1050, sondern eben FULL HD.
 
Zuletzt bearbeitet:
Hauptsächlich ging es ja um die Frage, warum die Ergebnisse so sind, wie sie sind. Also gerade die Entwicklung der Benches in unterschiedlichen Auflösungen zwischen den beiden Testsystemen.

Schade finde ich, dass gerade die, die hier vielleicht Licht ins Dunkel bringen könnten, schweigen.

Mein System (2600K, GTX580 SLI) ist leider noch nicht fertig, aber bald. Dann werde ich selbst Messungen vornehmen (erstmal nur an einem Spiel, da ich nicht soviel Zeit habe). Vorschläge, welches? Es muss Downsampling gehen! Und es sollte einfach im Savegame zu benchen sein, also reproduzierbar ohne einen Handstand machen zu müssen.

Ich dachte an (immer volle Details):

a. Simulation "schwache Grafikleistung":
  1. 640x480, CPU@std, 1x580@500
  2. 640x480, CPU@2000, 1x580@500
  3. 1920x1536, CPU@std, 1x580@500
  4. 1920x1536, CPU@2000, 1x580@500

b. Simulation "mittlere Grafikleistung":
  1. 640x480, CPU@std, 1x580@std
  2. 640x480, CPU@2000, 1x580@std
  3. 1920x1536, CPU@std, 1x580@std
  4. 1920x1536, CPU@2000, 1x580@std

c. Simulation "starke Grafikleistung":
  1. 640x480, CPU@std, 2x580@std (SLI)
  2. 640x480, CPU@2000, 2x580@std (SLI)
  3. 1920x1536, CPU@std, 2x580@std (SLI)
  4. 1920x1536, CPU@2000, 2x580@std (SLI)

So hätte man drei Tests mit zwei simulierten CPUs. Einer ähnlich dem o.g. CB-Test mit 5870, einer mit 580-Level und einen darüber, damit man sehen kann, wie es sich weiterentwickelt mit mehr Grafikpower.

Verbesserungsvorschläge? Übertaktet wird per Multi. Beim Untertakten der Grafikkarte würde ich alle relevanten Größen (Shader, Core, Speicher) in gleichem Maße senken.
 
Zuletzt bearbeitet:
Ich würde Bad Company 2 ohne HBAO vorschlagen. Das skaliert ziemlich brauchbar und ist weit verbreitet.
 
Ich habs nicht :fresse:

Was meinst du mit "skaliert"? Kerne, SLI, MHz...?
SLI ist auch so ein Problem. Optimierungen auf bestimmte Auflösungen...vielleicht sollte ich nur eine Karte nehmen und die übertakten. Aber ich will das eigentlich nicht, die Verlustleistung ist auch so groß genug. Evtl. als Zusatz später. Auch krieg ich da vielleicht 15% hin, mit SLI (hoffentlich!) deutlich mehr bei GPU-Last - besser für die Tests, da so die Grafikleistung stärker variiert.

Gibts keine Timedemo, die brauchbare Werte ausspuckt und wo KI/Physik usw. immer neu berechnet werden? Die aber trotzdem immer gleich abläuft? Ja, eigentlich ein Widerspruch in sich, aber war FC2 nicht recht anständig, was das anging? Der Action-Benchmark.
 
Zuletzt bearbeitet:
GPU-Leistung sowie Takt und Kerne bzw. Threads im Falle der i7. Der FC2-Action-Benchmark schwankt fürchterlich.
 
Okay, also wirklich Savegame. Na gut, wenn du das 1000x machen kannst, kann ich es auch 20x machen :)

Gibts bzgl. SLI Bedenken? Was Schnelleres als die 580 gibts ja leider noch nicht.

Könntest du mir bitte noch ein anderes Spiel empfehlen als mögliche Alternative?
 
Einfach ein game was CPU und GPU fordert, also kein Crysis, da absolut GPU Titel.

Arma 2 wäre evtl. noch eine Alternative...
 
Zuletzt bearbeitet:
@ boxleitnerb

Mit CoD MW2 bzw. CoD Black Ops rennst du recht flott ins CPU-Limit ohne SLI, Crysis Warhead ohne AA ist auch eine Option [alle drei sind in dem FAQ-Link dabei]. In dem Zusammenhang noch interessant (hab leider das PDF nicht da, also verzeih mir die Qualität):



GTA IV leidet darunter, dass zwei Karten einen Overhead erzeugen, der bremst - erst mit genügend CPU-Power können sich daher zwei GTX 580 an die Spitze setzen.
 
Ok, dann gucke ich mal ob ich BFBC2 und COD MW2 benchen kann. Crysis ohne AA ist schon wieder nicht praxisnah, weil so keiner spielt.

Vor dem eigentlichen Test kann man ja eine Timedemo durchjagen und schauen ob/wie SLI skaliert.
Und danach noch die CPU übertakten um zu zeigen, dass sich die Werte mit einer 580 auch ändern und man nicht komplett GPU-limitiert ist - auch nicht in 1920x1536 4/16.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Es sei nur gesagt, dass man aus dem Diagramm in 1. praktisch keine nützlichen Informationen ziehen kann, soviel ist offensichtlich. Diagramm 1 ist für die Entscheidungsfindung, welche CPU nun besser ist - samt Unterbau natürlich - (=mehr fps liefert), völlig nutzlos.


Diagramm I dient vortrefflich als Kaufberatung (ich muss nicht den schnellsten kaufen um spielen zu können, schnellere CPU´s nutzen nichts, da die Grafikkarte limitiert)und als grobe Angabe für welches Spiel Prozessor X/Y ausreicht um genug FPS zu liefern. ALs CPU Test hingegen nur teilweise relevant, da die GPU limitiert. Nutzlos aber sicherlich nicht. Imho sehr wichtiger Test.
800x600 dient als reiner CPU Test, wenn du die CPU Rohpower betrachten willst, ist ersterer Test sicherlich wenig hilfreich, da hast du recht.

@y33H@

Was soll denn ein Overhead sein? Und wann entsteht dieser? :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh