ColeTrickle
Urgestein
die vid ist ca gleich bzw minimal kleiner aber man nimmt dafür eben cpus die wenig leckströme haben, die kann man nicht soweit takten dafür kann man sie deutlich leichter kühlen und brauchen weniger leistung für selbe performance
Aha.....tortzdem bleibt die S version totaler Schmarn...wie auch der Core i7...muß immer wieder feiern Benches bei 1280x1024...der i7 rockt....ab 1680x1080 mit AA&AF,wo sicherlich jeder mit ner 280GTX und mehr zockt bricht der ein...Lach
Noch besser PCGAMESHARDWARE
i7 950 vs Q9650 (3,06Ghz vs 3,00Ghz)
Crysis
Avg Frames 54 vs 52
Min Frames 32 vs 49
Aber i7 ist besser,wegen 2 Frames mehr im Schnitt,aber die kack Min Frames zählen die wie immer nicht...Lach
Ps:
Mein Q9650 brauch bei 1,04375V Bios...sind ca. 1,008V Idle ca. 5,08W laut Everest und bei Last 0,976V und 40,01W....bei 4Ghz und 1,24V Last sinds glaub ich 100W oder 120...egal ob nun Everest richtige Werte liefert,sieht man dennoch,wie groß das Einsparungspotential ist!!!

Was du dann messen wirst? Nun, je nach verwendeter Grafikkarte liegen dann alle Systeme bei vielleicht 30fps. Wir wollen ja aber die Unterschiede bei den CPUs herausfinden - darum formulieren wir das ganze mal anders:
Aber für die HD4870 gilt bei gleichem Takt der Probanden das obige Bild in Grid, bei 0 Unterschied im GPU Limit. Ganz im Gegenteil, in vielen Fällen führt der i7 dort sogar leicht. Das bedingt gar den Gedanken, dass man die Unterschiede minimaler Größenordnung in diesem Bereich evntl. sogar ganz vernachlässigen sollte. Aber was ergibt nun ein Bild wie oben in Grid (bei gleichem Takt)?

In hohen Auflösungen laufen wir nur eben in vielen aktuellen Spielen, sofern wir uns auf simple Timedemos beschränken, schnell in GPU-Limits - die Ergebnisse werden oben "abgeschnitten". Die niedrige Auflösung simuliert dabei schlicht eine stärkere GPU bzw. eine höhere CPU-Last. Eine Alternative wäre es, den CPU-Takt zu senken, dann kann auch mit Mittelklasse-Grafikkarten in hohen Auflösungen gebencht werden.
