> > > > Intel-IGPs mogeln beim 3DMark Vantage

Intel-IGPs mogeln beim 3DMark Vantage

DruckenE-Mail
Erstellt am: von

intel3 Immer mal wieder wurden in der Vergangenheit Vorwürfe laut, Grafikkartenhersteller würden mit Mogeleien für bessere Ergebnisse in den beliebten 3DMark-Programmen sorgen. Normalerweise trafen solche Vorwürfe die Hersteller diskreter 3D-Grafikkarten. Die Kollegen von Tech Report haben herausgefunden, dass auch Intel bei seinen integrierten Grafiklösungen für optimierte Ergebnisse im 3DMark Vantage sorgt. Demnach erkennen die Intel-Treiber, wenn die ausführbare Datei des Benchmarks startet. Daraufhin werden Aufgaben der IGP der CPU zugeteilt und ein deutlich besseres Ergebnis erreicht. Tech Report belegt diese Behauptung durch ein einfaches Umbennenen der "3DMarkVantage.exe" in "3DMarkVintage.exe".  Bei der überprüften IGP (G41) resultiert daraus ein deutlicher Leistungsunterschied. Eine solche "Optimierung" verstösst gegen die von Futuremark aufgestellten Regularien. Auf Anfrage der Kollegen räumte Intel ein, dass die IGP-Treiber entsprechend programmiert wurden. Das wäre auch für mehrere Spiele (Call of Juarez, Crysis, Lost Planet: Extreme Conditions und Company of Heroes) der Fall.

In ausgewählten Szenarien, wie vor allem dem 3DMark Vantage, erscheint die Intel-IGP so gegenüber eigentlich überlegener Konkurrenz (wie beispielsweise AMDs 785G) im Vorteil.

intel_3dmark
Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (37)

#28
customavatars/avatar11544_1.gif
Registriert seit: 26.06.2004
HH
Korvettenkapitän
Beiträge: 2344
Zitat mr.dude;13097423
Lies nochmal. Du scheinst das Thema nicht verstanden zu haben. Es wird nicht generell kritisiert, dass Intel die CPU nutzt, um die Performance zu erhöhen, sondern, dass sie es in einem Benchmark machen, wo es laut Richtlinien untersagt ist.


Vorsicht, zu gründliches Lesen könnte nicht im Sinne deiner Mission sein. Ggf. erkennt er, daß der Verstoss gegen Richtlinien nur kolportiert wird. Und offenbar kaum einer genau und/oder unvoreingenommen recherchiert hat. Andernfalls wäre nämlich aufgefallen, daß der 3DMark im Grundsatz nicht als reiner GPU-Hardware-Test gedacht ist, sondern sinnvollerweise als 3D-Performance-Test für das gesamte System

"A 3DMark score is an overall measure of your system’s 3D gaming capabilities, based on comprehensive real-time 3D graphics and ..."

Von welcher Einheit die 3D-Berechnungen ausgeführt werden, ist unter diesem Aspekt egal und eine event. von Intel implementierte Freischaltung von mehr CPU-Leistung für 3D-Berechnungen bei Anwendungen mit rel. hoher GPU-Last legitim und keine besondere Erwähnung wert.

Ob ggf. doch ein Vertstoß gegen die Guidlines vorliegt, muß letztlich Futuremark entscheiden und die haben sich m.W. noch nicht geäußert. Laut dem ursprünglichen techreportartikel wird der betreffende Treiber noch akkreditiert und ist also nicht für den 3DMark freigegeben.
#29
customavatars/avatar75855_1.gif
Registriert seit: 29.10.2007
München
Flottillenadmiral
Beiträge: 6082
Prinzipiell ein sinnvolle Vorgehen wenn man das in Games macht und sich dadurch tatsächlich mehr Grafikleistung erzielen lässt.

Ob mans dann als schummeln sieht wenn man diesen Vorteil auch auf ein Benchmarkprogramm ummünzt darüber lässt sich IMHO streiten.
#30
customavatars/avatar20196_1.gif
Registriert seit: 03.03.2005
Erde
Admiral
Beiträge: 9940
Zitat bawde;13097635
welcher noob schaut überhaupt vantage ergebnisse an :hmm:


Nur weil dein Leben aus HWL Forum besteht, sind deswegen nicht 95% der Weltbevölkerung Noobs.
Obwohl dein Leben aus HWL Forum besteht, haben so manche Beiträge von dir einen laienhaften Inhalt.
#31
customavatars/avatar45212_1.gif
Registriert seit: 17.08.2006
Wien
Banned
Beiträge: 4193
Zitat bawde;13097635
welcher noob schaut überhaupt vantage ergebnisse an :hmm:


Komisch
Wenn AMD/ATI das machen würden, gäbe es einen Riesen großen Aufstand aber bei Intel wird es beschönigt.
#32
Registriert seit: 10.04.2005

Oberstabsgefreiter
Beiträge: 401
Zitat RoughNeck;13096634
Wenn man die Performance durch herabsetzen der Bildqualität erhöht dann ist das schlicht und ergreifend FALSCH, ...


Wird aber offenbar nicht gemacht.

Zitat RoughNeck;13096634

Wenn Intel jetzt werben würde die IGP ist beim Video encoden 15% schneller als eine Vergleichbare ATI oder Nvidia IGP und man kommt drauf das in Wahrheit die CPU da mitbenutzt wird und diese die 15% oder mehr ausmacht, wäre also OK für dich?


Wenn man damit werben würde, was man in dieser Form aber nicht tut!
Ein solcher Encoder müsste eben CPU+GPU nutzen und könnte ja auch ATI bzw Nvidia IGPs unterstützen. Und gerade beim Encoden wäre das toll und ist somit auch OK für mich. Aber scheinbar könnten hier viele damit nicht leben!?

Zitat mr.dude;13097423
Lies nochmal. Du scheinst das Thema nicht verstanden zu haben. Es wird nicht generell kritisiert, dass Intel die CPU nutzt, um die Performance zu erhöhen, sondern, dass sie es in einem Benchmark machen, wo es laut Richtlinien untersagt ist.


Aus dem Titel geht bereits eine Richtlinienverletzung hervor, obwohl das noch gar nicht bestätigt bzw. entschieden wurde, da der Benchmark unverändert ausgeführt wird. Mit welchen Transistoren dieser ausgeführt wird gibt die Richtlinie aber nicht vor.
Ansonsten würde auch ein zukünftiger Clarkdale dagegen verstossen, welcher schließlich vom Produkt her als "CPU" verkauft werden wird und dieses Teil dann plötzlich Grafikberechnungen durchführt.
#33
customavatars/avatar20196_1.gif
Registriert seit: 03.03.2005
Erde
Admiral
Beiträge: 9940
@CaptureMaster
Ich würde ehr sagen, dass du überhaupt nicht verstehst um was es geht, deswegen kommen solche Kommentare von dir, die dir jegliches Verständnis absprechen.


Der Test:

Intel System
Gigabyte GA-G41M-ES2H
Core 2 Duo E6300
4GB DDR2 800MHz

AMD System
Gigabyte GA-MA785GPMT-UD2H
Athlo0n II X2 250
4GB DDR3 800Mhz

Vantage Punkte:
Intel: G41 2931 ohne Optimierung 2132
AMD: 785G 2161

Crysis @ 800x600
Intel: G41 15 FPS ohne Optimierung 10 FPS
AMD 785G 30FPS

Da kann man dann nur sagen: Danke Intel für den Griff ins Klo, weil selbst die Optimierung eindeutig zeigt wie schrottig doch eure IGP ist. Zwar ist die IGP auch ohne Optimierung gleich auf mit der AMD IGP im 3DMark, aber das versagen bei einem Spiel macht euch Intel nur noch mehr lächerlicher.
Für mich ganz klar ein weiterer Punkt warum ich niemals was von Intel kaufen werde. Täuschen tricksen, unterdrücken, erpressen. Siehe EU Urteil. Eigentlich sollte man Intel 10 Milliarden Euro zahlen lassen.

Wenn man nun ein Mensch der wenig Ahnung hat und möchte sich was kaufen, bekommt 3DMark Punkte vorgezeigt, würde jeder doch den Intel IGP Schrott kaufen, hat ja deutlich mehr Punkte.
Insofern wünsche ich allen Usern, die diese Machenschaften befürworten, dass sich bei anderer Gelegenheit über den Tisch gezogen werden.
#34
Registriert seit: 10.04.2005

Oberstabsgefreiter
Beiträge: 401
@[TLR]Snoopy:

Und kannst du das jetzt auch begründen?
Dass die IGP von Intel alles andere als gelungen ist, wissen wohl die meisten hier. Deshalb werden beim neuesten Treiber auch Teile der CPU mitverwendet - ja und? Ob dass jetzt in jedem Szenario bzw. für den Stromverbrauch von Vorteil ist, sei mal dahingestellt.

Hätte ich ein Intel Notebook mit einer zu schwachen Intel-IGP (also so ziemlich alle) für die HD-Wiedergabe, jedoch auch einen Core2 Prozessor der aber damit zurecht kommt, dann würde ich doch glatt den Prozessor dafür verwenden.
Den meisten Usern kommt es doch nur auf das Ergebnis. Und wenns funktioniert ist es gut, ansonsten eben Schrott, unabhängig ob die IGP so toll ist oder nicht.
#35
customavatars/avatar14763_1.gif
Registriert seit: 29.10.2004
Österreich
Flottillenadmiral
Beiträge: 4121
der Punkt ist ja das die IGP ja nur im 3DMark Vantage die CPU zu hilfe nimmt um dort besser da zu stehen und eben nicht in allen bzw Praxisrelevanten Anwendungen - wie diverse Tests ja belegen.

das 2. ist das in vielen Tests (von Netbooks zb) nur ein 3D Mark Durchlauf als "Gaming Benchmark" gemacht wird und damit - da intel ja nur im 3D Mark die CPU zur Hilfe nimmt - dem Kunden ein völlig falsches Bild gibt

mfg
#36
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat MoBo 01/04;13098558
Vorsicht, zu gründliches Lesen könnte nicht im Sinne deiner Mission sein. Ggf. erkennt er, daß der Verstoss gegen Richtlinien nur kolportiert wird. Und offenbar kaum einer genau und/oder unvoreingenommen recherchiert hat. Andernfalls wäre nämlich aufgefallen, daß der 3DMark im Grundsatz nicht als reiner GPU-Hardware-Test gedacht ist, sondern sinnvollerweise als 3D-Performance-Test für das gesamte System

Es geht nicht nur um das Gesamtergebnis, falls dir das entgangen sein sollte. Es geht eigentlich mehr um den GPU Test, welcher in das Gesamtergebnis einfliesst. ;)

Zitat CaptureMaster;13099615
Ansonsten würde auch ein zukünftiger Clarkdale dagegen verstossen, welcher schließlich vom Produkt her als "CPU" verkauft werden wird und dieses Teil dann plötzlich Grafikberechnungen durchführt.

Was das betrifft und ob Futuremark hier Änderungen an ihren Richtlinien vornehmen wird, keine Ahnung. Faktisch ist es erstmal weiterhin eine IGP, nur halt nicht Teil des Chipsatzes, sondern auf dem CPU Package. Meiner Meinung nach ändert das am Verfahren erstmal nichts. Schwieriger wird es erst, wenn beides in einem Die integriert wurde, wie bei AMD Fusion.
#37
Registriert seit: 10.04.2005

Oberstabsgefreiter
Beiträge: 401
@Athlon-64:

Sind aber auch ein paar Spiele davon "betroffen"!
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]