• Hallo Gast!
    Noch bis zum 10.05. kannst Du an unserer Hardwareluxx Hardware-Umfrage 2026 teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal ein Notebook für bis zu 1.800 EUR - über eine Teilnahme würden wir uns sehr freuen!

Leistungsaufnahme FPS

djnoob

Urgestein
Thread Starter
Mitglied seit
03.03.2007
Beiträge
16.392
Ort
Braunschweig
Ist eigentlich die Stromaufnahme einer Grafikkarte abhängig von den angezeigten FPS mit oder ohne eingeschaltetem AA ?

Sprich sollte man besser drauf achten, das man mehr FPS als 30 hat oder ist es gernerell egal, was die Leistungsaufnahme einer Karte angeht oder ist es völlig Irrelevant?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das ist mal ne interessante frage! viele karten fiepen ja auch ab 2000fps aufwärts, also könnte es schon sein das die
framerate irgendwie die leistungsaufnahme beeinflusst!
 
In irgendeiner PCGH ging es mal um Stromsparen/FPS Limiter. Bin mir aber auch net mehr sicher...
 
Ist eigentlich die Stromaufnahme einer Grafikkarte abhängig von den angezeigten FPS mit oder ohne eingeschaltetem AA ?

Der Stromverbrauch steigt bei größerer Auflösung sowie auch bei höheren AA-Stufen (besonders bei SSAA).

Ja bei höheren Frames auch, kann man sehen wenn man mit V-Sync zockt mit 60FPS und ohne 100FPS hat z.b. ;)
 
Zuletzt bearbeitet:
Der Stromverbrauch steigt bei größerer Auflösung sowie auch bei höheren AA-Stufen (besonders bei SSAA).

Ja bei höheren Frames auch, kann man sehen wenn man mit V-Sync zockt mit 60FPS und ohne 100FPS hat z.b. ;)

Das mit dem Vsync ist ne interessante Aussage. Dass muss ich mal ausprobieren.

Ansonsten stimmt es, das es mal in einem PCGH Heft drinne stand.
@bawde: Es spielt eine Rolle ;)
 
@ djnoob: die Differenz wird mit Sicherheit nicht so groß ausfallen wie bei hohen AA-Stufen und komplexen/aufwendigen Berechnungen. Es hängt eben ganz davon ab WAS berechnet und angezeigt wird. Wenn ich einen recht einfachen Hintergrund habe wo 200 FPS erreicht werden und die Karte nicht mal annähernd warm wird, nimmt sie logischerweise weniger Strom auf als wenn ich eine Szene habe wo sie meinetwegen 250 Bilder pro Sekunde anzeigt aber dafür schon mehr belastet wird.
 
Ich denke mal das liegt schon an der Auslastung, wenn du in nem Game 30FPS bekommst dann fiept es halt oder nicht, an der Auslastung kannst du aber nix ändern. Wenn du aber in nem Game 300 FPS bekommen könntest, aber das ganze künstlich auf 60 limitierst, wird die Karte nicht so stark gefordert und du kannst das Fiepen u.U. deshalb reduzieren. Würde mich sehr stark wundern, wenn es tatsächlich was mit den angezeigten FPS zu tun hätte, unabhängig von der geforderten Leistung.
 
mir höherer auflösung und AA sollte die leistungsaufnahme NIEDRIGER als ohne sein


je höher die FPS desto wärmer wird die graka was auf eine höhere Leistungsaufnahme vermutenlässt


warum ? , soweit mir ein EVGA mitarbeiter es erklärt hat liegts daran das bei hohen auflösungen und AA die Rops oder andere sachen "volllaufen" und eben limitieren , dadurch kommt es quasi zu einen "stau" und die grafikkarte lastet sich nicht komplett aus


wen man hingegen viele FPS hat , so sollte die karte "gleichmässig" gut ausgelastet sein --> mehr strom


wäre gerne vom gegenteil überzeugt =D

Edit:

V-Sync bringt nix , da werden die bilder im ausgang schlicht limiert aber net die rechenweise einer grafikkarte
 
Zuletzt bearbeitet:
Selten so einen Blödsinn gelesen!

Wenn du zum Beispiel deinen Fellwürfel am laufen hast, hat dieser eine wesentlich geringere Auflösung als beispielsweise ein Crysis-Benchmarkdurchlauf. Nur wird die Karte beim Fellwürfel wesentlich wärmer und nimmt deutlich mehr Strom auf als beim Crysis Benchmark. Dort ist die Auslastung aller Einheiten nämlich nicht konstant 100%.
Fazit: nicht alleine die erreichten FPS sondern auch die gesamte Auslastung der einzelnen Einheiten ist maßgeblich entscheidend für die Stromaufnahme der Karte.
 
das fiepen liegt definitiv an der fps und nicht an der belastung durch berechnung! spiele gerade die Stalker reihe durch
und da hat man ohne v-synch leider 2-4k fps im menü und es fiept mit zunehmenden frames auch immer lauter! ingame
bei 30-60fps und voller belastung fiept nichts...

ob deswegen der stromverbrauch im menü höher ist? keine ahnung und irgendwie kann/will ich das auch nicht glauben,
aber die scheinbar voll belasteten spulen "fiepen" mir ein anderes lied :fresse:
 
Zuletzt bearbeitet:
Mal ein aktuelles Beispiel von mir:

Dragon Age: Awakening (Gesamtsys inkl. Monitor)

MSAA ~450W
SSAA ~520W

Gerade die AA-Einstellungen machen also einiges aus beim Verbrauch.
 
Ich habe auch gerade den Test gemacht aber mit COD 5

MSAA ~230W
SSAA ~290W

und das mit einer 285 gtx
 

Anhänge

  • image640.jpg
    image640.jpg
    87,7 KB · Aufrufe: 44
  • image641.jpg
    image641.jpg
    86,2 KB · Aufrufe: 46
das ist ja mal extrem heftig...damit hätte ich niemals gerechnet!

mich würde ja mal ein vergleich zwischen 60fps und 2000fps interessieren...wie geschrieben wäre die Stalker reihe dafür wie geschaffen...
 
Höhere Qualität = höherer Rechenaufwand = höhere Auslastung = höherer Verbrauch.

Ist doch nicht viel anders als bei einer CPU :)
 
Ja hat es zum Teil, ohne Qualitätsfeatures entlastet das einbremsen die GPU natürlich dadurch sparsamer, das Thema gab es auch schonmal.

Drehste AA rein in großem Maße relativiert sich das wieder, da die GPU Auslastung durch den Rechenaufwand wieder ansteigt. AA und AF belasten die GPU mehr als einfach nur ein weiteres Bild zu berechnen.
 
Ja hat es zum Teil, ohne Qualitätsfeatures entlastet das einbremsen die GPU natürlich dadurch sparsamer, das Thema gab es auch schonmal.

Drehste AA rein in großem Maße relativiert sich das wieder, da die GPU Auslastung durch den Rechenaufwand wieder ansteigt. AA und AF belasten die GPU mehr als einfach nur ein weiteres Bild zu berechnen.

Danke dir, habe ne menge was dazu gelernt ;).
 
@ djnoob: die Differenz wird mit Sicherheit nicht so groß ausfallen wie bei hohen AA-Stufen und komplexen/aufwendigen Berechnungen. Es hängt eben ganz davon ab WAS berechnet und angezeigt wird. Wenn ich einen recht einfachen Hintergrund habe wo 200 FPS erreicht werden und die Karte nicht mal annähernd warm wird, nimmt sie logischerweise weniger Strom auf als wenn ich eine Szene habe wo sie meinetwegen 250 Bilder pro Sekunde anzeigt aber dafür schon mehr belastet wird.

Im CPU-Limit, sprich meistens bei höheren FPS nimm der Verbrauch der Karte ab, da sie weniger zu tun hat und auf die CPU wartet.
Daher mußte man auch die Graka alleine vermessen, denn der Gesamtstromverbrauch umfasst ja auch die CPU die dann natürlich mehr nimmt und man kein unterschied hinterm NT sieht.
 
Hier, die Herren da oben, dann nicht nur MSAA<-->SSAA, sondern vielleicht auch mal ohne<-->4xAA oder so. Das wäre weitaus interessanter, weil alles darüber findet eher selten Verwendung.

Vielleicht auch mal rein auf AF bezogen, wobei ich mir nicht vorstellen kann, daß es da einen relativ großen Unterschied geben wird.

**€dit: Ach ja und nicht zu vergessen, warum nicht mal 1680x1050 und daneben noch gut vertretene 1280x1024? Oder was anderes? :)
 
Zuletzt bearbeitet:
Ja, so stands im PCGH Artikel - inkl. Verbrauchsmessungen.

Also sagen wir mal die Karte würde ohne VSynch. 200 fps bringen und mit VSynch max. 60 fps - dann würde die Karte mit VSynch spürbar mehr verbrauchen als ohne.

Sie haben sogar einen Link angeboten zu einem fps-Limiter für DX9 Anwendungen.

Ich muss mal gucken, vielleicht hab ich den Artikel noch. Wobei Scans sicher nicht erlaubt sind (auch von alten Exemplaren) ?!
 
Ist ja im Prinzip auch logisch. Die Karte arbeitet am Maximum und gibt soviele Frames wie möglich aus. Gibt es in einer Szene viel zu tun sinkt die Framerate und ich verbrauche pro Frame viel Leistung.

Bei einer wenig komplexen Szene steigt die Framerate natürlich stark an. Der Rechenaufwand und damit auch die Leistung pro Frame sind deutlich niedriger. Wenn ich dann durch FPS-Limit die Framezahl deutlich unter max halte ist die Arbeit des Grafikchips logischerweise niedriger und damit evtl auch sein Verbrauch.

Hinzu kommen noch Folgechips für die Bildausgabe die durch hohe Frames evtl ebenfalls einen höheren Verbrauch aufweisen obwohl sie mit der Berechnung nichts mehr am Hut haben.
 
ja vsync, bzw ein framelimiter senken den verbrauch, teilweise enorm
in der Star Trek Online Beta gabs keinen framelock und es gab viele pcs die dauernd wegen zu hoher graka temperatur abgesemmelt sind (auch welche die crysis z.b. ohne probleme spielen konnten)
mit rivatuner kann man ja die auslastung des gpus in % sehen
bei bad company 2 haben meine beiden gpus ~50-99% auslastung, das ganze mit vsync -> die waermere gpu hat ~51°
bei mass effect 1 spiele ich mit SLIAA und beide gpus haben durchgehend 99% auslastung -> die waerme hat dann ~54°
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh