stromverbrach 8600gt gtx260 gtx280 4850 4870

john_

Semiprofi
Thread Starter
Mitglied seit
15.08.2005
Beiträge
2.589
Ort
127.0.0.1
wieviel strom verbraucht eine 8600gt, gtx260, gtx280, 4850, 4870 im 2d und wieviel im 3d modus ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn man mit der maus auf eine grafikkarte geht aendert sich bei den anderen grafikkarten die anzeige in % um, und zeigt an wieviel prozent mehr oder weniger die anderen karten im vergleich zu der auf der die maus steht verbrauchen - das ist sehr gut gemacht finde ich

aber ich versteh nicht so ganz warum im 2d modus, also idle, desktop clicken..surfen im web, musik hoeren, usw ... die karten umso groesser sie sind (modelnummer, leistung bei 3d) auch gleich mehr strom verbrauchen

was machen die grossen modelle im idle denn mehr im vergleich zu den kleineren modelen im idle ?
 
Das ist eigentlich recht einfach zu erklären...
Die Anzahl der Transistoren ist bei den größeren Modellen auch ungleich größer und da die meisten Karten im IDLE nunmal nicht komplette Teile der GPU abschalten können, sondern meist nur Spannung und Takt senken, müssen somit auch ohne Last mehr Komponenten versorgt werden. Die schon angesprochene 4670 von ATI kann dank Powerplay2.0 das ganze ziemlich gut, wenn ich nicht irre, können dabei auch ungebrauchte Teile der GPU komplett deaktiviert werden, wodurch die Karte sehr sparsam ist. Wenn bei den größeren 4000er Serie ATI Karten auch irgendwann mal Powerplay2.0 richtig funktionieren würde, wären sie aber auch noch sparsamer.
 
Mehr "machen" tun die größeren Karten im IDLE / 2D Modus nicht ...

Aber wie Luschy0815 schon schreibt muss ja nach wie vor die GPU bzw. die ganze Karte mit Saft versorgt werden. Die größeren Modelle haben demnach eine weitaus stärkere Spannungsversorgung (soviel ich weiß wie bei Mainboards bestehend aus mehreren Phasen) und auch eine größere GPU mit mehr Transistoren. Je nach Technik kann hier der Stromverbrauch gesenkt werden eben durch Abschaltung einzelner Teile in der GPU oder eventuell auch Phasen der Stromversorgung sowie durch heruntertakten der GPU sowie Spannungssenkung. Weiß aber nicht genau welche Karte hier was kann und wie effizient das ist.

Eventuell kann man sich das so vorstellen wie ein Motor ... da braucht ein V8 4.2L auch etwas mehr als ein 4 Zylinder 1.6L im Leerlauf. Der Unterschied wird zwar wesentlich weniger sein als bei Voll-Last aber es ist trotzdem einer da.
 
Ich denke der höhere Stromverbrauch ist auf die nowendige Grundversorgung der größeren Chips herzuführen.
Ein aktives Abschalten diverser GPU-Bereiche sollte schon seit Powerplay 2.0 (AMD/ATI) zu merklicher Stromeinsparung führen, wurde aber bis dato erst bei der 4670 spitzenmäßig umgesetzt.
Wobei ich mir nicht sicher bin, ob hier nicht auch bloß die Spannungen/Taktraten reduziert werden.
 
na dann wirds mal zeit das nvidia sich auch was einfallen laesst teile der gpu ganz abzuschalten, finde das eine wichtige sache mit dem energie verbrauch
oder hat nvidia in dieser richtung schon etwasa angekuendigt ?
 
ich werd mir deswegen aber kein nvidia mainboard mit nvidia chipsatz zulegen
zumal das mit der zweiten grafikkarte abschalten nur unter wiindows und keinem anderen os tut

netter link, da hab ich gleich mal was zum lesen...

habs mich bisher noch nicht getraut auszuprobieren, aber es heisst doch pci-e soll hot plug faehig sein
das wuerde doch bedeuten man kann eine grafikkarte im betrieb reinstecken oder rausziehen, und ich meine auch mal etwas gehoert zuhaben das es pci-express extern (pciee) geben soll
(da war auch mal etwas mit notebooks und externen grafikkarten ueber pci-e)
hat von euch nicht mal jemmand lust zu testen was passiert wenn man eine zweite grafikkarte im betrieb rauszieht oder dazusteckt
 
du willst dann auch jedes mal den Monitorstecker umstecken, oder wie?? ;)
ich würde mir das nochmal überlegen
 
Willst du eigentlich ne Karte kaufen, oder es einfach nur wissen?
Weil der Sprung von 8600GT zu 2x0GTX und 48x0 ist schon recht hoch...
 
mache zur zeit nur theorie
naja, das umstecken sehe ich nicht als problem, mein monitor hat noch einen freien dvi eingang
die frage ist aber ob das wirklich funktioniert mit dem hot plug der pci-e grafikkarte
 
nur um das mal anzumerken, Stromverbrauchsmessungen mit verschiedenen Grafikkarten sind total fürn Po, wenn das Gesamtsystem gemessen wird.
Erstens spielt der Wirkungsgrad mit rein, zweitens ist nie gesichert, das die CPU oder andere Teile des Rechners immer identische Leistung verbrauchen usw.

schau mal auf xbitlabs.com, dort findest du Strommessungen der Grafikkarte alleine...
Die Werte entsprechen ziemlich genau dem, was die Grafikkarte wirklich an Strom benötigt...
Bei Karten ala HD4870 X2 oder auch der 9800GX2 sind die Werte aber minimal mit Vorsicht zu genießen, in der Praxis kann das doch noch ein wenig höher werden. Einfach aus dem Grund, da dehnen ihr Testrechner für den Sromverbrauch nicht der schnellste ist und die Grafikkarte ggf. ab einer gewissen Leistung einfach CPU limitiert ist und somit einfach nicht mehr voll ausgelastet wird.

Ansonsten bis einschließlich einer 280GTX sollten die Werte aber stimmen.
 
Die handelsüblichen Grafikkarten sind denke ich nicht Hot Plug fähig da diese auch einen extra Stromanschluss haben. Ich hab' hier im Forum schon gelesen daß Leute die an Ihrem PC herumgeschraubt haben und die Graka mit angestecktem Stromstecker - aber nicht eingesteckt in den Slot diese beim Einschalten gegrillt haben.

Aber ich denke daß es eventuell gerade im Server Sektor einige PCI-E 1x oder 4x Karten gibt die Hot Plug fähig sind. Etwa Controllerkarten / Netzwerkkarten oder sowas in der Art.

Falls hier wer genauere Infos hat - immer her damit.

Beim Notebook ist der aktuelle ExpressCard Slot an einen PCI-E 1x angebunden. Sprich hier funktioniert Hot Plug bereits. Die externe Notebook Graka die da rauskommen soll wird aber soviel ich weiß nicht per ExpressCard Slot angesteckt - sondern mittels eigenen Anschluss (der wohl schneller als PCI-E 1x ist ... also eher 4x oder gar 8x)
 
Wenn ihr von dieser ASUS Station sprecht, die wird nicht released ;)
War auch nur mit PCIe 1x angebunden. Was ähnliches gibts auch von Magma (so wars glaub ich). Von Expresscard zu PCIe 16x@1x. Kostet aber glaub ich auch 250$ oder was in der Größenordnung.


greeetz Philipp

€dit:
Hier der Link zu dem Magma Teil:
Klick mich! Oder nicht xD
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh