Aktuelles

890 W Power-Limit: GeForce RTX 3090 Ti verbraucht mehr als 600 W

Bluto

Enthusiast
Mitglied seit
02.12.2005
Beiträge
662
Ort
Hannover
Kommt mir auch nicht in den PC.
„Früher“ reichte der Strom aus dem AGP Slot für nice Grafikergebnisse in Spielen.
Heute geht nur noch die Brechstange.

Hoffe, dass das kein Trend für Konsolen wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

ElBlindo

Legende
Mitglied seit
31.01.2009
Beiträge
10.183
Ort
Dortmund
Kommt mir auch nicht in den PC.
„Früher“ reichte der Strom aus dem AGP Slot für nice Grafikergebnisse in Spielen.

Naja, zu den Zeiten hatte man aber auch noch nicht mal Full HD.^^
 

GeleeBlau

Profi
Mitglied seit
24.08.2021
Beiträge
111
Titan Deluxe Variante mit custom Bios ohne Obergrenze verbaucht viel.
Nächste news: Water is wet
 

bc

Enthusiast
Mitglied seit
22.12.2004
Beiträge
1.308
Stellt euch mal vor ihr habt 2 solche Rechner zuhause und zockt auch noch gleichzeitig, 2x 1KW+ Strom -> da muss man ja aufpassen dass man die an 2 verschiedenen Phasen anschliesst oder die Leitung schmilzt irgendwann :)
 

Infin1tum

Experte
Mitglied seit
26.08.2020
Beiträge
2.715
Man könnte ja auch einfach selbst ein PL setzen. Man muss ja nicht 1kW verbraten beim zocken, nur weil die Karte dazu in der Lage ist.
 

CH4F

Enthusiast
Mitglied seit
18.02.2011
Beiträge
5.760
Ort
Bad Godesberg
Wo ist das Problem? Keiner ist gezwungen eine 600-900 Watt Grafikkarte zu kaufen. Dann kauft man halt einfach eine Karte mit max 450 oder 250 Watt und ist zufrieden. Mein Netzteil liefert ohne Probleme seine 1500 Watt und ist ATX Konform.
Natürlich sind deine 1,5 kW ATX konform, wenn eine Grafikkarte aber bis zu 900W DAUERLast ballert, kann sie extreme Spitzen generieren, bestimmt 25% über die 900W hinaus. Das ist dann nicht mehr wie bei einer 2080 Ti, die statt 240W spikes in 300-320W haben kann. Und das ist imo das brisante daran.
 

lablaka

Experte
Mitglied seit
09.07.2019
Beiträge
366
Gerade zu Zeiten, wo auch Strom sich nicht nur um Centbeträge sondern um Faktoren 2-3 erhöht haben ist diese Entwicklung in meinen Augen nicht tragbar.

Aus deutscher Sicht natürlich schwierig, aber in den meisten entwickelten Ländern kostet Strom 3-16 Cent pro Kilowattstunde und nicht 50 Cent aufwärts.

Die Entwicklung richtet sich nun einmal nicht nach dem einen Land, das während einer Energiekrise seine Atomkraftwerke abschaltet und gleichzeitig günstiges Gas und günstige Kohle aus Russland sanktionieren möchte, obwohl es einen großen Teil unserer verbleibenden Energieversorgung ausmacht.

Sowas kann man machen, wenn man sich über lange Zeit darauf vorbereitet und erneuerbare Energien und Speicher ausreichend ausgebaut hat, wir haben jedoch gar nichts gemacht, sondern laufen sehenden Auges gegen eine Wand.
 
Zuletzt bearbeitet:

Bullseye13

Enthusiast
Mitglied seit
05.05.2015
Beiträge
3.853
Ort
Steiamoak
Jup. An Dummheit kaum zu übertreffen.
 

Techlogi

Legende
Mitglied seit
25.02.2006
Beiträge
11.799
Ort
Lübeck
Stellt euch mal vor ihr habt 2 solche Rechner zuhause und zockt auch noch gleichzeitig, 2x 1KW+ Strom -> da muss man ja aufpassen dass man die an 2 verschiedenen Phasen anschliesst oder die Leitung schmilzt irgendwann :)
Stromkreise sind üblicherweise mit 16A abgesichert, was 3.680W entspricht -> da schmilzt nix.
Schuko bis 10A(?) Dauerlast, 2,4kW Netzteile lassen sich also realisieren und gibt es für OEM Workstations oder Server, z.b. von Dell.
 

Brandur

Profi
Mitglied seit
26.10.2021
Beiträge
435
Also meine 3090Ti peaked (im Gaming) bei 455W und das dann eben natürlich nicht durchgängig. Zumeist liegt der Verbrauch bei 380-390W, was in Anbetracht der Leistung völlig in Ordnung ist. Ähnlich wie der 12900KS, der auch nicht durchgängig 250-300W zieht, wie es so oft dargestellt wird, sondern peaked bei 150W!
Immer die Märchen von dem enormen Stromhunger...ja bei Benchmarks oder harten Workloads, die im real life kaum auftreten!
 

freakyd

Enthusiast
Mitglied seit
03.03.2007
Beiträge
3.845
Ort
Traunstein
380-390W avg. und 455W peak sind nicht völlig in Ordnung, sondern ein schlechter Witz. Gerade in anbetracht der Leistung.
Berücksichtigt man noch die Arch, Anzahl der Shader, Fertigungsverfahren / -größe,... ist Amper (wie Turing)... Müll.
 

Brandur

Profi
Mitglied seit
26.10.2021
Beiträge
435
...*hust* schreibt jemand mit einer 2080Ti und nem 11900k *hust... :ROFLMAO:
 

freakyd

Enthusiast
Mitglied seit
03.03.2007
Beiträge
3.845
Ort
Traunstein
Jepp... UV und bei 250-280W (gedeckelt) :p
 

Zyxx

Urgestein
Mitglied seit
13.07.2010
Beiträge
2.332
Moooment, du schreibst doch auch das das alles nicht so schlimm ist. Dein Sys wird aber durch nen 1500W NT betrieben ;)
 

Brandur

Profi
Mitglied seit
26.10.2021
Beiträge
435
Zuletzt bearbeitet:

Thunderburne

Legende
Mitglied seit
03.10.2006
Beiträge
12.258
Ort
Pampa
Nu ja früher haben wir ja auch schon diese Leistungsaufnahmen gefahren da hieß es halt nur CF/SLI .
Ich weiß noch genau wie mein Mora arbeiten musste bei zwei 580ern mit OC!

Oder 4* HD7970 im Quadfire mein Antec 1200 W lief fast am Anschlag oder die Dual GPU Karten wie HD5970 unter Wasser mit OC
Wen man bedenkt welche Leistung man da hatte und heute mit einer Karte hat oder bekommen wird geht das eigentlich klar !
Muss ja keiner kaufen sowas !
Wenn man sich daran stört muss man sich weiter unten bedienen oder geht gänzlich zu Konsolen über!

AMD könnte ja auch ein gutes Gegenstück mit dem Chipletdesign werden mit vielleicht nur 450 W gegenüber NV mit 600W also Auswahl wird es sicherlich geben im Highend Bereich!


 
Zuletzt bearbeitet:

freakyd

Enthusiast
Mitglied seit
03.03.2007
Beiträge
3.845
Ort
Traunstein
Und 70% weniger Leistung...vom 11900k müssen wir erst gar nicht sprechen...also bitte...don't talk...
Beitrag automatisch zusammengeführt:


Ja war beim Kauf am effizientesten :)
Du bist auch 70% weniger Leistung :shot:

Die einzige Turing die was taugt, ist die
(non-RTX) GTX1660S / Ti. Das stimmt
Leistung und Leistungaufnahme.

Die RTX2xxx / 3xxx sind bei 225-260W
im "sweet spot" Da ist aber das
Leistungsplus zur Vorgängern nicht so hoch.

Also kam man auf die glorreiche Idee:
340-350W, dann 450W and so on... :p

Meine 2080Ti wurde zum richtigen Zeitpunkt
und zum richtigen Preis gekauft.

Nochmal kaufen würde ich diese aber
nicht. Was glaubst wieso keine Ampere
folgte :shot:
 

Brandur

Profi
Mitglied seit
26.10.2021
Beiträge
435
Sorry, bei deinen "Argumenten" kann Dich keiner ernst nehmen...., das ist absolute Sülze!
 

Anhänge

  • troll.jpg
    troll.jpg
    42,1 KB · Aufrufe: 17

pillenkoenig

Experte
Mitglied seit
11.12.2018
Beiträge
1.515
Immer die Märchen von dem enormen Stromhunger...ja bei Benchmarks oder harten Workloads, die im real life kaum auftreten!
Letzteres gilt für jede andere Karte genauso. Damit ist ersteres eben kein Märchen: relativ zu anderen (vorherigen) Karten ist der Stromhunger enorm.
 

Brandur

Profi
Mitglied seit
26.10.2021
Beiträge
435
Wenn diese Karten, welche Du aufführst, die Leistung einer 3090Ti bringen, dann ja, ansonsten nicht!
 

pillenkoenig

Experte
Mitglied seit
11.12.2018
Beiträge
1.515
Ok. Wir verdoppeln die Leistungsaufnahme, da wir ja auch die Rechenleistung verdoppeln ist alles tutti und gar nichts stromhungrig, verstehe ich dich da richtig?
 

Brandur

Profi
Mitglied seit
26.10.2021
Beiträge
435
Verstehe Deine Logik nicht, bin mal raus hier. Good Luck und viel Spaß mit eurer "Hardware" :d!
 

Gerd Weller

Enthusiast
Mitglied seit
09.01.2002
Beiträge
693
Ort
Poppenweiler
Eine Grafikkarte, welche niemand braucht und auch keine Energieprobleme lösen sondern nur verschlechtern kann!
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.183
380-390W avg. und 455W peak sind nicht völlig in Ordnung, sondern ein schlechter Witz. Gerade in anbetracht der Leistung.
Berücksichtigt man noch die Arch, Anzahl der Shader, Fertigungsverfahren / -größe,... ist Amper (wie Turing)... Müll.
RDNA2 ist deutlich effizienter, weil es eine reine Gamingarchitektur ist. NVIDIA kann aber ähnlich effizient werden. Die 2080 Ti lag glaube ich bei um die 300 W bei 2000 MHz und 0,95 V. Das ist noch in Ordnung, meine jetzige Karte schafft aber nochmal rund 50 % mehr Leistung bei gleichem Verbrauch.

Am Ende kommt es immer auf Leistung pro Watt an. Hier sieht man auch gut den Effekt des sweet spot, zum Beispiel sind 6800 und 5700 weit vor ihren jeweiligen Topmodellen. Dabei könnten jene Modelle genauso effizient sein, schließlich ist es die gleiche Generation.
 

ra773

Experte
Mitglied seit
21.11.2016
Beiträge
1.734
Ort
Hamburg
die 3080ti kann man super mit 250-300 Watt betreiben und dabei ist sie nicht so viel langsamer, dass eine 3090ti vermisst werden würde.
ganz im Gegenteil. Das ist ziemlicher Unsinn.
Beitrag automatisch zusammengeführt:

Stromkreise sind üblicherweise mit 16A abgesichert, was 3.680W entspricht -> da schmilzt nix.
Schuko bis 10A(?) Dauerlast, 2,4kW Netzteile lassen sich also realisieren und gibt es für OEM Workstations oder Server, z.b. von Dell.
Du gehst von Deutschland aus.

in USA hat nicht jeder 230v.
Da ist in vielen Bereichen noch 110v gängig.
Da reden viele von Angst vor Kabelbrand.
 

ra773

Experte
Mitglied seit
21.11.2016
Beiträge
1.734
Ort
Hamburg
Ich bin wieder dabei wenn es eine 5070 gibt die bei 250watt doppelte Leistung einer 3080ri bringt.
 

Gurkengraeber

Urgestein
Mitglied seit
10.03.2005
Beiträge
6.449
Ort
Düsseldorf
Also wenn ich zocke, dann auch maximal möglicher Auflösung und Details. Es ist wie gesagt ein Hobby, die Hardware läuft nicht 24/7 mit voller Leistungsaufnahme. Entscheidend ist die Kühlung.

Solange also die Lautstärke in meinem Rechner gamingtauglich bleibt (ohne Kopfhörer), darf die Graka auch gerne 450W oder mehr ziehen.

Es muss natürlich auch Games geben, die man gerne spielt. Aber dabei ist es mir dann wurscht, was das System die 4 bis 8 Stunden die Woche zieht.
 
Oben Unten