Aktuelles

Weitere Gerüchte: GeForce RTX 4070 bekommt womöglich nur 10 GB VRAM

Gurkengraeber

Urgestein
Mitglied seit
10.03.2005
Beiträge
6.361
Ort
Düsseldorf
Immer hübsch nachdenken. Dein Anbieter kann dieses Jahr noch auf den Vertrag bauen. Ab 2023 wird das anders aussehen. Und dann zahlst auch du mehr. Je nachdem wie lange sein Einkaufspreis festgesetzt ist.
Beitrag automatisch zusammengeführt:


Dann beschäftige dich mal mit dem was wichtig ist.

Die dumme Merkel hat unsere sichersten Atom Kraftwerke einfach abschalten lassen, weil am anderen Ende der Welt ein Tsunami ein Kraftwerk beschädigt hatte.

Danach kamen sie auf die CO2 Lüge und seitdem wird immer mehr abgeschaltet.
Wir kaufen seit dem aus Frankreich und Polen Atomstrom teuer ein.
Die Scheiße mit Strom aus Wind und Sonne taugt auch nix.

Wird dir jetzt langsam klar, warum es so teuer ist und das es noch viel teuerer wird?
Nee is klar, die dumme Merkel. Das hat sie nur getan weil der Druck von den ganzen Grünen Flachzangen (und damit meine ich jetzt nicht die Partei) so groß geworden ist. Wollten doch alle so. Besonders unsere ach so informierten Teenager, die inzwischen ja auch volljährig sind. Aber das ist off topic.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

cRaZy-biScuiT

Enthusiast
Mitglied seit
07.05.2006
Beiträge
2.760
Warum die Karten künstlich zwischen 75W und 300W begrenzen? Im Grunde kannst du doch auch jetzt Karten in der Region kaufen. Aber nichts mehr darüber Anbieten, obwohl es möglich wäre, ist doch Profit Verschwendung. Gibt auch immer noch welche denen das egal ist. Und wenn ich den Leuten dann noch mehr Geld aus der Tasche ziehen kann, dann mache ich das doch als Firma die Geld verdienen will :)
Am oberen Ende haste eben diese Karten die 10% mehr Performance mit 40% mehr TDP und 40% höherem Preis bieten. Im Grunde ist das doch alles schon außerhalb der Spezifikation, man überreizt die Technologie eigentlich. TDP ist im Endeffekt nichts weiter als Verlustleistung. Ergo: Die Systeme sind einfach verdammt ineffizient.
 

Liesel Weppen

Experte
Mitglied seit
20.07.2017
Beiträge
4.533
Also meine 6900xt mit 300W TDP zieht zwar in Spitzen für wenige Millisekunden (falls überhaupt milli) tatsächlich mal bis zu 350W, aber im Durchschnitt eher nur so 100-200W (in UWQHD).
Reminder an mich: Wenn ich Folding@Home auf CPU und GPU (unter Linux) laufen lasse und das Powertarget der 6900xt auf 255W erhöhe (mehr geht unter Linux ohne Hacks nicht), zieht das Gesamtsystem zwischen 450 und 480W.
In Spielen komme ich nicht auf wirklich auf solche Werte, schon gar nicht kostant.

Ich bleibe also dabei: Die TDP oder auch die maximale Leistungsaufnahme einer Grafikkarte ist ziemlich egal, solange man die natürlich nicht unbeschränkt (sofern nicht durch andere sich ergebende Bremsen ohnehin "unfreiwillig" gedrosselt) und sinnfrei immer aus dem letzten Loch röcheln lässt.

Und daraus ergibt sich selbstverfreilich wiedermal die Effizienzfrage, die aber irgendwie immer ignoriert und auch nicht wirklich angegeben wird. Wenn die eine GPU bei 100W die gleiche Leistung liefert wie eine andere GPU bei 200W, dann nehm ich natürlich die mit 100W und bezahle sogar gerne noch mehr dafür, obwohl es "nur" die gleiche Leistung ist.

Sofern jemandem der Stromverbrauch nicht eh komplett egal ist, lohnt sich auch z.B. ein Upgrade von einer 980ti auf eine 3060. Hat zwar (auf die schnelle ergooglet) "nur" 20% mehr Leistung, aber halt auch statt 250W TDP auch "nur" 170W TDP.
 

exi78

Urgestein
Mitglied seit
06.12.2006
Beiträge
2.448
Ort
C:\
Wenn man es so betrachtet unser Wohnzimmer-PC mit 10400F + RX6800 ist momentan wieder an unserem alten FHD 60Hz Plasma angeschlossen, mit 60Hz VSync zieht die Kiste ca. 100-120 Watt Gesamtleistung aus der Dose. Das ist nicht gerade viel, da wird die Kiste auch kaum warm.
 

Gurkengraeber

Urgestein
Mitglied seit
10.03.2005
Beiträge
6.361
Ort
Düsseldorf
Meiner kann auch nur 60Hz, da reichte selbst ne 2060Super in vielen Spielen. Aber die Technik entwickelt sich weiter, der nächste hat dann schon 120Hz oder 160+.
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.137
Die dumme Merkel hat unsere sichersten Atom Kraftwerke einfach abschalten lassen, weil am anderen Ende der Welt ein Tsunami ein Kraftwerk beschädigt hatte.

Danach kamen sie auf die CO2 Lüge und seitdem wird immer mehr abgeschaltet.
Wir kaufen seit dem aus Frankreich und Polen Atomstrom teuer ein.
Die Scheiße mit Strom aus Wind und Sonne taugt auch nix.

Wird dir jetzt langsam klar, warum es so teuer ist und das es noch viel teuerer wird?
Das Geile ist ja dass für den Aufbau der Windräder die Waldwege zerstört wurden und diese Windräder im Naturschutzgebiet nun nur nachts laufen dürfen. Jetzt kostet eine kwh eben 36 statt 24 Cent, dabei habe ich einen verdammt "günstigen" Tarif. Es gibt Leute die schon 50 - 60 Cent zahlen. Trotzdem werde ich weiter zocken, sinnvoller ist es da in energiesparende Geräte zu investieren, zB beim Kühlschrank, Waschmaschine usw.

Da hat sich die Technik sehr gut entwickelt, man bekommt sehr günstig Modelle mit A+(++). Auf was anderes als LEDs würde ich im Heimbereich auch nicht mehr setzen. Auch keine "Energiesparlampen" und Röhren. Die LEDs dürften denen in so ziemlich jeder Hinsicht überlegen sein. Beim PC reicht es einen Framelimiter zu nutzen, vor allem bei High-End-Modellen. Nicht immer spielt man die neuesten Grafikkracher, bei alten Spielen produzieren solche Systeme dann unnötig hohe FPS. Ich denke da vor allem zuerst an die Hardware, die durch jede thermische Belastung abnutzt, nicht nur den Strom. Schon alleine deshalb lohnt sich das Undervolten.
 

Gurkengraeber

Urgestein
Mitglied seit
10.03.2005
Beiträge
6.361
Ort
Düsseldorf
Ich denke da vor allem zuerst an die Hardware, die durch jede thermische Belastung abnutzt, nicht nur den Strom. Schon alleine deshalb lohnt sich das Undervolten.
Du meinst weil die Komponenten ohne undervolten dann statt zwanzig Jahren nur 239 Monate halten?
 

Schori

Experte
Mitglied seit
14.04.2017
Beiträge
245
10 GB wäre IMHO zu wenig für die Leistungsklasse. Wenn man davon ausgeht, dass die RTX 4070 auf dem Niveau einer 3080 ist und diese in UHD schon den VRAM sprengt, sollte auch Nvidia mehr VRAM spendieren. Teuer werden die Karten so oder so.
 

freakyd

Enthusiast
Mitglied seit
03.03.2007
Beiträge
3.599
Ort
Traunstein
Selbst mit 8GB VRAM werden diese wie blöd gekauft :lol:

Aus Verzweiflung greifen manche zu 4080 oder höher :shot:
 

Falo999

Enthusiast
Mitglied seit
08.08.2016
Beiträge
2.457
Ich finde die 8/10 GB durchaus richtig.
Schon vor 2 Jahren als rauskam das die 3060TI/3070 nur 8GB und die 3080 nur 10GB bekommen wird wurde hier schon darüber gezetert.
Jetzt 2 Jahre später gibt es immer noch keine wirklichen Einschränkungen durch die 8/10GB auch bei den neusten Spielen.
Klar kann man den Ram vollbekommen aber nicht so das man wirklich nenneswerte Einschränkunden dadurch hat, und für die User die wirklich die Games auf 4K mit viele Mods und maximalen einstellungen laufen lassen wollen gibt es ja auch Karten mit mehr Ram.
Aber vermutlich 99% der User werden nie eine nenneswerte Einschränkung durch die 8/10GB erfahren.
Warum sollen dann 99% der User den zusätzlichen Ram bezahlen den nur 1% der User auch wirklich benötigen.
 

HisN

Legende
Mitglied seit
09.06.2006
Beiträge
31.456
@Falo999
Was ist, wenn die „nennenswerten“ Einschränkungen nur gerne übersehen werden? Moderne Engines sind Meister darin Details wegzulassen oder nicht die höchsten Texturauflösungen zu laden, weil bei vielen Usern „nennenswert“ erst bei Ruckler gegeben ist.
Dann ist es nur Selbstbeschiss zu erzählen „aber hier reichen 8/10GB“ völlig aus, weil man von der Engine verarscht wird.
 

Falo999

Enthusiast
Mitglied seit
08.08.2016
Beiträge
2.457
Was ist, wenn die „nennenswerten“ Einschränkungen nur gerne übersehen werden? Moderne Engines sind Meister darin Details wegzulassen oder nicht die höchsten Texturauflösungen zu laden, weil bei vielen Usern „nennenswert“ erst bei Ruckler gegeben ist.
Wenn das so wirklich so deutlich feststellbar wäre würde es doch schon hunderte von Test/Videos/Screenshots geben wo man die Unterschiede in der Bildqualität zwischen einer 8GB Low Ram und 16/24GB High Ram GPU aufzeigen würde.
 

HisN

Legende
Mitglied seit
09.06.2006
Beiträge
31.456
Naja, wenn Du keine 16/24GB-Karte hast, um zu sehen das es "besser" gehen würde. Wie willst Du dann was deutlich sehen?
Wer soll denn die hunderte Tests/Videos/Screenshots machen. Wer hat die Zeit dafür? Bestimmt nicht irgendwelche Gaming-Hardware-Online-Redakteure.





Wie gesagt, die Engines sind Meister daran lieber etwas Bildqualität einzusparen als FPS-Drops zu erzeugen.
Aber vielleicht willst Du ja darauf hinaus?
Es gibt sicherlich viele User, denen ist es Scheissegal wie das Bild aussieht, hauptsache sie können so schnell als möglich jemanden umballern, und am besten man hat noch Ultra eingestellt^^
 
Zuletzt bearbeitet:

SickPuppet

Profi
Mitglied seit
08.11.2019
Beiträge
207
sinnvoller ist es da in energiesparende Geräte zu investieren, zB beim Kühlschrank, Waschmaschine usw.

dabei aber bitte die anschaffungskosten für das neuere energie-effizientere gerät nicht untern tisch fallen lassen
wenn das "alte" gerät grundsätzlich noch funktioniert und gut/ok ist dann lieber noch ne weile weiter nutzen anstatt was neueres anzuschaffen
muss man halt durchrechnen womit man günstiger fährt

aber geld in energiesparende geräte stecken wenn die weniger energiesparenden geräte noch funktionieren ist nicht immer sinnvoll

zu den neuen grafikkarten, erstmal für mich egal, hab ne 2070 und die wird noch ne weile laufen, einzig der sohn braucht ne neue und da peil ich aktuell ne 3070 oder 3070 ti an, auf die 40xx wollen/können wir nicht weiter warten und die preise für die entsprechenden 40xx karten werden wohl ähnlich wie die aktuellen preise oder erstmal wahrscheinlich um einiges höher ausfallen
 
Oben Unten