Weitere Gerüchte: GeForce RTX 4070 bekommt womöglich nur 10 GB VRAM

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.372
geforcertx3090ti-fe.jpg
NVIDIAs GeForce-RTX-40-Grafikkarten-Serie wird in diesem Jahr ihr Debüt feiern und basiert auf der Ada-Lovelace-Architektur. Dabei wird allem Anschein nach die GeForce RTX 4090 den Anfang machen und bekommt mit der AD102-GPU den größten Chip spendiert. Darunter siedeln sich zunächst die GeForce RTX 4080 und die GeForce RTX 4070 an. Bei Letzterer zeigt sich, dass NVIDIA diese mit lediglich 10 GB VRAM ausstatten möchte.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Immerhin 2 GB mehr als bei der 3070 und da hat es (bei mir in 1440p) bisher auch gereicht.

Also mal keine Panik.
 
nur das eine 4070 dann auch eine 3080ti wäre.

es wird für den großteil wieder reichen aber irgendwie nervig ist das schon

durchweg 12gb hätten nicht geschadet und die 4080/ti dann mit 16
 
12GB dann mit der 4070 -super ;)
 
Oder eben als GeForce RTX 4070 Ti. Wenn diese dann 12 GB VRAM haben sollte, müsste der Speicher dann mit 192 Bit angebunden werden.
 
Oder eben als GeForce RTX 4070 Ti. Wenn diese dann 12 GB VRAM haben sollte, müsste der Speicher dann mit 192 Bit angebunden werden.
Ne, kann nvidia ja auch krumm anbinden. Dann sind es eben 10+2 gb wie damals bei der 780er oder welche es war. Das know how haben die also
 
Es war die GeForce GTX 970, aber ich denke nicht, dass NVIDIA soetwas noch einmal vollziehen wird.
 
Mal schauen ob sie mit der 4080 echt auf GDDR6 ohne X gehen :fresse:
 
Ich glaube da reicht mir meine 3080 doch noch was :)
 
Unfair! Ich will lieber wieder 8 GB! Nvidia, Linus und GN haben gesagt dass die für viele Jahre reichen werden!
Diese massive Erhöhung von VRAM kann doch keiner bezahlen und braucht auch keiner!*

*Jegliche Tests die anderes zeigen sind ganz offensichtlich FAKE!
 
Zuletzt bearbeitet:
Aufgrund der ganzen GPU-Knappheit hab ich mich jetzt ein ganzes Weilchen aus diesem Bereich rausgehalten, aber was genau ist denn eigentlich mit dem Stromverbrauch passiert? 300W TDP bei der 4070? Hatten Karten in dem Bereich nicht früher immer so 150 - maximal 200W TDP? Wie soll man sowas denn anständig kühlen, ohne auf Wasserkühlung zu gehen? Also wenn ich mir so die 4080 mit 420W TDP + CPU und so anschaue....aiaiai.
 
Die 3090ti hat doch gezeigt das man das per Luft kühlen kann.
 
Leistungstechnisch dürfte sich die 4070 dann wohl irgendwo um die 3080 einordnen, oder was denkt ihr? Kann mir gut vorstellen, dass die UVP irgendwo bei 599,- landet.
Aufgrund der ganzen GPU-Knappheit hab ich mich jetzt ein ganzes Weilchen aus diesem Bereich rausgehalten, aber was genau ist denn eigentlich mit dem Stromverbrauch passiert? 300W TDP bei der 4070? Hatten Karten in dem Bereich nicht früher immer so 150 - maximal 200W TDP? Wie soll man sowas denn anständig kühlen, ohne auf Wasserkühlung zu gehen? Also wenn ich mir so die 4080 mit 420W TDP + CPU und so anschaue....aiaiai.
Ja, eine 3070 liegt mit 220W deutlich darunter. Wenn der Kühlerkörper groß genug ist und die Lüfter genug Volumen bewegen geht das schon. Mit der 3080 benötigte ich jedenfalls über den Winter hinweg keine Heizung im PC Zimmer. 😅
 
Aufgrund der ganzen GPU-Knappheit hab ich mich jetzt ein ganzes Weilchen aus diesem Bereich rausgehalten, aber was genau ist denn eigentlich mit dem Stromverbrauch passiert? 300W TDP bei der 4070? Hatten Karten in dem Bereich nicht früher immer so 150 - maximal 200W TDP? Wie soll man sowas denn anständig kühlen, ohne auf Wasserkühlung zu gehen? Also wenn ich mir so die 4080 mit 420W TDP + CPU und so anschaue....aiaiai.
Also karten die bisher die leistung einer theoretischen 4070 hatten, haben nie nur 200W gebraucht. Mit der rtx 1080 Ti bräuchtest du 800W und stickstoffkühlung um dieselbe leistung zu erreichen, wenn überhaupt.
 
Die 3090ti hat doch gezeigt das man das per Luft kühlen kann.
zu welchem preis? :rolleyes2:
Beitrag automatisch zusammengeführt:

Also karten die bisher die leistung einer theoretischen 4070 hatten, haben nie nur 200W gebraucht. Mit der rtx 1080 Ti bräuchtest du 800W und stickstoffkühlung um dieselbe leistung zu erreichen, wenn überhaupt.
wenn du so argumentierst, dann sind wir in 3 jahren bei 1,5kw. will man das?!
 
zu welchem preis? :rolleyes2:
Beitrag automatisch zusammengeführt:


wenn du so argumentierst, dann sind wir in 3 jahren bei 1,5kw. will man das?!
Wenn ich dafür die leistung kriege, für die ich heute 4KW rauspusten müsste, dann wäre es eine überlegung wert.

Letzendlich entscheidet der kunde, und man kann der karte ja auf das WATT genau sagen wieviel sie ziehen darf.
 
nach deiner logik wird zocken zum luxusgut. strompreise sind in 3 jahren nochmals ne ecke höher.
interessante gedanken, aber nichts für mich. mehr als 200w darf eine karte nicht ziehen. ausnahmen darf es gerne geben, aber bitte nicht im midrangebereich.
der stromverbrauch der 3070 ist ja noch gangbar. eine 4070 mit 300w. never!
 
Das wäre tatsächlich mehr als lächerlich mit 10GB…kann und will ich aber noch nicht glauben.

16GB sollte Ende 2022 auch mindestens die 4070 erhalten.

Zum Thema Strom:
Ganz witzig, heute von Vattenfall die Benachrichtigung erfahren das mein Strompreis aufgrund des Wegfalls der EEG Umlagen günstiger wird und ich nur noch 58€ im Monat für 2100kwh bezahlen muss.

Irgendwie ist das alles andere als beängstigend oder gar ansatzweise existenzbedrohend für mich, so viel habe ich auch schon vor 5-7 Jahren bezahlt…
 
Zuletzt bearbeitet:
Für ne 70er doch voll ok? Verstehe da das "nur" nicht.
 
Dieses Kaffeesudlesen der Tech-Twitteria auf das sich alle Hardwareportale und deren Userbase stürzen wie Fliegen auf frischen Biomüll nervt schon fast so sehr wie die Spekulationen und Gerüchte um GTA 6.

Abwarten und Tee trinken wie es so schön heißt, oder reicht die Zeit zwischen offizieller Ankündigung und Release wirklich nicht um sich ein Bild machen zu können für die eigene Kaufentscheidung?
 
gestern eine 3080 für Fr. 600.- mit zähneknirschendem Downgrade von 1gb VRAM gekauft mit Gedanken ein Uprade auf 4070 mit mageren 12 Gb. Aber 10 Gb ganz sicher nicht nochmals, es wäre ihnen aber zuzutrauen, wir haben ja jetzt 2Gb mehr als beim Vorgänger, wobei 6GB Differenz zur 4080 so viel wie noch nie wäre. Dann wirds für mich je nach Preisen die 3080ti mit 85% Powerlimit Betrieb oder die 4080 werden.

160Gbs Bandbreite, 10GB und N4 Prozess mit 300 Watt kann ich mir beim besten willen nicht vorstellen., die darf doch nicht mehr wie die 3070 220 Watt saufen.
Mir reicht die 3080er solange kein möglicher Game brainer kommt oder ich nicht auf den OLED 34" Zoll umsteige. Dual Fan Karte lauft auf 85% Power ca 25% mehr Fps wie
2080ti, 69grad und 59% Fan . Tip top für nen 50.-er Aufpreis
 
Zuletzt bearbeitet:
Sollen Sie machen. Solange Midrange ala 70er mit 300W TDP und High End ala 80er Ti mit 450W+
daher kommen, können Sie gerne die GPUs sonst wo stecken. Da ist der VRAM das kleinste Übel :p
 
Bitte nicht die eigenen Ansprüche nach unten schrauben, davon hat doch niemand was…
LoL. Ist ne Meinung genau wie Deine. 10GB reichen für ne 4070 und gut is. Wenn Du das anders siehst, dann bitte. Noch eine "3060 12GB" Karte brauche ich nicht.

Wichtig ist, dass die wirklich potenten 4K Karten, also ab 4080 aufwärts mit genug VRAM versorgt werden. Also in der Querfinanzierung lieber bei der 4070 2GB weniger und dafür bei der 3080/3080Ti 2GB mehr. Bzw. je nach Speicheranbindung halt 4/6 GB mehr.
 
Kann ich mit leben, man wird sehen was NVidia davon hält. Ist ja am Ende auch ne Upselling Strategie. ;)
 
Stellt mal im lowcost Segment von 700€ nicht solche Ansprüche. Die Aktionäre wollen auch leben.
1700? Da wird die Reise nämlich hingehen. Bei der TDP kann einem Übel werden. 300 W für eine X70... AMD könnte dieses mal richtig reinhauen wenn die Effizienz ähnlich gut wie bei RDNA2 wird.
 
Wenn die 4090 450W haben sollte dann hat die 4080 auf keinen Fall 420W.
Wen die die doch 420 hat dann hat die 4090 ehr die 600W.
384 Bit Si vs 256 Si und 16 vs 24 GB 10000 vs 16000 shader und dann nur 30 W Differenz wohl ehr auf keinen Fall!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh