Aktuelles

Weitere Gerüchte: GeForce RTX 4070 bekommt womöglich nur 10 GB VRAM

Thread Starter
Mitglied seit
06.03.2017
Beiträge
65.605
geforcertx3090ti-fe.jpg
NVIDIAs GeForce-RTX-40-Grafikkarten-Serie wird in diesem Jahr ihr Debüt feiern und basiert auf der Ada-Lovelace-Architektur. Dabei wird allem Anschein nach die GeForce RTX 4090 den Anfang machen und bekommt mit der AD102-GPU den größten Chip spendiert. Darunter siedeln sich zunächst die GeForce RTX 4080 und die GeForce RTX 4070 an. Bei Letzterer zeigt sich, dass NVIDIA diese mit lediglich 10 GB VRAM ausstatten möchte.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Roach13

Computersüchtig
Mitglied seit
17.07.2004
Beiträge
26.296
Ort
Laupheim
Immerhin 2 GB mehr als bei der 3070 und da hat es (bei mir in 1440p) bisher auch gereicht.

Also mal keine Panik.
 

Scrush

Legende
Mitglied seit
31.12.2008
Beiträge
45.592
Ort
FFM
nur das eine 4070 dann auch eine 3080ti wäre.

es wird für den großteil wieder reichen aber irgendwie nervig ist das schon

durchweg 12gb hätten nicht geschadet und die 4080/ti dann mit 16
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
34.087
12GB dann mit der 4070 -super ;)
 

FM4E

Redakteur Golf-Fahrer
Hardwareluxx Team
Mitglied seit
15.01.2007
Beiträge
15.543
Ort
Oberbayern
Oder eben als GeForce RTX 4070 Ti. Wenn diese dann 12 GB VRAM haben sollte, müsste der Speicher dann mit 192 Bit angebunden werden.
 

Richard88

Experte
Mitglied seit
05.11.2020
Beiträge
1.515
Oder eben als GeForce RTX 4070 Ti. Wenn diese dann 12 GB VRAM haben sollte, müsste der Speicher dann mit 192 Bit angebunden werden.
Ne, kann nvidia ja auch krumm anbinden. Dann sind es eben 10+2 gb wie damals bei der 780er oder welche es war. Das know how haben die also
 

FM4E

Redakteur Golf-Fahrer
Hardwareluxx Team
Mitglied seit
15.01.2007
Beiträge
15.543
Ort
Oberbayern
Es war die GeForce GTX 970, aber ich denke nicht, dass NVIDIA soetwas noch einmal vollziehen wird.
 

bobby

Urgestein
Mitglied seit
04.10.2008
Beiträge
1.831
Ort
Würzburg
Mal schauen ob sie mit der 4080 echt auf GDDR6 ohne X gehen :fresse:
 

Tremendous

Der mit der AK tanzt
Mitglied seit
04.03.2008
Beiträge
3.214
Ort
Hannover
Ich glaube da reicht mir meine 3080 doch noch was :)
 

Cool Hand

Enthusiast
Mitglied seit
03.04.2010
Beiträge
2.733
Unfair! Ich will lieber wieder 8 GB! Nvidia, Linus und GN haben gesagt dass die für viele Jahre reichen werden!
Diese massive Erhöhung von VRAM kann doch keiner bezahlen und braucht auch keiner!*

*Jegliche Tests die anderes zeigen sind ganz offensichtlich FAKE!
 
Zuletzt bearbeitet:

Boogeyman1301

Experte
Mitglied seit
20.02.2015
Beiträge
3.586
Aufgrund der ganzen GPU-Knappheit hab ich mich jetzt ein ganzes Weilchen aus diesem Bereich rausgehalten, aber was genau ist denn eigentlich mit dem Stromverbrauch passiert? 300W TDP bei der 4070? Hatten Karten in dem Bereich nicht früher immer so 150 - maximal 200W TDP? Wie soll man sowas denn anständig kühlen, ohne auf Wasserkühlung zu gehen? Also wenn ich mir so die 4080 mit 420W TDP + CPU und so anschaue....aiaiai.
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
34.087
Die 3090ti hat doch gezeigt das man das per Luft kühlen kann.
 

don_el

Profi
Mitglied seit
18.06.2021
Beiträge
251
Leistungstechnisch dürfte sich die 4070 dann wohl irgendwo um die 3080 einordnen, oder was denkt ihr? Kann mir gut vorstellen, dass die UVP irgendwo bei 599,- landet.
Aufgrund der ganzen GPU-Knappheit hab ich mich jetzt ein ganzes Weilchen aus diesem Bereich rausgehalten, aber was genau ist denn eigentlich mit dem Stromverbrauch passiert? 300W TDP bei der 4070? Hatten Karten in dem Bereich nicht früher immer so 150 - maximal 200W TDP? Wie soll man sowas denn anständig kühlen, ohne auf Wasserkühlung zu gehen? Also wenn ich mir so die 4080 mit 420W TDP + CPU und so anschaue....aiaiai.
Ja, eine 3070 liegt mit 220W deutlich darunter. Wenn der Kühlerkörper groß genug ist und die Lüfter genug Volumen bewegen geht das schon. Mit der 3080 benötigte ich jedenfalls über den Winter hinweg keine Heizung im PC Zimmer. 😅
 

Richard88

Experte
Mitglied seit
05.11.2020
Beiträge
1.515
Aufgrund der ganzen GPU-Knappheit hab ich mich jetzt ein ganzes Weilchen aus diesem Bereich rausgehalten, aber was genau ist denn eigentlich mit dem Stromverbrauch passiert? 300W TDP bei der 4070? Hatten Karten in dem Bereich nicht früher immer so 150 - maximal 200W TDP? Wie soll man sowas denn anständig kühlen, ohne auf Wasserkühlung zu gehen? Also wenn ich mir so die 4080 mit 420W TDP + CPU und so anschaue....aiaiai.
Also karten die bisher die leistung einer theoretischen 4070 hatten, haben nie nur 200W gebraucht. Mit der rtx 1080 Ti bräuchtest du 800W und stickstoffkühlung um dieselbe leistung zu erreichen, wenn überhaupt.
 

hardtech

Urgestein
Mitglied seit
05.01.2008
Beiträge
15.820
Die 3090ti hat doch gezeigt das man das per Luft kühlen kann.
zu welchem preis? :rolleyes2:
Beitrag automatisch zusammengeführt:

Also karten die bisher die leistung einer theoretischen 4070 hatten, haben nie nur 200W gebraucht. Mit der rtx 1080 Ti bräuchtest du 800W und stickstoffkühlung um dieselbe leistung zu erreichen, wenn überhaupt.
wenn du so argumentierst, dann sind wir in 3 jahren bei 1,5kw. will man das?!
 

Richard88

Experte
Mitglied seit
05.11.2020
Beiträge
1.515
zu welchem preis? :rolleyes2:
Beitrag automatisch zusammengeführt:


wenn du so argumentierst, dann sind wir in 3 jahren bei 1,5kw. will man das?!
Wenn ich dafür die leistung kriege, für die ich heute 4KW rauspusten müsste, dann wäre es eine überlegung wert.

Letzendlich entscheidet der kunde, und man kann der karte ja auf das WATT genau sagen wieviel sie ziehen darf.
 

hardtech

Urgestein
Mitglied seit
05.01.2008
Beiträge
15.820
nach deiner logik wird zocken zum luxusgut. strompreise sind in 3 jahren nochmals ne ecke höher.
interessante gedanken, aber nichts für mich. mehr als 200w darf eine karte nicht ziehen. ausnahmen darf es gerne geben, aber bitte nicht im midrangebereich.
der stromverbrauch der 3070 ist ja noch gangbar. eine 4070 mit 300w. never!
 

ssj3rd

Urgestein
Mitglied seit
31.10.2006
Beiträge
2.361
Ort
Hannover / Seelze
Das wäre tatsächlich mehr als lächerlich mit 10GB…kann und will ich aber noch nicht glauben.

16GB sollte Ende 2022 auch mindestens die 4070 erhalten.

Zum Thema Strom:
Ganz witzig, heute von Vattenfall die Benachrichtigung erfahren das mein Strompreis aufgrund des Wegfalls der EEG Umlagen günstiger wird und ich nur noch 58€ im Monat für 2100kwh bezahlen muss.

Irgendwie ist das alles andere als beängstigend oder gar ansatzweise existenzbedrohend für mich, so viel habe ich auch schon vor 5-7 Jahren bezahlt…
 
Zuletzt bearbeitet:

Gurkengraeber

Urgestein
Mitglied seit
10.03.2005
Beiträge
6.360
Ort
Düsseldorf
Für ne 70er doch voll ok? Verstehe da das "nur" nicht.
 

Gejmar

Semiprofi
Mitglied seit
19.07.2021
Beiträge
38
Dieses Kaffeesudlesen der Tech-Twitteria auf das sich alle Hardwareportale und deren Userbase stürzen wie Fliegen auf frischen Biomüll nervt schon fast so sehr wie die Spekulationen und Gerüchte um GTA 6.

Abwarten und Tee trinken wie es so schön heißt, oder reicht die Zeit zwischen offizieller Ankündigung und Release wirklich nicht um sich ein Bild machen zu können für die eigene Kaufentscheidung?
 

EcOnOmiC

Experte
Mitglied seit
19.10.2013
Beiträge
24
gestern eine 3080 für Fr. 600.- mit zähneknirschendem Downgrade von 1gb VRAM gekauft mit Gedanken ein Uprade auf 4070 mit mageren 12 Gb. Aber 10 Gb ganz sicher nicht nochmals, es wäre ihnen aber zuzutrauen, wir haben ja jetzt 2Gb mehr als beim Vorgänger, wobei 6GB Differenz zur 4080 so viel wie noch nie wäre. Dann wirds für mich je nach Preisen die 3080ti mit 85% Powerlimit Betrieb oder die 4080 werden.

160Gbs Bandbreite, 10GB und N4 Prozess mit 300 Watt kann ich mir beim besten willen nicht vorstellen., die darf doch nicht mehr wie die 3070 220 Watt saufen.
Mir reicht die 3080er solange kein möglicher Game brainer kommt oder ich nicht auf den OLED 34" Zoll umsteige. Dual Fan Karte lauft auf 85% Power ca 25% mehr Fps wie
2080ti, 69grad und 59% Fan . Tip top für nen 50.-er Aufpreis
 
Zuletzt bearbeitet:

freakyd

Enthusiast
Mitglied seit
03.03.2007
Beiträge
3.597
Ort
Traunstein
Sollen Sie machen. Solange Midrange ala 70er mit 300W TDP und High End ala 80er Ti mit 450W+
daher kommen, können Sie gerne die GPUs sonst wo stecken. Da ist der VRAM das kleinste Übel :p
 

Gurkengraeber

Urgestein
Mitglied seit
10.03.2005
Beiträge
6.360
Ort
Düsseldorf
Bitte nicht die eigenen Ansprüche nach unten schrauben, davon hat doch niemand was…
LoL. Ist ne Meinung genau wie Deine. 10GB reichen für ne 4070 und gut is. Wenn Du das anders siehst, dann bitte. Noch eine "3060 12GB" Karte brauche ich nicht.

Wichtig ist, dass die wirklich potenten 4K Karten, also ab 4080 aufwärts mit genug VRAM versorgt werden. Also in der Querfinanzierung lieber bei der 4070 2GB weniger und dafür bei der 3080/3080Ti 2GB mehr. Bzw. je nach Speicheranbindung halt 4/6 GB mehr.
 

Gurkengraeber

Urgestein
Mitglied seit
10.03.2005
Beiträge
6.360
Ort
Düsseldorf
Kann ich mit leben, man wird sehen was NVidia davon hält. Ist ja am Ende auch ne Upselling Strategie. ;)
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.137
Stellt mal im lowcost Segment von 700€ nicht solche Ansprüche. Die Aktionäre wollen auch leben.
1700? Da wird die Reise nämlich hingehen. Bei der TDP kann einem Übel werden. 300 W für eine X70... AMD könnte dieses mal richtig reinhauen wenn die Effizienz ähnlich gut wie bei RDNA2 wird.
 

Thunderburne

Legende
Mitglied seit
03.10.2006
Beiträge
12.080
Ort
Pampa
Wenn die 4090 450W haben sollte dann hat die 4080 auf keinen Fall 420W.
Wen die die doch 420 hat dann hat die 4090 ehr die 600W.
384 Bit Si vs 256 Si und 16 vs 24 GB 10000 vs 16000 shader und dann nur 30 W Differenz wohl ehr auf keinen Fall!
 

Hattori1000

Enthusiast
Mitglied seit
03.02.2011
Beiträge
2.357
Ort
Bottrop
Oben Unten