Geforce RTX 5090 in der Gerüchteküche: Bis zu 70 Prozent Leistungszuwachs vermutet

Wahrscheinlich war der Kauf einer 4080 die letzte Grafikkarte die ich gekauft habe. Schaue ich mir an, was für Spiele auf den Markt kommen, unfertig, verbugt und grafisch sowie spielerisch nicht der Bringer, verzichte ich in Zukunft aufs zocken. Perlen wie Anno1800, Doom Eternal, MSFS2020/2024 und Alan Wake 2, werden immer seltener kommen. Von daher.....juckt mich das alles nicht wirklich. Was ich sicherlich nicht machen werden, jemals wieder mehr als 700 EUR für eine Graka ausgeben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann ich verstehen, mir geht es ähnlich, aber trotzdem habe ich bock auf mehr Leistung. :d
 
Für was? Ich wollte auch mehr Leistung. Was soll ich sagen. Würde ich nicht ab und zu mal einen FPS-Counter mitlaufen lassen, merke ich, bis auf den MSFS, keinen Unterschied. Flüssig ist flüssig. Ob da jetzt 89 fps oder 165 fpd anliegen, merkt man nicht. Spiele bei denen alle ein feuchtes Höschen bekommen, wenn sie mehr als 200 fps in den ganzen Multiplayershootern haben und brauchen, spiele ich nicht,

Ganz ehrlich? Meine 3060TI die ich vorher hatte, war eigentlich völlig ausreichend. Ich hatte mir die 4080 ursprünglich ausschließlich für den MSFS gekauft. OK DOMM Eternal in 4k mit RT sieht schon geil aus, aber der Rest...lief auch vorher ordendlich.
 
Hatte ich nach der 3080 auch gesagt, meine Budgetgrenze lag dann irgendwo bei 1.000€.

Am Ende ist das aber irrelevant, da ich schon immer für bestimmte Used Cases aufgerüstet (und auch wieder abgerüstet) habe. Sollten mich Games wie GTA6 oder Gray Zone oder Direct Contact richtig abholen und für 4k ne 5090 brauchen, wird eben auch die geholt. Wenn nicht, dann ganz einfach nicht. Deswegen ist auch diese ewige Preisjammerei nicht immer glaubwürdig wenn viele "einfach so" oder wegen "haben wollen" aufrüsten. Denn am Ende entscheidet jeder selbst, wie viel er ins Hobby steckt.

Jedenfalls war meine 3080 für 4k nicht mehr ausreichend. Und das obwohl ich eher ältere Games spiele. Die Auflösung bzw. der Monitor war hier wirklich der Game Changer. Hatte vorher einen 1080p 60Hz Screen, damit wäre wahrscheinlich sogar noch die 2060 Super genehm. Aber so ist das eben... Hobby. Möchte in keinem Fall mehr von 4k auf etwas niedrigeres zurück.
 
Genau die selben Gerüchte gab es doch im Vorfeld der 4090 auch. Drei mal so schnell wie 3090 etc....Am Ende stimmten diese Grüchte dann maximal wenn man 4090 inkl. DLSS und FG gegen 3090 nativ miteinander vergleicht.
 
Hab gelesen 70% Mehrleistung gegenüber der 4090. Wäre ein schöner Sprung. Die Frage nur wie es mit der Leistungsaufnahme sein wird. Ähnliches Niveau oder bisschen weniger.
 
+70% bei gleicher TDP wäre zu krass. Die 4090 war schon gut und hat um die +70% für 50-100W mehr. Ich würde ne 5090 daher bei so 500W vermuten wenn es tatsächlich +70% werden.
 
"TSMC 4N(vidia) is based on TSMC 5, not 4nm" und "At least, there is a 30% increase in density" woher sollen da denn die 70% Mehrleistung her kommen? Ist eine 30% höhere Packdichte bei einem verbesserten 5nm Prozess überhaupt realistisch?
 
Genau die selben Gerüchte gab es doch im Vorfeld der 4090 auch. Drei mal so schnell wie 3090 etc....Am Ende stimmten diese Grüchte dann maximal wenn man 4090 inkl. DLSS und FG gegen 3090 nativ miteinander vergleicht.
War es bei der 4090 nicht eher so, dass alle Reviewer überrascht waren, wie groß der Leistungssprung am Ende ausfiel? Kann mich noch gut an einige Videos erinnern ("haben extra 2 mal gebenched" "die letzten 5% braucht es nicht, lieber ein geringeres PT" "absolutes Monster") etc...
 
Normal wären jetzt so 30-35% Mehrleistung zu erwarten zumindest vom Bauchgefühl her.
Kann ja sein , dass in Sachen RT und DLSS Leistung noch gut optimiert werden kann, aber sonst...
Die 4090 war jetzt wirklich ein Monster. Sowas zweimal hintereinander wäre zu heftig.

Ja @SaiBot62 hast ja recht wegen der Leistungsaufnahme.
Total verpeilt , weil 4090 UV bei mir und 3090 immer im PL ^^
Hab ja immer Overlay an und diese Werte im Kopf.
 
@MS1988
Also wen die 70% mehr Leistung liefert sag ich bestimmt nicht nein.. :bigok:
können ruhig alles in den Ring werfen.
 
Wird ja eh gekauft :d
 
Meine 4090 zittert schon. 😂
 
Die einzig wichtige Frage ist doch nur ob sie noch in Q4 released wird oder erst Q1
 
Jens meint sogar noch in diesem galaktischen Jahr.
 

Anhänge

  • Screenshot_20240320_102200_upday.jpg
    Screenshot_20240320_102200_upday.jpg
    173,8 KB · Aufrufe: 51
Wahrscheinlich wird auch das Netzteil zittern.
 
Ja ich hoffe Seasonic bringt endlich mal stärkere Fanless Modelle raus, die 3090 lief nur mit UV wegen den Spikes, die 4090 dagegen kann ich selbst mit 666W BIOS laufen lassen. XD
Leben am Limit. :d
 
Meinte halt weil man wohl zwei Anschlüsse brauchen könnte um die 700W auf 2 Aufzuteilen .
Das Wâre glaub ich schlauer oder Zurück auf 4×8Pin die scheinen ja immer noch bewährt zu sein.
Wobei für 700W ja eigentlich nicht spezifiziert bei 4*150W.
 
Ganz ehrlich, ich hoffe einfach das die TDP eher sinkt, statt steigt. Wenn man dann noch ne Intel CPU verbaut, wird es langsam nicht mehr lustig was den Strom angeht. :d
 
Ganz ehrlich, ich hoffe einfach das die TDP eher sinkt, statt steigt. Wenn man dann noch ne Intel CPU verbaut, wird es langsam nicht mehr lustig was den Strom angeht. :d
Hab schon gegen gesteuert. :ROFLMAO:
77Zoll OLED Peak 400W auf den 32 Zoll OLED Peak 110 meist aber um die 50-60W.

Mit undervolting sollte ja auch was mit der 5090 gehen.

Mal schauen was dann nächste Jahr noch mit den neuen X3D gehen wird bei AMD.
 
Hab zwar nur n 65er OLED aber der ist auch echt wie ne Heizung, nicht normal was der für Hitze abstrahlt. ^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh