Weitere Hiobsbotschaften: Kein RTX-50-Refresh, RTX-60-Serie später und reduzierte Produktion

Thread Starter
Mitglied seit
06.03.2017
Beiträge
115.299
Steigende Preise bei allen Grafikkarten-Modellen und eine neue Zuteilung für bestimmte Modelle – für Spieler sind es keine guten Zeiten, um sich ein neues Gaming-System zusammenzustellen. Dass es in diesem Jahr keinen GeForce-RTX-50-Refresh geben wird, wurde in Anbetracht der aktuellen Situation bereits mehrfach deutlich und so auch nicht mehr erwartet.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Andererseits aber auch gut für die, die permanent den Drang haben aufrüsten zu müssen. :coffee2:
 
Andererseits aber auch gut für die, die permanent den Drang haben aufrüsten zu müssen. :coffee2:

Ach was — keine Sorge. NVIDIA wird das mit der 6000er-Serie schon wieder geradebiegen.

Ich tippe ja stark darauf, dass sie den Preis der 6090 einfach vorsorglich verdoppeln. Rein aus Nächstenliebe natürlich — damit die „Ich-brauche-immer-das-Topmodell“-Fraktion (ja, ich gehöre völlig uneigennützig auch dazu) nicht mehr alle zwei Jahre upgraden muss.

Dann upgraden wir halt nur noch alle vier Jahre … zahlen dafür aber das Doppelte. Win-Win also. Für NVIDIA zumindest.

Unterm Strich bleibt meine Ausgabenbilanz natürlich stabil — ich spare nichts, bekomme nichts günstiger, aber habe das gute Gefühl, länger gewartet zu haben. Fortschritt! 😄
 
Da TSMCs Auftragsbücher platzen, ist es eventuell auch eine strategische Überlegung.
Später zu bestellen könnte etwas die Preise drücken.

Auch kann man dann eventuell besser auf das reagieren was AMD aus dem Hut zaubern könnte, denn der Konsolenstart, mit "UDNA" später für den PC, soll ja auch 2027 kommen.
Da hier mit CDNA und RDNA die Gaming und Computing Architektur wieder zusammengeführt werden, kann niemand abschätzen wie die Performance aussehen wird.

Da dann später die eigene GPU zu fertigen und vorher eventuell von einem Prozess in einen anderen zu wechseln um mehr Ellenbogenfreiheit zu haben, ist ein Win.
 
Ich würde das jetzt nicht als Hiobsbotschaft bezeichnen. Die Blackwells waren schon zu Beginn auf Kante genäht, was den Energieverbrauch der Spitzenmodelle angeht. Was sollte da ein Refresh noch oben drauf setzen können? Die sind ja meist mit höherem Takt und mehr Strom gekoppelt. Aber 5090 & Co sind ja längst überm Limit des Anschlusses. Neue Revisionen mit zwei Anschlüssen wären sinnvoll, aber das wäre ja das Eingeständnis, daß man sehenden Auges Mist gebaut hat. Und das will Nvidia sicher vermeiden, weil es mit Regressforderungen verbunden werden könnte. Also lieber auf die nächste Chipgeneration hoffen.

Die Speicherpreise sind dagegen eher eine Ausrede, denn die betreffen die aktuellen Modelle ja auch. Am schlüssigsten ist da schon Grund 3: Der KI-Boom, der Nvidia derzeit die Tresore mit Gold füllt. Also verlagert man die Kapazitäten dahin, wer weiß, wie lange man da noch absahnen kann...
 
Nun ja, das dürfte jetzt niemanden wirklich überraschen. Die aktuelle Weltlage ist ja alles andere als stabil, das war bereits zum Release der 50xx Generation absehbar dass wir uns von den früheren Gewissheiten verabschieden müssen. Ob es jetzt einen 50xx Refresh gebraucht hätte, sehe ich wie @Rudi Ratlos , der Gewinn wäre ohnehin marginal gewesen. Da wird es spannend, wie die Publisher darauf reagieren, da es jetzt auch mal um die Optimierung der Engines gehen darf, da ist noch eine Menge Luft nach oben.
 
Ach was — keine Sorge. NVIDIA wird das mit der 6000er-Serie schon wieder geradebiegen.

Ich tippe ja stark darauf, dass sie den Preis der 6090 einfach vorsorglich verdoppeln. Rein aus Nächstenliebe natürlich — damit die „Ich-brauche-immer-das-Topmodell“-Fraktion (ja, ich gehöre völlig uneigennützig auch dazu) nicht mehr alle zwei Jahre upgraden muss.

Dann upgraden wir halt nur noch alle vier Jahre … zahlen dafür aber das Doppelte. Win-Win also. Für NVIDIA zumindest.

Unterm Strich bleibt meine Ausgabenbilanz natürlich stabil — ich spare nichts, bekomme nichts günstiger, aber habe das gute Gefühl, länger gewartet zu haben. Fortschritt! 😄
Die Logik ist unbestreitbar! :LOL:
 
Ich persönlich sehe das (abgesehen von den RAM Preisen) positiv. Die Wertstabilität unserer Karten wird einfach top bleiben und sich auf 4090 Niveau bewegen.

Also selbst wenn eine 6090 dann 5k kostet, sofern ich die 5090 zum EK verkauft bekomme, hätte ich dann in 7 Jahren oder so 5k rausgehauen fürs Gaming. Und dazu kommt ja noch die Zeit in der ich die 6090 nutze. Unter Berücksichtigung meines Einkommens damals und der Inflation habe ich in den 2000ern und 2010ern schon mehr für Grafikkarten ausgegeben. :d
 
Ach was — keine Sorge. NVIDIA wird das mit der 6000er-Serie schon wieder geradebiegen.

Ich tippe ja stark darauf, dass sie den Preis der 6090 einfach vorsorglich verdoppeln. Rein aus Nächstenliebe natürlich — damit die „Ich-brauche-immer-das-Topmodell“-Fraktion (ja, ich gehöre völlig uneigennützig auch dazu) nicht mehr alle zwei Jahre upgraden muss.

Dann upgraden wir halt nur noch alle vier Jahre … zahlen dafür aber das Doppelte. Win-Win also. Für NVIDIA zumindest.

Unterm Strich bleibt meine Ausgabenbilanz natürlich stabil — ich spare nichts, bekomme nichts günstiger, aber habe das gute Gefühl, länger gewartet zu haben. Fortschritt! 😄
The more you buy, the more you save. Jensen Huang😂
 
Kennt sich hier jemand mit Voodoo aus? @3dfx?
 
Das Nvidia auf die Desktop-Endkunden scheiCt ist kein Geheimnis, die KI-idioten zahlen für dieselbe Hardware deutlich mehr als wir.

Das keine Super erscheinen ist mir auch egal, RTX5000 ist sowieso nur eine Neuauflage von RTX4000 was mit der Brechstange realisiert wurde, die Super Karten wären dann quasi die Neuauflage der Neuauflage.

Ich bin zum Glück gut versorgt, ich werde die nächsten Jahre eher keinen drang zum Aufrüsten verspüren, nicht mal der Nerd mit dem Basteldrang in mir hat sich bis jetzt gemeldet, ich habe das Glück durch die Krise durchtauchen zu können - Hoffentlich geht nichts kaputt.

Sehen wir die Lage positiv, die Spieleentwickler werden jetzt gezwungen mehr zu optimieren, halbfertige Spiele auf dem Markt zu werfen is nicht mehr so gut, deren Defizite kann man nicht mit neuer besserer Hardware ausgleichen.

Nvidia (hauptsächlich) hat Zeit um den neuen bescheuerten Stromanschluss zu überarbeiten, denn das Problem (schlecht ausbalancierte Auslastung der Adern, schmelzende Stecker) wird mit der Zeit immer schlimmer, denn die Karten werden immer mehr Strom saugen, nicht nur in der Oberklasse sondern bald auch in der Mittelklasse.
 
Zuletzt bearbeitet:
Ich prophezeie, die GeForce RTX 6095 Ti Super reizt die bereitgestellte Power über zweier 12VHPWR aus.
 
Wenn Nvidia erst anfangen möchte 2028 die neuen Gaming Karten anzubieten sollte die Konkurrenz die Chance nutzen.
 
Ich prophezeie, die GeForce RTX 6095 Ti Super reizt die bereitgestellte Power über zweier 12VHPWR aus.

wut.png
 
Die RTX 6090 wird ja dann hoffentlich bereits in 2nm gefertigt, mal schauen wie sich das auf den Verbrauch auswirkt.
 
Joa die Spiele 2027 spielen wir dann bis zum Release in DLSS Ultra Perfomance :d
Ne passt die 4090 war ne gute Entscheidung. UV auch ne super effiziente Karte mit ausreichend Power und ausreichend Vram für die Zeit. FG 2x reicht mir auch aus, weil eh nur 144HZ. Mal sehen ob wir bis dahin noch ein Update für DLSS bekommen oder es erstmal bis Rubin es bei 4.5 bleibt.
 
Zuletzt bearbeitet:
made my day - wie kann denn der gewinn bloss steigen, wenn die preise steigen...

Bei den newsschreibern bekommste echt nur noch kopfweh
 
Gibt Rohleistung ohnehin nur noch gegen mehr Watt. Und darauf habe ich keinen Bock. Hier kommt nichts über 250 Watt rein. Nvidia fällt wegen ihrer Mondpreise für mich ohnehin raus.
Und Raytracing ist nicht wichtig genug von der 9070 irgendwann upgraden zu müssen. Dann wird halt FSR aktiviert und gut ist's.
Nvidia 6070 im Jahr 2028 dann vermutlich 400 Watt bei 30% mehr Rohleistung als die 5070.
 
@Snake7 weiß nicht ob dein Post ernst gemeint ist oder ob das Sarkasmus ist.

Für den Fall, dass das ernst gemeint war, für KI/Datacenter Chips verdient Nvidia pro Waferfläche deutlich mehr als bei Grafikkarten und da die "Ressource" Waferfläche durch TSMCs Fertigungskapazitäten beschränkt ist und man bei Nvidia den Gewinn pushen möchte fokussiert man mehr die Bereiche, die mehr Gewinn einbringen.
 
Wollte mir eigentlich die 5080 Super holen, aber dann halt nicht...... DANN HALT NICHT!
Da kann ich ja gleich auf die 6000er Serie warten. RTX 6070 let's gooo!!!
 
Wollte mir eigentlich die 5080 Super holen, aber dann halt nicht...... DANN HALT NICHT!
Da kann ich ja gleich auf die 6000er Serie warten. RTX 6070 let's gooo!!!
Sorry aber extra auf den Super Refresh zu warten ist doch keine gute Strategie. Egal in welcher Generation. Dann steht das nächste wirklich neue doch schon bald ins Häuschen. Zumal in diesem Fall schon letztes Jahr schon klar war dass es für die super schlecht aussieht.

Also beschwer Dich nicht bei NVidia. Wolltest entweder keine oder hattest genug Zeit.

Wäre aber sowieso n fragwürdiges Upgrade zu ner 4070Ti gewesen, da hat Dir Lederjacke doch mal wirklich beim Sparen geholfen. :d
 
Sorry aber extra auf den Super Refresh zu warten ist doch keine gute Strategie. Egal in welcher Generation. Dann steht das nächste wirklich neue doch schon bald ins Häuschen. Zumal in diesem Fall schon letztes Jahr schon klar war dass es für die super schlecht aussieht.

Also beschwer Dich nicht bei NVidia. Wolltest entweder keine oder hattest genug Zeit.

Wäre aber sowieso n fragwürdiges Upgrade zu ner 4070Ti gewesen, da hat Dir Lederjacke doch mal wirklich beim Sparen geholfen. :d
Also erstens hab ich keine Lederjacke und zweitens isses eine 4070 Ti Super wenn ich bitten darf!
Bei der 5080 Super hätten mich die 24 GB gereizt, weil ich es peinlich finde dass selbst die normale 5080 wieder "NUR" 16GB Speicher hat!
 
Gemeint war die Lederjacke aus Kalifornien und die Ti Super ist dann ja noch näher an der 5080 dran. Die 24GB waren bisher auch nur ein Gerücht.
 
Gemeint war die Lederjacke aus Kalifornien und die Ti Super ist dann ja noch näher an der 5080 dran. Die 24GB waren bisher auch nur ein Gerücht.
Es hieß ja, dass Nivida auf den Super Karten 3GB statt 2GB pro Cluster verbauen wird, damit eben eine 5070 Super 18GB statt 16GB hat.
Beider 5080 Super war die Rede von 24GB statt 16GB was ja in diesem Fall ganze 8GB mehr Speicher wären. Für 4K Gaming nicht ganz uninteressant.
Ich kriege aber mit dem neuen Present M trotzdem in den meisten Games stabile 60 FPS bei 4K hin. DLSS hab ich da immer auf Leistung gestellt.
 
Die sind ja meist mit höherem Takt und mehr Strom gekoppelt. Aber 5090 & Co sind ja längst überm Limit des Anschlusses. Neue Revisionen mit zwei Anschlüssen wären sinnvoll, aber das wäre ja das Eingeständnis, daß man sehenden Auges Mist gebaut hat. Und das will Nvidia sicher vermeiden, weil es mit Regressforderungen verbunden werden könnte.

Offiziell ist die 5090, zumindest laut einer schnellen Suche mit 575 Watt angegeben. Was die Partner oder Overclocker angeht und ob die da mehr Saft durch lassen ist deren Problem.
Also sind da offiziell ja noch volle 25 Watt Reserve bis der Stecker nicht mehr mag. :ROFLMAO:
Die nächste wird dann mit drölf Watt über dem Limit angegeben und schon ist ein zweiter Stecker notwendig. Die teilen sich dann die 700 Watt und schon sind die Probleme gelöst. 😉
 
Der Stecker war aber schon vorher spezifiziert worden, und bei der RTX 4xxx eingesetzt, und da sollte er wohl nur bis 550 Watt liefern, und schon das war ja in die Hose gegangen.

Was aber definitiv nicht den Boardpartnern angelastet werden darf, ist die Tatsache, daß trotz des bekannten Problemes auch bei den 5xxxern weiterhin nur ein Stecker verwendet werden durfte - Vorgabe von Nvidia! Wie man inzwischen weiß, hatten die Partner sich auf zwei Stecker vorbereitet (einige PCBs weisen wohl auch die Lötpunkte dafür auf!!!), Nividia gab das aber nicht frei.
 
Vielleicht tut eine Konsolidierung der durchschnittlichen Hardwareleistung, der
Spieleindustrie und den Gamern mal ganz gut.

Was dort in den letzten ~15 Jahren verbockt wurde, ist eigentlich nur traurig. Ich
spiele regelmäßig aktuelle "AAA" und "AA" Produktionen, genau wie Klassiker von
Amiga, DOS und NES bis hin zu Xbox 360 und PS3 und gerade beim Vergleich zur
vorletzten und letzten Konsolengeneration bekommt man irgendwie Tränen vorm
"aktuellen" 2000€ PC :(.

Zocke gerade u.a. Killzone 2 auf der PS3 (2009) und Alice: Madness Returns (Unreal
Engine 3 - 2011) auf dem PC...vorallem Letzteres mit gedeckelten 120 FPS bei 140w
Verbrauch für GPU und CPU (statt 400-450w bei aktuellen Spielen) auf 4k und bin
schockiert wie gut das Spiel ggü. heutigen Titeln aussieht :eek:. Da gibt es viele Beispiele,
allen vorran die PS3 Exclusives der 2. Generation (ab 2009 etwa)...verdammt sehen Killzone
2+3, Crysis 2+3, Uncharted 2+3 oder Gran Tourismo 6 heute noch geil aus.

Ich will gar nicht ausrechenen ob ich über die letzten 15 Jahre 20, 30 oder 40k für Pc
Hardware ausgegeben habe...eigentlich nur um die gleiche Sauce, mit 120FPS und auf
4k, spielen zu können, anstatt mit 30/60FPS und 720p/1080p :shot:...

Als reiner Gamer, dem für seinen Workflow aus MS-Office Anwendungen jede iGPU
ausreicht, fühle ich mich langsam verarscht und ausgenommen. Vielleicht liegt es am
Alter und den vielen tausend Games der letzten 40 Jahre, die für mich heute noch gut
Spielbar sind...meine 4070 Super und 9070XT werden es noch ein paar Jahre machen.
 
@Madschac

die PS3 war aber gegenüber vorherigen Konsolen schon ein Schluckspecht und genehmigte sich mit ca. 200W etwa so viel wie eine Series X. Erst mit späteren Verbesserungen der Hardware wurde es nach und nach deutlich besser. Die üblichen HD Ready Plasma's zur damaligen Zeit zogen zudem gerne mal 400W+. Auch kostete die PS3 zum Release 600€ was heute fast 900€ sind.

Muss aber zugeben, ein Wings of Fury oder Oil Imperium auf dem Amiga 500 würde mir heute noch deutlich mehr Unterhaltung bieten als viele aktuelle AAA(AAAAAA)-Titel.
 
Zuletzt bearbeitet:
Da hast du recht, aber ich will nicht nur auf den Verbrauch und die Kosten hinaus...

Für mich machen Spiele Entwickler und Hardware Hersteller einfach zu wenig aus
der vorhandenen Hardware. Imense Entwicklungskosten und Anschaffungspreise
über die Hardware Generationen hinweg und der tatsächliche Gewinn fürs Medium
Gaming im Gesamten ist lächerlich gering.

VR war und ist ein Ansatz, der die benötigte Leistung irgendwie rechtfertigt, aber
ansonsten? Trotz einigen guten Titeln - was bringt mir ein UE 5 Spiel für wirkliche
Vorteile ggü. eines UE3 Spiels? Es sieht realisitischer aus und die Welten sind heute
oft größer...alles andere tritt maximal auf der Stelle, Texturen sind in der PS3 Ära und
auf dem PC 2005-2010 rum mMn oft detailierter dargestellt als heute (niedriger aufgelöst
dafür) und viele Spiele wurden großartig um ihre grafische Schwächen herum designt,
was oft für viel mehr Wiedererkennbarkeit und künstlerischer Tiefe sorgte.

Naja und Raytracing...bisher optisch wenig Mehrgewinn für die benötigte Leistung,
dafür starke Vereinfachungen für Entwickler.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh