9 GB GDDR7: NVIDIA soll weitere Variante der GeForce RTX 5050 vorbereiten

Thread Starter
Mitglied seit
06.03.2017
Beiträge
116.449
Laut des für gewöhnlich gut informierten X-Nutzers MEGAsizeGPU plant NVIDIA gleich mehrere neue Varianten der GeForce RTX 5050 und GeForce RTX 5060. Unter anderem soll eine Variante der GeForce RTX 5050 geplant sein, die anstatt 8 GB an GDDR6 nun 9 GB an GDDR7 zu bieten haben soll. Zum Einsatz kommen solle dabei drei GDDR7-Speicherchips mit einer Kapazität von jeweils 3 GB. Für jeden der Chips wird einer der 32 Bit breiten Speichercontroller verwendet, so dass die Gesamtbreite des Speicherinterface bei 96 Bit liegt.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bezweifel das eine 9GB RTX 5050 kommt, denn das würde neben einer RTX 5050 und RTX 5060 mit 8GB mal überhaupt keinen sinn ergeben.

Selbst die damals neuaufgelegte RTX2060 kam mit 12GB, statt 9GB oder so einen unfug.
 
wer 12GB will soll halt eine 5070 kaufen. Aber wieso wird jetzt GDDR7 statt 6 verwended bei der Speicherknappheit dachte ich eher man greift auf älteres zurück, so sollte doch die 3060 mit GDDR6 neu aufgelegt werden.
 
Ich bezweifel das eine 9GB RTX 5050 kommt, denn das würde neben einer RTX 5050 und RTX 5060 mit 8GB mal überhaupt keinen sinn ergeben.
Vieles ergibt bei nVidia (und auch AMD) nicht wirklich Sinn.
Man schaue sich nur RTX 5070 mit lediglich 12GB Speicher an, während eine schwächere 5060 Ti mit 16GB zu haben ist.
 
Wenn sich dies wirklich bewarheitet ist das nur ein weiteres Armutszeugnis für Ngreedia :cry:
Ich finde es aber ein wenig nervig, dass so viele News nur noch aus hypothetischem „Leaker“-Gerede oder ach so tolle AI Hype News bestehen...
Das war früher mal anders, zumindest nicht ganz so schlimm, dass man auf jede Meldung aufgesprungen ist...
Wirkt ein wenig so als müsste man aus allem irgendwie derzeit News machen, egal wie relevant Sie für User wie uns wirklich sind? (Kann aber auch nur mein persönliches Empfinden sein)
 
Zuletzt bearbeitet:
🤔 warum? wofür? wieso? Wer hat danach gefragt?

Aber da es ja nur leaker mimimi News sind würd ich da erstmal nix drauf Geben abwarten ob Nvidia wirklich so ein Ding auf den Markt wirft
 
Wirkt ein wenig so als müsste man aus allem irgendwie derzeit News machen, egal wie relevant Sie für User wie uns wirklich sind?
Es müssen Klicks generiert werden. Und das geht eben nur, wenn man immer was "neues" zu berichten hat. Also wird auch das noch so unwahrscheinlichste Gerücht aufgegriffen und als "News" aufbereitet.
Und wie man sieht, klappts ja. Wir haben raufgeklickt und sogar kommentiert.
 
Eine 5050 ohne externen Stromanschluss fände ich besser.. :)
 
Wie soll das gehen bei 130W? Würde man die Karte so weit im Stromverbrauch reduzieren, dass sie die 75W des PCIe Slots nicht knackt, wäre die Leistung wohl so deutlich niedriger, dass es dann wohl nur noch eine 5030 wäre.
Beitrag automatisch zusammengeführt:

wer 12GB will soll halt eine 5070 kaufen.
Ja genau. Wer 4GB mehr Speicher will, soll halt mal eben eine 300-350€ teurere Karte kaufen. Sind doch Peanuts, ne?
Dass das Ding auch fast den doppelten Stromverbrauch aufweist und ein entsprechend größer dimensioniertes und ebenfalls teureres Netzteil benötigt, wischen wir ebenfalls einfach beiseite.

Weniger leistungsstarke Karten mit dennoch üppiger Speicherbestückung wären für so manchen Anwendungszweck absolut nicht verkehrt.
Wenn ich bspw. auf die Radeon RX 6700XT mit ihren 12 GB Speicher schaue, dann sehe ich eine Karte, mit der man auch heute noch problemlos auch in WQHD höchste Texturdetails einstellen kann, während eine GPU seitig etwas stärkere RTX 3070 mit nur 8 GB in so manchem Spiel da arge Probleme hat, die von matschigen über verspätet bis hin zu gar nicht ladenden Texturen reichen können.
Die schnellste GPU nutzt wenig, wenn der Speicher nicht ausreicht.
 
Zuletzt bearbeitet:
Wie soll das gehen bei 130W? Würde man die Karte so weit im Stromverbrauch reduzieren, dass sie die 75W des PCIe Slots nicht knackt, wäre die Leistung wohl so deutlich niedriger, dass es dann wohl nur noch eine 5030 wäre.
Auch gut, wenn sie dafür LP ist, ordentlich leise und trotzdem ausreichend Auflösung in ausreichend Frequenz auf ausreichend Monitoren ausgeben kann.
Ja genau. Wer 4GB mehr Speicher will, soll halt mal eben eine 300-350€ teurere Karte kaufen. Sind doch Peanuts, ne?
Haja, 12gb passen eigentlich schon zur Leistung der 5070... bevor der VRAM zu wenig wird, wird die GPU einfach zu langsam.
Been there, done that (mit ner 4070Ti, was ja ne 5070 in hellgrün ist..).
 
Die 9GB sind sicher nur eine Nebelgranante, die 5050 wird mit 6GB neu aufgelegt und die 5060 mit 12GB. Da die 5060TI 16GB hat ist das die logische Variante.
 
Ja genau. Wer 4GB mehr Speicher will, soll halt mal eben eine 300-350€ teurere Karte kaufen. Sind doch Peanuts, ne?
Dass das Ding auch fast den doppelten Stromverbrauch aufweist und ein entsprechend größer dimensioniertes und ebenfalls teureres Netzteil benötigt, wischen wir ebenfalls einfach beiseite.

Weniger leistungsstarke Karten mit dennoch üppiger Speicherbestückung wären für so manchen Anwendungszweck absolut nicht verkehrt.
Wers "üppig" will kann die 5060Ti nehmen wurde ja schon gesagt, ausserdem 9 statt 8 ist jetzt auch kein Gamechanger.
 
Vieles ergibt bei nVidia (und auch AMD) nicht wirklich Sinn.
Man schaue sich nur RTX 5070 mit lediglich 12GB Speicher an, während eine schwächere 5060 Ti mit 16GB zu haben ist.
Ich sehe das kleinere Speicherinterface und kann mir nur denken: Sie haben einen haufen Chips wo ein Teil nicht ordentlich funktioniert und wollen den noch verwerten. 3x3GB 96bit, statt 4x2GB 128bit. Oder was?
 
3x3GB 96bit, statt 4x2GB 128bit. Oder was?
Ja, genau so. Aber durch die Nutzung von schnellerem GDDR7 bei der 3x3GB Version geht die Bandbreite trotz 96Bit tatsächlich sogar etwas nach oben.

Was das jetzt allerdings mit teildefekten Chips zutun hat, die du angesprochen hast, verstehe ich nicht.
 
Welche mittlerweile fast so teuer ist wie eine 5070 und somit in keinem Fall ein passender Ersatz für eine 5050 12GB oder 5060 12GB.
Ersatz ? es gibt bis jetzt nur die 5070 mit 12GB
 
Ersatz ? es gibt bis jetzt nur die 5070 mit 12GB
Ja eben!
Deshalb wäre es ja durchaus nicht doof, wenn auch kleinere Modelle wie die 5050 oder wenigstens 5060 mit 12GB kommen würden. Einfach um auch in diesem Segment das Thema Speichermangel aus der Welt zu schaffen. Aber stattdessen will nVidia offenbar so eine murksige 9 GB 5050 bringen, die die Problematik kein Stück löst.

Eine wesentlich teurere, weil mit größerer und teurer GPU ausgestattete 5060 Ti 16GB oder 5070 sind keine adäquate Option!
 
Ja eben!
Deshalb wäre es ja durchaus nicht doof, wenn auch kleinere Modelle wie die 5050 oder wenigstens 5060 mit 12GB kommen würden. Einfach um auch in diesem Segment das Thema Speichermangel aus der Welt zu schaffen. Aber stattdessen will nVidia offenbar so eine murksige 9 GB 5050 bringen, die die Problematik kein Stück löst.

Eine wesentlich teurere, weil mit größerer und teurer GPU ausgestattete 5060 Ti 16GB oder 5070 sind keine adäquate Option!
Ich komm nicht ganz mit, was ist denn die Problematik ? Viel vram brauchts für hohe Auflösungen mit allen Details, RT da brauchst du mit soner 5050 doch garnicht ankommen.
 
9GB Hört sich nach einem Dreher an, 6GB wäre realistischer. Würde zur RAM Problematik passen und ne 5050 ist auch nur für FHD angepeilt. - nicht super aber würde passen für wenig Geld.
 
Es gibt sicher auch Einsatzbereiche für so eine RTX5050.
Hab auf der Arbeit einen Kollegen der streamt, der nutzt eine 3080 12GB für die Spiele und macht das Capture und Encoding über eine 3060. Frag mich nicht wie das geht aber die Spiele sollen jedenfalls so deutlich performanter und flüssiger laufen als wenn alles über eine Karte geht.
Ist aber natürlich eine extreme Nische.
Außer in low bugdet Rechnern wüsste ich aber auch nicht was man mit einer 5050 so macht, ist jetzt von der Rechnerleistung auch nicht die GPU die man für CAD oder sonstwas rechnen hernehmen würde.
 
Warum überhaupt VRAM?

Könnte man nicht einfach den System-Speicher nutzen? 🤡

Es gibt sicher auch Einsatzbereiche für so eine RTX5050.
Hier z.B., fette Auflösung mit viel Hz, vllt noch Multi-Monitoring... kann die iGPU dann nimmer.
 
Viel vram brauchts für hohe Auflösungen mit allen Details, RT da brauchst du mit soner 5050 doch garnicht ankommen.
Viel Speicher braucht es bspw. auch für besonders hoch aufgelöste Texturen. Da spielt die GPU Leistung absolut gar keine Rolle. Es gibt genügend Speicherfressende Einstellungen, die die GPU selbst kaum bis gar nicht belasten.
Wir sind nicht mehr in einer Zeit in der man in den Grafikeinstellungen lediglich "niedrig", "mittel" und "hoch" auswählen konnte und somit sowohl GPU, als auch Speicher weniger oder stärker ausgelastet wurden.
Heute kann man das in den meisten Spielen viel differenzierter anpassen und gewisse GPU lastige Dinge runterdrehen, während andere, eher speicherlastige Einstellungen auf hoch verbleiben können, sofern genug Speicher vorhanden ist.
Und so kann man dann auch weniger starke Karten (auch dank DLSS und MFG) zu sehr gut spielbaren FPS ohne Detaileinbußen in allen Belangen bewegen.

Ist aber neben der eher langsamen GPU auch noch nur wenig Speicher vorhanden, hat man da weit weniger Spielraum.

Kleines Beispiel, was ich meine:
Ich hab ein älteres Notebook mit einer RTX 2060 mobile mit 6GB auf dem ich ältere Spiele zocke. Aktuell ist mal wieder Witcher 3 dran. Vorher nutzte ich dafür ein Gerät mit einer GTX 1650Ti mobile mit nur 4GB Speicher. Auf beiden Geräten läuft Witcher 3 in aktuellster Version in FullHD auf hohen Grafikeinstellungen (kein RT) mit problemlos spielbaren FPS.
Die GTX 1650Ti mit nur 4GB Speicher hatte aber das Problem, dass sie viele der Texturen aufgrund des Speichermangels nicht korrekt oder gleich gar nicht anzeigen konnte. Die RTX 2060 mit ihren 6GB Speicher hingegen hat damit keinerlei Probleme.
Vor dem "Next Gen" Update von Witcher 3 und dem damit einhergehenden größeren Speicherbedarf waren auch die 4GB der GTX 1650Ti unproblematisch.

Während also beide GPUs durchaus genügend Leistung bieten um dieses Spiel grundsätzlich flüssig spielbar darzustellen (ja, auch das ist subjektiv), fehlt es der 4GB Lösung schlicht und ergreifend an Speicher um die höher aufgelösten und detailreicheren Texturen der Next Gen Version darstellen zu können.

Ein ähnliches Verhalten haben Tester auch bei anderen Spielen wie bspw. Hogwarts Legacy festgestellt. Während eine RX 6700XT mit 12GB keine Probleme bereitet, gibt es mit einer RTX 3070 mit nur 8GB immer wieder Probleme mit verspätet oder gar nicht ladenden bzw. matschigen Texturen. Einfach, weil die 8GB Speicher nicht ausreichend sind.

Also nein, es braucht nicht erst besonders hohe Auflösungen oder Raytracing um an den Punkt nicht ausreichenden Speichers zu kommen. Und nein, üppige Speicherausstattung ist nicht nur auf besonders starken Karten sinnvoll.
Da nVidia (und auch AMD) aber natürlich viel lieber ihre teureren Karten verkauft bekommen wollen, wird bei den schwächeren Modellen auch beim Speicher geknausert, damit jene Kunden, die eigentlich gar nicht den stärkeren und teureren Grafikchip brächten, dann eben doch zu einer dieser deutlich teureren Grafikkarten greifen um das Mehr an Speicher zu bekommen.
Das ist ein Punkt, der insbesondere bei Notebook GPUs seit Jahren einfach nur zum Kotzen ist. Denn hier knausert nVidia sogar noch deutlicher mit dem Speicher (und von AMD gibt es so gut wie nichts).
 
Zuletzt bearbeitet:
@Morrich
Ne, jedes aktuelle Spiel hat auch low res versionen von den Texturen mit dabei, du musst einfach nur die Regler nach links stellen.
Kein Mensch braucht 4k auflösung wenn er vor igend einer Wand steht um auch noch die kleinsten Risse zu erkennen.
 
@Morrich
Ne, jedes aktuelle Spiel hat auch low res versionen von den Texturen mit dabei, du musst einfach nur die Regler nach links stellen.
Solchen vermatschen Scheissdreck will ICH aber definitiv nicht sehen. Und genau deshalb lobe ich mir Grafikkarten mit ordentlich Speicher. Was ich hingegen nicht zwingend benötige ist eine GPU, die mir 200 FPS+ auf den Bildschirm bringt. Völlig unnötig für mein Empfinden.

Wenn DU Matschtexturen toll findest bzw. dich nicht daran störst, dann ist das doch wunderbar. Kannst du dir das Geld für eine teure Karte mit viel Speicher sparen.
Aber es gibt nunmal auch andere Spieler wie mich, die bitteschön ordentliche Texturen sehen wollen, ohne sich dafür unbedingt eine besonders teure Grafikkarte kaufen zu müssen, nur weil da direkt eine deutlich stärkere und teurere GPU verbaut ist.

Daher bin ich froh, dass ich im letzten September für nur 300€ meine 9060XT 16GB erstehen konnte. Mit der habe ich auch in WQHD keinerlei Speicherprobleme und die GPU Leistung reicht dennoch problemlos für meine Anforderungen aus.
 
Zuletzt bearbeitet:
Daher bin ich froh, dass ich im letzten September für nur 300€ meine 9060XT 16GB erstehen konnte. Mit der habe ich auch in WQHD keinerlei Speicherprobleme und die GPU Leistung reicht dennoch problemlos für meine Anforderungen aus.
Meine Güte dann ist es doch gut, was regst dich so auf. Der durschnittliche FPS Gamer braucht halt kein eye candy.
 
Dann lässt Du es halt. Dieses Vram Gejammer basiert auf künstlichen Szenarien und ignoriert genau das Argument was Du selbst anführst, dass man nämlich einfach auch Regler bedienen kann, womit man bei einer budget Karte sowieso rechnen muss. Und wieso Regler, die das Game an die GPU Leistung anpassen ok sind, aber die, die das Game an den vorhandenen Vram anpassen nicht, versteht sowieso keiner. Ganz zu schweigen davon dass 90+% der Games auch mit 8GB auf 1080p vorzüglich laufen.

Würde mir selbst auch nicht so eine Karte kaufen aber für das gro der Leute reichen die halt aus. Siehe Steam survey oder einfach Rechner im non HWLuxx Bubble Bekanntenkreis.
 
Ich bezweifel das eine 9GB RTX 5050 kommt, denn das würde neben einer RTX 5050 und RTX 5060 mit 8GB mal überhaupt keinen sinn ergeben.

Nun kannst Du Dir vorstellen, wie viel Sinn es ergibt, die in aller Form abgespeckte RTX 5060 mit 16 GB an GDDR-SDRAM zu bestücken. Dies mache die RTX 5070 absolut unrentabel, diese dann in ebenso wie die RTX 5070 Ti und RTX 5080 auf mehr Speicher ihr Anrecht erhielte, bzw. ihren Aufpreis rechtfertige. Diese Ungerechnet war schon ein Fehler seitens NVIDIA bei der Ampere-Iteration gewesen.

Außerdem sollen diese Billigheimser mal aufhören, für deutlich weniger bezahltes Geld nach immer mehr mehr Equipment zu schreien. Und natürlich langen die 8 GB für eine solche Grafikkarte in FHD dicke aus, denn für mehr ist diejenige Grafikkarte ohnehin nicht ausgelegt, sowohl in ihrer Rasterisierungsleistung als auch in ihrer Speicherbandbreite. Was solche Konsorten wie ein gewisser Raffael Vötter von sich geben, geht total an der Realität vorbei: Wer spielt auf maximalen Settings und benötige das? Solche Ultra-bzw. Extra-Settings stehen in puncto Qualität, Performance, Kühlbarkeit und Lautstärke in keinem akzeptablen Verhältnis zueinander.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh