8 GB sind 2025 nicht mehr zeitgemäß: Die GeForce RTX 5060 im Test

Bitte was? Eine 300€+ Gaming GPU für einen Office PC, nur um das Bisschen Gerümpel in 4K anzeigen zu lassen?
Also selbst wenn man das nicht über eine iGPU laufen lassen will, gibt es da doch viel viel günstigere GPU Optionen.
die kann DP 2.1 inkl. UHBR20.... das ist schon echt geil.
Bei AMD ist bei UHBR 13.5 schluss
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für diese Spiele braucht es aber nicht mal im Ansatz eine 5060. Da reichen auch viel ältere Karten vollkommen aus.
Genau das ist doch der Knackpunkt. Für solch wenig anspruchsvolle Spiele (leistungsmäßig) muss man sich keine 300€+ Karte kaufen. Da hat man viel günstigere Optionen.
Für Spiele in denen die GPU Leistung hingegen notwendig ist, reichen die 8GB aber immer seltener wirklich aus.

Das Ding sitzt schlicht "zwischen den Stühlen" und hat nicht wirklich eine richtige Zielgruppe.
Wenn du dir jetzt ein System kaufst, kaufst du dir ne neue Karten. Ich würde gerade nicht versierten keine gebrauchte Karte an die Hand geben. Also nimmt man dann ne günstige aktuelle. Intel oder eben ne 5060. AMD würde ich nicht kaufen einfach weil ich darauf keinen Bock habe. Also kriegen meine Geschwister dann das was ich nehmen würde. ;)
 
Wenn du dir jetzt ein System kaufst, kaufst du dir ne neue Karten.
Wenn ich mir jetzt ein neues System kaufen würde, würde ich dieses aber auch auf die Nutzung für mehrere Jahre auslegen und nicht nur auf das Hier und Jetzt. Insofern würde ich da nicht die minimale Speicherausstattung bei der GPU wählen.

Außerdem muss es gar nicht eine gebrauchte Karte sein. Es gibt auch als Neuware deutlich günstigere Karten, die die von dir genannten Spiele locker packen.
Aber wenn man, so wie du, einen Hersteller schon grundsätzlich ausschließt, weil man "keinen Bock" auf diesen hat, schränkt man sich (und seine Geschwister) natürlich von vornherein massiv ein.
 
Wenn ich mir jetzt ein neues System kaufen würde, würde ich dieses aber auch auf die Nutzung für mehrere Jahre auslegen und nicht nur auf das Hier und Jetzt. Insofern würde ich da nicht die minimale Speicherausstattung bei der GPU wählen.
Wenn sich die Spiele nicht ändern und man bisher sich damit gut gefühlt hat, dann braucht man z:B. als Ersatz für eine defekte Karte nix besser ausgestattetes.
 
Wenn ich mir jetzt ein neues System kaufen würde, würde ich dieses aber auch auf die Nutzung für mehrere Jahre auslegen und nicht nur auf das Hier und Jetzt. Insofern würde ich da nicht die minimale Speicherausstattung bei der GPU wählen.
Kann ja jeder machen wie er will. Meine Geschwister hätten in ihrem use case jedenfalls keine Nachteile mit einer 5060 und das auch nicht nur heute. Ob ich am Ende vielleicht doch eher ne Intel Karte nehmen würde weiß ich aber nicht. Mein Bruder zockt noch mit ner 1080 und ist vollends zufrieden.
 
Zuletzt bearbeitet:
Der Test hier hat doch bewiesen, dass 8gb selbst bei maximalen Details noch ausreichen und wie gesagt, mittlere Texturen sehen oft kaum schlechter aus und ein großteil der Käufer solcher Grafikkarten stellt nicht mal an den Grafikeinstellungen rum.

Klar wäre so eine Karte vor 10 Jahren vielleicht für 199€ verkauft worden, aber damals waren die Leute auch schon über 799€ für das HighEnd Modell erbost.

Nvidia ist ein geldgieriger Haufen, bestimmt, aber im Fall der 5060 wird der Hate schon wieder maßlos übertrieben.
 
die kann DP 2.1 inkl. UHBR20.... das ist schon echt geil.
Bei AMD ist bei UHBR 13.5 schluss
Was für Officemonitore möchtest du denn anschließen, dass UHBR 13.5 nicht reicht? Selbst 8k60 geht damit.
 
Der Test hier hat doch bewiesen, dass 8gb selbst bei maximalen Details noch ausreichen
Na klar 8GB reichten auch schon bei langsameren GPU,s aus nicht wahr ? Nicht wahr ?
RTX 3070 16GB Mod 2.jpg

RTX 3070 vs RX6800.png

RTX 4060 8GB vs RTX 4060 16GB Quelle Daniel Owen
Daniel Owen 8GB vs 16GB.png
 
Die Auflösung und die Detailstufen sind jetzt nicht gerade artgerecht für die 5060 8GB. Und nicht in der Zielgruppe der Anwender/Anwendung.
Da kann sie nix anderes als verkacken.

Einen Bugatti Chiron nimmste auch nicht zum Ackerpflügen, obwohl er es von der Leistung ausreichen müsste.
 
Die Auflösung und die Detailstufen sind jetzt nicht gerade artgerecht für die 5060 8GB.
Najut aber es gibt auch Spiele wo sie schon in 1080p einkracht.
In Star Citizen verwenden GPU,s da bereits 10GB Vram und wenn man weniger hat werden Texturen ausgeblendet.
Oder hier, vom Computerbase Test da war sogar mit DLSS 66% (also eigentlich wurde da nur 1280 x 720 gerendert was nochmal extrem Vram spart), und dennoch zu wenig vram.
RTX 5060 lol.png


Oder hier wo damals die RTX 3080 zu release um welten Schneller als eine RX6700XT war.
1080p
1748952472176.png


1440p
1748952514366.png


Paar Jahre später dann sowas hier:
Indiana Jones RTX 3080 10GB.jpg

Und die RTX 3080 hatte immerhin noch 10GB.
Dazu kommt, wenn man kein PCIE 5.0 Mainboard hat, verliert die RTX 5060 wieder wertvolle Bandbreite, weil sie eh schon auf beschnittenen Lanes läuft.
Ich bin noch auf nem PCIe 3.0 Board. Aber viele sind sicher noch auf PCIe 4.0 Boards. Da ist die Karte keine Option wenn sie jetzt schon bei manchen titeln mit PCIe 5.0 Mainboard bei 720p einbricht.
 
Naja wenn er keine Lust hat AMD zu kaufen, warum sollte er es dann tun? 😅

Generell glaube ich der Nutzer Holzmann hat recht .. Die 5060 wird sich wieder gut verkaufen und Nvidia juckt es nicht die Bohne was ein paar Technikbegeisterte von sich geben.
 
Ich bin mal gespannt wie viele Generationen diese 8GB Vram Karten noch verramscht werden.
Ich sehe es in 4 Jahren schon kommen.
Geforce RTX 7060 mit 8GB Vram für 300€ :fresse2:
9 Years GPU.jpg
 
Generell glaube ich der Nutzer Holzmann hat recht .. Die 5060 wird sich wieder gut verkaufen und Nvidia juckt es nicht die Bohne was ein paar Technikbegeisterte von sich geben.
Natürlich wird sich auch diese Karte wieder gut verkaufen. Das bedeutet aber nicht, dass sie auch wirklich gut ist. Es gibt genügend Leute, die absoluten Schund kaufen, nur weil er billig ist.
 
Zuletzt bearbeitet:
Naja wenn er keine Lust hat AMD zu kaufen, warum sollte er es dann tun?
Dann wäre es vielleicht besser, sich an der Diskussion nicht zu beteiligen.
Wenn man Alternativen nicht betrachtet und somit das Gesamtbild bewusst nicht beleuchten möchte.
 
Natürlich wird sich auch diese Karte wieder gut verkaufen. Das bedeutet aber nicht, dass sie auch wirklich gut ist. Es gibt genügend Leute, die absoluten Schund kaufen, nur weil er billig ist.


Eher weil beim Kartellamt alle pennen. Überall bekommst nur Nvidia. Egal ob PC oder Notebook. Außer du baust selbst zusammen.
 
Dann wäre es vielleicht besser, sich an der Diskussion nicht zu beteiligen.
Wenn man Alternativen nicht betrachtet und somit das Gesamtbild bewusst nicht beleuchten möchte.
Was willst du denn? Es wurde ein Satz aus dem gesamten Austausch zitiert und du echauffierst dich darüber. Ich habe ein konkretes Beispiel dafür gebracht, dass auch die 5060 ihre Zielgruppe hat und haben wird. Das eine 8GB Karte nicht mehr zeitgemäß ist hat keiner angezweifelt. Trotzdem nicht völlig unbrauchbar.
 
Es interessiert doch niemanden; die Grafikkarte wird es ohnehin geben, egal wie viel hier herumgejammert wird. :d Der Horst aus Entenhausen wird sich die GPU kaufen, ab und zu eine Runde zocken und seine Freude haben. Der Jochen aus Berlin, ein krasser Tech-Nerd, wird sich einfach etwas Besseres kaufen. So einfach ist das.


Unterdessen macht Nvidia richtig Kohle mit all den Rechenzentren.

"In Schätzungen zur aktuellen weltweiten KI-Server-Hardware liegt der Nvidia-Anteil bei 80 bis 90 Prozent. An zweiter Stelle, weit abgeschlagen, Googles eigene Tensor-Chips, das sind so 5 bis 10 Prozent. Ja, und alles andere, also auch AMD, ist quasi nicht relevant."

Quelle: Link
 
Der Speicher ist eigentlich egal bei der schwachen Leistung.. bevor der ausgeht, ist die Karte schon lange über Limit.
Na ja... offenbar gibts aber doch Probleme, so ist von Freezes oder Abstürzen beim Speichern der Spieleinstellungen die Rede.
Daß die Einsteigerkarten nur Einstiegsleistung haben - geschenkt. Aber die sollte doch wenigstens unfallfrei kommen.
 
Ich bin mal gespannt wie viele Generationen diese 8GB Vram Karten noch verramscht werden.
Ich sehe es in 4 Jahren schon kommen.
Geforce RTX 7060 mit 8GB Vram für 300€ :fresse2:Anhang anzeigen 1114440
Es stimmt nicht einmal die RX 470 mit 8GB gab es um 249€? und jetzt eine 5060 8GB um 319€,
Amd ist aber der gleiche Rotz heute und bringt die 9060 mit 8GB.

Einzig Intel hat die Zeichen der Zeit erkannt:
B570 249$ 10GB
B580 299$ 12GB
 
Es stimmt nicht einmal die RX 470 mit 8GB gab es um 249€? und jetzt eine 5060 8GB um 319€,
Amd ist aber der gleiche Rotz heute und bringt die 9060 mit 8GB.
Es gab zu Release eine RX480 8GB für 249€ (günstigstes Modell)
Die günstigste RX470 8GB lag bei 229€. Und die günstigste RX470 4GB bei 199€.
Aber alles halt im ersten Monat.
Paar Monate später purzelten die Preise.
1,5 Jahr Später gabs ne RX570 8GB für 150 tacken.
Aber spielt eig alles keine rolle. Geht ja um die 8GB in der Botschaft, weniger um den Preis.
Gab Technisch auch schon 2015 8GB Radeons, die R9 290 von 2013 wurde 2015 nochmal als R9 390 rebrandet, mit 8GB statt 4GB.

Aber du hast auch Recht, AMD mit 9060 und 8GB ist auch lächerlich.
Vorallem wenn man bedenkt wie vorher Jahrelang der Vram anstieg.


TNT 2 von 1999 hatte noch 32mb Ram.
Geforce 256 damals mit 64mb im Jahr 2000 dann.
Genau wie meine erste GPU, Kyro 2 Hercules 3D Prophet 4500 :fresse:
Meine gebrauchte Geforce 2MX von 2000 hatte ebenfalls noch 64mb ram.

Also grob war 1999-2000 so 32mb auf 64mb gesprungen.

Geforce 3ti im Jahr 2001 steigerte es dann von 64mb auf 128mb.
Bei der Geforce 4 im Jahre 2002 waren 128mb dann bei allen mittleren und größeren Modellen gesetzt.
2003 dann Geforce 5 (FX) mit ebenfalls 128mb bei der 5800 Ultra (Föhn)
Aber später kamen 2004 noch Geforce 5900 Ultra mit 256mb raus. (Unter anderem kam da auch der übergang von AGP und PCIe, es gab das Modell sowohl für AGPx8 als auch PCIe 1.0)
Mit Geforce 6 ging es dann 2004 und 2005 auf 512mb beim Topmodell.
Geforce 7 kam dann 2005 mit 512mb raus. Später mit einem X2 Modell dann auch mit 1 GB.
Mit der Geforce 8 8800 Ultra & GTX stieg es dann im Jahr 2006 auf Historische 768mb.
Ich spar mir mal die weitere History.
9 Jahre Später im Jahr 2015 waren wir halt bei der R9 390 mit 4GB und 8GB Varianten.
Dann 2016 noch die günstigen Polaris mit 8GB für weit unter 300€. (Polaris war damals der Konkurrent Chip zu Nvidias GTX 1060, also das war RTX 5060 Klasse)
Und heute weitere 9 Jahre später 2025 hängen wir immer noch bei 8GB in der selben klasse rum.
Der Fortschritt den es Historisch immer gab, hat sich einfach mal ein Jahrzehnt Urlaub gegönnt :d
 
Ich finde es viel schlimmer, dass fast alle Reviewer, die sich vorher so krass an den 8GB Karten echauffiert haben, nicht mal Tests dazu machen, und aufzeigen wie diese Karten in alten Systemen mit PCIe 3.0 und 4.0 bedeutend schlechter abschneiden und deshalb vllt nicht ein Upgrade wert sind.

Wenn man schon in diesem Preisbereich shoppen muss, hat man nur in den seltensten Fällen ein entsprechendes PCIe 5.0 System.

Selbst von einem GamersNexus war das ein stink normales Review, vllt hat er ja irgendwo was dazu gesagt, aber solange man keine expliziten Diagramme sieht, die das eindeutig bestätigen, werden die Reviews besser wahrgenommen und die ganze Aufregung vorher verpufft.

Am Ende kaufen Leute dann die Karten, zocken 30 Minuten ein Spiel haben dann durchgehend Drops auf 10fps und wundern sich, weil das in kein Test auftaucht...

Und ich lasse auch das Argument nicht gelten, dass man es sich für den 9060er Test aufsparrt, denn genau dadurch "gewinnt" NV in Form einer positiveren Berichterstattung, weil diese Probleme einfach untergehen.

Es wirkt fast so, als hätten viele eben doch vor NV kapituliert.

Die Auflösung und die Detailstufen sind jetzt nicht gerade artgerecht für die 5060 8GB. Und nicht in der Zielgruppe der Anwender/Anwendung.
Da kann sie nix anderes als verkacken.

Das ist aber genau das Problem mit den 8GB, du musst selbst in 1080p mit Settings jonglieren, je höher die Auflösung umso schlimmer wird es, völlig egal ob die Karten evtl sogar schnell genug wären, zB in älteren Spielen, dann aber wieder nach optimierten Settings suchen müssen etc.

MFG, Raytracing etc verschlimmern das nur noch da die auch VRAM brauchen.

Das Problem ist mit 12GB oder 16GB sofort erledigt und die Karten sind am Ende einfach schnell genug oder nicht, wenn man dann mit Settings rumspielt, dann um überhaupt mehr FPS zu bekommen, und nicht in einstellige Bereiche abzurutschen weil der Speicher ausgeht.

Kann ich ohne Probleme bestätigen als ich ne 4060Ti mit 8GB hatte, die Leistung der Karte war selbst für 4K oftmals ausreichend, wenn man mit entsprechenden FPS zurechtkommt, nur hat man dann irgendwann zu wenig und dann stockts komplett.
 
Ich finde es viel schlimmer, dass fast alle Reviewer, die sich vorher so krass an den 8GB Karten echauffiert haben, nicht mal Tests dazu machen, und aufzeigen wie diese Karten in alten Systemen mit PCIe 3.0 und 4.0 bedeutend schlechter abschneiden und deshalb vllt nicht ein Upgrade wert sind.

Wenn man schon in diesem Preisbereich shoppen muss, hat man nur in den seltensten Fällen ein entsprechendes PCIe 5.0 System.
Hast du eine 16GB Karte ist es relativ egal, ob PCIe 3.0, 4.0 oder 5.0:
 
Hast du eine 16GB Karte ist es relativ egal, ob PCIe 3.0, 4.0 oder 5.0:
Entscheidender ist fast noch die Anbindung, ob x8 oder x16.
x16 bei der 9060 von AMD könnte sich als großer Vorteil für Aufrüster alter PCIe-Systeme herausstellen.
 
Entscheidender ist fast noch die Anbindung, ob x8 oder x16.
x16 bei der 9060 von AMD könnte sich als großer Vorteil für Aufrüster alter PCIe-Systeme herausstellen.
Spielt meiner Meinung nach mit 16GB VRAM keine Rolle, ob x8 oder x16.
Man wird den Unterschied, wenn überhaupt nur messen, aber nicht spüren.

Aber hier gehts um die 8GB VRAM und das ist einfach auch in FHD schon limitierend.
Sowas kauft man nicht mehr.

Außerhalb der Forenbubbles wird sie aber dennoch gekauft, die Kids da draußen wollen nVidia und günstig -> 5060
 
Spielt meiner Meinung nach mit 16GB VRAM keine Rolle, ob x8 oder x16.
Du musst dich jetzt nicht rausreden, indem du plötzlich die 16GB-Version ins Spiel bringst.
Können wir uns darauf einigen erstmal den Unterschied x8 oder x16 für die 8GB-Version abzuhandeln, bevor die 16GB dran ist. Denn um die geht es in diesem Thema nicht!
 
Hast du eine 16GB Karte ist es relativ egal, ob PCIe 3.0, 4.0 oder 5.0:
Ja aber damit bestätigst du ihn ja.
Weil er spricht ja explizit von 8GB karten, nicht von 16GB.
Ich selbst nutze ein PCIe 3.0 Mainboard mit 16GB Karte mit 16x Anbindung mit 4.0 und ich vermute mit 8x Anbindung hätte ich auch kaum Einbrüche.
Es ist halt erst diese Tückische Kombination aus wenig Vram (8GB) und halbierter Anbindung welche nochmal extreme negativ Synergien verstärkt, welche in den Reviews der RTX 5060 nie berücksichtigt wurde.
Hier mal ein Beispiel anhand einer 8GB RTX 3070 mit PCIe 4.0 16x.
RTX 3070 8x PCie.png
 
Du musst dich jetzt nicht rausreden, indem du plötzlich die 16GB-Version ins Spiel bringst.
Können wir uns darauf einigen erstmal den Unterschied x8 oder x16 für die 8GB-Version abzuhandeln, bevor die 16GB dran ist. Denn um die geht es in diesem Thema nicht!
Was heißt hier rausreden?
Mach bitte ein Vollzitat indem ich auch 8GB behandelt habe!

8GB ist 2025 einfach ein noGo!

Fertig!

Auch wenn da steht bei Radeon-Karten, nVidia triffts genauso.
 
Zuletzt bearbeitet:
9 Jahre Später im Jahr 2015 waren wir halt bei der R9 390 mit 4GB und 8GB Varianten.
Dann 2016 noch die günstigen Polaris mit 8GB für weit unter 300€. (Polaris war damals der Konkurrent Chip zu Nvidias GTX 1060, also das war RTX 5060 Klasse)
Und heute weitere 9 Jahre später 2025 hängen wir immer noch bei 8GB in der selben klasse rum.
Der Fortschritt den es Historisch immer gab, hat sich einfach mal ein Jahrzehnt Urlaub gegönnt :d
vermischst du hier nicht die Klassen etwas?

eine R9 390 war doch nie im "unteren" Bereich angesiedelt, sondern in der Mittellklasse auf Augenhöhe mit der GTX 970. Und da sind sowohl nvidia als auch AMD seit der letzten, bzw vorletzten Generation auf mind. 12 GB.

Bei dem PCGH-Test von 8 zu 16 GB verstehe ich absolut nicht die Einstellungen. Jedes Spiel wurde auf maximalen Details getestet. Und es gibt da nur 4 Spiele, die in FullHD überhaupt mal über 60 FPS kommen. Das sind doch keine realistischen EInstellungen, die man mit solchen Karten wählt. Interessanter wäre es doch, mal eine Einstellung zu wählen, in welcher mind. 80 FPS anliegen und dann für die 8GB-Karte einfach mal Texturen ne Stufe (oder2) nach unten stellen. Die Einstellungen für Raytracing sind noch schlimmer. Ich bin der Meinungt, der Artikel pusht das Thema sehr extrem und ist meiner Meinung nach nicht objektiv genug. Der Test zeigt viel mehr welche Titel richtig grottig mit dem Speciher umgehen und welche nicht. Hogwarts Legacy ist bspw völlig unbeeindruckt mit Raytracing und Indiana Jones extrem ernüchternd. Und jetzt wüsste ich nur zu gern, was passiert, wenn man da einfach mal ein realistisches Setting nimmt.

Natürlich würde ich mir auch keine 8GB-Karte mehr kaufen, aber es wird auch überdramatisiert. Wer den richtigen Regler etwas nach links schieben kann, der wird damit klar kommen. War doch vor 3 Jahren mit der 4070ti und den 12 GB das gleiche. Ich pushe meine 4070ti jetzt noch im Simrig weiter und werde da noch auf 3x 1440p hoch rüsten. Und wenn da am Ende 5 Jahre Nutzungsdauer aus der Karte rausgegkommen sind, dann wäre das voll okay für mich.
 
Wenn man die Texturen reduzieren muss, hat man am falschen Ende gespart.
Denn Texturen fressen keine Leistung, nur VRAM.

Wer bestimmt denn, was ein realistisches Setting ist?
Was ist ein realistisches Setting?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh