Mit 8 GB im Test: GeForce RTX 5050 bis 5060 Ti und Radeon RX 9060 XT im Mix

Aber nicht im Jahre 2022? RDNA 3, also die 7.000 Reihe war da noch lange nicht auf dem Markt. Die 6.000er waren, samt der 3.000 von Nvidia, die aktuellste Ware.
Für unseren Ältesten habe ich nach langer Zeit mal wieder einen PC gebaut. Könnte 2022 gewesen sein, bin aber nicht genau sicher. 650€ für eine RX6600XT. Das war noch die P/L-Karte. 🫣😅🤣
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe 2020 eine GTX 1080 gebraucht gekauft und da hat der Mann noch von seiner neu erworbenen 6900 XT geschwärmt, die er für 1.300 € erworben hat. Da kam Cyberpunk 2077 gerade raus. Kurze Zeit später wurde UE 5 beworben. Blöd nur, dass die GTX 1080 nur DirectX 12.1 beherrscht und UE 5 DirectX 12.2 voraussetzt. Konnte mich aber sehr lange mit Anno 1800 beschäftigen. Doch irgendwann kamen die UE 5 Spiele raus, zuerst Remnant 2?
Im Vergleich zu früher, konnte die GTX 1080, ganz ohne die physische Unterstützung von 12.2, die Spiele starten. Frühen ging das gar nicht. Doch obwohl die Karte das Spiel starten konnte bzw. das Spiel mit der Karte gestartet wurde, war die Verzögerung ein Graus. DirectX 12.2 war also nur simuliert, da keine Hardwareunterstützung. Die 6900 XT packt das alles, aber grenzwertig. Die Neuerung als sehr gutes Beispiel, wohin die Reise geht.
2025-9-29 19-13-53.png
 
Ich habe 2020 eine GTX 1080 gebraucht gekauft und da hat der Mann noch von seiner neu erworbenen 6900 XT geschwärmt, die er für 1.300 € erworben hat. Da kam Cyberpunk 2077 gerade raus. Kurze Zeit später wurde UE 5 beworben. Blöd nur, dass die GTX 1080 nur DirectX 12.1 beherrscht und UE 5 DirectX 12.2 voraussetzt. Konnte mich aber sehr lange mit Anno 1800 beschäftigen. Doch irgendwann kamen die UE 5 Spiele raus, zuerst Remnant 2?
Im Vergleich zu früher, konnte die GTX 1080, ganz ohne die physische Unterstützung von 12.2, die Spiele starten. Frühen ging das gar nicht. Doch obwohl die Karte das Spiel starten konnte bzw. das Spiel mit der Karte gestartet wurde, war die Verzögerung ein Graus. DirectX 12.2 war also nur simuliert, da keine Hardwareunterstützung. Die 6900 XT packt das alles, aber grenzwertig. Die Neuerung als sehr gutes Beispiel, wohin die Reise geht.
Anhang anzeigen 1145075
bin ich nicht sicher ob es dann fallback auf vulkan gab (OpenGL Nachfolger)
 
Die CS2 Ergebnisse sehen für mich aus wie ein Treiberproblem.
Bei einem Spiel war immer noch keine grafische Revolution erreicht hat und weiterhin auf der gleichen Ideologie von Engine beruht (CPU gebunden) empfinde ich die Differenz in den Ergebnissen zwischen AMD und Nvidia sehr fragwürdig.

Gibt es hierfür bereits ein Statement oder ist das einfach so?
 
Die CS2 Ergebnisse sehen für mich aus wie ein Treiberproblem.
Bei einem Spiel war immer noch keine grafische Revolution erreicht hat und weiterhin auf der gleichen Ideologie von Engine beruht (CPU gebunden) empfinde ich die Differenz in den Ergebnissen zwischen AMD und Nvidia sehr fragwürdig.

Gibt es hierfür bereits ein Statement oder ist das einfach so?
Wenn du die Karte auf Automatisch laufen lässt, kann es sein das der Treiber je nach CPU mal Physik auf CPU auslagert oder selbst berechnet. Hier kann es schonmal, wenn auch sehr selten zu der Unschärfe kommen.

Hardware Unboxxed hatte das mal getestet und dabei festgestellt das die Nvidia Karten öfter mit kleineren CPUs schneller im CPU Limit sind als die AMD Karten. Zumindest wenn man sowas wie Raytracing/DLSS außen vor lässt.
 
Bei Nvidia gabs mal in den Treibern die Option, womit DirectX verarbeitet werden soll, GPU, CPU oder automatische Wahl. Aber Counter Strike ist doch eine uralte grafische Grütze.
Ich denke, rein zum Testen ist Ubisoft Engine die Referenz für Rasterizer, ansonsten Black Myth Wukong ohne RT. Die Engine von Ubisoft finde ich am besten. Sieht gut aus, nicht besonders fordernd.
 
Zuletzt bearbeitet:
Jedenfalls würde ich mir auf keinen Fall so ein 8GB Ding holen.
Denn letztlich läuft es mit einer solchen Karte nur darauf hinaus, dass viel früher wieder eine Aufrüstung nötig wird, weil eben der Speicher fehlt. Somit hat man letztlich sogar mehr Kosten als wenn man heute die 60-80€ für zumindest eine 9060XT 16GB draufzahlt.
So dramatisch würde ich es nicht sehen, man bekommt ja aktuell auch noch 6GB Karten wie eine RTX 2060 oder GTX 1660 Ti recht gut verkauft, also würde ich davon ausgehen das man aktuelle 8GB Karten auch in einigen Jahren noch passabel verkauft bekommt.

16GB finde ich machen Sinn wenn man jetzt aktuell in 3440x1440, 5120x1440, 3840x2160 oder gar 4096x2160 oder 5120x2160 zocken will, wobei letztere eigentlich sogar eher ein Fall für 24GB wären.

Aber ansonsten reichen aktuell und für die nahe Zukunt 8GB schon noch.

Und mit der Zukunftsfähigkeit auf lange Jahre ist es so eine Sache, ich denke da wird eine RTX 5060 Ti 16GB oder RX 9060 XT 16GB irgendwann auch von der Rechenleistung und den Feature-Sets sehr am Limit sein, so das sie wahrscheinlich garnicht soviel zukunftsähiger ist als ihre 8GB Geschwister.

Deutlich besser sieht es natürlich ab der RTX 5070 Ti und RX 9070 aus, auch schon bei der RTX 5070 mit ihren 12GB. Vom Feature-Set her können die natürlich identisch, aber sie haben eben auch deutlich mehr Rechenleistung, und werden dadurch dann schon zukunftsfähiger sein, Aber dafür zahlt man dann auch schon jetzt bei der Anschaffung einen deutlichen Aupreis.
 
Ich denke -was ich so sehe- dass die 12GB genau zu der 5070 passen. Die Karte ist von der Leistung auf 1440p getrimmt.

Eine 5060TI oder eine 9060XT werden ja auch nicht schneller durch Ihre 16GB. Den AMD-Karten tut etwas mehr VRAM immer gut und bei der 5060TI sind 16GB wohl eher für die Cuda-Anwendungen gedacht.

So Exotenkarten wie die 3060 12GB werden leider immer wieder empfohlen, obwohl sie nicht für Spiele gedacht sind (die 3060TI 8GB z.B. ist deutlich flotter).
Oder die RX7600 16GB -es gibt einige Bildbearbeitungsprogramme, die von den 16GB profitieren. Für Spiele passt da das Verhältnis von GPU-Performance und VRAM einfach nicht.
 
Zuletzt bearbeitet:
"Ideologie"
Pc "aufrüsten"
Eine Wahl "treffen"
Die Entscheidung ist "gefallen"
"Bombastisch"

Deutsche Sprache:unsure:
 
Aber ansonsten reichen aktuell und für die nahe Zukunt 8GB schon noch.
Sehe ich halt nicht so, sagen wir mal es ist ein Spiel das nicht HFR brauch und mit 30-40FPS klar kommt. Dann freut man sich wenigstens Texturen auf Hoch/Maximal zu stellen.

Mach einen Selbst-Test. Nimm ein modernes Game und stelle alle effekt auf Ultra aber Texturen auf niedrigste und dann genau das umgekehrte. Was sieht optisch besser aus?

Ich bin mir ziemlich sicher die Texturen Variante sieht besser aus.
 
Aktuell geht in 1080p noch so ziemliches alles perfekt mit einer 3070. Ich würde Indiana Jones (hab's nicht getestet, aber wird wohl schwierig mit Pathtracing) ausklammern. Mit abstrichen auch 1440p. Aber dann nicht mehr auf Ultra, was ich aber nicht ausschließlich auf den VRAM zurückführen würde.

Aber klar, in Deinem speziellen Szenario macht das Sinn. Möglichst hohe Grafiksettings und Texturen, dafür "nur" stabile 30-40Fps. Bei Rollenspielen durchaus denkbar. Braucht man aber wohl auch einen guter Monitor für die Synchronisierung der Frames.
 
Aktuell geht in 1080p noch so ziemliches alles perfekt mit einer 3070.
Nix da. Gibt genügend Spiele in denen die 8GB Speicher deutlich limitieren. Macht sich dann oft in Matschtexturen oder spät/gar nicht ladenden Texturen bemerkbar.
Prominent war dieses Thema bei Release von Hogwarts Legacy. Da zeigte eine 3070 genau dieses Verhalten, während es mit einer RX 6700XT mit ihren 12GB keinerlei Probleme gab.
GPU Leistung und dadurch viele FPS ist halt nicht alles.
 
Nix da. Gibt genügend Spiele in denen die 8GB Speicher deutlich limitieren. Macht sich dann oft in Matschtexturen oder spät/gar nicht ladenden Texturen bemerkbar.
Prominent war dieses Thema bei Release von Hogwarts Legacy. Da zeigte eine 3070 genau dieses Verhalten, während es mit einer RX 6700XT mit ihren 12GB keinerlei Probleme gab.
GPU Leistung und dadurch viele FPS ist halt nicht alles.
So etwas gibt es. Aber extrem selten. Nicht bei 1080p. Und nicht bei Hogwarts -das haben wir auch hier.
1759266004676.png

Probleme gibt es höchstens bei "Tests" wo Raytracing ohne DLSS eingeschaltet wird. Gerade Hogwarts läuft extrem gut auf der 3070.
 
Zuletzt bearbeitet:
Ich glaube, die 6750xt war im Abelverkauf eine der Empfehlungen schlechthin für 299€ oder so.
Sowie lange Zeit die RX6800 zu 399€ unschlagbar war.
Jetzt sind beide aus den Regalen verschwunden. Gebraucht sicher auch noch interessant. Die RX6800 wurde bei Kleinanzeigen oft von Betrügern angeboten, da sie so bielebt bzw nachgefragt war.

Selbst die RX6800XT war zum BF für um die 425,- Euro erhältlich. Die RX 6750XT würde des Öffteren für um die 300,- Euro im Mindstar beworben.

So dramatisch würde ich es nicht sehen, man bekommt ja aktuell auch noch 6GB Karten wie eine RTX 2060 oder GTX 1660 Ti recht gut verkauft, also würde ich davon ausgehen das man aktuelle 8GB Karten auch in einigen Jahren noch passabel verkauft bekommt.

Zumindest verkaufte sich die RTX 2060 für um die 34,- Euro aus dem Lenovo Überschuss-Verkauf wie geschnitten Brot...
 
Zuletzt bearbeitet:
Selbst die RX6800XT war zum BF für um die 425,- Euro erhältlich. Die RX 6750XT würde des Öffteren für um die 300,- Euro beworben.
425 für die 6800XT ist ja ein Nobrainer. Habe ich nicht mitbekommen damals. Die ist doch fast genauso schnell wie die 7800XT, oder? Letztere war aber auch lange Zeit "Die" Empfehlung für maximale FPS pro Euro.
 
425 für die 6800XT ist ja ein Nobrainer. Habe ich nicht mitbekommen damals. Die ist doch fast genauso schnell wie die 7800XT, oder? Letztere war aber auch lange Zeit "Die" Empfehlung für maximale FPS pro Euro.
Ich hab meine 7800XT seinerzeit für 400€ gebraucht gekauft (wobei die nur ca. 3 Monate gebraucht war). DAS war ein Schnapper.
Und das war sogar ne Sapphire Nitro+ und nicht irgendein Billigmodell.
Ging kürzlich hier am Marktplatz noch für 330€ raus.
 
425 für die 6800XT ist ja ein Nobrainer. Habe ich nicht mitbekommen damals. Die ist doch fast genauso schnell wie die 7800XT, oder? Letztere war aber auch lange Zeit "Die" Empfehlung für maximale FPS pro Euro.

Soweit ich mich erinnere eine MSI als Alienware deklariert. Zu dem Pixelbeschleuniger selbst gibt's reichlich Content. Als die dazumal auf mydealz zum BF beworben wurde, stieß das Angebot auf große Zustimmung. Selbst ich war am Überlegen, aber auf Grund der vorhandenen sah ich kein Handlungsbedarf, wobei ich auf Grund des Werterhaltes nicht viel hätte falsch machen können.

Moment, screenshot folgt...


Testberichte & Infos:

Beitrag automatisch zusammengeführt:

Apropos Einstieg: Der begann bei ~ 130,- Euro, in Form von einer RX 6600M (ca 10% langsamer als eine herkömmliche RX 6600) vom Hersteller SOYO, was wohl selbst gebraucht schwer zu toppen sein dürfte, siehe:

rx6600m_03.jpg

rx6600_4.jpg

rx6600_5.jpg


Quelle: RX6600M Desktop - Kurzer Erfahrungsbericht

Leider hat sich kaum ein Hardwaremagazin diesem Chip gewidmet, warum auch immer...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh