2022 sind 4 GB nicht mehr zeitgemäß: 2x Radeon RX 6500 XT von Gigabyte im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meinst du ich hab mir einfach eine 3080ti gekauft für 1799 . Preis hin oder her stattdessen irgendeine schwächere oder 0815 Karte zu Kaufen kam nicht in frage und ich denke da bin ich nicht alleine mit der Meinung.


Hier ein perfektes Beispiel für die Blase.

Mal abgesehen das es nicht genug Karten gibt. Viele Leute können keine 1800 € für eine Grafikkarte ausgeben.

100€ ist einfach unrealistisch. Dafür sind die Herstellkosten zu hoch, unabhängig von der Markt und supply chain situation in den letzten 18 Monaten.

Wenn du sowas erwartest nimm eine alte gt710 die sich in dem Preisrahmen produzieren lässt oder eine CPU mit IGP.


Das ist ein winziger Chip, auf einer kleinen Platine mit so wenig Komponenten wie möglich. Der Herstellungspreis dürfte weit unter 100 € liegen.
 
Hier ein perfektes Beispiel für die Blase.

Mal abgesehen das es nicht genug Karten gibt. Viele Leute können keine 1800 € für eine Grafikkarte ausgeben.




Das ist ein winziger Chip, auf einer kleinen Platine mit so wenig Komponenten wie möglich. Der Herstellungspreis dürfte weit unter 100 € liegen.
Gut das ich es kann :P die Blase interessiert mich nicht wenn ich ein neues System bauen will bau ich es . Wer das nicht kann der sollte halt seine Alte Karte behalten und kann halt nicht die aktuellen Spiele auf hohen Einstellungen spielen und muss sich damit abfinden . Aber rumheulen bringt auch nix und nervt
 
Ja richtig es nervt, dann lass es doch sein. Die Karten werden sich verkaufen. Wo ist dein Problem?
 
Das ist ein winziger Chip, auf einer kleinen Platine mit so wenig Komponenten wie möglich. Der Herstellungspreis dürfte weit unter 100 € liegen.
Auf einer teuren next gen node produziert...
Und du musst Bedenken dass noch mehr Marge für alle Schritte der Wertschöpfungskette rein muss... Etwa 100%.
Dann bist du bei 100€ HK bei 200€ UVP
 
Wenn die Karten für einen akzeptablen Kurs ankommen, werden weniger Kunden teurere Karten kaufen. Ich kann die Karte an sich nicht gut heißen da es das wirklich übelste resteverwertung ist. Aber jede billige Karte die den Gamer Endnutzer erreicht ist sinnvoll.
 
Auf einer teuren next gen node produziert...
Und du musst Bedenken dass noch mehr Marge für alle Schritte der Wertschöpfungskette rein muss... Etwa 100%.
Dann bist du bei 100€ HK bei 200€ UVP


Wir wissen natürlich beide nicht, wie teuer die Produktion an sich ist. Der Chip ist relativ neu, alles andere sind ja bekannte Komponenten.

Die wesentlich fettere 480/580 hat man auf jeden Fall für unter 300 € verkaufen können und ist nicht schlecht damit gefahren. Und in Sachen Komplexität verhält sich die 6500 gegenüber der 580 ja wie ein Faustkeil zur Bohrmaschine (übertrieben ausgedrückt). Die hatte mehr Ram, einen größeren Chip (mit mehr Transistoren), eine größ0ere Speicheranbindung, mehr Lanes, mehr Verbrauch, mehr Spannungswandler....
 
Die wesentlich fettere 480/580 hat man auf jeden Fall für unter 300 € verkaufen können und ist nicht schlecht damit gefahren. Und in Sachen Komplexität verhält sich die 6500 gegenüber der 580 ja wie ein Faustkeil zur Bohrmaschine (übertrieben ausgedrückt). Die hatte mehr Ram, einen größeren Chip (mit mehr Transistoren), eine größ0ere Speicheranbindung, mehr Lanes, mehr Verbrauch, mehr Spannungswandler....
ist aber auch "mehr" also viel länger her. Für wieviel wird jetzt ne 580 abverkauft?

Wer daddeln will, soll zu einer Graka mit 8GB, wenigstens 6GB greifen , fertig ... die 4GB Karte ist einfach fern jeder Realität und wird wohl noch in 10 Jahre ein oder 2 lustige Sätze in der geschriebenen Chronik ausmachen: Als Ausgeburt einer Extremsituation, ein Produkt das sonst niemals so den Markt erreicht hätte ... Da macht es wirklich eher sinn ne Vega, oder 5500XT auszugraben oder ne 1060 oder 970.
 
Es gibt zur Zeit kaum Karten. Da nimmt man, was man kriegen kann.

Ich hab schon Leute, die haben sich über eine Radeon 7770 gefreut. Wenigstens irgendwas, was 3dfähig ist.
 
Ich glaube dann würde ich mir eher nen komplett PC mit 3060 holen und versuchen die nicht benötigten Komponenten abzustoßen.
Bei csl oder agando gibt es da ab und an was vernünftiges
 
Zuletzt bearbeitet:
AMD preist die Karte ja dementsprechend an.
AMD RX 6500 XT.jpg


Ich seh schon die MediaMarkt/Saturnwerbung bildlich vor mir.

Raytracing fähige Gamer Karte der neuen RDNA2 Technologie mit den höchsten Taktraten die je eine Grafikkarte erreicht hat.
Im Bundle mit der super schnellen neuen 12ten Gen von Intel bist Du rasant im Geschehen und immer vorne mit dabei...sei schneller als deine Gegner .

....und am Ende ist man teilweise langsamer als ein uralter i7 3930K (2011) mit einer GTX 980 (2014) :ROFLMAO:.

2022 vs 2014.jpg
 
Zuletzt bearbeitet:
Jagut, ohne VRM Kühlung muss jetzt nix heißen, kommt halt ganz auf die Effizienz der Synchronwandler an. Und wenn die CPU @Stock läuft ist das auch für ein effizientes VRM kein Problem da die 105W bereit zu stellen. Wenn gut effizient ist, hat das VRM einen eigenverlust von ca. 8W - und die bekommste mit einem sanften Luftstrom locker weggekühlt, bzw. Das PCB dient ja auch mit als wärmeverteiler.
Aber nichts desto trotz ist so ein System natürlich absolut FACEPALM
 

@AssassinWarlord

Schau dir mal das Video das ich im anderen Thread (# 41 ) verlinkt habe an.
Da ist es NUR ein 3600X aber was die Spannungswandler da für Temperaturen haben, nein Danke.

 
Nur dass das A320 die erste Generation überhaupt mit war zu den ryzen CPUs, da war die VRM Technik auch noch nicht soweit.
Klar sind über 110°C nicht schön, aber gibt halt auch mosfets die können auch 175°C ab im aktiven betrieb.
Bei einigen grafikkarten glüht das VRM auch mit über 100°C vor sich hin xD
 
....und am Ende ist man teilweise langsamer als ein uralter i7 3930K (2011) mit einer GTX 980 (2014) :ROFLMAO:.
Kommt drauf an ob die AMD Karte mit FSR läuft oder ohne, mit ohne BAR etc, aber die 980 ist halt ne High-End Karte damals gewesen die sogar DX12 noch supported...
Aber ja das ist schon krass, ich meine 2014-2021/2022 ~7 Jahre unterm Strich zumindest eine Bestätigung das eine High-End Karte eine gut alternde Investition ist.
https://benchmarks.ul.com/hardware/gpu/NVIDIA+GeForce+GTX+980+review laut dem review kostet die doppelt soviel wie ne RX 580 bei in etwas identischer Leistung, die RX 580 kam knapp 3 Jahre später 2017.

Andererseits, mal vom aktuellen Preis abgesehen kann man das auch so sehen: ~7 Jahre später ist eine Einstiegskarte die ~1/3 weniger kostet in etwas genau so schnell.
Beitrag automatisch zusammengeführt:

Nur dass das A320 die erste Generation überhaupt mit war zu den ryzen CPUs, da war die VRM Technik auch noch nicht soweit.
Klar sind über 110°C nicht schön, aber gibt halt auch mosfets die können auch 175°C ab im aktiven betrieb.
Bei einigen grafikkarten glüht das VRM auch mit über 100°C vor sich hin xD
Die Boards und VRMs sind eh nicht auf diesen Boards für 24/7 ausgelegt. Für normalen "Gaming/Hobby" Betrieb würde das ding bedenkenlos laufen. Ich würde halt keinen Mining Server oder so betreiben der eben im Dauerbetrieb läuft. Abseits von Dauerbenchmarks und Burn-In Test wird das locker im Alltag laufen., natürlich ggf. mit gewissen Einschränkungen z. B Boost.
Aber hey das Zeigt, wer mal bei AMD sich ne dicke CPU leisten konnte und ggf. ein defektes Mainboard hat, kommt eben auch mit einem Board unter 50€ klar und kann nochmal überbrücken bis zur nächsten Generation.
Ich würde auch niemandem empfehlen ein A320 Board in dieser Kombination zu verwenden xD
 
Zuletzt bearbeitet:
Würde mir auch keine 4Gb GK heutzutage mehr kaufen wollen.
Für nen Office Pc oder Pc wo man ein wenig Video guggt Streams a la Zoom oder ähnliches macht reichen 4 Gb gerade so.
Bei Anwendigen CAD Zeichnungen sieht es anders aus.
Be sehr großen Tabellen in der Tabellenkaltulation wie bei Libre Office kommen auch 4 GB schnell an ihre Grenzen.
Heutzutage muss es eine 8GB GK sein egal wie. Damit lässt sich das meiste heute noch Problemlos Umsetzen.
Der Chip auf der GK ist etwas Abgespeckt und beim Video Rendern braucht er wesentlich mehr zeit als eine 66XX oder 69XX
 
Wenn du sowas erwartest nimm eine alte gt710
Ich erwarte doch nicht soetwas. Ich sehe doch die Realität. Es war nur ein Ausdruck meiner Meinung für diesen Pfusch den man heutzutage auch noch zu Geld machen kann und dabei auch noch Ressourcen vernichtet.
 
Das ist eine Marketing Grafikkarte finde ich, wie die FX5200 damals - wurde auch stark beworben was die doch für schöne Effekte zauben konnte...naja nur dass das für Dia-Shows galt wurde verschwiegen xD
selbe hier in sachen Raytracing
 
Einen 35w Notebook Chip mit Gewalt Richtung 3GHz und >100W prügeln? Schwierig.

Mit 50-70W hätte das dagegen eine ordentliche, moderne low-end Karte werden können. Mit viel! höherer Effizienz und auch die 4x Anbindung und der magere vram passen dazu besser.
 
Meine zwei Jahre alte 5700XT wurde vor zwei Monaten bei Ebay für 970,- ersteigert, obwohl es Nachfolger gibt, die günstiger sind. Die Leute kaufen einfach. Man kann alles auf den Markt schmeißen.
 
Be sehr großen Tabellen in der Tabellenkaltulation wie bei Libre Office kommen auch 4 GB schnell an ihre Grenzen.
Sicher?

Ich hab bei Libre Office mal auf meine GT210 geschaut mit 1GB DDR RAM und die war nichtmal beschäftigt bei einer Datenauswertung über 20.000 Zeilen und 50 Spalten
Excel übrigens mit Pivottabellen und entsprechenden Darstellungen von Auswertungen auch nicht ...

Während die CPU arbeitet ist die Grafikkarte mit der Darstellung einen Full HD Bildschirms in WIn10 irgendwie nicht groß fordert ...


meinst du evtl Arbeitsspeicher aufm MB?
 
Würde mir auch keine 4Gb GK heutzutage mehr kaufen wollen.
Für nen Office Pc oder Pc wo man ein wenig Video guggt Streams a la Zoom oder ähnliches macht reichen 4 Gb gerade so.
Bei Anwendigen CAD Zeichnungen sieht es anders aus.
Be sehr großen Tabellen in der Tabellenkaltulation wie bei Libre Office kommen auch 4 GB schnell an ihre Grenzen.
Heutzutage muss es eine 8GB GK sein egal wie. Damit lässt sich das meiste heute noch Problemlos Umsetzen.
Der Chip auf der GK ist etwas Abgespeckt und beim Video Rendern braucht er wesentlich mehr zeit als eine 66XX oder 69XX
Im office Betrieb macht die Grafikkarte gar nichts im besten Fall nur unterstützen ohne großartig was in den Grafik Speicher zu hinterlegen.
 
Meine zwei Jahre alte 5700XT wurde vor zwei Monaten bei Ebay für 970,- ersteigert, obwohl es Nachfolger gibt, die günstiger sind. Die Leute kaufen einfach. Man kann alles auf den Markt schmeißen.

Das dürfte eher daran liegen, dass die Karte nicht zum zocken gekauft wurde.

Ich hab eine reparierte Vega für 550 € verkauft. Die ging auch nicht an einen Zocker.
 
Also 4K+ wird schon grenzwertig, bei diversen Games reicht der RAM halt nicht mehr, auch wenn die Karte die Power hätte z. b 5k zu verarbeiten mit spielbaren FPS Bottleneckt der RAM...
Aber ich bin da zufrieden, angesichts der aktuellen Situation kann man es sich nicht leisten auf so hohem Niveau zu meckern.
Das ding ist wie gemacht für UWQHD.
Also in meinen Games (RDR2, GR Breakpoint, Division 2, Forza5, Civ6, SW Jedi Fallen Order) ist auf 4k und vollen Details (Preset) alles tutti. Die Ubisoft Spiele nutzen bis zu 9800MB (ja auch nach der Stunde spielen), die anderen gehen vielleicht in die 7GB Regionen.

Mal abgesehen von diesem FC6 HD Pack, welche Spiele genau gehen denn bei 4K und 10GB VRAM in die Knie?
 
Mal abgesehen von diesem FC6 HD Pack, welche Spiele genau gehen denn bei 4K und 10GB VRAM in die Knie?
Bloß nicht die Trolle füttern...man konnte damals™ schon mit Gears of War 4 mit bestimmten Einstellungen die 2080Ti dazu bringen ne Meldung mit zu wenig Speicher auszugeben.
Musst eigentlich nur drauf gucken wer welche Behauptungen anstellt und dann in der Sig gucken welche Karte verbaut ist.
Einfach beim nächsten Mal überlesen und weiter gehts.
 
Bloß nicht die Trolle füttern...man konnte damals™ schon mit Gears of War 4 mit bestimmten Einstellungen die 2080Ti dazu bringen ne Meldung mit zu wenig Speicher auszugeben.
Musst eigentlich nur drauf gucken wer welche Behauptungen anstellt und dann in der Sig gucken welche Karte verbaut ist.
Einfach beim nächsten Mal überlesen und weiter gehts.


Eine 3080. Also nicht ernstzunehmen weil?
 
Ich hab explizit erwähnt 5K+, für 4K reicht es gerade so und ja es gibt Spiele die den RAM voll füttern - mag sein das es Entwickler gibt die nach dem Motto programmieren "The Winner takes it all" und halt immer 90-95% vom nutzbaren Speicher reservieren.
Und kommt nicht mit alten Schinken um die Ecke ;)
Ich rede von Games die Raytracing unter anderem haben und Games die demnächst auf den Markt kommen.

Übrigens DLSS zieht auch VRAM.
Es zeigen ja schon verschiedene Tests, dass 4GB schon zu knapp für FULL HD-Ultra ist und man dort eher ~5GB bräuchte, ->6GB wäre dort schon Standard.

Einige Titel nutzen ja schon die 8GB VRAM in WQHD schon gut aus(6,5-7GB-avg). Ich sage ja nicht das 4K nicht ginge, ich sag nur das die Karte in der nahen Zukunft in 4K nicht mehr lange dank dem Speicher Land sehen wird ohne die Texturen zu reduzieren.

Schau dir mal die next Gen Demos an

Deswegen auch meine These das es keine Volle 4K Karte ist, sondern eher die Ideal UWQHD Karte abgibt die auch in kommenden Jahren genug Leistung für die Auflösung werfen wird.

Wenn ich die Wahl habe zwischen 75~ FPS+ UWQHD und 30FPS 4K.. würde ich die UWQHD Auflösung vorziehen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh