AMD kontert im Einsteigermarkt mit Radeon RX 6500 XT in 6 nm

Das wird nicht passieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man kann nur hoffen, dass die 4GB für Miner uninteressant sind. Dann könnte man auch eine bekommen
 
@Zyxx
Oh so viele sind also noch mit so alten GPUS unterwegs. Ich frage mich wie lange so in der Regel eine GPU hält,bist sie wirklich mal den Geist aufgibt.
Mein Bekanntenkreis ist eventuell auch spezieller, da ich für gute Freunde seit vielen Jahren den PC Zusammensteller / Bauer / Reparat0r mache.
Die wollen den Witcher oder Cyberpunk ohne Ruckeln spielen, die wollen Forza spielen... die alten Karten -bis auf ratternde Lüfter- sind noch top in Schuss. Aber performanterer Ersatz ist angezeigt.
 
Ok verstehe,na dann steigen auch die Hardware Anforderung bei den Spiele Entwickler auch nicht mehr so stark an,weil die richtigen sich ja an die breite Masse und die hat nun mal keine Über GPUS. Das heißt die breite Masse hat genau die GPUS die hier ja erwähnt wurden.Also wird man auch in nächster Zeit auch mit denen GPUS super zocken können.Also zumindest solange man nicht mehr als Full HD als Anspruch hat,wird es wohl reichen.Und erst recht wenn man sich keine neuen Videospiele mehr anschafft.Und bei den hohen Preisen werden gewiss auch einige auf Konsolen wechseln.So oder so wird AMD hier kein Geld verlieren.Weil egal ob Konsole oder am Pc,Amd wird immer Geld machen.
Und naja die nächste Konsole wird um ein vielfaches besser sein als die heutigen GPUS die die breite Masse so hat.
Das heißt es wird auch in Zukunft auch Preiswerte GPUS geben.Auch hier wird es mit der Zeit auch mal bessere GPUS geben.
Ich bin mir also sehr sicher,das wird eine gute Leistungssteigerung.
Und wer weis,vielleicht kommt ja von beiden also von AMD und Nvidia 50 Watt GPUS auf dem Markt.Ich wäre auch mit 75 Watt zufrieden,wenn die Leistung stimmt.Allerdings habe ich es nicht eilig,weil die meinigen GPUS noch einige Zeit ihre Arbeit machen wird.Ich wechsele auch nicht mehr so häufig ne GPU wie damals. Ist mir das schöne Geld nicht Wert wegen so ner kleinen Steigerung mehr auszugeben als nötig.
 
oder noch ein Feld wo interessant wird,vermietest ne GPU einfach.Sobald die Person es nicht mehr braucht,gibst die wieder ab und der Miner hat erst gar keine Kosten gehabt.Ein Traum für alle die viel Geld haben wollen.
 
Seit dx12 ist btw crossfire/sli nicht mehr notwendig.
 
keine Ahnung wo die Karten preislich landen, aber selbst eine rx 6600 hat kaum mehr leistung als eine 6 jahre alte gtx 1080. ja, die Effizienz ist vermutlich deutlich besser, aber 6 jahre später "gaming" karten zu verkaufen, die weniger leistung haben als mittelklasse karten von vor 6jahren ist echt übel
 
keine Ahnung wo die Karten preislich landen, aber selbst eine rx 6600 hat kaum mehr leistung als eine 6 jahre alte gtx 1080. ja, die Effizienz ist vermutlich deutlich besser, aber 6 jahre später "gaming" karten zu verkaufen, die weniger leistung haben als mittelklasse karten von vor 6jahren ist echt übel

Es ist leider so, dass man als Einstiegs- und Mittelklasse Gamer nicht mehr Leistung pro € bekommt. Da muss man halt direkt eine 6800 oder 6800 XT nehmen. Das sind die einzigen Karten, wo sich das Geld im Vergleich zur Leistung lohnt (UVP natürlich). Dazu haben auch die einzelnen Chips zu wenige CU.

Vergleich: 6800 hat 60 CU und eine 6700 XT hat dann nur noch 40 CU. Die haette da 44-46 CU schon benötigt, um auch mehr Performance per € zu bringen.

Seit Ryzen 5000 interessiert AMD sich nicht für den Budget Gamer. Es gibt zB gar kein Ryzen 3 5XXX, sowie keine Modelle ohne X mehr. Du musst fast 300€ für den Einstieg in Zen 3 zahlen.
 
Wenn die Performance über einer RX570 liegt, dann ist es in heutiger Zeit schon ein Gewinn und spieletauglich.
 
ich frage mich ob die Hersteller es weiter Ausdüngen,also sprich immer noch weniger für die Mittelklasse produzieren um mehr Kapazitäten für die größeren GPUs und CPUS herstellen zu können.
Denn dann würden die ürbigen Produkte nämlich noch Teuerer. Und damit würde dann auch die Marge weiter ansteigen für solche Firmen wie AMD.Das heißt bald macht AMD auf Intel.Und Intel nun ja keine Ahnung wohin sie gehen werden,aber naja Preise werden so oder so höher sein als wir bisher gewohnt sind.Intel wurde ja immer als Teuro bezeichnet. Ob man das noch immer behaupten kann,wer weis.
Und naja für welche die in Zukunft nicht mehr so viel Geld ausgeben können und wollen,werden wohl zum Gebrauchtmarkt wechseln müssen um den Aufpreise von 100-200 € und mehr Ausgleichen zu können. Und der Traum nen 1650 Bereich also was Preis und so angeht und auch den Stromverbrauch nur halt mit mehr Leistung,da kann ich wohl lange warten bis da mal was sich verändert. Naja man muss halt wirklich sehr viel Geduld mit bringen,sonst hat man da schon längst verloren.
 
Wird Zeit für nen Laden der die Karten per Leasing vertreibt...
GPUs leasen: des miners feuchter Traum!
oder noch ein Feld wo interessant wird,vermietest ne GPU einfach.Sobald die Person es nicht mehr braucht,gibst die wieder ab und der Miner hat erst gar keine Kosten gehabt.Ein Traum für alle die viel Geld haben wollen.
Schon bei der Miet'ze geschaut? :)
Preislich halt wie immer dort - nach spätestens 2 Jahren hat man den Kaufpreis gezahlt. Lohnt sich nur bedingt, darum sind auch einige verfügbar :/
Z.B. eine TUF 3090 für 180€ im Monat bei einem Jahr Laufzeit.
 
Die Karten sind knapp, weil die Produktion derzeit an vielen Ecken hakt und gleichzeitig insbesondere durch Kryptominer eine massive Nachfrage besteht! Diese Typen interessiert der Kartenpreis natürlich nicht. Sie machen damit ja weiterhin hübsche Gewinne.

Was wir bisher serviert bekommen haben, sind auch keine Einsteigerkarten. Das sind Mittelklasse bis High End Modelle mit 8GB und mehr Speicher, die man durchaus auch für mehr als nur FullHD Gaming auf mittleren Einstellungen nutzen kann.
Was hier aber nur kommen soll, sind wirklich Einsteigerkarten, die in der Regel von Kunden gekauft werden, denen schon 200€ für eine Karte fast zu teuer sind. Das sind keine Grafikfetischisten, die unbedingt neueste AAA Titel in 4K, Ultra Details und mit 144Hz Monitor zocken.
Denen verkauft man nicht einfach mal so eine neue GPU für 400€.

Und all jene, die 400€ für eine GPU locker machen wollen/können, haben entweder schon entsprechende ältere Karten (bspw. sowas wie eine GTX 1080), zu denen dieses Zeug hier keinerlei Upgrade darstellen würde. Oder sie haben bereits in den sauren Apfel gebissen und ihre 400€ aufgestockt und sich was besseres gekauft.

Aber nie und nimmer verkauft man solche Einsteigerkarten zu ähnlichen Wucherpreisen wie das bisherige Portfolio. Die entsprechende Zielgruppe ist schlicht nicht bereits, so viel Geld dafür auszugeben.
Und so wird es von diesen Karten wohl auch nur wenige Modelle und diese auch nur in ziemlich geringer Stückzahl geben. Einfach, weil es beim aktuellen allgemeinen Preisniveau schlicht kaum Käufer dafür gibt.
Das Karten knapp sind ist wohl jedem schon klar. Egal was ist. Der Markt bestimmt den Preis. Und die Leute kaufen trotzdem. Nicht alle, aber einige. Die sind auch nicht alle dumm. Es gibt genug die das zahlen und gut. Manche interessiert das nicht mal. Dazu kommt das die Leute Weltweit gespart haben und die Nachfrage nach Konsumgütern stark steigt.
Wer sagt denn das es wirklich wieder günstiger wird. Nun ja, das es günstiger werden wird ist schon irgendwie klar, nur wie viel. Da es nun an anderen Stellen hapert und auch die Energiepreise explodieren usw. sehe ich erst mal keine Besserung. Und sollten diese "Einsteigerkarten" verfügbar sein, werden die Leute diese auch kaufen. Hat nicht jeder die gleichen Ansprüche.
Hätte auch nicht gedacht das es so schlimm wird. Habe mir vor 3 jahren die 1080TI gekauft da die 2080TI mit 500€ mehr es definitiv nicht wert war. Die hat nun jemand in der Familie und freut sich und die 3090 werkelt bei mir für den Preis einer 3080 oder sogar weniger. Hat "weh" getan, bereue ich aber nicht. Es könnte sogar sein das hier in 3 Jahren noch immer darüber diskutiert wird wie teuer das alles ist, wer weiß das schon. Da haben sich sehr viele Nachfragen angestaut. Und mit der Umrüstung auf"grün" kommen noch viele mehr dazu. Die Bauteile stecken ja nicht nur in den Karten.
Die 6600xt z.B. ist wenn man diese mit der 1080TI vergleicht sogar angemessen im Preis. Trotz 128bit und weniger Speicher. Die leistung bis 1440p passt. Diese würde ich in einem PC erst mal einbauen wenn es ein Kompromiss sein soll und nicht all zu teuer. Also mal abwarten wo diese 400€ Karten leistungsmäßig so liegen werden. Ob das nur Kunden sind denen 200€ schon zu teuer sind weiß ich nicht. Es gibt ja noch andere Anwendungen außer Zocken wo so was einen Leistungsschub bringt. Ist ja nur meine Meinung.
 
Wird echt Zeit das Intel ARC liefert (auch wenn der CHIP auch bei TSMC gefertigt wird)... aber Konkurrenz tut dringend Not.
 
Wobei 4GB definitiv zu wenig sind, das reicht gerade so für FULL HD und ist natürlich schneller als IGPU... aber wenn der Preis ein Vielfaches ist, dann wäre das zu schade.
Die neuen müssten schneller sein als eine 1050TI/1650/1660 damit sich die 300€ irgendwie lohnen würden. Sollte die nicht schneller sein... oder nur marginal sehe ich schon die anderen alten Gebrauchten wieder im Preis explodieren.
 
Ich finde es gut, dass sich im Einsteigersegment endlich mal wieder etwas tut. Natürlich ist mit hohen Preisen für die RX6400/6500 zu rechnen, die man normalerweise nicht bereit wäre, in solche Karten zu investieren. Wenn man aber aufrüsten muss, stellen solche Grakas zumindest eine Alternative dar, insbesondere wenn man ein System besitzt, für das es keine Umrüstmöglichkeit auf eine CPU mit hinreichend leistungsfähiger interner Grafikeinheit gibt. Das ist bei meinem Zweit-PC der Fall, ein Lenovo M92p mit i7-3770 (inklusive HD4000-Prozessorgrafik) und einer GT1030, die einen Full-HD-Bildschirm befeuern muss. Da ich den Rechner gerne an einen 4K-Monitor anschließen und damit streamen würde, wäre eine RX6400 eine interessante Option, sofern Preis und Leistung stimmen.
 
Moin, ich könnte mir auch gut vorstellen, dass die Spieleentwickler ihre Strategie ändern. Vielleicht werden sie in Zukunft Spiele wieder mit dem Fokus entwickeln, mit weniger Rechenleistung auszukommen. Sie haben ja auch ein Interesse daran ihre Kunden zu behalten. Jedenfalls würde ich das feiern. Dann könnte man auch die vorhandene Hardware länger nutzen.
 
Moin, ich könnte mir auch gut vorstellen, dass die Spieleentwickler ihre Strategie ändern. Vielleicht werden sie in Zukunft Spiele wieder mit dem Fokus entwickeln, mit weniger Rechenleistung auszukommen. Sie haben ja auch ein Interesse daran ihre Kunden zu behalten. Jedenfalls würde ich das feiern. Dann könnte man auch die vorhandene Hardware länger nutzen.
Man wird sich an den Konsolen orientieren und die haben eine nicht unerhebliche Leistung, zumindest aktuell. Ich denke der Spielraum nach unten wird nicht sonderlich groß sein insbesondere bei AAA Titeln und sowas wie die UE5.... da bezweifle ich das ne 4GB RAM Grafikkarte reichen wird.
 
Wobei 4GB definitiv zu wenig sind, das reicht gerade so für FULL HD und ist natürlich schneller als IGPU...
Wobei das schon reichen würde, wenn der Preis passt.
Nicht ohne Grund wird gerade die Quadro T400 (~80€) und T600 (140€) als Übergangslösung oder Upgrade für ne alte iGP gekauft.

Für einfache Titel wie CS:GO/Rainbow Six Siege/Fortnite oder eine schwächelnde iGP sollte die schon reichen.

Ich finds schade das die 6400 wohl eine reine OEM-Karte wird.
Für einen uralten i3 würde die als Upgrade zur iGP mehr als locker reichen.
Wäre eine deutlich bessere Lösung als eine uralte 710 oder 730
 
Wie ist das eigentlich? AMD CPU´s haben doch keine integrierte GPU (bis auf wenige Ausnahmen). Wäre Interessant, ob sich AMD CPU´s noch besser verkaufen würden, wenn auch erschwingliche Grafikkarten zu haben wären?! Denn mal ehrlich, da greife ich im Moment lieber immer noch zu Intel, da bekomme ich eine Kiste ans Laufen, sogar mit Bild. Bei AMD kannst dann mal kräftig in den Geldbeutel fassen, bis man da ein Bild auf dem Schirm hat.
 
CPUs würden sich wohl grundsätzlich noch besser verkaufen, wenn die GPU Situation besser wäre. Egal ob AMD oder Intel.
Will man allerdings einen gescheiten Spiele PC haben, muss man aktuell ebenso grundsätzlich tief in die Tasche greifen. Da spielt es doch gar keine Rolle, ob die CPU eine iGPU hat, oder nicht. Und wenn ich nicht spielen will, ja dann kann ich mir auch irgendeine billige Low Budget GPU (egal ob neu oder gebraucht) neben der AMD CPU in den Rechner hängen. Da muss man nicht zwangsweise zu Intel greifen.
Außerdem sollte man beachten, dass aktuelle AMD APUs (also mit iGPU) auch tatsächlich leidlich spielefähig sind, während Intels iGPUs wirklich zu kaum mehr taugen als ein Bild anzuzeigen.

Ist aber alles eh Spekulatius, weil AMD auf CPU Seite aktuell einfach alles verkauft, was sie anbieten. Wäre dem nicht so, hätten sie sich schon längst dazu entschieden, auch wieder günstigere Modelle ins Portfolio zu nehmen. Im Grunde kann AMD mit Blick auf die CPU Verkäufe derzeit wohl sogar froh sein, dass GPUs so teuer sind. Ansonsten hätte wohl Intels Alder Lake Generation schon deutlich mehr Zuspruch erlangt.
So aber warten viele potenzielle Käufer weiterhin auf niedrigere GPU Preise, bevor sie nen neuen Rechner kaufen. Das gibt AMD die Zeit um seinerseits wieder schnellere CPUs aufzulegen.
 
Meiner Meinung nach wäre die 6500XT mit 6GB und 96bit das deutlich rundere Paket für 2022 geworden.
 
@Copiegeil Gibt doch genügend CPUs mit integrierter Grafik von AMD. Für Office und gelegentliches CS GO daddeln in Ordnung.
 
Meiner Meinung nach wäre die 6500XT mit 6GB und 96bit das deutlich rundere Paket für 2022 geworden.

4GB sollten ausreichend sein, dafür dürfen wir uns auf einen Preis von ca, 250 EUR freuen. :)
 
Du hast natürlich Recht, das es an redundant vorhandenen Schaltungen liegen kann oder das 1024 Shader eben nicht der Navi 24 Vollausbau sind. Wobei letzteres eher unwahrscheinlich ist, weil Die Shots aufgetaucht sind, die eben jene 1024 Shader zeigen.
Du denkst zu wenig im "Baukasten" - auch der kleine Chip muss die ganzen Video Encoding, Display Ausgabe Sachen usw. usf. können. Schau dir mal an wie viel Fläche von dem Navi23 allein für den Part drauf geht. Das sind zwischen 10 und 20%. Möglicherweise wird man beim Navi24 da bisschen kürzen, vielleicht weniger gleichzeitige Displays oder irgendwo Restriktionen in der Auflösung oder was weis ich. Aber pauschal 20-40mm² für den Kram gehen als grobe Hausnummer schon auf die Flächenwaage. Wenn ich jetzt die 237mm² nehme und ~30mm² davon für den Display Kram abziehe, dann kommen 207mm² - das halbiert macht103mm². Die 30 wieder drauf und ich bin bei 133mm² ;)
Ist aber alles eh Spekulatius, weil AMD auf CPU Seite aktuell einfach alles verkauft, was sie anbieten. Wäre dem nicht so, hätten sie sich schon längst dazu entschieden, auch wieder günstigere Modelle ins Portfolio zu nehmen. Im Grunde kann AMD mit Blick auf die CPU Verkäufe derzeit wohl sogar froh sein, dass GPUs so teuer sind. Ansonsten hätte wohl Intels Alder Lake Generation schon deutlich mehr Zuspruch erlangt.
So aber warten viele potenzielle Käufer weiterhin auf niedrigere GPU Preise, bevor sie nen neuen Rechner kaufen. Das gibt AMD die Zeit um seinerseits wieder schnellere CPUs aufzulegen.
Es wird zwar immer wieder behauptet, dass AMD das aus Berechnung macht und damit angeblich mehr Geld verdient - ich halte das aber für Käse. Wirtschaftlich gesehen ist es mal alles andere als sinnvoll, große Teile des Chips für den Massenabsatzmarkt zu teildeaktivieren. AMD macht das aber. Der Absatz für die paar wenigen Modelle, die sie obenraus dafür mehr liefern ist so gering, dass das einfach überhaupt keinen Sinn ergibt. Zumindest nicht von außen betrachtet. Der Schuh wäre rund, wenn sie obenraus das Massenabsatzprodukt native liefern würden und unten dann den Rest mit "günstig" teildeaktivierten Modellen abdecken würden. Aber so tickt der Markt aktuell aber nicht.

Allein die Tatsache, dass AMDs 5600X mit ~200mm² als kleinstes "Modell" fast so schwer wiegt wie Intels 8+8C "HighEnd" 12900k (208mm² inkl. IGP!) zeigt, dass es hier weniger um können als um müssen geht. Wo soll AMD ein kleineres Design her nehmen? Es gibt keins. AMDs kleinstes Zen3 Design dürfte meines Wissens aktuell Cezanne sein - mit ~180mm². 8C APU inkl. GPU. Das wiegt auch fast so schwer wie Intels größter Alder Lake. Diese APU verkaufen sie maßgeblich im Mobile Markt und auch dort ist bei weitem nicht alles 8C only. Gerade die Konkurrenz hat da nach wie vor den überwiegenden Teil der CPUs mit 4C/8T im Programm. Mehr ist nett auf dem Papier - bringt aber eben in vielen Bereichen exakt gar keinen Vorteil, eher im Gegenteil ;)

Meiner Meinung nach wäre die 6500XT mit 6GB und 96bit das deutlich rundere Paket für 2022 geworden.
Runder für wen?

Für mich ließt sich der kleine Navi 24 eher wie ein Chip, den man von AMD quasi benötigt, um seine eigenen GPU losen CPUs mit irgendwas, was fähig ist, ne Bildausgabe zu fabrizieren, zu paaren. Und das noch so gebaut, dass sich die Miner wahrscheinlich nicht reihenweise drauf stürzen. Weil seeeehr schmale Speicheranbindung und dazu wenig Speicher überhaupt. Für Video und reine Bildausgabe ist das mehr als ausreichend. Und wenn dann noch der ein oder andere seichte Game-Titel OnTop funktioniert, um so besser...
 
@Holzmann
Ich glaube eher ab 300€ aufwärts.

@fdsonne
Marketingtechnisch gesehen wäre es das rundere Modell.
Performance könnte auf Niveau einer Vega 56 sein? Damit kann man imho noch genügend anfangen in FullHD.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh