2022 sind 4 GB nicht mehr zeitgemäß: 2x Radeon RX 6500 XT von Gigabyte im Test

@Don
Übrigens eure Kollegen der anderen Internetpublikationen spielen im Moment beleidigte Leberwurst,

weil sie keinen Testmuster bekommen haben!

Kritische Test sind immer willkommen, aber deren Test sind immer Pro Grün und Blau, dass hat sich wohl gerächt!

Vor kurzen haben die sogar eine Cherry Maus in einer News ohne Test zerissen!

Gut das wir Hardwareluxx haben!:geek:(y)
 
  • Haha
Reaktionen: Tzk
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich wäre jetzt nicht davon ausgegangen das CB zu einem anderen Urteil gekommen wäre und insofern verstehe ich die Entscheidung seitens AMD auch nicht, dass sie kein Sample bekommen haben. Das ist ein schlechtes Zeichen für den gesamten Markt und kann das nächste Mal ja auch uns treffen.
 
amd will dass käufer der karte ein pcie 4.0 board dazukaufen. anders kann man sich dieses komische ding einfach nicht erklären
 
Naja die wollen halt vermarkten das es sich dabei um eine "Zeitgemäße" Preis Einstieg Karte handelt. Selbst aus der PCIE 4 Brille ist das Ding zu lahm, warum man an den Lanes gespart hat verstehe ich definitiv nicht.
 
Ich wäre jetzt nicht davon ausgegangen das CB zu einem anderen Urteil gekommen wäre und insofern verstehe ich die Entscheidung seitens AMD auch nicht, dass sie kein Sample bekommen haben. Das ist ein schlechtes Zeichen für den gesamten Markt und kann das nächste Mal ja auch uns treffen.
Zitat wurde bearbeitet!

Es geht ja nicht nur darum, ob eine Internetpublikation zum selben Ergebnis bzw. Wertung kommt.

Nur wenn der Ton tendenziös immer negativ in eine Richtung zeigt, dann fehlt da eindeutig die Professionalität!

Selbst wenn es nicht so wäre, die Art und Weise mit der Tatsache, dass die Internetpublikation kein Testmuster bekommen hat,

da seine Enttäuschung so freien Lauf zu lassen gehört sich nicht!


Auch die News über die neue Cherry Maus mag hierfür ein Beleg sein, ohne Test eine Maus in den News so zu zerreißen.
 
Zuletzt bearbeitet:
Sie werden trotzdem damit ihren Umsatz steigern. Und den Boardpartnern müssen sie auch ein möglichst komplettes Portfolio ermöglich. Nicht jeder will und kann sich eine RX6900XT kaufen, bei deren Verfügbarkeit kein Mangel herrscht.
Das Problem ist, dass AMD selber bessere GPUs für weniger Geld auf dem Markt hat. Seit knapp nem halben Jahrzehnt.

Klar ist das das andere Ende der 6900,... aber gerade an dem unteren Ende ist doch Preis / Leistung relevant.
Preis / Leistung ist bei ner 3080 noch besser, oder sogar bei ner 3090. ;-)
 
Wenn man sich den PCGH Benchmark ansieht, ist es in den meisten Fällen eine GTX970, nur halt für 300€. Selbst die UVP wäre zuviel. Das ist so eine 120-140€ Karte, was war das damals für ein umkämpftes Preissegment... Könnte ja akzeptieren das es die Preisklasse nicht mehr gibt und man bei 200€ beginnt (Kosten durch enormen Chipaufwand/Fertigung), aber dann sollte wenigstens die Leistung stimmen und nicht die einer 200€ Karte von vor 8 Jahren sein
 
amd will dass käufer der karte ein pcie 4.0 board dazukaufen. anders kann man sich dieses komische ding einfach nicht erklären
Verstehe ich auch so nicht, man sagt auch nicht bei einem USB Stick nur weil der 16/32 GB hat, kriegt der nur USB 2.0 und nicht wie die 64/128 GB Sticks USB3.0 ... das ist weniger Sinnvoll, das kann doch auch nicht so viel mehr kosten.
 
Ich bin ja ein Verfechter der Theorie, das dieser Chip niemals auf den Desktop sollte. Im mobilen Segment spielt es durchaus eine Rolle, ob ich ein vier oder acht Lanes breites Interface baue oder nicht - vor allem im Hinblick auf den Stromverbrauch. Im Notebook wäre es aktuell auch immer PCIe 4.0.
 
Mir fehlen echt die Worte zu dieser Karte. Was hat sich AMD dabei nur gedacht.
 
amd will dass käufer der karte ein pcie 4.0 board dazukaufen. anders kann man sich dieses komische ding einfach nicht erklären
ich erleuchte dich gern:
Ich bin ja ein Verfechter der Theorie, das dieser Chip niemals auf den Desktop sollte. Im mobilen Segment spielt es durchaus eine Rolle, ob ich ein vier oder acht Lanes breites Interface baue oder nicht - vor allem im Hinblick auf den Stromverbrauch. Im Notebook wäre es aktuell auch immer PCIe 4.0.
Es ist keine Theorie.
Es ist ein 35w Notebook Chip/Karte. Bei 35w und pcie4 ist das Interface komplett egal.

Und denen die nicht verstehen was es ist kann man auch nicht helfen.

Spannend wird halt Intel xe128 6gb mit 75w und ohne Stromanschluss. Müsste die gleiche Leistung bringen.
 
  • Danke
Reaktionen: Don
Für das Geld bekommt man ne gebrauchte 1080, die mind doppelt so schnell ist, das ist absurd, und die 400 für die 1080 sind eigtl schon absurd
 
Ich bin ja ein Verfechter der Theorie, das dieser Chip niemals auf den Desktop sollte. Im mobilen Segment spielt es durchaus eine Rolle, ob ich ein vier oder acht Lanes breites Interface baue oder nicht - vor allem im Hinblick auf den Stromverbrauch. Im Notebook wäre es aktuell auch immer PCIe 4.0.
Könnte man so annehmen, aber im Zusammenhang mit einem sehr großen Volumen?(wurde zumindest so angekündigt) Gibt es da Indizieren von der Chipbezeichnung/Seriennummer?
Wäre sowas dann nicht eher "silence" gelauncht worden und nicht medial angekündigt worden wie auf der CES? Weil von einem wirklichen Highlight kann man ja nicht sprechen, außer negativ betrachtet.
 
Wenn ich diese GPU sehe muss ich immer an den AMD Bulldozer denken.
 
Die RX6500 Konkurriert dann mit der GTX1050Ti ????
 
Die RX6500 Konkurriert dann mit der GTX1050Ti ????
Naja. In den meisten Fällen schlägt sie die 1050ti.
Aber so arg viel besser isse nich. Ne 1060 ca.

Und die 1060 waren ja super Karten damals. Für nen anderen Preis und ne Weile her, aber Back to the Roots für AMD.
Frag mich wie oft sie noch ne 380 -> 480 -> 580 neu aufgießen können. Immer mit knapp identischer Leistung, nur paar Jahre später und teurer. ;-)
 
Die ganze Welt hat Parodie eingeholt. Grafikkarten sind da keine Ausnahme.
 
Könnte man so annehmen, aber im Zusammenhang mit einem sehr großen Volumen?(wurde zumindest so angekündigt) Gibt es da Indizieren von der Chipbezeichnung/Seriennummer?
AMD hat aus der Not eine Tugend gemacht.
Die Karte war in dieser Form mit Sicherheit nicht langfristig geplant.

Die haben einen winzigen midrange Notebook Chip genommen, auf ein PCB gepackt, nen übertriebenen Stromanschluss dran gehängt und den armen kleinen Minichip bis zum geht nicht mehr übertaktet. Dass bei extrem OC die Effizienz leidet sollte bekannt sein.

Der Rest ist ein Fall für die Geschichtsbücher:
Während Team grün Designentscheidungen trifft die für Team "Siebenerpack im Keller" extrem interessant sind (2060 12gb, 3050 8gb) und dazu führen dass Gamer die Karten nur in homöopathischen Anzahlen bekommen werden entscheidet sich Team rot den Minichip bei 4gb und hartem OC zu produzieren, wodurch er durch das Chip- und Platinendesign für Team "Siebenerpack im Keller" uninteressant ist.

Dazu kommt, dass die 6500xt eigentlich in Massen verfügbar sein sollte mit okayen Preisen, was aber nicht der Fall ist, weil der internationale Containerverkehr massiv durcheinander ist und die Karten daher immer noch unterwegs sind und langsam reintröpfeln werden. Das wiederum wirkt sich auf Preise aus, auch weil die Kosten für Containertransport 6-10x so hoch sind wie gewohnt.

Das Thema Geschichtsbücher wird uns weiter begleiten. Ne 3060 12gb geht für 600€ über den Tisch, dann wird die 3050 8gb bei 500-550€ liegen. Bei ähnlicher Rohleistung einer 6500xt. Aber mehr Speicher und mehr Interface. Interessant für Team "7er Pack im Keller".

Es ist was es ist.
 
Zuletzt bearbeitet:
ich erleuchte dich gern:

Es ist keine Theorie.
Es ist ein 35w Notebook Chip/Karte. Bei 35w und pcie4 ist das Interface komplett egal.

Und denen die nicht verstehen was es ist kann man auch nicht helfen.

Spannend wird halt Intel xe128 6gb mit 75w und ohne Stromanschluss. Müsste die gleiche Leistung bringen.
ok aber warum macht sich amd dann mit einer desktop version der karte sagen wir mal so "lächerlich" ^^

das ding macht ja hinten und vorne keinen wirklichen sinn. selbst im pcie4 modus reichts ja gerade so den vorgänger zu schlagen. wenn überhaupt.

aber anscheinend reichts trotzdem um die dinger verkauft zu bekommen
 
Sagen wir, wie es ist. Die Karte ist so billig wie möglich zusammengeschustert.

Aber in der aktuellen Lage für die Meisten das Beste, was man bekommen kann.

Nur zur Eichung, die 2060 Super liegt jetzt bei 600 €. Neu.

Ich hab einem Bekannten, der keine Kohle hat seine Grafikkarte gratis durch eine Bessere ersetzen können.

Wieso? Er hat eine Vega 64 und ich hab günstig eine RTX 2080 bekommen. Anfang 2020 hätte man bei der Kombination noch fett drauf gezahlt.
 
So lange sich die Karte gut in Komplett-Pc's verkäuft, ist AMD doch egal, was wir Luxxer (& vergleichbare Portale) von dem Leistungskrüppel halten 🤷‍♂️
 
Das bedeutet, dass AMD nichts anderes ek fällt, wie man kurzfristig den low end Markt bedienen kann. Anscheinend haben die nicht die Möglichkeit, Polaris noch einmal neu aufzulegen zu einem akzeptablen Preis
 
ich kenn mich da jetzt nicht im detail aus aber wäre es für amd echt so schwer gewesen die karte zumindest auf 8 lanes zu bringen?
 
ich kenn mich da jetzt nicht im detail aus aber wäre es für amd echt so schwer gewesen die karte zumindest auf 8 lanes zu bringen?
Man hätte das physikalische Interface auf dem Chip doppelt so breit bauen müssen. Ein Interface mit vier Lanes ist in etwa so groß wie eine CUs (64 Shadereinheiten), aber jede Platz und Energieersparnis zählt, letzteres vor allem im mobilen Bereich.
 
also hat man nen mobile chip versucht in den desktop zu bringen mit all den nachteilen die das so mit sich bringt.

war die 5500xt auch so?
 
Was ne Karte... Und trotzdem direkt ausverkauft, da kann man nur den Kopf schütteln... Bin mal gespannt, wer die Karten auf dem Zweitmarkt für 400€!!! kaufen soll - ROFLCOPTER

Am traurigsten ist zu sehen, dass sich Nvidia und AMD offensichtlich rein gar nix nehmen, um die Kundschaft zu melken bis geht nicht mehr.
 
Die 5500xt ist ja schneller als der direkte Nachfolger - die 6500xt
Und ja, der 6500er Chip ist eigentlich ein reiner Mobile Chip.
Aber das interface wird da nicht unbedingt das Problem sein, der Chip selber ist einfach langsam... Ich hätte ja auch schonmal Tests gemacht mit einer rtx3080 die mit der Bandbreite von pcie 3.0 x4 angebunden war im Vergleich zur x16 Anbindung, und die hatte dennoch eine gute performance
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh