Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

der satz von pcgh gefällt mir irgendwie ^^

Die Radeon Technologies Group machte es lange spannend, scheint nun aber zu liefern, auf was alle warten: schlagkräftige Konkurrenz zu Nvidia und somit gesunden Wettbewerb. Die Ankündigung gleich dreier bezahlbarer und relativ effizienter 16-GiByte-Grafikkarten bringt Nvidia in Erklärungsnöte und dem Herausforderer einen klaren Pluspunkt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
lol, gerade treiberprobleme und blackscreens gabs doch erst zum launch bei nvidia...
Der Boost war zu aggressiv und hat bei verlorener Silicon Lottery sehr vereinzelt zu Crashes geführt. Ich hatte jedenfalls online Kontakt mit 15-20 Leuten mit 3000er Karten und niemand war betroffen.

Wie viele Tage nach Versand der ersten Karten war es dann gefixt? 10? Ein schneller manueller Fix wäre gewesen, den Takt um 15-30 Mhz runterzuschrauben.

Das ist nicht wirklich mit Vega oder gar RDNA 1 vergleichbar, die noch 8 Monate nach Launch Probleme hatten.
 
Bin passend seit 17 Uhr auf der Arbeit und hab das hier nur spärlich verfolgt, also falls was falsch ist, korrigiert mich bitte.

Also sehe ich das richtig, AMD stellt benchmark Vergleiche zwischen rtx 3080 und der 6800XT?
Dabei wurde die 3080 mit einem nicht näher genannten System getestet, also kann es gut Intel sein, während die 6800 auf einem ryzen 5000 Prozessor gebencht wurde, welcher ja das CPU Limit durch starke mehrleistung deutlich wegschiebt.
Dazu kommen noch Sachen wie dass der 6800 Bench Techniken enthält wie dieses Smart Access Memory und das ganze auch noch in Verbindung mit einer Übertaktung während die 3080 stock lief?

Also vergleichen die hier gar nicht die normale Gaming power gerecht, sondern eher ne stock 3080 auf nem unbekannten System während die Radeon mit SAM und Rage und nem 5000er massiv gepusht wurde?
Heißt also die Werte sind so eigentlich gar nicht wirklich echt und man muss den HWLuxx Test abwarten oder?
 
Richtig bock auf die RDNA2 Karten bzw. die Tests. Das könnte für AMD wirklich der erhoffe Befreiungsschlag im Grafikbereich sein. Muss direkt wieder an meine 9500 Pro denken :angel:
 
Wie lange hat AMD gebraucht bei den 5700XT Problemen? Ehrlich gemeinte Frage

Völlig andere Situation, AMD hat versucht einen Fehler in Hardware einzelner Karten über den Treiber zu fixen, was im Prinzip Mission impossible ist.
Dennoch ist es zum Teil gelungen, der Treiber fix als solcher stand nachweislich innerhalb von 2 Tagen abzüglich internen Tests zum DL zur Verfügung. ;)
 
Valider Punkt.
Mit etwas Kontext dazu aber sinnvoller: NVidia hat von erstem Auftreten, über Debugging bis hin zu fertigem Treiber knapp ne Woche gebraucht. Zwei, wenn man meint das Problem war vorher bekannt.
Wie lange hat AMD gebraucht bei den 5700XT Problemen? Ehrlich gemeinte Frage, ich hate das nicht direkt verfolgt (weil es mir persönlich eigentlich egal ist), meine aber echt lange darüber gelesen und immer wieder in Videos gehört zu haben. Mehr als 2 Wochen? 4 Wochen? 3 Monate? Ernst gemeinte Frage, würde mich interessieren.
da kann ich dir leider auch keine zahlen dazu nennen. aber es ist doch schwachsinn, die neuen karten anhand der treiberprobleme der letzten gen schlecht zu reden.
lasst die doch erst mal releasen und dann kann man immer noch über treiberprobleme jammern, sofern es die dann gibt.

und ja, nvidia hat vorbildlich schnell reagiert. wenn sie aber nicht so gerusht hätten und die ware auch bei den aib richtig getestet worden wäre, wärs halt nie zu dem problem gekommen.
 
Bin passend seit 17 Uhr auf der Arbeit und hab das hier nur spärlich verfolgt, also falls was falsch ist, korrigiert mich bitte.

Also sehe ich das richtig, AMD stellt benchmark Vergleiche zwischen rtx 3080 und der 6800XT?
Dabei wurde die 3080 mit einem nicht näher genannten System getestet, also kann es gut Intel sein, während die 6800 auf einem ryzen 5000 Prozessor gebencht wurde, welcher ja das CPU Limit durch starke mehrleistung deutlich wegschiebt.
Dazu kommen noch Sachen wie dass der 6800 Bench Techniken enthält wie dieses Smart Access Memory und das ganze auch noch in Verbindung mit einer Übertaktung während die 3080 stock lief?

Also vergleichen die hier gar nicht die normale Gaming power gerecht, sondern eher ne stock 3080 auf nem unbekannten System während die Radeon mit SAM und Rage und nem 5000er massiv gepusht wurde?
Heißt also die Werte sind so eigentlich gar nicht wirklich echt und man muss den HWLuxx Test abwarten oder?
Das Testsystem ist identisch gewesen, steht im Kleingedruckten der Folien.

Die Folien sind recht verwirrend, wenn man nicht genau darauf achtet. Manche sind Stock vs. Stock, andere Rage Mode (= OC durch höheres PL) + Smart Access Memory vs. Stock.

Dass die 6800 XT mit der 3080 mithalten kann, scheint - zumindest nach AMDs Folien - auch Stock der Fall zu sein. Die 6800 und 6900 XT Vergleiche hat man etwas geschönt.
 
Bin passend seit 17 Uhr auf der Arbeit und hab das hier nur spärlich verfolgt, also falls was falsch ist, korrigiert mich bitte.

Also sehe ich das richtig, AMD stellt benchmark Vergleiche zwischen rtx 3080 und der 6800XT?
Dabei wurde die 3080 mit einem nicht näher genannten System getestet, also kann es gut Intel sein, während die 6800 auf einem ryzen 5000 Prozessor gebencht wurde, welcher ja das CPU Limit durch starke mehrleistung deutlich wegschiebt.
Dazu kommen noch Sachen wie dass der 6800 Bench Techniken enthält wie dieses Smart Access Memory und das ganze auch noch in Verbindung mit einer Übertaktung während die 3080 stock lief?

Also vergleichen die hier gar nicht die normale Gaming power gerecht, sondern eher ne stock 3080 auf nem unbekannten System während die Radeon mit SAM und Rage und nem 5000er massiv gepusht wurde?
Heißt also die Werte sind so eigentlich gar nicht wirklich echt und man muss den HWLuxx Test abwarten oder?
Ja das ist falsch!

Der Rage Modus war bei den Tests nicht aktiviert, eben um einen fairen Vergleich zu haben...
Ryzen User KÖNNEN den aktivieren!
 
Ernst gemeinte Frage, würde mich interessieren.

Das kauft Dir keiner ab, ernst gemeinte Antwort.
Fest steht, NVidia hat schnell nen Fix gebracht, wie es sich gehört, der Rest ist Spekulatius, weil der Gegenspieler noch gar nicht auf dem Markt ist.
Was die RX5700XT da zu suchen hat, k.A., oder bist Du jetzt auch einer von der Truppe "AMD hatte schon immer Treiberprobleme"?
 
Der Boost war zu aggressiv und hat bei verlorener Silicon Lottery sehr vereinzelt zu Crashes geführt. Ich hatte jedenfalls online Kontakt mit 15-20 Leuten mit 3000er Karten und niemand war betroffen.

Wie viele Tage nach Versand der ersten Karten war es dann gefixt? 10? Ein schneller manueller Fix wäre gewesen, den Takt um 15-30 Mhz runterzuschrauben.

Das ist nicht wirklich mit Vega oder gar RDNA 1 vergleichbar, die noch 8 Monate nach Launch Probleme hatten.
Es gibt immer noch Probleme mit dem Betrieb der Amperekarten z.B. bei Videos. Kann BIOS-Problem oder Treiber sein, ist aber egal. Wenn so erfahrene User wie Orbmu2k so etwas nicht fixen können, es bei mehreren verschiedenen Karten und Modellen (3080 und 3090) auftritt, dann kann man das nur als großes Problem bezeichnen.
 
Die 6800XT bringt die selbe Leistung in ollen Spielen wie eine RTX3080, toll...

Wann kommen Metro Exodus und TR Shadow RT Benches? Oder wenigstens RDR2 und AC Odyssey.

Dann warten bis zum 18.
 
Sollte AMD echt einen messbaren Performance-Vorteil haben durch AMD CPU + AMD GPU, dann ist das ganz klar ein gravierender Vorteil.
Da kann NVidia erst mal nix gegen machen. Wäre super!

Die Frage wird dann aber sein: Ist das echt ein Vorteil, oder "nur" ein Ausgleich gegenüber Intel?
Da bin ich auf die Tests der Chips gespannt. Aktuell sieht ja alles so aus, als ob Zen 3 schneller ist in Gaming als Intel, aber verifiziert ist es ja nun nicht bisher.
Wenn man nun mit nem 10900K, oder von mir aus bald 11900K trotzdem mehr FPS hat, als mit Zen 3 + 6900XT, dann relativiert sich der Vorteil irgendwie wieder. Dann ist das echt wirr in Reviews:

"Wenn Du eine AMD CPU hast, dann ist die neue 6900XT so schnell wie eine 3090! - Hast Du einen Intel Chip, ist sie 7% langsamer!"
analog:
"Wenn Du eine Intel CPU hast, dann ist die 3090 ti schneller als die 6900XTX, aber bei einer AMD CPU fällt sie hinter AMD zurück!"

Befürchte so ähnlich werden Reviews in naher Zukunft werden, vor allem bei Raytracing.
Beide Teams bieten ähnliche, aber doch unterschiedliche Systeme an. Nicht jeder Entwickler wird beide Dinger einbauen, oder wenn doch, gleich gut hinbekommen.
Da wird es ne Menge Einschränkungen und Relationen geben.

Aufregend!
 
In der Bar, den Kummer ertränken, zusammen mit den Leuten, die sagten AMD bringt die kleinste GPU für 449, die Mittlere für unter 600 und die Dickste für 799 bis maximal 899? ;-)
Bei der XTX haben einige auch >1.000 spekuliert. Meine Hoffnung war 800, aber mein innerer Analyst war: "AMD wird sich nicht foppen lassen, sei froh wenn sie die 3090 knacken und unter 1.000 bleiben!"

Insgesamt ist das aber ne Kampfansage gegen Nvidia, was auch die Preisgestaltung angeht. A la "So, wir können auch. Und nu? Bleibt ihr bei euren Mondpreisen oder wollt ihr nicht doch runtergehen? Wir haben Marge nach unten, denn unser Deal mit TSMC ist etwas besser als eurer. Euer Zug!"

PS: Falls die meisten es übersehen haben sollten, AMD sprach bei RDNA3 von Evaluationsphase - also ~9 Monate bis zum nächsten Ding. Nur damit hier keine falschen Erwartungen aufkommen, dass RDNA2 langlebig wäre...
 
Zuletzt bearbeitet:
Völlig andere Situation, AMD hat versucht einen Fehler in Hardware einzelner Karten über den Treiber zu fixen, was im Prinzip Mission impossible ist.
Dennoch ist es zum Teil gelungen, der Treiber fix als solcher stand nachweislich innerhalb von 2 Tagen abzüglich internen Tests zum DL zur Verfügung. ;)
Dann war das also kein treiberproblem, wie alle behaupten, sondern ein Hardwarefail? Ouch, dann ist das ja bitterer als ich dachte.
Software kann man beimn Kunden fixen, Hardware hingegen,... urgs. Also ähnlich wie bei meltdown und Co auf der Intel Seite? Hardwarefail und dann Patche die Leistung fressen, um die Hardwarefehler zu kaschieren?
 
Ja das ist falsch!

Der Rage Modus war bei den Tests nicht aktiviert, eben um einen fairen Vergleich zu haben...
Ryzen User KÖNNEN den aktivieren!
Ahh okay
Dann hat AMD das ja wirklich geschafft. Mal besser als die 3080, mal schlechter, insgesamt also ziemlich exakt die selbe Performance.
Zumindest in WQHD, außer ich hab mich wieder verguckt und die Balken waren für 4k

Edit,
Nope WQHD.
Gut, ist eh meine Auflösung, dann stellt sich mir jetzt nur die Frage, 3080 oder 6800XT
AMD hat mehr VRAM, Nvidia hat dafür Gsync (und vermutlich stärkeres RTX)
Was davon ist am Ende besser für mich... Ich hasse solche Entscheidungen...
 
Ich habe einen Abschnitt zum Thema Raytracing hinzugefügt:

Wie genau AMD die Berechnungen für das Raytracing ausführt ist noch nicht ganz klar. Offenbar nutzt man dazu sogenannte Ray Acceleratoren, also Raytracing-Beschleuniger, deren Anzahl mit den Compute Units übereinstimmt. Pro Compute Unit (CU) gibt es also einen Ray Accelerator (RA). Dabei handelt es sich um dedizierte Recheneinheiten innerhalb der CU, welche die Schnittpunkte der Strahlen für die Raytracing-Berechnungen hardwarebeschleunigt berechnen können. AMD spricht davon, dass dies im Vergleich zu einer reinen Softwarelösung um den Faktor 13,8 (471 vs 34 FPS in einem Procedural Geometry Sample aus dem Microsoft DXR SDK) schneller sein soll.
 
Dann war das also kein treiberproblem, wie alle behaupten, sondern ein Hardwarefail?

Genau das, AMD hat dann über die social media Kanäle dazu aufgerufen die Karten über die Händler tauschen zu lassen.

Die Bewertung darüber, den Fehler zu versuchen mit der Treiber zu lösen, was ja in einigen Fällen geklappt hat, möchte ich hier nicht weiter kommentieren, aber ja zum Kern:

Es war kein Treiber Problem. :)
 
Falls die meisten es übersehen haben sollten, AMD sprach bei RDNA3 von Evaluationsphase - also ~9 Monate bis zum nächsten Ding. Nur damit hier keine falschen Erwartungen aufkommen, dass RDNA2 langlebig wäre...

This!

Daher ganz frei nach Egon Krenz:
Nach der Wahl ist vor der Wahl. :fresse:
 
Zuletzt bearbeitet:
Genau das, AMD hat dann über die social media Kanäle dazu aufgerufen die Karten über die Händler tauschen zu lassen.

Die Bewertung darüber, den Fehler zu versuchen mit der Treiber zu lösen, was ja in einigen Fällen geklappt hat, möchte ich hier nicht weiter kommentieren, aber ja zum Kern:

Es war kein Treiber Problem. :)
Fast. Es gab ne defekte Charge - die wollte AMD per Treiber lösen. Hat in vielen Fällen auch geklappt, in einigen aber auch nicht. Da hat AMD dann mehrere Monate versucht es per Treiber doch noch zu fixen mit nur moderatem Erfolg.

Genauso wie es bei der 2080/2080Ti ne defekte Charge mit sterbenden Speicher ICs gab, hatte AMD ne defekte Charge mit nem Hardware-bug. In beiden Fällen gibts nur eine sinnvolle Antwort drauf: RMA.

Aber statt dessen haben viele kein RMA gemacht und haben in Foren oder Reddit rumgetippt. Ist ja auch erstmal okay das irgendwie "anders" zu lösen, bevor man es einpackt und evtl. ne Woche warten muss, aber Schluss endlich fällt es unter die Kategorie "Bequemlichkeit".

Kurzum: Die Mär von katastrophalen Treibern ist halt genau das: Ein Märchen.
 
außer ich hab mich wieder verguckt und die Balken waren für 4k
Du hast dich verguckt, aber die WQHD sind ähnlich, bis auf paar wo etwas über und paar unter NV lagen.

Also nen Gleichstand aufweisen.
 
@Don

Bitte in zukunft bei den tabellen linear vorgehen, absteigend oder aufsteigend. Nicht erst die nummer 2, dann die nummer 3 und dann die schnellste in der tabelle ^^
 
Dann war das also kein treiberproblem, wie alle behaupten, sondern ein Hardwarefail? Ouch, dann ist das ja bitterer als ich dachte.
Jupp - genauso wie bei Turing. Beides schlimm. Sollte beides nicht passieren. Sollte man aber auch beides erwähnen.
Software kann man beimn Kunden fixen, Hardware hingegen,... urgs. Also ähnlich wie bei meltdown und Co auf der Intel Seite? Hardwarefail und dann Patche die Leistung fressen, um die Hardwarefehler zu kaschieren?
Stop mein Lieber. AMD hat viele Karten per Treiber fixen können. Ne Display-Out Versorgungsspannung bzw. nen Speicher-Reset kann man per Software fixen, wenn die Hardware diese "Korrektur" zulässt (ähnlich wie bei der 3080/3090)
Aber der Fehler war bei einigen Karten so massiv, dass es dort eben nicht mehr ging - ergo: RMA.

In diesem Fall war der Hardware-Fehler - genauso wie bei der 3080/3090 - fixbar. Das war beim 3.5GB Speicherdesaster nicht so - es sei denn, man glaubte daran, dass man zusätzlichen RAM runterladen kann. Aber ich hoffe, dass wir nicht in dieses Niveau abdriften.
 
Mein nicht so schwer zu verstehender Kommentar war, dass es mit Smart Memory Access ein proprietaeres Feature gibt, fuer das Nvidia im Forum von vielen, mutmasslich auch Dir, geteert und gefedert worden waere.
DLSS ist auch ein proprietäres Feature...... ich habe da keinen Shitstorm zu wahrgenommen....
Wenn SmartMemAcces auch für Konsumenten standardmäßig in Spielen aktivierbar ist, dann ist das ein völlig legitimes Feature zur Leistungssteigerung.
Ich würde dir zustimmen, wenn dieses Feature nur durch Tricks in dieser Präsentation integriert wurde und später nicht erhältlich wäre.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh