Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Die 3070 hat ein fast 10 cm kürzeres PCB
Du weißt jetzt schon, dass es keine kleineren 6800 geben wird. Du weißt jetzt schon, dass es kleine 3070 geben wird. Kannst du auch sagen, wer der neue König von Thailand wird?
Die kürzere Platine ist nur der Nvidia Marge geschuldet. Das machen doch schon die 8GB VRAM deutlich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

The Ultimate Gaming Platform with AMD Ryzen™ & AMD Radeon™​


Ab 13:22 wird der EK gezeigt.
 
Ach darum wurde angekündigt das Raytracing bei CP2077 am Anfang nicht auf den neuen Konsolen und RDNA 2 Karten laufen wird?
Denk mal selber drüber nach...
Weil sie zum Entwicklungszeitpunkt keine AMD Karte hatten, um es darauf zu testen?
Denk mal selber drüber nach...
 
Wenn stur die API bedient wird, braucht man nix zum Testen.
Das Einzige, was problematisch sein kann, ist die Leistung an sich.

Firmen wie CDPR wollen, dass ihr Game auf allen Plattformen "gleich" aussieht und "gleich" läuft.
Das geht selbstverständlich nicht, daher wählen sie meist ein Mittelding, das eher am unteren Ende des Spektrums angesiedelt sein wird.

Wenn nun das RT von AMD schwächer läuft als erwartet, dann müssen sie das Mittelding neu justieren.

Einen anderen Grund kann ich mir nur schwer vorstellen. Eine API ist halt wie ne Blackbox. Der ist es egal wie AMD oder NVidia die Leistung herbringen. Es wird ein Bild angefordert und hinter der API erzeugt die GPU dann dieses Bild. Und wenn AMD das Bild händisch malen würde, oder Nvidia das Bild auf Stoff sticken würde und dann scanned,... wäre das den Entwicklern egal, solange ein API konformes Bild ankommt.
 
SFF mit 220W, schon klar. *hust* Wer das möchte, für den gibt es ja auch noch Navi 22. Da würde ich mir eher Hoffnung auf kompakte, kühle und sparsame Systeme machen, wenn man keine High-End Ansprüche an die Performance hat. ;)
Noch nie von externer WaKü gehört? Ich kann auch 1000W Abwärme in einem 10L Case haben, ist mir egal.
Beitrag automatisch zusammengeführt:

Du weißt jetzt schon, dass es keine kleineren 6800 geben wird. Du weißt jetzt schon, dass es kleine 3070 geben wird. Kannst du auch sagen, wer der neue König von Thailand wird?
Die kürzere Platine ist nur der Nvidia Marge geschuldet. Das machen doch schon die 8GB VRAM deutlich.
Es geht um das Referenzdesign, sollte ja wohl klar sein :bigok:
Schau dir die beiden PCBs doch einfach an, dann weißt du auch, wer der neue König von Thailand wird :wink:
Beitrag automatisch zusammengeführt:

So sollte das auch sein. Wir erinnern uns, als die Hersteller selber nicht wussten auf welche 3000er Karten ihr Kühler passt🤦‍♂️
Nein so sollte es eben nicht sein, weil das die kleineren Hersteller gegenüber dem Platzhirsch noch stärker benachteiligt.
EK hatte die PCB Daten vermutlich schon einige Wochen, während die Konkurrenz jetzt unter Zeitdruck ist, damit sie auch noch was vom Kuchen abbekommen. Find ich ziemlich scheiße.
 
Zuletzt bearbeitet:
@immortuos
die Karten konnte man schon kaufen und EK konnte nicht sagen auf welche Karten ihr Kühler passt. sonst hätte ich meine 3080 schon ;)
Eben das was ich in meinem Post erwähnt hatte.
 
Das einzige was ich persönlich als Nebelkerze empfinde sind der Rage Mode und SAM. Denn durch das inkludieren dieser beiden Features wird vermutlich die TDP gesprengt. Sprich in Wirklichkeit schafft AMD es nicht die 3090 mit 300W zu knacken und "vertuscht" das über den Rage Mode
Sie bleiben mit der Mode innerhalb der TBP, das ist ja der Sinn der Sache. Deswegen sind ja auch die AIB Modelle mit bis zu 2,5MHz nochmal deutlich schneller (aber auch hungriger, da sind dann auch 350W TDP oder mehr drin) Sie es mal so - die Taktraten werden im Rage Mode nicht so fluktuieren, wie das oftmals bei RDNA1 noch war.
 
  • Danke
Reaktionen: Tzk
Einen anderen Grund kann ich mir nur schwer vorstellen. Eine API ist halt wie ne Blackbox. Der ist es egal wie AMD oder NVidia die Leistung herbringen. Es wird ein Bild angefordert und hinter der API erzeugt die GPU dann dieses Bild. Und wenn AMD das Bild händisch malen würde, oder Nvidia das Bild auf Stoff sticken würde und dann scanned,... wäre das den Entwicklern egal, solange ein API konformes Bild ankommt.
Bei Vulkan gibts auch herstellerspezifische Erweiterungen. DX12 RT sollte auf allen Karten out of the Box laufen, die DX12 Ultimate beherrschen. Wenn CDPR sagt, dass es am Anfang nur auf Nvidia geht, müsste im Umkehrschluss ein Rendering-Pfad benutzt worden sein, der RT eben *nicht* auf DX12 implementiert hat. Und diesen hat Nvidia - per Gameworks RT (Nvidia RTX).

Es gibt sowohl ein DX12 RT (DXR) als auch ein exklusives von Nvidia (Nvidia RTX) - die "meisten" benutzen aber das DX12-Ding. Nvidias RTX is kompatibel und kann *auch* auf DXR zurückgreifen.
 
Zuletzt bearbeitet:
Die Taktraten dürfen gerne fluktuieren, machen Sie ja beispielsweise bei einer Vega wie verrückt. Wichtig ist, das die Mechanismen nicht auf die FPS durchschlagen.
Was bringen einem dreistellige FPS, wenn es zwischendrin Leistungseinbrüche auf 20 FPS gibt?
Diese Problematik stellt sich bei AMD aber nicht, das funktioniert schon Jahre lang sehr gut.

Am meisten freut mich, das direkt Linux x86/64 mit angegeben wird bei den unterstützen OS :) Mal Phoronix belagern 🤤
edit - Mesa 20.2 und 5.9er Kernel sollten schon da sein, damit es läuft: https://www.phoronix.com/scan.php?page=article&item=radeon-rx-6000&num=1
 
Die Taktraten dürfen gerne fluktuieren, machen Sie ja beispielsweise bei einer Vega wie verrückt.
Mit Standardeinstellungen leider ja. Angepasst wird der Takt bei 99% Auslastung gehalten. Hatte dazu mal ausführlich was im Sammler geschrieben, ging aber zwischen dem Unsinn von GerryB irgendwie unter. Egal :rolleyes:

Bin mir sicher dass man manuell auch wieder schön einstellen kann wohin bzw wie hoch es gehen soll. Freu mich schon zu testen :xmas:
 
Die 6800 ist etwas schneller, verbraucht etwas mehr, kostet etwas mehr als die 3070.
Damit ist sie die am schlechtesten positionierte GPU, weil sie quasi überall die gleichen relativen Werte hat, aber wohl bei RT abstinkt.

Die 6800XT ist da schon interessanter:
Gleich auf mit 3080, etwas billiger, mehr VRAM (dafür langsamerer). Da kann man über den Preis die schwache RT Leistung argumentieren.

Die 6900XT sieht sehr solide aus.
Wohl gleich auf mit der 3090, deutlich billiger, dafür weniger VRAM (und langsameren!) und bescheidene RT Leistung.
Die 3090 wird hier im Preis hart sinken müssen, oder eine 3080 TI muss einspringen.

Alles in Allem ein guter Launch wohl, wenn die Preise so bleiben und sie verfügbar sind.
Kein Killer Produkt, aber eine Alternative zu Ampere. Wer lieber mehr VRAM hat und den Speed dessen ignoriert,... dazu kein Interesse an RT hat, findet bei AMD ne sehr solide Alternative.
Wer lieber RT hat und schnellen VRAM, greift zu NVidia.

Wer hier den "Killer" sieht, war die letzten 10 Jahre aber wohl im Tiefschlaf. Nvidia wird kontern und das wohl recht fix.
Wie gut sie kontern können, werden wir Anfang 21 sehen vermutlich. Kommt da nun für 999 ne 3080 TI mit > 12gb GDDR6X, 99% der Leistung der 3090 und ähnlicher RT performance, ist das Ding schon wieder gegessen. Die 6800 ist jetzt schon komisch platziert und die 6800XT wird durch eine 50 Euro Preissenkung ausgehebelt.

Solide, aber kein Killer. Und dennoch unglaublich cool. Endlich Konkurrenz!

Gut zusammengefasst 👍🏻
Aber kontern sollte Nvidia eher mit Verfügbarkeit und nicht einem Paperlaunch neuer Modelle. Denn wenn ich mal die 3070 und 3080 betrachte, sind das bzgl. Leistung und Preis (UVP der FE, nicht die Wucherpreise der Customs), sehr gut positionierte Produkte.

Da ich noch immer offen bin ob rot oder grün, schaue ich mir das die kommenden Tage und Wochen noch etwas an und schlage dann zu. Meine Übergangskarte (1050 Ti) schreit schon abgelöst zu werden 😂
 
@iLLuminatusANG
Ja... leider sind die Sammler für VEGA und Co. echt unübersichtlich und der Openingpost kaum ergänzt worden.
Schlimmer finde ich nur den Zustand für Ryzen und OC, da komme ich mit den HWLUXX Sammlern gar nicht zurecht.
Aber @Holzmann wird das bestimmt alles im Auge haben nun ;)
 
Wenn der "Rage Mode" gerade mal 1-2% bringen soll, zeig ich AMD mal, dass da auch so um die 10% drin sind. ;) Aber ist schon richtig - AMD hat wohl einfach das Powertarget limitert und innerhalb von diesem gibts halt nur Silicon Lottery (per Standard f/v Kurve) oben drauf, was bei nem durchschnittlichen Sample wohl nicht allzu viel sein sollte. Die Tweaker sollten fähig sein, da deutlich mehr rauszukitzeln.
 
@Don Bei euch fehlen die Folien für 6800XT 4K und die für den Rage Mode:

Ohne Rage Mode!
axqAYbQCNeP7vX4q.jpg


Mit Rage Mode!
YRBs5Q10Hanju4xA.jpg
 
hab ich ja gestern schon mal geschrieben laut den Amd Folien bringt RAge und Smart bei der 6800XT im Schnitt 6% an Leistung ob das für die anderen 2 Karten auch gilt und ob das mit allen 5000er Cpus gleich gut läuft keine Ahnung ...

da müßen wir leider die Tests abwarten, auch scheint sich leider in 4K doch in kleinen leichten Tendenzen erahnen das das 256Bit SI eben doch limitiert und der Wunderwuzzi Cache das nur bedingt abfedern kann, das was ich von Anfang an befürchtet hatte als das mit dem kleinen SI durchsickerte...

das mag für 1080p und 1440p und für die 6800 kein Problem sein, aber bei der 6800XT und vor allem der 6900XT um immerhin 1000 Flocken hätte das schon breiter sein sollen, aber hoffen wir halt mal das es so auch irgendwie reicht :(
 
Zuletzt bearbeitet:
Ja... leider sind die Sammler für VEGA und Co. echt unübersichtlich und der Openingpost kaum ergänzt worden.
Schlimmer finde ich nur den Zustand für Ryzen und OC, da komme ich mit den HWLUXX Sammlern gar nicht zurecht.
Aber @Holzmann wird das bestimmt alles im Auge haben nun ;)

Der Vega Sammler ist ein Sonderfall, dort sind über lange Zeit diverse UV-Settings der User gesammelt worden, die man ausprobieren kann, die Übersicht ist nicht gut das stimmt aber da jetzt noch rum basteln weiß ich nicht. ob das so gut ist, vielleicht würde es schon helfen die Zeilen in einen spoiler zu packen ....

Welchen thread bzw. was ist den an den Ryzen Sammler nicht gut, bitte nochmal kurz um feedback, schaue mir das gerne an ...
 
Zuletzt bearbeitet:
Gibts schon Infos zwecks Vorbestellung ?
Oder hat jemand ne Adresse für mich ?
Ich bin heiß wie Frittenfett :d
 
512GByte/s Hautpspeicherbandbreite. Ich bin enttäuscht.
Das reißt bei Compute auch der Infinity Cache nicht raus...
 
Erstmal danke für die schöne grafische Aufarbeitung, das gibt ne gute Übersicht über das Portfolio. Zum Zitat: Ich denke das liegt (auch) an der TDP der Karte. Die 6800 kommt ja mit 250W und die beiden großen Karten mit 300W, das sind also 20% extra. Sprich die Rohleistung der 6900XT dürfte klar über die TDP gedeckelt sein. Ob man das nun gemacht hat um bei 300W zu bleiben oder ob schlicht die Skalierung wegen fehlender Bandbreite zum Vram zu schlecht wird ist mal die zweite Frage. Das werden dann OC Tests der Karten zeigen.

Insgesamt finde ich ists ne solide Vorstellung. Die 6800(XT) hat deutlich mehr Vram als die entsprechenden Nvidiakarten, dort hat AMD also einen der Hauptkritikpunkte aufgegriffen. Die 3090 ist ja dank ihres Preises eh außen vor, die 16gb der 6900XT versüßt AMD den Kunden also mit einer deutlich geringeren UVP um die fehlenden 8gb zur 3090 zu kompensieren.

Das einzige was ich persönlich als Nebelkerze empfinde sind der Rage Mode und SAM. Denn durch das inkludieren dieser beiden Features wird vermutlich die TDP gesprengt. Sprich in Wirklichkeit schafft AMD es nicht die 3090 mit 300W zu knacken und "vertuscht" das über den Rage Mode. Ein bisschen so wie Intel mit dem PL1 und PL2 Limit... Mal sehen ob ich mit dieser Vermutung Recht habe oder nicht.
Bezieht sich die Angabe der Leistungsaufnahme von AMD nicht auf die TDP (aka GPU Power), und die Angaben von NVIDIA zu Ampere auf die TGP (Total Graphics Power, also Döner mit Alles) ?
Dann kämen auf die 300W noch ein paar W oben drauf, um wirklich wieder vergleichbar zu sein.
 
  • Danke
Reaktionen: Tzk
Gute Frage, das erfahren wir dann wohl erst mit unabhängigen Tests. Falls du Recht hast wäre Igors Prognose (320W) ziemlich gut. Falls nicht, dann lag Igor 20W daneben.
 
@Holzmann das sollte kein Angriff sein, entschuldige bitte... ich habe mein Essen zu Hause liegen lassen und bin dezent angefressen, da seit Monaten keine Kantine in der Nähe mehr offen hat... *auf Apfel rumkau*.

Lassen wir den Vega Sammler einfach so wie er ist, im neuen Sammler würde ich mir Informationen zu den eventuell vorhandenen BIOS Schaltern wünschen.
Die Dokumentation der Hersteller existierte dort nicht.
Auch Treiberbesonderheiten tauchten zwischendrin auf seite drölf bis zwanzig Seiten danach auf, wurden aber erst per google Suche ausgespuckt, da im Opening dazu nichts aufkam-
UV/OC gerne mit rein nehmen. Ein Stück weit ist es historisch so gewachsen und ich bin erst dazu gestoßen als vega schon lange im Feld war.
Wollte ja eigentlich mit meiner R290x auf die Generation hinter Vega warten ;).
Ich bin einfach zu niggelig, rege mich ja schon über doppelte Leerzeichen und falsche Grautöne in freier Wildbahn auf, daher alles gut, bitte nicht böse sein!

Die Ryzen OC Threads sind glaube nicht unter deiner Fuchtel und auch nicht mehr hier im Forum direkt, sondern nur noch verlinkt... weswegen wir das hier belassen sollten.
Die Informationen findet man ja, nur leider nicht Zyxxkonform aufbereitet ;) *weitermecker und in Tisch beiß*
 
das mag für 1080p und 1440p und für die 6800 kein Problem sein, aber bei der 6800XT und vor allem der 6900XT um immerhin 1000 Flocken hätte das schon breiter sein sollen, aber hoffen wir halt mal das es so auch irgendwie reicht :(
Nach der folie sollte es schon reichen auch für 4K.
Obs dann immer so ist wird man wohl erst nach unabhängigen benches mit nem zen3 sehen.
1603970384595.png
 
Alles gut bin immer aufgeschlossen für Kritik oder feedback :wink:
 
Igor ist jetzt nicht zwingend der heilige Gral der Wahrheit.
Als die XT Modelle in der Gerüchteküche waren, waren Igors Spekulationen, dass es Renoir DIEs sein können. Auf die Frage, wie aus einem Renoir DIE 12 Kerne kommen sollen, kam natürlich keine Antwort.
Auch der Gamechanger, die RTX 3000 Serie, ist auch nicht eingetroffen. Aktuell ist die 3000er Serie eine Spielbremse.
Auch das die Verfügbarkeit ganz schnell, also ende Oktober behoben sein wird ist falsch.
 
Die 320W beziehen sich auf eine Partnerkarte.

Ich wiederhole mich gern nochmal:

Warum wird für die 6900XT eine 850W Netzteil empfohlen? 🤔

Beitrag automatisch zusammengeführt:

Für die 6800XT werden 750W fällig. Das ist genau dieselbe Empfehlung wie für die 3080. Ich würde mal davon ausgehen, dass die sich unterm Strich beim Stromverbrauch nichts nehmen.

Warum wird für die 6900XT eine 850W Netzteil empfohlen? 🤔

 
Zuletzt bearbeitet:
Weis wer oder ist bekannt wieviel Tensor Cores die neuen AMD Grafikkarten haben? Oder ist das nicht mit Nvidia gleichzusetzen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh