Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Die 6800 ist etwas schneller, verbraucht etwas mehr, kostet etwas mehr als die 3070.
Damit ist sie die am schlechtesten positionierte GPU, weil sie quasi überall die gleichen relativen Werte hat, aber wohl bei RT abstinkt.
Dass sie bei "RT abstinkt", darauf solltest du nicht wetten. ;) Und vergiss mal nicht, dass die 6800 doppelt so viel VRAM mitbringt. Zusammen mit der anscheinend höheren Performance macht das die 3070 relativ unattraktiv. Wenn AMD noch ein bisschen mit dem Preis runtergegangen wäre, wäre die 3070 quasi obsolet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nö, kann man schon so stehen lassen. Nvidia wurde mit herunter gezogener Hose erwischt. Andernfalls kann man sich den absurden Preis der 3090 nicht erklären. Nvidia wusste mit Sicherheit, dass AMD einen Gegenspieler für die 3080 hat. Deshalb hat Nvidia die Preise der Vorgänger übernommen und nicht erhöht. Bei der 3090 schaut's anders aus. Im Vergleich zur 2080 Ti wurde der Launchpreis um satte 50% erhöht ($999 vs $1499). Da hat Nvidia wohl nicht mit einem Gegenspieler gerechnet. :fresse:
Der Preisaufschlag von 649$ 6800XT zu 999$ 6900XT ist aber auch heftig für 8CU mehr und sonst identischer Ausstattung, da greift man dem Kunden auch mit beiden Händen in die Tasche. Schön wärs wenn nVidia jetzt mit der 3080Ti 12GB kontert und den Preis attraktiver hält mit um die 799 bis max 879$.
 
Von daher, wenn es geht, dann G-Sync. Leider haben die neuen Module meistens einen Lüfter (gibt nur ein passives Modell, den Asus PG mit 360 Hz). Der Lüfter ist ein gravierender Nachteil. Das stimmt.
Erklär mir mal warum der Lüfter ein "gravierenden" Nachteil darstellt! Bin gespannt...
 
Welche Monitore sollen mit AMD besser funktionierten als mit Nvidia in Bezug auf adaptive sync?
Ich hab keine Liste angefertigt. Lies einfach Berichte im Internet oder auch hier im Monitorthread. Es funktionieren zwar einige FreeSync-Monitore an Nvidia-Grafikkarten, aber eben nicht pauschal alle und manche zwar irgendwie doch, aber halt nicht einwandfrei.
Sich pauschal darauf zu verlassen, das ein FreeSync Monitor grundsätzlich problemfrei an einer NVidia-Graka funktionieren würde ist jedenfalls (leider).... sehr optimistisch.
 
Fiji war damals gut, ja. Die 2 GB weniger Vram sahen nicht besonders verlockend, blickend auf die gtx 980 ti aus, aber Fury konkurrierte ja auch mit der gtx 980.
Preis-/Leistung passte jedenfalls. Deutlich besser als mit Vega.

Für mich nochmal zusammengefasst:
  • zukunftsfähige 16 GB Vram duch die ganze Bank hinweg - von 600 - 1000 €.
    Keine Sorgen um breite Verfügbarkeit/Markdurchdringung von DirectStorage und Gamestreaming direkt von der ssd, und ob in 1 - 2 Jahren mehr als eine handvoll Spiele dies unterstützen werden.
    Auch next-gen Spiele mit reichlich Mods :=)))
  • Navi21 Gpus sacken unter 1440p nicht so stark ein wie rtx 3080/3090; sind also schneller und auch als 1440p Karten gut in Schuss
  • gddr6-Speicher brät nicht bei 100 °C. Potentiell weniger Ausfallraten
  • Mammut-Kühlkonstruktionen für die rtx 3080/3090 werden von den Boardpartnern wiederverwendet -> Navi21 gpu und Speicher müssten im Betrieb noch kühler als bei rtx 3080 sein
  • Dies mit einbegriffen -> mehr Übertaktungs-headrom. Hallo 2,4 GHz -> weiter von 3070/3080/3090 absetzen:)
  • etwas geringerer Verbrauch 6800XT; merkbar weniger 6900XT (bessere bins?)
  • wer es hat: Smart Access Memory für >= 5 % an Leistung (Amds hbcc Nachfolger?)
  • nächstes Jahr anstehende KI-gestütze Upsampling Alternative zu Dlss 2, gennant "Super-Resolution"
  • 6800 und 6800XT, gemessen an Leistung und Eigenschaften, merkbar günstiger.
    6900XT gleich 67 % günstiger.

Nachteile:
  • 20 - 30 % weniger Ray-/triangle-Leistung?
  • Verfügbarkeit??!?!
    Wie überzeugt man die Miner keine Karten zu kaufen und die Menschen die eine Ampere-Grafikkarte kaufen wollten, auch weiterhin
    bei dieser Entscheidung zu bleiben? ;)
 
Deshalb hat Nvidia die Preise der Vorgänger übernommen und nicht erhöht.
Setz du mal deine Rote Brille für besseren Durchblick ab, dann sollte auch dir auffallen, das NV die Preise im Vergleich zum Vorgänger gesenkt hat...
 
Empfinde nur ich den Preis der RX6800 im Vergleich zur XT Variante als zu teuer? 70$ Unterschied für das Plus an Leistung macht schon Sinn. Die RX6800 für 549 oder 529 wäre ein Killer. Ich wüsste jetzt nicht, wieso ich die 70 Tacken sparen sollte, wenn ich schon soviel Geld ausgebe. Im Gegenzug dazu sind die 250 Tacken Aufpreis zur 6900XT im Verhältnis zum Leistungsunterschied ein Grund, sie nicht zu nehmen, auch wenn die 3090 nochmal 500€ teuerer ist.
 
Erklär mir mal warum der Lüfter ein "gravierenden" Nachteil darstellt! Bin gespannt...

Deinen Monitor kenne ich in und auswendig. Ein paar Mal gehabt. Der hat übles Fiepen. Ekelhaft:


Zwei billige Lüfter der Marke Sunon sind leider alles andere als geil.

Es gibt jedoch noch ätzendere. AG353UCG, PG27UQ, X35 oder PG35VQ z.B..

Hätte mir an deiner Stelle lieber den LG 38GN950 ohne Lüfter gekauft. Gabs denke ich mal nicht als du den kauftest oder der GL war günstiger :).
 
Weil man ihn im Worst-Case hört. Einen Monitor mit Lüfter werde ich mir sicher auch nicht kaufen.
:lol:
Ich hatte vor 2 Wochen Hörtest beim Betriebsarzt mit Note1 bestanden. Der Lüfter des LG38GL950G-B ist unhörbar in allen Lebenslagen! Hast du überhaupt einen Monitor mit G-Synch Modul oder plapperst du nur nach was du irgendwo im Netz aufgeschnappt hast?
 
  • Danke
Reaktionen: THK
Im Gegenzug dazu sind die 250 Tacken Aufpreis zur 6900XT im Verhältnis zum Leistungsunterschied ein Grund, sie nicht zu nehmen, auch wenn die 3090 nochmal 500€ teuerer ist.
Highend hebt halt ab, auch vom Preis her. Wenn du Preis-Leistung suchst, bist du ohnehin nicht der Zielkunde von absolutem High-End. Von daher ist der Preisunterschied von 6800 zu 6800xt eh nicht vergleichbar mit dem Preisunterschied von 6800xt zu 6900xt.
Das gleiche "Problem" hast du bei NVidia. Warum kostet eine 3090 mehr als das doppelte einer 3080?
 
War schon irgendwo was zur Länge der Karte zu lesen?
 
@mgr R.O.G.

Ja,ja. Das Geräusch ist wenn man vor dem Monitor sitzt einfach sehr hochfrequent. Nervt aber trotzdem. Mag solch ein stechendes Fiepen nicht in meinem Ohr.

@Topic

Ich bin gespannt wann die customs released werden. Denke jedoch dass das genauso ein Theater gibt wie den Amperes. Von daher habe ich auch irgendwie keine Lust aufs Warten, da es leider nicht viel nützen wird.
 
Der Lüfter des LG38GL950G-B ist unhörbar in allen Lebenslagen!
Ich kaufe mir keinen Monitor mit Lüfter, weil das eine potentielle Geräuschquelle ist. Und die steht dann zu allem Übel auch noch direkt vor mir statt unterm Schreibtisch.
OB man den Lüfter wirklich hört oder nicht, habe ich nicht in Frage gestellt. Vielleicht hört man ihn auch nicht, ich kaufe mir aber trotzdem keinen Monitor mit einem Lüfter. Weil ich das auch gar nicht brauche und man einen Lüfter trotzdem stören hören könnte!
Es gibt übrigens auch Monitore mit G-Sync OHNE Lüfter. Deine Assozation zwischen G-Sync und Lüfter ist also ohnehin hinfällig.


Hast du überhaupt einen Monitor mit G-Synch Modul oder plapperst du nur nach was du irgendwo im Netz aufgeschnappt hast?
Ich plappere überhaupt nichts nach, ich habe auch nicht gesagt, das man keinen G-Sync-Monitor kaufen sollte, sondern lediglich generisches beurteilt und das nach meiner eigenen Meinung.
Fühlst du dich dadurch wohl in deinem Nvidia-Fantum gekränkt?
 
Deinen Monitor kenne ich in und auswendig. Ein paar Mal gehabt. Der hat übles Fiepen. Ekelhaft:
Ahhhhhh, jetzt weiss ich wieder woher der Wind weht... du bist derjenige. Lüfter und fiepen :lol:. Lass stecken, über dich haben sich schon viele lustig gemacht :fresse:.
 
Nun habe ich gewartet und weiß immer noch nichts... die Benchmarks wurden wenn ich das richtig verstanden habe, alle mit einen 5900x mit OC Mode und dieses Memory Access kram gemacht.
Anscheinend nein. Zu den Testbedingungen zwischen 6800 XT und 3080 wurde nichts erwähnt von Rage Mode und SAM.
 
Zuletzt bearbeitet:
Der Preis der 6900XT ist auch nicht unbedingt gerechtfertigt, aber da rennt man sowieso offene Türen ein. Es bleibt im Vergleich zu Team Grün jedenfalls halbwegs im Rahmen und ist halt der Preis, den der Enthusiast zahlt. Die 6800XT erscheint mir performance / Preis technisch am besten. Die 6800 non-xt für 529-549$ wäre für viele noch mehr ein Grund, auf Leistung zu verzichten für den niedrigeren Preis und gleichzeitig zerstört man damit im Vorfeld die 3070 für 499$ vollkommen und ggf. ein nvidia produkt zwischen 3070 und 3080 gleich mit, wenn sie eins kurzfristig nachschieben.
 
Highend hebt halt ab, auch vom Preis her. Wenn du Preis-Leistung suchst, bist du ohnehin nicht der Zielkunde von absolutem High-End. Von daher ist der Preisunterschied von 6800 zu 6800xt eh nicht vergleichbar mit dem Preisunterschied von 6800xt zu 6900xt.
Das gleiche "Problem" hast du bei NVidia. Warum kostet eine 3090 mehr als das doppelte einer 3080?
Bspw. 10GB GDDR6X vs 24GB GDDR6X, sieht man wenigstens ein deutlichen Unterschied. Bei AMD bezahlt man mal eben 250$ für 8 Compute Units mehr.
Zumal die 6800 non-XT wohl gar nicht viel Günstiger werden darf wenn man an die 16GB Speicher und dickem Chip denkt. Wenn nVidia clever ist senken sie am besten nochmal nen Preis der 3070 auf bei Release 449$, die haben da mit kleinerem Chip und nur 8GB mehr Luft nach unten, verbessert das Preis Leistungsverhältnis und macht Platz für die 3070Ti 10GB 549$.
 
Zuletzt bearbeitet:
Weil die neuen G-Sync Modelle VRR implementiert haben. Deshalb.
Die neuen!!!!! Merkste was?

Deinen Monitor kenne ich in und auswendig. Ein paar Mal gehabt. Der hat übles Fiepen. Ekelhaft:


Zwei billige Lüfter der Marke Sunon sind leider alles andere als geil.

Es gibt jedoch noch ätzendere. AG353UCG, PG27UQ, X35 oder PG35VQ z.B..

Hätte mir an deiner Stelle lieber den LG 38GN950 ohne Lüfter gekauft. Gabs denke ich mal nicht als du den kauftest oder der GL war günstiger :).
Bist du es Performer? Schreibst genau so....
 
Zuletzt bearbeitet:
Weil ich das auch gar nicht brauche und man einen Lüfter trotzdem stören hören könnte!
So wie NT Lüfter, CPU-Lüfter, Gehäuselüfter usw.?
Du musst dein Ohr direkt auf den Monitor legen und dann hörst ein leises rauschen. Bei normalem Sitzabstand ist Ruhe im Karton. Ganz nebenbei nutze ich eine Wakü mit (nahezu) unhörbaren Luffies. Hätte der G-Synch-Lüfter nur einen Mucks von sich gegeben, dann tschau Moni. Bin sehr Empfindlich in Sachen Lautstärke, nutze nicht umsonst Wakü ;).
Fühlst du dich dadurch wohl in deinem Nvidia-Fantum gekränkt?
Kommt man mit Argumenten nicht weiter packt man so einen Müll aus....
Obwohl, ja ich bin von NV überzeugt, weil mich deren HW + SW die letzten Jahre überzeugen konnte! Games laufen in G-Synch-Range top, Treibersupport ist top. Nichtsdestotrotz guck mal in meine Signatur... Lappenliesel ääähhhh Liesel Weppen :d.
 
AMD 2.jpg



AMD.jpg



Quelle:

 
Bspw. 10GB GDDR6X vs 24GB GDDR6X, sieht man wenigstens ein deutlichen Unterschied. Bei AMD bezahlt man mal eben 250$ für 8 Compute Units mehr.
Das meinte ich eben. Die Leistung ist mehr wert als nur mehr RAM, vorallem weil der enorme Unterschied für Gamer auch die nächsten Jahre relativ egal sein dürfte. Mehr als 10GB wollen, ok. Die wollen ja auch 16GB. Die GAMER die noch mehr als 16GB wollen, dürften vernachlässigbar sein. Ich glaube nicht, das man deswegen gleich fette 24GB brauchen können wird. Für Gaming. Computing ist nochmal was anderes.
Genau das wird Nvidia ja auch überall vorgeworfen. "Nur" 10GB, oder wenn man mehr will, steht nur 24GB zur Auswahl. Mehr als 10GB will man schon, aber gleich 24GB braucht kaum jemand.

Also das ich direkt 24GB bräuchte, seh ich gar nicht. Etwas mehr als 10GB wären aber nicht verkehrt. Vorallem für Aufrüster, wenn man bedenkt, das ja sogar die 1080ti und die 2080ti schon mehr hatten.
 
Krass das AMD so abgeliefert hat, damit hätte ich nie gerechnet. Mit der R VII, die ja eher eine Profi-Karte war, die als Game Lösung herhalten musste, schien das Angagement und die Ambitionen seitens AMD im HighEnd-Bereich mitmischen zu können/oder wollen begraben. Die XTs gingen zwar in eine bessere Richtung, liefen aber der Konkurrenz deutlich hinterher... meine Vermutung war, das AMD knapp an die 2080ti ran kommen könnte... UND JETZT KOMMEN DIE MIT SO EINEM BRETT UM DIE ECKE - RESPEKT!!!
 
Ist denn schon bekannt wie gut Raytracing bei AMD aussieht? Es wurde behauptet, dass Raytracing viel schlechter aussehen soll und Nvidia da einfach viel besser ist.
 
Das meinte ich eben. Die Leistung ist mehr wert als nur mehr RAM, vorallem weil der enorme Unterschied für Gamer auch die nächsten Jahre relativ egal sein dürfte. Mehr als 10GB wollen, ok. Die wollen ja auch 16GB. Die GAMER die noch mehr als 16GB wollen, dürften vernachlässigbar sein. Ich glaube nicht, das man deswegen gleich fette 24GB brauchen können wird. Für Gaming. Computing ist nochmal was anderes.
Genau das wird Nvidia ja auch überall vorgeworfen. "Nur" 10GB, oder wenn man mehr will, steht nur 24GB zur Auswahl. Mehr als 10GB will man schon, aber gleich 24GB braucht kaum jemand.

Also das ich direkt 24GB bräuchte, seh ich gar nicht. Etwas mehr als 10GB wären aber nicht verkehrt. Vorallem für Aufrüster, wenn man bedenkt, das ja sogar die 1080ti und die 2080ti schon mehr hatten.
Daher wäre eine 3080Ti 12GB mit fast 3090 Leistung aber nicht dem für Gamer überdimensionierte teure Speicherbestückung recht passend, solang nVidia nicht mit dem Preis übertreibt und vielleicht auch attraktiv gegen die 6900XT positioniert mit max 849$.
 
6900 XT 54% teurer als 6800 XT und nur 11% mehr CUs. Nicht ganz 3090-Level an Absurdität, aber geht in die selbe Richtung, bei der 3090 kann man es sich noch mit dem VRAM schönreden, bei den AMD-Karten ist er jedoch identisch. Es ist das Halo-Produkt, daher irgendwie verständlich, aber trotzdem nicht schön.
Das ist ja jetzt nicht unerwartet. (nahezu)Fehlerfreie Chips im Vollausbau sind selten und damit zwangsläufig erheblich teurer. Da geben sich Amd und Nvidia dann naturgemäß wenig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh