Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und ein gsync equivalent gibt es bei AMD oder besser gesagt im Standard natürlich nicht...
Gibt's schon, bringt einem aber nix wenn man noch n gsync Monitor hat, und ich bin nicht gewillt, den zu wechseln
 
Das waren nun 9 Jahre nach hd 7970, ohne direkt zum Marktstart, ernsthaften, direkten Konkurrenten im High-End/Enthusiasten-Preisbereich.
Endlich 😓Danke an die Beschäftigten und die Unternehmensführung, welche die Preisspirale nach oben nicht in dieser Weise mitmacht.
Als Dankeschön entweder die 6800XT oder die ... nein, 6800XT reicht mir!

Hawaii wurde erst Jahre später mit FineWine richtig gut und zog an gtx 980 vorbei; musste sich zu Beginn mit der günstigeren und deutlich effizienteren gtx 970 messen.
Fiji war gut. Der Ruf war leider schlechter als die Leistung.
@Tigerfox
Nicht ganz so überzeugend wie hd4000/5000 vs gtx 2xx/4xx Zeit, aber an Ati X800 Pro/XT und X850 XT vs geforce 6800, GT und Ultra kommt die Lage heran ;)
 
Ahh okay
Dann hat AMD das ja wirklich geschafft. Mal besser als die 3080, mal schlechter, insgesamt also ziemlich exakt die selbe Performance.
Zumindest in WQHD, außer ich hab mich wieder verguckt und die Balken waren für 4k

Edit,
Nope WQHD.
Gut, ist eh meine Auflösung, dann stellt sich mir jetzt nur die Frage, 3080 oder 6800XT
AMD hat mehr VRAM, Nvidia hat dafür Gsync (und vermutlich stärkeres RTX)
Was davon ist am Ende besser für mich... Ich hasse solche Entscheidungen...
naja, gsync jetzt als pluspunkt für nv hinzuschreiben, finde ich doch etwas speziel...
monitore kosten deutlich mehr und amd hat mit freesync nicht wirklich einen grossen nachteil.
 
Gibt's schon, bringt einem aber nix wenn man noch n gsync Monitor hat, und ich bin nicht gewillt, den zu wechseln
Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.

Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
 
naja, gsync jetzt als pluspunkt für nv hinzuschreiben, finde ich doch etwas speziel...
monitore kosten deutlich mehr und amd hat mit freesync nicht wirklich einen grossen nachteil.
Naja klar, aber für mich selbst ist es halt ein Vorteil, da ich mir vor etwas über einem Jahr einen gsync Monitor gekauft habe.
 
Sollte AMD echt einen messbaren Performance-Vorteil haben durch AMD CPU + AMD GPU, dann ist das ganz klar ein gravierender Vorteil.
Da kann NVidia erst mal nix gegen machen. Wäre super!

Die Frage wird dann aber sein: Ist das echt ein Vorteil, oder "nur" ein Ausgleich gegenüber Intel?
Da bin ich auf die Tests der Chips gespannt. Aktuell sieht ja alles so aus, als ob Zen 3 schneller ist in Gaming als Intel, aber verifiziert ist es ja nun nicht bisher.
Wenn man nun mit nem 10900K, oder von mir aus bald 11900K trotzdem mehr FPS hat, als mit Zen 3 + 6900XT, dann relativiert sich der Vorteil irgendwie wieder. Dann ist das echt wirr in Reviews:

"Wenn Du eine AMD CPU hast, dann ist die neue 6900XT so schnell wie eine 3090! - Hast Du einen Intel Chip, ist sie 7% langsamer!"
analog:
"Wenn Du eine Intel CPU hast, dann ist die 3090 ti schneller als die 6900XTX, aber bei einer AMD CPU fällt sie hinter AMD zurück!"

Befürchte so ähnlich werden Reviews in naher Zukunft werden, vor allem bei Raytracing.
Beide Teams bieten ähnliche, aber doch unterschiedliche Systeme an. Nicht jeder Entwickler wird beide Dinger einbauen, oder wenn doch, gleich gut hinbekommen.
Da wird es ne Menge Einschränkungen und Relationen geben.

Aufregend!
ja, leider sieht es wohl so aus. aber seien wir mal ehrlich. wenn dann nur noch das der unterschied ist, ist es doch eigentlich egal. auch wenn es 10% leistungsunterschied sein sollten, wirklich merken wird das keiner. finde diese ganzen %-schwanzvergleiche lenken nur vom wichtigen ab. nähmlich die klasse, in der die karte spielt.
und da gibt es jetzt halt 3090/6900, 3080/6800xt und 3070/6800. ob und welche karte mal ein paar prozent drüber oder drunter liegt, ist doch eigentlich egal und sollte imo keine kaufentscheindung beeinflussen. denn wenn eine 3080 nicht mehr reicht, reicht auch eine 5%schnellere 6800xt nicht mehr.
 
Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.

Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
Was geht denn jetzt ab, Kreide ich hier irgendwo AMD an das die kein gsync können?
Ich hab gsync bei der Karte nur als für mich wirkenden Vorteil genannt, da ich halt gsync habe.
Sehe jetzt keinen Grund das mir hier die Worte umgedreht werden um irgendeine Marke zu bashen.
 
Bin mal gespannt ob AMD ihre HDMI2.1 Hausaufgaben gemacht hat und alles reibungslos läuft: dürfte so alle LG Oled user interessieren.
 
Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.

Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
Öhm, hab ich was verpasst ? NVIDIA unterstützt afaik seit Anfang 2019 und ab der GTX 1050 Freesync.
 
welchen du ja auch mit freesync füttern kannst. sehe da das problem nicht wirklich.
Kann ich halt nicht, kann der nämlich nicht.
Der kann entweder gsync, oder halt vsync, das wars

Weiß aber auch far nicht was das hier auf einmal soll.
Hab nur gesagt amd hat mehr vram, nvidia dafür (die für mich passende!!) sync Technik.
Das gilt es für mich beim Kauf jetzt gegeinander abzuwägen, wo beide in WQHD die selbe Leistung liefern
 
Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.

Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
wenn ich mich nicht täusche, hat amd genau garnichts freigegeben, sondern einen freien standard (adaptive sync) genutzt. oder? Und gsync hat soviel ich weiss schon noch kleine vorteile gegenüber freesync. nur halt nicht mehr soooo grosse, wie zu beginn, als freesync nach unten hin nicht wirklich flexibel war.



Kann ich halt nicht, kann der nämlich nicht.
Der kann entweder gsync, oder halt vsync, das wars
ok, dann ists klar. ging eigentlich davon aus, dass die neueren geräte, beides können. aber so, ist dein gsync argument natürlich völlig logisch und richtig. sorry.
 
Was geht denn jetzt ab, Kreide ich hier irgendwo AMD an das die kein gsync können?
Ich hab gsync bei der Karte nur als für mich wirkenden Vorteil genannt, da ich halt gsync habe.
Sehe jetzt keinen Grund das mir hier die Worte umgedreht werden um irgendeine Marke zu bashen.
Nein - dein Problem ist, dass du jetzt im Vendor-Lock-in festsitzt und gar keine andere Wahl mehr hast - es sei denn, du kaufst dir nen neuen Bildschirm. Das willst du nicht und somit wars das.

Da biste aber nicht ganz auf dem neusten Stand: https://www.pcgameshardware.de/Nvid...it-AMD-Grafikkarten-verwendet-werden-1337776/

Und Nvidia nutzt Adaptive Sync und nicht Freesync..
Ja - ganz genau hingucken: "Die neuen G-Sync Monitore"
 
Für mich heisst es ab sofort: Tschüss Intel - Tschüss Nvidia! Willkommen AMD! :)

Ist schon von Vorteil, wenn man einen Moni hat, welcher G-Synch wie auch adaptiv-Synch beherrscht und das jeweils von 1-144Hz-Range (mit OC bis 175Hz). :coolblue:

Habe ewig auf Lieferbarkeit der 3090 gewartet, aber da Mr.Lederjacke nur mit Papierschnipseln um sich werfen kann werfe ich ihn nun raus aus meinen PC-Upgrade-Gedanken...
Board (Gigabyte B550 Aorus Master) liegt schon auf der Post rum. 5900X kommt bald und dann heisst es warten auf RX6900XT. Ich freu mich druff :).
(Seit E6600 nur noch Intel-CPUs gehabt und meine letzte Rote Graka war Cypress in Form der HD5870). Hoffentlich hat AMD auch bei SW dazu gelernt... We will see!
 
Noch nicht wirklich nein. Jemand hat die gleiche Anwendung wohl mit einer GeForce RTX 3080 ausgeführt und kommt auf 630 FPS.
Dann liege ich mit meinen 65% ja gar nicht so schlecht.
Gespannt auf die gaming Tests.
 
In den Credits am Ende, zu den Grafikkarten-Tests, steht ein "Engineering AM4 Motherboard", anstatt B550/X570.
Kann ein Hinweis auf kommende B650/X670 Motherboards sein.

Generell sind die Benchmarks, die Test-Hardware und die Testbedingungen mehr als fair und transparent präsentiert durchgeführt und präsentiert worden.
Anders als bei Intel/teils nvidias Präsentationen, muss man nicht fürchten dass die kommenden externen Tests ein deutlich anderes Bild zeigen.

@mgr R.O.G.
Müsste g-sync compatible und nicht g-sync sein.
Tolles Motherboard (y)
 
ok, dann ists klar. ging eigentlich davon aus, dass die neueren geräte, beides können. aber so, ist dein gsync argument natürlich völlig logisch und richtig. sorry.
^^

Nein - dein Problem ist, dass du jetzt im Vendor-Lock-in festsitzt und gar keine andere Wahl mehr hast - es sei denn, du kaufst dir nen neuen Bildschirm. Das willst du nicht und somit wars das.
Nicht zwangsläufig, meine Entscheidung ist eigentlich eher, nehme ich entweder mehr VRAM, verzichte dabei völlig auf Sync, oder aber nehme ich weniger vram, hab dafür aber einen gesyncten Monitor.
 
^^


Nicht zwangsläufig, meine Entscheidung ist eigentlich eher, nehme ich entweder mehr VRAM, verzichte dabei völlig auf Sync, oder aber nehme ich weniger vram, hab dafür aber einen gesyncten Monitor.
Oder du gehst einen Mittelweg und hoffst, dass Enhanced-Sync bei AMD "gut genug" ist. Wäre natürlich trotzdem schöner nicht wäheln zu müssen. ;)
 
alles in allem, hat amd imo nvidia gehörig den arsch versohlt.
ähnliche gamingleistung (rtx wohl eher nicht), zu günstigeren preisen oder mit mehr ram oder auch beides ;) und das auch noch mit weniger verbrauch (ausser 3070). das alles als "graka-underdog" finde ich doch eine sehr sehr tolle leistung von amd.

jetzt heisst es warten, bis dann hoffentlich der @Don dies alles auch mittels gewohnt tollem test bestätigen kann.
 
wenn ich mich nicht täusche, hat amd genau garnichts freigegeben, sondern einen freien standard (adaptive sync) genutzt. oder? Und gsync hat soviel ich weiss schon noch kleine vorteile gegenüber freesync. nur halt nicht mehr soooo grosse, wie zu beginn, als freesync nach unten hin nicht wirklich flexibel war.
Offener Standard ist offener Standard - Nvidia hätte den genauso nutzen können. Haben sie aber zu Beginn nicht und sich eingemauert. Entsprechend sind die Monitore der ersten G-Sync Iteration auch nicht kompatibel.

Der Nachteil der G-Sync Monitore: Teurer, da Modul drin + etwas mehr Input Lag
Vorteil: Sync-Bandbreite geht tiefer runter. Freesnc ist sowas wie 48Hz-144Hz, G-Sync geht bei 24Hz oder so los (wenn ich mich nicht irre)

Die neuen Module sind kompatibel - aber halt immer noch teurer, weil Modul.
 
Mein Freesync 2HDR Monitor geht problemlos bei 24hz los
 
Auch wenn nur ein stilisiertes Schema, sieht der Aufbau der rdna2 gpu anders aus als der der xbox sx Gpu.
Die Gpu in der Sx hat laut Folie 26 Ray-/triangle-Beschleuniger pro dual-cu.
80 Ray-Beschleuniger, jeweils 1 pro CU?
 
Offener Standard ist offener Standard - Nvidia hätte den genauso nutzen können. Haben sie aber zu Beginn nicht und sich eingemauert. Entsprechend sind die Monitore der ersten G-Sync Iteration auch nicht kompatibel.

Der Nachteil der G-Sync Monitore: Teurer, da Modul drin + etwas mehr Input Lag
Vorteil: Sync-Bandbreite geht tiefer runter. Freesnc ist sowas wie 48Hz-144Hz, G-Sync geht bei 24Hz oder so los (wenn ich mich nicht irre)

Die neuen Module sind kompatibel - aber halt immer noch teurer, weil Modul.
hast ja schon recht, aber du hast geschrieben, dass amd das freigegeben hat. und das stimmt halt nicht. amd kann ja nichts freigeben, was bereits frei ist... ;)
klang halt so ein bisschen nach edler ritter verteilt almosen...
und war eigentlich auch der meinung, dass die neueren freesync-monitore auch bis nach unten können.
 
welchen du ja auch mit freesync füttern kannst. sehe da das problem nicht wirklich.
Nein kann er nicht, genau so wenig wie ich es kann, aufgrund von Halbwissen andere User anzugreifen ist echt mal lächerlich. G-Synch Monitor die auch Freesnych können sind erst in den letzte Monaten auf dem Markt gekommen, alle älteren Modele können nur G-Synch. Und wer jetzt schon einige Jahre irgend ein Adaptives Synch hat will nicht mehr drauf verzichten. Ein Monitor wechsel auf der selben Qualitäts Stufe kostet bei mir noch mal mehre 100 Teuronen oben drauf. Bin aber auch selber Schuld den Nvidia Properitär Mist mitgemacht zu haben ... Wobei mein Monitor auch ein Austelungsstück war und damit richtig günstig.

Nvidia hat damls die gesammte VESA abgezockt ... eigentlich hatten sich alle auf den selben Adaptive Synch Standart geeignet.

Zum Thema "die paar Prozent zwischen 30er und 60er Serie intresiren nicht." Wen nicht die 30er durch Raytracing und DLSS einen Vorteil kriegt hat AMD dank Speicher die Nase vorne ... Sind doch bei den 30er schon Viele skeptisch wegen 8gb und 10gb. Die 60er haben alle von Haus aus 16gb. Ich wünsch echt das AMD erfolgreich ist um das Nvidia gezwungen ist auch mal wieder Kundenfreundlicher zu handeln.
 
Zuletzt bearbeitet:
Da die vorgestellten GPUs alle über meinem Budget liegen, das ist jetzt bei 450 € angelangt, mehr geht nicht, werde ich noch bis Anfang Januar warten. Sollte AMD bis dahin nicht noch eine kleiner Karte hinter herschieben, wird es eine von diesen beiden. Die Feiertagspreise sollten sich auch schon wieder normalisiert haben bis dahin.

https://geizhals.de/msi-radeon-rx-5700-xt-gaming-x-v381-032r-a2133171.html?hloc=de oder die ohne XT

https://geizhals.de/msi-geforce-rtx-2060-super-gaming-x-v375-214r-a2090945.html?hloc=de vielleicht auch die 6 GB Varianten

Da ich sowieso bei meinem FHD 60 Hz Monitor bleiben werden, das Thema neuer Monitor ist vom Tisch, werden die Karten doch ein guter Boost gegenüber meiner RX 480 darstellen. Ein neues Board und CPU ist dann glücklicher weise auch nicht fällig.
 
wenn ich mich nicht täusche, hat amd genau garnichts freigegeben, sondern einen freien standard (adaptive sync) genutzt. oder?
Jau. Amds Freesync, also als Endprodukt, ist genauso proprietär wie g-sync.
Amd gibt nichts "frei". Beim Endpordukt ist alles patentiert und nach rechtlichem blabla abgesichert.
Der Hersteller kann zwecks Benutzung und Implementierung in das Produkt anfragen. Wer er es nicht möchte kann er selber versuchen, auf dem freien adaptive sync Standard, eine Lösung zu entwickeln.

Einfach so benutzen wie man möchte, ist genau wie mit g-sync nichts.
G-sync basiert auch auf dem freien Standard, nehmen sich beide also nichts, außer bei Hardware, Preis, Implementierung,

G-syncs (nicht g-sync compatible) gravierender Vorteil bis heute ist immer noch variable overdrive.
Erst mit Bildschirmen auf OLED-Basis, kann man variable overdrive als nicht mehr notwendig erachten.
 
Zuletzt bearbeitet:
Ja - ganz genau hingucken: "Die neuen G-Sync Monitore"
Das ist mir bewusst. Aber das liegt auch eher daran, dass dafür eine neue Firmware benötigt wird. Ändert aber nichts daran, dass deine Aussage - Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat - schlicht falsch ist, da Nvidia dies freigegeben hat und AMD nichts für Nvidia freigegeben hat.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh