Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Nein bzw. ich kann das nicht kommentieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich höre immer RT und DLSS.
Aber Spiele die RT unterstützen sind von dem was ich bis jetzt gesehen hab einfach nur unrealistisch glänzend und glitzernd.

Ich finde die Spielehersteller nutzen das Feature einfach zu überzogen.

Das einzige was mich noch grübeln lässt ob es wieder eine NV oder doch eine AMD Karte wird ist mein Monitor mit G-sync und Features wie RTX Voice auf die ich dann verzichten müsste.

Top was AMD da auf die Beine gestellt hat.
Keine Frage und auch P/L technisch viel besser mit 16gb VRAM, das kann man nicht weg diskutieren.

Ein gute Jahr was Hardware angeht für uns "Nerds"
 
Zuletzt bearbeitet:
Weil es noch keine DX12 Ultimate Spiele gibt vielleicht? :rolleyes2:
Sollen die mit RTX testen, auf Nvidia optimiert? Das würde Nvidia machen im umgekehrten Fall... türlich....

Ich glaube das unentschlossene, u.a. ehemalige Nvidia Käufer bzw. solche die an RT interesiert sind, erwarten dass das auch auf AMDs läuft.
 
Die gezeigten Werte mit den Karten sind auf einer aktuellen Intel Basis entstanden, oder?

Ich meine AMD hat mal gesagt, dass sie dafür Intel CPUs nutzten...
In diesem Fall müssten es aber AMD-CPUs sein: die Benchmarks sind laut Text wohl unter Nutzung des Features "Smart Access Memory" entstanden, dass (zur Zeit?) wohl nur im Zusammenhang mit AMD-CPUs nutzbar ist, wenn ich das alles richtig verstanden habe.

Viele Grüße,
Ezeqiel

*edit*:
Uups, ich bin wohl der gefühlt zehnte, der das beantwortet hat..... :oops: :d
 
Zuletzt bearbeitet:
Dass sie bei "RT abstinkt", darauf solltest du nicht wetten. ;) Und vergiss mal nicht, dass die 6800 doppelt so viel VRAM mitbringt. Zusammen mit der anscheinend höheren Performance macht das die 3070 relativ unattraktiv. Wenn AMD noch ein bisschen mit dem Preis runtergegangen wäre, wäre die 3070 quasi obsolet.
Sehe ich anders. Die 3070 hat ein fast 10 cm kürzeres PCB und kann damit mit entsprechenden Kühlern in beinahe jedem Gehäuse unterkommen, quasi die Nano von den Grünen ;)
 
Ist inzwischen eigentlich klar, ob die Preise bei AMD mit oder ohne MWSt sind?
 
Ist denn bekannt wann die NDA fällt?
NDAs beinhalten die Klausel, dass du weder über den Inhalt oder das Ablaufdatum sprechen darf. Wenn AMD im NDA z.B. noch nicht veröffentlichte Punkte anspricht, die Reviewer beachten sollen oder weitere Modelle genannt werden würden, ist das alles Bestandteil der Verschwiegenheit.


Weil EK keine Problem damit hat, anhand von CAD-Daten ein unoptimiertes etwas auf den Markt zu werfen. Wenn du dir die Mühe machst wie Watercool, dann geht das nicht.

Einen Kühler zu entwickeln dauert circa einen Mann-Monat. Ein paar der Prozesse kann man auch parallelisieren, weshalb es schlußendlich etwas unter einem Monat dauert, aber zur Kostenkalkulation ist das ein guter Ausgangswert. Das heißt, man hat die reinen Lohnkosten eines Industrie-Ingenieurs. Dann kommt Maschinen-Zeit hinzu, um die Halterungen für die Bauteile des Kühlers zu fertigen. Dann kommt Maschinen-Zeit, um den Prototypen zu fertigen, hinzu. Dann muss der durchgestet werden, und es kommen eventuelle Nachbesserungen - bei manchen Karten haben wir mehrere Prototypen gefertigt und physisch getestet, bis wir zufrieden waren. Das heißt auch, dass die Maschine möglicherweise still steht, um für die Prototypen Entwicklung zur Verfügung zu stehen. Zu den Kosten des Kühlers kommen also auch noch die Ausfallkosten für all die Dinge, die weder der Ingenieur noch die Maschine in der Zeit stattdessen machen kann.
Schlußendlich kostet uns die Entwicklung eines Grafikkartenkühler also circa einen niedrigen 5stelligen Betrag.
Industrie-Produkte haben meist eine Marge zwischen 5 und 20%. Ihr könnt euch also grob selbst ausrechnen, wie viele Kühler wir absetzen müssen, um einfach nur die Entwicklungskosten wieder reingeholt zu haben.

Und JA, all dieser Aufwand wird für JEDEN Kühler neu fällig. Nein, es ist so gut wie nie möglich, bestehende Strukturen weiter zu nutzen, sonst würden wir das ja tun. In dieser Generation ist das zum Beispiel bei der Long Version der Fall, bei der die Bodenplatte identisch zum Referenz Kühler bleibt, und "nur" ein alternativer Deckel gefertigt werden muss.
 
Zuletzt bearbeitet:
Ach darum wurde angekündigt das Raytracing bei CP2077 am Anfang nicht auf den neuen Konsolen und RDNA 2 Karten laufen wird?
Denk mal selber drüber nach...

Ja die Frage ist noch offen. Aber RDNA 2 unterstützt DXR 1.1, also sollte es doch auch abwärtskompatibel sein. Daher gehe ich davon aus, dass alle aktuellen DXR-Spiele auch von den neuen AMD-GPUs mit Raytracing unterstützt werden. Bestätigt ist das natürlich nicht.
 
Ja die Frage ist noch offen. Aber RDNA 2 unterstützt DXR 1.1, also sollte es doch auch abwärtskompatibel sein. Daher gehe ich davon aus, dass alle aktuellen DXR-Spiele auch von den neuen AMD-GPUs mit Raytracing unterstützt werden. Bestätigt ist das natürlich nicht.
Ja wie gesagt, mein letzter Stand war das CD Project Red einen Patch für Konsolen und eben RDNA2 nachliefern wollte, eben für Raytracing!
Es kann natürlich sein das es mit dem neuen Termin dann gleich implementiert wird... :unsure:
 
Ach darum wurde angekündigt das Raytracing bei CP2077 am Anfang nicht auf den neuen Konsolen und RDNA 2 Karten laufen wird?
Denk mal selber drüber nach...
Von dieser "Ankündigung" weiß ich nichts. Was ich weiß das DXR die Schnittstelle ist die auch NVidia braucht. Den ohne DXR kein RTX. Und die Schnittstelle allein gibt nicht vor mit welcher Grafikkartentechnlogie die Effekte berechnet werden sondern nur welche Daten benötigt werden um das darstellen zu können. Wenn da nicht getrickst wird sollten die sehr wohl bereits sämtliche Spiele die Raytracing enthalten auch darstellen können vor allem wenn die Karten das Featureset schon unterstützen.
 
Bei Cyberpunk 2077 scheint es in der Entwicklung aber ohne nicht rund zu laufen, insofern würde ich das nicht als Maßstab für eine Unterstützung von Raytracing durch RDNA 2 nehmen.
 
Von dieser "Ankündigung" weiß ich nichts. Was ich weiß das DXR die Schnittstelle ist die auch NVidia braucht. Den ohne DXR kein RTX. Und die Schnittstelle allein gibt nicht vor mit welcher Grafikkartentechnlogie die Effekte berechnet werden sondern nur welche Daten benötigt werden um das darstellen zu können. Wenn da nicht getrickst wird sollten die sehr wohl bereits sämtliche Spiele die Raytracing enthalten auch darstellen können vor allem wenn die Karten das Featureset schon unterstützen.
Okay ich drücke es anders aus:
Es gibt Berichte das RDNA 2 aktuell Probleme mit RTX Titeln hat, sprich die Performance ist nicht da wo sie sein sollte.
Laut den Port Royal Ergebnissen ist die 6800XT bei RT ungefähr gleichauf mit der 2080TI....
Angeblich passiert das aber überwiegend bei Nvidia RTX Titeln, warum muss man wohl die Spieleentwickler fragen 🤷‍♂️

Vielleicht pfeilen die ja auch noch am Treiber und wollten deswegen noch nichts zeigen? Wer weiß das schon?
Aber RT wird schon laufen, ist ja auch auf den Konsolen ein gern beworbenes Thema und die laufen auch mit DX12 Ult.
 
Okay ich drücke es anders aus:
Es gibt Berichte das RDNA 2 aktuell Probleme mit RTX Titeln hat, sprich die Performance ist nicht da wo sie sein sollte.
Laut den Port Royal Ergebnissen ist die 6800XT bei RT ungefähr gleichauf mit der 2080TI....
Angeblich passiert das aber überwiegend bei Nvidia RTX Titeln, warum muss man wohl die Spieleentwickler fragen 🤷‍♂️

Vielleicht pfeilen die ja auch noch am Treiber und wollten deswegen noch nichts zeigen? Wer weiß das schon?
Aber RT wird schon laufen, ist ja auch auf den Konsolen ein gern beworbenes Thema und die laufen auch mit DX12 Ult.
Liegt höchstwahrscheinlich daran das AMD ein RT Anfänger ist und es an Erfahrung fehlt, die nVidia in über einem Jahr sammeln konnte. Man muss schon durch die gefärbte Brille schauen um hier den schwarzen Peter nVidia zu schieben zu wollen. RTX ist schließlich nur die nVidia genannte Umsetzung welche auf dem offenem DXR Standard basiert.
 
Sehe ich anders. Die 3070 hat ein fast 10 cm kürzeres PCB und kann damit mit entsprechenden Kühlern in beinahe jedem Gehäuse unterkommen, quasi die Nano von den Grünen ;)
SFF mit 220W, schon klar. *hust* Wer das möchte, für den gibt es ja auch noch Navi 22. Da würde ich mir eher Hoffnung auf kompakte, kühle und sparsame Systeme machen, wenn man keine High-End Ansprüche an die Performance hat. ;)
 
Zuletzt bearbeitet:
Liegt höchstwahrscheinlich daran das AMD ein RT Anfänger ist und es an Erfahrung fehlt, die nVidia in über einem Jahr sammeln konnte. Man muss schon durch die gefärbte Brille schauen um hier den schwarzen Peter nVidia zu schieben zu wollen. RTX ist schließlich nur die nVidia genannte Umsetzung welche auf dem offenem DXR Standard basiert.
Auf die schnelle nur den Link gefunden!
🤷‍♂️
 
Die Realität zeigt genau das Gegenteil, ganz egal was NVIDIA Aufruft. Das sind Empfehlungen.

3090 = 2000+€
3080 = 800+€
3070 = 700+€
Jap, das macht's umso schlimmer. Find's einfach nur lustig, wenn Leute behaupten, dass die Preise bei der 3000er Serie gesenkt wurden. Da scheint die Gehirnwäsche durch des Nvidia Marketing voll zu greifen. Das ist im Endeffekt ja gut raus. Die schreiben nicht umsonst Sachen wie "from" oder "starting at" auf ihre Folien. :wall:

Du hast noch vergessen, dass 3090 und 3080 auf GA102 basieren. Früher basierten die 80er nur auf einem stark abgespeckten 104er Chip.
Ja, das kommt noch erschwerend hinzu, dass sie im Schnitt jetzt grössere Designs brauchen für das gleiche Produktportfolio. Wird vermutlich keinen besonders positiven Effekt auf die Margen haben.
 
Ja, habe ich auch gemerkt :d. Deswegen rauseditiert. Ich finde nichts zum AMD RT.
Weil du nicht mitdenken oder andere Quellen heranziehen kannst.
Gamers Nexus z.B. hat es auch gesagt: AMD nutzt RT Rechenkerne und greift auf die DXR Schnittstelle von DX12 zu. Somit können alle Spiele die DX12 nutzen und RT integriert haben auch von den AMD Karten entsprechend dargestellt werden.
Jo und wenn bei Cyberpunk Raytracing angeschaltet ist, fließen die Tränen der AMD User schneller runter als die FPS droppen.

AMD liegt in etwa gleich auf, hat aber weder DLSS noch ordentliches Ray Tracing. Von VR Featuren mal ganz zu schweigen.
Das einzige was hier noch weiter droppt ist deine Ahnungslosigkeit und deine Unkenntnis.

Sollen die mit RTX testen, auf Nvidia optimiert? Das würde Nvidia machen im umgekehrten Fall... türlich....
RTX ist nicht NVidia Exklusiv. Es läuft auch ganz normal über die DXR Schnittstelle von DX12 und somit sollten auch die AMD Karten die bisher erschienenen Spiele mit RT berechnen können.

Aber Spiele die RT unterstützen sind von dem was ich bis jetzt gesehen hab einfach nur unrealistisch glänzend und glitzernd.
Dann hast du keine Ahnung was RT macht und irgenwie auch Tomaten auf den Augen.
 
Bei Release! Exklusiv Deal? Bedeutet also das der AMD Support genauso nachgereicht werden kann. Zumal es nachvollziehbar wäre als Entwickler das Spiel endlich fertig zu bekommen und jetzt nicht noch Manpower für die höchstwahrscheinlich unausgereifte AMD DXR Implementierung zu verschwenden.
Höchstwahrscheinlich unausgereift? Du meinst den Support für eine Schnittstelle einer Firma, die lange an der XBox Series X/S gearbeitet hat, die Ryaytracing beherrscht? Kling nicht wirklich logisch. ;)
 
Jup sieht bei mir ähnlich aus,wird dann ein 5900er und die 6800xt
 
Höchstwahrscheinlich unausgereift? Du meinst den Support für eine Schnittstelle einer Firma, die lange an der XBox Series X/S gearbeitet hat, die Ryaytracing beherrscht? Kling nicht wirklich logisch. ;)
Angeblich hat Microsoft und nVidia zusammen DXR entwickelt, hieß es bei Turing Release. Dennoch lief nicht alles reibungslos beim Start. Und du willst jetzt behaupten das AMD mit geringerem R&D Budget und neuer Technik samt erster Hardware Gen alles besser macht als nVidia? Ja klingt logisch. Deswegen gibt's den DLSS Konter ja auch bei Release, nicht.
 
Weil EK keine Problem damit hat, anhand von CAD-Daten ein unoptimiertes etwas auf den Markt zu werfen. Wenn du dir die Mühe machst wie Watercool, dann geht das nicht.
Nur das in diesen Fall AMD wohl mit EK zusammenarbeitet, das Bild vom Wasserkühler stammt aus der offiziellen Video AMD Präsentation.
 
Angeblich hat Microsoft und nVidia zusammen DXR entwickelt, hieß es bei Turing Release. Dennoch lief nicht alles reibungslos beim Start. Und du willst jetzt behaupten das AMD mit geringerem R&D Budget und neuer Technik samt erster Hardware Gen alles besser macht als nVidia? Ja klingt logisch. Deswegen gibt's den DLSS Konter ja auch bei Release, nicht.
Besser vielleicht nicht unbedingt obwohl es die Technik im Grunde auch bei AMD schon eine Weile gibt, nur wurden jetzt erst bei der 6000er serie neue Core dafür implementiert. Bei dem Budged was AMD mittlerweile hat bin ich mir allerdings nicht mehr so sicher. AMD hat jetzt erst eine Firm für 30 MRD Dollar aufgekauft, so schlecht steht es um AMD nicht mehr.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh