Aktuelles

Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.037
Wer sich eine 3090 geholt hat braucht jetzt bestimmt nicht traurig sein, denn die 3090 wird vermutlich immer noch die beste Karte am Markt bleiben. Sie hat mehr Speicherbandbreite, tonnenweise Rohleistung (Treiber-Optimierungen!) und satte 24 GB VRAM. Eine 6900 XT wird also wenn in manchen Titeln gleichziehen, jedoch die 3090 nicht haushoch übertreffen. Und bei Titeln wie BFV und Forza (DX12) ist sowieso klar dass AMD dort Vorteile hat. Ich bin mal gespannt wie es bei Cyberpunk laufen wird, der Titel wurde mutmaßlich für NVIDIA Turing optimiert.

Außerdem, warum ist der Speicher der 6900 XT so langsam? Hier hätte ich mir doch eher 320 - 384-Bit gewünscht. Warum setzt man auf den langsamen Speicher? Hier mal eine alte Meldung (Jahre alt!), da hätte man doch gleich den schnelleren GDDR6 nehmen können.

Ich werde es überleben. Die 6900XT wird mich schon über 2080TI hinweg trösten. :bigok:

Sofern ich eine bekomme zum Launch. :censored:
40-50 % Mehrleistung könnten da schon drin sein. Die 2080 Ti ist aktuell auch schon am Limit für 4K60, den extra VRAM und die Treiberoptimierung kann man sich nur wünschen. In ein zwei Jahren wird es Turing nämlich genauso ergehen wie Pascal und all den anderen vorher. Dann übertrifft selbst die 3070 die alte Ti immer und die größeren Karten werden in neueren Titeln noch mehr Vorsprung haben.

Wirklich brauche ich die 6900 XT aktuell nicht, sie wäre eher ein Upgrade zur Zukunftssicherheit und für einen möglichen Monitorneukauf in 2021. Auf das RTX bin ich auch gespannt, den Frameverlust zu minimieren wäre sehr wünschenswert. Dann könnte ich das mit dem RTX auch endlich ernst nehmen. Aktuell ist es ja so, RTX on, FPS off. Mit 60 Hz kann man das verkraften, die meisten würden über diese Bildwiederholrate nur lachen und spielen dann vermutlich ohne RTX aber mit hohen FPS. Würde ich auf dem passenden Monitor auch so machen.

Außerdem: In den Benches zeigt man die FE. Wer also hier mit einer maximal übertakteten Custom-Ti unterwegs ist braucht sich da keine Illusionen machen, der Abstand wird geringer sein. Genau werden wir es wissen wenn die ersten Leute ihre Karten haben. Dann werde ich auch wissen wie dringend ich so eine 6900 benötige.
 

Tonmann

Enthusiast
Mitglied seit
03.10.2012
Beiträge
4.074
Ort
Schleswig in Schleswig Holstein!
Ich werde es überleben. Die 6900XT wird mich schon über 2080TI hinweg trösten. :bigok:

Sofern ich eine bekomme zum Launch. :censored:
Tief durchatmen, positiv denken und dann so
:lol:
Beitrag automatisch zusammengeführt:

Außerdem, warum ist der Speicher der 6900 XT so langsam? Hier hätte ich mir doch eher 320 - 384-Bit gewünscht. Warum setzt man auf den langsamen Speicher? Hier mal eine alte Meldung (Jahre alt!), da hätte man doch gleich den schnelleren GDDR6 nehmen können.
AMD hat mit allem möglichen experimentiert, auch HBM2 und hat die Lösung 256 Bit und Infinity Cache als Beste Lösung für eine gute Performance pro Watt auserkoren, wurde auch lang und breit erklärt!
Oh und ja natürlich vergleichen die ihr Referenzdesign mit FE Karten, sonst heulen ja noch mehr Leute rum!
 
Zuletzt bearbeitet:

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
33.584
Ort
dieser thread

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
36.212
Ort
SN
Das ist leider Käse, denn der 3090 fehlen Titan Treiber, dementsprechend ist die 3090 der teurere Ersatz für dei 2080Ti.
Bin ich frech und behaupte das Gegenteil...
Es gibt den Game Ready Treiber und den Studio Treiber. Beide laufen sowohl auf der TitanRTX als auch den Geforcens. Es gibt dazu noch (oder gab??) einen Creator Ready Treiber, den letzten den ich dazu finde ist aber einer von 2019? Man sprach bei diesem für einen Mehrwert für Content Creatoren -> das ist das was jetzt auch dort im Studio Treiber geboten wird/wurde. Denn da geht es (u.A.) um das gleiche, Rendern, Streaming, Bild/Video Bearbeitung usw. -> Studio Treiber.

Btw. halte ich persönlich das Treiberargument eh für eher haltlos. Die Titan hat an der Stelle so schon recht spärlichen Support (verglichen mit den Quadros) - erst mit dem seit ein zwei Jahren aufgelegten Programm der Studio Treiber bekommst du überhaupt einen Mehrwert (in Richtung Quadro/Tesla und deren Treiber). Aber für die Masse der Anwendungsfälle ist das jetzt auch kein großer Beinbruch. Wenn es darum geht, Support zu erhalten, kommst du ohne die Quadro/Tesla bzw. wie die Teile mit Ampere heißen werden, nicht drum rum -> denn da geht es eher um zertifizierte Hardware und nicht das aller letzte bisschen Performance. Für privat oder die ganzen Hobbyuser tut in der Masse der Fälle das, was an Treibern verfügbar ist.

Ehrlich gesagt versteh ich das Argument aber auch überhaupt nicht - die Titan wurde in jeder Generation als Nonsens kritisiert - und jetzt soll es DAS Argument sein warum die 3090 keine Titan ersetzen können darf/soll? Treiber? Realy? Eigentlich hat man genau jetzt das bekommen, was man immer wollte -> den TopDog nicht als Titan, sondern als Gamer Karte... Bei AMD die gleiche Nummer. Wirkt für mich nicht schlüssig, das jetzt zu kritisieren oder zu sagen, jaaa das geht aber so nicht. Natürlich geht das so. Und es ist für die Nutzer auch so ziemlich Bumms egal ob das jetzt Titan oder 3090 drauf steht.



Persönlich würde ich btw. eher denken, dass NV diesen "move" gemacht hat, weil sie wussten dass Navi21 im Vollausbau ein "Brett" wird ;) Und stell dir mal vor -> ne 2500-3000€ TitanA und dann kommt so ne 999$ Navi. Das wäre noch viel mehr abgegangen bei der Kritik. Ist schon so sinnig, wie es gelaufen ist.
Auch der Preisabstand jetzt, wenn man denn ne Karte bekommt, ist sinnig. Ampere bietet immerhin 50% mehr Speicher und schon ziemlich deutlich mehr FP32 Power. In einem Rendervorgang mit Cycles, Maya, Arnold und Co. wird das nicht reichen für die Navi Karte das zu toppen. Vom OptiX Mehrwert beim Viewport ganz zu schweigen. -> bedeutet, Rendering mit OptiX bzw. Cuda Support = klar Ampere. Sowas wie Adobe Premiere hingegen wird eng. Da schlagen auch die FP32 Shader nicht durch ;) Da brauchts dann aber bei NV eben auch keine besonderen Treiber :wink:
 

Epic2k

Enthusiast
Mitglied seit
14.09.2011
Beiträge
381

Hier gibt es nun offizielle Infos auf der EKWB Seite zum Custom Kühler für die BigNavi sowie ZEN3. Scheint so als passt er auf die 6800 sowie 6900 Boards. Daher gehe ich mal davon aus, die PCB`s werden identisch sein.

@Tonmann
Ich wusste doch das der Schriftzug auf dem GFX Block beleuchtet ist. 8-)
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
11.041
Ich will ja nichts sagen, aber ich kann keinen Nachteil im 4K sehen oder bemerken, mit 256bit Sl.

Deshalb frage ich, gibts bei zu wenig Bandbreite seltsame Einbrüche die mit mehr von nicht vorkommen?
 

Tonmann

Enthusiast
Mitglied seit
03.10.2012
Beiträge
4.074
Ort
Schleswig in Schleswig Holstein!
@Tonmann
Ich wusste doch das der Schriftzug auf dem GFX Block beleuchtet ist. 8-)

:lol: :lol: :lol:
 

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
36.212
Ort
SN
Ich will ja nichts sagen, aber ich kann keinen Nachteil im 4K sehen oder bemerken, mit 256bit Sl.
Schau dir die Tabelle an -> normalerweise würde bei steigender Auflösung = steigender Anforderung = weniger Einfluss des Restsystems wie CPU der Abstand eigentlich größer werden und nicht kleiner.
In der Tabelle ist Basis eine 3080 mit 100%. Und in UHD ist die relative Leistung kleiner als in niedrigeren Auflösungen. Der Rückschluss, das liegt an der Speicherbandbreite ist insofern schlüssig, weil mit steigender Auflösung Speicherbandbreite mehr Einfluss auf die Leistung hat/nimmt.

Belegen kann man das nicht hier und jetzt. Das müssen dann die Reviews zeigen. Gerade wie sich das verhält wenn man dem Teil Bandbreite mopst. So wie das scheint, taktet ja der Cache auch anders als die GPU? Zumindest schließe ich das aus den Aussagen zu SAM von der AMD Page -> da wurde irgendwie was bei 1,9xx irgendwas GHz angegeben - der Gameclock soll ja bei 2,0xx liegen.

Es könnte aber auch einfach daran liegen, dass die NV GPU mit eben jener steigender Belastung auch mehr Nutzen aus dem deutlich höheren Rohleistung zieht... Sprich das gleiche wie GCN damals auch. -> sollte dem aber so sein, dann wird Ampere in Zukunft wohl eher zulegen in Realation, denn die Zukunft wird definitiv höhere Anforderungen bringen. Auch das hat uns GCN damals schon belegt ;)
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
11.041
Frag mich wieso AMD nicht beim Top Modell auf mindestens 320bit Sl gesetzt hat.

Ob es da nen Logischen Grund gibt?
 

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
36.212
Ort
SN
Ob es da nen Logischen Grund gibt?
Der gleiche wie bei NV - Stromverbrauch, Platzbedarf, Komplexität des PCBs, Geld
Die Lösung mit dem Cache ist ziemlich smart - und wenn das ohne Zutun und Handoptimierung funktioniert, dann um so besser... Es braucht nicht unmengen an Speicher in rasend schnell fürs Gaming. Im Computebereich sieht das im Zweifel anders aus... Aber im Gaming ist das nicht notwendig. Im Gaming brauchts idR ein paar hundert MB in schnell und viel viel Platz in ausreichend angebunden (für die Texturen).
 

mr.dude

Urgestein
Mitglied seit
12.04.2006
Beiträge
6.441
Nachfolger der 2080Ti ist die 3080 usw.
Genau. Deshalb vergleicht Nvidia auf der Produktfolie der 3080 mit der 2080. Wir können uns ja noch gut an die leeren Versprechungen erinnern, "twice the performance ...". :rolleyes: Echt lustig was sich Nvidia Schönredner immer wieder für peinliche Ausreden einfallen lassen. Ob man die 2080 Ti mit der 3090 vergleichen kann, sei mal dahingestellt. Fakt ist aber, die 2000er Serie wurde mit 2070, 2080 und 2080 Ti vorgestellt. So wie die 3000er Serie mit 3070, 3080 und 3090 vorgestellt wurde. Daher kann man die auch direkt vergleichen. Und da wurden keine Preise gesenkt. Das kannst du noch so oft behaupten. Es ist und bleibt Träumerei.


Noch nie von externer WaKü gehört? Ich kann auch 1000W Abwärme in einem 10L Case haben, ist mir egal.
Klar, wer die Zusatzkosten nicht scheut. Dürfte daher wohl nur für die wenigsten eine Option sein. Alles über 200W sehe ich für SFF kritisch. Und selbst 200W wäre für meinen Geschmack zu viel. Aber mal abgesehen davon, ich frag mich immer noch wie du darauf kommst, die 3070 hätte ein 10cm kürzeres PCB als die 6800. Laut dem Test auf CB misst die 3070 knapp 25cm. Ich hab zwar noch keine Angaben zur 6800 gesehen, aber 6900 XT und 6800 XT sind laut dieser Grafik nur etwa 27cm lang. Die 6800 wird wohl kaum länger sein. Also eher etwa nur 2cm Unterschied.
 
Zuletzt bearbeitet:

Twist75

Profi
Mitglied seit
13.03.2019
Beiträge
13
Warum hast du zwei von den Monitoren? Die wirst du auch mit einer 6900 XT niemals befeuern können.
ich will nicht auf beiden zusammen "Spielen" das mache ich nur auf einem, der 2. ist fürs arbeiten gedacht. Hauptsächtlich im Enterprise Content Management.
Aber wenn ich mal spiele, dann will ich das mehr oder ohne Kompromisse in 4K tun können. Der 2. Monitor kann dann auch per HDMI angeschlossen sein (beim Predator leider nur 1.4 mit 30Hz bei 4k) was zum arbeiten aber auch ausreichend ist. Daher ja auch die Überlegung neue Monitore zu kaufen.
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.037
Es wirkte nur seltsam, weil diese Monitore ja ziemlich teuer sind und Gsync haben. Da wäre ein einfacher 32" IPS 4K als Zweitmonitor sicher kosteneffektiver. Das Geld hätte man dann in die GPU gesteckt.
 

mr.dude

Urgestein
Mitglied seit
12.04.2006
Beiträge
6.441
Finde ich nicht, da die Hardware ja trotzdem plattformübergreifend nutzbar ist. AMD GPUs werden weiterhin auf Intel laufen, und NVidia GPUs werden weiterhin auf AMD Plattformen laufen. Wo ist also das Problem?
Guter und wichtiger Punkt. Trotzdem hoffe ich, dass Reviewer in ihrem Standardparcours auf SAM und Rage Mode verzichten, um eine direkte Vergleichbarkeit zu haben. Sondertests für diese Features wären aber natürlich trotzdem interessant.
 

Twist75

Profi
Mitglied seit
13.03.2019
Beiträge
13
Es wirkte nur seltsam, weil diese Monitore ja ziemlich teuer sind und Gsync haben. Da wäre ein einfacher 32" IPS 4K als Zweitmonitor sicher kosteneffektiver. Das Geld hätte man dann in die GPU gesteckt.
Um das Geld geht es mir weniger.. ich bin mitte 40, verdiene gut, PC + Sport sind meine Hobbys, die Kinder sind so gut wie aus dem Haus und da "gönnt" man sich auch schon mal was.. andere stecken tausende in Ihren Wagen, ich in meinen PC. ich habe mir auch schon überlegt, die Monitore an meine Kinder weiter zu geben und mir den ROG Strix XG438Q zu holen und nur noch einen Monitor zu betreiben, da ich gern eine RX6900 kaufen würde.
Die 3090 von nVidia ist a) nicht verfügbar und b) mir zu properitär. Ich denke gerade weil Sony und MS in den Konsolen AMD Hardware verbaut haben, wird sich das positiv auf die Radeons auswirken.

Edit: anbei gibt es die Monitore, weil ja auch schon etwas älter für ~600€ bei Amazon, ich hab damals über Tausend bezahlt ;)
 
Zuletzt bearbeitet:

hadhod

Experte
Mitglied seit
10.01.2015
Beiträge
1.488
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.037
Für das was die 3090 kostet kann man sicher fast eine XT und einen solchen Monitor kaufen. 4K120+ ist auch mein Ziel, aber sinnlos sowas zu kaufen ohne die passende GPU. Und nicht jeder hat endlos Budget, bei mir heißt es das eine oder das andere.

4K mit 120 Hz gibt es schon unter 1000 €, leider nur in 27". Freesync ist aber hier schon ein gutes Argument.
 

mr.dude

Urgestein
Mitglied seit
12.04.2006
Beiträge
6.441
Fuer eine 6900 XT, die ~ 10% schneller ist als eine 6800 XT, will AMD 50% mehr Geld haben. Nochmal: wo bleibt der Aufschrei?
Der Aufschrei bleibt deshalb aus, weil man von Nvidia wesentlich schlimmeres gewohnt ist. 100% höherer Preis für 10% mehr Performance. Dagegen sehen "nur" 50% schon wieder positiv aus. Letztendlich hat Nvidias Preistreiberei den Preis der 6900 XT erst möglich gemacht. Daher gibt es keinen Grund hier AMD irgendwas vorzuwerfen. Sie haben sich lediglich der Marktsituation angepasst. Rechnet man den zusätzlichen VRAM und die wahrscheinlich höhere Computing Performance der 3090 weg, hätte AMD für die 3900 XT trotzdem noch locker $1199-1299 verlangen können. Also AMD hat's nicht mal wirklich ausgereizt.
 

max2k

Experte
Mitglied seit
15.02.2012
Beiträge
315
Für das was die 3090 kostet kann man sicher fast eine XT und einen solchen Monitor kaufen. 4K120+ ist auch mein Ziel, aber sinnlos sowas zu kaufen ohne die passende GPU. Und nicht jeder hat endlos Budget, bei mir heißt es das eine oder das andere.

4K mit 120 Hz gibt es schon unter 1000 €, leider nur in 27". Freesync ist aber hier schon ein gutes Argument.
Bin grade auch am Überlegen meinen WQHD G-Synch Monitor zu vekraufen und den in den Saurenapfel zu beisen und in die vollen zu gehen, wen die 6800XT wirklich gute Werte in 4k liefern kann und auch etwas Raytracing. Der ASUS ROG Strix XG27UQ 27 liefert alles was mein jetziger kann aber in 4k und zusätlich zu G-Synch noch Freesynch. Somit keine Hersteller Bindung Aufgrund des Monitors mehr. Gibt es überhaupt ähnlich Monitore sonst unter 1k€?

 
Zuletzt bearbeitet:

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.037
Der Aufschrei bleibt deshalb aus, weil man von Nvidia wesentlich schlimmeres gewohnt ist. 100% höherer Preis für 10% mehr Performance. Dagegen sehen "nur" 50% schon wieder positiv aus. Letztendlich hat Nvidias Preistreiberei den Preis der 6900 XT erst möglich gemacht. Daher gibt es keinen Grund hier AMD irgendwas vorzuwerfen. Sie haben sich lediglich der Marktsituation angepasst. Rechnet man den zusätzlichen VRAM und die wahrscheinlich höhere Computing Performance der 3090 weg, hätte AMD für die 3900 XT trotzdem noch locker $1199-1299 verlangen können. Also AMD hat's nicht mal wirklich ausgereizt.
Dieses. Der Chip ist natürlich auch teurer zu fertigen und in dem Fall wirkt es fast fair, weil ja das Konkurrenzmodell einfach mal doppelt so viel kostet. Reale Preise, kein Wunschdenken oder "UVP". AMD hat insgesamt immer noch das schlechtere Produkt, da sie in Sachen Interface und Speicherausbau nicht mithalten können - Dazu noch das RT, wobei das nicht so wichtig ist.

Die Werte sollten selbst bei der 6800 stimmen, die 2080 Ti reicht aktuell wohl so ziemlich genau für um die 60 FPS. Aber dann kommen wieder neue Spiele und man hat keine "Luft". Die 1080 Ti hat damals auch recht gut gereicht, bis wieder neue Spiele kamen die mehr Leistung benötigten.
 

Bunghole Beavis

Urgestein
Mitglied seit
08.02.2009
Beiträge
5.535
Ort
Wittelsbacher Land
Für mich wird es die RX6800 im Frühjahr, wenn das ganze Lineup verfügbar ist, Corona abnimmt und die Preise sacken. Ich glaube in der RX6800 steckt noch das meiste Potenzial. Sie ist human getaktet und die 60 CU scheinen irgendwo im Sweetspot zu liegen, nach oben bauen die Karten wieder ab. Ich denke das 256Bit SI könnte bei der RX6800XT und der RX6900XT doch limitieren oder der Cache zu klein sein.
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.037
Vermutlich wird die 6800 XT besser sein, da nur 8 CU weniger aber ansonsten ähnlich ausgebaut die die 6900. Bei der 6800 (ohne XT) fehlt doch schon einiges mehr.
 

DTX xxx

Enthusiast
Mitglied seit
03.05.2013
Beiträge
2.181
...die 2000er Serie wurde mit 2070, 2080 und 2080 Ti vorgestellt. So wie die 3000er Serie mit 3070, 3080 und 3090 vorgestellt wurde. Daher kann man die auch direkt vergleichen.
Genau so ist es. Es ist doch eh von Nvidia gewollt. Dieses kleine Durcheinander.
Heute hat Nvidia eben gleich eine 3070 auf die Leistung der 2080Ti gehieft und letztes Jahr hat man das erst mit der 2070 Super zur 1080Ti gemacht.
Man hat mit Namen, Speicherausbau, Erweiterungen und den Grafikchips jongliert, bis man den höchstmöglichen Gewinn herausgefunden hat. AMD war doch keine Konkurrenz. Praktisch seit der GTX 700 Serie, kann nicht nur Nvidia, sondern sie schalten und walten wie sie wollen. Alles war wohl überlegt und strategisch fast schon perfekt, selbst die Peinlichkeit der 970 konnte Nvidia Null kratzen.
Während hier im Forum der Untergang von AMD im Kampf gegen Nvidia eingestimmt wurde, alle an 7nm TSMC und von Takthöhen und Leistungsaufnahmen im absolut wahnsinnigen niedrigen Bereich geträumt haben, Übertakterfreuden, war anscheinend die Stimmung bei Nvidia getrübt.

Die Freude einiger, dass Nvidia mit einer 500€ Karte und einer 2080Ti Leistung einmarschieren wird, war wirklich schon bahnbrechend. Nvidia räumt den Markt ab und AMD wird wohl wieder viel Leistungsaufnahme brauchen, um mit einem großen Chip gerade mal 3070 Leistung zu schaffen.
Ja, das war der einhellige Gesang.
So eine Fertigung in Auftrag zu geben, ist ja keine Sache die man so nebenbei macht. Sicherlich viele Monate vorher, wenn nicht sogar ein Jahr vor Produktionsbeginn. Insofern wusste man bei Nvidia, da kommt was krasses.
Man geht auf eine billige Fertigung, die erträumten Takthöhen und Spitzenwerte bei der Leistungsaufnahme, übertakten :ROFLMAO:, haben sich in Luft aufgelöst. Die Leistung der Architektur ist unbestritten klasse.
Natürlich hatte Nvidia Panik. Die wussten nur, da kommt was krasses. Anstatt man selbstbewusst eine erstklassige 3070 entwickelt, mit 12GB VRAM, 2080Ti Leistung, mit einer 7nm Fertigung, die die gewohnte Nvidia Qualität widerspiegeln würde, kommt das was wir heute sehen.
Die erwartete Effizienz ist nicht eingetroffen. Im Gegenteil sogar. Die Chips laufen an der Grenze für bedeutungslose Leistungseinbußen. Dazu die Dreistigkeit, zudem auch noch schäbig, für noch mehr Gewinnmaximierung, eine 3070 mit 8GB auf den Markt zu werfen. Da stimmt einfach schon rein logisch nicht mehr das Verhältnis zwischen Chip-Leistung und VRAM Ausbau.
Eine 3070 mit 12Gb 7nm für 600€ und möglicherweise besseres RT und möglicherweise aktuell alleine DLSS, wäre für AMD eine viel härtere Nuß.
So bietet AMD das bessere Produkt aus Chip-Leistung und VRAM Ausbau, RT zumindest etwas, hat zudem mit Zen 3 und in der Kombination mit einer 6000 Grafikkarten, andere Spielereien, die sicherlich Kunden auch gerne wollen.
Auch eine 3080 mit 10GB ist einfach nur schäbig
Bei der 3090 wirken die 24GB maßlos übertrieben, wie es eben auch der Preis ist.
Doch, den panischen Launch muss man einfach hervorheben. AMD ist der Grund, dass man lieber eine schlechte Verfügbarkeit, billigste VRAM Ausstattung und keine gewohnte Verbesserung bei der Leistungsaufnahme in Kauf nimmt.
 
Zuletzt bearbeitet:

ilovebytes

Urgestein
Mitglied seit
26.09.2007
Beiträge
5.135
Ort
Kärnten/Österreich
Was hab ich verpasst und woran macht man sowas fest? 😳
naja noch ist es in erster Linie nur mein Bauchgefühl, den wir haben ja noch keine wirklich belastbaren Tests, aber wenn ich rein nun die Amd Markting Folien nehme dann gewinnen die 6000er in FHD und 1440p bis zu 8 von10 Games und in 4K sind es dann "nur" noch 5. Und da ich davon ausgehe das Amd nun nicht die schlechtesten Games für die eigenen Benches ausgewählt hat, glaube ich nicht das dieses Verhältnis dann im Schnitt bei den unabhängigen Tests besser wird.

Das heisst für mich in 4K ist irgendwas, dass die Leistung ein klein wenig schmälert (wir reden hier ja zumindest bis jetzt nur von einigen wenigen % auf Basis der Amd Folien) und da könnte eben das sehr kleine SI und der Cache der das dann in 4K eben nicht mehr komplett kompensieren kann, eine der möglichen Ursachen sein.

Ist natürlich nur eine Vermutung bis wir eben die richtigen Tests bekommen, aber da werde ich sicher mein Augenmerk darauf richten und ich hoffe die Tester natürlich dementsprechend auch.
 

4medic

Experte
Mitglied seit
10.12.2013
Beiträge
399
Ort
NRW
AMD hat insgesamt immer noch das schlechtere Produkt, da sie in Sachen Interface und Speicherausbau nicht mithalten können - Dazu noch das RT, wobei das nicht so wichtig ist.

Guten Morgen,

entscheident wird wohl sein was an Leistung am Ende herauskommt und wie, abgesehen davon, jeder Einzelne die einen oder anderen Zusatzfeatures, und dazu zähle ich aktuell auch noch RT, oder das P/L, bewertet.

Das Urteil erscheint mir, faktisch, ohne unabhängige Tests, etwas verfrüht!

Gruß
 

Prof_TylerD

Semiprofi
Mitglied seit
25.09.2020
Beiträge
157
Nachdem ich einen Test von Watch Dog Legions gelesen habe wundert mich warum Nvidia das Spiel zum Start als Bundle mitgab. Mit Raytracing in 4k nur ca 45 FPS mit einer 3090 (!) und auch das nur MIT DLSS? Ist jetzt keine wirkliche Werbung für Raytracing. Ganz im Gegenteil.
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
11.041
Für mich wird Raytracing noch einige Jahre Spielerei bleiben ohne viel nutzen von zu haben.
Beitrag automatisch zusammengeführt:

aber da werde ich sicher mein Augenmerk darauf richten
Ich ebenso. Stellt sich raus, das die bei 4K keine gute Figur abliefern, muss ich bei dieser Gen passen.
 
Oben Unten