AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Auch bei AMD, könnte es in Zukunft sein, dass der user Wahlmöglichkeiten bei der V-Ram Größe bekommt:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Ding ist halt wirklich das bei NV diese 8nm Samsung Fertigung die ja ehr 10nm entsprechen sollen im Raum stehen.
Ob die Samsung Fertigung genauso hohe Taktraten zu lässt wie die 7nm Fertigung von TSMC ?
Wobei die leaks sogar von 7nm + sprechen bei BN.
Der Vorteil bei der Transistordichte wäre nicht gerade klein und könnte sm Ende das Zünglein an der Waage sein!

Unter den oben genannten Punkten sollte es auf jeden Fall spannend bleiben wenn die lesks stimmen sollte bei den Fertigungsunterschieden ein gleichziehen nicht unmöglich sein.
 
Zuletzt bearbeitet:
AMD sagte ja das RDNA 2 taktraten liefern wird die es so noch nicht bei Grafikkarten gab und wenn eine Konsole schon bis zu 2230mhz machen kann und die 2200Mhz laut sony nahezu durchgehend gehalten werden könnten sollte sowas dann auch am PC Möglich sein wenn die Kühlung passt.

Sollte kein Hexenwerk sein den Takt von 2.2 Ghz zu ermöglichen. Selbst die Vega-Kerne der Renoir APU schaffen bis zu 2.4 Ghz.
 
Wäre geil wenn BN 2,4Ghz @ wakü schaffen würde :love:
 
AMD soll einfach das liefern was die meisten wollen = Leistung ohne Kompromisse.

Dann hätten sie nen weiteren Fanboy :banana:
 
Was bei Takt und OC geht, wissen wir ja eigentlich noch überhaupt nicht.

Vor wenigen Stunden hörte jmd. einen aus dem Driver Development sagen, dass OC nur wenig Mehrleistung bei deutlich höherem Verbrauch bringt.
So wird wakü eher zu Pflicht werden, wenn mehr gewünscht ist.
 
Hab bei GPU noch nie verstanden wieso man wegen lächerliche 5 und im selten Fälle 10 FPS die GPU gequellt hat.
 
Naja bei mir läuft die GPU ja mit Wakü.
Ich habe nun mehr Mhz + Undervolting + RAM OC und da hat die RTX2080Ti schon ordentlich power bekommen
 
Möglich das es beim High End Chip mehr ausmacht aber bei den 70er Karten hab ich nie nen großen Sprung erlebt.
 
Bei der RTX ist da auch nicht viel zu holen.
Da macht man ne wakü drauf und ist schon bald am max dran. Meine karte macht mit wakü einfach so gleich 1995mhz
Navi 10 ging mit wakü aber ordentlich ab.
 
Im übrigen, wir haben das gesehen fällt selbst bei einer 5700xt unter gen4 der Speichertransfer signifikant höher aus, was bei gaming noch nicht so zum tragen kommt aber bei compute bereits sichtbar wird.

Kann ich nicht bestätigen, dass PCIe in Games noch nicht zum tragen kommt. Wenn ich meine 5700XT @stock auf PCIe 4 und 3 hin und her schalte, hab ich quasi kein Performanceunterschied.
ABER: Wenn ich auf PCIe3 RAM OC auf der Karte betreibe, habe ich 0% mehr FPS. Wenn ich das auf PCIe4 mache, hab ich deutlich mehr Performance.


Schau dir einfach in der Gaming Tabelle weiter unten die Werte von 1.006v Setting mit und ohne RAM OC an (sind jeweils PCIe3) und dann 1.2v Settings mit und ohne RAM OC (PCIe4)
 
Auch bei AMD, könnte es in Zukunft sein, dass der user Wahlmöglichkeiten bei der V-Ram Größe bekommt:

Ziemlich chaotisch das Ganze. Irgendwie scheint alles möglich.

Am ehesten würden da 2 verschiedene Chips machen.

1. N21 = 80 CU + 16 GB HBM2 oder GDDR6 und 512-Bit SI.

2. N22 = 64 CU + 12 GB GDDR6 und 384-bit SI.

:unsure:
 
Mal sehen, im Grunde beurteile ich die allgemeine Situation wie folgt,

AMD hat bis vor dem zen Erfolg in der der CPU Sparte relativ wenig Gelder für die Entwicklungs und Treiberabteilung bekommen.

Dank des Zen Erfolges sind diese Bereiche inzwischen deutlich besser ausgestattet.

Aber es ist am Ende bestimmt nicht der Hauptgedanke die schnellste consumer GPU auf dem Markt zu haben, sondern in diesem Bereich das Bestmögliche in Richtung Shareholder Value zu erzielen.
Polaris hat z.b auch schon Geld in die Kassen gespült, Vega erst ziemlich spät und Vega II gar nicht.
Vega II war bestimmt auch nur als Testballon für das wieder Einkehren in das Highendsegment gedacht.

Am Ende wird die Brot Butter GPU navi 22. werden, alle Daten deuten bei Navi 22 auf ein ziemlich gutes Preis Leistungsverhältnis hin.
Persönlich hoffe bei Navi 22 auf einen preisbereich von 500-max 600 euro.

Navi 21 vermute ich zwischen 700 und 900 euro, wobei der Preis davon abhängig sein wird, wie sich die 3080 aufstellen wird.
Wird die 3080 ein Hit, sowohl bei Preis als auch Leistung, sehe ich Navi 21 eher bei 699 euro.
 
Ziemlich chaotisch das Ganze. Irgendwie scheint alles möglich.

Am ehesten würden da 2 verschiedene Chips machen.

1. N21 = 80 CU + 16 GB HBM2 oder GDDR6 und 512-Bit SI.

2. N22 = 64 CU + 12 GB GDDR6 und 384-bit SI.

:unsure:


Da würde ich Nummer 1 nehmen, für 999,00 EUR und max. nur 10% hinter der 3090, die dann aber 1499,00 EUR kostet.

Die letzten 10% sind es mir nicht wert. Hab jetzt auch den 3900X genommen und nicht auf den 10900K gewartet. (bin zu 95% Gamer).
 
Zuletzt bearbeitet:
Ja sehe ich auch so
 
Am ehesten würden da 2 verschiedene Chips machen.

1. N21 = 80 CU + 16 GB HBM2 oder GDDR6 und 512-Bit SI.

2. N22 = 64 CU + 12 GB GDDR6 und 384-bit SI.

Ich erwarte nach wie vor kein 512Bit SI - mal gucken ob es doch kommt ;)
Aktuell scheint sich zu bewahrheiten, dass die GPU ein GDDR6 und ein HBM Interface hat. Aber man munkelt, dass HBM nicht kommt. Vllt weil Profimarkt only oder für später oder whatever. Profimarkt only, quasi als Quadro Gegenspieler ergibt für mich durchaus Sinn in Szenarien, wo man entsprechend Szenarien hat, die nicht zwingend FP64 brauchen und mit niedrigerer Genauigkeit klar kommen, häufig skaliert der Spaß sehr gut auch über Bandbreite. Dann HBM drauf und ab dafür... Da spielt dann auch Geld eine eher untergeordnete Rolle bei den großen Modellen. Siehe auch NV mit 48GB und 24GB bei der Quadro Turing...
Das Ding ist, 512Bit SI, vllt niedriger getaktete Speicherchips hin oder her, säuft einfach Strom. Daran wird auch AMD nix ändern können. Und damit wäre Navi im Nachteil ggü. Turing, was irgendwie Aussage mit der Effizienz zumindest Steine in den Weg legt. Wahrscheinlicher wäre, das SI nicht unnötig aufzublähen. Die Speichermenge spielt dabei auch nicht sooo wirklich die entschiedende Rolle. Aber die Interfacebreite schon.

Ich denk allerdings, dass nach wie vor bei 12GB mit dem GDDR6 Interface Schluss ist. Oder halt 24GB.
Der Chip wird ziemlich sicher als N21 80 CUs haben. Zumindest deuten das die Leaks ganz klar an. Ob sie voll beschalten werden, abwarten... Denkbar wäre, 76 oder 72 CUs mit 384Bit SI für den Gamerbereich. Und 80 CU als FE mit HBM im Profibereich. Dann würde man sozusagen der Vega 20 folgen, die 60 anstatt 64 CUs aktiv hat. Die ist "nur" 330mm² groß ca. - N21 soll ja die 500 leicht knacken. Ob es stimmt, werden wir sehen, aber es wäre ein weiterer Indikator, dass nciht voll beschalten wird. Die Spekulationen zu 16GB schreibe ich aktuell eher dem HBM Unterbau zu. Denn das ergibt Sinn für mein Befürworten.

Meine Frage bleibt trotzdem, ob er das als hypothetisches Rechenbeispiel gemeint hat oder ob er tatsächlich davon ausgeht, dass BN die 2080 TI derart deutlich schlägt.
Das war im Bezug auf die Navi10 x2 Performance. Nach dem Computerbase UHD Perf. Index erreicht eine 5700XT mit doppelter Performance grob 30% mehr Leistung als eine 2080TI.
Rein rechnerisch passt das sehr gut zu den angekündigten +50% Effizienzsteigerung. Denn nimm die Leistungsaufnahme der Navi10 aus der 5700XT, rechne die Effizienz von 50% drauf und verdoppel die Leistung - und du landest bei ~280W. Über den Takt, Kühlung, Binning usw. lässt sich das dann noch bisschen hoch oder runter platzieren, wie die OEMs halt wollen bzw. wie es AMD zulässt. An deutlich über 300W glaube ich aktuell nicht. Weil das würde eben bedeuten, dass sie auch entsprechend mehr wie 50% Effizienz liefern müssten -> was sie nicht angekündigt haben. Vllt kommt es dennoch, weil man was gefunden hat - oder das wird so ein 300-350W Trümmer. Allerdings belegen sowohl Vega64 als auch die Radeon VII dass 300W und mehr bei AMD nicht in Leise gehen. Ich bin also der Meinung, wenn AMD dieses mal in einer derart komfortablen Position ist, dass sie den Takt nicht unbedingt auf Biegen und Brechen hoch rammeln müssen, weil ihnen gut 30% Performance fehlen zu Konkurrenz, wird man das auch nicht tun. Die negative Presse wäre unvermeidbar.

Auf der anderen Seite, Mr. Lederjacke lässt sich sicher nicht lumpen ;) Ich bin davon überzeugt, dass NV ihre Spitzenposition auf Biegen und Brechen wird versuchen einzuholen. Das macht es für AMD dann aber auch ein bisschen einfacher, vor allem, wenn NV obenraus auf die Effizienz pfeift.

Btw. ist das alles Spekulation, das möchte ich nochmal in aller Deutlichkeit anmerken ;)

@fdsonne wenn Big N 30% schneller ist als die 2080ti und Ampere bis zu 40% schneller sein soll im angeblichen vollausbau bedeutet das für mich das BN entweder deutlich mehr IPC bekommen hat oder aber das BN ne schippe mehr takt hat als NV . weil AMD halt mit weniger shader nahezu mithält
Bei Taktgleichheit und annähernd 100% Skalierung bekommst du die ~30% über der 2080TI ja allein schon, wenn du Navi10 doppelst. Da sind wir noch bei unter 2GHz... Real wird das wahrscheinlich nicht 1:1 skalieren, allein, weil oben auch in UHD langsam aber sicher die CPU anfängt, ein Wörtchen mitzureden -> was blöderweise aber auch die Ergebnisse bisschen verfälscht. Aber gilt für beide Parteien. Also sei es drum.

Die Frage ist halt, was macht NV? Ich bin nach wie vor unschlüssig, warum und wieso NV, die jetzt 2 Jahre Turing haben verwurstet ohne neuen Prozess, für so ne läppische Steigerung von 30% einen neuen Chip auflegen sollten!? Die 84 SMs, die man aktuell spekuliert, lieferten sie schon mit GV100. Da muss mMn mehr kommen und ich denke, irgend einen Haken gibt es da noch in der Spekulation. Rein rechnerisch kommt AMD auf die ~30% über der 2080TI, paar Prozent hoch, paar Prozent runter, eigentlich ohne Probleme, wenn man die 50%+ an Effizienz als Basis auf Navi10 drauf legt. Aber NV soll dann nur nen winzigen Sprung machen? Wohlwissentlich, dass sie seit effektiv 4 Jahren keinen Fortschritt mehr hatten in der Packdichte und mit Turing ein neues Maß an Die Size etabliert haben als TopDog?

Es kann halt sein, dass die Lederjacke Jensen Tantchen Lisa komplett unterschätzt... Aber mal ehrlich, ist das realistisch? Olle Jensen war immer für ne Überraschung gut. Und bis dato hat eigentlich jeder Release der letzten bestimmt 10 Jahre irgendwo überzeugt. Negative Ausnahme war die Holznummer mit Fermi. Von derartigen Problemen wie damals sind wir mMn aber heute weit weit entfernt.
 
Zuletzt bearbeitet:
Seit Listung der 2080TI bei Geizhals.de sind jetzt fast genau zwei Jahre her. Das heißt, dass die Entwicklung wirklich schon länger her ist. Der technische Fortschritt sollte jetzt bei den neuen 3000er Karten von NV deutlich zu sehen sein. Gerade auch was die Videos von Igor zeigen.
Ich finde es dann beachtlich, wenn BN einen großen Sprung macht und alle staunen, aber NV hat bestimmt auch nicht geschlafen (u.a. Signalintegrität usw.). Sonst hätten Sie irgendwas falsch gemacht, wie z.B. Intel. Das will ich nun wirklich nicht glauben.
 
Zuletzt bearbeitet:
@fdsonne
Ja ich denke NV hat den Fokus ganz klar auf RT und wenn sich das bewahrheitet mit den 400% mehr RT Leistung zu Turing wäre das eigentlich schon der hammer. Eine 2080ti rockt in 4k mit etwas oc eigentlich auch alles recht gut und wenn man da 40% drauf legt ist das doch richtig gut.
Da könnte man eigentlich alles mit RT top spielen.
 
Die Frage ist natürlich am Ende noch mit welcher RT Leistung AMD jetzt einsteigt?
 
Das musst du doch wissen, wer ist den hier der Insider? :ROFLMAO:
 
Ja jetzt wo du es sagst, das Thema wurde immer tot geschwiegen :unsure:

Aber im Ernst, es scheint bei allen leaks keine Prognose dazu zu geben ...
 
Da könnte man eigentlich alles mit RT top spielen.
Tja in der Theorie - nur welche Spiele willst du mit RT spielen, wenn es da bis heute gerade mal zwei Hände voll von gibt!? Ich schätze Mr. Lederjacke Jensen da durchaus etwas weitsichtiger ein als dass er wirklich so nen Marketingstunt bringt... Ich denke auch, dass NV ganz genau weiß, was da in Sachen Konsolen kommt, oder sagen wir, sie wissen genug über die Hardware und definitiv auch, wann der Spaß im Regal steht, wussten sie nicht erst vor ein paar Wochen - denn ich denke, auch NV hat sich bemüht, für die PS5/Series X ein Angebot abzugeben. Sprich die Konsolen halte ich an der Stelle auch für wenig Einflussreich am Anfang, was RT-Push angeht. Was bleibt da noch über? NV müsste schon arg naiv sein darauf zu vertrauen, dass ihr 1200€ Produkt dafür sorgt, dass man mit dem Nachfolger so massiv auf RT baut und der Rest dann unwichtig(er) wird? -> was ja nichtmal stimmt, weil RT nur für einen gewissen Teil benutzt wird und der Rest weiter massiv Rasterperformance futtert... Heißt, 400% RT Zuwachs, was ich so nicht annehme, vllt werden es 100% oder sowas mehr, braucht auch deutlich mehr Rasterpower als bis dato... Und das impliziert dann auch, dass der Rest ohne auch mit skalieren müsste... RT geht nicht ohne die alte Rastergeschichte in Games atm, wenn man es vereinfacht ausdrücken möchte - aber es geht ohne RT nach wie vor.
 
Gibts denn mittlerweile eine offizielle Information wann die AMD Karten kommen?
"Vor den Konsolen" hieß es.

Mich kekst das Warten an...
 
@fdsonne
Tja in der Theorie - nur welche Spiele willst du mit RT spielen, wenn es da bis heute gerade mal zwei Hände voll von gibt!?
Schau mal hier das ist das was mich sehr reizt !

Klingt für mich sehr viel versprechend was RT angeht!

Zumindest ist das Spiel für mich ein Grund ne neue Karte zu kaufen.
 
Zuletzt bearbeitet:
Ich erwarte nach wie vor kein 512Bit SI - mal gucken ob es doch kommt ;)
Aktuell scheint sich zu bewahrheiten, dass die GPU ein GDDR6 und ein HBM Interface hat. Aber man munkelt, dass HBM nicht kommt. Vllt weil Profimarkt only oder für später oder whatever. Profimarkt only, quasi als Quadro Gegenspieler ergibt für mich durchaus Sinn in Szenarien, wo man entsprechend Szenarien hat, die nicht zwingend FP64 brauchen und mit niedrigerer Genauigkeit klar kommen, häufig skaliert der Spaß sehr gut auch über Bandbreite. Dann HBM drauf und ab dafür... Da spielt dann auch Geld eine eher untergeordnete Rolle bei den großen Modellen. Siehe auch NV mit 48GB und 24GB bei der Quadro Turing...

Ein 512-bit SI wäre m.M.n. auch eine große Überraschung. Rechne auch mit maximal 384-bit. Wenn nVidia eben jene 384-bit für absolutes High-End ausreicht, warum nicht auch AMD? Es wäre auch ein Fingerzeig auf die überarbeitete Architektur, die dann auch effizient mit der Bandbreite umgehen könnte. In der Vergangenheit musste AMD schließlich immer die Defizite bei der Architektur durch rohe Power kompensieren. Wieder ein 512-bit SI, welches nur knapp an nVidias 384-bit Top-Dog herankommt würde AMDs Architektur nicht wirklich effizient aussehen lassen. Wenn 512-bit SI, dann muss man auch liefern und die Leistungskrone holen.

Das der Chip aber ein HBM und gleichzeitig noch ein GDDR-Interface haben wird, damit rechne ich eigl. noch weniger. Sowas ist jedenfalls nicht üblich, zumindest kann ich mich nicht daran erinnern, das eine Consumer-GPU sowas je anbot. Es hört sich zwar schon irgendwo plausibel an, das man damit auch den Profimarkt bedienen könnte und ausschließen kann man es natürlich auch nicht, aber sehr ungewöhnlich wäre es allemal.
 
Auch interessant. Das Nv zuerst Release macht die Treiber einbremst damit Ampere schwächer wirkt und dann zum Release der Big N ein Treiber raushaut der Ampere voll ausfährt.
 
Solche und ähnliche Behauptungen gab es die letzten 20 Jahre immer wieder. Kann mich nicht erinnern das da je was dran war. Warum sollte man auch einen solchen Kindergarten veranstalten?

In dem Video sind so viele offensichtliche Fehler drin, dass man meinen könnte das es Absicht ist, damit Leute das Video teilen und darüber reden.

Auch das eine 5700 XT 350% schneller sein muss um 50% schneller als eine 2080 Ti zu sein kann offensichtlich nicht stimmen.
 
Da ich eh warten würde bis ein wakü Block draußen ist wäre dann auch sicherlich alles an Treiber draußen und man würde sehen was sache ist
 
Das halte ich für Quatsch mit Soße !
Es gab mal das Gerücht das man die alte Serie bei den Treibern nicht mehr weiter optimieren würde seitens Team Green um die neue Serie schneller dastehen zu lassen .

Gerade wen ein neues Produkt rauskommt soll dieses ja die Kundschaft zum kauf überzeugen und maximale Performance abliefern .
Das mit der Zeit eine neue Gen noch etwas besser über die Treiber ausgereizt wird ist ja gang und gebe .

Das Problem das die Treiber zum Release nicht richtig zünden hatte meist Team Red wo man oft aus der Community gehört hat das Zuwenig Ressourcen zur verfügung stehen.
 
Zuletzt bearbeitet:
RDNA2 und die ehemaligen PS bringen im Bereich RT schon einiges.
Spiele müssen aber auch ziemlich komplex optimiert werden, um eine sehr gute Leistung zu erreichen.
Daher denke ich, dass die Leistung sehr stark vom Treiber abhängig sein wird bei BN, wie die Ausstattung in Hardware genau aussieht bleibt wohl noch eine Überraschung. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh