AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Ja. Ähnlich wie bei NVIDIA: Ein Big Chip, einen für die obere Mittelklasse und einen als Einsteiger- / Mittelklasselösung.

GA102 - 80 CU Navi
GA104 - 64 CU Navi
GA106 - 40 CU Navi

Optional dann noch einen 20 CU als Bottom End. Wobei es da nicht zwangsweise RDNA2 sein muss. AMD hat auch oft ältere Generationen für die Billigstkarten weiterlaufen lassen, so wie NVIDIA. Kepler war dort noch lange in der Mode, da gab es glaube ich sogar den GK208. Aber bei sowas reichen ältere Lösungen, einen Billigchip schiebt man notfalls später nach. War bei NVIDIA glaube ich auch so, zB die 1030 kam auch erst später, von Turing gibt es bislang wohl noch gar keine Low-End-Ableger.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie wäre sowas denn eigentlich realisierbar?
Je nach Architektur. Wenn die Speichercontroller an die CUs gekoppelt sind gehts nicht. Sind sie aber quasi ein separater Block ist das kein Problem.
 
Das mit den " ... Chip beschneidet muss man zwangsläufig auch die Speicheranbindung beschneiden und an die widerum ist gekoppelt wieviele vRam Chips man anbinden kann" ist schon richtig.
Zwangsläufig heißt hier im Voraus die gpu so auslegen.
Der Speichercontroller hängt an dem L2-cache, welcher wiederum an dem vram hängt.
Die Hardwareeinheitengruppe (CU/SM + L0/L1-cache + raster/texture/primitive/raytracing/Tensor + ALUs + was-auch-immer) hängt dann wiederum an dem L2-cache (oder bei rdna2 vllt. noch an dem Infinity Cache?).
Bei amd nennt man es LDS (local data share), wo der L0-cache steckt. Jede CU hat darauf Zugriff (bei rdna2 dual-CU).

Wie viel L2 so eine CU/SM innerhalb der Einheitengruppe bekommt, wurde zuvor festgelegt.
Die Busbreite wird vorweg auch auf den ganzen Speicherkrempel ausgelegt.
index.jpg

Bei amd nennt man es compute engine array
blub.jpg


Wenn man möchte kann man wie bei der berüchtigten gtx 970 auch ganz krumme Dinger machen.
Hat man zuvor festgelegt das z.B. eine 2 CUs ganze 2 Speichercontroller mit zweimal L2-cache bekommen, schummelt man einfach und gibt den zwei CUs dann nur noch einmal L2-cache.
Der Speicher der da dranhängt kann dann nicht voll ausfahren, somit fällt die Speicherdatenrate geringer aus als die reine CU/SM Anzahl eig. vermuten lässt. :fresse:
Aus einer 5700xt mit 256-Bit Speicherdatenrate, macht man so z.B. nur 224-Bit Datenrate, obwohl da 8 Speicherchips dranhängen.
 
Neuer Spekulatius......





EDIT:

 
Zuletzt bearbeitet:
Mir würde schon reichen eine Karte zu haben die 4K schafft und dabei Kompakt UND Leise ist... :unsure:
So ein 3 Slot Monster mit 350 Watt kommt mir nicht mehr ins Gehäuse... :stupid:

Wenn man alt wird ändern sich die Prioritäten... 🤷‍♂️
Wäre mir mit wasserkühlung ganz ehrlich egal, könnte von mir aus auch 400W verballern, wenn die Leistung stimmt. Unter Lukü ist das natürlich ein Argument.
 
Wäre mir mit wasserkühlung ganz ehrlich egal, könnte von mir aus auch 400W verballern, wenn die Leistung stimmt. Unter Lukü ist das natürlich ein Argument.
So ist es wen am Ende die Leistung auch da ist dann passt das!
 
Wäre mir mit wasserkühlung ganz ehrlich egal, könnte von mir aus auch 400W verballern, wenn die Leistung stimmt. Unter Lukü ist das natürlich ein Argument.
Ich will keine Wasserkühlung mehr, habe mich viel zu lange (seit 2001 oder so) damit herum geschlagen... 🙈
Wenn man mal merkt wie nervig selbst eine gut gedämmte Pumpe im Vergleich zu einem rein Luft gekühlten System mit vernünftigen Komponenten sein kann hat das schon was.
Ich glaube auf dem Ohr war ich Taub oder so... aber selbst das leise Brummen einer gedrosselten Aquastream Ultra (Von den Laings fange ich gar nicht erst an!) auf Shoggy finde ich einfach nur noch nervig im Vergleich zu einem praktisch Semi Passiv gekühlten Lukü System!
 
So ist es wen am Ende die Leistung auch da ist dann passt das!
Nur aus selbstsüchtiger Sicht "passt das".
Haushaltsgeräte, Häuserdämmung, Autos usw. Alle Welt arbeitet darauf hin weniger Verbrauch zu haben.
Nur Gamer nicht weil Games immer die Karte vollständig auslasten werden oder einfach unnötig mehr FPS darstellen :/
Irgendwo muss schluss sein. Strom ist wohl noch immer viel zu billig.
 
Schau dir mal an was für Autos die Leute kaufen/fahren, wie sie ihren Urlaub gestalten und Co., niemand interessiert sich für Umweltschutz 🤷‍♂️

Also es sind nicht (nur) die Gamer, es sind eher >85% der Bevölkerung.

Nur Gamer nicht weil Games immer die Karte vollständig auslasten werden oder einfach unnötig mehr FPS darstellen :/
Das sind aber auch nur die wenigsten. Da ich mit V-Sync/60FPS spiele, darf meine Karte (möglichst) nie auf 100% Last kommen ;)
Und so zockt vermutlich die überwiegende Teil, schade dass Steam keine Übersicht hat wie viele Leute einen >= 120 Hz Bildschirm haben.
 
Strom ist wohl noch immer viel zu billig.
Finde Strom nicht zu billig. Wir haben in Deutschland recht hohe Kosten, anscheinend interessiert es manche nicht. Man kann auch Spaß am Spiel haben ohne Grafikkarten die 350 Watt verbrauchen. Die Entwicklung mehr Leistung durch mehr Verbrauch geht in die falsche Richtung. Die Umstellung von Glühbirnen auf Energiesparlapen und jetzt LEDs war ein großer Schritt.
 
vor allem AMDler nicht.

Das würde ich so nicht sagen wollen, gerade die Vega User damals haben dem Thema GPU UV eine neue Bedeutung verliehen, das ging sogar soweit, dass im Treiber automatische UV-Funktionen eingezogen sind. Sprich der AMD User ist sehr wohl sensibilisiert für das Thema Effizienz. :coffee:
 
Sprich der AMD User ist sehr wohl sensibilisiert für das Thema Effizienz. :coffee:

Sehe ich auch so. Ich denke viele hätten sich keine Vega gekauft, wenn es die Möglichkeit gegeben hätte erfolgreich gleichzeitig zu Overclocken und Undervolten. Für Zen2 gibt's Ryzen-Tuner um Effizienz und Leistung zu erhohen. Es kommen viele guten Dinge durch die Community. Ich denke AMD hat es auch begriffen, dass Effizienz und Leistung eine gewisse Symbiose miteinander haben sollten. AMD hat sich anscheind dagegen entschieden eine Navi1 Heizplatte zu bringen, um gegen Turing zu konkurrieren.
 
Sprich der AMD User ist sehr wohl sensibilisiert für das Thema Effizienz. :coffee:
Mit dem Kauf von R9 390, Polaris, Vega 56/64 und Co. bestätigt man eigentlich meine These. Noch dazu sollte es ein Leichte sein nun etliche Zitate von AMDlern zu finden, die das noch mal unterstreichen. Ein glorreicher Spruch war mal (2016!):
"Polaris Effizienz auf Maxwell Niveau reicht, denn Maxwell wurde ja auch gekauft".
 
Auf lange Sicht werde ich 20Watt bestimmt mal sehen irgendwann^^
Spaß bei Seite, ob man mit 200/238W laut Gerücht überhaupt an eine 320W Ampere ran kommen kann?
 
Spaß bei Seite, ob man mit 200/238W laut Gerücht überhaupt an eine 320W Ampere ran kommen kann?
Hmm ich glaube nicht das Big Navi sooo Effizient ist, andererseits wollte AMD ja 50% gegenüber RDNA 1 einsparen :unsure:
Und die RX 5700 (Non XT!) liegt in manchen Szenarios zwischen 8% vor (FHD) und 18 % hinter (4K) hinter Ampere was die Peformance Pro Watt angeht...
Zumindest laut Techpowerup !
Okay Fairerweise muss man schreiben das die XT da schon schlechter abschneidet...
Wird man wohl abwarten müssen :hmm:
 
Zuletzt bearbeitet:
Wann fällt den das NDA, weiß das jmd.?
 
Wann das NDA fällt werden wir vermutlich am 28.10. erfahren. :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh