> > > > AMD Radeon R9 380X wohl doch nur mit 256-Bit-Interface

AMD Radeon R9 380X wohl doch nur mit 256-Bit-Interface

Veröffentlicht am: von

amd radeon 2013Es dürfte inzwischen unstrittig sein, dass eine Radeon R9 380X die recht große Lücke zwischen Radeon R9 390 und R9 380 schließen soll. In der vergangenen Woche tauchten erste Fotos einer Karte von XFX auf. Wahrscheinlich ist auch der Einsatz der Tonga-GPU im Vollausbau, was 2.048 Shadereinheiten bedeuten würde. Unklar war noch, wie breit das Speicherinterface sein würde und welcher Speicherausbau damit möglicht ist. Im iMac mit 5K Retina Display ist eine Radeon R9 M295X verbaut, die eben Tonga im Vollausbau nebst 4 GB Grafikspeicher verwendet. Eine solche Konfiguration für eine dedizierte Desktop-Grafikkarte ist damit mehr als wahrscheinlich.

Bei Fudzilla will man inzwischen besser informiert sein und spricht von einer Radeon R9 380X, die gegen Ende Oktober auf den Markt kommen soll. Ebenfalls die Rede ist von 2.048 Shadereinheiten, 32 ROPs und 128 Textureinheiten. Dies würde alles zum architektonischen Aufbaue der GPU passen. Beim Speicherausbau legt sich Fudzilla auf 4 GB GDDR5 fest, so dass ein 256 Bit breites Speicherinterface verwendet werden wird. Anders als die Radeon R9 370X soll die R9 380X weltweit erscheinen.

Einen genauen Termin oder anvisierten Preis nennt aber auch Fudzilla nicht.

Die Radeon R9 380X im Vergleich
Modell AMD Radeon R9 380X AMD Radeon R9 285 AMD Radeon R9 380
Preis - ab 150 Euro ab 185 Euro
Homepage www.amd.de www.amd.de www.amd.de
Technische Daten
GPU Tonga-XT Tonga-Pro Tonga-Pro
Fertigung 28 nm 28 nm 28 nm
Transistoren 5,0 Milliarden 5,0 Milliarden 5,0 Milliarden
GPU-Takt (Base Clock) - - -
GPU-Takt (Boost Clock) - 918 MHz 970 MHz
Speichertakt - 1.375 MHz 1.375 / 1.425 MHz
Speichertyp GDDR5 GDDR5 GDDR5
Speichergröße 4 GB 2 GB 2 / 4 GB
Speicherinterface 256 Bit 256 Bit 256 Bit
Speicherbandbreite 176,0 GB/s 176,0 GB/s 176 / 182,4 GB/s
DirectX-Version 12 12 12
Shadereinheiten 2.048 1.792 1.792
Textureinheiten 128 112 112
ROPs 32 32 32
Typische Boardpower - 190 W 190 Watt
SLI/CrossFire CrossFire CrossFire CrossFire

Social Links

Kommentare (23)

#14
customavatars/avatar84599_1.gif
Registriert seit: 08.02.2008

Fregattenkapitän
Beiträge: 2877
Zitat
das speicherinterface kann ruhig dünn sein, wenn es zur gpu leistung passt. der 960 sind ihre 128bit kein hindernis.


960 ist gerade wegen ihres Speicherinterfaces kein Überflieger, was ja auch die Absicht von Nvidia ist.
#15
customavatars/avatar20397_1.gif
Registriert seit: 07.03.2005

Admiral
Beiträge: 11189
Zitat Tomy_The_Kid;23896801
960 ist gerade wegen ihres Speicherinterfaces kein Überflieger, was ja auch die Absicht von Nvidia ist.


Das stimmt nicht. Wählt man die 4GB Ram GTX960, und vergleicht default Ram Takt mit Heftigstem Ram OC (Ergo mehr speicherbandbreite), so passiert garnichts.

Folglich ist die Speicherbandbreite bei der 4GB GTX960 nicht der Flaschenhals.
#16
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
Zitat Unrockstar;23876963
@ Tomy:
Das denke ich auch.. 20-30€ Luft sollte die 970 noch haben.. Vllt gibts die dann ja als SE ;) Nvidia wäre es ja zuzutrauen


sie lassen die sowieso unnötigen 512mb marketing vram weg und verkaufen eine gtx970se mit 3,5gb.


Zitat poeci;23879092
für ambitioniertes 1080p gaming kauft sich heute keiner mehr ne 3gb karte. wenn du mehr als 3gb brauchst, helfen dir auch die 384bit nicht weiter.
das speicherinterface kann ruhig dünn sein, wenn es zur gpu leistung passt. der 960 sind ihre 128bit kein hindernis.

ich weiß noch, vor nicht all zu langer zeit, da wurde groß rumgetönt, die 2GB der GTX680 würden für alles bis 1440p locker langen.
und da die 3gb damit also kein grund für die 7970 darstellen und die 680 weniger strom verbraucht muss man unbedingt die 680 kaufen.
mensch, tät ich mir als nvidia geschädigter da heute in den sack beissen.
#17
customavatars/avatar20397_1.gif
Registriert seit: 07.03.2005

Admiral
Beiträge: 11189
Zitat john201050;23897658

ich weiß noch, vor nicht all zu langer zeit, da wurde groß rumgetönt, die 2GB der GTX680 würden für alles bis 1440p locker langen.
und da die 3gb damit also kein grund für die 7970 darstellen und die 680 weniger strom verbraucht muss man unbedingt die 680 kaufen.
mensch, tät ich mir als nvidia geschädigter da heute in den sack beissen.


Das stimmt. Und das beste ist, 2010 gabs schon die HD6870 mit 2GB.
Und die GTX570 welche Später rauskam und schneller war, gabs nur 1280mb Ram.

Heute ist die HD6870 mit 2GB dadurch echt im Vorteil :D
#18
Registriert seit: 05.11.2007
Neckar-Odenwald Kreis
Kapitän zur See
Beiträge: 3289
Zitat Nighteye;23897653
Das stimmt nicht. Wählt man die 4GB Ram GTX960, und vergleicht default Ram Takt mit Heftigstem Ram OC (Ergo mehr speicherbandbreite), so passiert garnichts.

Folglich ist die Speicherbandbreite bei der 4GB GTX960 nicht der Flaschenhals.


Und woher kommt dann der doch gewaltige Unterschied zwischen der 2GB und 4GB Version? An den Spielen sollte es nicht liegen, denn eine 380 2 vs 4GB bricht mit deutlich mehr Bandbreite nicht ein.
#19
customavatars/avatar120848_1.gif
Registriert seit: 04.10.2009
Eisscholle hinten links
Fregattenkapitän
Beiträge: 2804
Zitat Nighteye;23897662
Das stimmt. Und das beste ist, 2010 gabs schon die HD6870 mit 2GB.
Und die GTX570 welche Später rauskam und schneller war, gabs nur 1280mb Ram.


https://geizhals.eu/?fs=GTX+570+2.5GB&in=

Traurig, das du das als Besitzer einer GTX 570 nicht kennst.
#20
customavatars/avatar84599_1.gif
Registriert seit: 08.02.2008

Fregattenkapitän
Beiträge: 2877
Zitat
Das stimmt nicht. Wählt man die 4GB Ram GTX960, und vergleicht default Ram Takt mit Heftigstem Ram OC (Ergo mehr speicherbandbreite), so passiert garnichts.

Folglich ist die Speicherbandbreite bei der 4GB GTX960 nicht der Flaschenhals.


Wenn das nicht der Fall wäre so sollten stark übertaktet 960 ja zur 970 aufschließen können, passiert aber nicht.:d
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33011
Zitat unl34shed;23897949
Und woher kommt dann der doch gewaltige Unterschied zwischen der 2GB und 4GB Version? An den Spielen sollte es nicht liegen, denn eine 380 2 vs 4GB bricht mit deutlich mehr Bandbreite nicht ein.


Anderes Speichermanagement, von daher nicht vergleichbar ;)
Schau dir doch mal Benches der 770er oder 680er zwischen 2 und 4GB an. Das deckt sich 1:1...

Es müssen ja nicht die vollen 4GB belegt werden, es reicht ja, wenn größer 2GB wirklich benötigt werden, damit das große Modell einen Vorteil daraus zieht.
Sieht man sich bspw. mal einige der neuen Fable Benches an, so sind die 2GB Modelle alle samt ziemlich lahm im Vergleich zu den größeren Modellen mit mehr VRAM. Was sich auch nicht mit reiner GPU Performance erklären lässt.

Zitat Nighteye;23877423
256bit speicherinterface reicht vollkommen wenn man bedenkt das dies das speichterinterface der Tongo ist, also +40% drauf gerechnet werden kann an speicherbandbreite gegenüber anderen GPU,s.


Wieso propagierst du permanent diesen (sorry) Unsinn?
Das ist völlig an den Haaren herbeigezogen...
Tonga des deswegen schneller, weil das FrontEnd im Vergleich zu Tahiti verdoppelt wurde... Das schlägt voll durch, wenn das FrontEnd limitiert. Da zählen bspw. die meisten DX11 Titel dazu, die wenigstens Ansatzweise etwas Tesselation Power benötigen. -> denn das kann Tonga deutlich schneller als Tahiti.
Tahiti hatte seit je her schon genügend Speicherbandbreite. Das Wegkürzen bei Tonga vom SI interessiert dabei quasi gar nicht. Tonga ist genau so wenig Bandbreitenlimitiert wie Tahiti aktuell. Und das liegt bestimmt nicht an dieser ominösen Technik zur Kompression.

Mit 256Bit wird der Tonga Vollausbau ein quasi 1:1 halber Fiji. Bzw. der Fiji ist ein doppelter Tonga, wenn man es genau betrachtet. Einzig das FrondEnd ist nicht nochmal verdoppelt wurden und das SI ist gegen HBM getauscht... Wie man aber auch klar erkennen können sollte, ist die Bandbreite bei Fiji ebenso wenig wirklich notwendig. Da hätte es auch deutlich weniger getan. Man hat sich aber offenbar aufgrund der Energieeffizienz sowie des geringeren Platzbedarfs gegen ein größeres GDDR5 Interface entschieden.

Zitat Tomy_The_Kid;23898127
Wenn das nicht der Fall wäre so sollten stark übertaktet 960 ja zur 970 aufschließen können, passiert aber nicht.:d


Passiert schon, nur müsste eine 960er größer 60% Rohleistung kompensieren, damit man zur 970er kommt. Und diese, wie bekannt kann ebenso gut mit dem Takt nach oben. Sprich nur die wenigsten Modelle werden mit ihren Basistakt oder garantierten Boosttakt laufen, sondern eher deutlich nach oben streuen, wenn die Kühlung passt. OCed Versionen der 960er legen durchaus mal 10-15% drauf, je nach Takt und Speicher OC halt. Nur kann das ebenso auch eine 970er. Von daher...
#22
customavatars/avatar20397_1.gif
Registriert seit: 07.03.2005

Admiral
Beiträge: 11189
Zitat unl34shed;23897949
Und woher kommt dann der doch gewaltige Unterschied zwischen der 2GB und 4GB Version? An den Spielen sollte es nicht liegen, denn eine 380 2 vs 4GB bricht mit deutlich mehr Bandbreite nicht ein.


Genau das macht den unterschied aus.
Ich schrieb Extra 4GB.

Weil die Speicherbandbreiten Limitation bei der 2GB GTX960 der Fall ist, und bei der 4GB Version nicht.
Das hat folgenden Grund.
Die 2Gb Version muss öfter nachladen und Benutzt und Blockiert dadurch die "Autobahn" viel mehr, als die 4GB Version.
Bei der Radeon ist das egal, weil sie bei 2GB immer noch genug Bandbreite hat.

Zitat Tomy_The_Kid;23898127
Wenn das nicht der Fall wäre so sollten stark übertaktet 960 ja zur 970 aufschließen können, passiert aber nicht.:d


Unsinn. Ich habe nie behauptet, das dass speicherinterface der GTX960 reichen würde um GTX970 Rechenpower zu verwenden.
Abgesehen davon, um GTX970 Rechenpower zu verwenden, brauchst halt Unrealistisch viel Takt auf den Shadern, also auf GPU Core Takt, weil die GTX970 60% mehr Shader hat.
Das wäre fast so vergleichbar, als würde man versuchen eine R7 265 mit OC auf den Speed einer Tonga kommen wollen (R9 285).

Ok in beiden Fällen ist das evtl mit Flüssigstickstoff Extrem OC im Dauerbetrieb möglich, aber ich bei Luft und Wasserkühlung unmöglich.

Zitat fdsonne;23898397

Wieso propagierst du permanent diesen (sorry) Unsinn?
Das ist völlig an den Haaren herbeigezogen...


Die User hier waren doch unsicher ob 256bit Speicherinterface Groß genug ist und waren der Meinung das die Karte dadurch Speicherbandbreiten seitig limitieren würde.
Ich habe ihnen diese Angst genommen in dem ich ihnen klar gemacht habe, das diese 256bit Speicherinterface, im vergleich zum Speicherinterface einer zb 7870 welche auch 256bit hat, deutlich besser ist.

Und hier die Quelle zu meiner behauptung.

Einen interessanten Einschnitt weißt Tonga beim Speicherinterface auf. Das fällt mit 256 Bit schmaler aus als bei Tahiti mit 384 Bit. Laut AMD sollen sich die 30 Prozent weniger Bandbreite allerdings nicht bemerkbar machen. So werden bei Tonga Farbdaten ab sofort in einem verlustfrei komprimierten Format im Speicher abgelegt. Darüber hinaus kann die GPU komprimierte Daten in den Speicher schreiben und auch lesen. Dadurch will AMD die Effizienz der zur Verfügung stehenden Speicherbandbreite um ungefähr 40 Prozent verbessert haben: 256 Bit plus 40 Prozent entspricht rein rechnerisch 360 Bit.

Radeon R9 285 im Test (Seite 2) - ComputerBase
#23
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33011
Das ist ne schöne Marketingangabe ;)
Aber sei es drum. Es ist klar ersichtlich, dass weder PitCairn (HD78x0) wie auch Tahiti (HD79x0/280(X) bandbreitenlimitiert sind. Das was man durch durch das optimierte Speicherinterface gut macht, ist einfach nicht wirklich von Nöten.
Mir gings auch eher um deine Behauptung, dass auf das SI 40% drauf gerechnet werden kann. Was eben Unsinn ist. Das SI ist so breit wie es ist. Und der Speichertakt ist so wie er ist. Das ergibt eine Bandbreite... Und die Rechnung ist immer gleich. Egal ob da nun Tonga oder Tahiti drunter sind. Das was die Karte aus der Bandbreite macht, ist ein völlig anderes paar Schuhe.

NV belegt bspw. ziemlich klar, wie stark sich Optimierungen im Chip auf den reinen Speicherbandbreitenbedarf auswirken können. Eine GK104 GPU in Form der GTX 680/770 war stark Speicherbandbreitenlimitiert. Eine GTX 980 mit ebenso viel Bandbreite ist dies klar deutlich weniger und das trotz deutlich mehr realer GPU Performance.
Nur im Vergleich zu AMD haben wir völlig andere Vorzeichen. Wo GK104 Bandbreitenlimitiert war, ist dies bei Tahiti und PitCairn eben nicht der Fall. Auch der "kleine" Tonga der 285er ist nicht Bandbreitenlimitiert. Die Warscheinlichkeit, dass der Tonga Vollausbau es ebenso nicht ist, liegt sehr hoch. Und das liegt zu 99,9% nicht an dieser ominösen Technik, sondern dass in der Masse der Fälle einfach auch ein 256Bit SI mit entsprechendem Speichertakt genügend Bandbreite liefert.

Zitat Nighteye;23898488
Weil die Speicherbandbreiten Limitation bei der 2GB GTX960 der Fall ist, und bei der 4GB Version nicht.
Das hat folgenden Grund.
Die 2Gb Version muss öfter nachladen und Benutzt und Blockiert dadurch die "Autobahn" viel mehr, als die 4GB Version.
Bei der Radeon ist das egal, weil sie bei 2GB immer noch genug Bandbreite hat.


Das ist ebenso wieder technisch unsinnig.
Die 2GB Version der 960er hat ein VRAM Mengenproblem. Das heist, dass nicht genügend Daten platz finden. Es muss also nachgeladen werden. Dabei ist nicht die Bandbreite zwischen GPU und VRAM entscheidend, sondern die Bandbreite zwischen GPU und RAM -> PCIe 3.0 ist limitiert auf ~16GB/sec in Form der 16 Lane Ausführung. Das veranlasst die GPU zum "warten". Ebenso kosten Kopiervorgänge Zeit. -> ergo sind die FPS Rate auf dem Monitor niedriger. Die 4GB Version hat dies offenbar nicht. Es passen genügend Daten rein und die Karte kann die ganze Benchzeit über ihre Leistung abrufen -> ergo, die FPS sind höher.
Bei PCGH gibts nen Test über ne 2GB vs. ne 4GB Version. Die FPS Rate liegt ähnlich der 4GB Version, nur sind dort streckenweise auch deutliche Frameeinbußen zu verzeichen, eben weil aus dem RAM Pool nachgeladen werden muss, was die FPS stark einknicken lässt. Teils auf unter 20 FPS. -> das macht sich in avg. FPS Messungen eben mal mehr, mal weniger stark bemerkbar -> nämlich genau in dem Maße, wie lange dieses VRAM Nachladen eben dauert im Vergleich zur Gesamtzeit. Eine Karte, die permanent mit Nachladen beschäftigt ist, wird auch deutlich weniger FPS liefern. Eine Karte, die nur wenige Daten nachladen muss, wird nur wenig Ausschläge fabrizieren. -> das sind die klassischen Resultate der verschieden starken VRAM Limitationsstufen. Das gibts seit je her schon und leider verstehen die Leute es bis heute nicht, wie das unter der Haube funktioniert.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]