> > > > PowerColor verrät Details zur kommenden Radeon R9 380X

PowerColor verrät Details zur kommenden Radeon R9 380X

Veröffentlicht am: von

amd radeon 2013Bereits vor einigen Monaten tauchten Gerüchte und konkrete Hinweise zu einer AMD Radeon R9 380X auf, welche auf dem voll ausgebauten Tonga-Chip mit der aktuellsten GCN-Architektur basieren sollte. Bisher kam der Chip lediglich in der beschnittenen Variante als AMD Radeon R9 285 bzw. AMD Radeon R9 380 sowie im Vollausbau beim Apple iMac mit 5K-Display sowie einigen Alienware-Notebooks als AMD Radeon R9 M295X bzw. AMD Radeon R9 M395X zum Einsatz.

Powercolor Radeon R9 380X

Nun hat PowerColor wohl eher unabsichtlich die groben Eckdaten zur Radeon R9 380X auf der eigenen Webseite preisgegeben. So wird die Grafikkarte auf dem Tonga-Chip basieren und 2.048 GCN-Recheneinheiten für sich verbuchen können. Auch ist damit das 256-Bit-GDDR5-Speicherinterface bestätigt, an welches 4 GB Grafikspeicher anbinden werden.

Zu den Taktraten ist bisher noch relativ wenig bekannt, allerdings geht die Webseite wccftec davon aus, dass ein Takt zwischen 1.000 und 1.100 MHz anliegen wird. Von der Leistung soll diese dann knapp auf die Radeon R9 290 aufschließen können.

hero large

An Features sind dank der aktuellsten GCN-Inkarnation natürlich FreeSync, VSR, die VCE in Version 3.0 und der UVD 6.0 für den Support von HEVC (h.265) und viele weitere mit an Bord. Der Chip wird in 28 nm beim taiwanischen Chipfertiger TSMC vom Band laufen.

Über einen etwaigen Preis liegen nach aktuellem Stand leider noch keine Informationen vor.

Social Links

Kommentare (42)

#33
customavatars/avatar229660_1.gif
Registriert seit: 28.09.2015
Bayern
Obergefreiter
Beiträge: 112
Wenn die 960 wirklich beim decodieren ca. 70W verbraucht (Gesamtsystem),dann bleibt die drin und meinen 390 bzw 290X gehen zurück,weil ich selten zocke
und werde mit 960 überbrücken bis zur nächsten Generation.

Es ist wie immer egal , wann man kaufen möchte ist es immer der falsche Zeitpunkt :)
#34
customavatars/avatar117686_1.gif
Registriert seit: 05.08.2009
Heilbronn
Fregattenkapitän
Beiträge: 2755
Die 960 is allgemein ne "falsche" Karte, jede andere Karte ist besser, egal ob von nVidia oder AMD.

Die 960 ist meiner Meinung die wohl schlechteste Karte die jemals auf den Markt kam.
Unter Betrachtung der Langlebigkeit, dem Preis und der Leistung die Sie bringt.
Alleine das man ein 128Bit Interface im Jahre 2015/2016 verkaufen möchte grenzt an Blasphemie!
#35
customavatars/avatar193511_1.gif
Registriert seit: 13.06.2013
Kölle
Banned
Beiträge: 2981
+1 unter Ausnahme der Blasphemie natürlich ;)
#36
customavatars/avatar117686_1.gif
Registriert seit: 05.08.2009
Heilbronn
Fregattenkapitän
Beiträge: 2755
Und ich bin nicht mal Gottesgläubig :D
#37
customavatars/avatar194062_1.gif
Registriert seit: 30.06.2013

Fregattenkapitän
Beiträge: 2596
Ich finde die GTX 960 in der 4 GB Version klasse. Jedenfalls aufgrund der Leistung und Features besser als die R9 380. Die Breite des Interfaces interessiert mich nicht, nur die FPS (und sonstigen Features), die am Ende dabei heraus kommen. Das P/L Verhältnis stimmt auch und nur weil es für 50% mehr Geld 50% mehr Leistung gibt, ändert das daran auch nichts daran.

Zitat ELKINATOR;23995796
Skylake hat doch eh einen H.265 decoder integriert, die software muß es nur nutzen.


Muss man dazu dann den Monitor an die iGPU, also die Mainboard Anchlüsse, anschließen? Ich meine, man kann den Monitor nicht an die dedizierte Grafikkarte anschließen, aber die iGPU die Ausgabe rendern lassen. Leider, denn die AMD Grafikkarten verballern ja selbst bei H.264 irrational viel Strom.

Schade, falls die R9 380X keinen H.265 Decoder/Encoder kriegt. Dann wäre sie evtl. für mich interessant geworden.

Plant AMD überhaupt noch einmal irgendwann ein paar vernünftige Mittelklasse Grakas auf den Markt zu bringen, die dann auch ein aktuelles Featureset mit sich bringen? Oder wird die kommenden Jahre in dieser Klasse weiter nur lustig ein neuer Name auf das alte Geraffel draufgeschrieben?
#38
customavatars/avatar229660_1.gif
Registriert seit: 28.09.2015
Bayern
Obergefreiter
Beiträge: 112
Was gefällt dir nicht an den 300 Serie?

Stromverbrauch ja beim zocken ist der je nach Karte höher aber dafür ist AMD auch etwa schneller wie 380 ist schneller als 960 ,390 schneller als 970 und Kratz an 980 und 390X kommt ja nach Auflösung und Spiel an normale teilweise 980 Ti ran.

Im Idle ist der mehr Verbrauch zu Nvidia zum vernachlässigen und bei Temperaturen nehmen die sich nicht viel.

Und die ganzen Optionen sind mal bei Nvidia mal bei AMD je nach nutzen für einen interessant oder auch nicht

Hardwarebeschleunigung haben 950 und 960 zum decodieren und AMD Fury vorausgesetzt Software unterstützt es.

Vom Preis her sind doch die AMD Karten günstiger wie Nvidia bis gleich teuer .
#39
customavatars/avatar58209_1.gif
Registriert seit: 16.02.2007
Hessen
Leutnant zur See
Beiträge: 1160
Keine Ahnung was hier mit und über H.265 diskutiert wird, wichtiger finde ich für meinen Teil die Leistung beim Zocken :d. Mit GCN-Recheneinheiten ist doch Shader-Einheiten gemeint richtig, wenn dem so ist ist dann der Unterschied von 1792 zu 2048 Einheiten so groß um einen Leistungszuwachs zu erhalten oder ist der evtl höhere Takt eher dafür verantwortlich?
#40
Registriert seit: 07.07.2015

Stabsgefreiter
Beiträge: 267
Zitat TARDIS;23999880
Ich finde die GTX 960 in der 4 GB Version klasse. Jedenfalls aufgrund der Leistung und Features besser als die R9 380.
..
Plant AMD überhaupt noch einmal irgendwann ein paar vernünftige Mittelklasse Grakas auf den Markt zu bringen, die dann auch ein aktuelles Featureset mit sich bringen?

Die 960 mit 4GB ist so lala und nur auf Grund ihres niedrigen Verbrauches überhaupt erwähnenswert (den sie OC auch noch größtenteils verliert). Die 380 ist eine super Mittelklasse Karte und für DX12 sicherlich besser gerüstet als die 960. ;)
Und auf welches Featureset beziehst Du Dich? Async Shaders und Co. kann es ja nicht sein. Bei der immensen Marktdurchdringung von 4K Glotzen und der fetten Verfügbarkeit von 4K Content wirst Du doch sicherlich nicht HDMI 2.0/HDCP 2.2 meinen, oder?

Die 380x wird die perfekte Mittelklasse Karte wenn der Preis tatsächlich um die 250€ liegt. Da die 380er jetzt größtenteils schon im Preis gefallen sind könnts passen.
#41
customavatars/avatar194062_1.gif
Registriert seit: 30.06.2013

Fregattenkapitän
Beiträge: 2596
Zitat Mexli;24017873
Und auf welches Featureset beziehst Du Dich? Async Shaders und Co. kann es ja nicht sein. Bei der immensen Marktdurchdringung von 4K Glotzen und der fetten Verfügbarkeit von 4K Content wirst Du doch sicherlich nicht HDMI 2.0/HDCP 2.2 meinen, oder?


Da du augenscheinlich keine Ahnung von der Materie hast und ich keine Lust habe, meine Zeit damit zu verschwenden, es dir zu erklären, lass mich nur ein paar Stichworte einwerfen und dann kannst du googlen oder dir es von jemandem anders erklären lassen: H.265 Unterstützung und HDMI 2.0 für 4k Desktop Anwendungen (z.B. Office Multitasking).
#42
Registriert seit: 07.07.2015

Stabsgefreiter
Beiträge: 267
Nicht das ich den 4k Kram nicht erwähnt hätte... 4K Desktop Betrieb, na da erübrigt sich ja wirklich jede Diskussion. Na immerhin kann man 4k unter Win10 so richtig toll geniessen. Oh wait... da war doch was mit Skalierung und Apps. Wie auch immer, wer ernsthaft mit 4k und Desktop Betrieb argumentiert, ja für den ist die 960 bestimmt eine ganz ganz tolle Karte. Randgruppen Kram halt. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]