> > > > Tests und Marktverfügbarkeit der Radeon R9 285 am 2. September

Tests und Marktverfügbarkeit der Radeon R9 285 am 2. September

Veröffentlicht am: von

amd-radeon-2013Am kommenden Samstag will AMD den 30. Geburtstag der GPUs und des Gamings feiern. Dazu wird man die Veranstaltung live aus Denver in die Welt streamen. Natürlich bietet sich diese Gelegenheit an, die seit Wochen in den News bereits behandelte Radeon R9 285 auf Basis der neuen "Tonga"-GPU endlich offiziell vorzustellen. Dies liegt nicht nur nahe, sondern ist auf halboffiziellem Wege auch schon bestätigt worden, auch wenn eine endgültige Gewissheit erst herrschen kann, wenn AMD diesen Schritt wirklich auch vollzieht.

Offizielles AMD-Dokument zum Release der Radeon R9 285
Offizielles AMD-Dokument zum Release der Radeon R9 285

In gewisser Weise wird dies nun von Videocardz bestätigte, denn hier ist der Screenshot eines AMD-Dokuments zu finden, das auf einen initialen Release am 23. August hindeutet und von einem Test-NDA sowie einer Verfügbarkeit am bzw. ab dem 2. September spricht. Weiterhin ist die Rede davon, dass die Radeon R9 285 die R9 280 ersetzen soll. Weitere vier Wochen nach dem Release der ersten "Tonga"-Karte soll dann die Radeon R9 285X folgen, welche folgerichtig als Ersatz der Radeon R9 280X geplant ist. Bisher war eigentlich immer nur von einer Radeon R9 285 die Rede, ein zweites Modell fand sich in den bisherigen Meldungen nicht wieder.

Am kommenden Samstag werden wir vermutlich zumindest zu einem Modell endgültig Gewissheit haben. Sollte es wirklich zu einer Ankündigung einer neuen Grafikkarte kommen, werden wir euch in den News darüber informieren.

AMD-Radeon-R9-280-Serie in der Übersicht
Modell AMD Radeon R9 280 AMD Radeon R9 280X AMD Radeon R9 285 AMD Radeon R9 285X
Straßenpreis ab 165 Euro ab 210 Euro - -
Homepage www.amd.de www.amd.de www.amd.de www.amd.de
Technische Daten
GPU Tahiti Pro Tahiti XT Tonga Pro Tonga XT
Fertigung 28 nm 28 nm  28 nm 28 nm
Transistoren 4,3 Milliarden 4,3 Milliarden  - -
GPU-Takt (Base Clock) - 1.000 MHz  918 MHz -
GPU-Takt (Boost Clock) 933 MHz 1.050 MHz  - -
Speichertakt 1.250 MHz 1.500 MHz  1.375 MHz 1.375 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 3.072 MB 3.072 MB 2.048 / 4.096 MB 2.048 / 4.096 MB
Speicherinterface 384 Bit 384 Bit 256 Bit 256 Bit
Speicherbandbreite 240,0 GB/Sek. 288,0 GB/Sek. 176,0 GB/Sek. 176,0 GB/Sek,
DirectX-Version 11.2 11.2 11.2 11.2
Shadereinheiten 1.792 2.048 1.792 2.048
Texture Units 112 128 - -
ROPs 32 32 - -
TDP 250 Watt 250 Watt - -

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (11)

#2
customavatars/avatar125190_1.gif
Registriert seit: 15.12.2009

Fregattenkapitän
Beiträge: 2624
Wo sollen denn die 100 Watt eingespart werden? Die Fertigungsgröße bleibt ja die gleiche.
#3
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7537
Global Foundries hat einen viel neueren und auch anderen Fertigungsprozess als TSMC

Dieser Fertigungsprozess hat erstmals beim Mullins Chip gezeigt was er kann und überzeugte (schluf sogar Intel 22nm Bay-Trail-T Atom)

AMD-APU Mullins im Test: Das Performance-Tablet, wie es sein sollte - Golem.de
#4
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12423
Zitat NasaGTR;22548864
bei Computerbase steht das es eventuell ganze 100 Watt weniger zeihen könnte :eek: (nur 150W)

Das wäre krass! :D


Jup, das wär klasse! Allerdings finde ich es trotzdem doof dass der Vram gekürzt wurde :c
Ob das, insbesondere mit Hinblick auf mantle, das offenbar weiterhin recht viel Vram beansprucht, der richtige Weg war?
#5
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7537
Naja vlt. kommt sie ja mit 4 GB

denn mit 2 wäre das echt ein Schuss in den Ofen!
Dann würde etwas mehr Leistung nix bringen wenn es dann Laderuckler gibt!
So könnte die 280 / 280X nicht übertrumpfen!
#6
Registriert seit: 28.10.2004

Flottillenadmiral
Beiträge: 5147
Und +2 Gigs kosten mind. 70 mehr... . Wenns denn mal reicht.
#7
customavatars/avatar208939_1.gif
Registriert seit: 31.07.2014

Gefreiter
Beiträge: 44
Zitat Pazox;22548902
Wo sollen denn die 100 Watt eingespart werden? Die Fertigungsgröße bleibt ja die gleiche.


Herstelllungsverfahren verbessert und eine effizientere Chipgeneration vermutlich. Fertigungsgröße ist nur die halbe Miete.


Der A10-7800 hat beispielsweise eine um 30 Watt geringere TDP gegenüber den A10-7850K.
Die Leistung ist vergleichbar, die Architektur identisch nur wurde von AMD die Balance zwischen Leistung und Verbrauch besser definiert.
Vermutlich wurde auch am Herstellungsverfahren (6 Monate zwichen den APU's) etwas optimiert.
#8
customavatars/avatar149396_1.gif
Registriert seit: 29.01.2011

Oberbootsmann
Beiträge: 854
AMD kann unter Last einsparen was sie wollen, juckt mich erst mal nicht. Die sollen endlich mal den Verbrauch bei normalen Anwendungen in den Griff bekommen. Wenn ich sehe das eine 290x den 4fachen Stromverbrauch beim Bluray sehen hat wie ein 780Ti könnte ich kotzen. Das macht sich dank immer mehr unnützer Hardwarebeschleunigung selbst bei Browsern bemerkbar die beim kleinsten Mauszucker die Karte auf Volldampf schalten, Flash tut auch alles dafür sinnlos Energie zu verschwenden durch sinnlose Hardwarebeschleunigung. AMD soll da mal eine Drossel ansetzten und dafür braucht man bestimmt keine neue GPU sondern einfach mal vernünftige Treiber!
#9
customavatars/avatar51109_1.gif
Registriert seit: 08.11.2006
Hannover
Moderator
BIOS Bernhard
Lutz
Beiträge: 33840
Zitat SlotkuehlerXXL;22551777
AMD kann unter Last einsparen was sie wollen, juckt mich erst mal nicht. Die sollen endlich mal den Verbrauch bei normalen Anwendungen in den Griff bekommen. Wenn ich sehe das eine 290x den 4fachen Stromverbrauch beim Bluray sehen hat wie ein 780Ti könnte ich kotzen. Das macht sich dank immer mehr unnützer Hardwarebeschleunigung selbst bei Browsern bemerkbar die beim kleinsten Mauszucker die Karte auf Volldampf schalten, Flash tut auch alles dafür sinnlos Energie zu verschwenden durch sinnlose Hardwarebeschleunigung. AMD soll da mal eine Drossel ansetzten und dafür braucht man bestimmt keine neue GPU sondern einfach mal vernünftige Treiber!

du magst recht haben und der 4 fache stromverbrauch klingt erstmal krass, aber die verbrauchen generell so wenig, dass die absolute differenz lächerlich ist(~50w), betrachtet man jetzt anschaffungspreis von 290x und 780ti, dann liegen dort mind 131€ zwischen (395€ für die 290x und 526€ für die 780ti), bis du mit 50w 131€ an stromkosten raus hast, musst du bei einem kwh preis von 0,27€ 9700h diesen Zustand halten, was 404 Tage 24/7 wären....... Schau du mal 404 Tage Filme/Videos dann bist du schon ein paar Jährchen in der Zukunft ;-)

Deine Argumentation ist daher nicht wirklich nachzuvollziehen.
#10
customavatars/avatar149396_1.gif
Registriert seit: 29.01.2011

Oberbootsmann
Beiträge: 854
Zitat Reaver1988;22551803

Deine Argumentation ist daher nicht wirklich nachzuvollziehen.


Meine Argumentation geht nicht gegen AMD vs. Nvidia sondern gegen AMD vs. AMD!
Die hier herum schwirrenden (angeblichen) 100 Watt Einsparung unter Gaming-Last sind zwar toll aber meine GPUs verbringen trotzdem die meiste Zeit mehr beim Nichtstun oder besser sie sollte es wenn AMD ihre Treiber in den Griff bekommen würde! Es ist also recht scheinheilig wenn man mit niedrigem Verbrauch unter extrem Last hausieren geht und verbrät dafür im eigentlichen Leerlauf wieder genauso viel!
Gerade für den unnötigen Verbrauch unter simpelsten Altgasaufgaben sollte man AMD mal öfter die Rote Karte in den Reviews zeigen!
Auf dem Lastverbrauch braucht man nach Veröffentlichung nicht mehr lange herum reiten, da wird kein Hersteller nachträglich was ändern können. Im "Leerlauf" kann ich aber erwarten das man Möglichkeiten schafft das die Karte mit "gezogener Handbremse" fährt und nicht wegen jedem Pillepalle Vollgas gibt. AMD hats jedenfalls bei der kompletten R Serie bis jetzt versaut!
#11
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12423
Zitat romeon;22550830
Und +2 Gigs kosten mind. 70 mehr... . Wenns denn mal reicht.


Das sind vieleicht die Preise die manch ein Hersteller (auf etwas grünes schiel >_>) auf ihre 2Gb vs 4Gb Karten aufschlägt :D
Den Hersteller kosten, tut das aber nur um die 20-30$, je nach Qualität. Ich erinnere mich gelesen zu haben dass 3Gb Vram ~50$ kosten.

Vieleicht wird die 4Gb 285X ja nur wenige Prozent schwächer als eine R9 290, dafür aber sparsamer und ~50€ günstiger - so könnte das tatsächlich was gescheites werden.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Logo von IMAGES/STORIES/2017/GEFORCERTX2080

Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

AMD Radeon RX Vega 64 im mGPU-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

In den letzten Tagen war es so weit. Wir hatten endlich Hard- und Software zusammen, um die Radeon RX Vega 64 im mGPU testen zu können. Zum einen halten wir die ASUS ROG Strix Radeon Vega 64 OC Edition in Händen, zum anderen hat AMD den Radeon Software Crimson ReLive Edition 17.9.2... [mehr]