> > > > Tests und Marktverfügbarkeit der Radeon R9 285 am 2. September

Tests und Marktverfügbarkeit der Radeon R9 285 am 2. September

Veröffentlicht am: von

amd-radeon-2013Am kommenden Samstag will AMD den 30. Geburtstag der GPUs und des Gamings feiern. Dazu wird man die Veranstaltung live aus Denver in die Welt streamen. Natürlich bietet sich diese Gelegenheit an, die seit Wochen in den News bereits behandelte Radeon R9 285 auf Basis der neuen "Tonga"-GPU endlich offiziell vorzustellen. Dies liegt nicht nur nahe, sondern ist auf halboffiziellem Wege auch schon bestätigt worden, auch wenn eine endgültige Gewissheit erst herrschen kann, wenn AMD diesen Schritt wirklich auch vollzieht.

Offizielles AMD-Dokument zum Release der Radeon R9 285
Offizielles AMD-Dokument zum Release der Radeon R9 285

In gewisser Weise wird dies nun von Videocardz bestätigte, denn hier ist der Screenshot eines AMD-Dokuments zu finden, das auf einen initialen Release am 23. August hindeutet und von einem Test-NDA sowie einer Verfügbarkeit am bzw. ab dem 2. September spricht. Weiterhin ist die Rede davon, dass die Radeon R9 285 die R9 280 ersetzen soll. Weitere vier Wochen nach dem Release der ersten "Tonga"-Karte soll dann die Radeon R9 285X folgen, welche folgerichtig als Ersatz der Radeon R9 280X geplant ist. Bisher war eigentlich immer nur von einer Radeon R9 285 die Rede, ein zweites Modell fand sich in den bisherigen Meldungen nicht wieder.

Am kommenden Samstag werden wir vermutlich zumindest zu einem Modell endgültig Gewissheit haben. Sollte es wirklich zu einer Ankündigung einer neuen Grafikkarte kommen, werden wir euch in den News darüber informieren.

AMD-Radeon-R9-280-Serie in der Übersicht
Modell AMD Radeon R9 280 AMD Radeon R9 280X AMD Radeon R9 285 AMD Radeon R9 285X
Straßenpreis ab 165 Euro ab 210 Euro - -
Homepage www.amd.de www.amd.de www.amd.de www.amd.de
Technische Daten
GPU Tahiti Pro Tahiti XT Tonga Pro Tonga XT
Fertigung 28 nm 28 nm  28 nm 28 nm
Transistoren 4,3 Milliarden 4,3 Milliarden  - -
GPU-Takt (Base Clock) - 1.000 MHz  918 MHz -
GPU-Takt (Boost Clock) 933 MHz 1.050 MHz  - -
Speichertakt 1.250 MHz 1.500 MHz  1.375 MHz 1.375 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 3.072 MB 3.072 MB 2.048 / 4.096 MB 2.048 / 4.096 MB
Speicherinterface 384 Bit 384 Bit 256 Bit 256 Bit
Speicherbandbreite 240,0 GB/Sek. 288,0 GB/Sek. 176,0 GB/Sek. 176,0 GB/Sek,
DirectX-Version 11.2 11.2 11.2 11.2
Shadereinheiten 1.792 2.048 1.792 2.048
Texture Units 112 128 - -
ROPs 32 32 - -
TDP 250 Watt 250 Watt - -

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (11)

#2
customavatars/avatar125190_1.gif
Registriert seit: 15.12.2009

Fregattenkapitän
Beiträge: 2636
Wo sollen denn die 100 Watt eingespart werden? Die Fertigungsgröße bleibt ja die gleiche.
#3
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7625
Global Foundries hat einen viel neueren und auch anderen Fertigungsprozess als TSMC

Dieser Fertigungsprozess hat erstmals beim Mullins Chip gezeigt was er kann und überzeugte (schluf sogar Intel 22nm Bay-Trail-T Atom)

AMD-APU Mullins im Test: Das Performance-Tablet, wie es sein sollte - Golem.de
#4
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12472
Zitat NasaGTR;22548864
bei Computerbase steht das es eventuell ganze 100 Watt weniger zeihen könnte :eek: (nur 150W)

Das wäre krass! :D


Jup, das wär klasse! Allerdings finde ich es trotzdem doof dass der Vram gekürzt wurde :c
Ob das, insbesondere mit Hinblick auf mantle, das offenbar weiterhin recht viel Vram beansprucht, der richtige Weg war?
#5
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7625
Naja vlt. kommt sie ja mit 4 GB

denn mit 2 wäre das echt ein Schuss in den Ofen!
Dann würde etwas mehr Leistung nix bringen wenn es dann Laderuckler gibt!
So könnte die 280 / 280X nicht übertrumpfen!
#6
Registriert seit: 28.10.2004

Flottillenadmiral
Beiträge: 5148
Und +2 Gigs kosten mind. 70 mehr... . Wenns denn mal reicht.
#7
customavatars/avatar208939_1.gif
Registriert seit: 31.07.2014

Gefreiter
Beiträge: 44
Zitat Pazox;22548902
Wo sollen denn die 100 Watt eingespart werden? Die Fertigungsgröße bleibt ja die gleiche.


Herstelllungsverfahren verbessert und eine effizientere Chipgeneration vermutlich. Fertigungsgröße ist nur die halbe Miete.


Der A10-7800 hat beispielsweise eine um 30 Watt geringere TDP gegenüber den A10-7850K.
Die Leistung ist vergleichbar, die Architektur identisch nur wurde von AMD die Balance zwischen Leistung und Verbrauch besser definiert.
Vermutlich wurde auch am Herstellungsverfahren (6 Monate zwichen den APU's) etwas optimiert.
#8
customavatars/avatar149396_1.gif
Registriert seit: 29.01.2011

Oberbootsmann
Beiträge: 874
AMD kann unter Last einsparen was sie wollen, juckt mich erst mal nicht. Die sollen endlich mal den Verbrauch bei normalen Anwendungen in den Griff bekommen. Wenn ich sehe das eine 290x den 4fachen Stromverbrauch beim Bluray sehen hat wie ein 780Ti könnte ich kotzen. Das macht sich dank immer mehr unnützer Hardwarebeschleunigung selbst bei Browsern bemerkbar die beim kleinsten Mauszucker die Karte auf Volldampf schalten, Flash tut auch alles dafür sinnlos Energie zu verschwenden durch sinnlose Hardwarebeschleunigung. AMD soll da mal eine Drossel ansetzten und dafür braucht man bestimmt keine neue GPU sondern einfach mal vernünftige Treiber!
#9
customavatars/avatar51109_1.gif
Registriert seit: 08.11.2006
Hannover
Moderator
BIOS Bernhard
Lutz
Beiträge: 33840
Zitat SlotkuehlerXXL;22551777
AMD kann unter Last einsparen was sie wollen, juckt mich erst mal nicht. Die sollen endlich mal den Verbrauch bei normalen Anwendungen in den Griff bekommen. Wenn ich sehe das eine 290x den 4fachen Stromverbrauch beim Bluray sehen hat wie ein 780Ti könnte ich kotzen. Das macht sich dank immer mehr unnützer Hardwarebeschleunigung selbst bei Browsern bemerkbar die beim kleinsten Mauszucker die Karte auf Volldampf schalten, Flash tut auch alles dafür sinnlos Energie zu verschwenden durch sinnlose Hardwarebeschleunigung. AMD soll da mal eine Drossel ansetzten und dafür braucht man bestimmt keine neue GPU sondern einfach mal vernünftige Treiber!

du magst recht haben und der 4 fache stromverbrauch klingt erstmal krass, aber die verbrauchen generell so wenig, dass die absolute differenz lächerlich ist(~50w), betrachtet man jetzt anschaffungspreis von 290x und 780ti, dann liegen dort mind 131€ zwischen (395€ für die 290x und 526€ für die 780ti), bis du mit 50w 131€ an stromkosten raus hast, musst du bei einem kwh preis von 0,27€ 9700h diesen Zustand halten, was 404 Tage 24/7 wären....... Schau du mal 404 Tage Filme/Videos dann bist du schon ein paar Jährchen in der Zukunft ;-)

Deine Argumentation ist daher nicht wirklich nachzuvollziehen.
#10
customavatars/avatar149396_1.gif
Registriert seit: 29.01.2011

Oberbootsmann
Beiträge: 874
Zitat Reaver1988;22551803

Deine Argumentation ist daher nicht wirklich nachzuvollziehen.


Meine Argumentation geht nicht gegen AMD vs. Nvidia sondern gegen AMD vs. AMD!
Die hier herum schwirrenden (angeblichen) 100 Watt Einsparung unter Gaming-Last sind zwar toll aber meine GPUs verbringen trotzdem die meiste Zeit mehr beim Nichtstun oder besser sie sollte es wenn AMD ihre Treiber in den Griff bekommen würde! Es ist also recht scheinheilig wenn man mit niedrigem Verbrauch unter extrem Last hausieren geht und verbrät dafür im eigentlichen Leerlauf wieder genauso viel!
Gerade für den unnötigen Verbrauch unter simpelsten Altgasaufgaben sollte man AMD mal öfter die Rote Karte in den Reviews zeigen!
Auf dem Lastverbrauch braucht man nach Veröffentlichung nicht mehr lange herum reiten, da wird kein Hersteller nachträglich was ändern können. Im "Leerlauf" kann ich aber erwarten das man Möglichkeiten schafft das die Karte mit "gezogener Handbremse" fährt und nicht wegen jedem Pillepalle Vollgas gibt. AMD hats jedenfalls bei der kompletten R Serie bis jetzt versaut!
#11
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12472
Zitat romeon;22550830
Und +2 Gigs kosten mind. 70 mehr... . Wenns denn mal reicht.


Das sind vieleicht die Preise die manch ein Hersteller (auf etwas grünes schiel >_>) auf ihre 2Gb vs 4Gb Karten aufschlägt :D
Den Hersteller kosten, tut das aber nur um die 20-30$, je nach Qualität. Ich erinnere mich gelesen zu haben dass 3Gb Vram ~50$ kosten.

Vieleicht wird die 4Gb 285X ja nur wenige Prozent schwächer als eine R9 290, dafür aber sparsamer und ~50€ günstiger - so könnte das tatsächlich was gescheites werden.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]