> > > > AMD Radeon R9 285: Erste Tonga-Grafikkarte soll im August erscheinen

AMD Radeon R9 285: Erste Tonga-Grafikkarte soll im August erscheinen

DruckenE-Mail
Erstellt am: von

amd-radeon-2013Dass AMD demnächst die seit Ende 2011 bestehenden „Tahiti“-GPUs in Rente schicken würde, darüber wurde in den vergangenen Tagen in der Gerüchteküche bereits ausgiebig spekuliert. Nun wollen die schwedischen Kollegen von SweClockers ein paar weitere Details erfahren haben. Demnach soll die AMD Radeon R9 285 die erste Grafikkarte von AMD werden, die auf dem neuen „Tonga“-Chip aufbauen soll.

Ihm zur Seite stehen soll ein 256 Bit breites Speicher-Interface samt 2.048 MB GDDR5-Videospeicher - genau wie bei den aktuellen „Tahiti“-Modellen, die noch auf der Radeon R9 280X und Radeon R9 280 zum Einsatz kommen. Weitere Angaben zu den Spezifikationen macht man jedoch nicht, laut Namensschema aber soll die Radeon R9 285 sich über den bisherigen „Tahiti“-Modellen einsortieren und als Basis für weitere Ableger – ob nach oben oder unten – dienen.

Die Preise für die aktuellen Mittelklasse-Grafikkarten von AMD sind in den letzten Tagen kräftig gefallen. Die neue AMD Radeon R9 285 auf „Tonga“-Basis soll  im August erscheinen.

Social Links

Kommentare (43)

#34
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Ich glaube nicht, dass Nvidia den Shrink hinaus gezögert hat, genauso wenig wie AMD. ;)
#35
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9445
Wie meinst du das? Ganz ursprünglich hies es dass Maxwell direkt mit dem Shrink kommen würde. Dan kam erstmal die GTX 750(ti) in 28nm Maxwell raus - und zumindest diese Samples die bei irgendwelchen Zollstellen aufgetaucht sind der GTX 880 deuten ja auch auf 28Nm hin...
Natürlich stellt sich die Frage ob es technische Gründe gibt oder nicht, andererseits ist auch klar dass die Grakahersteller, wenn sie nicht gezwungen sind, es gerne langsam angehen xD
#36
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Sollte doch viel eher am Prozess liegen...
Man spricht ja immer noch davon, dass die 20nm gar nicht sooo viele Vorteile ggü. den 28nm Prozessen bringt. Fakt dürfte aber sein, die 20nm sind im Vergleich heute wohl schweine teuer.
Zumal, zum Release der 750er dürften die 20nm noch nicht mal ganz serienreif gewesen sein. Von hinauszögern würde ich da nicht sprechen. Der neue Prozess bringt wohl sicher wieder genau dort Vorteile, wo man an die Limits geht. Sprich Performancebereich oder TopDog. Aber bei so popligen Mittelklasse Modellen? Da sollte der wirtschaftlich sicher deutlich billigere 28nm Prozess mehr Marge hinten über lassen als ein neuer... verzögern würde ich es dann nennen, wenn man 20nm nicht nutzt, obwohl es sinnvoll wäre dies zu tun. Ob es aber heute schon sinnvoll ist?
#37
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Zitat DragonTear;22480203
Wie meinst du das? Ganz ursprünglich hies es dass Maxwell direkt mit dem Shrink kommen würde. Dan kam erstmal die GTX 750(ti) in 28nm Maxwell raus - und zumindest diese Samples die bei irgendwelchen Zollstellen aufgetaucht sind der GTX 880 deuten ja auch auf 28Nm hin...
Natürlich stellt sich die Frage ob es technische Gründe gibt oder nicht, andererseits ist auch klar dass die Grakahersteller, wenn sie nicht gezwungen sind, es gerne langsam angehen xD


Ich gehe davon aus, dass der 20nm Prozess noch nicht wirklich Marktreif ist, sprich es lohnt sich nicht in ihm zu fertigen oder man kann gar nicht auf ihn zugreifen. AMD und Nvidia sind da auf ihren Dienstleiter angewiesen, wenn der hinterher hinkt, verspätet sich der Spaß. "Hinauszögern" wiederrum klingt, danach, dass man etwas funktionierendes nach hinten verschiebt, das dürfte den Zusammenhang etwas verfehlen. Die 290 und 290x waren, meiner Meinung nach, auch erst in 20nm geplant, man brachte sie aber in 28nm, weil man auf die 780er und aufwärts reagieren musste, man konnte nicht mehr auf den Prozess warten. TSMC soll bei 20nm erst vor zwei Monaten auf die "Zielgerade eingebogen sein: TSMC Begins 20nm Volume Production Finally - Next Gen GPUs At This Node Are Now A Possibility
#38
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9445
Hmm, verstehe... 20Nm ist aber nicht enorm viel kleiner als 22Nm und das nutzt Intel ja jetzt schon seit fast nem Jahr. Hätte gedacht die anderen Chiphersteller wären da auch schon theoretisch soweit.
#39
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Intel ist in der Fertigung Rund eine Generation vorraus ;) -> zumindest so ganz groß über den Daumen. Denn Intel fertigt auch 22nm nicht erst seit diesem Jahr.
Das Problem dabei sollte normal nichtmal TSMC oder GloFo als solches sein, Speicherzellen werden ja schon länger in kleiner 28nm gefertigt, sondern das Problem liegt viel eher scheinbar bei größeren Logikchips. Speicherzellen sind vergleichsweise "doofe" Schaltungen. Da kansnt du Reserve noch und nöcher einbauen. Nicht funktionierende Teile kannst du dann quasi bequem ausknipsen und über die Reserve abdecken... Mach das mal bei hochkomplexen Logikschaltungen. GK110 dürfte nach wie vor mit einer der komplexesten Transistorschaltungen überhaupt sein. Das ist dann schon ne ganz andere Hausnummer als ein paar "Mio-Transistor-schwere" Speicherzellen. Selbst ne Haswell CPU ist da ein winzling dagegen... Und da ist noch enorm viel Cache drin.
Auch erkennbar ist, das selbst Intel für die neuere Fertigung nicht mehr die größeren Modelle vorschickt, obwohl diese es eher nötig hätten. Sondern Intel fährt spätestens seit Sandy den Weg, das man erst den Mainstream bzw. unteren Bereich mit neuer Fertigung versorgt. Sieht stark nach Austesten des Prozesses aus. Erst dann kommen die größeren Modelle hinterher.
Knights Landing ist aber wohl ne Ausnahme, wenn ich das richtig sehe. Aber da stehen ganz andere Preise auf der Uhr, entsprechend mehr Luft in der Marge und mehr Spielraum in Sachen Herstellungskosten. Zur not kann man dort auch die Preise hochschrauben, interessiert idR eher beiläufig ob da anstatt 5000€ nun 5500 oder 6000 stehen. Wer sowas kauft, der kauft auch bei mehr Geld -> sofern es keine Alternativen gibt.

Nach aktuellen Infos läuft bei Intel aktuell die 16nm Fertigung für Broadwell an bzw. langsam hoch... Wie viel Risiko das aktuell ist, wie die Yilds sind und wie viel Kosten das gegenüber den 22nm Prozessen bei Intel ist, weis wohl bestenfalls Intel selbst. Aber es läuft nach Meldungen schon.

PS: 22nm und 20nm gehören wenn man so will zur "selben Generation". Full Node und Half Node sozusagen. Genau so wie 32nm und 28nm zur "gleichen Generation" gehören.
Der nächst kleinere Schritt wäre dann 14/16nm... CPUs bei Intel kommen idR in den Full Nodes. GPUs hingegen werden idR im Half Node released. Aber mit Ausnahmen auf beiden Seiten -> Kaveri bei TSMC und zum Beispiel G200 bei NV in 65nm.
#40
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat fdsonne
Och Schaffe, nicht schon wieder... Steht doch da, was daran nicht optimal für ein Mittel/Performanceklasseprodukt ist. Zu Fett, zu viel Verbrauch, zu viel SI, zu komplex, zu viel benötigte Fläche und die Profibereichsgene mit der schönen SP/DP Leistung benötigt da auch kein Mench in so einem Produkt.
Ob sich die Karte verkauft oder nicht, ist dabei gar nicht Thema... Sicher verkauft sie sich irgendwie. Die Frage ist eher, was bleibt bei AMD davon hängen?
Ein Produkt, was aktuell im Bereich 200€ "verramscht" wird, was derart fett ist und viel Fläche benötigt, dazu noch komplex auf dem PCB aufgrund des SI bei wenig Speichertakt usw. usf. ist alles andere als Optimal.


Letztendlich ist doch nur die größe des Chips relevant und da finde ich nunmal, dass du etwas übertreibst.
Ich sehe das eben anders.
Weder sehe ich zuviel Verbrauch, weder sehe ich "zu fett", weder sehe ich zu komplex und weder sehe ich zuviel SI, letztendlich ist das alles an Chipfläche verschmerzbar mehr, als Nvidia mit ihrem Gk104 geboten hat.
Für den Gamingsektor steht aber zweifellos fest, dass diese Rund was die besten Margen anging, wohl klar an Nvidia ging. Kleinerer Chip, anfangs etwas schneller, etwas weniger Verbrauch.


Zitat
Welche anderen Specs meinst du?


Da wäre zum Beispiel Texturierleistung und ROP-Leistung und die Rasterizer Leistung.
AMD´s Chip war nicht so ausgewogen wie der von Nvidia, aber obs am Frontend liegt, keine Ahnung.

Zitat
Tahiti war wohl eher als "HighEnd" geplant. Mit ~30% über einer GTX 580 und in Summe guten 40-50% über einer HD6970 konnte man das auch anfangs so nutzen... Heute mit Hawaii als HighEnd Produkt und einer GK104 Konkurenz, die einfach viel mehr Mainstream für diesen Bereich ist, ist das eben nicht mehr optimal...
Das ganze ist dabei auch völlig wertungsfrei zu betrachten. Sieh doch nicht permanent in jeder Aussage irgendwelche Kritik an AMD...


Ich betrachte das wertungsfrei. Ich bin lediglich nicht deiner Meinung, dass der Chip dafür alles andere als optimal ist.
Weder sehe ich die Verteilung der Cu´s pro SE suboptimal, noch den Einsatz dieses Chips als Performancekarte.
Denn offenbar ist er ziemlich günstig zu produzieren, evtl. einen Ticken teurer wie der von Nvidia 294mm² vs 365mm².

Zitat fdsonne
Nach der Rohperformance von Tahiti müsste dieser fixer als GK104 sein und das nicht nur um ein paar Prozent, wie es die GHz Edition der Tahiti Modelle ist/war, weil man dort den Takt hochgeprügelt hat.


Bei gleichem Takt ist man auch in etwa 20% fixer.

Natürlich wäre ein Chip mit 256bit Interface für den Bereich aus Sicht der Marge besser.
Und ich vermute genau das wird Tonga werden. Vielleicht wird Tonga auch nur ~200 mm² groß im First Gate Prozess bei Globalfoundries.
#41
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2580
Zitat fdsonne;22477953
Ich habe dir mal die relevanten Teile markiert. Vielleicht wird dir jetzt auch klar, das da niemand von Fakten sprach.


Dein ganzer Kommentar soll ein einziger Fakt sein. Vielleicht verstehst du es nicht, aber ein Widerspruch gegen einen Kommentar, offeriert man nicht mit dem gleichen Wortlaut, sondern es müssen Argumente kommen, die diesen Sachverhalt widerlegen können.
Wenn ich schreibe, es sind nur Gerüchte, dann kann man nicht mit Gegenargumenten kommen, wo genau der selbe Wortlaut, in diesem Fall Gerüchte vorkommen. Ansonsten stimmst du mir nämlich zu !

Und ganz nebenbei. Wir sind hier nicht beim Puzzel, wo man sich die einzelnen Wörter aus seinem Kommentar herauspicken kann und zu einem neuen Mosaik verknüpft. :rolleyes:
Steh endlich mal zu deiner Aussage und verwinde dich anschließend wieder nicht in alle Richtungen.

Du schreibst von Womöglich ect. Also Gerüchte... Genau das was ich geschrieben habe.

Und ganz nebenbei. Was hast du damit zu tun ?
Ich hab auf einen Kommentar von jemand anderes geantwortet.
Zitat Mick_Foley;22474240
Was Pickebuh wohl zu diesem SI-Krüppel sagen würde...


Darauf habe ich geantwortet das es nur Gerüchte sind. Punkt.
Was du nun mit deinem Nonsens willst wird mir einfach nicht klar.
#42
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9445
Pickebuh... er hat doch nur gesagt was er für wahrscheinlicher hält, sonst nichts. Gerüchte sind ja auch dafür da um diskutiert zu werden!
#43
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat Pickebuh
Dein ganzer Kommentar soll ein einziger Fakt sein.


Also da verrennst du dich jetzt aber schon etwas. Wenn man hier nichtmal mehr über theoretische Entwicklungen reden kann, könnte ich hier jedem den Mund verbieten.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]