> > > > AMD Radeon HD 6000: Neues Dokument sorgt für Verwirrung

AMD Radeon HD 6000: Neues Dokument sorgt für Verwirrung

Veröffentlicht am: von

amd_radeon_neuEs vergeht kaum ein Tag, an dem keine weiteren Informationshäppchen zur kommenden Grafikkarten-Generation von AMD ans Tageslicht gelangen. Während man bislang davon ausgehen konnte, dass unter dem Codenamen "Caymen" die High-End-Modelle der AMD-Radeon-HD-6000-Familie erscheinen werden und "Barts" hingegen die langsameren-Ableger darstellt, könnte es nun ganz anders kommen. In einem PDF-Dokument, welches jetzt im Forum von Chiphell.com auftauchte, wird verraten, dass die AMD Radeon HD 6870 und Radeon HD 6850 auf den "BartsXT"- bzw. "BartsPro"-Chip aufbauen sollen. Zieht man die Gerüchte der letzten Tage zum Vergleich heran, so kann "BartsXT" in seiner Vollbestückung auf insgesamt 1280 (320 4D) Streamprozessoren, 64 Textureinheiten und 32 Rasterendstufen zurückgreifen. Zusammen mit Taktraten von 900 respektive 1050 MHz für den 1024 MB großen GDDR5-Videospeicher, welcher weiterhin über 256 Datenleitungen kommunizieren soll, würde es eine AMD Radeon HD 6870 auf eine arithmetische Rohleistung von maximal 2.304 TFlops bringen. Der ältere "CypressXT"-Chip - besser bekannt als ATI Radeon HD 5870 - bringt es dabei allerdings schon 2.720 TFlops.

Würde man von diesem Leistungsrückschritt allerdings absehen, so stellt sich die Frage, was dann mit "Caymen" und "Antilles" passieren würde. Sicherlich könnte "Caymen" Karten der AMD-Radeon-HD-6900-Reihe umfassen, was wäre aber dann mit den Dual-GPU-Modellen, welche eigentlich unter dieser Produktbezeichnung laufen? Was passiert mit "Antilles"? Eine AMD Radeon HD 6890 oder gar AMD Radeon HD 6990 fallen ebenfalls aus, da die Grafikschmiede bislang immer auf Kürzel wie 30, 50 und 70 vertraute. Die letzten Worte sind dabei also noch längst nicht gesprochen.

chiphell_amd_radeon_hd6000_pdf_dokument-02

Viel erfreulicher ist aber die Tatsache, dass das PDF-Dokument weitere Features der kommenden Generation nennt. Demnach unterstützen die neuen Modelle nicht nur ATI Eyefinity, sondern sogar auch ATI EyeSpeed. Was sich dahinter allerdings verbirgt, ist noch nicht bekannt. Auch einen 3DVision-Gegner wir es mit AMD HD3D endlich geben – die genaueren Informationen hierzu folgen leider etwas später. Zu guter Letzt wird man auch UVD3 unterstützen. Obwohl die Gerüchte in den letzten Wochen durchaus vielversprechend aussahen, kann man noch längst nicht von ihrer Richtigkeit ausgehen. Tatsache ist aber, dass die AMD-Radeon-HD-6000-Familie demnächst vorgestellt werden wird.

Wir sind weiter gespannt und halten Sie auf dem Laufenden!

Weiterführende Links:

Social Links

Kommentare (34)

#25
customavatars/avatar18351_1.gif
Registriert seit: 23.01.2005
Leer (Ostfriesland)
Flottillenadmiral
Beiträge: 4629
Diese Spekulationen aus dem Netz traue ich überhaupt nicht.
Ich warte lieber vernünftige Benches ab und dann treffe ich eine entscheidung.
#26
customavatars/avatar47409_1.gif
Registriert seit: 17.09.2006
Espelkamp
Banned
Beiträge: 13964
Dito.
#27
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34161
Zitat Long John;15456750
Es würde also durchaus Sinn machen, die beiden Chips (Bart und Cayman) etwas näher aneinander zu positionieren. 1/2 der Cayman Shader ist zu wenig, aber mit 2/3 würde Bart deutlich näher kommen und dennoch immer noch genug Abstand besitzen, um den größeren Bruder nicht gleich groß zu bedrängen.

Mein Tipp deshalb:
Cayman mit 480 4D Shader und Bart mit 320.


Bedenke aber, wenn man den Barts näher am Cayman hätte, als jetzt der Juniper am Cypress so schießt man vllt halbwegs elegannt eine Lücke oben, reißt aber unten eine neu auf ;) Will man die Stafflung enger gestalten, so brauch man unten für das größere Loch dann noch nen weiteren Chip.

So wie bei den RV870er Karten geht das aber auch, die HD5870 im Vollausbau. Die HD5850 minimal teildeaktivert. Und die HD5830 als stark teildeaktivierte Karte um die Lücke zu füllen... Je nach Ausbeute bei TSMC dürften sich fürs Teildeaktivieren durchaus einige GPUs anbieten ;)
#28
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Fregattenkapitän
Beiträge: 2577
Ja aber wieso macht AMD das? Ich meine Wäre es nicht viel Beeindruckender Barts als Midrange auch zu labeln? Cayman ist ja immernoch die oberklasse (an die zeit der HD38/48 zurückerinner) und naja man würde mit einer 6770 dem Kunden zeigen. guck mal dieses geile Mittelklasse Produkt an. eine Wiedereinführung der 9er Nummern reihe halte ich selber für Kundenunfreundlich. Für mich klang es auich besser das eine 6770 soschnell wie eine 5830 der alten Serie ist.. so hat das alles nen sehr faden beigeschmack

nichts desto trotz, kommt da wohl nen gutes Produkt auf uns zu. Nun muss nur noch der Preis stimmen
#29
customavatars/avatar39992_1.gif
Registriert seit: 11.05.2006

Oberbootsmann
Beiträge: 812
Zitat fdsonne;15458764
Bedenke aber, wenn man den Barts näher am Cayman hätte, als jetzt der Juniper am Cypress so schießt man vllt halbwegs elegannt eine Lücke oben, reißt aber unten eine neu auf ;) Will man die Stafflung enger gestalten, so brauch man unten für das größere Loch dann noch nen weiteren Chip.

Aber wenn man alle GPUs leistungsmäßig etwas weiter nach oben verschiebt, bleibt diese Lücke aus. Man hat dann zwar ein "Loch" ganz unten, aber gerade dort siedeln sich ja die neuen in der CPU integrierten GPUs ein. Diese sollen zwar erst in einigen Monaten so richtig in Fahrt kommen, aber um eine neue GPU-Generation nach unten zu vervollständigen braucht es ebenfalls seine Zeit, siehe ja auch die immer noch nicht verfügbare GT 430.

Zitat fdsonne;15458764
So wie bei den RV870er Karten geht das aber auch, die HD5870 im Vollausbau. Die HD5850 minimal teildeaktivert. Und die HD5830 als stark teildeaktivierte Karte um die Lücke zu füllen... Je nach Ausbeute bei TSMC dürften sich fürs Teildeaktivieren durchaus einige GPUs anbieten ;)

Und wie man bei der 5830 gesehen hat, hat diese Lösung nicht wirklich zufriedenstellend funktioniert.
"Kaputte" Chips muss man aber auch so nicht gleich wegwerfen, man macht einfacht weiter, was man es schon seit den 3000/4000 getan hat: Diese sehr stark beschnittenen Chips werden auf dem asiatischen Markt "entsorgt". So wie man es zur Zeit ja auch mit den verkrüppelten Junipers macht und diese dort in den "spezial" 5650ern verwurstet.
#30
Registriert seit: 01.01.1970


Beiträge:
Zitat Khorne;15456649
Das würde Nvidia definitiv zu knabbern geben. Selbst wenn die ihren Chip nochmal mit 32nm und mehr Shadern aufblasen, hat man eine warme und laute Karte. Wie schon seit der GTX280, nur wohl nochmal schlimmer.

Imo ist die 2. Variante, 320 4D, wahrscheinlicher. Denn dann hat man einen Refresh, der mit Nvidias GTX480 mithalten kann. Cayman kommt ja wohl erst nächstes Jahr in die Läden. Vielleicht kommt Cayman dann auch einfach als DualGPU, dann passt die Namensgebung auch wieder. So wie bei der 3870. Midrange für 200€, High End nur als Dual GPU.



du hattes mit sicherheit nie eine hd 4890 in betrieb. da du ja so auf der gtx 280 rum hackst.
#31
customavatars/avatar31874_1.gif
Registriert seit: 22.12.2005

Admiral
Quietsche-Entchen
Beiträge: 13626
Zitat marcusT;15469308
du hattes mit sicherheit nie eine hd 4890 in betrieb. da du ja so auf der gtx 280 rum hackst.


Ich hatte eine 4870. Eigentlich zwei. Palit Sonic, Powercolor PCS. Zwei 260er, eine 280er (u.a.). Also zu viele :eek:

Der Punkt ist aber: Bei einer 4870 und 4890 gab es leisere Alternativen zum Referenzdesign, und zwar für Luftkühlung. Bei der 280er ist das nicht der Fall gewesen, bei der 480er zwar möglich mit der Zotac Amp, aber schweineteuer und zwar leise, aber nicht silent. Natürlich gab/gibt es für GTX280 und auch 480 Alternativkühler, aber das sind dann richtige Monster und blockieren ua SATA Ports - mal abgesehen von ihrem enormen Gewicht.

Und schlußendlich ist dein Beitrag absolut nicht zum Thema passend. Ich schreib, dass Nvidia seit der 280er Chips munter aufbläst, damit aber keine leisen Karten mehr erzeugen kann - wegen dem Stromverbrauch. Das ATI mit der 4890 im Refdesign nicht umbedingt besser war, ist eher irrelevant: Die aktuellen Karten gehen in eine andere Richtung. Aber hautpsche ne Fanboyflame vom Stapel lassen :hmm:
#32
Registriert seit: 28.02.2011

Matrose
Beiträge: 0
Ich sehe es ganz im Widerspruch zum Autor. Es wird eine ATI6890 geben, genauso wie es eine ATI2890/3890/4890 gab. Die 5er Serie bot einfach keinen Platz für eine ATI 5890 die 6er Serie hingegen schon!
#33
customavatars/avatar117617_1.gif
Registriert seit: 03.08.2009
Hallein im wunderschönen Salzburg
Kapitän zur See
Beiträge: 3153
Leichenschänder!

Der Thred ist alt wie mein 1. Auto.....
#34
Registriert seit: 24.07.2009

Banned
Beiträge: 7211
:lol:
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]