> > > > Mutmaßliche Spezifikationen der Radeon HD 7800er-Reihe scheinen sich zu bestätigen

Mutmaßliche Spezifikationen der Radeon HD 7800er-Reihe scheinen sich zu bestätigen

Veröffentlicht am: von

AMDNoch im vergangenen Jahr konnten wir ausführlich über die mutmaßlichen Spezifikationen von diversen Modellen der Radeon HD 7000er-Serie berichten. Darunter waren auch die Kenndaten der für März erwarteten Modelle Radeon HD 7870 und 7850, die beide auf der Pitcairn-GPU basieren. Eine aktuelle Meldung von expreview.com scheint diese Spezifikationen jetzt erneut zu bestätigen.

Demnach sollen sowohl die Radeon HD 7870 ("Pitcairn XT") als auch die Radeon HD 7850 ("Pitcairn Pro") ein 256-Bit-Speicherinterface bieten. Davon abgesehen unterscheiden sich beide GPUs deutlich. Pitcairn XT bietet 1408 Stream-Prozessoren, 88 TMUs und 24 ROPs. Es soll vorerst ausschließlich Modelle mit 2 GB Speicher geben. Bei den Taktraten werden 950 MHz für die GPU und 1375 MHz für den Speicher erwartet.

Die Pitcairn Pro-GPU der HD 7850 soll hingegen auf 1208 Stream-Prozessoren, 80 TMUs und 24 ROPs kommen. Es werden sowohl Modelle mit 1 als auch mit 2 GB Speicher erwartet. Die Taktraten sind etwas niedriger als bei der HD 7870 angesetzt. Die GPU taktet mutmaßlich mit 900 und der Speicher mit 1250 MHz.

Nicht nur diese Spezifikationen decken sich mit den Daten, die bereits im Dezember vorlagen - auch an der Preisgestaltung hat sich nichts getan. Für die Radeon 7870 sollen demnach 299 Dollar fällig werden, die HD 7850 kostet hingegen angeblich 249 Dollar in der 2 GB- und 219 Dollar in der 1 GB-Variante. Abgesehen von der HD 7870 und der HD 7850 ist auch immernoch von einer HD 7890 die Rede. Diese Grafikkarte basiert nicht auf der Pitcairn-GPU, sondern auf einer beschnittenen Tahiti-GPU ("Tahiti LE"). Sie ist also eher mit HD 7970 und 7950 verwandt und sollte logischerweise also eigentlich als HD 7930 bezeichnet werden.

Es ist nicht ganz klar, ob expreview.com diese Daten wirklich aus einer neuen Quelle schöpft oder nicht doch von der gleichen Quelle bezieht, aus der schon im vergangenen Dezember Informationen zur HD 7800er-Reihe bekannt wurden. Spätestens zum nahenden Launch dieser Grafikkarten wird sich aber ohnehin klären, wie verlässlich die Angaben sind. Nach letztem Stand (wir berichteten) ist bereits in der ersten Märzhälfte mit der HD 7870 und der HD 7850 zu rechnen.

 

 

Social Links

Kommentare (6)

#1
customavatars/avatar117617_1.gif
Registriert seit: 03.08.2009
Hallein im wunderschönen Salzburg
Kapitän zur See
Beiträge: 3153
Wenn die HD 7870 als 6Pin ruaskommt, bin ich dabei.

Extra neues NT hab ich keiene lust drauf.
die HD 5770 reicht mir erstaunlich lange.
#2
customavatars/avatar46160_1.gif
Registriert seit: 29.08.2006
Bad Bentheim
Kapitän zur See
Beiträge: 3115
Mhm, sie entsprechen damit ja HD6950 und der hier nicht erhältlichen HD6930 mit höheren Taktraten für GPU und im Fall der HD7870 auch deutlich höherem Speichertakt.

Eigtl fasse ich die HD7870 als möglichen Kandidaten für das erste Upgrade nach langer Zeit ins Auge (natürlich wird die Kepler-Konkurrenz noch abgewartet), evtl aber auch die HD7890, so sie denn frühzeitig erscheint.

Die HD3830, HD4830, HD5830 und HD6930 sind ja immer erst gegen Ende des Produktzuyklus erschienen, wurden von den Herstellern meist nur sträflich behandelt (HD4830) oder waren aus irgendeinem Grund unattraktiv (HD5830 mit dem Verbrauch der HD5870, aber den ROPs der HD5770) und erstere und letztere waren hierzulande garnicht verfügbar.

Irgendwie klafft da aber preislich und Leistungsmäßig eine grosse Lücke zwischen HD7850 1GB mit 219$ und HD7770 149$ (Cape Verde XT hat dann genau halb so viele Shader und Textureinheiten wie Pitcairn Pro, aber 2/3 der ROPs) - Genau der Leistungsbereich von HD6850 und HD6870.
Da muss wohl noch eine HD7790 oder HD7830 auf Pitcairn-Basis hin, in der Gerüchteküche war mal von einer HD7790 mit 1152 Shadern, 72 Textureinheiten und weiterhin 24 ROPs die Rede.
#3
customavatars/avatar91057_1.gif
Registriert seit: 07.05.2008
hinter den 7 Bergen
Oberleutnant zur See
Beiträge: 1431
im grunde würde mir auch die 7850 mit 2GB reichen, damit hat man genug power für 1080er auflösung und allen details. 1x6pin wäre in der tat super, will mein NT von 2007 weiter behalten
#4
Registriert seit: 01.06.2009

Korvettenkapitän
Beiträge: 2494
Nun bei Ati ist dann wohl erstmal kein Kandidat bei der meine GTX570 ablösen könnte .
Entweder sind sie vom Verbrauch unter last ähnlich hoch oder von der leistung wohl eher ein downgrade .
Habe mir mehr vom 28nm Verfahren versprochen aber mal sehen was es Ende des Jahres alles gibt .
Da mir die Leistung einer GTX 570 eigentlich ausreicht um World of Tanks zu spielen würde ich halt gerne den Verbrauch und die Lautstärke ein wenig senken aber das ganze wird wohl erstmal zu Kostspielig sein .
#5
customavatars/avatar91057_1.gif
Registriert seit: 07.05.2008
hinter den 7 Bergen
Oberleutnant zur See
Beiträge: 1431
hä? Verbrauch is doch wohl der fette pluspunkt bei den GCNs oder? Sinddoch idle und load perfekt.

aber extra dafür eine neue Karte kaufen, nur dass du dann 20W weniger brauchst, die Rechnung wird nicht aufgehn.
#6
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat Megamiac;18426378
Nun bei Ati ist dann wohl erstmal kein Kandidat bei der meine GTX570 ablösen könnte .
Entweder sind sie vom Verbrauch unter last ähnlich hoch oder von der leistung wohl eher ein downgrade .

Bitte? Eine HD 7950 ist etwa 40-50 W sparsamer und trotzdem noch etwa 20% schneller. Von ähnlicher Leistungsaufnahme oder gar Performance Downgrade kann da nun wirklich keine Rede sein.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]