> > > > PowerColor entwickelt Radeon HD 6870 X2

PowerColor entwickelt Radeon HD 6870 X2

Veröffentlicht am: von

AMDAMDs aktuelles Flaggschiff, die Radeon HD 6990, ist eine Dual-GPU-Grafikkarte auf Basis von zwei Cayman XT-GPUs - also der GPU, die bei der Radeon HD 6970 zum Einsatz kommt. Dieses Top-Modell ist mit einem Preis von über 500 Euro allerdings für viele unerschwinglich. PowerColor springt in die Bresche und möchte bald eine günstigere Dual-GPU-Grafikkarte anbieten.

Dazu greift das Unternehmen auf zwei Barts-GPUs zurück, die ansonsten beim Mainstream-Produkt Radeon HD 6870 eingesetzt werden. Pro GPU gibt es jeweils 1 GB GDDR5-Speicher. Zu Stromversorgung dienen zwei 8-Pin-Anschlüsse. Die Taktraten sind noch nicht bekannt, PowerColor könnte das aber im Rahmen der Computex ändern.

Die Radeon HD 6870 ist eine leistungsstarke Midrange-Karte. Schafft PowerColor es, den Preis der "Radeon HD 6870 X2" in etwa auf dem Level von zwei HD 6870 zu halten, könnte diese "Radeon HD 6870 X2" eine interessante Dual-GPU-Alternative werden - die auch angedachten Dual-GPU-Karten auf Basis von NVIDIAs GF114 zu schaffen machen dürfte.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (25)

#16
customavatars/avatar94909_1.gif
Registriert seit: 14.07.2008

Admiral
Beiträge: 19157
Jo sag ich ja,kann man vernachlässigen finde ich.
#17
customavatars/avatar45212_1.gif
Registriert seit: 17.08.2006
Wien
Banned
Beiträge: 4193
Wenn die Karte 250 - 280€ kostet und der Verbrauch auch im Rahmen liegt, dann wird die Karte schon einige Anhänger finden.
Die hat Mehrleistung als eine 580 und sollte weniger brauchen. Zumindest mein 6870 CF hat weniger gebraucht als meine 570 Phantom.
#18
Registriert seit: 04.09.2007

Kapitänleutnant
Beiträge: 1882
Ich finde eine solche Dualkarte wesentlich interessanter und vorallem angebrachter,
als ein Monster alá GTX 590 bzw. 6990, welche kaum in den Griff zu bekommen sind in
Sachen Stromverbrauch oder Kühlung.
Aber ich bin ja auch kein Highend User ;).
#19
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Nähe Köln/Bonn
Admiral
Beiträge: 9197
Zitat Whitecker007;16778581
Wobei sich der Unterschied zwischen 16x und 8x doch in Grenzen halten soll,gibts dazu iwo ein Test?


Ich selber habe ab 4x pcie zu 16x pcie mit mittelklasse cf nix an einbußen gespürt, dann sollten 8x auch völlig ausreichen, der unterschied zwischen 4x und 16x ist bei alles Games im Schnitt 1-2fps gewesen, das doch total latte oder nciht? bei 20fps kann ichs verstehen aber bei 1-2? .... wgn 2fps nen 200€ Mobo anschaffen weils 2x 16x pcie hat? so kommen die Hersteller auch an euer Geld :p^^

Gerade bei Intel greifen so viele wgn SLI zum 1366er statt zum1155er obwohl die Leistung des 8x oder 4x angebunden Slots ausreichen würde....

Eagleone19
#20
customavatars/avatar45212_1.gif
Registriert seit: 17.08.2006
Wien
Banned
Beiträge: 4193
Naja

Bei 16 und 4 Anbindung kann es vorkommen das man die Mikroruckler eher spürt als bei einer 8 und 8 oder 16 und 16 Anbindung.
#21
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18795
Wer die Wahl hat und jetzt noch nen 1366er kauft ist selbst schuld.
#22
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Nähe Köln/Bonn
Admiral
Beiträge: 9197
Ok entwerder sehe ich die nicht oder die sind bei mir nicht da gewesen^^

Ich selber würde auch immer min 8x nehmen ^^ Nur hatte ich die Gelegenheit bei einem Identischen System das zu testen, wo eben nur mit 4x angebunden war und es gab wie gesagt als maximum 2fps Unterschied in den test´s.

Eagle[COLOR="red"]

---------- Beitrag hinzugefügt um 13:53 ---------- Vorheriger Beitrag war um 13:51 ----------

[/COLOR]
Zitat UHJJ36;16778977
Wer die Wahl hat und jetzt noch nen 1366er kauft ist selbst schuld.


Darum ging es doch garnicht?O.O Sondern darum das sich die leute vor 1nem Jahr ,die SLI fahren wollten, für den deutlich teureren Sockel 1366 entschieden haben weils da 2x 16x PCie gibt... Was aber nicht nötig ist zwischen 16x und 8x wird mann in der Praxis nix spüren können, messen vll. aber nix spüren;)


Eagle
#23
customavatars/avatar45212_1.gif
Registriert seit: 17.08.2006
Wien
Banned
Beiträge: 4193
Bei DiRT2 ist mir damals das "geruckel" aufgefallen, muss aber jetzt nichts heißen. Ist schon eine Zeit lang her und die 6000er Serie ist für CrossFire wirklich gut.

Ich selber habe mit den beiden 6870 und 6950 Karten fast keine MR bemerkt, außer man drückt die FPS auf unter 30.
#24
Registriert seit: 04.09.2007

Kapitänleutnant
Beiträge: 1882
Zitat RoughNeck;16779110
Bei DiRT2 ist mir damals das "geruckel" aufgefallen, muss aber jetzt nichts heißen. Ist schon eine Zeit lang her und die 6000er Serie ist für CrossFire wirklich gut.

Ich selber habe mit den beiden 6870 und 6950 Karten fast keine MR bemerkt, außer man drückt die FPS auf unter 30.


Und bei unter 30 FPS ist das denke ich sowieso Wurscht ;).
#25
customavatars/avatar17354_1.gif
Registriert seit: 05.01.2005
Nähe Köln/Bonn
Admiral
Beiträge: 9197
Zitat RoughNeck;16779110
Bei DiRT2 ist mir damals das "geruckel" aufgefallen, muss aber jetzt nichts heißen. Ist schon eine Zeit lang her und die 6000er Serie ist für CrossFire wirklich gut.

Ich selber habe mit den beiden 6870 und 6950 Karten fast keine MR bemerkt, außer man drückt die FPS auf unter 30.


Zitat retarded;16779139
Und bei unter 30 FPS ist das denke ich sowieso Wurscht ;).


Dirt2 habe ich nicht, kann dazu leider nix sagen. Das mit den 30FPS stimmt einzigen Games die unter 30 fps iwi akzeptabel laufen[ sindCrysis1 und div. Strategie]. Aber ab unter 30 FPS ist es auch mit einer singel Karte schon nichtmehr schön spielbar, wie schon erwähnt.

Und ja ich bin auch der Meinung das die HD6800er Serie sich hervorragend für CF eignet, da super günstig und Sparsam. Mann bekommt für rund 250€ und 2x6870 etwas mehr Power als eine einzelne GTX580 bietet und bleibt unter *Game* Last, nicht *Furmark*;), im Bereich um die 200-245W Verbrauch bei 2Karten! Das finde ich Zukunfstweisend.

Eagle
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]