> > > > Dual X1650XT Grafikkarte von GeCube

Dual X1650XT Grafikkarte von GeCube

Veröffentlicht am: von
[url=http://www.gecube.com]GeCube[/url] hat mit der Star Twin 2 eine [url=http://ati.amd.com/de/]ATI[/url]-Grafikkarte mit zwei RV560 GPUs auf einem Printed Cirquit Board (PCB) angekündigt. Der Aufbau ähnelt dabei der [url=http://www.nvidia.de]NVIDIA[/url] Geforce 7950X2 Dual-GPU-Lösung. Jede X1650XT GPU kann auf 24 Pixel Shader und 8 Pixel Pipelines zurückgreifen. Obwohl GeCube keine Angaben zu den Taktraten der Grafikprozessoren sowie des Speichers macht, kann davon ausgegangen werden, dass sich diese an denen einer Single-GPU Radeon X1650XT orientieren werden. Die Referenzwerte des 80 nm Prozessors liegen hier bei 575 MHz an der GPU und 675 MHz am 128 Bit Speichercontroller. Durch die Verwendung von DMS59 (der Steckverbindung von ATIs CrossFire-Technik) verfügt die Karte über vier DVI-Ausgänge. Aufgrund der HDCP-Kompatibilität ist die Karte zur Widergabe von Blu-ray- und HD DVD-Filmen geeignet. Als Kühlsystem soll die Tornado-Kühlung der GeCube X1950Pro zum Einsatz kommen.
Bisher wurde die Grafikkarte lediglich für den taiwanesischen Markt angekündigt. Ein Listenpreis konnte von GeCube bisher noch nicht genannt werden.Weitere Details können unter [url=http://translate.google.com/translate?u=http%3A%2F%2Fwww.gecube.com%2Fpress-release-detail.php%3Fid%3D63961%26lang%3Dtw&langpair=zh-CN%7Cen&hl=en&ie=UTF8]diesem Link[/url] der Herstellerseite entnommen werden.


Abbildung: Kühlsystem der GeCube X1950Pro



Social Links

Tags

es liegen noch keine Tags vor.

Zu diesem Artikel gibt es keinen Forumeintrag

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]