> > > > CES 2011: EVGA zeigt Dual-GPU-Eigenentwicklung

CES 2011: EVGA zeigt Dual-GPU-Eigenentwicklung

Veröffentlicht am: von

evgaNeben den üblichen Vertretern der GeForce-GTX-500-Serie präsentiert EVGA in einem Showroom auch ein bisher unbekanntes Modell. Viel will und kann EVGA dazu noch nicht sagen, allerdings konnte man uns sagen, dass es sich um eine Eigenentwicklung handelt und nicht um die bereits vielfach herbei beschworene Dual-GPU-Lösung der aktuellen GPU-Generation von NVIDIA. Da EVGA wie erwähnt noch nicht allzu viele Informationen preisgeben will, müssen die Bilder interpretiert werden.

EVGA_Dual_1

Durch Klick auf das Bild gelangt man zu eine vergrößerten Ansicht

Auf der Slotblende sind drei Dual-Link-DVI- und ein mini-HDMI-Ausgang zu sehen. Dies deutet auf das Vorhandensein von zwei GPUs hin, denn bisher konnte NVIDIA mit der aktuellen Fermi-Architektur immer nur zwei Displays pro GPU ansteuern. Drei Dual-Link-DVI-Ausgänge sind also ein deutlichen Anzeichen für die Möglichkeit mit einer Karte ein 3D-Vision-Surround-System bestehend aus drei Displays aufzubauen (Hardwareluxx-Artikel). Ein SLI-Anschluss erlaubt offensichtlich den Betrieb zwei solcher Karten.

EVGA_Dual_5

Durch Klick auf das Bild gelangt man zu eine vergrößerten Ansicht

Ein großes Problem in der Entwicklung aktueller Dual-GPU-Grafikkarten ist die Leistungsaufnahme. Bereits die aktuellen Single-GPU-Karten kommen auf einen teilweise enormen Verbrauch. Will man zwei GPUs einsetzen, stellt die Einhaltung bestimmter Spezifikationen eine große Hürde dar. Auf der nun von EVGA gezeigten Karten kommen gleich zwei zusätzliche 8-Pin-Stromanschlüsse zum Einsatz. Insgesamt erreicht die Karte also einen theoretischen Maximalverbrauch von 375 Watt. Diese Konfiguration haben wir auch bereits bei einen Overclocking-Karten gesehen, zuletzt bei der ASUS Radeon HD 6970 DirectCu.

EVGA_Dual_8

Durch Klick auf das Bild gelangt man zu eine vergrößerten Ansicht

Auf der Rückseite des PCBs sind acht Speicherchips K4G10325F aus dem Hause Samsung zu sehen. Mit jeweils 128 MB kommen wir hier also bereits auf 1024 MB. Auf beiden Seiten des PCBs steht die gleich Anzahl an Speicherchips zur Verfügung. Jeder GPU kommt somit auf 1024 MB. Dies bedeutet, dass auf jeder GF110-GPU vier der sechs möglichen Speicher-Controller und ROP Partition Units aktiviert sind. Es könnten also GF114-GPUs zum Einsatz kommen, wie sie für die GeForce GTX 560 vorgesehen sind.

Weitere Informationen sind derzeit noch nicht verfügbar. Ebenso unklar sind weiterhin Preis und der eigentliche Produktname. Verfügbar soll die Karte in 1-2 Monaten sein.

Für Anfang 2011 hat AMD die Antilles, eine Dual-GPU-Grafikkarte auf Basis der Cayman-GPUs angekündigt. Es bleibt also offen, ob uns ein neuer Performance-Zweikampf bevorsteht.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (12)

#3
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Vizeadmiral
Beiträge: 7081
Drei weitere Bilder von der Karte:



Scheint wohl darauf hinaus zu laufen, dass hier 2 x GTX 560 (GF114) Verwendung finden (2x1GB; ich glaube nicht an eine asynchrone Verteilung auf dem PCB).
Das VRAM-Management hat man ja definitiv verbessern können (siehe GTX 460 768 MB -> der VRAM schickt auch noch oft in FullHD mit zumindest 4xAA
- teils hält man selbst noch in 8xAA gut im Vergleich zur 1GB-Version mit; HD-Texture Packs oder Games wie GTA IV @ Max. mal außen vorgelassen),
aber in extremeren Settings und Auflösungen (wo solche Karten eigentlich aufgrund der Rohleistung prädestiniert sind) dürfte es wohl (Anwendungsabhängig)
eng gegen eine HD 6990 mit 2x2GB werden.

Man spekuliert, dass die GTX 560 mit 820/1640/1000 MHz knapp hinter der HD 6950 liegen könnte.
Wird dann wohl ein Kopf-an-Kopf-Rennen mit Antilles - solange der VRAM nicht limitiert.
Die AMD Karte wird wohl im RV970 Vollausbau kommen, aber gesenkten Taktraten (etwa 775/1200 MHz) haben.
Aus Verbrauchsgründen wäre aber 2 x Cayman Pro besser - bei identischen Taktraten machen
die zusätzlichen Einheiten von Cayman XT auch nur 3 - 5% Performanceunterschied.


2 x GTX 570 wär mit Selektierung (Undervolting und gesenkten Taktraten) bestimmt auch möglich,
wenngleich aufwändiger (etwa bei der Kühlung) und mit höheren Herstellungskosten verbunden.

2 x GTX 580 ohne WaKü sicher nicht möglich, wenn auch sehr eindrucksvoll.
NV hat sich aber definitiv damit beschäftigt - siehe News: (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/17042-nvidia-geforce-gtx-590-gegen-amd-radeon-hd-6990.html). Jeweils 12 x 128 MB pro GPU.
Hier sieht man nochmal die Rückseite: http://4.bp.blogspot.com/_9vgJ1nwu_xA/TOfNirufZVI/AAAAAAAAE_8/EVFFT_FucXw/s640/20101120nv.jpg


P.S.: Eine GTX 570 im gleichen Design (2 Lüfter; zusätzlich noch 1 x DP) hat man auch präsentiert:




Quelle: EVGA offers a sneak peek at Nvidia's next dual-GPU monster - The Tech Report

MfG
Edge
#4
customavatars/avatar99554_1.gif
Registriert seit: 28.09.2008

Flottillenadmiral
Beiträge: 5002
Can I haz orgasmus? Saugeiles Teil... So min 2 davon in Quad SLI mit einem Verbrauch von 2000 Watt wäre geil :)

Zitat UHJJ36;16040894
...

Wenn schon 2 GTX580 bitte :fresse:
#5
Registriert seit: 25.09.2009

Hauptgefreiter
Beiträge: 201
Wenn man schon protzen will, dann doch bitte bei der CPU, dass ist auf der Stromrechnung einfach billiger! Ein 4Ghz i7 Hexacore braucht 200W, was diese Karte braucht muss ja nicht wiederholt werden.
mfg Verata
#6
customavatars/avatar99554_1.gif
Registriert seit: 28.09.2008

Flottillenadmiral
Beiträge: 5002
Wer das Geld für so eine Karte hat (Bzw. 2 :fresse:), dem ist die Stromrechnung wohl egal :D
#7
customavatars/avatar123789_1.gif
Registriert seit: 22.11.2009
NRW
Kapitänleutnant
Beiträge: 1955
Seltenhässliger Kühler, aber die Idee ist nice, auch wenn das Teil am Ende eh wieder zu Mondpreisen angeboten wird.
Der Kühler der GTX 570 Phantom von Gainward warin letzter Zeit echt der einzige bei dem ich sagen würde: \"Da würde es sich doch lohnen sich ein Case mit iATX und Topwindow anzuschaffen.\"

Gruß
Gruba
#8
customavatars/avatar15482_1.gif
Registriert seit: 22.11.2004
Berlin
Oberbootsmann
Beiträge: 919
Ich find ihn hübsch :)
#9
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 18828
Zitat iNfamous;16044779
Ich find ihn hübsch :)


ich genauso, der hat was def
#10
customavatars/avatar134260_1.gif
Registriert seit: 07.05.2010

Bootsmann
Beiträge: 738
Die Optik ist echt der Hammer !! endlich mal nicht so eine beschissene Prolloptik.
Die Leistung ist bestimmt auch nicht schlecht :)
#11
customavatars/avatar120426_1.gif
Registriert seit: 26.09.2009
Vienna
Korvettenkapitän
Beiträge: 2344
Ich glaube, den Wunsch von dem Baby um ~500€ kann man sich abschminken oder? :\\

unter 700 befürchte ich, wird da nicht viel gehen..
#12
Registriert seit: 01.04.2009

Obergefreiter
Beiträge: 88
Dass hängt ganz davon ab was da drauf verbaut ist.

Sofern das zwei GTX 560 sind ist ein Preis um die 500 oder darunter realistisch.
Für 700 bekommt man ja auch zwei GTX 570 die dann leistungstechnisch wieder besser wären.

Einfach mal abwarten. Kann auch gut sein, dass so eine Konfiguration von anderen Herstellenr ebenfalls angeboten wird.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]