> > > > CES 2011: EVGA zeigt Dual-GPU-Eigenentwicklung

CES 2011: EVGA zeigt Dual-GPU-Eigenentwicklung

Veröffentlicht am: von

evgaNeben den üblichen Vertretern der GeForce-GTX-500-Serie präsentiert EVGA in einem Showroom auch ein bisher unbekanntes Modell. Viel will und kann EVGA dazu noch nicht sagen, allerdings konnte man uns sagen, dass es sich um eine Eigenentwicklung handelt und nicht um die bereits vielfach herbei beschworene Dual-GPU-Lösung der aktuellen GPU-Generation von NVIDIA. Da EVGA wie erwähnt noch nicht allzu viele Informationen preisgeben will, müssen die Bilder interpretiert werden.

EVGA_Dual_1

Durch Klick auf das Bild gelangt man zu eine vergrößerten Ansicht

Auf der Slotblende sind drei Dual-Link-DVI- und ein mini-HDMI-Ausgang zu sehen. Dies deutet auf das Vorhandensein von zwei GPUs hin, denn bisher konnte NVIDIA mit der aktuellen Fermi-Architektur immer nur zwei Displays pro GPU ansteuern. Drei Dual-Link-DVI-Ausgänge sind also ein deutlichen Anzeichen für die Möglichkeit mit einer Karte ein 3D-Vision-Surround-System bestehend aus drei Displays aufzubauen (Hardwareluxx-Artikel). Ein SLI-Anschluss erlaubt offensichtlich den Betrieb zwei solcher Karten.

EVGA_Dual_5

Durch Klick auf das Bild gelangt man zu eine vergrößerten Ansicht

Ein großes Problem in der Entwicklung aktueller Dual-GPU-Grafikkarten ist die Leistungsaufnahme. Bereits die aktuellen Single-GPU-Karten kommen auf einen teilweise enormen Verbrauch. Will man zwei GPUs einsetzen, stellt die Einhaltung bestimmter Spezifikationen eine große Hürde dar. Auf der nun von EVGA gezeigten Karten kommen gleich zwei zusätzliche 8-Pin-Stromanschlüsse zum Einsatz. Insgesamt erreicht die Karte also einen theoretischen Maximalverbrauch von 375 Watt. Diese Konfiguration haben wir auch bereits bei einen Overclocking-Karten gesehen, zuletzt bei der ASUS Radeon HD 6970 DirectCu.

EVGA_Dual_8

Durch Klick auf das Bild gelangt man zu eine vergrößerten Ansicht

Auf der Rückseite des PCBs sind acht Speicherchips K4G10325F aus dem Hause Samsung zu sehen. Mit jeweils 128 MB kommen wir hier also bereits auf 1024 MB. Auf beiden Seiten des PCBs steht die gleich Anzahl an Speicherchips zur Verfügung. Jeder GPU kommt somit auf 1024 MB. Dies bedeutet, dass auf jeder GF110-GPU vier der sechs möglichen Speicher-Controller und ROP Partition Units aktiviert sind. Es könnten also GF114-GPUs zum Einsatz kommen, wie sie für die GeForce GTX 560 vorgesehen sind.

Weitere Informationen sind derzeit noch nicht verfügbar. Ebenso unklar sind weiterhin Preis und der eigentliche Produktname. Verfügbar soll die Karte in 1-2 Monaten sein.

Für Anfang 2011 hat AMD die Antilles, eine Dual-GPU-Grafikkarte auf Basis der Cayman-GPUs angekündigt. Es bleibt also offen, ob uns ein neuer Performance-Zweikampf bevorsteht.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (12)

#3
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Drei weitere Bilder von der Karte:



Scheint wohl darauf hinaus zu laufen, dass hier 2 x GTX 560 (GF114) Verwendung finden (2x1GB; ich glaube nicht an eine asynchrone Verteilung auf dem PCB).
Das VRAM-Management hat man ja definitiv verbessern können (siehe GTX 460 768 MB -> der VRAM schickt auch noch oft in FullHD mit zumindest 4xAA
- teils hält man selbst noch in 8xAA gut im Vergleich zur 1GB-Version mit; HD-Texture Packs oder Games wie GTA IV @ Max. mal außen vorgelassen),
aber in extremeren Settings und Auflösungen (wo solche Karten eigentlich aufgrund der Rohleistung prädestiniert sind) dürfte es wohl (Anwendungsabhängig)
eng gegen eine HD 6990 mit 2x2GB werden.

Man spekuliert, dass die GTX 560 mit 820/1640/1000 MHz knapp hinter der HD 6950 liegen könnte.
Wird dann wohl ein Kopf-an-Kopf-Rennen mit Antilles - solange der VRAM nicht limitiert.
Die AMD Karte wird wohl im RV970 Vollausbau kommen, aber gesenkten Taktraten (etwa 775/1200 MHz) haben.
Aus Verbrauchsgründen wäre aber 2 x Cayman Pro besser - bei identischen Taktraten machen
die zusätzlichen Einheiten von Cayman XT auch nur 3 - 5% Performanceunterschied.


2 x GTX 570 wär mit Selektierung (Undervolting und gesenkten Taktraten) bestimmt auch möglich,
wenngleich aufwändiger (etwa bei der Kühlung) und mit höheren Herstellungskosten verbunden.

2 x GTX 580 ohne WaKü sicher nicht möglich, wenn auch sehr eindrucksvoll.
NV hat sich aber definitiv damit beschäftigt - siehe News: (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/17042-nvidia-geforce-gtx-590-gegen-amd-radeon-hd-6990.html). Jeweils 12 x 128 MB pro GPU.
Hier sieht man nochmal die Rückseite: http://4.bp.blogspot.com/_9vgJ1nwu_xA/TOfNirufZVI/AAAAAAAAE_8/EVFFT_FucXw/s640/20101120nv.jpg


P.S.: Eine GTX 570 im gleichen Design (2 Lüfter; zusätzlich noch 1 x DP) hat man auch präsentiert:




Quelle: EVGA offers a sneak peek at Nvidia's next dual-GPU monster - The Tech Report

MfG
Edge
#4
customavatars/avatar99554_1.gif
Registriert seit: 28.09.2008

Flottillenadmiral
Beiträge: 4832
Can I haz orgasmus? Saugeiles Teil... So min 2 davon in Quad SLI mit einem Verbrauch von 2000 Watt wäre geil :)

Zitat UHJJ36;16040894
...

Wenn schon 2 GTX580 bitte :fresse:
#5
Registriert seit: 25.09.2009

Hauptgefreiter
Beiträge: 201
Wenn man schon protzen will, dann doch bitte bei der CPU, dass ist auf der Stromrechnung einfach billiger! Ein 4Ghz i7 Hexacore braucht 200W, was diese Karte braucht muss ja nicht wiederholt werden.
mfg Verata
#6
customavatars/avatar99554_1.gif
Registriert seit: 28.09.2008

Flottillenadmiral
Beiträge: 4832
Wer das Geld für so eine Karte hat (Bzw. 2 :fresse:), dem ist die Stromrechnung wohl egal :D
#7
customavatars/avatar123789_1.gif
Registriert seit: 22.11.2009
NRW
Kapitänleutnant
Beiträge: 1979
Seltenhässliger Kühler, aber die Idee ist nice, auch wenn das Teil am Ende eh wieder zu Mondpreisen angeboten wird.
Der Kühler der GTX 570 Phantom von Gainward warin letzter Zeit echt der einzige bei dem ich sagen würde: \"Da würde es sich doch lohnen sich ein Case mit iATX und Topwindow anzuschaffen.\"

Gruß
Gruba
#8
customavatars/avatar15482_1.gif
Registriert seit: 22.11.2004
Berlin
Oberbootsmann
Beiträge: 919
Ich find ihn hübsch :)
#9
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 17277
Zitat iNfamous;16044779
Ich find ihn hübsch :)


ich genauso, der hat was def
#10
customavatars/avatar134260_1.gif
Registriert seit: 07.05.2010

Bootsmann
Beiträge: 733
Die Optik ist echt der Hammer !! endlich mal nicht so eine beschissene Prolloptik.
Die Leistung ist bestimmt auch nicht schlecht :)
#11
customavatars/avatar120426_1.gif
Registriert seit: 26.09.2009
Vienna
Korvettenkapitän
Beiträge: 2320
Ich glaube, den Wunsch von dem Baby um ~500€ kann man sich abschminken oder? :\\

unter 700 befürchte ich, wird da nicht viel gehen..
#12
Registriert seit: 01.04.2009

Obergefreiter
Beiträge: 88
Dass hängt ganz davon ab was da drauf verbaut ist.

Sofern das zwei GTX 560 sind ist ein Preis um die 500 oder darunter realistisch.
Für 700 bekommt man ja auch zwei GTX 570 die dann leistungstechnisch wieder besser wären.

Einfach mal abwarten. Kann auch gut sein, dass so eine Konfiguration von anderen Herstellenr ebenfalls angeboten wird.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]