> > > > ASUS MARS II kommt - Dual GTX 480

ASUS MARS II kommt - Dual GTX 480

Veröffentlicht am: von

asusMit der limitierten "MARS"-Grafikkarte brachte ASUS im vergangenen Jahr eine Luxus-Grafikkarte für Über-Enthusiasten auf den Markt. Die Dual-GPU-Grafikkarte setzte auf zwei GeForce GTX 285-Chips und blieb für einige Zeit die schnellste NVIDIA-Grafikkarte. Mittlerweile hat das kalifornische Unternehmen mit dem GF100 jedoch die nächste Generation auf den Markt bringen könnten. Dual-GPU-Grafikkarten ließen allerdings vorerst noch auf sich warten - was vor allem der Leistungsaufnahme und Wärmeabgabe von Fermi geschuldet ist.

ASUS versucht sich jetzt allerdings an einer neuen MARS-Grafikkarte - der "MARS II" - die das ändern soll. Diese Dual-GPU-Karte wird nun eben auf zwei von NVIDIAs GF100-Chips basieren. Die Chips entsprechen denen der GeForce GTX 480, sie verfügen über je 480 Shader-Prozessoren und können über ein 384-Bit-Interface auf 1536 MB GDDR5-Speicher zugreifen. Untereinander kommunizieren die GPUs per internem SLI. Jede GPU wird von einer eigenen 8+2-Phasen-Stromversorgung gespeist. Ganze drei 8-Pin-PCIe-Anschlüsse versorgen wiederum die Grafikkarte mit Strom. Wem die Leistung einer einzelnen "MARS II" nicht reichen sollte, der kann mit einer zweiten Karte ein Quad-SLI aufbauen. Möglicherweise wird die "MARS II" auch mit einer einfachen GeForce GTX 480 kombiniert werden können. Was für eine Kühllösung ASUS für diese monströse Grafikkarte verwenden wird, ist noch nicht bekannt.

ASUS arbeitet jedenfalls weiterhin an absoluten Prestige-Lösungen für Enthusiasten. Nachdem man mit der ASUS "ARES" vor kurzem erst ein entsprechendes Produkt auf Basis von zwei ATI Radeon HD 5870 vorstellen konnte (bei uns im Test), wird die "MARS II" nun das entsprechende Pendant auf Grundlage von NVIDIAs High-End-GPUs. Wann mit Marktverfügbarkeit dieser Grafikkarte zu rechnen ist, ist bisher ebenso unbekannt wie der Preis.

{gallery}galleries/news/pmoosdorf/asus_mars_ii{/gallery}

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (68)

#59
customavatars/avatar55960_1.gif
Registriert seit: 15.01.2007
Niedersachsen
Redakteur
Serial-Killer
Beiträge: 13381
Zitat Hypocrisy;14946248
Aber ein "Habenwollen" löst das Teil trotzdem aus.


Also bei mir auf jeden Fall nicht. Einmal benötige ich die Performance von 2x GTX 480 nicht (selbst eine wäre schon zu viel) und zum anderen möchte ich weniger mit den negativen Punkten zu tun haben.

Wenn die Karte alleine bis zu 525 Watt aus der Steckdose nuckeln kann, dann wird mir ehrlich gesagt schlecht. Ich bin um Gottes Willen niemand, der um jeden Preis Strom sparen möchte, aber diese Zahl ist doch schon extrem. Wenn ich überlege, dass mein aktuelles Netzteil absolut nicht ausreichen würde.

Weiter geht es dann mit der Wärme, die man erstmal bändigen muss. Da bin ich ehrlich gespannt, wie die Kühlung aussieht. Es würde mich nicht wundern, wenn Asus eine Wakü-only Version herstellt. Und weiter geht es beim Preis. Die Karte wird wohl mindestens genauso viel kosten, wie die Asus Ares. Günstiger würde man wegkommen, wenn man sich 2x GTX480 kauft. Aber dennoch ist die Karte als Sammlerstück erste Sahne.:bigok:
#60
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5850
Wenn's so weiter geht besteht die nächste MARS III fast nur noch aus Spannungswandler :fresse:
Heutige Single-GPU Karten brauchen ja oft schon gut 1/4-1/3 des PCBs für den Aufbau der Spannungsversorgung, logisch daß Dual-GPU Karten da demenstprechend mehr brauchen.
Auf der MARS II ist das schon fast die Hälfte des PCBs.

Find' ich irgendwie krass.

Zur Karte selbst:
Wenn die Karte nicht so stark limitiert (Stückzahl) wäre und nicht so teuer wäre könnte ich mir aber gut vorstellen daß einige Leute die kaufen.
#61
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18795
Selbst wenn die Karte 1500€ kostet werden die 1000 stück mit Sicherheit alle schnell verkauft ;)
Wenn ich viel zu viel Geld über hätte dann würde ich mir auch Zwei davon bestellen einfach nur weils geil ist und nicht jeder hat :)
#62
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Kyraa;14943733
2 vollbestückte [email protected] haben sie auch irgendwie leise gekühlt bekommen. Ich denke ASUS hat aus dem MARS Desaster gelernt. Ich bin gespannt. Wird sicherlich n absolutes Monster. Das PCB verspricht schon mal viel.


Das PCB verspricht schonmal bis zu 525Watt Verlustleistung.

Wenn diese Karte wie fdsonne es schon sagte mit Luft gekühlt werden sollte,wird das entweder ein mörder Tripleslotkühlerdesign was extremst ausgeklügelt sein sollte oder die Karte bekommt unweigerlich thermische Probleme.

Ich gehe auch davon aus das Asus vernünftig nachdenkt und der Karte gleich nen H2O Kühler spendiert wenn??? sie denn kommen sollte;)
#63
Registriert seit: 14.03.2010
Berlin
Obergefreiter
Beiträge: 96
Lechtz da haben alle Freude darnn, vor allen die Kühlerproduzenten und der Stromversorger :D
Ne ma im Ernst, die würd ich mal gerne ne weile in meiner Mühle haben wollen und OCen bis die Wakü platzt.
MfG Smile
#64
customavatars/avatar117617_1.gif
Registriert seit: 03.08.2009
Hallein im wunderschönen Salzburg
Kapitän zur See
Beiträge: 3153
Das ist ja ne nette Idee endlich Crysis Ruckelfrei zocken. (Jaaaaaaa, ich würde das Teil nur zu Gerne als PhysX Karte nutzen.)
Meine GTX 470 langweilt sich ja bei Physx schon etwas.

Ich bin Sehr auf den Kühler Gespannt.
Aber wenn Asus da nicht nen H2O Kühler verpassen, gehört ihnen ein Tritt in den Allerwertesten.
#65
Registriert seit: 17.02.2009
OWL
Stabsgefreiter
Beiträge: 349
Zitat fdsonne;14943879
Das bisschen was zur normalen HD5970 durch den Mehrtakt hinzugekommen ist und das bisschen was durch den Mehrspeicher gekommen ist sind aber nichtmal ansatzweise das, was eine derartige Karte auf Dual GF100 Basis mit zwei vollen 480ALU Chips kommen würde...

Wie schon angesprochen wurde reden wir hier von Leistungsaufnahmen teils von über 600W...



Aber erstaunlich wenn man sich mit 3xPCIe 8Pin begnügt als Stromversorgung. So kommt man gerade mal auf 475W wirklich zugesicherte Leistung.


Ich kann mich verrechnet haben, aber 8Pin PCIe = 150W das 3-mal ergibt schon 450 Watt, dazu die 75W vom Steckplatz --> 525W. Trotzdem reicht es noch nicht an die 600W ran, die gebraucht werden. Ich hab aber irgendwo gelesen, dass der GF100 alleine über 400W verbrät.
#66
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat darkpope;14958653
Ich kann mich verrechnet haben, aber 8Pin PCIe = 150W das 3-mal ergibt schon 450 Watt, dazu die 75W vom Steckplatz --> 525W. Trotzdem reicht es noch nicht an die 600W ran, die gebraucht werden. Ich hab aber irgendwo gelesen, dass der GF100 alleine über 400W verbrät.


Liegt vielleicht daran das der GF100 gar kein GF100 wird sondern ein voll ausgebauter GF104;)
#67
customavatars/avatar128299_1.gif
Registriert seit: 29.01.2010
CH
Fregattenkapitän
Beiträge: 2869
In der News steht aber 2xGf100...
#68
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33283
Zitat darkpope;14958653
Ich kann mich verrechnet haben, aber 8Pin PCIe = 150W das 3-mal ergibt schon 450 Watt, dazu die 75W vom Steckplatz --> 525W. Trotzdem reicht es noch nicht an die 600W ran, die gebraucht werden. Ich hab aber irgendwo gelesen, dass der GF100 alleine über 400W verbrät.


Jupp, stimmt, hab mich da irgendwie vertan. Sollten doch 525" sein. Aber immernoch zu wenigen in meinen Augen ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]