> > > > Test: AMD Radeon HD 7970 CrossFire vs. NVIDIA GeForce GTX 680 SLI

Test: AMD Radeon HD 7970 CrossFire vs. NVIDIA GeForce GTX 680 SLI

PDFDruckenE-Mail
Erstellt am: von

Seite 1: Test: AMD Radeon HD 7970 CrossFire vs. NVIDIA GeForce GTX 680 SLI

cf-sli-logoMit der Radeon HD 7970 (Hardwareluxx-Artikel) und GeForce GTX 680 (Hardwareluxx-Artikel) haben AMD und NVIDIA ihre beiden Single-GPU-Flaggschiffe bereits vorgestellt. In Kürze kann mit einer Präsentation der beiden Dual-GPU-Modelle in Form der Radeon HD 7990 und GeForce GTX 690 gerechnet werden. Für uns Anlass genug einmal die Multi-GPU-Eigenschaften und hier vor allem die Performance genauer unter die Lupe zu nehmen. In den Einzeltests zeigte sich recht schnell, dass NVIDIA mit der GeForce GTX 680 die Nase vorne hat, doch trifft es auch auf den Multi-GPU-Betrieb zu?

Auch wenn die beiden aktuellen Single-GPU-Vertreter für aktuelle Spiele selbst in hohen Auflösungen ausreichen, so entscheiden sich doch immer wieder Spieler für den Aufbau eines Multi-GPU-Systems. Die Gründe dafür reichen vom schlichten "Must Have" bis hin zu echtem Bedarf wegen extremer Grafik-Settings.

Unser Dank geht an dieser Stelle an ASUS, die uns mit jeweils einer AMD Radeon HD 7970 und NVIDIA GeForce GTX 680 versorgt haben.

alles

Auf die Details der beiden Karten gehen wir nicht näher ein. Dies haben wir bereits in den jeweiligen Launch-Artikeln getan. Dennoch haben wir die technischen Daten einmal tabellarisch zusammengefasst:

NVIDIA GeForce GTX 680 SLI AMD Radeon HD 7970 CrossFire
Straßenpreis ab 2x 465 Euro ab 2x 400 Euro
Homepage NVIDIA-Produktseite AMD-Produktseite
Technische Daten
GPU 2x GK104 2x Tahiti XT
Fertigung 28 nm 28 nm
Transistoren 2x 3,54 Milliarden 2x 4,3 Milliarden
GPU-Takt 1006 MHz + Boost 925 MHz
Speichertakt 1502 MHz 1375 MHz
Speichertyp GDDR5 GDDR5
Speichergröße 2x 2048 MB 2x 3072 MB
Speicherinterface 256 Bit 384 Bit
Speicherbandbreite 201,6 GB/Sek.

264 GB/Sek.

DirectX-Version 11.1 11.1
Shadereinheiten 2x 1536 (1D) 2x 2048 (1D)
Textur Units 2x 128 2x 128
ROPs 2x 32 2x 32

Der Aufbau eines SLI- bzw. CrossFire-Systems ist recht einfach. Die beiden Karten werden in die verfügbaren PCI-Express-Steckplätze gesteckt und danach mit einer SLI- bzw. CrossFire-Bridge miteinander verbunden. Die beiden Treiber erkennen die Konfiguration automatisch und aktivieren meist auch schon das Multi-GPU-Rendering ohne Zutun des Benutzers.

Ohne große Umschweife kommen wir daher zu den Messungen von Leistungsaufnahme, Temperatur und Laustärke sowie den Benchmarks.

 

Social Links

Seitenübersicht

Kommentare (81)

#72
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6202
Nvidia macht ja dieses frame metering (in Hardware?). Ich könnte mir vorstellen, dass das schon sowas ähnliches ist. Ob das noch besser geht per Software, wage ich zu bezweifeln. Leider gibts dazu praktisch keine Infos, ist natürlich ein gutgehütetes Geheimnis, wie das funktioniert.
#73
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 28121
Wenn ich mal ne freie Minute finde, quatsch ich mal mit Orb. Vllt lässt sich da über den Inspector was einbauen.
Interessant wäre, ob man das Framelimit bei laufendem Game munter anpassen kann oder ob dazu ein Spielneustart nötig ist...

PS: das was NV da macht ist halbherzig, wenn überhaupt. Das Problem ist einfach, man verliert definitiv absolute Leistung, das ist Fakt. Und an der Stelle stell ich mir das schwierig vor. Gerade wenn es aus dem eigenen Haus kommen soll. Wenn da von heute auf morgen 10 oder auch 20% weniger Leistung bei rum kommen, wäre das ziemlich unschön für NV. Ich denke eher, das diese uminöse Funktion so wenig wie möglich auf Leistungsverlust getrimmt ist. Und somit auch wohl wenig Effekt erziehlt.
#74
customavatars/avatar51560_1.gif
Registriert seit: 15.11.2006
Pandora neben Remulak
Bootsmann
Beiträge: 652
Zitat Romsky;18786600
Oh man, schon krass... hier laufen Leute rum mit 2x GTX590 uund wollen nun 2x GTX680 und as dann auf nem P67 Board.... wenn dann sollte man das schon richtig machen. X58 oder besser noch X79 Boards nutzen.

Aber so ist das nun mal bei HW-Freaks.


Hi hab auch nen p67 Board, welchen Vorteil soll denn ein x58 Board deiner Meinung nach haben :-) ?:rolleyes:
#75
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6202
Zitat fdsonne;18788309
Wenn ich mal ne freie Minute finde, quatsch ich mal mit Orb. Vllt lässt sich da über den Inspector was einbauen.
Interessant wäre, ob man das Framelimit bei laufendem Game munter anpassen kann oder ob dazu ein Spielneustart nötig ist...


Kann man anpassen (aber leider nur bei externen Tools - bei allem, was man im Nvidia Treiber einstellen kann, ist ja schon seit Ewigkeiten ein Neustart des Spiels nötig). Mach ich bei neuen Spielen, wo ich das beste Limit für mich rausfinden will, oft.

Zitat fdsonne;18788309

PS: das was NV da macht ist halbherzig, wenn überhaupt. Das Problem ist einfach, man verliert definitiv absolute Leistung, das ist Fakt. Und an der Stelle stell ich mir das schwierig vor. Gerade wenn es aus dem eigenen Haus kommen soll. Wenn da von heute auf morgen 10 oder auch 20% weniger Leistung bei rum kommen, wäre das ziemlich unschön für NV. Ich denke eher, das diese uminöse Funktion so wenig wie möglich auf Leistungsverlust getrimmt ist. Und somit auch wohl wenig Effekt erziehlt.


Moment, der Framelimiter kam auf Wunsch und Drängen der Community. Nvidia sieht den Nutzen hauptsächlich für eine GPU und das Stromsparen. Dass die frame metering Geschichte gut was bringt, sieht man seit jeher daran, dass SLI flüssiger als CF ist. Zuletzt wieder hier:
HARDOCP - Introduction - GeForce GTX 680 3-Way SLI & Radeon 7970 Tri-Fire Review

Das frame metering kostet sicher ein bisschen Performance. Nicht umsonst heißt es ja immer, CF hätte eine bessere Skalierung als SLI. Das mag oft so sein, aber was hinten rauskommt, ist halt bei Nvidia besser. Es ist aber laut Nvidia auch so, dass der Wirkungsweise Grenzen gesetzt sind durch Engine und Datenmengen. In Spiel A/Szene A funktioniert es gut, in Spiel B/Szene B bringt es wenig.
#76
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 28121
Ich meine ja auch nicht den Limiter ;)
Sondern diese ominöse Funktion, welche angeblich MR eindämmen soll... Seitens NV gabs da mal ein Interview, ich glaube mit PCGH. Und auf die Frage, warum das ganze in Games nicht funktioniert, welche eben von Haus aus massiv zum Microruckeln neigen (Metro2033, Crysis1 beispielsweise) kam diese in meinen Augen sinnfrei Antwort mit der Datenmenge. Nur ist das irgendwie quatsch, die Datenmenge ändert sich ja nicht, diese Funktion kann nur nach dem Rendern des Bildes ansetzen, wie soll das anders gehen? Und nachdem das Bild durch die GPU durch ist, ist es rein logisch gesehen ziemlich Banane, ob das Bild von Crysis kommt oder von irgend einem anderen Wald und Wiesen Game.
Das mein ich mit Halbherzig. Dort wo MRs massiv auffallend waren, wirkt diese Funktion absolut nicht, und dort wo es so schon vertretbar war, kann man ggf. Minimal abhilfe schaffen.

Und wie du schon sagtest, du siehst die MR selbst, die Funktion selbst kann also nicht sonderlich viel bewirken ;) -> ergo ist es halbherzig umgesetzt.

Ggf. hätte man lieber ein Ein/Ausschalten einer derartigen Funktion zulassen sollen, aber eben die Funktionsweise so hintrimmen sollen, das es auch was bringt. Die erkaufte Minderleistung wäre dann für den User selbst bestimmbar, ja oder nein.


Und zu dem Test, neja ich persönlich verlasse mich beim Thema MR auf meine eigenen Augen, nicht auf die von anderen ;)
Meine bis dato CF Tests mit beispielsweise ner HD4870X2, HD5870 CF und nem Kurztest mit zwei HD6970 Karten zeigt nicht sonderlich viel weniger "smoothness" zu einem 470GTX SLI oder einem 680GTX SLI.
Steigender "smoothness" Faktor kommt sicher in erster Limie durch steigende FPS. Wo die zwei 680er in Skyrim 4xSGSSAA spielend auf einer A. Backe abdrücken, kommt man da beispielsweise mit zwei HD5870ern schon schneller ans Limit. Dementsprechend auch weniger "smoothness".
Aber selbst zwei 680er sind mit 25-30FPS in manchen massiv MR zeigenden Games alles andere als brauchbar ;) Und selbst wenn es besser sein sollte, als bei den AMDs ist es immernoch nicht spielbar.
#77
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6202
Ich hätte da differenzieren sollen - es kommt schon auf das Spiel an, ob man es merkt bzw. ab wann.
Ich könnte mir vorstellen, dass Nvidia die drawcalls (nennt man das so?) VOR der Berechnung des Bildes abfängt und neu anordnet.

Das mit der smoothness sagen viele Reviews. Das ist jetzt bestimmt das siebte oder achte auf [H], das das erwähnt. Man liest es hier, in den CB-Reviews...der Vorteil, den die haben ist, dass sie die Dinger zeitnah testen können. Wir haben ne Dualkarte oder SLI/CF, dann vergehen ein paar Monate/Jahre und wir wechseln und die Bedingungen sind wieder völlig anders. Ich kann mich nicht erinnern, wie sich 50fps gestern angefühlt haben. Das ist genauso, wie wenn du mir zwei Farbtöne zeigst, einen gestern und einen heute, und mich dann nach dem Unterschied fragst. Keine zuverlässige Antwort möglich, außer der Unterschied ist wirklich massiv.
#78
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 28121
Klar damit hast du natürlich recht, dennoch reicht eigentlich das zu testen, was laut den Reviews mit dem Besten Ergebnis abschneidet. Und das wäre ja in dem Fall eben GTX680 SLI. Nur ist das Problem dort immernoch nicht behoben. Vor mir aus kann dann der Konkurent schlechtere Ergebnisse liefern, von gut sind wir bei beiden Entfernt. Differenziert betrachtet bringt es mir nichts, den zu loben, der das Problem zwar angeht, aber es nicht beseitigt und im gleichen Atemzug den runter zu machen, der nix gegen tut. Unterm Strich hab ich als Endkunde von beiden Maßnahmen nix ;)
#79
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6202
Dann haben du und die Reviewer unterschiedliche Meinungen. Bei SLI tritt das Problem oft später auf was die fps angeht, sprich du kannst mehr Performance in Bildqualität investieren, bevor es mikroruckelt. Und wenn es bei denselben fps bei einem flüssiger ist als beim anderen, hast du doch natürlich was von. Verstehe dich da nicht wirklich.
#80
customavatars/avatar161061_1.gif
Registriert seit: 31.08.2011
Untergruppenbach (heilbronn)
Banned
Beiträge: 2403
und für was sollte man sich dann schlußendlich entscheiden zu kaufen???
#81
customavatars/avatar42212_1.gif
Registriert seit: 27.06.2006
NRW
Kapitän zur See
Beiträge: 3927
Schade, habe den Artikel jetzt erst gesehen - sonst hätte ich mir dass posten (daß ich jetzt 2xGTX680 im SLI teste) sparen können.
Es geht mir nicht darum, dass es jeder wissen soll, sondern ich würde gerne die Erfahrungen austauschen. :)

Es ist mein erstes SLI überhaupt, reizen tut mich sowas seitdem es die Voodoo 2 gibt. :D

Nach anfänglichen Problemen, z.B. 2te Karte einbauen und einfach SLI nutzen - ging leider nicht (SLI wurde gar nicht erkannt).
Erst ein frisches Backup und eine anschließende Treiberinstallation (nach dem Einbau der 2ten Karte) lösten alle Probleme.

Mein erstes Test war "Arcania" und das lief im SLI hervorragend. Nächster Test war Alan Wake, meiner Meinung nach funktioniert da SLI nicht,
bei dem neueren Beta Treiber wurde wohl das Alan Wake SLI Profil hinzugefügt (hab ich noch nicht weiter getestet, da ich den WHQL nutze).

Bei Dirt2 staunte ich nicht schlecht als ich Frameraten von bis zu 250fps mit max Setting hatte, daß Spielgefühl einfach irre!

Heute konnte ich Crysis 2 testen, super! Eine GTX680 läuft zwar schon super, ABER: beim ersten gefecht am Brunnen brach die Framerate schon sehr ein (ca. 45fps).
Mit SLI sind es minimum 72 fps sonst eher richtung 90fps im Intro sinds mal 150fps..

Jetzt kommt aber der wichtige Part den der Artikel sehr gut beschrieben hat!

Man sollte sich VOR Anschaffung der Karten (egal ob ATI oder NV) Gedanken über das gesamte System machen,

- reicht das NT?

Ich überschreite in Crysis 2 ganz knapp die 500 Watt Marke, andere Games brauchen da weniger.

- die Kühlung !

Ich hatte jetzt Temps bis zu 84 Grad, den Staub in der Front entfernt sind noch 81 Grad.

Die Kühlung ist das größte Thema mit dem ich mich noch weiter beschäftigen muss,
liegt es am Case (LL Tyr 2000F) - sind die Lüfter (BeQuiet) zu schwach usw. usw.

Wieviel Platz ist z.B. bei welchem Mainboard zwischen den zwei Grafikkarten,

alles sind Faktoren die man bedenken sollte. :)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon R9 280X, R9 270X und R7 260X im Test

Logo von IMAGES/STORIES/LOGOS-2013/AMD-RADEON-2013

Heute ist es nun endlich soweit und Teil eins des großen Neustarts bei AMD kann beginnen. Mit der Radeon R9 280X, R9 270X und R7 260X haben wir die ersten drei Grafikkarten der neuen Generation von AMD im Test. Doch auch wenn die Gerüchteküche bereits seit Wochen köchelt, so wirklich... [mehr]

Erste Ergebnisse im Kampf Mantle vs. DirectX (Update: Multiplayer-Benchmarks)

Logo von IMAGES/STORIES/LOGOS-2013/AMD-RADEON-2013

Mit einigen Tagen Verspätung hat uns heute morgen der Catalyst 14.1 in seiner ersten Beta-Version erreicht. Wir haben uns gleich daran gemacht und die ersten Messungen durchgeführt. Allerdings ist die Erhebung dieser Daten nicht so einfach. Führen wir unsere Messungen meist mithilfe des Tools... [mehr]

AMD Radeon R9 290X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2013/AMD-HAWAII/290X/AMD-290X-LOGO

Nicht wirklich mit Neuigkeiten konnten die Radeon R9 280X, R9 270X und R7 260X in der vergangenen Woche aufwarten. Neue Features wie TrueAudio und DirectX 11.2 mit Tier-2-Support blieben bisher der Radeon R7 260X vorbehalten und das flexiblere Eyefinity beherrschen im Grunde genommen auch die... [mehr]

AMD Radeon R9 290 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2013/AMD-HAWAII/290X/AMD-290X-LOGO

Etwas mehr als eine Woche nach der Präsentation der Radeon R9 290X bzw. der Veröffentlichung der Testergebnisse, bringt AMD heute die Radeon R9 290, also die zweite Karte mit "Hawaii"-GPU, auf den Markt. Durch eine Reduzierung von Architekturausbau und Takt will AMD die Lücke zwischen der Radeon... [mehr]

AMD präsentiert den Catalyst 14.1 Beta mit Mantle-Support (9. Update: Treiber...

Logo von IMAGES/STORIES/LOGOS-2013/AMD-RADEON-2013

Es ist soweit - soeben hat AMD den Catalyst 14.1 Beta freigegeben, der Grundlage für alle Spiele mit Mantle-Support sein soll. Der Treiber sollte inzwischen über diese Seite bei AMD verfügbar sein (derzeit ist er das noch nicht). Noch viel wichtiger aber ist, dass heute auch der Patch für... [mehr]

Sapphire Radeon R9 270X Vapor-X und Toxic im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2013/SAPPHIRE-R9-270X-TOXIC-VAPOR/SAPPHIRE-R9-270X-VAPOR-TOXIC

Anfang Oktober ließ AMD endlich die Katze aus dem Sack und stellte die ersten Ableger der neuen "Volcanic Islands"-Generation offiziell in Dienst. Angefangen bei der kleinen Einstiegslösung, über mehrere Mid-Range-Grafikkarten bis hin zum High-End-Modell waren alle Preis- und Leistungsklassen... [mehr]