Test: EVGA GeForce GTX 680 Classified

Tenchi
Da hast du auch alles richtig gemacht bei 4 GB und 3 Gpus kann kommen was wolle an Games 2 GK110 werden das auch nicht besser richten können.
Du hast da ein Setup was bis zur nächsten Strucktur verkleinerung dicke reichen wird notfalls geht man wieder bis auf full HD runter wenn es irgend ein Titel fordert.
Deine Konstellation erlaubt es bis zum nächst kleineren Fertigungs Prozzes zu planen mit 2GB könnte einem selbst in Full HD die Puste aus gehn.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ehrliche Frage, wer bezahlt die Optimierungen?
Ich sehe ganz klar über die letzten sagen wir 10 Jahre gesehen die Tendenz, das immer weniger optimiert wird... Zeig mir bitte ein Gegenbeispiel, wo das nicht der Fall ist ;)

Da ich aus dem Programmierergeschäft komme, kann ich auch persönlich sagen, das man selbst oft das Optimieren hinten angestellt hat, gerade wenn die Zeit langsam knapp wurde.

Aber mir solls recht sein, wenn man mehr optimieren will. Ich habe aber dann die Beführchtung, das die Spieletitel nichtmehr bezahlbar sind. Oder das die Spielzeit (gerade Shooter und Co.) noch weiter sinkt. Was soll ich 50€+ für 3-5h Spielspaß zahlen? Käme ja nicht auf die Idee...


PS: aber wenn man sich das mal weiter betrachtet, Optimierungen bringen dir nicht primär mehr Optik ins Spiel. Und das die Optik aktuell nicht weiter steigt, kann man wohl wirklich nicht sagen. ;) Das ganze hat halt alles seines Preis.



Das wird aber wohl oder übel der einzige verbleibende Weg sein wenn sich( und hier wieder das pöse Wort )Konsolen nur noch auf der Stelle drehen,das ist sicherlich auch Carmack bewusst
 
@Thunderburne

Die andere Option wäre gewesen 3x GTX680 2GB das macht für mich genausoviel Sinn wie eine GTX680 mit 4GB VRAM einzusetzen.

Ich hätte es versuchen können (3x2GB GTX680), aber es hat mich im SLI schon gestört öfters die 2GB zu überschreiten... wie sollte ich damit glücklich werden!?

Ich denke schon das ich die richtige Wahl getroffen habe zumal ich kaum mehr als für die FTW+ bezahlt habe die schon deutlich höhere Temperaturen hat, trotz Vapor Chamber.

Der Kühler der Classified hat genug Power - selbst bei den üblen Temperaturen - alle Karten unterhalb der magischen 70 Grad Grenze zu halten (bei 55% fix).
Also verhindert man das Drosseln der Karte, daß macht jede GTX680 ab 70 Grad.
 
Zuletzt bearbeitet:
Das wäre mir auch zu knapp bemessen gewesen.
Ich werde auch zur 4GB Variante greifen.
Wo hast du die karten überhaupt her du Schlingel.
 
Das wird aber wohl oder übel der einzige verbleibende Weg sein wenn sich( und hier wieder das pöse Wort )Konsolen nur noch auf der Stelle drehen,das ist sicherlich auch Carmack bewusst

Abwarten...
Gemessen daran, was für Hardware in den aktuellen Konsolen steckt, sind wir im PC Bereich ungleich weiter. Potential ist zweifelsfrei vorhanden.
Auch finde ich, im Konsolenbereich überdeckt man so manche Problemchen. Wenn ich mir die ein oder anderen Screens anschaue, legt man viel Wert auf die Optik im direkten Sichtbereich, aber man umschifft teilweise gekonnt mit Schlauchartigen Leveln die Weitsicht, man nutzt Starke Weichzeichner für die Ferne usw.

Vergleichsscreens zwischen Konsolen Titeln und dessen PC Portierungen zeigen doch ziemlich gut, wie der Hase läuft. Und da stehen die hochauflösenden Texturen sowie die enorme Weitsichtmöglichkeit in meinen Augen ziemlich weit oben, auf dem Portierungsplan. Zumindest was man aktuell so sieht. Beides erreichst du aber nur durch VRAM.
 
@Thunderburne

EVGA selber mit 10% Aktion (bereits abgelaufen).

Da ich die ersten beiden Karten kurz vor dem Angebot gekauft habe war EVGA so kulant und hat mir 111 Evga Bucks gutgeschrieben,
daß Problem ist nur: man kann diese Bucks nur im Store einlösen und nicht für ein Step-Up oder Garantieerweiterungen.

So wurde ich praktisch genötigt eine Dritte Karte zu bestellen ^^

Habe in nächster Zeit keine weiteren Käufe geplant noch würde ich Backplates kaufen.

Hatte in der Zeit fast täglich mit Evga telefoniert und kann nur sagen die sind echt super die Jungs und Mädels die dort arbeiten!
*Daumenhoch*

Aber nochmal ein paar interessante Fakten zum Lüfter:

Mein Idle Verbrauch beläuft sich auf ca. 157-160 Watt max bei 20% Lüfter (Auto).

Stelle ich die Lüfter auf 55% max. Leistung steigt der Verbrauch im Idle auf ca. 170 Watt

Also "nur" 10-13 Watt mehr für insgesamt drei Karten.

Edit:
Heaven 3.0 verbraucht max. 740 Watt.
 
Zuletzt bearbeitet:
Ich habe den GTX690 auch nicht gekauft ich hatte die GPU in der Hand aus gepackt in System reingesteckt aber OC und der Preis und 2 GB hat mich davon abgehalten. Das war eine richtige entscheidung, Thunder wir hatten recht zweck Vram Krüppel.
 
Ich habe den GTX690 auch nicht gekauft ich hatte die GPU in der Hand aus gepackt in System reingesteckt aber OC und der Preis und 2 GB hat mich davon abgehalten. Das war eine richtige entscheidung, Thunder wir hatten recht zweck Vram Krüppel.

Vor kurzen hast du sie dir "angeblich" noch beim Händler angeschaut.Wie viele Variationen der Story gibts denn noch:hmm:

Junge die Geschichte welche von beiden man auch immer herran zieht,ist genauso ein großer Witz u Fake wie deine Benchmarks.

Ich verwette mein Hinterteil darauf das du nichtmal ansatzweiße die Karte jemals live gesehen und schon gar nicht verbaut hast

Komm wieder wenn du reif genug bist hier die Wahrheit zu erzählen und bind den Leuten hier keinen Bären auf
 
Zuletzt bearbeitet:
Vor allem hier ist der Classified Thread, das ding ist alles andere als nen Ram krüppel also begrabt das Kriegsbeil jungs :wink:
 
Ich war im Laden du Nase ich hatte die GPU in der Hand und die haben wir vor Ort getestet ich brauche keine Versionen und Geschichten zu erzählen. Schreib den Aki an und frage mal wieviel 7970 ich da hatte das waren ins gesammt 6 GPU´s. Alter du nerfst mit dein gebashe Tierisch.
 
Vor allem hier ist der Classified Thread, das ding ist alles andere als nen Ram krüppel also begrabt das Kriegsbeil jungs :wink:

genauso schauts aus hier gehts nicht darum wem 2 oder 3gb nicht reichen etc.
vielleicht sollte mal ein mods. hier durchwischen die hälfte der beiträge kann man getrost
löschen da sie nicht zum thema beitragen .

:btt:

meine 680gtx läuft mit 1265Mhz stabil ohne probleme das mit 1.3v nur 1327MHz möglich
ist finde ich persönlich nicht so toll hab mir mit mehr spannung auch mehr erwartet aber
nicht son mickrigen unterschied .

MfG
 
meine 680gtx läuft mit 1265Mhz stabil ohne probleme das mit 1.3v nur 1327MHz möglich
ist finde ich persönlich nicht so toll hab mir mit mehr spannung auch mehr erwartet aber
nicht son mickrigen unterschied .

MfG

Mit so einer schwachen Luftkühlung@ max 55 % Lüftergeschwindigkeit kann man ich mehr erwarten.
 
@Mayk-Freak
Skaliert das OC bei der GPU bei mehr Kälte besser?
Sprich in einem Bereich z.b unter 40°C bei 1.3V sollte doch einiges gehn denke ich.
Diese Eve Bot Teil funktioniert das nur bei der Classified?
 
Zuletzt bearbeitet:
OC Skaliert bei der GPU mit mehr Kälte sicher besser, ich denke bei Temperaturen unter 40 Grad sollte mit 1,3V schon ein paar MHz mehr machbar sein zumal man die Spannung bei mehr Kälte noch erhöhen kann. Das Eve Bot funktioniert nur bei der Classified und die Max GPU Spannung die man damit geben sind 1,8 Volt:fresse: das sollte eigentlich auch reichen.
 
@Mayk-Freak
Wie sieht das aus kann man die OC Werte bei jedem Windows Start anliegen haben oder muss man immer wieder alles neu eingeben in das Gerät.
Besitzt das Gerät so etwas wie einen Speicher der sich die Settings merkt und die Werte dann immer anlegt so bald das Teil an der Graka angeschlossen ist?
Wäre net wenn du die Funktion des Geräts mal kurz beschreiben könntest.
Vielen Dank.
Bis 1,8V ist natürlich heftig.:)
Hoffentlich gibt es da ne Wakkü für so unter Luft macht das ganze kaum Sinn.
 
Zuletzt bearbeitet:
Bei 1 Karte sehe ich das nicht so Don da fehlt die Power für solche Aktionen.
Aber ab 2 Karten möchte man ja mehr mit seinem Sys anstellen bzw muss ich nen Single Player nicht bei 150FPS zocken da möchte ich die Power in ins Bild drücken und lieber mit 60FPS Grafikpracht zocken.
Bei 2 GB trübt das aber dann sehr schnell den Spielspass wenn es zu nachladerucklern kommt und dann stehe ich da mit knapp 1000Euro teurer Hardware vieleicht noch +Wakkü und guck blöd aus der Wäsche.
Die GTX690 ist da auch so ein Kandidat.
SLI/Tri/Quad mit 2GB ist einfach Fail zum schönen Zocken.
Ich weis das ist abkotzen auf hohem Niveau aber bei solchen Preisen berätchtigt.


Also in BF3 auf 2560x1440 hatte ich keine Probleme mit einem GTX 680 SLI und "nur" 2GB vRAM.
Ich sehe das überhaupt nicht als "fail" an.

Und auf Skyrim zu sprechen zu kommen: Wenn ich es drauf anlege, kann ich sicher irgendwelche Nachladeruckler provozieren oder das System insgesamt an die Grenzen bringnen. Doch wozu? Ihr wollt mir doch nicht sagen, dass ihr bei all diesen Mods überhaupt noch einen Unterschied seht. Klingt eher danach, so viel Last auf die Karten zu packen wir möglich ohne einen wirklichen Nutzen davon zu haben.

Von SLI bin ich nun auch weggekommen. Eine einzelne 670 OCed auf 1240 Mhz macht genau dieselbe Arbeit, wenn ich nur an ein paar wenigen Einstellungen rumschraube. Viel Geld gespart :)
 
Zuletzt bearbeitet von einem Moderator:
ey.. wieso sagt mir keiner, dass ihr hier schon wieder über das leidige und von den meisten missverstandene unverstandene VRAM-thema diskutiert.. *gg*

ich zitiere mich mal selbst aus dem GTX680-thread

ja.. so schön kurz und übersichtlich..

btw,
sollen die screenshots aus dem skyrim intro da oben^ irgendwas beweisen?

Skyrim Steam Version (1.6.89.06) + HD-texturpacks (offiziell) + 53 Mods, 1x GTX680/2GiB, +16:1 AF | 4x MSAA



mal so als denkanstoß: vllt. sollte skyrim jemand bewerten, der es gekauft und wirklich gespielt hat.. ich z.b.
das intro habe ich seit monaten nicht mehr gesehen und ob die karte jetzt 2 oder 3GiB speicher mitbringt, macht gar nix aus.
ich spiele es sogar lieber auf der 2GiB NVidia als auf der 3GiB AMD-karte (HD7970 im zweitrechner), weil NV solche spielereien wie umgebungsverdeckung kennt.

battlefield3 habe ich gestern auch mal wieder gefrapst.. allerdings nicht gescreenshottet und auch nicht drauf geachtet, ob es 1.6 oder 2.0GiB belegt (ist eh mit vorsicht zu geniessen, was OSDs "auslesen").
Battlefield 3 (online, map karkant - was sonst?), 1x GTX680/2GiB, +16:1 AF | 4x MSAA | ingame maximale einstellungen, vsync aus

2012-07-27 19:45:49 - bf3 (1920x1080, ultra, FOV80, vsync aus)
Frames: 8687 - Time: 106860ms - Avg: 81.293 - Min: 36 - Max: 121

2012-07-27 19:48:50 - bf3 (1920x1080, ultra, FOV80, vsync aus)
Frames: 36532 - Time: 449470ms - Avg: 81.278 - Min: 52 - Max: 131


und dazu die schmackhaften frametimes :-)

LinkFile.de - Download bf3 2012-07-27 19-48-50-12 frametimes.csv
LinkFile.de - Download bf3 2012-07-27 19-45-49-91 frametimes.csv

deckt sich grundsätzlich mit dem test, den ich zur 4GiB-version meiner karte gelesen habe:

Test: Palit GeForce GTX 680 4 GB Jetstream

sdfasfiajx3.png

was das SLi-thema bei mir angeht, so ist es vom tisch. war nett gehabt zu haben, ist aber unnötig wie ein kropf. schön, dass ich die 505€ von amazon zurückbekommen habe - das war geldverbrennung.

der grund? -> mein alter. ich bin 36 jahre alt und brauche keine 500€ ausgeben, die mir den tower zusätzlich aufheizen, um aus 80fps 100 oder 120 zu machen.

die frametimes waren auch nicht so der brüller und das fällt mir subjektiv mehr auf als die absolute framerate. was zwei oder mehr karten anzeigen ist nicht immer
deckend mit dem, wie sich zwei karten anfühlen. naja.. und benchmarks habe ich ja jetzt gesehen.. NEXT!

btw,
für das geld gibts 14 tage malle oder einen günstigen emachines 120Hz-3DVision BEAMER !! von beidem hat man mehr, versprochen ;-)


(..)

mfg
tobi

ansonsten verstehe ich zwar die pro und kontra -argumentation, aber es ist wind vor der hoftür. hört auf scully.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
@justINcase
Gehört auch noch zur gängigen Auflösung habe ich auch irgendwo geschrieben der Spass geht um die 2880*1620 los..
MFG
 
Zuletzt bearbeitet:
@justINcase
Gehört auch noch zur gängigen Auflösung habe ich auch irgendwo geschrieben der Spass geht um die 2880*1620 los..
MFG

Ist doch jetzt auch nicht "sehr viel" höher als 1440p?!
Seht ihr da wirklich einen Unterschied DS auf 1080p zu betreiben im Vergleich zu let's say 8x MSAA? Und was bringt das auf einem 24" LCD?
 
@justINcase
Ja sehe ich die Atmosphäre in den Games wir immer dichter.!
Mit meinen GTX580ern war damals mit meinem Benq 120Hertz immer 3360*1890 bei 60 Hertz möglich egal mit welchem Treiber.
1920*1080 /2.073.600 Pixel
2560*1440 /3.686.400 Pixel
2880*1620 /4.665.600 Pixel
3360*1890 /6.350.400 Pixel

Und zum Schluss war nur über eine Monitor inf mit 50Hertz realisierbar und nicht mit jedem Treiber die creme dela crem mit
3840*2160 /8.294.400 Pixel drin

Auf einem 24 Zoll der Hammer.
Hej wärs nicht brauch und mag ist OK ich mag mit meinen Karten expermentieren und da ist für mich halt bei 2GB schnell ein Stolperstein gelegt.
Bei einer Karte ist aber ok mit 2GB für mich da mir dan eh die GPU Leistung fehlt.
 
Zuletzt bearbeitet:
@Thunderburne

Ich glaube der HW Luxx test beschreibt die Funktionen des EVBot ganz gut Test: EVGA GeForce GTX 680 Classified Ich habe leider kein EVBot mit samt Classifield, sonst hätte ich sie schon mal unter wasser gesetzt und getestet, aber der Preis von 750 Euro für das ganze gefällt mir nicht.
 
Ja ist schon heftig gebe ich dir recht vielleicht wird es auch erstmal nur eine GTX680 und durch halten bis GK110 dan richtig investieren schwimme da gerade noch etwas.
Wo ich mir aber sicher bin es soll mal wieder eine NV in den PC.

Zum EVBot
Ist mir aber auch noch nicht genau genug die Beschreibung über den .EVBot
 
Zuletzt bearbeitet:
Ich finde das EVBot nicht schlecht aber das Asus Hotwire gefällt mir besser für 535 bekommt man eine Asus GTX680 DCII Top@Hotwire Mod dazu noch einen Wasserkühler im Full-Block-Design da sind wir bei 650 Euro, haben eine ordenliche Kühlung Voltmodi wie bei der Classifield und noch 100Euro gespart.
 
@Mayk-Freak
Da ist doch dan aber ein Rampage Mainboard Pflicht war da nicht auch was?
@ scully1234
Das löten ist nicht so das ding da habe ich Powerplay für aber wem will man später so eine Karte noch verkaufen.
Echt schade das NV das übertakten so schwierig gestaltet.
Zumindest für solche Karten wie die DC und die Lightning oder die Classified könnte NV ein Auge zu drücken.
Bei der MSI soll es ja per LN2 Bios gehn??? oder nun doch nicht ein Wasserkühler ist ja auch schon in Aussicht gestellt worden.
 
Zuletzt bearbeitet:
...Bis 1,8V ist natürlich heftig.:)
Hoffentlich gibt es da ne Wakkü für so unter Luft macht das ganze kaum Sinn.

Evga empfiehlt max. 1,3V zu geben unter Luftkühlung.

Man muss sich auch Fragen ob man die Zielgruppe von EVBot ist,
Evga sagte mir selber am Telefon, daß es hauptsächlich für Bencher ist, da im 3d Mark gewisse Parts mehr Spannung benötigen als andere - so kann man halt die Benches durchjagen.
Ohne passendes Evga-Mainboard hat man dann eh ein ziemlich schlechtes P/L Verhältnis.

Ich will jetzt nur noch einmal auf den Skyrim Ram-Verbrauch zurückkommen. Ich habe einen Gegentest gestartet mit einer GTX680 2GB. Nach dem Intro lag der Verbrauch bei meinem 3-way-sli bei ca 2,4GB - die einzelne GTX680 2GB hat an der gleichen Stelle sich nur 1,8GB genemigt (bei 2880x1800)!

Das dürfte so ziemlich der Beweis sein, daß Skyrim vorhandenen/überschüssigen VRAM sinnvoll nutzt.


Leider muss ich aber auch sagen das ich mit der 2GB Karte mit dem Ablauf des Intros drei FPS Einbrüche hatte (sonst 40-50fps > Einbrüche ca 17fps).
Aber das soll hier nicht weiter diskutiert werden.

PS: was mich sehr wunderte, dass Skyrim mit 40-50fps sehr viel ruckeliger wirkt als konstante 60fps (bei einer Mausbewegung).
 
Zuletzt bearbeitet:
Ja das ist auch Käse sollte so sein das man es vernünftig 24/7 nutzen kann wenn die Karten unter Wakkü Kühl bleiben habe ich auch keine Klemmer mit hohen Spannungen.
Ich will jetzt nur noch einmal auf den Skyrim Ram-Verbrauch zurückkommen. Ich habe einen Gegentest gestartet mit einer GTX680 2GB. Nach dem Intro lag der Verbrauch bei meinem 3-way-sli bei ca 2,4GB - die einzelne GTX680 2GB hat an der gleichen Stelle sich nur 1,8GB genemigt (bei 2880x1800)!

Das dürfte so ziemlich der Beweis sein, daß Skyrim vorhandenen/überschüssigen VRAM sinnvoll nutzt.

Leider muss ich aber auch sagen das ich mit der 2GB Karte mit dem Ablauf des Intros drei FPS Einbrüche hatte (sonst 40-50fps > Einbrüche ca 17fps).
Aber das soll hier nicht weiter diskutiert werden.

PS: was mich sehr wunderte, dass Skyrim mit 40-50fps sehr viel ruckeliger wirkt als konstante 60fps (bei einer Mausbewegung).

Das deutet ehr auf die Daten Umwälzung im Vram hin .
Aber wie du schon sagst lassen wir das ein eigner Thread dies bezüglich wäre sinn voll.
 
Zuletzt bearbeitet:
Ich will jetzt nur noch einmal auf den Skyrim Ram-Verbrauch zurückkommen. Ich habe einen Gegentest gestartet mit einer GTX680 2GB. Nach dem Intro lag der Verbrauch bei meinem 3-way-sli bei ca 2,4GB - die einzelne GTX680 2GB hat an der gleichen Stelle sich nur 1,8GB genemigt (bei 2880x1800)!

Das dürfte so ziemlich der Beweis sein, daß Skyrim vorhandenen/überschüssigen VRAM sinnvoll nutzt.

Das sagte ich ja von Anfang an das die Engine entscheidet wieviel Texturen in den vorhandenen Speicher gedrückt wird

Es also gar keinen Sinn macht mit einem Vram Screenshot einer Classified auf Vram Panik Tour zu gehen über mehrere Threads hinweg
 
@Scully, ja das wissen wir ja jetzt alle ;)


Dafür hab ich jetzt ein paar Just Cause 2 Benches:

Tower:


Wüste:


City:


Dirt 2 Bench 2880x1800 Ultra @8xMSAA

 
Zuletzt bearbeitet:
@scully
Allein diese 2 Dinge lassen einen sehr skeptisch werden allso ist diese Thematik lange nicht vom Tisch da kannst dich auf den Kopf stellen.
Einbrüche ca 17fps).
was mich sehr wunderte, dass Skyrim mit 40-50fps sehr viel ruckeliger wirkt als konstante 60fps (bei einer Mausbewegung).
Das sind auch Merkmale bei zu wenig Ram.

Da mit glaubwürdig ein Ergebniss zu Stande kommt müsste DON oder jemand anderes ein SLI mit 2GB und 1 mit 4GB zum Testen haben solche Auflösungen anlegen und dann mal Zocken man könnte das auch noch per Video festhalten dann bekommt man ein neutralles Ergebniss bzw.ein korektes Ergebniss bezüglich des gefühlten spielens.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh