Test: 3x NVIDIA GeForce GTX 670

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
34.314
<p><strong><img src="/images/stories/galleries/reviews/2012/gigabyte-gtx670/geforce-logo-100px.jpg" alt="geforce-logo-100px" style="float: left; margin: 10px;" height="100" width="100" />Zum Launch der GeForce GTX 670 (<a href="index.php/artikel/hardware/grafikkarten/22419-test-4x-nvidia-geforce-gtx-670-und-sli.html" target="_blank">Zum Test</a>) schauten wir uns bereits einige Modelle etwas genauer an. Mit von der Partie waren die ASUS GeForce GTX 670 DirectCU II TOP, EVGA GeForce GTX 670 Superclocked, Palit GeForce GTX 670 Jetstream und Zotac GeForce GTX 670 AMP! Edition. Mit dem heutigen Review kommen noch einige Vertreter hinzu, welche die aktuelle Marktlage bzw. unseren Blick darauf deutlich ausbauen. Genauer gesagt handelt es sich um die Gigabyte GeForce GTX 670 OC, KFA²...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/22686-test-3x-nvidia-geforce-gtx-670.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Keine OC-Benches? T_T
 
Da habt ihr aber ein schlechtes Gigabyte Model erwischt.Mein Boost (Stock) liegt bei 1202 Mhz^^ und lässt sich bis max.1367~ Mhz übertakten.Wie auch mein Ramtakt bis 7450 Mhz. :)
 
Zuletzt bearbeitet:
Woran willst du das ausmachen das die ein schlechtes modell erwischt haben ? es steht der max boost nicht mit im text ;).

p.s. hat halt nicht jeder so einen 680 killer wie du ;)
 
hehe^^ Normal! Aber Holla die Döner, die 680 Stock putz ich ohne mit den Augen zu zwinkern weg :)

Bei mir gibts nur 980 - 1202 Max. und dann halt nur die zwischenstufen.Nach dem Test geh ich davon aus das der Boost bei denen bei max 10xx Mhz liegt.Das ergibt ja dann gar keinen Sinn dann noch den Boost zu erähnen HÄÄÄ?
Wenn man schon dann Tabellen erstellt ohne den Max boost anzugeben , doch bei jedem Spiel was dort aufgeführt ist erreicht man automatisch den MaxBoost ... ähh?

Nutzloser Test.
 
Zuletzt bearbeitet:
Minimales Editing :d

Würde eher sagen, nVidia hat die erste Grafikkarte, jedenfalls mit Turbo.
 
Zuletzt bearbeitet:
Minimales Editing :d

Würde eher sagen, nVidia hat die erste Grafikkarte, jedenfalls mit Turbo.

Ja hat sich um 6 Minuten überschnitten.
In vielen Foren Weltweit wird immer mehr darüber diskutiert warum der Turbo bei allen Herstellern so variiert.Ich finde es nicht in Ordnung weil keiner Lust drauf hat eine Karte zu erwischen die einen Minimalen Boost nur hat.
Mitlerweile in den Staaten wirds als Marketing verwendet...egal.

Trotzdem der Test ist...schon gesagt^^

bye bye
 
Zuletzt bearbeitet:
@ NyukiDeluxe

Du kannst dich ja mal hinsetzen und kannst nen besseren Test schreiben. Glaube zwar nicht daran, dass er besser wird, aber dann kann man wenigstens berechtigt einen anderen Test als möglicherweise "Nutzlos" darstellen.

Des Weiteren sollen solche Tests einen gewissen Überblick verschaffen. Mehr nicht!

Und was diesen Boost betrifft. Wenn ich mich nicht irre, wird ja nur der minimale Boost garantiert. Der Rest ist Glückssache. Würden die Hersteller dir einen hohen Boost garantieren, müsstest du entsprechend mehr zahlen, weil die Chips mehr Handselektiert werden müssten. Die entsprechende Qualitätssicherstellung wäre aufwendiger und somit die Produktion teurer.
 
Also die POV GeForce GTX 670 TGT Ultra Charged hat ein sehr kurzes PCB. Warum machen das nicht auch die anderen
Hersteller ?. AMD sollte damit mal anfangen und nicht so schlachtschiffe bauen xD
 
Zuletzt bearbeitet:
Die POV GeForce GTX 670 TGT Ultra Charged hat das Referenz PCB von Nvidia. Die beiden anderen Karten verwenden hingegen das PCB der GTX680.
 
Moin

Naja, was heißt "der Test war unnütz", so voraussehbar war ein Grafikkartentest schon lange nicht mehr: KFA² > POV > Gigabyte, durch alle Spieletests hinweg und mit marginalen Unterschieden, die teils sogar auf Messungenauigkeit zurückzuführen wären. Es bringt bei leistungstechnisch derart nah beieinander liegenden Modellen in meinen Augen wenig, noch so detaillierte Leistungstests zu erstellen. Die einzigen markanten Unterschiede sind demnach die Kühler und deren Leistungsfähigkeit und Lärmausstoß, während die Unterschiede in Spielen bei 0,2-3,4FPS zwischen der stärkeren KFA² und der schwächeren Gigabyte Karte liegen.
 
hehe^^ Normal! Aber Holla die Döner, die 680 Stock putz ich ohne mit den Augen zu zwinkern weg :)

Bei mir gibts nur 980 - 1202 Max. und dann halt nur die zwischenstufen.Nach dem Test geh ich davon aus das der Boost bei denen bei max 10xx Mhz liegt.Das ergibt ja dann gar keinen Sinn dann noch den Boost zu erähnen HÄÄÄ?
Wenn man schon dann Tabellen erstellt ohne den Max boost anzugeben , doch bei jedem Spiel was dort aufgeführt ist erreicht man automatisch den MaxBoost ... ähh?

Nutzloser Test.

Das ist quatsch... Der erreichte maximale Turbotakt ist nicht fix vorgegeben. Der min Boost hingegen schon. Ein Vergleich des maximalen Boosts macht dahingehend keinen wirklichen Sinn. Denn er hängt dazu noch von vielen anderen Parametern ab. Beispielsweise der Kühlung.
Und du solltest nicht annehmen ;) Wenn du was nicht weist, frag nach... Deine Annahme ist nämlich nicht richtig. Es ist nicht max. es ist min... Genau so wie es NV spezifiziert.

Moin

Naja, was heißt "der Test war unnütz", so voraussehbar war ein Grafikkartentest schon lange nicht mehr: KFA² > POV > Gigabyte, durch alle Spieletests hinweg und mit marginalen Unterschieden, die teils sogar auf Messungenauigkeit zurückzuführen wären. Es bringt bei leistungstechnisch derart nah beieinander liegenden Modellen in meinen Augen wenig, noch so detaillierte Leistungstests zu erstellen. Die einzigen markanten Unterschiede sind demnach die Kühler und deren Leistungsfähigkeit und Lärmausstoß, während die Unterschiede in Spielen bei 0,2-3,4FPS zwischen der stärkeren KFA² und der schwächeren Gigabyte Karte liegen.

Aber genau solche Tests interessieren die Leser... Wie oft ließt man in den Foren was von Fragen ob irgendwelche OC Versionen kaufen oder eben Ref. design.
Auch wenn es mit den Kepler GPUs dank dem Turbo und der unbekannten Höhe dessen schwerer ist zu vergleichen bringt so ein Test eben genau Aufschluss darüber, wo der Käufer von nicht Ref. Taktkarten am Ende steht. Und wenn es nur 0,x FPS sind, dann ist das eben genau das Ergebnis.
 
Also die POV GeForce GTX 670 TGT Ultra Charged hat ein sehr kurzes PCB. Warum machen das nicht auch die anderen
Hersteller ?. AMD sollte damit mal anfangen und nicht so schlachtschiffe bauen xD

kurze pcbs sind hässlich. liefer schlachtschiff als gummiboot. wie siehtn das aus ne monster karte im rechner die aussieht wie ne 0815 office karte:d
 
oder ne Soundkarte, die dürfen kurze PCb´s haben, aber doch net die Grafikkarten. ;)
 
Dann müsst ihr halt einen wuchtigen Kühler drauf basteln,dann sieht man das PCB nicht (zumindest bei einem 90°C gedrehten Einbau) :d
 
Ein Vergleich des maximalen Boosts macht dahingehend keinen wirklichen Sinn. Denn er hängt dazu noch von vielen anderen Parametern ab. Beispielsweise der Kühlung.


Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.

Nur am maximalen Boost kann man auch erkennen ob der Hersteller wirklich Chips auf den OC Versionen selektiert oder standard verbaut.

Die Gigabyte zum Beisiel läuft bei mir mit max Powerlimit dauerhaft auf dem maximalen Boost-Clock und ich bekomme den mit OC auf über 1300 MHz. Ich bezweifle dass die POV Karte mit ihren 6er Anschlüssen und der Kühlung das schafft!
 
Zuletzt bearbeitet:
Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.

Nur am maximalen Boost kann man auch erkennen ob der Hersteller wirklich Chips auf den OC Versionen selektiert oder standard verbaut.

Die Gigabyte zum Beisiel läuft bei mir mit max Powerlimit dauerhaft auf dem maximalen Boost-Clock und ich bekomme den mit OC auf über 1300 MHz. Ich bezweifle dass die POV Karte mit ihren 6er Anschlüssen und der Kühlung das schafft!


Wobei es dort wohl weniger an den 2 * 6-Pin liegt als vielmehr am PCB-Layout und Kühllösung. Der 8-Pin an den GTX 670 mit 680'er Layout ist einfach overkill. Selbst mit vollem Power Target zieht eine 670 nicht soviel, dass nicht auch 2 * 6-Pin locker reichen würden.
 
Der 8 Pin schadet aber auch nix und das Power Target kann jeder Hersteller nun mal selbst bestimmen und bei der Gigabyte ist es halt deutlich höher als normal.

Wie dass die anderen Karten POV und KFA2 halten... keine Ahnung. Insbesondere bei der POV würde mich das mal interessieren.
 
Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.

Nur am maximalen Boost kann man auch erkennen ob der Hersteller wirklich Chips auf den OC Versionen selektiert oder standard verbaut.

Die Gigabyte zum Beisiel läuft bei mir mit max Powerlimit dauerhaft auf dem maximalen Boost-Clock und ich bekomme den mit OC auf über 1300 MHz. Ich bezweifle dass die POV Karte mit ihren 6er Anschlüssen und der Kühlung das schafft!

Stimme Dir größtenteils zu, dieser Test mit OC-Modellen steht nur für die subjektive Wahrnehmung des Tester da und auch die Testergebnisse die er gemessen hat. Hätte er die maximalen Möglichkeiten mit getestet, wären die aber nur auf seine Zurverfügungstellen Modelle anwendbar - Es wären ja keine Fakten und auch nicht auf alle übertragbar, da sich das OC-Verhalten auch
jenach Güte des Chips richtet.

Dein Zweifel ob die POV mit 2x6 und der Kühlung ähnliche Ergebnisse schafft, hängt eben auch an der Güte des Chips - Einer schafft es, ein anderer eben nicht, das wird so vermute ich auch auf die Gigabyte-Modelle zutreffen ;)
 
Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.

Es geht aber nicht darum, "Perlen" unter den Karten rauszufinden und diese gegen schlechtere Modelle zu vergleichen, sondern es geht um den neutralen Vergleich von Modellen ohne dedizierte Selektion vor dem Test. Sprich geh in den Laden um die Ecke, kauf dir ne Hand voll Karten und teste diese gegeneinander. Sowas interessiert die Leser, weil solche Fragen alle Nase lang auftauchen.
Deine Werte mit den Taktraten sind absolut aus der Luft gegriffen, auch wenn es in deinem Beispiel genau so sein kann, steht die Warscheinlichkeit mindestens genau so hoch, wenn nicht gar höher, das es genau andersrum sein kann. Und wie man am Test sieht (auch wenn die Unterschiede sehr gering sind, dafür aber auffallend durchgängig) ist eben das OC Modell minimal schneller als das Basismodell. Wie hoch genau der Unterschied schlussendlich ist, hängt eben vom anliegenden Turbo ab. Bei der einen Karte ist es mehr, bei der anderen weniger. Erwischt der Käufer ein wirklich gutes Basismodell kann es wieder anders ausschauen. Aber genau der Fall ist dennoch reichliches Glück.

Was für einen Sinn würde es also machen, diese Variable Größe des maximalen Boosts anzugeben, wenn einerseits dieser Wert auf keine andere Karte der selben Modellreihe übertragbar wäre, noch dazu es nichtmal gegeben ist, das unter allen Bedingungen dieser Wert erreicht wird?

PS: Aussagen wie meine Karte rennt mit erhöhtem Powertarget im max. Boost usw. bringen uns da auch nicht weiter. Es wird wie immer einfach default getestet. Da wird nichts an der Kühlung verändert noch am Powertarget. Es kommt wie es kommt.

Und noch ne Anmerkung, ließ mal das Fazit, vllt wird einiges Klarer. Die PoV und die KFA² lassen dort gerade in Punkto Lautstärke sowie Temperatur Federn im Vergleich. Gepaart mit dem Wissen, das die GPUs bei ner Temperatur von über 70°C schon nichtmehr den vollen maximalen Boost anlegen bestärkt das nochmals die Annahme diesen nicht explizit als Basis für den Vergleich zu nehmen, sondern das Minimum anzugeben.
 
Deine Werte mit den Taktraten sind absolut aus der Luft gegriffen, auch wenn es in deinem Beispiel genau so sein kann, steht die Warscheinlichkeit mindestens genau so hoch, wenn nicht gar höher, das es genau andersrum sein kann. Und wie man am Test sieht (auch wenn die Unterschiede sehr gering sind, dafür aber auffallend durchgängig) ist eben das OC Modell minimal schneller als das Basismodell. Wie hoch genau der Unterschied schlussendlich ist, hängt eben vom anliegenden Turbo ab. Bei der einen Karte ist es mehr, bei der anderen weniger. Erwischt der Käufer ein wirklich gutes Basismodell kann es wieder anders ausschauen. Aber genau der Fall ist dennoch reichliches Glück.

Was für einen Sinn würde es also machen, diese Variable Größe des maximalen Boosts anzugeben, wenn einerseits dieser Wert auf keine andere Karte der selben Modellreihe übertragbar wäre, noch dazu es nichtmal gegeben ist, das unter allen Bedingungen dieser Wert erreicht wird?

Dem stimme ich nicht unbedingt zu. Ob eine Karte mehr mit dem Base/Boost-Takt läuft oder mehr mit dem maximalen Boost-takt hängt eben nicht nur von der Güte des Chips ab, sondern eben auch vom Power Target, dass der Hersteller einstellt. Bei der Gigabyte Karte ist es so hoch eingestellt, das diese wie gesagt Konstant mit hohem Takt läuft. Die Karte übertaktet sogar noch in Furmark! Und genau solche Infos finde ich bei den OC Modellen absolut relevant!

>Wie hoch genau der Unterschied schlussendlich ist, hängt eben vom anliegenden Turbo ab.

Das würde ich auch so sehen, aber wenn ich das Ergebniss dieses Tests hier nehme, dann offenbar ja nicht, denn die Reihenfolge der Karte bei den Benchmarks entspricht IMMER in jedem Benchmark selbst bei der kleinsten Auflösung bis auf 0,1 FPS! der Reihenfolge von Base/Boost Clock - (Ich halte das für extrem unwahrscheinlich, da die meisten Benchmarks locker um 1-2 FPS oder mehr schwanken, aber gut ich kann es auch nicht nachprüfen) Das würde bedeuten, dass eine Karte mit höherem Base/Boost auch entsprechend mehr maximalen Boost hat.

Nach meinen Erfahrungen ich habe bisher 3 Karten gebenchmarkt, ist der maximale Boost, aber nicht unbedingt vom vorgegebenen Base/Boost Clock abhängig.

---------- Post added at 18:38 ---------- Previous post was at 18:35 ----------

das die GPUs bei ner Temperatur von über 70°C schon nichtmehr den vollen maximalen Boost anlegen bestärkt das nochmals die Annahme diesen nicht explizit als Basis für den Vergleich zu nehmen, sondern das Minimum anzugeben.

Und so verwundert es um so mehr, dass obwohl die Karten so heiß werden und deshalb eigentlich nicht mehr so hoch takten dürften, sie immer schneller sind als die Gigabyte-Karte....
 
Zuletzt bearbeitet:
Wenn ihr fragen habt, hier gibt es antworten. ;)


Das bringt es auf den Punkt:
Nach meinen Erfahrungen ich habe bisher 3 Karten gebenchmarkt, ist der maximale Boost, aber nicht unbedingt vom vorgegebenen Base/Boost Clock abhängig.
Der Boost, egal ob oced oder @stock, ist von Karte zu Karte, herstellerunabhängig, verschieden. Sogar die Temperaturen schwanken teils stark!
Das einzige doofe daran ist, dass die Boost-Grenze nicht mit der Boost-Angabe übereinstimmt, was dazu führt, dass eine Karte auf bis 1200MHz taktet und eine gleiche, andere Karte aber nur bis 1090MHz.
 
Dennoch bleibt es eben genau aus diesem Wissensgrund eher quatsch, diesen maximal möglichen Boost Clock, der von vielen Faktoren abhängt, von Karte zu Karte so oder so schon unterschiedlich ist, als Basis für den Vergleich ranzuziehen. Das einzig richtige, was man machen kann, ist eben die fixen minimal Angaben zu setzen und zu propagieren. Da alles was noch dort oben drauf kommt reinste Glückssache ist. Und um nichts anderes ging es doch!?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh