Aktuelles

Test: 3x NVIDIA GeForce GTX 670

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
32.382
<p><strong><img src="/images/stories/galleries/reviews/2012/gigabyte-gtx670/geforce-logo-100px.jpg" alt="geforce-logo-100px" style="float: left; margin: 10px;" height="100" width="100" />Zum Launch der GeForce GTX 670 (<a href="index.php/artikel/hardware/grafikkarten/22419-test-4x-nvidia-geforce-gtx-670-und-sli.html" target="_blank">Zum Test</a>) schauten wir uns bereits einige Modelle etwas genauer an. Mit von der Partie waren die ASUS GeForce GTX 670 DirectCU II TOP, EVGA GeForce GTX 670 Superclocked, Palit GeForce GTX 670 Jetstream und Zotac GeForce GTX 670 AMP! Edition. Mit dem heutigen Review kommen noch einige Vertreter hinzu, welche die aktuelle Marktlage bzw. unseren Blick darauf deutlich ausbauen. Genauer gesagt handelt es sich um die Gigabyte GeForce GTX 670 OC, KFA²...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/22686-test-3x-nvidia-geforce-gtx-670.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

CH4F

Experte
Mitglied seit
18.02.2011
Beiträge
5.698
Ort
Bad Godesberg
System
Laptop
HP Zbook 15u G6
Details zu meinem Desktop
Prozessor
Ryzen 5 1600 @ 3,8 GHz
Mainboard
Asus Strix B350-F Gaming
Kühler
BQ Dark Rock Pro 3
Speicher
Ballistix LT Sport 2400 2x8GB CL16
Grafikprozessor
MSI RX480 Gaming X
Display
HP X27i
SSD
SanDisk Ultra 3D 2TB
Gehäuse
Nanoxia Deep Silence 1
Netzteil
Enermax Revolution X't II 550W
Keyboard
Corsair Strafe RGB
Mouse
Roccat Kone Pure Owl-Eye
Betriebssystem
W10
Keine OC-Benches? T_T
 

NyukiDeluxe

Neuling
Mitglied seit
18.12.2010
Beiträge
143
Da habt ihr aber ein schlechtes Gigabyte Model erwischt.Mein Boost (Stock) liegt bei 1202 Mhz^^ und lässt sich bis max.1367~ Mhz übertakten.Wie auch mein Ramtakt bis 7450 Mhz. :)
 
Zuletzt bearbeitet:

BAdt

Semiprofi
Mitglied seit
17.10.2011
Beiträge
4.416
Ort
im grünen Herzen Deutschlands
Woran willst du das ausmachen das die ein schlechtes modell erwischt haben ? es steht der max boost nicht mit im text ;).

p.s. hat halt nicht jeder so einen 680 killer wie du ;)
 

NyukiDeluxe

Neuling
Mitglied seit
18.12.2010
Beiträge
143
hehe^^ Normal! Aber Holla die Döner, die 680 Stock putz ich ohne mit den Augen zu zwinkern weg :)

Bei mir gibts nur 980 - 1202 Max. und dann halt nur die zwischenstufen.Nach dem Test geh ich davon aus das der Boost bei denen bei max 10xx Mhz liegt.Das ergibt ja dann gar keinen Sinn dann noch den Boost zu erähnen HÄÄÄ?
Wenn man schon dann Tabellen erstellt ohne den Max boost anzugeben , doch bei jedem Spiel was dort aufgeführt ist erreicht man automatisch den MaxBoost ... ähh?

Nutzloser Test.
 
Zuletzt bearbeitet:

marvinator

Semiprofi
Mitglied seit
23.03.2012
Beiträge
2.076
Minimales Editing :d

Würde eher sagen, nVidia hat die erste Grafikkarte, jedenfalls mit Turbo.
 
Zuletzt bearbeitet:

NyukiDeluxe

Neuling
Mitglied seit
18.12.2010
Beiträge
143
Minimales Editing :d

Würde eher sagen, nVidia hat die erste Grafikkarte, jedenfalls mit Turbo.
Ja hat sich um 6 Minuten überschnitten.
In vielen Foren Weltweit wird immer mehr darüber diskutiert warum der Turbo bei allen Herstellern so variiert.Ich finde es nicht in Ordnung weil keiner Lust drauf hat eine Karte zu erwischen die einen Minimalen Boost nur hat.
Mitlerweile in den Staaten wirds als Marketing verwendet...egal.

Trotzdem der Test ist...schon gesagt^^

bye bye
 
Zuletzt bearbeitet:

d3lph!c

Neuling
Mitglied seit
30.01.2006
Beiträge
732
@ NyukiDeluxe

Du kannst dich ja mal hinsetzen und kannst nen besseren Test schreiben. Glaube zwar nicht daran, dass er besser wird, aber dann kann man wenigstens berechtigt einen anderen Test als möglicherweise "Nutzlos" darstellen.

Des Weiteren sollen solche Tests einen gewissen Überblick verschaffen. Mehr nicht!

Und was diesen Boost betrifft. Wenn ich mich nicht irre, wird ja nur der minimale Boost garantiert. Der Rest ist Glückssache. Würden die Hersteller dir einen hohen Boost garantieren, müsstest du entsprechend mehr zahlen, weil die Chips mehr Handselektiert werden müssten. Die entsprechende Qualitätssicherstellung wäre aufwendiger und somit die Produktion teurer.
 

SystemX

Experte
Mitglied seit
02.09.2010
Beiträge
7.243
Ort
Bergisch Gladbach
System
Desktop System
TerrorX
Details zu meinem Desktop
Prozessor
Core i7 4770K
Mainboard
ASRock Z87 Extreme 4
Kühler
EKL Alpenföhn Brocken
Speicher
16GB G.Skill DDR3-1600 CL9
Grafikprozessor
AMD Radeon HD7950
Display
3x Benq G2222HDL
SSD
Samsung 840 Evo 250GB
HDD
Samsung ST1000DM003 1TB
Opt. Laufwerk
LG GH24NS95
Soundkarte
Creative X-Fi PCI-e
Gehäuse
Cooler Master Silencio 550
Netzteil
Be Queit! Pure Power 10CM 400W
Keyboard
Speedlink LUCIDIS Comfort
Mouse
Logitech G400s
Betriebssystem
Windows 10 Pro x64
Webbrowser
Mozilla Firefox
Also die POV GeForce GTX 670 TGT Ultra Charged hat ein sehr kurzes PCB. Warum machen das nicht auch die anderen
Hersteller ?. AMD sollte damit mal anfangen und nicht so schlachtschiffe bauen xD
 
Zuletzt bearbeitet:

stolte

Enthusiast
Mitglied seit
27.10.2008
Beiträge
1.071
Die POV GeForce GTX 670 TGT Ultra Charged hat das Referenz PCB von Nvidia. Die beiden anderen Karten verwenden hingegen das PCB der GTX680.
 

DHAmoKK

Neuling
Mitglied seit
03.12.2007
Beiträge
141
Moin

Naja, was heißt "der Test war unnütz", so voraussehbar war ein Grafikkartentest schon lange nicht mehr: KFA² > POV > Gigabyte, durch alle Spieletests hinweg und mit marginalen Unterschieden, die teils sogar auf Messungenauigkeit zurückzuführen wären. Es bringt bei leistungstechnisch derart nah beieinander liegenden Modellen in meinen Augen wenig, noch so detaillierte Leistungstests zu erstellen. Die einzigen markanten Unterschiede sind demnach die Kühler und deren Leistungsfähigkeit und Lärmausstoß, während die Unterschiede in Spielen bei 0,2-3,4FPS zwischen der stärkeren KFA² und der schwächeren Gigabyte Karte liegen.
 

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
35.486
Ort
SN
hehe^^ Normal! Aber Holla die Döner, die 680 Stock putz ich ohne mit den Augen zu zwinkern weg :)

Bei mir gibts nur 980 - 1202 Max. und dann halt nur die zwischenstufen.Nach dem Test geh ich davon aus das der Boost bei denen bei max 10xx Mhz liegt.Das ergibt ja dann gar keinen Sinn dann noch den Boost zu erähnen HÄÄÄ?
Wenn man schon dann Tabellen erstellt ohne den Max boost anzugeben , doch bei jedem Spiel was dort aufgeführt ist erreicht man automatisch den MaxBoost ... ähh?

Nutzloser Test.
Das ist quatsch... Der erreichte maximale Turbotakt ist nicht fix vorgegeben. Der min Boost hingegen schon. Ein Vergleich des maximalen Boosts macht dahingehend keinen wirklichen Sinn. Denn er hängt dazu noch von vielen anderen Parametern ab. Beispielsweise der Kühlung.
Und du solltest nicht annehmen ;) Wenn du was nicht weist, frag nach... Deine Annahme ist nämlich nicht richtig. Es ist nicht max. es ist min... Genau so wie es NV spezifiziert.

Moin

Naja, was heißt "der Test war unnütz", so voraussehbar war ein Grafikkartentest schon lange nicht mehr: KFA² > POV > Gigabyte, durch alle Spieletests hinweg und mit marginalen Unterschieden, die teils sogar auf Messungenauigkeit zurückzuführen wären. Es bringt bei leistungstechnisch derart nah beieinander liegenden Modellen in meinen Augen wenig, noch so detaillierte Leistungstests zu erstellen. Die einzigen markanten Unterschiede sind demnach die Kühler und deren Leistungsfähigkeit und Lärmausstoß, während die Unterschiede in Spielen bei 0,2-3,4FPS zwischen der stärkeren KFA² und der schwächeren Gigabyte Karte liegen.
Aber genau solche Tests interessieren die Leser... Wie oft ließt man in den Foren was von Fragen ob irgendwelche OC Versionen kaufen oder eben Ref. design.
Auch wenn es mit den Kepler GPUs dank dem Turbo und der unbekannten Höhe dessen schwerer ist zu vergleichen bringt so ein Test eben genau Aufschluss darüber, wo der Käufer von nicht Ref. Taktkarten am Ende steht. Und wenn es nur 0,x FPS sind, dann ist das eben genau das Ergebnis.
 

Scrush

Legende
Mitglied seit
31.12.2008
Beiträge
36.378
Ort
Hessen
System
Details zu meinem Desktop
Prozessor
i9 9900K
Mainboard
Gigabyte Z390 Aorus Master
Kühler
Corsair H150i Pro
Speicher
32GB Corsair Vengeance 3200
Grafikprozessor
Gigabyte Aorus RTX 2080 Super
Display
Dell AW3420DW, Dell U2414h
SSD
Samsung 960evo 250gb, 850 250gb, 840 500gb,
HDD
WD Red 3TB
Gehäuse
LianLi PC011 Dynamic
Netzteil
Be-Quiet Straight Power 11 650W CM
Keyboard
Varmilo VA69M
Mouse
Logitech G Pro Wireless
Betriebssystem
Windows 10 Pro
Webbrowser
Vivaldi
Also die POV GeForce GTX 670 TGT Ultra Charged hat ein sehr kurzes PCB. Warum machen das nicht auch die anderen
Hersteller ?. AMD sollte damit mal anfangen und nicht so schlachtschiffe bauen xD
kurze pcbs sind hässlich. liefer schlachtschiff als gummiboot. wie siehtn das aus ne monster karte im rechner die aussieht wie ne 0815 office karte:d
 

m@tti

Modaretor Hardawreluxx Inforamtiker Luxus Luxxer
Hardwareluxx Team
Mitglied seit
07.04.2008
Beiträge
30.709
Ort
Hoywoy(heimat)
System
Desktop System
Gertrude
Details zu meinem Desktop
Prozessor
i7 10700 K @ 4.7 allcore, offset -0.035V
Mainboard
MSI MEG Z490 Unify
Kühler
alphacool Eisbaer Aurora (Pumpe 7V)+2 NF-F12 PWM chromax
Speicher
32GB GSKill Trident Z 3600 Mhz, Cl 17-19-39, 135V
Grafikprozessor
MSi Geforce RTX 2080 Super Gaming X Trio
Display
Dell U2515H
SSD
500GB PNY XLR8 CS3030 (BS/Programme) / 2TB PNY XLR8 CS3030 NVME (Spiele/Programme usw.)
Soundkarte
Soundblaster ZxR
Gehäuse
Jonsbo U5S
Netzteil
Fractal Design Ion+ 760P
Keyboard
Logitech G915
Mouse
Logitech G903 (Hero Sensor)
Betriebssystem
Win 10 Pro
Webbrowser
Firefox
Internet
▼ 250 MBit ▲ 40 MBit
oder ne Soundkarte, die dürfen kurze PCb´s haben, aber doch net die Grafikkarten. ;)
 

stolte

Enthusiast
Mitglied seit
27.10.2008
Beiträge
1.071
Dann müsst ihr halt einen wuchtigen Kühler drauf basteln,dann sieht man das PCB nicht (zumindest bei einem 90°C gedrehten Einbau) :d
 

KalleWirsch

Neuling
Mitglied seit
09.06.2008
Beiträge
85
Ein Vergleich des maximalen Boosts macht dahingehend keinen wirklichen Sinn. Denn er hängt dazu noch von vielen anderen Parametern ab. Beispielsweise der Kühlung.

Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.

Nur am maximalen Boost kann man auch erkennen ob der Hersteller wirklich Chips auf den OC Versionen selektiert oder standard verbaut.

Die Gigabyte zum Beisiel läuft bei mir mit max Powerlimit dauerhaft auf dem maximalen Boost-Clock und ich bekomme den mit OC auf über 1300 MHz. Ich bezweifle dass die POV Karte mit ihren 6er Anschlüssen und der Kühlung das schafft!
 
Zuletzt bearbeitet:

Iceman021

Enthusiast
Mitglied seit
16.02.2006
Beiträge
2.507
Ort
Oldenburg
Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.

Nur am maximalen Boost kann man auch erkennen ob der Hersteller wirklich Chips auf den OC Versionen selektiert oder standard verbaut.

Die Gigabyte zum Beisiel läuft bei mir mit max Powerlimit dauerhaft auf dem maximalen Boost-Clock und ich bekomme den mit OC auf über 1300 MHz. Ich bezweifle dass die POV Karte mit ihren 6er Anschlüssen und der Kühlung das schafft!

Wobei es dort wohl weniger an den 2 * 6-Pin liegt als vielmehr am PCB-Layout und Kühllösung. Der 8-Pin an den GTX 670 mit 680'er Layout ist einfach overkill. Selbst mit vollem Power Target zieht eine 670 nicht soviel, dass nicht auch 2 * 6-Pin locker reichen würden.
 

KalleWirsch

Neuling
Mitglied seit
09.06.2008
Beiträge
85
Der 8 Pin schadet aber auch nix und das Power Target kann jeder Hersteller nun mal selbst bestimmen und bei der Gigabyte ist es halt deutlich höher als normal.

Wie dass die anderen Karten POV und KFA2 halten... keine Ahnung. Insbesondere bei der POV würde mich das mal interessieren.
 

dochurt

Semiprofi
Mitglied seit
27.03.2009
Beiträge
2.731
Ort
provinz neurotiker@Lower Sexony
Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.

Nur am maximalen Boost kann man auch erkennen ob der Hersteller wirklich Chips auf den OC Versionen selektiert oder standard verbaut.

Die Gigabyte zum Beisiel läuft bei mir mit max Powerlimit dauerhaft auf dem maximalen Boost-Clock und ich bekomme den mit OC auf über 1300 MHz. Ich bezweifle dass die POV Karte mit ihren 6er Anschlüssen und der Kühlung das schafft!
Stimme Dir größtenteils zu, dieser Test mit OC-Modellen steht nur für die subjektive Wahrnehmung des Tester da und auch die Testergebnisse die er gemessen hat. Hätte er die maximalen Möglichkeiten mit getestet, wären die aber nur auf seine Zurverfügungstellen Modelle anwendbar - Es wären ja keine Fakten und auch nicht auf alle übertragbar, da sich das OC-Verhalten auch
jenach Güte des Chips richtet.

Dein Zweifel ob die POV mit 2x6 und der Kühlung ähnliche Ergebnisse schafft, hängt eben auch an der Güte des Chips - Einer schafft es, ein anderer eben nicht, das wird so vermute ich auch auf die Gigabyte-Modelle zutreffen ;)
 

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
35.486
Ort
SN
Der macht absolut Sinn, eigentlich ist es sogar das einzige was Sinn macht. Nur ist es Aufwand und bei so einem Schnellschuss-Vergleichs-Review wohl zu viel.

Der normale BaseClock und der Boost Clock tauchen in der Praxis doch so gut wie nie auf, daher macht es mehr oder weniger keinen Sinn diese Werte zu vergleichen und als Maßstab für die Performance zu nehmen. Dann kann man sich die ganzen Benchmarks schenken und sagen, das sowieso jede Karte anders taktet.

Wenn eine Karte einen Base von 1000 und Boost von 1100 hat und die ganze Zeit mit 1100 rennt ist sie langsamer als eine Karte die Base 950 und Boost 1050 hat aber die ganze Zeit mit 1200 rennt.
Es geht aber nicht darum, "Perlen" unter den Karten rauszufinden und diese gegen schlechtere Modelle zu vergleichen, sondern es geht um den neutralen Vergleich von Modellen ohne dedizierte Selektion vor dem Test. Sprich geh in den Laden um die Ecke, kauf dir ne Hand voll Karten und teste diese gegeneinander. Sowas interessiert die Leser, weil solche Fragen alle Nase lang auftauchen.
Deine Werte mit den Taktraten sind absolut aus der Luft gegriffen, auch wenn es in deinem Beispiel genau so sein kann, steht die Warscheinlichkeit mindestens genau so hoch, wenn nicht gar höher, das es genau andersrum sein kann. Und wie man am Test sieht (auch wenn die Unterschiede sehr gering sind, dafür aber auffallend durchgängig) ist eben das OC Modell minimal schneller als das Basismodell. Wie hoch genau der Unterschied schlussendlich ist, hängt eben vom anliegenden Turbo ab. Bei der einen Karte ist es mehr, bei der anderen weniger. Erwischt der Käufer ein wirklich gutes Basismodell kann es wieder anders ausschauen. Aber genau der Fall ist dennoch reichliches Glück.

Was für einen Sinn würde es also machen, diese Variable Größe des maximalen Boosts anzugeben, wenn einerseits dieser Wert auf keine andere Karte der selben Modellreihe übertragbar wäre, noch dazu es nichtmal gegeben ist, das unter allen Bedingungen dieser Wert erreicht wird?

PS: Aussagen wie meine Karte rennt mit erhöhtem Powertarget im max. Boost usw. bringen uns da auch nicht weiter. Es wird wie immer einfach default getestet. Da wird nichts an der Kühlung verändert noch am Powertarget. Es kommt wie es kommt.

Und noch ne Anmerkung, ließ mal das Fazit, vllt wird einiges Klarer. Die PoV und die KFA² lassen dort gerade in Punkto Lautstärke sowie Temperatur Federn im Vergleich. Gepaart mit dem Wissen, das die GPUs bei ner Temperatur von über 70°C schon nichtmehr den vollen maximalen Boost anlegen bestärkt das nochmals die Annahme diesen nicht explizit als Basis für den Vergleich zu nehmen, sondern das Minimum anzugeben.
 

KalleWirsch

Neuling
Mitglied seit
09.06.2008
Beiträge
85
Deine Werte mit den Taktraten sind absolut aus der Luft gegriffen, auch wenn es in deinem Beispiel genau so sein kann, steht die Warscheinlichkeit mindestens genau so hoch, wenn nicht gar höher, das es genau andersrum sein kann. Und wie man am Test sieht (auch wenn die Unterschiede sehr gering sind, dafür aber auffallend durchgängig) ist eben das OC Modell minimal schneller als das Basismodell. Wie hoch genau der Unterschied schlussendlich ist, hängt eben vom anliegenden Turbo ab. Bei der einen Karte ist es mehr, bei der anderen weniger. Erwischt der Käufer ein wirklich gutes Basismodell kann es wieder anders ausschauen. Aber genau der Fall ist dennoch reichliches Glück.

Was für einen Sinn würde es also machen, diese Variable Größe des maximalen Boosts anzugeben, wenn einerseits dieser Wert auf keine andere Karte der selben Modellreihe übertragbar wäre, noch dazu es nichtmal gegeben ist, das unter allen Bedingungen dieser Wert erreicht wird?
Dem stimme ich nicht unbedingt zu. Ob eine Karte mehr mit dem Base/Boost-Takt läuft oder mehr mit dem maximalen Boost-takt hängt eben nicht nur von der Güte des Chips ab, sondern eben auch vom Power Target, dass der Hersteller einstellt. Bei der Gigabyte Karte ist es so hoch eingestellt, das diese wie gesagt Konstant mit hohem Takt läuft. Die Karte übertaktet sogar noch in Furmark! Und genau solche Infos finde ich bei den OC Modellen absolut relevant!

>Wie hoch genau der Unterschied schlussendlich ist, hängt eben vom anliegenden Turbo ab.

Das würde ich auch so sehen, aber wenn ich das Ergebniss dieses Tests hier nehme, dann offenbar ja nicht, denn die Reihenfolge der Karte bei den Benchmarks entspricht IMMER in jedem Benchmark selbst bei der kleinsten Auflösung bis auf 0,1 FPS! der Reihenfolge von Base/Boost Clock - (Ich halte das für extrem unwahrscheinlich, da die meisten Benchmarks locker um 1-2 FPS oder mehr schwanken, aber gut ich kann es auch nicht nachprüfen) Das würde bedeuten, dass eine Karte mit höherem Base/Boost auch entsprechend mehr maximalen Boost hat.

Nach meinen Erfahrungen ich habe bisher 3 Karten gebenchmarkt, ist der maximale Boost, aber nicht unbedingt vom vorgegebenen Base/Boost Clock abhängig.

---------- Post added at 18:38 ---------- Previous post was at 18:35 ----------

das die GPUs bei ner Temperatur von über 70°C schon nichtmehr den vollen maximalen Boost anlegen bestärkt das nochmals die Annahme diesen nicht explizit als Basis für den Vergleich zu nehmen, sondern das Minimum anzugeben.
Und so verwundert es um so mehr, dass obwohl die Karten so heiß werden und deshalb eigentlich nicht mehr so hoch takten dürften, sie immer schneller sind als die Gigabyte-Karte....
 
Zuletzt bearbeitet:

marvinator

Semiprofi
Mitglied seit
23.03.2012
Beiträge
2.076
Wenn ihr fragen habt, hier gibt es antworten. ;)


Das bringt es auf den Punkt:
Nach meinen Erfahrungen ich habe bisher 3 Karten gebenchmarkt, ist der maximale Boost, aber nicht unbedingt vom vorgegebenen Base/Boost Clock abhängig.
Der Boost, egal ob oced oder @stock, ist von Karte zu Karte, herstellerunabhängig, verschieden. Sogar die Temperaturen schwanken teils stark!
Das einzige doofe daran ist, dass die Boost-Grenze nicht mit der Boost-Angabe übereinstimmt, was dazu führt, dass eine Karte auf bis 1200MHz taktet und eine gleiche, andere Karte aber nur bis 1090MHz.
 

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
35.486
Ort
SN
Dennoch bleibt es eben genau aus diesem Wissensgrund eher quatsch, diesen maximal möglichen Boost Clock, der von vielen Faktoren abhängt, von Karte zu Karte so oder so schon unterschiedlich ist, als Basis für den Vergleich ranzuziehen. Das einzig richtige, was man machen kann, ist eben die fixen minimal Angaben zu setzen und zu propagieren. Da alles was noch dort oben drauf kommt reinste Glückssache ist. Und um nichts anderes ging es doch!?
 
Oben Unten