Aktuelles

750ti läuft nicht mit Boost Clock

Chakonari

New member
Thread Starter
Mitglied seit
19.09.2019
Beiträge
13
System
Details zu meinem Desktop
Prozessor
Ryzen 3 2200G
Mainboard
ASUS B450M-A
Kühler
Boxed
Speicher
GSkill Aegis 16GB Kit DDR4 3000
Grafikprozessor
750ti (Gigabyte GV-N75TWF2BK-2GI)
Display
BenQ GW2470HL
SSD
2x OZC ARC100 250GB, 1x Crucial M500 500GB
HDD
1x Toshiba HDWD120 2TB
Gehäuse
Nanoxia Deep Silence 4
Netzteil
be quiet! Straight Power Gold 550W
Keyboard
Cherry MX Board 3.0 (Rote Tasten)
Mouse
Sharkoon Fireglider Laser (Baugleich A4tech XL-747H)
Betriebssystem
WIN 10 Pro 1903
Diesen Thread hatte ich gestartet, da ich in HWiNFO64, fälschlicherweise GPU Video Clock anstatt GPU Core Clock zum anzeigen über RTSS ausgewählt hatte. Dank AssassinWarlord ist jedoch ein anderer Fehler nun beseitigt, den ich nicht bemerkt hatte... es waren am Ende anscheinend doch die Kontakte.


Hallo,

da ich mir aktuell keine Neue Grafikkarte zulegen kann, verwende ich noch immer meine 750 ti von Gigabyte und hab mir die Leistung genauer angeschaut, um zu sehen ob ich noch was sinnvolles herauszuquetschen kann - die Karte ist (soll) bereits ab Werk übertaktet.

Es handelt sich um folgende: GIGABYTE GTX 750 Ti WindForce 2X Black (GV-N75TWF2BK-2GI). GPU-Z zeigt das, was Gigabyte angibt:

GPU Clock: 1163MHz Memory: 1350 MHz Boost: 1242 MHz
(Default Clock, Memory:, Boost: wie oben)


750-ti-gpu-z.gif

Mit HWiNFO64 und Riva Tuner sehe ich beim spielen für GPU jedoch immer 1175,8 MHz (und 1350 MHz fürs RAM). Die gleiche maximale Frequenz wird auch in 3D Modellierungssoftware (Blender) angezeigt - es springt von den "ruhenden" paar Hundert Herz auf 1175,8 MHz und bleibt dort. Ebenso mit der Unigine Heaven Benchmark. Dies bei einer Temp von etwas über 50C - also ist es nicht die Temperatur, welches den Boost verhindert.

Die 1175,8 sind unwesentlich mehr als die Base Clock von 1163 MHz (eine Zahl die ich bisher noch nicht gesehen habe). Zum Thema 1175,8 MHz fand ich nur, dass es EVGA 750tis gibt, die ein Base Clock von 1176 MHz haben. Hier finde ich den Zufall interessant. Das ein Zusammenhang besteht sehe ich jedoch nicht, da meine Karte ja noch das original BIOS hat. Hatte Sie gebraucht gekauft und dachte erst der Vorbesitzer hätte das BIOS gefläsht und vergessenes mir zu sagen(ist sehr unwahrscheinlich).

Die Frage: Warum läuft die Karte nicht mit der angegeben Boost Clock für die GPU?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

AssassinWarlord

Moderator
Hardwareluxx Team
Mitglied seit
28.08.2004
Beiträge
1.964
Ort
Radeberg (Bierstadt)
Hängt sie vielleicht im Powerlimit? Was steht den bei GPUz bei den sensorwerten? Da kannst du auch den gpuZ eigenen 3D Test laufen lassen und Mal da schauen bei den sensorwerten was der GPU Takt dabei sagt und was die restlichen Werte sagen während der 3D Test läuft. Einfach Mal ein Screenshot mit anhängen :)

Warum läuft sie eigentlich nur mit PCIe Modus x4 und nicht x16? In welchem Slot steckt sie? Ggf. Kontakte reinigen der karte
 

owlmaTh

Active member
Mitglied seit
26.05.2013
Beiträge
2.800
Einfach mal in den richtigen PCIe slot stecken, dann läuft sie auch mit x16 3.0 und taktet hoch.
 

Chakonari

New member
Thread Starter
Mitglied seit
19.09.2019
Beiträge
13
System
Details zu meinem Desktop
Prozessor
Ryzen 3 2200G
Mainboard
ASUS B450M-A
Kühler
Boxed
Speicher
GSkill Aegis 16GB Kit DDR4 3000
Grafikprozessor
750ti (Gigabyte GV-N75TWF2BK-2GI)
Display
BenQ GW2470HL
SSD
2x OZC ARC100 250GB, 1x Crucial M500 500GB
HDD
1x Toshiba HDWD120 2TB
Gehäuse
Nanoxia Deep Silence 4
Netzteil
be quiet! Straight Power Gold 550W
Keyboard
Cherry MX Board 3.0 (Rote Tasten)
Mouse
Sharkoon Fireglider Laser (Baugleich A4tech XL-747H)
Betriebssystem
WIN 10 Pro 1903
Hallo AssassinWarlord. Vielen Dank (bin nun etwas weitergekommen). Von dem GPU-Z eigenen Test hatte ich schon gelesen, konnte den aber nicht finden. Nachdem du ihn erwähnt hast "... irgendwo muss man den doch starten können...". Die Kontakte der Karte sind übrigens sauber.

Die Anzeige vom Bus Interface in GPU-Z ist von der aktuellen Last der Karte abhängig - steht im Pop-Up der sich übers Fragezeichen rechts daneben öffnet, über welches auch der 3d Test gestartet wird.

Mein MB (ASUS B450M-A) hat nur einen Slot für die Grafikkarte.

GPU-Z zeigt mir beim 3D Test eine GPU Clock von 1306 MHz(also mehr als die 1175,8 die ich bisher als max. sah und auch deutlich mehr als die vom Hersteller angegebene Boost Clock von 1242). Limitiert durch die Spannung. Screenshot links (siehe Unterschied zum Bus Interface in meinem 1. Post) und Mitte sind beim 3d Test, rechts im Idle Zustand ca. 20 Minuten danach). Raumtemp bei knapp unter 17°C.

Vermute nun, dass der Vorbesitzer wohl doch mit dem Maxwell BIOS Tweaker dran war. Hab aber keinen Kontakt mehr um nachzufragen. Werde mich nun wohl selber mit dem BIOs Tweaker, Afterburner und weiteren Tests beschäftigen müssen.

gpuz-test.png
 

Tzk

Well-known member
Mitglied seit
13.02.2006
Beiträge
12.564
Ort
Koblenz
Der Boostclock ist halt ein Richtwerk. Je nach Temperatur, Last und Spannung wird er erreicht, übertroffen oder unterschritten. Lass doch mal verschiedene LAstszenarien drüberlaufen bei denen der Boost nicht erreicht wird und schau was genau das Limit ist.
 

AssassinWarlord

Moderator
Hardwareluxx Team
Mitglied seit
28.08.2004
Beiträge
1.964
Ort
Radeberg (Bierstadt)
das sieht doch gut aus mit dem Boost takt...also kann die Karte wohl Boosten. Der angegebene Boostwert da ist nur der Mittelwert vom Boost, der kann gut höher sein, oder eben auch niedriger - je nach GPU Temperatur, Stromaufnahme, und maximale Spannung (GPU Last), gut da machen wir weiter:
1. Lass GPUz im hintergrund laufen, und starte eine 3D anwendung die du hast, wo die karte nicht richtig boosten will, also ein 3D Mark, oder kurz ein Spiel. Dann wieder raus und und im GPUz bei den Sensorwerten mal mit der Maus über die GPU Clock kurve fahren - da siehst du welche auslastung wann war (solang der balken da noch zu sehen ist) oder du machst halt ein "log to file" da unten
2. Stimmt trotzdem was mit dem PCIe nicht. Wenn die karte im Energiesparmodus ist, wird ledeglich das PCIe Protokoll geändert, also wie in deinem falle richtigerweise von PCIe version 3.0 wird zurückgestuft auf 1.1. Das ändert sich mit der Last - auch richtig. Was NICHT richtig ist und NICHT sein darf ist die Lane Anbindung...deine karte könnte mit x16 laufen, aber läuft nur mit x4 anbindung. Da stimmt irgendwas also nicht. Entweder am Mainboard, oder an der Grafikkarte.


Ich glaube nicht, das das Bios der Karte verändert wurde...
 

Chakonari

New member
Thread Starter
Mitglied seit
19.09.2019
Beiträge
13
System
Details zu meinem Desktop
Prozessor
Ryzen 3 2200G
Mainboard
ASUS B450M-A
Kühler
Boxed
Speicher
GSkill Aegis 16GB Kit DDR4 3000
Grafikprozessor
750ti (Gigabyte GV-N75TWF2BK-2GI)
Display
BenQ GW2470HL
SSD
2x OZC ARC100 250GB, 1x Crucial M500 500GB
HDD
1x Toshiba HDWD120 2TB
Gehäuse
Nanoxia Deep Silence 4
Netzteil
be quiet! Straight Power Gold 550W
Keyboard
Cherry MX Board 3.0 (Rote Tasten)
Mouse
Sharkoon Fireglider Laser (Baugleich A4tech XL-747H)
Betriebssystem
WIN 10 Pro 1903
Es waren doch die Kontakte. Mit Alkohol gereinigt und die Karte läuft nun mit 8x anstatt 4x. 8x da Ryzen 3 2200G nur 8 Lanes unterstützt. Bei dieser (und aktuelleren) Karte macht es aber nichts aus. Heaven 4.0 Benchmark Scores hatten sich auch nicht von 4x auf 8x verändert (hatte noch ältere gespeichert).

Vorher nie bemerkt (und beim Kauf nicht drauf geachtet). Beim jetzigen Herausfinden auch zwangsläufig einiges über overclocking gelesen und GFX (und CPU) nun beide übertaktet. GPU Spannung auf Werkseinstellung da ich ein Flashen vom BIOS um den Limit zu verändern nicht durchführen möchte.

Hier nun die Werte wie sie sein sollen. Links mit Werkseinstellungen, rechts übertaktet(3d Test lief bei beiden). Im Schnitt etwa 10% mehr FPS in GTA V und Firestrike von 4197 auf 4517.

kontakte.png
 

BrennPolster

Active member
Mitglied seit
26.05.2013
Beiträge
3.999
Übertaktung in so mickrigen Bereichen lohnt sich meiner Meinung nach überhaupt nicht.
Wenn du mehr Leistung willst brauchst schon was anständiges.

ob du nun 20 oder 22FPS hast ist halt komplett wayne

Daher aufs ganze gehen bei so einer GPU oder es ganz sein lassen.
Mod BIOS und go. 1500MHz+1500MHz ist das Minimum
 

Chakonari

New member
Thread Starter
Mitglied seit
19.09.2019
Beiträge
13
System
Details zu meinem Desktop
Prozessor
Ryzen 3 2200G
Mainboard
ASUS B450M-A
Kühler
Boxed
Speicher
GSkill Aegis 16GB Kit DDR4 3000
Grafikprozessor
750ti (Gigabyte GV-N75TWF2BK-2GI)
Display
BenQ GW2470HL
SSD
2x OZC ARC100 250GB, 1x Crucial M500 500GB
HDD
1x Toshiba HDWD120 2TB
Gehäuse
Nanoxia Deep Silence 4
Netzteil
be quiet! Straight Power Gold 550W
Keyboard
Cherry MX Board 3.0 (Rote Tasten)
Mouse
Sharkoon Fireglider Laser (Baugleich A4tech XL-747H)
Betriebssystem
WIN 10 Pro 1903
Vielen Dank. Ja. Es lässt sich mit Sicherheit mehr rausholen.

Wenn ich 20-22 FPS habe wird am Spiel was eingestellt oder ich Spiele es nicht. Es laufen mit dieser Hardware eh keine Spiele ab 2016 die mir gefallen. Da wird das Übertakten auch nicht helfen. Alles ab den 80ern bis 2015 das mir gefiel habe ich auch schon gespielt (und Spiele erneut durch so wie aktuell Borderlands Pre-Sequel). Früher hab ich viel auch CS 1.5 (meist im LAN) und CS:Source online gespielt. Inzwischen genügen mir ab 30 FPS in Single Player Spielen, bei 1920x1080 und nix auf Low gestellt. Für das Rendern von nur einem Model oder kleinerer Szenen in Blender lohnt sich ein Übertakten gar nicht.

Die ca. 10% sind nur durch die Übertaktung der Grafikkarte mittels MSI Afterburner - also ohne irgendwelche Mühe und unwesentlich mehr Wärme. Die Übertaktung der CPU bringt mit Boxed Kühler unwesentlich mehr.

Irgendwann wirds mit Sicherheit jucken, so das ich dann auch versuche alles zu übertakten. Aber das Übertakten war eh nicht Thema des Threads sondern nur als "Problem beseitigt und diese Kleinigkeit kam nebenbei raus." (Ich finde es gibt zu viele Threads in IT Foren bei denen die Eigentliche Geschichte nicht zu Ende erzhlät wird). Mein Boost Clock Problem ist nun gelöst(es gab ja eigentlich keins).
 
Oben Unten