nightwatch
Enthusiast
- Mitglied seit
- 23.11.2006
- Beiträge
- 3.331
- Ort
- Hannover
- Desktop System
- Hotte
- Details zu meinem Desktop
- Prozessor
- 5800X3D
- Mainboard
- Asrock B550M Steel Legend
- Kühler
- Endorfy Fortis 5
- Speicher
- 32GB G.Skill Aegis 3200MHz CL16
- Grafikprozessor
- Asus Prime 9060XT 16GB
- Display
- AOC 25G3ZM (FHD, 240Hz)
- SSD
- WD Black SN770 1TB M.2 + 500GB SATA
- Soundkarte
- Steelseries Arctis Nova
- Gehäuse
- BeQuiet Silent Base 801
- Netzteil
- BeQuiet PP11 600W
- Mouse
- Logitech G502
- Betriebssystem
- Win 11 Pro / CachyOS
- Sonstiges
- Logitech G29
Das kann ich dir auch nicht beantworten, ich denke mal man "muss" aufgrund von internen Vorgaben alle Karten mit bestimmter Mindestspannung ausliefern damit Toleranzen in der Chipgüte ausgeglichen werden. Vielleicht sind diese Vorgaben mit so viel (oder zu viel) Polster ausgelegt, dass ein eigentlich vorhandenes Optimierungspotential, was man hätte einfließen lassen können, nicht genutzt wird.
Muss halt auch die wirklich schlechteste GPU stabil laufen, aber ob das in Zeiten von Boost+Co wirklich nötig ist? Eine GPU hat ja sicher auch ne VID, dann wird halt niedriger geboostet wenn die GPU etwas mehr Spannung braucht um die Verlustleistung zu deckeln.
Kann aber auch sein dass ich hier grad nen Denkfehler habe. Aber offenbar nutzt man brachliegendes Optimierungspotential zu wenig.
Muss halt auch die wirklich schlechteste GPU stabil laufen, aber ob das in Zeiten von Boost+Co wirklich nötig ist? Eine GPU hat ja sicher auch ne VID, dann wird halt niedriger geboostet wenn die GPU etwas mehr Spannung braucht um die Verlustleistung zu deckeln.
Kann aber auch sein dass ich hier grad nen Denkfehler habe. Aber offenbar nutzt man brachliegendes Optimierungspotential zu wenig.
Zuletzt bearbeitet:


? Ich meine beim Boost ist es halt immer so, dass er nicht garantiert ist, wenn man also Grafikkarten testet, sollte man eigentlich auch Tests nur mit dem garantierten Takt machen.

