Aktuelles

[User-Review] Warum mehr Phasen nicht immer auch effizienter sein müssen...

AssassinWarlord

Moderator
Hardwareluxx Team
Thread Starter
Mitglied seit
28.08.2004
Beiträge
3.167
Ort
Radeberg (Bierstadt)
Tachchen allerseits, Ich habe lange überlegt ob ich das in meinen Reparatur-Thread mit reinpacke, oder direkt ein neuen Thread dazu mache, aber zweiteres ist vieleicht doch besser um so den willigen Käufern zu zeigen - das viel nicht immer viel hilft. Es geht hier um die VRM Wandler Effizienz, die eben nicht automatisch besser sein muss als wenn man nur wenig Phasen hat..wobei das meistens mehr der Spar-Politik geschuldet ist, aber reinweg fürs Marketing klingt es halt erstmal cool wenn man hinschreiben kann - 16 Phasen.
Jedenfalls- habe jetzt mal etwas zeit gefunden, mich mal mit meiner GTX1080TI Amp Extreme von Zotac näher auseinander zu setzen, wo ich die GPU getauscht hatte aber auch die 48 Mosfets.
Hier das Video dazu, recht weit am ende ist das mit den Mosfets

a-HR0c-Dov-L21l-ZGlh-Lm-Jlc3-Rv-Zm1p-Y3-Jv-Lm-Nvb-S9-VLzgv-Njcz-Nz-Ey-L29ya-Wdpbm-Fs-L1pvd-GFj...jpg

Das der tausch alleine erstmal noch nicht soviel bringt, war klar - weil ja nichts an der Antakt-frequenz geändert wurde.

Hier wie die Hitzeentwicklung auf der Rückseite der Karte vorher war - getestet mit 100% Lüfterdrehzahl, 10 Minuten GPUTool Stresstest gerade so groß gezogen dass noch kein PowerLimit entsteht, sondern die karte wirklich nahe der 300W maximal möglichen TDP liegt

vor mosfet wechsel.jpg

und hier nach dem Tausch der Mosfets:
nach mosfet wechsel.jpg

Rund 1,5°C Temperatur unterschied - also nicht der rede wert die 48 Mosfets tauschen zu wollen ;-)



Die Zotac hat ja 16 Phasen was erstmal richtig Overkill klingt und dass die sich eigentlich langweilen und dadurch auch recht effizient sein müssten. Tja, beim "müsste" ist es aber auch geblieben.
wie "Actually Hardcore Overclocking" Hier in dem Video schon so schön zeigt, sind die verbauten Mosfets halt eher von der günstigen Sorte, diese haben Einschaltzeiten von 39ns für den HighSide Mosfet und 44,6ns für die LowSide Mosfets. Diese Rise-On time (=bis das GATE voll geladen ist und der Mosfet voll durchschaltet) sorgt für unnötige Erhitzung der Mosfets weil in dieser Rise-On time die Mosfets in einer Art "halbleitendem" zustand sind - was Mosfets garnicht mögen und dabei mehr Wärme "erzeugen" als wenn sie dann voll durchgesteuert sind. Und dadurch bedingt ist nur eine recht niedrige Schalt-Frequenzen möglich, weil sonst der Mosfet nie richtig durchschalten würde wenn die Frequenz so hoch ist das der Mosfet schonwieder sperren soll - obwohl er noch beim Rise-On ist (also dabei durch zu schalten)

Klar funktioniert das zwar, und die entstehende Hitze kann großflächig verteilt werden auf die 16 Phasen und dem recht kleinen Kühler - aber so richtig gut ist die Effizienz der ganzen sache nicht, da sind Founders Edition mit ihren Dual-N-Mosfets deutlich effizienter. Klar können Founders edition karten zwar nicht in summe so hohe ströme bereits stellen wenn man richtig krass übertakten will, weil dann da bei zeiten die Mosfets hops gehen würden - aber wie "Actually Hardcore Overclocking" in seinem Video schon sagte - wo bei der Zotac das VRM bei 300A ca. 42W an abwärme macht, macht das Founders Edition VRM bei 300A gerade mal 35W Abwärme.

Klingt nicht viel, aber wen man bedenkt dass diese Leistung durch die Shunts mit gemessen wird, und die wärme durch die meistens nur seeehr kleinen Kühlkörper die für die VRMs spendiert wurden weggekühlt werden muss - da sind 10W oder gar 20W (wenn man übertaktet) schon sehr viel.

Auch entsteht viel Hitze in den Spulen selber - die das PCB natürlich als "Kühlkörper" mitverwenden bzw. als Wärmetransfereinheit. Das liegt daran weil die Spule ja immer nur ganz kurz "angetriggert" wird, also einen Stromimpuls reingeschoben bekommt durch die Mosfets. Der HighSide Mosfet schaltet ganz kurz die 12V durch, sodass diese an der Spule anliegen, aber der Stromfluss steigt langsam an - somit auch die Spannung. Wobei langsam relativ ist, weil wenige Nanosekunden ;-) aber in dem bereich geht es eben. Die Kondensatoren am Mosfet puffern eben auch den Strom, sodass da deutlich mehr Strom geschoben werden kann als das Netzteil je könnte - aber für ein paar Nanosekunden reicht das zu bis der Mosfet wieder abschaltet und der LowSide Mosfet einschaltet und die Spule dann einen geschlossenen Stromkreis mit der GPU darstellt und somit die ~1V rauskommt... naja wird schon wieder zu theoretisch hier, will hier nicht gleich die komplette Funktionsweise eines Abwärtswandlers bzw. wie hier in dem falle - eines Synchronwandlers erklären...da gibts genug Lektüre in diversen Büchern oder im Internet.
Jedenfalls diese kurzen Impulse haben eben einen recht hohen Strom - und genau dieser Strom erwärmt die Spule. Wenn man jetzt die Antakt Frequenz erhöht, verringern sich die Ströme weil die spule in der gleichen Zeitspanne wie vorher - mehrmals Angetaktet wird - dadurch ergeben sich geringere Ripple ströme - die Kondensatoren und alle anderen Komponente laufen dadurch entspannter. Zwar ergeben sich auch wieder andere Nachteile mit höherer Antaktfrquenz wie eben Induktionsverluste ins PCB (wie ein Induktionsherd sozusagen) oder eben Schaltverluste (wegen Rise-on und Fall-time beim Mosfet) oder Ummagnetisierungsverluste in der Spule- aber vieleicht kann man ja doch noch etwas rausholen in sachen Effizienz bei so einer Karte.

Nun habe ich ja auf meiner 1080TI hier Mosfets drauf, die deutlich schneller schalten könnten, also wären die Schaltverluste schonmal deutlich minimiert - also kann ich was das angeht eine höhere Antaktfrequenz versuchen und schauen wo ich rauskomme ohne das die Induktionsverluste zu groß werden - die Goldene Mitte also finden.


Die Antakt - bzw. Schaltfrequenz kann man hier recht einfach ändern, der wird am uP9511 PWM Controller durch einen einfachen Widerstand gegen Masse beim Einschalten des Controllers bestimmt.
Das Passiert hier über den PROG6 PIN 3
up9511-prog6.PNG


Serienmäßig lag der Widerstand bei rund 33kOhm, was lt. Tabelle hier um die 300Khz ergibt
freuqnez einstellen.PNG

Nicht vergessen - die 16 Phasen kommen nicht direkt vom Controller, da sind PhaseDoubler verbaut, also taktet jede Phase effektiv mit 150Khz.


Damit habe ich erst einmal den Eingangstest gemacht und wie oben schon geschrieben "getestet mit 100% Lüfterdrehzahl, 10 Minuten GPUTool Stresstest-Fenster gerade so groß gezogen dass noch kein PowerLimit entsteht, sondern die karte wirklich nahe der 300W maximal möglichen TDP liegt"
default 34k ohm.PNG

Dabei hat sie sich rund 292W genehmigt lt. GPU-Z über die 10 minuten. Natürlich hatte ich da erst gewartet bis der Stresstest lief und erst dann die Messung mitlaufen lassen.
Aus der Steckdose hat mein Testsystem da rund 389W gezogen.

Hitzeentwicklung der Spule und dem Mosfet Kühler:
default 34k wärme.jpg

Die Spulen werden dabei rund 63°C Heiß - nicht vergessen bei dem Test läuft der Lüfter immer mit 100% (PWM Pin entfernt am Lüfteranschluss) um eben Messfehler durch eine Lüfterregelung auszuschließen.
mit der Regulären Lüfter Steuerung wird das ganze noch deutlich heißer, um die 90°C...



Jetzt gehts mit der Frequenzanpassung los, dazu habe ich einfach den 33K Ohm widerstand entfernt, und dafür ein 50K Ohm 22 Gang Trim-Poti angelötet und nach außen verlegt um den so anzupassen.
IMG_20201219_225707.jpg


Dabei habe ich erstmal den Widerstand auf 40K Ohm eingestellt - nur um zu schauen was passiert wenn man die Frequenz weiter verringert.

Das machts nur noch schlechter jedenfalls :d
40k ohm.PNG

298W und öfter mal direkt ins PowerLimit gerannt, extern hat das System dabei direkt 405W aus der Dose gezogen.


Okay, also erstmal den Optimalen wert ermitteln wo der ganze Schwingkreis am optimalsten läuft - im lastfreien zustand weil ich das am einfachsten mit meinem Labornetzteil prüfen kann. Wenn also nur Strom an der Karte anliegt, die Karte in einem Riser steckt - aber keine PCIe Lanes angeschlossen sind. Damit startet zwar die karte, also die Spannungswandler werden alle aktiviert, GPU bekommt spannung und Strom, aber "schläft" halt weil es nix zutun gibt (also auch keine Bildausgabe) hängt also in einem GPU Reset state. Macht aber nix, weil es geht hier ja nur um den VRM.


bei 33K Ohm , also 300Khz in etwa, nimmt sich die Karte im Lastfreien zustand bei 12V genau 2,186A.
default 34k.jpg


Jetzt kann ich das Poti immer etwas weiter runterdrehen um so die Frequenz zu erhöhen - und kann über das Netzteil die karte recht einfach ein und ausschalten, was auch nötig ist, weil der uP9511 PWM Controller die taktfrequenz immer nur einmalig beim Starten bestimmt anhand des Widerstandes der am PROG6 pin hängt.

Rausgekommen bin ich dann bei um die 15K Ohm wo der VRM die höhste effizienz zeigte:

17k.jpg

nur noch 1,687A bei 12V

wenn man noch niedriger geht mit dem Poti und die Frequenz noch höher schraubt, steigt der Stromfluss wieder deutlich steiler an - weil dann die Umwandlungsverluste und Schaltverluste zunehmen.


Weiter gings jetzt mit dem echten Test unter Last. Das hat eben mehrere Stunden gedauert weil die 15K Ohm zwar unter Leerlauf und ohne Hitze der optimalste wert war - nicht aber unter Last. Da hatte die karte fast genausoviel gezogen wie im Originalen Zustand - eben wegen genannten Verlusten und Temperatur-Koeffizient Verschiebung. Ich habe Wirklich viel probiert, System abgeschaltet, um 0.5K Ohm erhöht, wieder an, wieder 10 min Stresstest um Durchschnittswerte zu ermitteln, wieder aus, wieder 0.5 kOhm höhrer gegangen, wieder getestet, dokumentiert,...

Im endeffekt ist der optimalste punkt bei Last und im Leerlauf, bei Kalter und bei Warmer Karte bei 17K Ohm - was ca. 560Khz Schaltfrequenz ergibt, also pro Phase um die 280Khz. Deutlich mehr als die Originalen 300/150Khz.

Aber was hats gebracht?
17k ohm2.PNG

bei der selben Performance zieht die karte jetzt statt 292W nur noch 282W. Auch aus der Steckdose werden jetzt statt 389W nur noch 378W gezogen.

Also in Summe 10W Weniger. Nicht viel - klar - aber das sind einfach nur Verluste die minimiert wurden durch den Schaltwandler - und das finde ich schon bemerkenswert. Dadurch könnte sie jetzt ihren Boost länger halten oder weiter ausbauen, weil diese 10W ja auch durch die Shunts mit gemessen werden.
Dadurch laufen die VRMs aber auch gleich mal rund 10°C Kühler - nur durch elektrische Optimierung
17k wärme.jpg


das Wäre mit den Werksseitigen Mosfets wie gesagt nicht möglich gewesen, da hätten wenige Khz mehr Taktfrequenz schon zu einem Effizenzverlust geführt.

Damit ist der VRM genauso hoch effizient wie der, einer Founders Edition - und die sind schon recht effizient ausgelegt.

Das hätte eigentlich auch der Hersteller so direkt verbauen können, oder? Nun, wie immer zählt da eben wie anfangs erwähnt der Preis mit rein - meine 48 Infineon OptiMos5 Mosfets hier sind natürlich einiges teurer als einfachere Mosfets, und gerade bei einer Massenproduktion kommt es ja bekanntlich auf jeden Cent an. Ich weiß nicht wieviel cent die teurer wären wenn man die in großen Stückzahelen genommen hätte, aber es liegt in meiner menge hier jedenfalls im 2 stelligen Cent Bereich ;-)


Wie gesagt, das hier ist eher ein Versuch meinerseits was man noch so rausholen kann, eine Art Fein-Tuning. Und feintuning bringt bekanntlich nicht viel. Nochmal würde ich sowas nicht machen, weils nicht soviel bringt... Aber Vieleicht haben sich andere auch schonmal gefragt was man noch so machen könnte um die ganze Karte zu Optimieren.


Was ich eigentlich damit sagen will - lasst euch nicht nur von der bloßen Anzahl der Phasen blenden. Klar es gibt noch weniger effiziente Wandler wo noch mehr Energie einfach in Wärme verpufft, aber auch bessere Konzepte.
Und das nicht nur bei Grafikkarten - ist bei Mainboards genauso.



So, und jetzt noch allen eine Gesunde und halbwegs Frohe Weihnachtszeit ;-)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Doktor Unblutig

Urgestein
Mitglied seit
14.03.2011
Beiträge
1.047
Wie hoch ist denn der Preisunterschied zwischen deinen MOSFETs und den von ZOTAC in Prozent?
 

AssassinWarlord

Moderator
Hardwareluxx Team
Thread Starter
Mitglied seit
28.08.2004
Beiträge
3.167
Ort
Radeberg (Bierstadt)
kann ich nicht sagen, da ich keine preise zu den Originalen QN3103 und QN3107 Mosfets finde
 
Oben Unten