AORUS RTX 5090 Xtreme Waterforce: Modder rüstet zweiten 12V-2x6-Anschluss nach

Thread Starter
Mitglied seit
06.03.2017
Beiträge
117.271
Bereits ab Werk sieht Gigabyte für die AORUS GeForce RTX 5090 Xtreme Waterforce WB 32G einen zweiten 12V-2x6-Anschluss vor. Die entsprechenden Lötpunkte und Layer sind im PCB vorhanden, allerdings verlötet Gigabyte den Anschluss nicht und so findet er sich auf der fertigen Karte auch nicht.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist ein ganz anderes Problem

NV+Intel haben den Stecker auf 600W Spezifiziert also ist 1x16pin vollkommen ausreichend (Ob das jetzt gut oder schlecht ist sei dahin gestellt) wenn sie aber jetzt auf einmal 2x16pin erlauben würden dann würden sie sich ja eingestehen das 1x16pin bei 600W nicht ausreicht und 2. wer noch kein NT mit nativen 16pin hat müsste 8!!!!!! Kabel anschließen mit den 2 Adaptern und wer will so eine Krake im Gehäuse und die Leute die schon ein NT haben mit 16pin nativ bräuchten eins mit 2x16pin und das haben die wenigsten
 
Wenn man sich den Kabelquerschnitt der 8 poligen Stecker anschaut, kommt man damit auf eine ähnliche Menge an Kupfer als beim 16-poligen. NV und Intel haben definitv keine Marge mehr konzipiert, welche zur Definition vom 8-poligen sicherlich etwas überdimensioniert war.
Dadurch -> Ja, wie ihr beide so schön geschrieben habt. NV hat zur Spec zum 12VHPWR Fehler gemacht, sieht aber keinen Bedarf hier nachzubessern. Jede Spec kann man ändern, wenn Fehler bekannt sind. Fehler einzugestehen ist aber schwieriger.
 
Das ist ein ganz anderes Problem

NV+Intel haben den Stecker auf 600W Spezifiziert also ist 1x16pin vollkommen ausreichend (Ob das jetzt gut oder schlecht ist sei dahin gestellt)
Es sind ja nicht mal 16 Pins! Es sind nur 12, die der Stromversorgung dienen. Und die sind mechanisch und vom Querschnitt her kleiner, als bei Pcie 6/8.

Die Grafikkartenhersteller haben sich ja was dabei gedacht, einen zweiten Anschluss vorzusehen. Die Probleme mit festgeschmolzenen Steckern gab es ja schon bei den Rtx40xx. Mit den 50xx sollte aber noch nehr Strom darüber gehen. Nvidia ging hier einfach über Leichen.
 
Zuletzt bearbeitet:
Gigabyte machte das ja schon bei der AORUS und AERO der 4090 so, es gab einen 2 Steckerlötport (nennt man das so?). Ist zumindest für Gigabyte jetzt kein neuer Move, die Karten hatten ja auch ein 600 Watt Bios wenn man den P Modus wählte.
 
Bei einem Verbrauch von 1.521 W wird die Last mit 936 W zu 585 W verteilt.
Muah da braucht er ja schon einen dritten Anschluss.
 
Gigabyte machte das ja schon bei der AORUS und AERO der 4090 so, es gab einen 2 Steckerlötport (nennt man das so?). Ist zumindest für Gigabyte jetzt kein neuer Move, die Karten hatten ja auch ein 600 Watt Bios wenn man den P Modus wählte.
Das ist aber nur GB Faulheit zu verdanken weil sie für ihre Stealth (Dafür ist der 2. Seitliche Connector eigentlich gedacht) und ihre Normalen Karten das selbe PCB nutzen und es so Kostengünstiger ist

Ich glaube NV erlaubt das auch nur weil sie wissen das wenn jemand diesen Ghettomod mit 2x16pin sich bauen will der Aufwand so Hoch ist das es zu 99,995% die Besitzer abschreckt und nur die Enthusiasten es evtl machen was ja auch hier Passiert weil Sugil0ver (Der Besitzer der Karte) ist dafür bekannst nur die besten Goldensamples zu haben und er gerne Experimentiert

Aber leider begreifen nach über 4 Jahren die Leute immer noch nicht das es NICHT DER STECKER ist der das Problem ist sondern DIE KABEL!!!!!!

Der Stecker kann locker über 1000W das haben die Hardcore OC Leute schon zu 4090 Zeiten gezeigt wo sie mittels XOC Bios konstant über 1000W auf die GPU gebuttert haben
 
Zuletzt bearbeitet:
Wenn man eh schon an der Karte rumlötet kann man auch ein festes Kabel installieren...
 
Aber leider begreifen nach über 4 Jahren die Leute immer noch nicht das es NICHT DER STECKER ist der das Problem ist sondern DIE KABEL!!!!!!
Wenn der Stecker (resp. die Crimpung des Steckers) auf entsprechend dünne Kabel ausgelegt ist, ist natürlich auch der Stecker Teil des Problems. Und spezifiziert sind für den Stecker halt 16 AWG und nicht 18 AWG wie beim "klassischen" 2x4. Laut Spezifikationen dürfen sowohl Kabel als auch Pins nur mit jeweils 9A belastet werden:

Power Pin Current Rating: (Excluding sideband contacts) 9.2 A per pin/position with a limit ofa 30°C T-Rise above ambient temperature conditions at +12 V VDC with all twelve contacts energized

gemessen werden da - siehe Igor/8auer etc. - bis zu 20 Ampere, weil die Lastverteilung nicht stimmt.
 
Das ist ein ganz anderes Problem

NV+Intel haben den Stecker auf 600W Spezifiziert also ist 1x16pin vollkommen ausreichend (Ob das jetzt gut oder schlecht ist sei dahin gestellt) wenn sie aber jetzt auf einmal 2x16pin erlauben würden dann würden sie sich ja eingestehen das 1x16pin bei 600W nicht ausreicht und 2. wer noch kein NT mit nativen 16pin hat müsste 8!!!!!! Kabel anschließen mit den 2 Adaptern und wer will so eine Krake im Gehäuse und die Leute die schon ein NT haben mit 16pin nativ bräuchten eins mit 2x16pin und das haben die wenigsten
Auch AMD sitzt in der PCIsig und verwendet es auch selber für die pro Karten
 
Nicht nur die AMD Pro Karten auch die Radeon nutzen den Stecker bzw ausgewählte Modelle
 
Kabel anschließen mit den 2 Adaptern und wer will so eine Krake im Gehäuse und die Leute die schon ein NT haben mit 16pin nativ bräuchten eins mit 2x16pin und das haben die wenigsten
Bei der Menge an Litzen die da rumfliegen leitet vermutlich das Kupfer dann schon mehr Wärme ab als das bisschen Luft dass da noch durchgepresst wird ;)
 
Das zum Thema "auf der Platine war kein Platz mehr und der arme Konzern konnte nicht anders."
 
@Botcruscher Das sind Vorgaben von nvidia, die Board"partner" müssen sich alles mögliche von NV freigeben lassen.
Den zweite unbelegte Anschluss verwendet Gigabyte meines Wissens nach bei deren "AI Box" genannter eGPU.
 
Du verstehst mich falsch. Die Ausrede war bis jetzt NV mit dem fehlenden Platz auf der Platine in Schutz zu nehmen.
NV hat einfach alles vergeigt. Wegen ein paar Euro auf eine vernünftige Überwachung verzichtet und dazu noch die Reserven des Steckers schon im Normbetrieb voll ausgeschöpft.

Das eigentliche Ziel hätten einfach mehr mm² Kupfer sein sollen und nicht weniger. Mehr Leitung gegenüber dickeren Leitungen zu verbauen macht das ganze System nicht unbedingt besser.
 
Der Stecker war für mich die Entscheidung so eine Karte nicht zu kaufen.
Danke Nvidia, Geld gespart 👍.
 
Du verstehst mich falsch. Die Ausrede war bis jetzt NV mit dem fehlenden Platz auf der Platine in Schutz zu nehmen.
Doch, wir sind auf einem Nenner. ;)
NV hats verbockt, weil sie das Aussehen/Layout ihrer Karte über Funktion gestellt haben.
 
Was Jensen sich kaufen oder nicht kaufen kann ist mir ziemlich Latte.
Ich will so einen Mist halt einfach nicht im Rechner, ganz einfach.
Mfg. 😉
 
Da ich ebenfalls von schlaflosen Nächten geplagt war wegen der unfassbaren Angst um den Stecker ;) habe ich auch meine RTX5090 umgebaut auf einen 2. Steckverbinder - auch wenn ich aktuell noch nichtmal ein Kabel dazu habe :fresse:

Elektrisch ist der unbelegte Platz 1:1 Parallel mit dem Werksseitig verbauten Stecker beschaltet. Hier im Boardview ist J9 ist der Originale, MJ9 freie platz
Boardview.jpg


Da ich aber eine Waterforce WB RTX5090 habe, musste am Wakü block auch ein bisschen was weggefräst werden damit es passt. Also kurzerhand den Dremel angesetzt und hier und da einiges an Kupfer und Acryl weggefräst :d Hatte leider kein zugriff auf eine CNC, sonst würde das sicherlich schöner aussehen. Naja, erfüllt aber seinen zweck :d

Original wurde bei der Karte reichlich Thermal Putty verwendet, was ich gut finde :)

IMG_20260319_201955_031.jpg IMG_20260319_202005_400.jpg

und um die stelle hier geht es wo der zusätzliche Stecker hin soll
IMG_20260319_202012_163.jpg IMG_20260319_202742_014.jpg

Falls ihr euch fragt was das Schwarze Kabel da macht - Die Karte habe ich als Defekt gekauft mit einem teilweise weggebrannten PCIe Slot:
8bedbd24-0ea2-4cf1-9e3f-559d872e2635.jpg

Konnte ich aber sauber wegfräsen und versiegeln, und da es schnell gehen sollte damals, habe ich einfach ein Kabel quer übers PCB verlegt um den PCIe Slot-Shunt mit Spannung zu versorgen - Quick und Dirty sozusagen :fresse:
Sieht aber jetzt besser aus, da ich die 12V woanders hernehme:
IMG_20260319_214628_818.jpg IMG_20260319_214644_516.jpg


Also kurzerhand die zusätzliche 12VHPWR Buchse verlötet, mit reichlich Unterhitze und Heißluft:
IMG_20260319_214552_310.jpg IMG_20260319_214600_388.jpg IMG_20260319_214543_919.jpg IMG_20260319_214612_674.jpg


Ich hab zusätzlich um die Kontakte der Buchse noch ein Kunststoff-Schild gebaut da ich anfangs dachte, dass der Ausschnitt aus dem Wakü block etwas eng sein könnte und die Kontakte sehr nahe dem Kupferblock kommen könnte - was sich aber nach dem finalen Zusammenbau der Karte als unbegründet erwies - da ist doch mehr platz als gedacht :d
IMG_20260320_190948_346.jpg


Ein schönes stück Silizium :d gleichzeitig habe ich auch etwas Putty auf ein paar Kondensatoren und Spulen aufgetragen, wo vorher nichts war - kann ja nicht schaden :)
Die GPU bekam von mir ein ThermalGrizzly PhaseSheet PTM
IMG_20260320_190941_193.jpg



und so schaut sie jetzt nach dem Zusammen bau aus:
IMG_20260320_193130_102.jpg IMG_20260320_193143_927.jpg IMG_20260320_193204_074.jpg IMG_20260320_193249_463.jpg



Und Läuft auch bereits mit der neuen Buchse. Das Zusätzliche Kabel kommt die Tage auch noch an, dann wird vielleicht mein nervöses Augenzucken auch etwas besser und ich kann wieder Ruhiger Schlafen :d

IMG_20260320_203656_353.jpg IMG_20260320_204900_626.jpg


Und ja - ich hab kein Gehäuse, hab einfach alles auf ein Brett geschraubt und an die Wand gehangen. Hab nicht viel Platz hier auf meinem Schreib/Schrauber Tisch :d
 
Zuletzt bearbeitet:
Ausreichend warm hast du die Lötstellen deines zusätzlich eingelöteten 12V-2X6 Header jeden Fall nicht bekommen. Vergleich mal die Lötstellen des neuen Headers, mit den Lötstellen des schon vorher vorhanden Headers an deiner Grafikkarte. Dann siehst du was ich meine. Mein Ausbilder würde sagen: "die Lötstellen sind ja nur mit Zinn zusammengeklebt, mach's nochmal..."

Wenn du verhindern willst das das HeaderGehäuse beim Heißlufteinsatz ankokelt, muß du die Heißluft vom HeaderGehäuse abschirmen. Wenn du verhindern willst, daß sich die HeaderPins beim Einlöten verschieben, muß vorher einen Stecker auf den Header stecken.

Die Fehler sieht man aber stendig in allen möglichen InternetVideos. Weil die Jungs es nicht besser wissen, oder sich einfach keine Zeit nehmen, den Header vernünftig ein zu löten.

Grundlegend stellst sich aber sowieso die Frage:
Warum lötet man noch einen 12V-2X6 Header ein, wenn schon der vorhande Header nur mässig funktioniert? Klar hat man dann zwei parallel mässig funktionierende Steckerverbindungen, und somit ne deutliche Verbesserung gegenüber nur einer mässigen funktionierenden Steckerverbindung. Aber bei dem Aufwand könnte man doch auch gleich zwei gut funktionierende Steckerverbindung integrieren. Oder wenigstens eine gut funktionierende Steckerverbindung, parallel zur vorhanden massig funktionierenden Steckerverbindung.

An deiner Stelle hätte ich gleich ein paar vernünftige AWG16 SilikonKabel in das Lötraster des zweiten Headers eingelötet, und an deren Enden ausreichend belastbare NT-Stecker gecrimpt. Das spart nomal einen zusätzlichen Kontaktwiderstand, und eliminiert zudem auch noch die thermisch überlastete Steckerverbindung direkt auf der Grafikkarte. Zu guter Letzt kann man ja angelöteten Kabel auch auf der BackplateSeite durch ein Locg in der Backplate hrausführen. Und spart sich so das Verunstallten des GPU-FrontsideKühler.
 
Öhm, sagen wir's mal so - ich hab schon einmal was gelötet ;)
Hab die Lötaugen vorher vom original bleifreies Lot befreit, danach bleihaltiges Lot einfließen lasen mit viel Unterhitze und Heißluft, anschließend im heißen Zustand die Buchse draufgesteckt (also sodass die Pins durch das flüssige Lötzinn gingen), anschließen von hinten weiter mit Heißluft und Lötkolben nochmal Hitze draufgegeben (+Flussmittel), sodass sich das Lot optimal auch an den Kontakten bindet. Und die bleihaltigen Lötstellen glänzen auch.

Und klar hätt ich auch direkt dickere Silikon Kabel verlötet können, aber so sieht das besser aus, und solange ich die Stecker-Last etwas aufteilen konnte, reicht mir das zu.

Heute kommt hoffentlich das zweite Kabel, dann kann ich auch Messungen hier zeigen.
 
Zuletzt bearbeitet:
Lass mal, s.nase weiß zum Thema alles besser und hat die Wahrheit gepachtet. Also lieber schnell Kabel anlöten sonst fackelt Dir die Karte morgen ab.
 
Alles gut, es ist durchaus berechtigt. Das PCB der RTX5090 schluckt so unheimlich viel Hitze weg, dass es schon etwas schwerer war mit meinen mitteln den Stecker gescheit zu verlöten, aber ich würde doch schon sagen, dass der gut verlötet ist - ich löte nicht erst seit gestern um das mal vorsichtig auszudrücken. Auch der Einzelader-Test sieht schoneinmal gut aus.

Mein zweites Kabel ist im Postauto und wird hoffentlich heute kommen - dann gibt es natürlich noch richtige Messungen :)
 
So machst du dich aber wieder abhängig, vom einem eben nicht wirklich gut funktionierenden Steckersystem. Damit schränkt man das mögliche Optimierungspotenzial schon von vornherein ein. Genauso verhält es sich bei nicht optimal gelungenen Lötarbeiten.

Ausschließlich beleidigende Kommentare, ohne jegliche Gegenargumente finde ich armselig. Wer nicht mehr zustande bekommt, verschwendet nur seine eigene Zeit und die Zeit der anderen, und trägt kein Stück zu einem besseren Endergebnis bei. In einer sinnvollen Diskussion geht es um die Suche nach der besten Lösung und einen machbaren Weg das auch um zu setzen.
 
ohne jegliche Gegenargumente finde ich armselig.
:heuldoch:
und einen machbaren Weg das auch um zu setzen.
Hier geht es eben auch um Theorie und Praxis. Oder hast Du ne 5090 mit angelöteten Kabeln vorzuweisen, wenn das Deine ultima ratio ist? Für mich persönlich sind Macher interessanter als Quatscher. Letzteres kann (fast) jeder.

Bisher lese ich von Dir in allen Beiträgen zum Kabelthema (z.B. auch zum Wireview) nur abstrahierte Theorien mit wenig Praxisbezug oder gar eigenen Umsetzungen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh