AORUS RTX 5090 Xtreme Waterforce: Modder rüstet zweiten 12V-2x6-Anschluss nach

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.592
Bereits ab Werk sieht Gigabyte für die AORUS GeForce RTX 5090 Xtreme Waterforce WB 32G einen zweiten 12V-2x6-Anschluss vor. Die entsprechenden Lötpunkte und Layer sind im PCB vorhanden, allerdings verlötet Gigabyte den Anschluss nicht und so findet er sich auf der fertigen Karte auch nicht.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist ein ganz anderes Problem

NV+Intel haben den Stecker auf 600W Spezifiziert also ist 1x16pin vollkommen ausreichend (Ob das jetzt gut oder schlecht ist sei dahin gestellt) wenn sie aber jetzt auf einmal 2x16pin erlauben würden dann würden sie sich ja eingestehen das 1x16pin bei 600W nicht ausreicht und 2. wer noch kein NT mit nativen 16pin hat müsste 8!!!!!! Kabel anschließen mit den 2 Adaptern und wer will so eine Krake im Gehäuse und die Leute die schon ein NT haben mit 16pin nativ bräuchten eins mit 2x16pin und das haben die wenigsten
 
Wenn man sich den Kabelquerschnitt der 8 poligen Stecker anschaut, kommt man damit auf eine ähnliche Menge an Kupfer als beim 16-poligen. NV und Intel haben definitv keine Marge mehr konzipiert, welche zur Definition vom 8-poligen sicherlich etwas überdimensioniert war.
Dadurch -> Ja, wie ihr beide so schön geschrieben habt. NV hat zur Spec zum 12VHPWR Fehler gemacht, sieht aber keinen Bedarf hier nachzubessern. Jede Spec kann man ändern, wenn Fehler bekannt sind. Fehler einzugestehen ist aber schwieriger.
 
Das ist ein ganz anderes Problem

NV+Intel haben den Stecker auf 600W Spezifiziert also ist 1x16pin vollkommen ausreichend (Ob das jetzt gut oder schlecht ist sei dahin gestellt)
Es sind ja nicht mal 16 Pins! Es sind nur 12, die der Stromversorgung dienen. Und die sind mechanisch und vom Querschnitt her kleiner, als bei Pcie 6/8.

Die Grafikkartenhersteller haben sich ja was dabei gedacht, einen zweiten Anschluss vorzusehen. Die Probleme mit festgeschmolzenen Steckern gab es ja schon bei den Rtx40xx. Mit den 50xx sollte aber noch nehr Strom darüber gehen. Nvidia ging hier einfach über Leichen.
 
Zuletzt bearbeitet:
Gigabyte machte das ja schon bei der AORUS und AERO der 4090 so, es gab einen 2 Steckerlötport (nennt man das so?). Ist zumindest für Gigabyte jetzt kein neuer Move, die Karten hatten ja auch ein 600 Watt Bios wenn man den P Modus wählte.
 
Bei einem Verbrauch von 1.521 W wird die Last mit 936 W zu 585 W verteilt.
Muah da braucht er ja schon einen dritten Anschluss.
 
Gigabyte machte das ja schon bei der AORUS und AERO der 4090 so, es gab einen 2 Steckerlötport (nennt man das so?). Ist zumindest für Gigabyte jetzt kein neuer Move, die Karten hatten ja auch ein 600 Watt Bios wenn man den P Modus wählte.
Das ist aber nur GB Faulheit zu verdanken weil sie für ihre Stealth (Dafür ist der 2. Seitliche Connector eigentlich gedacht) und ihre Normalen Karten das selbe PCB nutzen und es so Kostengünstiger ist

Ich glaube NV erlaubt das auch nur weil sie wissen das wenn jemand diesen Ghettomod mit 2x16pin sich bauen will der Aufwand so Hoch ist das es zu 99,995% die Besitzer abschreckt und nur die Enthusiasten es evtl machen was ja auch hier Passiert weil Sugil0ver (Der Besitzer der Karte) ist dafür bekannst nur die besten Goldensamples zu haben und er gerne Experimentiert

Aber leider begreifen nach über 4 Jahren die Leute immer noch nicht das es NICHT DER STECKER ist der das Problem ist sondern DIE KABEL!!!!!!

Der Stecker kann locker über 1000W das haben die Hardcore OC Leute schon zu 4090 Zeiten gezeigt wo sie mittels XOC Bios konstant über 1000W auf die GPU gebuttert haben
 
Zuletzt bearbeitet:
Wenn man eh schon an der Karte rumlötet kann man auch ein festes Kabel installieren...
 
Aber leider begreifen nach über 4 Jahren die Leute immer noch nicht das es NICHT DER STECKER ist der das Problem ist sondern DIE KABEL!!!!!!
Wenn der Stecker (resp. die Crimpung des Steckers) auf entsprechend dünne Kabel ausgelegt ist, ist natürlich auch der Stecker Teil des Problems. Und spezifiziert sind für den Stecker halt 16 AWG und nicht 18 AWG wie beim "klassischen" 2x4. Laut Spezifikationen dürfen sowohl Kabel als auch Pins nur mit jeweils 9A belastet werden:

Power Pin Current Rating: (Excluding sideband contacts) 9.2 A per pin/position with a limit ofa 30°C T-Rise above ambient temperature conditions at +12 V VDC with all twelve contacts energized

gemessen werden da - siehe Igor/8auer etc. - bis zu 20 Ampere, weil die Lastverteilung nicht stimmt.
 
Das ist ein ganz anderes Problem

NV+Intel haben den Stecker auf 600W Spezifiziert also ist 1x16pin vollkommen ausreichend (Ob das jetzt gut oder schlecht ist sei dahin gestellt) wenn sie aber jetzt auf einmal 2x16pin erlauben würden dann würden sie sich ja eingestehen das 1x16pin bei 600W nicht ausreicht und 2. wer noch kein NT mit nativen 16pin hat müsste 8!!!!!! Kabel anschließen mit den 2 Adaptern und wer will so eine Krake im Gehäuse und die Leute die schon ein NT haben mit 16pin nativ bräuchten eins mit 2x16pin und das haben die wenigsten
Auch AMD sitzt in der PCIsig und verwendet es auch selber für die pro Karten
 
Kabel anschließen mit den 2 Adaptern und wer will so eine Krake im Gehäuse und die Leute die schon ein NT haben mit 16pin nativ bräuchten eins mit 2x16pin und das haben die wenigsten
Bei der Menge an Litzen die da rumfliegen leitet vermutlich das Kupfer dann schon mehr Wärme ab als das bisschen Luft dass da noch durchgepresst wird ;)
 
Das zum Thema "auf der Platine war kein Platz mehr und der arme Konzern konnte nicht anders."
 
@Botcruscher Das sind Vorgaben von nvidia, die Board"partner" müssen sich alles mögliche von NV freigeben lassen.
Den zweite unbelegte Anschluss verwendet Gigabyte meines Wissens nach bei deren "AI Box" genannter eGPU.
 
Du verstehst mich falsch. Die Ausrede war bis jetzt NV mit dem fehlenden Platz auf der Platine in Schutz zu nehmen.
NV hat einfach alles vergeigt. Wegen ein paar Euro auf eine vernünftige Überwachung verzichtet und dazu noch die Reserven des Steckers schon im Normbetrieb voll ausgeschöpft.

Das eigentliche Ziel hätten einfach mehr mm² Kupfer sein sollen und nicht weniger. Mehr Leitung gegenüber dickeren Leitungen zu verbauen macht das ganze System nicht unbedingt besser.
 
Der Stecker war für mich die Entscheidung so eine Karte nicht zu kaufen.
Danke Nvidia, Geld gespart 👍.
 
Du verstehst mich falsch. Die Ausrede war bis jetzt NV mit dem fehlenden Platz auf der Platine in Schutz zu nehmen.
Doch, wir sind auf einem Nenner. ;)
NV hats verbockt, weil sie das Aussehen/Layout ihrer Karte über Funktion gestellt haben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh