GPU-Stromversorgung: Neuer Anschluss für bis zu 600 W

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.371
12vhpwr.jpg
Mit der GeForce-RTX-30-Serie führte NVIDIA einen 12-Pin-Stecker (MicroFit Molex) zur Strom- und Spannungsversorgung seiner Grafikkarten ein. Bis auf den eigenen Founders-Edition-Karten fand dieser aber auf keinem anderen Modell Verwendung, wenngleich er dafür sorgt, dass aus bis zu dreimal 6/8-Pin nur noch ein Anschlusskabel wurde, was das Kabelmanagement natürlich deutlich vereinfacht.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
12 bzw. 30 Steckzyklen und das Ding darf kaputt gehen, so kann man natürlich auch vorschnell eine Grafikkarte unbrauchbar werden lassen. Daumen hoch für solche "Qualitätsprodukte"!
PS: bei Igor verweist man auf die englische statt auf die deutsche Seite!
 
12 bzw. 30 Steckzyklen und das Ding darf kaputt gehen, so kann man natürlich auch vorschnell eine Grafikkarte unbrauchbar werden lassen. Daumen hoch für solche "Qualitätsprodukte"!
PS: bei Igor verweist man auf die englische statt auf die deutsche Seite!
Also zu den Zyklen kann ich sagen: Die Founders-Edition-Karten habe ich schon ein paar Dutzend Mal ein und wieder ausgebaut – bisher ohne Probleme. Es kommt natürlich auch darauf an, wie man damit umgeht. Mit etwas Vorsicht und Verstand an die Sache rangehen und nicht einfach dran zeihen, dann hält so eine Buche + Stecker schon einige Zyklen aus.
 
Wenn 3x8Pin nicht mehr reichen. XD
Irgendwie geht das alles in die falsche Richtung, ich dachte immer GreenIT wird die Zukunft.
 
Dabei haben alle noch gelacht als teils 1kW Netzteile verbaut wurden ;)
600W rein für die GPU ist mehr als heftig.
Warum wird um jeden Milimeter PCB gekämpft damit die Karten möglichst kompakt sind wo man dann doch beim Thema Kühlung Probleme bekommt? Oder wird jetzt die QUad Slot Karte mit Noctua Lüftern die neue Kompaktklasse?
Es soll alles klein, schnell, stromsparend und lautlos sein. Und kosten darf es nachher auch nichts.
 
Das Problem ist ja nicht nur die Kühlung, selbst wenn es 4 Slot Designs geben wird, aber die Abwärme nervt einfach nur. Heizt dann bald nicht nur den Raum, sondern die ganze Wohnung/Haus. :fresse2:
 
Finde bis zu 600W jetzt gar nicht so schlimm. Früher gab es für Enthusiasten z.B CrossFire mit zwei 7970 GPU's die sich jeweils bis zu 250W genehmigen durften, das sind auch schon 500W. Grafikkarten für den Durchschnittsgamer werden sicher nicht mal halb so viel verbrauchen.
 
Finde auch, das man sich am Maximum nicht orientieren sollte. Das Angebot wird inzwischen in jeder Branche erweitert, weil es Geld bringt. Sowohl Leistungstechnisch, als auch vom Preissegment. Wenn man selber nicht mehr mithalten kann oder will, ist das doch auch OK. Da die Schere immer weiter auseinander geht, spürt man das immer mehr. Ich
denke nicht, dass in Zukunft in jedem Standard Gaming PC eine 600W Karte stecken wird. Natürlich darf man sich trotzdem grundsätzlich fragen, ob man in der heutigen Zeit eine 600W Karte bei sich verbauen muss.
 
Dann muss ich ja wieder auf Wakü gehen. :d
Nein mal ganz Ehrlich. Falsche Richtung. Ich hatte mal 2x 780TI gehabt. Ohne Wakü war nichts zu machen. Die beiden waren hatten auch so um die 600- 800 Watt Leistung zusammen.
 
Das Problem ist ja nicht nur die Kühlung, selbst wenn es 4 Slot Designs geben wird, aber die Abwärme nervt einfach nur. Heizt dann bald nicht nur den Raum, sondern die ganze Wohnung/Haus. :fresse2:

Tatsächlich das Hauptproblem, weshalb ich inzwischen lieber im Wohnzimmer, gemütlich auf der Couch, an der PS5 spiele, als im Büro zu sitzen und nach ~2/3 h völlig verschwitzt in einem bereits 30°C kleineren Raum…

Hatte bisher sehr gehofft, dass die neuen Karten dann endlich Richtung Effizienz gehen.
Früher hatte ich das Problem nie. Stundenlange Gamingsessions und es wurde nur etwas wärmer im Raum.
 
12 bzw. 30 Steckzyklen und das Ding darf kaputt gehen, so kann man natürlich auch vorschnell eine Grafikkarte unbrauchbar werden lassen. Daumen hoch für solche "Qualitätsprodukte"!
PS: bei Igor verweist man auf die englische statt auf die deutsche Seite!
Naja, mit den Quellenangaben ist das eh immer so eine Sache, weil die komplette Benamsung ja auch bei mir übernommen wurde und die beiden Artikel auf WCCFTECH und Videocardz vorher mit mir abgesprochen wurden und auf meinen vorab geteilten Infos basieren. Das hier ist ja auch nur dort abgeschrieben, aber eine echte Quelle wird wieder nicht angegeben. Auch die PCGH verlinkt nie meine deutsche Seite, aber warum wohl? Meistens steht dann dort nur via WCCFTECH oder via Videocardz und der Link führt dann auch nur dorthin. Da ich beide Chefredakteure dieser Seiten aber gut kenne, lassen sich natürlich auch die Referrals auswerten und man erkennt schon die Methode dahinter, in DE möglichst keine Klicks für mich zu generieren. Aber ich kann damit leben. Das nur mal der Vollständigkeit halber ;)

BTW:
Der Hinweis mit dem Amphenolstecker kommt von Olrak29, gepostet auf Twitter nach meinem Artikel und als Antwort auf Videocardz, auch hier hätte die Quellenangabe sicher nicht geschadet ;)
 
Zuletzt bearbeitet:
1KW Netzteil, RTX 4090 Ti und im Paket direkt ne Split Klimaanlage dazu....

Wenn ein Netzteil diese Schnittstelle bietet, muss es dort auch die 600W liefern => Es kommen also nur Netzteile 800W Aufwärts in Frage...
Oder stuft man dann ab und das Netzteil sagt über die Datenleitung der Grafikkarte: "Ja, aber bitte nur bis 300W"...
Für den Rest heißt es dann.: Adapter verwenden, also überlässt du das konzipieren der Anbindung dem Anwender...
 
Da war einer beim Schreiben schon im Wochenende...

2,4 N um den Stecker auf der Buchse zu entfernen, ist der magnetisch :)

Wozu die vier Datenleitungen benötigt oder verwendet werden, ist nicht bekannt. Amphenol spezifiziert seine Buche und Stecker auf eine maximale Kraft von 8 N für das Einführen des Steckers und 2,4 N sind mindestens notwendig, um den Stecker wieder auf der Buchse zu entfernen. Außerdem sind Stecker und Buchse auf 30 Zyklen ausgelegt, die sie mindestens aushalten müssen. Der MicroFit Molex sollte mindestens 12 Zyklen halten.
 
12 bzw. 30 Steckzyklen und das Ding darf kaputt gehen, so kann man natürlich auch vorschnell eine Grafikkarte unbrauchbar werden lassen. Daumen hoch für solche "Qualitätsprodukte"!
PS: bei Igor verweist man auf die englische statt auf die deutsche Seite!
Also ich habe meine jetzt 1x entfernt. Macht 1,5 Zyklen. Ich denke das passt schon. Kaputt geht doch eh nur der Plastiknubsi. Der Stecker selbst wird schon mehr aushalten, wenn man nicht mit dem Hammer drauf haut.
 
Wer sagt, dass ich mit dem neuen Stecker auch 600 Watt brauchen muss?
Es ist einfach ein neuer Standard erstmal nicht mehr und nicht weniger.
 
600 Watt für eine Grafikkarte...

source.gif
Ist doch schon lange abzusehen. Bei CPUs genauso.
Nur wie das mit der Kühlung funktionieren soll, da bin ich noch gespannt. Bei nem 5950X ist man ja jetzt schon an der Kotzgrenze selbst mit nem Premium Luftkühler.
 
Der 5950X lässt sich doch klasse kühlen. Das Problem ist (meinem Eindruck nach) dass das geänderte Temperaturmanagement noch ignoriert wird. Wenn man ihn unter 60 °C oder so drücken will, wird's halt schwierig. ;)
 
wieder einmal übersehen die leute dass der standard für SERVER gemacht wird, nicht für den otto normalo zuhause, der kriegt nämlich selbst 400W kaum weg. lest euch mal die news durch. und die gpu darf da gerne 600W verbraten, die verrichtet nämlich 100x mehr arbeit als 1000 GTX 285
 
als im Büro zu sitzen und nach ~2/3 h völlig verschwitzt in einem bereits 30°C kleineren Raum…
Du sollst da auch Arbeiten und nicht spielen (außer du bist Spieletester oder Designer).
a115.gif
Eine Wasserkühlung löst deine Problem. Ein Kollege der meine 2080TI gekauft hatte, hat sich den Radi (Mo-Ra) vor die Füße als Fußbodenheizung gelegt.
a170.gif


@Topic Die 600Watt sind ja nur das maximal spezifizierte, ob das auch benutzt wird in den nächsten 2 Grafikkarten Generationen sei dahin gestellt.
 
Ich kann mich noch erinnern dass es ziemliches Geschrei gab wegen dem FE Stecker und alle haben es bemängelt er würde nicht sie nötige Leistung bringen lieber 2x8 PIN Stecker.

Aber das sieht ja garnicht so schlecht aus.
 
Und wieder einmal: Wer eine Graka mit 250 Watt max. will, kann sich immer noch so eine kaufen....
Ist dann halt nur nicht mehr das schnellste mögliche Model. Ihr seid dann halt einfach nicht mehr die Zielgruppe für die größeren Karten.

Und das ihr euch dann zwischen "Grünem Gewissen" und "Schwanzvergleich" entscheiden müsst, ist nun wirklich nicht das Problem des Herstellers....

Es ist ja auch nicht so, dass die neue GPUs für die selben FPS dann die gleiche Menge Strom brauchen. Die werden ja trotzdem immer effizienter.
 
Du sollst da auch Arbeiten und nicht spielen (außer du bist Spieletester oder Designer).
a115.gif
Eine Wasserkühlung löst deine Problem. Ein Kollege der meine 2080TI gekauft hatte, hat sich den Radi (Mo-Ra) vor die Füße als Fußbodenheizung gelegt.
a170.gif


@Topic Die 600Watt sind ja nur das maximal spezifizierte, ob das auch benutzt wird in den nächsten 2 Grafikkarten Generationen sei dahin gestellt.

Die 600W werden auch kommen / ausgereizt. Siehe EVGA und das lächerliche vBIOS mit 500W :wall:

Und wenn zum Teil das TDP ignoriert
wird / bis zu 20%+ Spikes... :shot:
 
Es ist ja auch nicht so, dass die neue GPUs für die selben FPS dann die gleiche Menge Strom brauchen. Die werden ja trotzdem immer effizienter.
Das ist der springende Punkt. Ampere hat ein besseres Performance/Watt-Verhältnis als die so gerne herangezogenen Pascals. Man kann einfach ganz schlicht und einfach das Power Limit runtersetzen, kommt dann auf ein ähnliches Verhältnis bei immer noch guter Mehrleistung und gleichem Verbrauch.
 
Dann bekommt mein 1000W PSU endlich wieder wss zu tun :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh