[Sammelthread] Grafikkarten - Technikdiskussion

also meine 6900xt hat auch kein USB-C und ich vermisse das auch genau 0,0 ūüėÖ
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit USB-C hast du halt nur ein einziges Kabel, d.h. ich kann dadurch schnell das Setup zwischen Desktop, Arbeitslaptop und meinem Laptop wechseln. Ich hab mir ein Display Port Kabel besorgt welches nun immer zwischen Desktop und Monitor ist.
 
Gab so etwas noch nie in der Grafikkartengeschichte, daher poste ich es mal hier.

Es kam ja jetzt Herbst 2022 die neue Nvidia Geforce RTX 4090 raus.
Und es gab viele Meldungen von durchgeschmorten Netzteil Adaptern.
Und nun gibt es sogar immer mehr Meldungen von durchgeschmorten ATX 3.0 Netzteilen die ohne Adapter laufen, und extra f√ľr diese Karte gebaut sind.


Es sollen sogar schon mehr neue Stecker geschmolzen sein, als 8 Pin Adapter.

Ich fragte mich, wie kann das sein. Die RTX 4090 benötigt mit 450W TDP doch nicht mehr Strom als die gute alte AMD Radeon R9 295 X2 welche 500W TDP hatte.
Und die AMD Radeon HD 7990 XT2 von 2012, brachte es sogar auf 700W TDP.
Und es gab viele Nvidia Karten die schonmal auf ähnlich hoher TDP unterwegs waren. (GTX 590, GTX Titan Z)

Ich wundere mich daher schon etwas.
In dem Link m√ľsst ihr mal die Kommentare lesen. Die sind echt witzig, aber auch bedenklich.
Da wird dazu geraten die 4090er Karten nur mit undervolting zu betreiben, damit nichts passiert.

Und viele User berichten dass die RTX 4090 auch weit mehr als 500W zieht.
Also von 560W bis 600W berichten da viele User.
Das w√ľrde wohl erkl√§ren warum AMD nie so ein Debakel hatte mit ihren Dual GPU,s auf einem PCB und 500W Verlustleistung.

Was aber dazu kommt: Igorslab vermutet einen Designfehler.
Der alte 8 Pin hatte wohl mehr Sicherheitsreserven, und das neue Design nur noch 10% Reserve.
Laut Gamersnexus sind die Kabel bei der RTX 4090 je nach Modell anders gelötet, also auch unterschiedlich gut/schlecht von der Qualität.

Vielleicht hätte Nvidia es wie AMD machen sollen im Jahre 2017.
Damals gab es die Vega 64 mit Luftk√ľhler, und eine Vega 64 mit Wasserk√ľhler und h√∂heren Taktraten, die ab Werk dadurch auch 50W mehr verbraucht hat.
Evtl h√§tte Nvidia die RTX 4090 mit den jetzigen Taktraten auch nur mit Wasserk√ľhler anbieten sollen.
Aber vermutlich hätte das auch nicht gereicht.

Ich vermute Nvidia kommt nicht drum herum, als via Treiber oder sonst irgendwelchen Zwangsupdates, die Leistung der RTx 4090 zu drosseln, ansonsten sind bestimmt mindestens 10% der Karten in weniger als 2 Jahren defekt, wenn nicht selbst von den Usern ein niedrigeres Powertarget oder Undervolting betrieben wurde.
Zum gl√ľck sind die meisten RTX 4090 Besitzer keine Hardware Laien sondern wissen von den Problemen, und k√∂nnen selbst drauf achten.

Nur m√ľsste man jetzt eigentlich die Benchmarks die bisher gemacht wurden, skeptisch betrachten.
In der Soliden Dauerleistung d√ľrfte die RTX 4090 gut 10-15% langsamer laufen wenn die Leute ihre Karte lange behalten wollen.
 
Evtl h√§tte Nvidia die RTX 4090 mit den jetzigen Taktraten auch nur mit Wasserk√ľhler anbieten sollen.
Aber vermutlich hätte das auch nicht gereicht.
Der Chip wird ja gar nicht mal so warm, zum einen durch die gro√üe Fl√§che zum W√§rmeabtransport, aber eben auch durch in den meisten F√§llen wirklich gutes K√ľhlerdesign.

Das Problem vom schmelzenden Stecker hat nichts mit Luft- vs. Wasserk√ľhler zu tun, sondern es geht allein um die elektrische Spezifikation des Steckers und auch der technischen Umsetzung, vor allem von den Kabeln und Adaptern. Der Sockel auf dem Board wird generell weniger Probleme haben weil dieser eben fest verbaut und angebunden ist.
Verschmorte Sockel sind dann eher eine Folge vom schmelzenden Stecker/Adapter.
 
Egal Tim wir brauchen MEHR POWER !
Ich schlage eine Wasserk√ľhlung f√ľr die Stromzufuhr vor :fresse:
Spaß beiseite, aber so eine Idee wäre von Tim Taylor gewesen :d
 
Ist das immer noch so? Oder bieten mittlerweile die 30er und 40er Karten auch 10 bit farbtiefe an bei allen Programmen mit dem game ready treiber?
Muss man dass dann noch irgendwie speziell bei der grafikkarte einstellen nachdem installieren des gameready treibers?
 
Moin Luxxer¬īs was haltet Ihr denn von den Waterforce f√ľr Custom Loops? 4080 interessiert mich. Alternatice w√§re ne Zotac mit Waterblock.
 
Abend,
Ich habe an eine Frage an euch. Wenn man das Bildsignal √ľber den DP des Mainboards abgreift, hat man dadurch irgendwelche Leistungseinbu√üen?
Das Problem ist Folgendes. Ist der Monitor √ľber die GPU angeschlossen, kann ich in Apex Legends keine native Aufl√∂sung einstellen. Der Monitor erkennt sie f√§lschlicherweise als 4k und entsprechend max. 120Hz.
Übers Mainboard geht native Auflösung@240Hz.
 
Zuletzt bearbeitet:
Kurze Frage zum Anschluss des 3x8 auf 12 Pin.

Muss ich da auf 1,2,3 PCIe gehen? Weil jedes PCIe> zweimal 8 ppin.
In der Graka Beschreibung steht die Karte braucht dreimal 8pin, aber das w√ľrde ich ja schon mit PCi 1,3 hinbekommen da ich so 4x Pin habe.
2023-03-0410.32.118334432811988795385.jpg
 
Hello everyone,

I wanted to start a discussion about graphics cards, specifically in the context of the Intel ARC laptop . I've been experiencing some compatibility issues with the Intel ARC A-series graphics cards on my Intel Evo laptop, and I'm wondering if anyone else has encountered similar problems or has any suggestions for resolving this issue.
Here are some questions to get the discussion started:
Have you used an Intel ARC graphics card before? If so, what was your experience like?
What do you think of the Intel ARC GPUs and their performance compared to other graphics cards on the market?
What are some common mistakes people make when building or upgrading their system for deep learning with a GPU?

What are some good GPUs for deep learning applications?

What are some things to consider when choosing a CPU and motherboard combination for running multiple GPUs?

I'm looking forward to hearing your thoughts and experiences with graphics cards, especially in the context of the Intel ARC laptop.

Let's start a discussion and share our knowledge and expertise!
 
Hello everyone,

I wanted to start a discussion about graphics cards, specifically in the context of the Intel ARC laptop . I've been experiencing some compatibility issues with the Intel ARC A-series graphics cards on my Intel Evo laptop, and I'm wondering if anyone else has encountered similar problems or has any suggestions for resolving this issue.
Here are some questions to get the discussion started:
Have you used an Intel ARC graphics card before? If so, what was your experience like?
What do you think of the Intel ARC GPUs and their performance compared to other graphics cards on the market?
What are some common mistakes people make when building or upgrading their system for deep learning with a GPU?

What are some good GPUs for deep learning applications?

What are some things to consider when choosing a CPU and motherboard combination for running multiple GPUs?

I'm looking forward to hearing your thoughts and experiences with graphics cards, especially in the context of the Intel ARC laptop.

Let's start a discussion and share our knowledge and expertise!
so you thought coming to a german forum and starting speaking english is a good idea? lmao
 
hallo , gibts eine möglichkeit die rgb an der suprime x 4090 permanent zu deaktivieren ohne dieser dummen msi software ? (sind auf das pcb gelötet)
 
Man kann einen Stecker ziehen.
 
Klar kannste mit dem MSI Center+Mystic Light machen.
Wie es geht erst wenn die PAD Maße kommen :-)
1687024650155.png
 
Kein Thema, bald bekommt Windows das ja vielleicht auf die Reihe, ich schau mal wenn ich was anderes finde, aber es geht :)
 
Kein Thema, bald bekommt Windows das ja vielleicht auf die Reihe, ich schau mal wenn ich was anderes finde, aber es geht :)

ja dann m√ľsste ich windoof 11 nutzen , was ich aber nicht machen werde - windows 11 kostet mich bei csgo rund 200fps in den lows , und der inputlag ist auch schlecht - ganzuschweigen von den problemen die andauernd bei patches sind wie zb. geringere leistung und und und
 
ja dann m√ľsste ich windoof 11 nutzen , was ich aber nicht machen werde - windows 11 kostet mich bei csgo rund 200fps in den lows , und der inputlag ist auch schlecht - ganzuschweigen von den problemen die andauernd bei patches sind wie zb. geringere leistung und und und
Alles eine Frage der Optimierung, ich kann jetzt keinen negative Leistung Feststellen. Man muss halt gewisse "Schutz Mechanismen" deaktivieren die verhindern das Programme direkten zugriff auf gewisse Ressourcen bekommen. z. B
1687078616910.png
 
Zocke ja eigentlich auch nur CS und wenn ich da probleme hätte dann wäre ich sicher sofort bei Windows95 wenn es was bringt :)
F√ľr RGB gerade mal getestet, einmal aktivieren und die Karte speichert das. Mach einfach einen Restore Punkt, MSI installieren und einstellen,dann Sicherung zur√ľckspielen und alles ok.
Mit CS schaue ich mir nochmal an, glaube aber das liegt an anderen Sachen bzw. wurde mittlerweile gefixt.
 
wurde es nicht. das ist auch bei windows 10 so ab version 22h2 = 200fps weniger in csgo und valorant , gleiches auch bei windows 11

21h2 hat 200fps mehr , in csgo und valorant.

und da kann man optimieren wie man will (ich nutze √ľbrigens eine custom-iso)
 
wurde es nicht. das ist auch bei windows 10 so ab version 22h2 = 200fps weniger in csgo und valorant , gleiches auch bei windows 11

21h2 hat 200fps mehr , in csgo und valorant.

und da kann man optimieren wie man will (ich nutze √ľbrigens eine custom-iso)
Microsoft hat ein paar Schutzmechanismen eingef√ľhrt, custom-iso sagt gar nichts aus. Wie gesagt es ist bekannt das die neuen Mechanismen Latenzen hinzuf√ľgen und somit die Leistungen drosseln k√∂nnen. Es gibt auch seitens MS einen Game Modus der Prozesse anderes priorisiert. Ja es gibt einen bekannte Bug der die Leistung einschr√§nken kann, darunter ist das mit der Kernisolierung bereits bekannt.
 
Wei√ü jemand was f√ľr Adapter man bei einer AMD RX 6800XT (MBA / Referenz) an dem USB-C Anschluss nutzen kann?

Ich habe aktuell zwei Monitore per DP und einen Monitor per HDMI angeschlossen.
An den HDMI-Port w√ľrde ich gerne meinen neuen TV anschlie√üen und den vorher an HDMI angeschlossenen Monitor dann per Adapter √ľber HDMI oder DP anschlie√üen (2560x1440 @144Hz).

Die AMD-Seite ist leider wenig hilfreich welchen Standard (DP Alt Mode?) der USB-C-Anschluss verwendet. Da steht nur "USB Type-C: Yes"
 
Na USB-C halt. Alle Geräte die USB C kompatibel sind ohne PD.
 
Mal eine vielleicht bl√∂de Frage, aber wie kritisch ist es wenn am PCI-E Slot der Grafikkarte diese zus√§tzliche Halterung abgebrochen ist? Kumpel hat die beim Ausbau der alten Grafikkarte f√ľr seine neue 4070TI abgebrochen.

Meiner Meinung nach ist das nicht so tragisch, wenn die Grafikkarte ordentlich verschraubt ist und der PC eh immer nur unterm Tisch steht und nicht bewegt wird.
 
Mal eine vielleicht bl√∂de Frage, aber wie kritisch ist es wenn am PCI-E Slot der Grafikkarte diese zus√§tzliche Halterung abgebrochen ist? Kumpel hat die beim Ausbau der alten Grafikkarte f√ľr seine neue 4070TI abgebrochen.

Meiner Meinung nach ist das nicht so tragisch, wenn die Grafikkarte ordentlich verschraubt ist und der PC eh immer nur unterm Tisch steht und nicht bewegt wird.
Sollte auch ohne gehen, die Verschraubung auf der Slot blech Seite reicht nur bedingt aus.
Im Prinzip verhindert die Verriegelung z. B auch Wackler durch Vibrationen von den L√ľftern oder beim bewegen des Towers.

Kritisch ist es nicht, zu not kann man den Tower auch auf der Rechten Seite hinlegen und lässt die Schwerkraft ihren Job machen.
Meines Wissens nach haben die noch keinen Schutzkontakt oder √§hnliches, das ohne die Verriegelung die Stromzufuhr in dem PCIE Slot verhindern w√ľrde.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zur√ľck
Oben Unten refresh