Diablo 4 Beta: Zahlreiche RTX-3080-Ti-Grafikkarten von Gigabyte von Defekt betroffen

Anscheinend Glück gehabt, hab mit meiner 3080Ti ohne Framelimit durchgezockt am WE... puh, nix passiert xD
Vielleicht liegts an der WaKü.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe nicht genau darauf geachtet, hatte aber gestern Afterburner mitlaufen. Ich meine immer so um mein Monitor-Cap von 144Hz. So um die 100-160 Hz in 3440p und alles max. In den Städten teilweise ganz schöne Drops, aber das liegt vermutlich eher an meinem 5600x. Hin und wieder gab es Laderuckler und Framedrops auf ca. 70 Hz.

Das Game ist aber an einigen Stellen noch merklich Beta, ich hatte über weite Strecken den kompletten GPU-Speicher voll (12 GB) und 2-3 Abstürze. Einmal ist mir Windows fast gecrasht (vielleicht war das sogar die Kathedrale, aber das kann ich leider nicht mehr genau sagen.

Meine Temperaturen sind auf der GPU ansonsten aber sehr niedrig.
 
Also mir sagt dass,das manche Hersteller wohl billig schrott verbauen....


Und ne GPU schadets wenn se immer 99% ausgelastet ist oder hohe FPS anzeigt?.


Also 1April ist noch nicht....



Und wer meint höhere FPS als Hz bringen nix spielt wohl nie shooter,und da rede ich nicht von den Toastergames.
 
Spart Euch doch bitte generell in diesem Thread mal die Autovergleiche. Das hinkt so dermaßen das selbst ein Einbeiniger schneller unterwegs ist. Ich mag Autovergleiche ja auch. Passt hier aber Null.

So wie ich das jetzt mitbekommen habe liegt es wohl an kalten Lötstellen, wie damals bei EVGA. Also mitnichten ein Anwenderfehler. Sowieso in keinem Fall ein Anwenderfehler AUSSER die Betroffenen haben überaktet, was man soweit ich weiss nicht nachweisen kann.

Und damit bin ich hier raus, alles gesagt.
 
Die passen viel öfter sehr gut als Ihr behauptet. Nicht nur bei diesem Thema. ;)

Tschö. :)
 
Ich halte das für Bullshit :).
 
So wie ich das jetzt mitbekommen habe liegt es wohl an kalten Lötstellen, wie damals bei EVGA. Also mitnichten ein Anwenderfehler. Sowieso in keinem Fall ein Anwenderfehler AUSSER die Betroffenen haben überaktet, was man soweit ich weiss nicht nachweisen kann.
Selbst wenn man übertaktet sollte sich eine korrekt funktionierende GPU immer selber drosseln wenn sie über die spezifizierten Limits geht.
Wenn man natürlich Limits spezifiziert und dann vielleicht Teile verbaut die für diese Limits qualitativ nicht ausreichend sind muss man sich nicht wundern wenn was kaputt geht.
Die Angabe von EVGA bei New World war auch bullshit. EVGA ist ein US Unternehmen, hätten die zugegeben das sie qualitativ minderwertige Komponenten verbaut haben dann hätten die sehr schnell eine Sammelklage am Hals gehabt. So hat mein einfach behauptet das es ein Produktionsfehler war und gut ist.
Spricht schon für sich das die EVGA 3090 rev 0.1 den selben Spannungswandler verbaut hat wie die Gigabyte 3080 ti modelle (AOZ5312UQI) und genau der Spannungswandler in der Revision von EVGA nicht mehr verwendet wurde. Vielleicht weil er nicht das aushält was er aushalten muss?
 
Selbst wenn man übertaktet sollte sich eine korrekt funktionierende GPU immer selber drosseln wenn sie über die spezifizierten Limits geht.
Das sehe ich anders und ich denke die Rechtssprechung würde mir da zustimmen: wenn Du ein Produkt ausserhalb der vorgegebenen Spezifikationen betreibst, entfällt die Garantie.

Um hier mal einen Autovergleich zu bemühen: wenn Du ein Auto bei 12000 Umdrehungen bewegst (durch Anpassung) es aber ab Werk nur für 10000 konzipiert wurde und es dadurch kaputt gehst, bist Du selber schuld. Die Frage ist dann nur noch ob es Dir nachgewiesen werden kann.

Der Vorteil für uns (Kunden) bei GPUs ist einfach, soweit ich weiss: man kann es nicht nachweisen. Aber ich kann mir gut vorstellen das es nur eine Frage der Zeit ist bis sich das ändert (Chip auf der Karte zur Speicherung der Werte der letzten 24std. oder whatever).
 
wenn Du ein Produkt ausserhalb der vorgegebenen Spezifikationen betreibst, entfällt die Garantie.
deswegen fps Limit. Im Fall von New World wurden nachweislich durch die Software power limits überschritten.
 
Ja? Du meinst die Karten haben mehr Saft aus dem Netzteil gezogen als sie gedurft hätten?
 
Das sehe ich anders und ich denke die Rechtssprechung würde mir da zustimmen: wenn Du ein Produkt ausserhalb der vorgegebenen Spezifikationen betreibst, entfällt die Garantie.

Um hier mal einen Autovergleich zu bemühen: wenn Du ein Auto bei 12000 Umdrehungen bewegst (durch Anpassung) es aber ab Werk nur für 10000 konzipiert wurde und es dadurch kaputt gehst, bist Du selber schuld. Die Frage ist dann nur noch ob es Dir nachgewiesen werden kann.

Der Vorteil für uns (Kunden) bei GPUs ist einfach, soweit ich weiss: man kann es nicht nachweisen. Aber ich kann mir gut vorstellen das es nur eine Frage der Zeit ist bis sich das ändert (Chip auf der Karte zur Speicherung der Werte der letzten 24std. oder whatever).
Garantie ist das eine aber es gilt trotzdem weiterhin: Die Karte sollte sich trotzdem selbst abschalten aufgrund der gegeben Sicherheitseinstellungen. Deswegen gibts ja für richtiges übertakten custom bios oder shunt mods. Da biste dann wirklich deine Garantie los. Gibt ja auch Anbieter, wie zb EVGA die ganz klar sagen das übertakten nicht die Garantie erlischen lässt.

Man darf hier aber auch nicht vergessen das Nvidia ein Reference Design vorgibt inklusive alle Spezifikationen und die Anbieter dann aber bei ihren Custom Design ab Werk übertaktete Grafikkarten anbieten.
Wer sagt mir denn das diese Übertaktung bei den verbauten Komponenten berücksichtig wurde?
Beitrag automatisch zusammengeführt:

deswegen fps Limit. Im Fall von New World wurden nachweislich durch die Software power limits überschritten.
Durch welche Software, New World, Nvidia Treiber oder was meinst du genau?
Im Falle von New World hat EVGA gesagt das eine schlechte Verlötung rund um die Spannungswandler Schuld waren, ob das stimmt hab ich bereits "angezweifelt" und auch begründet. Es war also ein Hardware Defekt.
Ein Spiel kann keine Bios Sicherheitsparameter aushebeln, es kann nur Schwachstellen der Karten aufzeigen ist dann aber trotzdem nicht der Grund warum GPUs bricken.

Die vorgegeben Spezifikation deiner GPU ist 100% Last bei Werkseinstellungen. Wenn du daran nichts änderst dann kann die Karte meinetwegen 5000 fps machen bei 100% Last. Ändert trotzdem nichts daran das das ihr Limit ist bei dem sie Problemlos laufen muss.
 
Ja? Du meinst die Karten haben mehr Saft aus dem Netzteil gezogen als sie gedurft hätten?
yes, gab diverse Tests dazu die das bestätigt haben


@manta88 durch NW, siehe Video
tl;dw: 375W Karte zieht im Menü mal 400+W

ob das bei D4 natürlich auch der Fall ist, who knows. Aber ich würds nich drauf ankommen lassen.
 
Zuletzt bearbeitet:
@manta88 durch NW, siehe Video
tl;dw: 375W Karte zieht im Menü mal 400+W
Dann ist das Powerlimit im Bios halt nicht korrekt configuriert.
Ist doch bezeichnend das das Problem nur bei EVGA aufgetreten ist.
Wäre das richtig configuriert dann könnte die Karte by design nicht über 375w gehen.
Jayz2Cents testet da die 0.1 rev die ja die Probleme bei New World hatte.
Er erklärt es sogar im Video. 350 Watt ist die von Nvidia vorgegebene Konfiguration auf deren Basis auch Spannungswandler, VRMs etc ausgelegt sind. Wenn du dann deine Karten aber auf 380 Watt TDP oder sonst was ab Werk übertaktest und das Power Delivery System nicht dementsprechend konfigurierst dann kommt so ne scheiße wie bei EVGA und jetzt Gigabyte rum.

0.1 versions pulled more wattage (like 80-85W from the PCIE directly). The 1.0 rev resolved that, but for some reason the 3rd 8-pin is gimped compared to the first 2 if you watch the power draw under load.

Ein Spiel kann sich nicht mehr holen als es von der Karte kriegen kann. So funktioniert das nicht.
 
Zuletzt bearbeitet:
Es geht darum, dass eine Karte mit einem Powerlimit X durch die software genötigt wird, 110%+ von X abzuführen und das darf nicht passieren. Dass hierbei eine Schwachstelle der HW dadurch zum worst case führt, ist nur eine folge daraus. Die Karte ist für das PL X ausgelegt und von NV auch so abgesegnet, denn sonst gäbs die Karte so nicht. NV ist sehr streng mit den Designs, die von den boardpartnern vorgelegt werden. Und dass Karten verrecken ist kein hausgemachtes EVGA Problem gewesen, sondern auch v.a. bei Gigabyte passiert. EVGA ist nur verstärkt im Fokus gewesen, da EVGA mit abstand der topseller in den USA ist.

Am Ende ist es auch scheiss egal, was zum Tod der GPU fürht, wenn man das ganze mit 2 Klicks einfach komplett vorbeugen kann. Wozu braucht man im Menü 200+ fps?

die Problematik mit der erhöhten PCIe Slot Last hat mit dem ganzen nichts zu tun sondern lag an Murks von EVGA.
 
Es geht darum, dass eine Karte mit einem Powerlimit X durch die software genötigt wird, 110%+ von X abzuführen und das darf nicht passieren.
Wenn das möglich ist, ist das PL bzw. die Firmware der Karte verbuggt.
 
Es geht darum, dass eine Karte mit einem Powerlimit X durch die software genötigt wird, 110%+ von X abzuführen und das darf nicht passieren. Dass hierbei eine Schwachstelle der HW dadurch zum worst case führt, ist nur eine folge daraus. Die Karte ist für das PL X ausgelegt und von NV auch so abgesegnet, denn sonst gäbs die Karte so nicht. NV ist sehr streng mit den Designs, die von den boardpartnern vorgelegt werden. Und dass Karten verrecken ist kein hausgemachtes EVGA Problem gewesen, sondern auch v.a. bei Gigabyte passiert. EVGA ist nur verstärkt im Fokus gewesen, da EVGA mit abstand der topseller in den USA ist.

Am Ende ist es auch scheiss egal, was zum Tod der GPU fürht, wenn man das ganze mit 2 Klicks einfach komplett vorbeugen kann. Wozu braucht man im Menü 200+ fps?

die Problematik mit der erhöhten PCIe Slot Last hat mit dem ganzen nichts zu tun sondern lag an Murks von EVGA.
EVGA wars bei New World, Gigabyte jetzt bei Diablo 4

Ich versteh auch ehrlich gesagt nicht was so schwer daran verständlich ist.
Ein Software kann nur das abrufen was es maximal von der Karte kriegt. Das kein Mensch 400 fps oder so im Menü braucht ist natürlich klar aber nicht Ursache des Problems.
Wenn die Karte falsch konfiguriert ist, ist das nicht die Schuld der Software. Ist doch kein Hexenwerk. EVGA hätte die Karte bei 375 Watt oder sonst was abriegeln können, haben sie aber nicht. Hier liegt das Problem und sonst nirgendwo. Wenn man das Limit natürlich bei 110% festlegt und die Komponenten nicht dafür ausgelegt sind muss man sich nicht wundern.

Bist du dir sicher das Board Partner ihre Custom Designs approven lassen müssen? Wäre mir ehrlich gesagt neu.
 
Zuletzt bearbeitet:
Dass Boardpartner ihre Customs von nv freigeben müssen, ist auch mein Stand.
 
EVGA hätte die Karte bei 375 Watt oder sonst was abriegeln können, haben sie aber nicht. Hier liegt das Problem und sonst nirgendwo.
ok und warum ist meine 500W EVGA Karte dann noch nicht abgeraucht? Achja, weil ich keine Spaghetticodesoftware ohne framelimiter laufen lasse. BTW ist die Karte von EVGA ab werk für 420W bzw. 450W ausgelegt.

Am ende ist es auch völlig egal wie oder warum die GPUs verrecken, wenn man das ganze mit 2 Klicks umgehen kann und darum geht es mir.

Bist du dir sicher das Board Partner ihre Custom Designs approven lassen müssen?
ja
 
ok und warum ist meine 500W EVGA Karte dann noch nicht abgeraucht? Achja, weil ich keine Spaghetticodesoftware ohne framelimiter laufen lasse. BTW ist die Karte von EVGA ab werk für 420W bzw. 450W ausgelegt.
Weil es verschiedene Serien der 3090 von EVGA gibt die jeweils unterschiedliche Powerlimits haben und auch unterschiedliche Komponenten verbaut haben?
Im höherpreisigen Segment der einzelnen Marken zahlt man ja für die bessere Qualität der verbauten Komponenten (Spannungswandler, Anzahl an Sensoren etc) und nicht für den höheren Takt, der ist das Resultat aus ersterem.
EVGA wird das anscheinend bei der Ultra Serie getestet haben das sie auch bis 500 Watt gehen können, ansonsten würde man es ja nicht anbieten. Zumal man ja ne neue Revision der Karten gebracht hat.
Man hat das Gefühl du fühlst persönlich angegriffen weil du eine EVGA Karte hast.

Du kannst nicht davon ausgehen das jeder nen Frame Limit einstellt auch wenn ich dir natürlich recht gebe das es eigentlich keinen Sinn macht es nicht zu tun. Ich stell es auch überall ein weil ich nicht einsehe warum ich unnötig strom verbrauchen sollte. Aber die Verantworung an den Kunden abzutreten ist zu einfach ;-).

Dass Boardpartner ihre Customs von nv freigeben müssen, ist auch mein Stand.
Wieder was gelernt :-)
 
Zuletzt bearbeitet:
EVGA wird das anscheinend bei der Ultra Serie getestet haben das sie auch bis 500 Watt gehen können, ansonsten würde man es ja nicht anbieten.
Man hat das Gefühl du fühlst persönlich angegriffen weil du eine EVGA Karte hast.
Er könnt sich seine Karte ja von EVGA tauschen lassen, wenn er es drauf anlegen würde.
Macht man halt nicht wenn man vielleicht Glück in der silicon lottery und einen guten Chip erwischt hat, vor allem wenn es einen einfachen Workaround gibt.
Karten die innerhalb der Garantie sind werden von EVGA ja sowieso ohne Probleme getauscht wenn ein nicht selbst verursachter Mangel vorliegt.
 
@manta88 ich fühl mich keineswegs persönlich angegriffen, nur weil ich selber ne EVGA Karte hab. Tatsächlich ist das die Dritte FTW3. Es ist mir aber unbegreiflich, wie Leute sich hinstellen können, die sich für tausende Euro hardware kaufen und nicht die 2 Minuten investieren, sich mal kurz abzusichern, dass das Ding nicht gleich hops geht beim ersten edge-case-Szenario. Auch wenn es edge cases sind gibt es offensichtlich eine Wahrscheinlichkeit > 0, dass der Fall eintreten kann. Wenn man das weiß und trotzdem nix dagegen tut, dann würd ich mal sagen selbst Schuld, wenn man da zu den Betroffenen gehört. Ob da nun Spaghetticode in games oder Treibern, oder Murks auf dem PCB ursächlich ist - wenn es eine Möglichkeit gibt, meine hardware für solche Fälle abzusichern, dann gibt es keine Ausrede das nicht zu tun. Raucht die Karte dann trotzdem ab, hat man ja die Garantie. Zumindest bei den meisten Herstellern.

PS: Die Karte in dem Video ist eben jene FTW3 Karte
 
@manta88 ich fühl mich keineswegs persönlich angegriffen, nur weil ich selber ne EVGA Karte hab. Tatsächlich ist das die Dritte FTW3. Es ist mir aber unbegreiflich, wie Leute sich hinstellen können, die sich für tausende Euro hardware kaufen und nicht die 2 Minuten investieren, sich mal kurz abzusichern, dass das Ding nicht gleich hops geht beim ersten edge-case-Szenario. Auch wenn es edge cases sind gibt es offensichtlich eine Wahrscheinlichkeit > 0, dass der Fall eintreten kann. Wenn man das weiß und trotzdem nix dagegen tut, dann würd ich mal sagen selbst Schuld, wenn man da zu den Betroffenen gehört. Ob da nun Spaghetticode in games oder Treibern, oder Murks auf dem PCB ursächlich ist - wenn es eine Möglichkeit gibt, meine hardware für solche Fälle abzusichern, dann gibt es keine Ausrede das nicht zu tun. Raucht die Karte dann trotzdem ab, hat man ja die Garantie. Zumindest bei den meisten Herstellern.

PS: Die Karte in dem Video ist eben jene FTW3 Karte


Du schaltest also auch bei deiner CPU den Boost ab? Nicht das Spaghetticode deine CPU oder die Wandler am Board durchbrennen lässt.
 
Äpfel und Birnen 0/10
back to ignore
 
Natürlich, eine CPU die von einer Software bis zum Maximum ausgereizt wird?

Völlig ok, eine Grafikkarte die von einer Software völlig ausgereizt wird? Spaghetticode, man bist du blöd, dass du die Bildrate nicht limitierst.

Irgendwie mein Humor.

Der zweite Witz ist, je nachdem in welcher Auflösung man spielt und wie weit man die Bildrate limitiert, wird die CPU komplett ausgebremst.
 
Hier könnte man allgemein mal etwas zurückfahren!
 
Der Punkt ist, dass die GPUs im Fall von NW eben nicht "ans maximum" ausgereizt wurden, sondern darüber. Aber das scheinst du nich so ganz zu verstehen. Ich würde mich auch mal so weit aus dem Fenster lehnen und behaupten, dass 4-stellige fps zahlen in Zeiten von 360Hz Monitoren auch nicht gerade "in spec" sind.
Woran das letztendlich liegt ist mir persönlich wie bereits gesagt am ende des Tages völlig egal. Limiter rein und ende der Geschichte. Wers nicht macht, selbst schuld.
Wenn mainboards anfangen plötzlich 2V in CPUs zu ballern weil du Cinebench startest, dann können wir uns nochmal unterhalten.
Einerseits bist du ermpört über das "i paid for the whole speedometer, i will use the whole speedometer" meme, aber gleichzeitig jammerst du dass der Mist gefälligst bis zur Kotzgrenze und darüber hinaus funktionieren soll. Was denn jetzt von beidem?


und eine CPU wird nicht "ausgebremst", weil man die Auflösung seines Monitors runterstellt. Aber falls du etwas Lektüre zu dem Thema brauchst, im Aufrüstungs-Subforum gibts nen echt guten Thread zu dem Thema. Würd ich dir mal ans Herz legen.

PS: nach deiner Logik spricht ja scheinbar nichts dagegen, HW an der Grenze ihrer Spezifikation zu betreiben, dann sollte das ja auch klar gehen oder?

1680028806915.png
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh