Defekte Grafikkarten: New-World-Problematik ist zurück

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Außer zum benchen rennt meine 3090 eh immer auf 60% PL 🤷‍♂️ für Rimworld, Chernobylite und D2R trotzdem immernoch overkill 😂
 
Betrifft nicht nur EVGA Karten, hat er ebenso mit einer MSI getestet. Das maximale Power Limit wird teilweise über 20% übertroffen (wenn auch nur in Spikes) anscheinend aber nur bei NV Karten, selbst wenn man maximal 100% eingestellt hat. Wer den schuldigen also sucht, sollte mal zu NV schielen.
 
Gute Arbeit @Team EVGA
Über 2k€ für eine 3090 abknöpfen und die offizielle Empfehlung ist sie auf 3060 Niveau laufen zu lassen. Respekt!
Da New World die einzige Anwendung ist, bei der aktuell solche Probleme mit einzelnen unserer Karten auftreten, bezieht sich die Empfehlung ausschließlich auf dieses Spiel, die auch nur so lange von uns ausgesprochen wird, bis die Ursache für die vereinzelten Ausfälle gefunden wurde.
Ob dieser Empfehlung gefolgt wird, darf am Ende des Tages jeder für sich selbst entscheiden.
 
Genau EVGA. Gemurkst bei Layout, Produktion und Firmware und jetzt muss man seine GPU per Software "kastrieren" damit diese nicht abraucht :shot:
 
Betrifft nicht nur EVGA Karten, hat er ebenso mit einer MSI getestet. Das maximale Power Limit wird teilweise über 20% übertroffen (wenn auch nur in Spikes) ..
Das man in Spikes teilweise kuzzeitig enorm drüber sein kann (Lastspitzen), das ist schon immer so und nicht nur in New World der Fall. Im Normalfall ist so etwas auch mit eingerechnet vom Platinenlayout her....
 
Das man in Spikes teilweise kuzzeitig enorm drüber sein kann (Lastspitzen), das ist schon immer so und nicht nur in New World der Fall. Im Normalfall ist so etwas auch mit eingerechnet vom Platinenlayout her....

Ist mir bewusst. Das diese jedoch 20% betragen und das alle paar Sekunden eintrifft ist nicht normal.
 
Ich würde dem Spiel nicht den schwarzen Peter zuschieben.
Ist da nicht eher der Grafikkartenhersteller verantwortlich, der entsprechende Schutzmechanismen implementieren sollte?
CPUs und auch GPUs takten z.B. runter, wenn die zu heiss werden.
Wieso klappt das nicht im Allgemeinen für die komplette Karte, damit sich lötstellen nicht lösen?
 
Sollte man die nutzen oder muss man das? Gesunder Menschenverstand sagt mir zumindest, dass unabhängig davon, ob das irgendwo in alle Nuancen niedergeschrieben steht oder nicht, man sich u.U. in bestimmten Grenzen bewegen sollte.
Vielleicht sollten sich Programmierer auch einfach mal hinterfragen, warum ihr Spiel im Menü die GPU an die TDP-Grenze bringt. Muss das denn sein? Ist das irgendwie sinnvoll?
Nochmal ne klare Ansage:
Ich als Entwickler habe darauf NULL Einfluss. Keinen. Gar keinen. Absolut null.

Ich kann die Bilder einfügen. Die Assets adden, die Settings in der Engine einstellen.... das war es.
Wie die GPU das verarbeitet, kann ich als Entwickler nicht steuern. Nicht im Geringsten. GAR NICHT. Ob sie da 100 Watt nimmt, oder 500 Watt,... kann ich nicht mal abschätzen, geschweige den beeinflussen.
Zumal jede GPU / Generation / Hersteller, dass auch noch anders regelt. Auf ihre Art halt.

Soweit nun klar?

Engines lassen aktuell deutlich mehr zu, als moderne GPUs packen.
Lasse ich in Unreal alle Settings on, macht ne 3090 noch so 10-30 Frames die Minute. MINUTE nicht Sekunde.
Also ist so richtig Spielraum nach Oben, was die Settings angeht. Ich kann da also nicht "sparsamer" umgehen und damit irgendwas Tolles erreichen. Das IST bereits sparsam.
Alles, was die GPU macht, ist für den Entwickler komplett außen vor. Er hat einfach keinen Einfluss darauf.

Und er sollte auch keinen Einfluss darauf haben, weil er kein Ingenieur ist! Darum ist es ja eine Blackbox.

Wenn New World das einzige Spiel ist, bei dem das passiert,... dann liegt das NICHT an den Entwicklern von New World, sondern an:
A: Der API, die irgendwas zulässt, dass nicht zugelassen werden sollte (unwahrscheinlich, weil dann ja B oder C trotzdem noch zutreffen müssten)
B: Grafiktreibern, die irgendwas falsch berechnen und der GPU falsche Anweisungen geben, die irgendwie die Sicherheitsmechanismen deaktivieren oder umgehen (möglich)
C: Ein Hardwaredefekt / fehlender Begrenzer von "irgendwas", der aufgrund der speziellen Last aber nötig wäre und so zu einem Defekt führt. (sehr wahrscheinlich)

Hardware, die sich selber killt mit ihrer Arbeit, hat schlicht einen fehlenden Begrenzer für was auch immer das Problem auslöst.


Zwei Beispiele für die Bilderliebhaber:
* Wir hatten das Thema Auto,... schon mal probiert im ersten Gang 200 zu fahren? Geht nicht? Wieso? Weil die Drehzahl begrenzt. Man kommt, je nach Motor, auf 90, evtl. 100.... bei den meisten aber eher 30-50. Und dann geht das Auto nicht kaputt, sondern es verhindert den Schaden.

* Wie viel Einfluss hat man als Kunde einer Pizzeria auf das Ergebnis? Viel! Man sagt, was man haben möchte. Das kommt dann normalerweise auch an. Aber WIE diese Pizza gebacken wird, beeinflusst der Kunde nicht. Das passiert in einer Blackbox, der Küche. Man sagt dem Kellner (API) was man will (Bild) und bekommt das Ergebnis (Bild x Frames) in der Küche (Blackbox mit GPU) gebacken, ohne dass man weiß wie, was, warum.
Natürlich kann man dem Kellner (API) sagen, dass man möchte, dass der Koch (Blackbox) dabei nen Handstand macht. Aber ob der Kellner (API) so was überhaupt annimmt UND an den Koch (Blackbox) überhaupt weitergibt, ist unwahrscheinlich. Eine API kann optionale Parameter nehmen, muss das aber nicht. Diese optionalen Parameter führen aber nicht zu defekten, weil nur garantiert machbare Dinge von der API akzeptiert werden. Der Kellner kann also den Sonderwunsch "bitte etwas mehr Käse" annehmen, aber ob der Koch das macht, entscheidet der Koch, wenn er sich das zutraut.


Also TLDR:
Ein Software-Entwickler KANN da nichts falsch / richtig / besser machen.
Wenn die API mehr erlaubt, als die Hardware aushält, dann ist die API daran schuld, nicht der Entwickler.
Wenn die Hardware mehr Last annimmt, als sie selber aushält, dann ist die Hardware daran schuld, nicht der Entwickler.
Wenn der Treiber Hardwarelimits umgeht, dann ist der Treiber schuld, nicht der Entwickler.
Der Entwickler kann diese drei Stellen nicht beeinflussen, hat keine Einsicht und hat auch null Chance, da auf dem Laufenden zu bleiben, WENN es überhaupt gehen würde.
 
@Sheena
Bereiche von 20% sind keine Seltenheit... Guck mal zum Beispiel beim Igor vorbei der testet das immer mit. Zum Beispiel die Sapphire Toxic... Da sind Lastspitzen dabei von über 500 Watt... Die sterben auch nicht alle gleich weg...

igor.jpg


Sorry, aber dieses Spiel zocken verdammt viele Leute, auch ich selbst... Ich habe in New World keine Probleme und ich zocke es stundenlang...
 
Für alle Besitzer einer EVGA-Karte:
JayzTwoCents hat etwas experimentiert.
Daraus resultieren ein paar Einstellungen, die wir euch ans Herz legen möchten:
- FPS auf 60 limitieren
- Auflösung auf 1440p oder niedriger setzen (4K verschlimmert die Overpower-Problematik in NewWorld deutlich)
- PowerDraw auf 50 - 60. Damit kommt ihr dann in einen Bereich, in dem die immer wieder auftauchenden Lastspitzen nicht in gefährliche Höhen schnellen und die FPS-Einbußen minimal sind.

Wieso ignoriert die GPU von EVGA den die Powerlimits?
Jay hat in dem Video ja gezeigt, dass dies auch in Benchmarks passiert, nicht nur in New World.
Wenn er auf 50-60% Limit setzt, kommt trotzdem bis zu 100% raus.

Natürlich grillt das eine GPU, wenn sie normal bei 100% ist und dann auf 130% spiked.... aber das ist dann eindeutig eine Hardware Thematik, keine Softwaresache.
 
@Tech Enthusiast Jein, etwas Einfluss haben wir, nämlich über die Shader Programmierung. Damit sagen wir ja der GPU wie sie die einzelnen Pixel zu rendern hat. Wie schnell sie das macht, bleibt allerdings ihr überlassen.

Jedenfalls ist Shaderprogrammierung schon Magie genug, da kann man definitiv nichts mit "gesundem Menschenverstand" vorgehen und irgendwie die "GPU schonen", ohne dass es dazu Dokumentation/Vorgaben seitens der Hersteller gibt.
Einfach nen simpleren Shader nehmen führt ja nicht zu weniger Auslastung denn dann schnellen halt die FPS in die Höhe.
 
Genau.
Das ist eine optionale API-Sache.
Da sagt man der GPU aber nicht: "Dreh auf 150% Power hierfür!", sondern man gibt dem Pizzakoch halt die Anweisung, dass er mehr Käse drauf machen soll. Ob er das hinbekommt, muss er schon selber regeln. ;-)
 
Ich komm grad nicht umhin, mit einen Pizzabäcker vorzustellen der mit 150% Käse auf die Pizza prügelt.
 
@Infin1tum In den Rand,im Pizzarand sind dann die 50% Extra :banana: Naja, ich warte hier noch auf den Step-Up der 3060ti - mal schauen wie es sich mit dieser verhält. Wie geschrieben: Meine EVGA 1660S sowie die EVGA GTX 960 haben keine Probleme mit New World und zuletzt haben meine Frau und ich so 5h gezockt.
 
:lol:

Habt ihr noch alle Tassen im Schrank? Dies ist eine ernstgemeinte Frage.

Die Leute zahlen 2000 bis 3000€ und sollen dann kein 4K oder mehr als 60 FPS verwenden, weil eure Ingenieure versagt haben.

:popcorn:
 
2/3K sind doch noch billig in 2021 😝
 
Es ist ja auch nicht nur EVGA betroffen auch Gigabyte und andere sind nun vermehrt am abrauchen.
EVGA ist nur der einzige Hersteller der dazu Stellung nimmt und eine Empfehlung gibt.

Am Ende glaube ich ist es trotzdem ein Nvidia Problem, da es zu 90% Nvidia Karten sind ist schon seltsam.
Ich meine Igor hatte damals auch in seinem Video diesbezüglich was erwähnt, müsste ich mir nochmal anschauen.
 
Also ich muss sagen der interne Framelimiter von NW versagt bei mir den Dienst...bei mir gehen die Frameraten ab wie Zäppfchen... habe den Framelimiter von der Grafikkarte benutzt und da bleibt NW auch im Rahmen der eingestellten Frames
 
Hab ich immer, ist sie nie :fresse2: Und wenn's nach 200000 Kilometern passieren sollte, dann hat der Motor seine Schuldigkeit ja qualitativ ausreichend getan.
Stimmt, vor der zkd gibt bei der Fahrweise in der Regel der Turbo früher auf😁. Aber der Vergleich hinkt tatsächlich, auch einen Verbrenner bekomme ich durch verschalten und damit überdrehen kaputt, trotz Drehzahl Begrenzer im normalen Betrieb. Ich denke auch, dass New World eher die vorhandenen Schwächen aufdeckt, zusammen mit der derzeitigen quantitativen Verteilung. Die Designs sind nun Mal auf Kante genäht. Ich werde mir das Mal mit meiner gewasserten 3070 (undervolted) Mal ansehen und loggen.
 
@Sheena
Bereiche von 20% sind keine Seltenheit... Guck mal zum Beispiel beim Igor vorbei der testet das immer mit. Zum Beispiel die Sapphire Toxic... Da sind Lastspitzen dabei von über 500 Watt... Die sterben auch nicht alle gleich weg...

Sorry, aber dieses Spiel zocken verdammt viele Leute, auch ich selbst... Ich habe in New World keine Probleme und ich zocke es stundenlang...

Ich halte die zwei Messmethoden nicht unbedingt für vergleichbar. Mit nem Oszilloskop wie es Igor gemessen hat wirst du "jeden" Peak messen, bei Afterburner ist es mehr ne statistische Messung, sollte ein Peak genau auf den Auslesezeitpunkt fallen siehst du ihn, entsprechend weißt du nur, dass da ein Peak da ist und du hast keine weitere Informtionen über die Peaks wie z.B. die Länge (und evtl. auch die maximale Höhe). Grundsätzlich müsste man das mit nem Oszilloskop messen und nicht mit ner Softwarelösung die das alle Sekunde tut, ansonsten ist das sehr spekulativ, da mehr Informationen fehlen um das Ganze zu bewerten.

Die einzige Message aus dem Video von Jay ist für mich daher, dass sich die Grafikkarten in New World immernoch anders verhalten als in anderen Programmen und es es wohl wert wäre da mal mit genaueren Messmethoden nachzutesten.
 
Naja, wie es mit dem Vergleich auch sei: Was denkt ihr, wie die Grafikkartenhersteller reagieren, wenn jetzt ernsthaft ein Spiel für defekte Karten verantwortlich gemacht würden? Noch mehr Schrott für noch mehr Geld wäre die Folge.. man hat ja dann eine akzeptierte Ausrede!
 
Wow, das Statement von EVGA zeigt mir nur eines: Keine EVGA Karten mehr kaufen.
 
Naja, wie es mit dem Vergleich auch sei: Was denkt ihr, wie die Grafikkartenhersteller reagieren, wenn jetzt ernsthaft ein Spiel für defekte Karten verantwortlich gemacht würden? Noch mehr Schrott für noch mehr Geld wäre die Folge.. man hat ja dann eine akzeptierte Ausrede!

Man könnte es auch rumdrehen. Amazon verkauft selbst Grafikkarten und bringt jetzt ein Spiel raus, dass bewusst Grafikkarten um die Ecke bringt, ein Schelm wer da böses denkt.......

Wäre ungefähr ein genauso fundierte Theorie wie deine.
 
@~HazZarD~
Soweit mir bekannt kann solche Spikes auch kein Tool korrekt anzeigen. Zumindest in Sachen Verbrauch, Spannungen, Temperaturen sehe ich solche Tools eher als Richtwerte an (ungenau). Wenn man es 100% wissen will was Sache ist müsste man immer an die Hardware selbst ran und nach messen mit meist teuren Geräten... Die Unterschiede sind mir durchaus bewusst...

Ein einfaches Multimeter dürfte in Sachen Spannungen zum Beispiel das Günstigste sein... ;)
 
Mir ist der PC seit NW läuft sicher 20x abgeschmiert - blackscreen, musste immer neustarten. in 90% der Fälle resettet sich dann der AMD Treiber, also hab ich eh auf die GPU getippt. Dachte das Problem hier sei behoben, aber phuuu dann hatte ich ja glück das da nix abgeraucht ist. Sogar mit FPS Limit auf 30 gabs die Blackscreens! GPU untertaktet, UV, FPS Limit im Treiber... nix geholfen.

Letztlich geholfen hat es aber die RAM zu tauschen oO ich hab die 3600cl14 ausgebaut und 2666cl18 eingebaut - seither kein absturz mehr

wie kann das denn zusammanhängen, GPU Thematik in NW und die RAM?
 
Naja NW belastet halt das ganze System mehr, auch CPU und ja wohl RAM.
3600 ist halt OC und war wohl nicht stabil genug für NW würde ich schätzen ?

Bei mir wird auch die System Nvme deutlich wärmer als sonst in dem Spiel (durchgehend 60°C, sonst 45°C). Obwohl das Spiel auf einer 2ten Nvme liegt.
Wäre interessant ob das bei anderen auch so ist ? Nutze Win 11.
 
Letztlich geholfen hat es aber die RAM zu tauschen oO ich hab die 3600cl14 ausgebaut und 2666cl18 eingebaut - seither kein absturz mehr
Scheint als ob die 3600CL14 nicht stabil waren.
 
Naja NW belastet halt das ganze System mehr, auch CPU und ja wohl RAM.
3600 ist halt OC und war wohl nicht stabil genug für NW würde ich schätzen ?

Bei mir wird auch die System Nvme deutlich wärmer als sonst in dem Spiel (durchgehend 60°C, sonst 45°C). Obwohl das Spiel auf einer 2ten Nvme liegt.
Wäre interessant ob das bei anderen auch so ist ? Nutze Win 11.
Das wird dann das nächste Problem werden, unsinnig viele Schreibzugriffe :asthanos:
 
@Sheena
Bereiche von 20% sind keine Seltenheit... Guck mal zum Beispiel beim Igor vorbei der testet das immer mit. Zum Beispiel die Sapphire Toxic... Da sind Lastspitzen dabei von über 500 Watt... Die sterben auch nicht alle gleich weg...

Sorry, aber dieses Spiel zocken verdammt viele Leute, auch ich selbst... Ich habe in New World keine Probleme und ich zocke es stundenlang...

Und nochmal... Ein Spike tritt MAL auf. Nicht quasi dauerhaft. Die 20% sind KEINE Spikes, sondern fast dauerhaft anliegend. Die Spikes von denen Du redest sind NICHT diese 20%, sondern kommen noch zusätzlich ins Spiel.


Edit: Und ich habe keine Probleme wenn ich Milch trinke. Deswegen gibt es keine Laktoseintoleranz? Ist das deine Logik? Viele Leute haben Probleme, Tests zeigen mögliche Problemquellen mit denen die meisten Karten umgehen können, einige aber anscheinend nicht. Und das Du es jetzt Stundenlang zocken kannst, heißt noch lange nicht das es dauerhaft so läuft..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh