Blackwell Smalltalk Thread (RTX 5000er Reihe)

  • Ersteller Gelöschtes Mitglied 102156
  • Erstellt am
... doch... und dafür wirds noch nicht mal eine Dhahab brauchen. :fresse:
Beitrag automatisch zusammengeführt:

Ich mochte diese Comic-Grafik von BL noch nie. Dann noch so eine „Grafik-Leistung“ abliefern… :sneaky:
Jup das ist der totale Ultra-Fail.

Comic-Grafik ist so ne Sache für sich.
Der riesen Vorteil dieser Comic-Grafik ist, dass man ein "gutes visuelles Erlebnis" mit "geringem Ressourcenverbrauch" hinbekommen kann...
Das macht das richtig interessant... man kann irgend ne Kack-Engine nehmen (sogar ne Build-Engine, siehe Ion Fury oder Wrath: Aeon of Ruin) und das Ergebnis wird ziemlich lustig.
Jedi Knight Jedi Outcast war auch sowas, imho eine super Grafik (vom "Gefühl" her) für die Zeit und den Verbrauch... einfach weil sich dieser Grafikstil gut eignet um ohne großem Aufwand ne Atmosphäre zu erzeugen.
In WoW hat das imho auch brauchbar funktioniert. War anfangs zwar komisch, aber man hat sich dann doch dran gewöhnt und ziemlich wohl gefühlt.

Borderlands war dann schon auch okay, habs immer gern gespielt (Wonderlands hat imho ein bissl gesuckt, das PreSequel fand ich mitunter am besten).


Aber mit so ner Comic-Grafik dann so einen Ressourcen-Raub begehen... wow... was fürn Bullshit.

Wobei ich auch nicht zu viel sagen darf, ich hab ja noch kein BL4 und werds erst unter 25€ kaufen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man jetzt bin ich wieder drauf und dran auf eine 9800x3d zu wechseln wegen CPU Overhead Situationen wo die 5090 sonst nicht ihre Leistung abrufen kann. Wären je nach Board (Asus B850 I / B650E I, brauche nicht so viele Anschlüsse) 450 + 230 / 280 = ca. 700 Tacken.

Machen oder lassen. Ist das dumm.


Was soll ich sagen, ich nutze noch meinen 12900k mit DDR4, ich sehe meine 5090 öfter sagen: hey! mach mal hinne!

Aber wenn ich mir CPU-Tests anschaue, warte ich halt trotzdem auf neue AMD-Gen oder mal gucken, ob Intel was hinbekommt...
 
Jo seit der 5090 seh ich erstmals CPU Limits... :d

Ist aber nicht so schlimm, ich bin nicht sonderlich FPS-sensitiv, Limiter bei 60-90 fps (am 240Hz 4k OLED) sind für mich bei den meisten Spielen voll okay. Je nach Settings und so ist die 5090 dann eh schon ziemlich ausgelastet.
Ich finde das ganz angenehm, wenn die GPU "normal" bei so 50-66% Last ist, dann ist noch genug Reserve für "GFX-intense" Szenen und außerdem alles relativ leise.
Nervt doch massiv, wenn man sich irgendwo im dunklen anschleicht und der PC eins auf F14-Takeoff macht (GTFO Mora Dudes).

Bei mir muss der 5900X noch länger halten.
Zen 5 gefällt mir nicht von den Boards her und allgemein mmh, RAM ist mir zu teuer (und ohne ECC mag ich nimmer), Bei Arrow sind die Boards nice aber ECC fehlt (und das eine W880 ist so meh, mal den Preis außen vor) und mir gefällt diese P/E Sache immer noch nicht so ganz.



... aber so die Comic-Grafik mit den Photorealistic Anforderungen, das schlägt dem Fass schon den Boden aus.
🤡
 
Man jetzt bin ich wieder drauf und dran auf eine 9800x3d zu wechseln wegen CPU Overhead Situationen wo die 5090 sonst nicht ihre Leistung abrufen kann. Wären je nach Board (Asus B850 I / B650E I, brauche nicht so viele Anschlüsse) 450 + 230 / 280 = ca. 700 Tacken.

Machen oder lassen. Ist das dumm.
verstehe diese gedankengänge nicht. welche cpu hast du was stört dich? erreicht sie deine gewünschten fps? wenn ja, dann passt es doch. die 5090 hat damit nix zu tun
 
verstehe diese gedankengänge nicht. welche cpu hast du
Steht unter System: 13600k
Steht im Post: es enstehen in 4k Situationen, wo die Leistung der 5090 nicht abgerufen werden, weil die CPU limitiert. Sprich ich habe für eine highend GPU den Preis gezahlt und lasse Leistung liegen
erreicht sie deine gewünschten fps?
Nein, denn ich möchte die Option haben mein System so einzustellen, dass ich die max möglichen FPS der GPU abrufen kann, wenn ich in hohen Auflösungen und Grafiksettings die Hardware am Limit betreibe. Sprich in Szenarien sagen wir zwischen 50-160 FPS soll die CPU nicht limitieren.
wenn ja, dann passt es doch.
wenn nein dann pass es halt nicht.
die 5090 hat damit nix zu tun
Die will ich ja nicht tauschen, sondern die CPU und die 5090 hat indirekt damit zu tun, da sie limitiert wird und als teuerste Komponente im System soll sie es nicht.

Aber habe mich schon wieder beruhigt und der FOMO Anfall ist überstanden.

Edit:
Wofür hast du eigentlich die 9800x3D drin, hättest ja mit ner günstigeren CPU Geld sparen können.
 
Zuletzt bearbeitet:
Regler hoch, bis CPU-Limit weg ist .... ihr tut ja so, als würde ein 9800x3D nur 10 FPS generieren.
 
Welche 9800x3D? Und Regler hoch, ja dann bekommt die GPU mehr Arbeit, aber die FPS bleibt dann unten. Verstehe all eure Ansätze, aber man kann nicht verneinen, dass grade die starken x3Ds in gewissen Szenarien nochmal einen Mehrwert beisteuern kann und dass nicht nur in low Res HighFPS.

Ob man da besonders viel von haben wird und das einem dann der Mehrpreis wert ist kann ja dann jeder selbst entscheiden.
 
gut wenn du wirklich zu wenig fps auf der cpu hast dann muss die neu.

dein "ausgangspost" suggerierte dass dich lediglich deine nicht ausgelastete gpu stört.

gibt da draußen leider sehr viele, die ihre graka bei 99% sehen wollen aber dann mit schwankenden fps rumdüsen^^
 
Sagen wir so, zugegebenermaßen störts mich mehr im Kopf als im Auge. Deswegen mal sehen ob ich bis zur nächsten Gen locker bleiben kann. 😅
 
Die Entwickler müssen einfach nur mal richtig Optimieren bei der UE5. Embark bekommt es ja auch hin bei The Finals und Arc Raiders.
RoboCop läuft auch gut mit der UE5. Annscheind machen die alle irgend was falsch.
 
<-- ist immer wieder froh, wenn die Karte nur 200W für 120 FPS braucht^^
Und trotzdem ist mein Rechner im Haushalt das Gerät, dass gleich nach den E-Autos kommt beim Stromverbrauch. Eventuell zu viel Urlaub im letzten Monat^^


1758039502815.png


Also, nur um zu zeigen, dass es auch gute Gründe gibt, die Karte nicht ständig auf Anschlag laufen zu lassen. Sie kann es, wenn man es braucht, aber es ist kein Lebenszweck.
 
Danke, Interessant wäre noch wie viele kWh sich hinter den Balken "verbergen". Weiß auch nicht welche Heizung/ Warmwasserboiler verwendest, diese Info fehlt. Dein Chart ist so schwer objektiv einzuschätzen. Auf jeden Fall ist es interessant.

Verbrauch (kWh) hängt natürlich auch davon ab wie lange man welche Geräte verwendet. Bei z. B. PCs hängt der "Stromverbrauch" auch stark davon ab, wie man den PC verwendet. "Rechner A"?

Besitze z. B. eine 5090 etc. Max Verbrauch (Spielen) beschränkt sich auf sehr kurze Zeit (wenige Stunden pro Monat), zu 90% der Zeit, wo ich den Rechner verwende, "dümpelt" dieser mit geschätzten 100W dahin. Bitte jetzt keine Diskussion warum ich mir eine 5090 gegönnt habe obwohl ich kaum spiele etc.

Gebe Dir dennoch ein Like.. Auf jeden Fall sind Deine Balken interessant und regen zum Denken an bzw. "sensibilisieren". Umwelt/ CO2 ist mir auch wichtig.

l. G.
Karl
 
Zuletzt bearbeitet:
90 und 75kWh, und wir haben erst den 16.^^
Letzten Monat ware es 190 und 170^^

1758041837935.png


Und wie gesagt, ich freu mich, dass die Karte bei Elite Dangerous in 4K Cap auf 120hz (manchmal auch mit DS von 8K) nicht dauerhaft 600W verbrät, sonst würde mein Rechner die BEIDEN(!) E-Autos schlagen.
Hat mich gerade wieder gepackt^^
 
Zuletzt bearbeitet:
Wow krass! Falls ich mich nicht verrechnet habe, bedeutet das, dass Dein Rechner (mit ~0,6KW) in 2 Wochen c. a. 12h/ Tag mit hoher "Belastung" läuft. Von diesem "Use Case" bin ich weit entfernt, weshalb ich mir über den Verbrauch z. B. meiner 5090 weniger Gedanken mache.

l. G.
Karl
 
...Also, nur um zu zeigen, dass es auch gute Gründe gibt, die Karte nicht ständig auf Anschlag laufen zu lassen. Sie kann es, wenn man es braucht, aber es ist kein Lebenszweck.
Klar ich spiele viele alte Games, da lass ich die 5090 so niedrig laufen wie es geht auch mit FPS Limit.

Denke jemanden zu finden der sie immer auf Max hält wird schwieriger, als Gründe dagegen zu suchen. Und wenn es denn ein Usecase gibt wo es was bringen würde, so what. Muss ja jeder selber wissen.
 
Gerade heute die Jahresabschluss Rechnung für Strom bekommen, bin inzwischen auch bei 2350Kwh angelangt, nur noch Home Office macht sich langsam aber sicher bemerkbar.

Zum Thema Prozzi Tausch:
Man ist doch aktuell in einer wirklich schönen Lage: 9800X3D nehmen und in einem Jahr dank der tollen AM5 zukunftsfähigkeit einfach einen 10800X3D drauf pappen und fertig, MB etc bleibt davon dann ja komplett unberührt.
 
Welche 9800x3D? Und Regler hoch, ja dann bekommt die GPU mehr Arbeit, aber die FPS bleibt dann unten. Verstehe all eure Ansätze, aber man kann nicht verneinen, dass grade die starken x3Ds in gewissen Szenarien nochmal einen Mehrwert beisteuern kann und dass nicht nur in low Res HighFPS.

Ob man da besonders viel von haben wird und das einem dann der Mehrpreis wert ist kann ja dann jeder selbst entscheiden.

Nun - in 4K DLSS4 wirst Du es bei einigen Spielen schon merken - ob 12900K oder 9800x3D.

Allerdings je nach Spiel - und dann muss man ja bei einigen Spielen eher mit Gewalt die GPU etwas limitieren
um die FPS Schwankungen erträglich zu halten.

So Mega finde ich den Unterschied zwischen 12900K und 9800x3D dann auch wieder nicht, es sei denn man
will automatisch das Optimum.
Mir geht es wie Dir - ein Level darunter - es stört wahrscheinlich mehr im Kopf - bei den besagten Unterschieden - die aber nun mal da sind ... da sind ... da sind ... da sind .... :wut::fresse2:
 
fps schwankungen bekämpft man mit nem fps limiter.
 
Nach Deiner Logik sind dann 5070 usw auch keine 1440p/1080p GPUs mehr lol. Wenn ein Game Scheisse optimiert ist, skaliert das die ganze Bandbreite runter.

Außerdem hast Du eh seltsame Ansprüche an Leistung, so ein bisschen an der Realität vorbei. ;)

Die Realititt :o sind hier +90fps, egal welches Gayme. BL4 habe ich nicht und werde ich auch nicht haben.
Trotzdem werde ich mir nicht 4k zulegen, weil ziemlich sicher ein noch erscheinendes AAA-Gayme of interest die 4090 in Sachen fps schrotten würde. Die 4090 wird immerhin eine Lebensdauer von mindestens 5 Jahren hier haben.

Bittsteller Lederjacke muss mir eben versprechen, über die Lebensdauer seiner high end GPU sorgenfrei +80fps in maxxed 4k spielen zu können. Kein Versprechen, keine Kohle. 8-) Alles cool hier. (y)
 
Wirst du nicht müde alle paar Monate fast den gleichen Text gebetsmühlenartig zu wiederholen? Immer und immer wieder?

Oder hast du immer wieder kurzfristige Amnesie? Irgendwas stimmt hier doch nicht… 🤔
 
Dann musst du eben an dir arbeiten und dich weiterenfickeln. 8-) (y)
 
Ne lass mal, dein Niveau ist sogar mir zu niedrig und das will was heißen.

Du hast ja nur 3 Themen:
- 4090/5090 keine 4K Karte
- 4090/5090 schönrechnen kritisieren
- China greift Taiwan an

Und das in Endlosschleife wie eine kaputte KI mit üblem Sprachfehlern…
 
Zuletzt bearbeitet:
Immerhin hast du auf mich gehört und nun versucht Fortschritte zu erzielen. Vielleicht wirds noch was. (y)
 
Die einen haben seit einer Dekade einen 4k-Monitor, und die anderen klammern sich weiter an FHD, weil sie Angst um ihre FPS haben.
Soll halt jeder machen wie er möchte.

Stimmt .... und ich klammere mich an 1440P auf 27 Zoll - damit es gut aussieht - und ich sonst auch Angst um meine FPS habe.
4K ist schon ne harte Sache - ständiges Pflichtenheft am Hals.
 
Die einen haben seit einer Dekade einen 4k-Monitor,
4K ist halt eher was für den elitären Kreis, 1080p/1440p ist für den Pöbel gedacht.

Denke das bleibt auch noch so eine ganze Weile 😏
 
Ne lass mal, dein Niveau ist sogar mir zu niedrig und das will was heißen.

Du hast ja nur 3 Themen:
- 4090/5090 keine 4K Karte
- 4090/5090 schönrechnen kritisieren
- China greift Taiwan an

Und das in Endlosschleife wie eine kaputte KI mit üblem Sprachfehlern…

Das sind ja schon mehr als deine beiden Themen: "Ich bin Shice" und "Sommer-GPUs sind billiger zu haben." 8-)
Aber bin zuversichtlich hinsichtlich deiner Fortschritte. How rain. (y)
 
4K ist halt eher was für den elitären Kreis, 1080p/1440p ist für den Pöbel gedacht.

Denke das bleibt auch noch so eine ganze Weile 😏

1440p ist sicherlich nicht für den Pöbel gedacht ....
und ganz ehrlich - ich sitze an einem sehr guten Schreibtisch - was man auch so nennen darf
und habe bewusst einen 27" Zoll Bildschirm zu 1440p.

Was soll daran Pöbel sein ab 32 Zoll Aufwärts wird 4K schon zur Pflicht ....
und bei 42 Zoll wie bei Dir - wäre es ohne 4K eher Augenkrebs.

Manche Kommentare sind echt komisch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh