I7 7700k mit Rx6800xt Bottleneck ?

wenn die 3d modelle so funktionieren wie der 5800x3d dann würde ich definitv abwarten denn dann sparst du dir eventuell sogar das geld für schnellen und somit teuren ddr5 und kommst am ende auf 0 raus
Ja der Ansatz ist gut, aber für 32gb 6000mhz ram zahle ich 150€ mit weniger Mhz werde ich selbst im besten Fall nicht unter 100€ kommen, also höchstens 50€ gespaart, bei 300€ mehr Ausgaben, falls der X3d 500€ kosten sollte, was ja schon eher niedriger angesetzt ist :(
Beitrag automatisch zusammengeführt:

Nochmal,

was ist dein ziel?

165 fps

oder

graka auslasten (warum auch immer)

du musst entscheiden, reichen mir die fps meiner cpu, oder nicht ;)
Keins von beidem, einfach nicht so Totalausfälle, dass ich plötzlich nur 40-50 Fps habe aufgrund der Umgebung, wo ich sonst etwa 120Fps hätte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kein ziel geht nicht. eins musst du ja haben. wird schon die cpu sein die da einknickt :)
 
Dann hast Du für Dich festgestellt, dass sie zu lahm ist.
Ist doch gut, dagegen sagt doch niemand was.

Aber eine neue CPU kaufen, und sich dann hinstellen: Aber die Graka ist nur 40% ausgelastet anstatt die Regler zu bedienen? Das ist der Weg?
Ich kann doch vorher schauen in 720p-Benches, ob die CPU schnell genug für mich ist? Genau darauf will ich doch hinaus. Sobald sie schnell genug ist wirste Dich ja nicht über zu wenig FPS beschwehren.
Der Rest sind dann die Regler.

Überleg Dir wie viel FPS die CPU in Deinen Games bringen muss. 165FPS in jedem Game ist illusorisch. Kannste vergessen.
Wie gesagt das Problem ist jetzt eigentlich nur bei Witcher, da gibt es auch keine Regler mehr zu bedienen die genau die Situation verbessern, viele Einstellungen gibt es da auch insgesamt nicht, aber ich weiss natürlich was du meinst.
 
Ja der Ansatz ist gut, aber für 32gb 6000mhz ram zahle ich 150€ mit weniger Mhz werde ich selbst im besten Fall nicht unter 100€ kommen, also höchstens 50€ gespaart, bei 300€ mehr Ausgaben, falls der X3d 500€ kosten sollte, was ja schon eher niedriger angesetzt ist :(
Beitrag automatisch zusammengeführt:


Keins von beidem, einfach nicht so Totalausfälle, dass ich plötzlich nur 40-50 Fps habe aufgrund der Umgebung, wo ich sonst etwa 120Fps hätte.
gehts explizit um witcher oder hast du noch andere games?


die v4 dx12 version von witcher ist "kaputtgepatcht".

probier mal die dx11 version oder geh zurück auf 1.32
 
Selbst auf einem 13900k mit einer 4090 und fast 100 FPS läuft der Witcher in der "neuen" Version nicht rund. Fühlt sich völlig hakelig an.
Eventuell kann man da kaufen was man möchte und es wird einen nicht glücklich machen.
 
kein ziel geht nicht. eins musst du ja haben. wird schon die cpu sein die da einknickt :)
Naja das Ziel ist doch natürlich immer das bestes aus seiner Grafikkarte rauszuholen, was auch noch finanziell sinn macht, geht ja beim Undervolten für mich los.
 
Dann kauf nach Budget und gut is.
Dann ist die ganze Grundsatz-Diskussion ja sowieso fürn Arsch^^
 
gehts explizit um witcher oder hast du noch andere games?


die v4 dx12 version von witcher ist "kaputtgepatcht".

probier mal die dx11 version oder geh zurück auf 1.32
Nein in anderen Spielen habe ich kein Grund zur beschwerde, aber jetzt wird es eben trotzdem mal Zeit für eine neue CPU.
Beitrag automatisch zusammengeführt:

Dann kauf nach Budget und gut is.
Dann ist die ganze Grundsatz-Diskussion ja sowieso fürn Arsch^^
Ja ich verstehe auch nicht wieso ich immer so komplizierte Antworten bekommen habe die an meiner Frage vorbei gingen xD
Kann natürlich an meiner Formulierung liegen, aber ich hätte erwartet etwas zu hören, was ja von manchen auch kam:
Der I7 ist zu schlecht deswegen dieser Einbruch, kauf dir dann den Ryzen XY dann ist das Problem weg🙂
 
wie gesagt. die aktuelle version von witcher3 ist trotz dx12 zugeklatscht worden mit irgendwas, was auf die cpu drückt. selbst ohne RT.

vermutlich heftiges LOD.

1.32 läuft wie geschmiert

225FPS 1.32 + PLM + Meadows + Blitz FX

witcher3_2023_01_14_22_31_15_065.jpg
 
Dann stell ich mal noch eine Frage, macht ein 6 Kerner noch Sinn für 100€ weniger, oder besser gleich den 8 Kerner, Blick Richtung Zukunft. Und bitte kein ,,das hängt von deinen Bedürfnissen ab,, 😂
Beitrag automatisch zusammengeführt:

wie gesagt. die aktuelle version von witcher3 ist trotz dx12 zugeklatscht worden mit irgendwas, was auf die cpu drückt. selbst ohne RT.

vermutlich heftiges LOD.

1.32 läuft wie geschmiert

225FPS 1.32 + PLM + Meadows + Blitz FX

Anhang anzeigen 841368
Ja gut, mit ner 4090 siehts ja nochmal ganz anders aus 🙂
 
naja eben nicht. die 4090 ändert doch am cpu limit nix

ich möchte dir zeigen dass

v4 dx12 ohne RT 90-100fps weniger sind als V1.32 dx11

das hier ist die aktuelle version. dx12 v4.

138 FPS @ selbe stelle wie in 1.32 mit 225fps
witcher3_2023_01_14_22_34_41_567.jpg
witcher3_2023_01_14_22_36_18_715.jpg

112FPS @ Anschlag ohne RT

witcher3_2023_01_14_22_37_23_574.jpg
witcher3_2023_01_14_22_37_51_814.jpg

hier v1.32 dx11 modded

225fps

witcher3_2023_01_14_22_31_15_065.jpg

alles CPU limit!
 
naja eben nicht. die 4090 ändert doch am cpu limit nix

ich möchte dir zeigen dass

v4 dx12 ohne RT 90-100fps weniger sind als V1.32 dx11

das hier ist die aktuelle version. dx12 v4.

138 FPS @ selbe stelle wie in 1.32 mit 225fps
Anhang anzeigen 841369
Anhang anzeigen 841373
Ja, dass ist mir klar, möchte eigentlich der Optik wegen auf der neuen Version bleiben, da ich auf Mods eher weniger Lust habe, aber trotzdem danke für deine Tipps. Jetzt weiss ich schonmal das Witcher einfach scheisse läuft in der Version.
 
dann wirst du ne dicke CPU brauchen oder eine rtx 4000 für DLSS 3.0 bzw Framegeneration die eben frames generiert um ein CPU limit zu kaschieren ;)

ram oc und tuning bringt auch einiges aber das ist nix für den laien

Framegeneration macht aus 138 FPS mal eben 260 ;)
witcher3_2023_01_14_22_41_43_909.jpg
 
dann wirst du ne dicke CPU brauchen oder eine rtx 4000 für DLSS 3.0 bzw Framegeneration die eben frames generiert um ein CPU limit zu kaschieren ;)
Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
 
Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
Ja, dlss wäre auch eher nicht für mich glaube ich...
 
Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
Tatsächlich funktioniert es ganz gut. Anfangs hatte ich auch einen inputlag der wirklich extrem war. Vsync war ein scheiss dagegen 😅

Dann ha ich das game neugestartet und es war fast weg. Das dumme an FG ist, der rtss fps cap verursacht Ruckler. Da muss man dann auf den nvidia cp zurückgreifen und für die exe die fps einstellen.
Ja, dlss wäre auch eher nicht für mich glaube ich...
Nicht dlss 2 mit 3 verwechseln.

Dlss 2 ist ohne FG

Witcher bietet beides.
 
also wenn du zwischen 50 und 120fps keinen unterschied siehst.....

dann frage ich mich 100000x mal mehr wie du einen unterschied zwischen RTSS und dem nvidia CP frame limiter spüren willst wenn selbst 70fps nicht sichtbar sind.

das riecht jetzt aber hart nach getrolle :d
Ich verstehe wie die Bude mit allem drum und dran funktioniert und es ist logisch, technisch sowie mathematischer Dummstuss, die Treiberkonfiguration ist aus mehreren technischen Gründen der bessere Weg und funktioniert schlichtweg besser.
Und ja solch einen Bildschirmschoner sieht man garnichts durch mehr FPS und Spüren schonmal genausowenig weil das ohnehin Quark ist...

Edit:
Das GTA V Video von mir was ich verlinkt habe beweist es im übrigen auchm schnapp dir die Playlist und du wirst zu der Folge davor und ab irgendeiner danach wieder mit 60fps zu dem mit 50fps, absolut garkeinen Unterschied bemerken.
Nicht in der aufbereiteten Videoaufnahme für YouTube und auch nicht Zockend vor der Glotze an deinem eigenem Kasten.

Dieser FPS-Hirnie Kram von gewissen Konsorten ist schlichtweg schon nur Blödsinn, geht lernen oder lasst es mit der verdammichten Werbetrommel

Gruss
Beitrag automatisch zusammengeführt:

@Huberterich @HisN
Wobei das mit der Auflösung so nur gewissermaßen "wahr" ist

Im CPU-Limit Benches sind ja nicht ohne Grund 720p oder sogar noch weniger wenn es geht. (davon ab das da Treiberseitig ohnehin ein API, Problem herrscht bei AMD sowie Nvidia, wo die CPU denn doch Bullshit abkriegt und die Leistung sinkt oder eben unwillkürlich nurnoch schwankt, dann auch noch zwischen Treiberversionen....)

Was man nun natürlich versuchen kann ist ne niedrigere Auflösung im Spiel setzen die von der Graka dann auf die native Auflösung skaliert wird
Unbenannt.jpg
Die GPU-Skalierung gibt es bei AMD ebenso, man muss es bloss richtig konfigurieren.
Wenn der Bildschirm gut skalieren kann und das nicht schlecht als skalierte Auflösung darauf aussieht, kann man es auch auf "Anzeige" natürlich belassen im NVidea Fall.
Ich meine AMD macht es dann aber ohnehin bei Aktiverung der Skalierung, mit der Grafikkarte, ansonsten lässt es sich dort halt nur abschalten.

Also niedrigere Auflösung kann man schonmal mit passendem Seitenverhältnis zum Bildschirm und seiner nativen Auflösung zumindest auch mal ausprobieren, könnte sein das sich da noch etwas Leistung freimachen.

Ist halt auch noch ein Regler an dem man Drehen kann

Gruss
Beitrag automatisch zusammengeführt:

...Vsync war ein scheiss dagegen 😅

Dann ha ich das game neugestartet und es war fast weg. Das dumme an FG ist, der rtss fps cap verursacht Ruckler. Da muss man dann auf den nvidia cp zurückgreifen und für die exe die fps einstellen.
VSync verursacht keinen InputLag, zumindest keinen der spürbar wäre, bzw eine spürbare Verzögerung der Zeit des Signal inkl. verarbeitung wo man einen Unterschied merken würde.
Wenn ein Game stock dann weil entweder und oder die CPU an sich limitiert oder die Frametime für die Tonne ist.

Nvidia cp ist so oder so, der bessere weg für ein FPS-Limit, schon alleine weil es nicht über Hooking (kostet Leistung, blöderweise meistens wenn es Auffällt, CPU-Leistung) der API läuft...., da ist es auch völlig wumpe ob man InGame nen FPS-Limit setzen kann oder nicht oder ob man in ini-Files was basteln könnte.
FPS-Limit = Treiber = funktioniert am besten, ganz einfache Kiste
Beitrag automatisch zusammengeführt:

dann wirst du ne dicke CPU brauchen oder eine rtx 4000 für DLSS 3.0 bzw Framegeneration die eben frames generiert um ein CPU limit zu kaschieren ;)

ram oc und tuning bringt auch einiges aber das ist nix für den laien

Framegeneration macht aus 138 FPS mal eben 260 ;)
Anhang anzeigen 841378

Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
Und das ist denn genauso völlig sinnfrei wie Pre-rendered Frames auf mehr als 1 zu stellen.
Mehr Last und Leistungsverbauch anstelle auf der CPU dann auf der Grafikkarte... Reaktionszeit schlechter oder besser mal dahingestellt, das man bei "interpolierten" Frames keine Genauigkeit und zumal zeittreu gescheit hinbekommt, mit Frames die eigentlich nicht exisiteren ausser durch "Interpolation" eben, das sich das kacke anfühlt das kann man sich auch an 5 Fingern abzählen.

Logisches denken, Mathematik und dem technischem Know-How wie die Kiste und Software darauf nunmal funktionieren.
Das könnte man mit fertigen Filmen vielleicht versuchen, aus 60 120 zu machen, wird sich aber mit "Motion Blur" sicherlich beissen und richtig kacke aussehen, wobei echtes Motion Blur von Filmen da deutlich weniger problematisch sein wird, das funktionierte ja in der Vergangenheit auch da schon wirklich gut.
Nicht anderes passiert nämlich mit 200Hz-TV's wo das so aufm Karton draufsteht, es gibt keine nämlich keine Streifen mit 120 Frames, vielleicht gibt es mittlerweile mal den einen oder anderem mit 60, wobei das mit ner BluRay, dem üblichen Medium was auch schon nur die wenigsten tatsächlich besitzen dürften schon die Ausnahme/n sein wird/erden

Bin ich mir auch ziemlich sicher das ich hier im Forum wohl einer der wenigen dahin-geschätzten 5% der User bin der n BluRay Laufwerk/Brenner Kombo im Rechner verbaut hat :d

Gruss Dennis
 
Zuletzt bearbeitet:
Dann stell ich mal noch eine Frage, macht ein 6 Kerner noch Sinn für 100€ weniger, oder besser gleich den 8 Kerner, Blick Richtung Zukunft. Und bitte kein ,,das hängt von deinen Bedürfnissen ab,, 😂
was man über die letzten jahre festgestellt hat und sich bis heute immer wieder bewahrheitet hat ist, dass man keine kerne auf halde kaufen sollte.

der 13600k ist wieder fixer als der 12700k.
der 5600x ist schneller als der 3700x

usw...

deshalb > 13600k, restconfig bauen. sind am ende noch ein paar Euros über und die sollen noch in die kiste gesteckt werden, kannste auf den größeren gehen.
nicht den 13700k nehmen, dafür beim rest sparen und in der hoffnung der 13700k rettet dich 2 jahre länger. das wird nicht passieren.
der 14600k wird dann wieder schneller sein in games.


@Dennis

du ratterst hier Romane runter aber merkst keinen inputlag bei vsync? das passt vorne und hinten nicht zusammen.
und damit bin ich auch raus aus der Diskussion
 
Zuletzt bearbeitet:
was man über die letzten jahre festgestellt hat und sich bis heute immer wieder bewahrheitet hat ist, dass man keine kerne auf halde kaufen sollte.
Dem ist absolut zuzustimmen, man kauft sich Hardware für sei Budget, wenn man was braucht, nicht für die Zukunft.
Genau so ist es eben nunmal eben blöderweise entsprechend ohnehin der Fall, besonders bei Games an Software, des läuft immer erst mit späteren Generationen richtig gut und zudem dann deutlich günstiger, weil man eben nicht die dickste CPU sowie GPU braucht.

So einfach ist das halt, das war mit GTA 3 damals so, mit Vice City, San Andreas, Far Cry, Crysis...., das ist "never ending Story"
Zumal bei der Menge an Games in jedem Genre was es so gibt, gibt es soviele Games, da muss nicht immer das neuste auf Max Settings laufen und so wie sich das entwickelt hat, also wie gut die Software an sich läuft, Treiber ebenso an sich auch zu der Hardware, sehen aktuellste Games auf der nicht dicksten Grafikkarte sowie dicksten CPU dennoch richtig gut aus und laufen auch sehr gut, auch ohne Max Settings, wovon vieles ohnehin übertriebener Totalquark ist.

Beispiel Project Cars 2, was durchaus eben auch deutlich weniger nen "Bildschirmschoner" ist, bisschen Bewegungsunschärfe raus, MSAA 4x auf FullHD, mehr brauchts halt einfach nicht, des ist halt Quark.

Was man allerdings vielleicht dennoch einfach möchte, weil man es möchte anstelle dessen das man es braucht, joa denn macht man halt, des is wie nem Amiga 4000 128mb oder sogar 256MB FastRAM zu verpassen obwohl auf dem Ding in der Freizeit retromässig eh nur überwiegend A500 Games mit WHDLoad brauchen, wo schon 10MB FastRAM (2mb chip, für grafik und ton) ohne sündhaft teuerer Zorro III Speichererweiterung alles läuft :d
Oder ein weiteres Beispiel, an Steller der 3640er CPU-Platine auf Biegen und Brechen mit jeder Menge Geld unbedingt ne CPU-Platine reinknallen mit nem 68060... :d
So ne Furia mit 68020 ist in nem A600 schonn ganz sinnvoll, muss man eben bereit sein für 100 bis 150€ totes Kapital zu kaufen/besitzen, für 3 mal im Jahr 1 bis 2 Stunden die Klassiker zu Zocken auf zeitgenössischer Hardware mit modernen Methoden, ohne den Disketten.
Ansonsten kommen halt einfach Disketten in nen Standard A500 rein und die Haptik sowie die geräuschkulisse ist direkt auch viel authentischer.

Ich schweife ab, ist aber mal nen ähnlicher Vergleich irgendwo

Gruss Dennis
 
was man über die letzten jahre festgestellt hat und sich bis heute immer wieder bewahrheitet hat ist, dass man keine kerne auf halde kaufen sollte.

der 13600k ist wieder fixer als der 12700k.
der 5600x ist schneller als der 3700x

usw...

deshalb > 13600k, restconfig bauen. sind am ende noch ein paar Euros über und die sollen noch in die kiste gesteckt werden, kannste auf den größeren gehen.
nicht den 13700k nehmen, dafür beim rest sparen und in der hoffnung der 13700k rettet dich 2 jahre länger. das wird nicht passieren.
der 14600k wird dann wieder schneller sein in games.


@Dennis

du ratterst hier Romane runter aber merkst keinen inputlag bei vsync? das passt vorne und hinten nicht zusammen.
und damit bin ich auch raus aus der Diskussion
Ok danke, habe ich verstanden, aber nochmal falls du es vergessen hast, bei mir kommt nur noch Am5 als Option in Frage, also wäre eine Empfehlung in der Richtung etwas besser für mich, falls du zu denen auch was empfehlen könntest :)
 
ja das war ein beispiel bzgl intel ;)

wenn ein neukauf bevorsteht dann würde ich ganz klar die 3d modelle abwarten.
 
Vom X3d profitieren doch eher sehr starke Gpus richtig?
Dieser Satz ist sinnlos. Er ist nicht Mal falsch, er ist einfach sinnlos. Weil du nicht verstanden hast was CPU und GPU tun und welchen Job beide jeweils machen!
 
Auch wenn es dann davon nur einen teuren 8Kerner gibt?
Vom X3d profitieren doch eher sehr starke Gpus richtig?
cpu hat mit der gpu nix am hut ;)

ich bin der meinung > wenn man am5 holt und zwar ab jetzt dann sollte man die 3d modelle abwarten. genau dafür war ja die option mit am5 direkt einzusteigen da.

wenn dir die mögliche performance der 3d modelle eh wurscht ist, dann kannst du auch bei intel und dem 13600k bleiben :)
 
Dieser Satz ist sinnlos. Er ist nicht Mal falsch, er ist einfach sinnlos. Weil du nicht verstanden hast was CPU und GPU tun und welchen Job beide jeweils machen!
Naja eine 4090 kommt schneller ins Cpu Limit als eine rx6800 von daher bringt der X3d da dann doch eher mehr.
 
Naja eine 4090 kommt schneller ins Cpu Limit als eine rx6800 von daher bringt der X3d da dann doch eher mehr.
Das eine hat mit dem anderen nix zu tun.
Man bekommt jede Grafikkarte ins GPU Limit gedrückt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh