Ryzen 9 7950X3D: Im Schnitt bis zu 6 % schneller als Core i9-13900K

Ich weiß aber nicht ob ich ne Pflaume bin…
Ich hab dein Video wieder ausgemacht nachdem du im GPU Limit ne Aussage über CPU Performance getroffen hast.

Das ist einfach Quatsch den du da erzähl hast.

CPU und GPU Limit solltest du auf dem Schirm haben und klar benennen wenn du es erkennst, da du sonst zurecht als unseriös wahrgenommen wirst.. fürs nächste Mal 🤘

Ich persönlich würde mich freuen ne saubere und seriöse deutschsprachige Quelle zu haben, dann muss man nicht immer auf die üblichen englischsprachigen Quellen verlinken.

Oder anders gesagt - wer sich eine RTX6090 einbaut, wird wahrscheinlich nicht bei einem zb 3800X bleiben
CPU und GPU Limit kann man testen. Da muss man nicht wahrscheinlich die CPU tauschen.
Man muss nur CPU Limit und GPU Limit verstehen.
Gut genug ist gut genug. 🤷🏻‍♂️
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mich persönlich würde mal interessieren wie sich Intel schlägt wenn man einen 13900K(S) auf die TDP vom 7950X3D einstellt und dann die Spiele testet.
RAM und alle Einstellungen so wie im CB Test.
Hatte den Vorschlag auch schon im CB Forum geschrieben aber es traut sich wohl niemand das zu machen.
 
Ich hab dein Video wieder ausgemacht nachdem du im GPU Limit ne Aussage über CPU Performance getroffen hast.

Das ist einfach Quatsch den du da erzähl hast.

CPU und GPU Limit solltest du auf dem Schirm haben und klar benennen wenn du es erkennst, da du sonst zurecht als unseriös wahrgenommen wirst.. fürs nächste Mal 🤘

Ich persönlich würde mich freuen ne saubere und seriöse deutschsprachige Quelle zu haben, dann muss man nicht immer auf die üblichen englischsprachigen Quellen verlinken.


CPU und GPU Limit kann man testen. Da muss man nicht wahrscheinlich die CPU tauschen.
Man muss nur CPU Limit und GPU Limit verstehen.
Gut genug ist gut genug. 🤷🏻‍♂️
Du meinst, weil ich gesagt habe auf UHD sei die Performance aller CPUs identisch? Okay - ist ungelenk formuliert. Die Performance der CPU ändert sich nicht, aber sie spielt im GPU Limit nicht mehr diese Rolle bei dem Vergleich. Aber das macht aus mir keine Pflaume. Auch wenn wir Menschen sicherlich hohe genetische Übereinstimmungen mit Pflaumen haben. 😅
 
Mich persönlich würde mal interessieren wie sich Intel schlägt wenn man einen 13900K(S) auf die TDP vom 7950X3D einstellt und dann die Spiele testet.
RAM und alle Einstellungen so wie im CB Test.
Hatte den Vorschlag auch schon im CB Forum geschrieben aber es traut sich wohl niemand das zu machen.
Finde ich auch gut, da der 13900K alles andere, als im Sweetspot läuft
Und umgekehrt würde ich gerne sehen, wieviel Watt der 7950X3D bei R23 zieht, um den gleichen Score, wie der 13900K zu erreichen
Wahrscheinlich wird er da immer noch effizienter als Intel sein
 
Jetzt wo die Reviews auf den anderen Seiten online sind und wir dank AMDs unendlicher Weisheit noch keine CPU haben, diese aber morgen eintreffen soll: Was habt ihr bisher in den Tests vermisst und was könnten wir uns anschauen?

Nicht viel ehrlich gesagt.
Vielleicht ein Vergleich:
Intel mit anstaendigem Board und ~7400/7600MT Ram vs AMD mit anstaendigem Board und wasimmer fuern Ram mit AMD anstaendig laeuft - inkl Preis/Leistungsvergleich.

Zu dem "CPU" Game Tests ..... die Auswahl ist leider manchmal echt besch.......
Soll ich ehrlich sein? Was intressiert mich die Performance in folgenden Titeln:
- AOE4? Ist ein Topdown Strategiespiel, da reichen 70fps. Sogar ein 5800x hat dort 107minfps und 145 average.
- Diablo 2 Resurrected. Ebenfalls topdown Game basierend auf uraltem Spiel, reichen wahrscheinlich 90+ fps um rundum gluecklich zu sein. Ein 5800x hat 300 minfps
- Dota2. Topdown Game, reichen 90+fps spiel ich selbst auf der 4090 mit fps limiter weil 175fps keinen Sinn machen. 7700x und alles darueber haben 130+ minfps und 240+ average fps
- Resident Evil Village. 5800x minfps? 198!
- Callisto Protocol: 7700x/13600k haben 150+ minfps und ueber 200fps average
- ANNO 1800: Topdown Game, reichen 50fps. alles ab 7700x hat ueber 125 minfps
- Shadow of the Tomb Raider: alles ueber 7700x/13600k hat 140+ minfps
- Troy Total War: Topdown Strategiespiel, reichen 50fps. Alles ueber 7700x/13600k haben 114+ minfps und 170+ average
- Battlefield 5: 5800x und 13400f haben 220+ average fps
- CS GO: 600fps .........
- Doom Eternal: 13400f hat 370+ average fps

Was soll ich mit solchen Muell Benchmarks? Hat hoechstens Nostalgiewert, wenn man es mit 8 Jahre alten und lahmen CPUs vergleichen will! Aber absolut 0 Wert wenn ich einen 5800x mit einem 7950X3D vergleiche. Den Unterschied zwischen beiden CPUs merke ich in keinem einzigen der oben genannten Games!

Man sollte sich auf neue und fordernde(!!!!!!!!) Games beschraenken, wo man auch noch einen Mehrwert durch ein CPU Upgrade erfahren kann.
z.b:
Forspoken: 5800x 38.8 minfps, 7950X3D 70 minfps. DAS IST EIN UNTERSCHIED DEN ICH MERKE!
Spidermman: 5800x 56 minfps, 13900KS 91 minfps
Ghostwire Tokyo: 5800x 57 minfps, 7950X3D 87 minfps
Farcry 6: 5800x 94 minfps, 1950X3D 146 minfps

Lieber weniger, dafuer gut ausgewaehlte Games. Erspart sinnlose Arbeit. ;)
 
Der beste Deal wird der 13900 KS sein, nämlich dann, wenn Intel die Preise jetzt anpasst :d

Ich hab dir nochmal die wesentlichen Punkte deiner Aussage markiert. Und jetzt finde die Fehler.
 
@speedy.at
Man kann es nicht Jedem Recht machen, weil die Ansprüche zu unterschiedlich sind
Aber ich bin voll bei dir und würde auch lieber Games sehen, bei denen die GPU-Last recht hoch ist

Es ist keinem User geholfen, der mit geringem Budget auf einen +37%-Balken schaut und meint, er müsste nun einen X3D kaufen, obwohl der Balken in seiner Auflösung viel kleiner wäre (zb +6%) und sein Geld bei einer neuen GPU besser aufgehoben wäre (zb +25%)

Evtl. braucht der nicht so erfahrene User auch garkeine neuen HW. Schont der Geldbeutel und die Umwelt. Denn HW wächst ja nicht auf Bäumen :d
 
Zuletzt bearbeitet:
Ich zitiere mich mal extra noch einmal für dich: "Absolutes WorstCase für AMD -> Intel Gen.14 mit 200% mehr 3D Level Cache. Was dann, AMD? :unsure:"
Da hat du aber den halben Post vergessen. Ich helfe dir mal:
Ich würde mich mal eher fragen, warum es AMD scheinbar nur noch schafft über solche Level Cache Booster an die Intel Hybrid Cores heran zu kommen und nicht über die Core Architektur ansich.
Wirklich wild, was in deiner Welt so los ist

Da ging es einzig und allein darum, was denn wäre wenn nun Intel auch eine meinetwegen 200MB Huckepack LevelCache CPU bringt. Nix Leistungsaufnahme usw., das interpretierst du dir nun da rein.
Hätte der Hund nicht geschissen, hätte er die Gans auch erwischt.

PS:
Pillenkönig schrieb:
Ich würde mich mal eher fragen, warum es Intel scheinbar nur noch schafft über solche Takt-Brechstangen an die AMD Cores heran zu kommen und nicht über die Core Architektur ansich.
 
Natürlich bencht man die CPU in sehr niedriger Auflösung
Aber was bringen einem zb +30% in 720p, wenn man eh nur in 4K zockt und dann zb nur +2-3% übrig bleiben?

Ich sehe eher die Top-Effizienz als Kaufgrund
Omg. Wir sind hier nicht auf cb.

Wenn deine graka zu langsam ist, ist das dein Problem.

In 4k wird keine cpu langsamer er sondern bringt die gleichen fps wie in 480p.

Die tester und reviewer, die einen high res bench machen und dann erklären dass die cpus zusammen rücken, sind strunzdumm und kapieren es selbst nicht. Du gehst denen auf den Leim.

Wie kann man das nach all der zeit nicht verstehen....

Ein test in höheren Auflösungen ist nichts anderes als Zeitverschwendung weil du das Ergebnis bereits kennst.
 
Zuletzt bearbeitet:
Ich halte den Shice so: Wenn die CPU in meinen Spieleinstellungen limitiert (und ich stelle so ein, dass erst mal die GPU zu tun bekommt, zB DLDSR 2,25x) über weite Strecken eines Spiels und die fps sind Shice (zB 50fps), dann kommt ne noie Platform für die GPU.
Aktuell spiele ich keine Spiele die im CPU limit niedrige fps haben. Liegen dann bei 130fps oder so, reicht doch. (y)
 
Habe ich sehr wohl verstanden ;)
Mir ging es darum, dass ich 720p-Benches (500 vs 400 fps) nicht als Kaufargument sehe, da ich eher im GPU-Limit spiele und CPU-Limits selbst in 4K kaum auftreten
Du hast das ganze Thema aber mal so komplett nicht verstanden.
Beitrag automatisch zusammengeführt:

Nicht viel ehrlich gesagt.
Vielleicht ein Vergleich:
Intel mit anstaendigem Board und ~7400/7600MT Ram vs AMD mit anstaendigem Board und wasimmer fuern Ram mit AMD anstaendig laeuft - inkl Preis/Leistungsvergleich.

Zu dem "CPU" Game Tests ..... die Auswahl ist leider manchmal echt besch.......
Soll ich ehrlich sein? Was intressiert mich die Performance in folgenden Titeln:
- AOE4? Ist ein Topdown Strategiespiel, da reichen 70fps. Sogar ein 5800x hat dort 107minfps und 145 average.
- Diablo 2 Resurrected. Ebenfalls topdown Game basierend auf uraltem Spiel, reichen wahrscheinlich 90+ fps um rundum gluecklich zu sein. Ein 5800x hat 300 minfps
- Dota2. Topdown Game, reichen 90+fps spiel ich selbst auf der 4090 mit fps limiter weil 175fps keinen Sinn machen. 7700x und alles darueber haben 130+ minfps und 240+ average fps
- Resident Evil Village. 5800x minfps? 198!
- Callisto Protocol: 7700x/13600k haben 150+ minfps und ueber 200fps average
- ANNO 1800: Topdown Game, reichen 50fps. alles ab 7700x hat ueber 125 minfps
- Shadow of the Tomb Raider: alles ueber 7700x/13600k hat 140+ minfps
- Troy Total War: Topdown Strategiespiel, reichen 50fps. Alles ueber 7700x/13600k haben 114+ minfps und 170+ average
- Battlefield 5: 5800x und 13400f haben 220+ average fps
- CS GO: 600fps .........
- Doom Eternal: 13400f hat 370+ average fps

Was soll ich mit solchen Muell Benchmarks? Hat hoechstens Nostalgiewert, wenn man es mit 8 Jahre alten und lahmen CPUs vergleichen will! Aber absolut 0 Wert wenn ich einen 5800x mit einem 7950X3D vergleiche. Den Unterschied zwischen beiden CPUs merke ich in keinem einzigen der oben genannten Games!

Man sollte sich auf neue und fordernde(!!!!!!!!) Games beschraenken, wo man auch noch einen Mehrwert durch ein CPU Upgrade erfahren kann.
z.b:
Forspoken: 5800x 38.8 minfps, 7950X3D 70 minfps. DAS IST EIN UNTERSCHIED DEN ICH MERKE!
Spidermman: 5800x 56 minfps, 13900KS 91 minfps
Ghostwire Tokyo: 5800x 57 minfps, 7950X3D 87 minfps
Farcry 6: 5800x 94 minfps, 1950X3D 146 minfps

Lieber weniger, dafuer gut ausgewaehlte Games. Erspart sinnlose Arbeit. ;)
Es wird hier kein spiel getestet.
Es wird hier keine gpu getestet.
Es wird hier kein Gesamtsystem getestet.

Was hier getestet wird, ist lediglich eine cpu!

Es ist völlig egal welche Spiele hier getestet werden. Je mehr, desto eher kannst du den Durchschnitt auf andere Spiele umlegen. Das ist alles

Bitte verstehen!!!

Warum erwartest du Spiele, die du spielst? Dann wäre das ein spieletest.

Das hier ist aber ein cpu test. Die Spiele sind dabei fast egal. Es interessiert nicht ob die games hier über 144fps landen oder nicht. Und selbst wenns 5000fps sind. Es geht hier in diesem test lediglich um den Unterschied zwischen den cpus. Bitte verstehen und akzeptieren
 
Zuletzt bearbeitet:
Dann braucht man auch keine neue CPU. ;)
Ich versuche es zu erklären…
Der Unterschied von 400 zu 520fps sind diese 37% (CS:GO-Niveau)
Beide Auflösung liegen weit über der wahrnehmbaren Schwelle. Ich kenne NIEMANDEN, der einen Unterschied zwischen diesen beiden Auflösung ohne Tools jemals feststellen könnte

Bei hoher GPU-Last sind es diese im Titel benannten 6%…
Niemand - wirklich Niemand wird diese 6% ohne Tools feststellen können
Beitrag automatisch zusammengeführt:

Du hast das ganze Thema aber mal so komplett nicht verstanden.
Erklärs mir bitte :)
Vielleicht schreiben wir nur aneinander vorbei oder haben völlig unterschiedliche Ansprüche ;)
Beitrag automatisch zusammengeführt:

Ich halte den Shice so: Wenn die CPU in meinen Spieleinstellungen limitiert (und ich stelle so ein, dass erst mal die GPU zu tun bekommt, zB DLDSR 2,25x) über weite Strecken eines Spiels und die fps sind Shice (zB 50fps), dann kommt ne noie Platform für die GPU.
Aktuell spiele ich keine Spiele die im CPU limit niedrige fps haben. Liegen dann bei 130fps oder so, reicht doch. (y)
So siehts aus ;)
 
Lesen, Verstehen.
Ich versuche es zu erklären…
Der Unterschied von 400 zu 520fps sind diese 37% (CS:GO-Niveau)
Beide Auflösung liegen weit über der wahrnehmbaren Schwelle. Ich kenne NIEMANDEN, der einen Unterschied zwischen diesen beiden Auflösung ohne Tools jemals feststellen könnte

Bei hoher GPU-Last sind es diese im Titel benannten 6%…
Niemand - wirklich Niemand wird diese 6% ohne Tools feststellen können
Beitrag automatisch zusammengeführt:


Erklärs mir bitte :)
Vielleicht schreiben wir nur aneinander vorbei ;)
Du meinst eher die fps?

Ist doch egal wie hoch die sind. Das interessiert nicht.

Nochmal für ganz schwere Fälle :

Es wird hier nicht getestet was das Gesamtsystem erreicht, noch was die gpu Erreicht.

Es wird hier getestet was die cpu erreicht im Vergleich zu anderen. Nichts anderes. Die erreichten fps Werte sind wie ein score.

Es ist völlig irrelevant ob die fps nützlich sind oder nicht. So schwer kann das doch nicht sein

Und dein 2. Absatz ergibt keinen Sinn.
Beitrag automatisch zusammengeführt:

Ich halte den Shice so: Wenn die CPU in meinen Spieleinstellungen limitiert (und ich stelle so ein, dass erst mal die GPU zu tun bekommt, zB DLDSR 2,25x) über weite Strecken eines Spiels und die fps sind Shice (zB 50fps), dann kommt ne noie Platform für die GPU.
Aktuell spiele ich keine Spiele die im CPU limit niedrige fps haben. Liegen dann bei 130fps oder so, reicht doch. (y)
Und dss ist ja schön aber das ist völlig fehl hier. Welche fps Werte du für shice oder gut hälst ist dein Bier. Ich brauch 144fps der andere 175fps.

Bitte verstehen.

Es ist völlig irrelevant was du zockst, was eine settings sind, wie viel fps du brauchst.

Das ist alles dein Ding. Hat mit einem cpu test nichts am Hut
 
Zuletzt bearbeitet:
Detaillierter bitte?
Im 2. Absatz hab ich mich vertan. Da steht ja “bis zu 6%“ :d Also weit unter der wahrnehmbaren Schwelle
 
bitte zeig was du genau meinst.

Nochmal für ganz schwere Fälle.

eine CPU macht in quasi JEDER auflösung die gleichen fps

720p. vs 3440x1440

HogwartsLegacy_2023_02_25_11_33_26_710.jpgHogwartsLegacy_2023_02_25_11_32_51_547.jpg
5673434.jpg5454.jpg
44t34.jpgt34t34534.jpg
eldenring_2022_04_11_20_54_11_758.jpgeldenring_2022_04_11_20_54_55_636.jpgfwefwefwefwe22.jpg

Das CPU Limit verschiebt sich nicht! (Es gibt einige wenige Ausnahmen wo das der Fall ist aber das ist nicht die Regel)

wenn du 3 cpus nimmst und einen Test in 720p machst dann hast du

70 fps
100 fps
120 fps

in 4k wird das Ergebnis exakt dasselbe sein

70 fps
100 fps
120 fps

Vorraussetzung ist logischerweise, dass die gpu IMMER schneller ist. Siehe mein Screenshot. die 4090/3080ti ist immer schneller und somit habe ich auch in einer hohen Auflösung identische FPS.

ist das nicht der fall limitiert die GPU und der test ist überflüssig
um das zu vermeiden wird in einerv entsprechend niedrigen Auflösung getestet und mit einer starken gpu getestet, damit dieser Fall auf gar keinen Fall eintritt.

Jeder der eine auflösung höher als 720p nutzt, kann die werte ganz einfach ÜBERNEHMEN, denn sie sind in der Regel völlig IDENTISCH

Kommt es jetzt an? Bitte lieber GOTT

@KreativEckeYT

auch nochmal für dich!

Das was du in deinen 1440p und 4k übersichten zeigst ist ein GPU limit! Ich bin mir sicher dass du das auch selbst weißt ;)

Du erklärst den leuten aber, dass die CPU Leistung zusammenrückt. Das ist fachlich komplett falsch. Die Leute glauben das nämlich wirklich und kaufen sich dann eine 12400f und machen dann threads auf wo sie sich wundern. Ich bin mir nicht sicher ob du das Thema wirklich verstanden hast. Falls ja musst du das aber richtig erklären. Ich weiß, die youtube community besteht aus einem teil komplett inkompetenter klappspaten aber das sollte man ausblenden.

Wir wissen doch alle, dass du von Corsair, ASUS und co massiv gesponsert wirst und dein kanal deshalb gewachsen ist. Es wäre jetzt nur toll wenn das fachlich auch am ende korrekt wäre. So kommt es halt ziemlich stümperhaft rüber :)
 
Zuletzt bearbeitet:
Lesen, Verstehen.
Du meinst eher die fps?

Ist doch egal wie hoch die sind. Das interessiert nicht.

Nochmal für ganz schwere Fälle :

Es wird hier nicht getestet was das Gesamtsystem erreicht, noch was die gpu Erreicht.

Es wird hier getestet was die cpu erreicht im Vergleich zu anderen. Nichts anderes. Die erreichten fps Werte sind wie ein score.

Es ist völlig irrelevant ob die fps nützlich sind oder nicht. So schwer kann das doch nicht sein

Und dein 2. Absatz ergibt keinen Sinn.
Ruuuhig ;)

In meinem Fall (13900K) würde sich ein Umstieg nicht lohnen - Punkt!!!
Dennoch kann man sich an einigen Low-Res-Benches aufhängen, da DDR5-6000 sicherlich das Ende beim X3D sind
Von daher ist selbst der Low-Res-Bench im Limit - nämlich beim RAM! Beide können mehr @ stock CPU-Takt ;)

Mit anderen Worten - während der X3D noch ein bisschen Luft nach oben beim RAM hat, hätte der 13900K weitaus mehr Luft nach oben beim RAM
Schon beim ersten Bench im Video ist die Differenz zwischen 6.000 und 8.000MHz ca. 4,3 ;)
Wieviel mehr, als 6.000 kann der X3D laufen? 6.000 kann ja nicht das Ende sein, oder doch?

 
Zuletzt bearbeitet:
ram oc ist ein ganz anderes thema, vor allem wenn beide plattformen unterschiedlich darauf reagieren und die eine eine art "Wand" hat (AMD)

ram oc ist vor allem sehr individuell.

ein 12700 non k + 3200cl16 0815 ddr4 ram schafft in hogwarts legacy 90fps

ein 13900k mit gutem optimierten DDR4 > über 150fps.

solche unterschiede siehst du in keinem review weil der aufwand viel zu groß ist. das thema ram würd ich maximal auf safe laufende XMP settings out of the box begrenzen weil der Aufwand selbst ohne RAM oc schon groß ist.
Beitrag automatisch zusammengeführt:

das video ist zu 99,9% fake. das video bau ich dir in ner halbe stunde nach.

spiele trailer runterladen, in die timeline klatschen, mit die benchmarks von pcgh, cb usw.. anschauen und die unterschiede prozentual festhalten. und dann ein paar fanzy Powerpoint überschriften aus dem Jahre 2000 über die trailer schieben. jau, defintiv legit :d

und das ist kein RAM OC.

5600 bei welchen timings?

gehe wir vom aktuelle sweetpost aus sind laut dem video zwischen 5600 und 6600/700 7-10 fps.

für 100-150 euro mehr?. wers hat.

richtiges RAM OC/tuning holt nicht 7-10fps raus sondern eher 20-40

dafür brauchst du :

eine CPU die das mitmacht (stichwort IMC)
ein ram Kit dass das mitmacht (teurer)
ein board das nicht komplett schrott ist ( grüße gehen raus an asus)
zeit und geduld

und jetzt bau das alles mal in einen cpu test ein. 10-20 spiele x 3 test druchläufe bei finalen settings minimum + die synthetischen tests und tests in nicht spiele anwendungen. alles muss stable laufen. jetzt testst du einen 13900k mit top ram und den i3 ? das ist am ende ein verzerrtes bild und das bei einem aufwand der immens wäre.
 
Zuletzt bearbeitet:
ram oc ist ein ganz anderes thema, vor allem wenn beide plattformen unterschiedlich darauf reagieren und die eine eine art "Wand" hat (AMD)
Ein anderes Thema, aber hier geht es doch um einen CPU-Bench, der möglichst NICHT limitiert sein darf - weder durch die GPU, noch durch den RAM, MB, fehlerhafte Settings oder OS. Wenn der X3D mehr als 6.000MHz fahren kann, ist er durch den RAM-Takt limitiert. Siehst du doch ein, oder? ;)

Und angenommen (ich hoffe es nicht), beim X3D sind 6.000MHz RAM das Maximum. Warum darf der 13900K so stark limitiert benchen, obwohl 8.000 mit mittelmäßigem IMC möglich sind ;)
 
Ein anderes Thema, aber hier geht es doch um einen CPU-Bench, der möglichst NICHT limitiert sein darf - weder durch die GPU, noch durch den RAM, MB, fehlerhafte Settings oder OS. Wenn der X3D mehr als 6.000MHz fahren kann, ist er durch den RAM-Takt limitiert. Siehst du doch ein, oder? ;)

Und angenommen (ich hoffe es nicht), beim X3D sind 6.000MHz RAM das Maximum (=kein Limit durch RAM) Warum darf der 13900K so stark limitiert benchen, obwohl 8.000 mit mittelmäßigem IMC möglich sind (=limitiert durch den RAM) ;)
ja nicht limitiert von der GPU.

bzgl ram hab ich oben was geschrieben. Der aufwand, der zudem gigantisch wäre, würde das bild außerdem verzerren weil jede cpu anders auf den ram reagiert und man am ende sogar alles doppelt machen müsste
Beitrag automatisch zusammengeführt:

Und angenommen (ich hoffe es nicht), beim X3D sind 6.000MHz RAM das Maximum. Warum darf der 13900K so stark limitiert benchen, obwohl 8.000 mit mittelmäßigem IMC möglich sind ;)
weil wir lediglich eine cpu testen und nicht CPU+RAM

solange ich ein 8000er kit mit guten timings nicht out of the box per XMP zum laufen bekomme, halte ich das für schwachsinn. denn das ist außerdem immer noch OC und OC ist nicht garantiert.

wenn dann braucht es beide werte. RAM der 100% safe läuft und wer es gerne für seine bestätigung hätte, dann noch ein 10000mhz cl10 ram durchlauf dazu. ob heinz günther dass dann daheim erreicht ist eine andere frage :)
 
5600 bei welchen timings?

gehe wir vom aktuelle sweetpost aus sind laut dem video zwischen 5600 und 6600/700 7-10 fps.

für 100-150 euro mehr?. wers hat.

richtiges RAM OC/tuning holt nicht 7-10fps raus sondern eher 20-40
Timings standen da nicht…
Wenn du das Video als Fake bezeichnest, hast du “sicher“ eigene Erfgabnisse, die du jetzt zeigen könntest ;)

Ja, für „nur“ 100-150€ mehr ;)
Wenn der 13900K damit gleichauf mit dem X3D wäre, warum dann min. 1.500€ für die AMD-Plattform ausgeben? :haha:
Da gibt man doch lieber Geld für Highend-RAM aus (die Alten verkaufen)
 
@Scrush
KreativEcke hat das in seinem Video auch erwähnt, musst auch das ganze Video gucken 😉
 
weil wir lediglich eine cpu testen und nicht CPU+RAM
Das ist richtig eine CPU ohne irgendwelche Limits!!! Das verstehst du doch, oder? ;)
Und wenn die CPUs mit 6.000er RAM laufen, obwohl 7.000MHz und mehr (und damit fps) drin wären - laufen die CPUs limitiert - Punkt!!!

Jetzt ganz einfach für dich… ;)
Würden beide CPUs nur mit 1.000MHz RAM laufen = starkes Limit durch den RAM

Der 13900K kann mehr, aber Benches ohne dieses Limit vermisse ich. Daher sind derzeitige Benches kritisch zu betrachten, sorry
Beitrag automatisch zusammengeführt:

solange ich ein 8000er kit mit guten timings nicht out of the box per XMP zum laufen bekomme, halte ich das für schwachsinn. denn das ist außerdem immer noch OC und OC ist nicht garantiert.
Mit dem richtigen MB geht das. Mit 4 RAM-Slots eher nicht
 
Zuletzt bearbeitet:
@Scrush
KreativEcke hat das in seinem Video auch erwähnt, musst auch das ganze Video gucken 😉
Nein hat er nicht. Er sagt ganz klar, die cpus sind am Ende gleich schnell. Da hab ich ausgemacht weil es bullshit ist.

Ob er es danach nochmal umdreht ist latte. Er muss das gleich richtig machen oder lassen.
Beitrag automatisch zusammengeführt:

Das ist richtig eine CPU ohne irgendwelche Limits!!! Das verstehst du doch, oder? ;)
Und wenn die CPUs mit 6.000er RAM laufen, obwohl 7.000MHz und mehr (und damit fps) drin wären - laufen die CPUs limitiert - Punkt!!!

Jetzt ganz einfach für dich… ;)
Würden beide CPUs nur mit 1.000MHz RAM laufen = starkes Limit durch den RAM

Der 13900K kann mehr, aber Benches ohne dieses Limit vermisse ich. Daher sind derzeitige Benches kritisch zu betrachten, sorry
Beitrag automatisch zusammengeführt:


Mit dem richtigen MB geht das. Mit 4 RAM-Slots eher nicht
Wollten wir die Limits nicht entfernen? Ein passendes Board ist ein limit. Dreh es dir doch nicbt so hin wie du willst nur weil du nicht die Eier hast zuzugeben dass deine high res Forderung für die Füße ist ;)

Und es gibt Leute die mit einem 220 Euro DDr4 4 dimm Board auch gute Ergebnisse fahren.
 
Lasst das Thema doch einfach ruhen, ihr kommt doch eh nicht auf einem gemeinsamen Nenner. ;)
Man kann übrigens auch mal Glück haben beim Ram und ein 7600er Kit für 230€ (neu) ergattern. ;)

Ich überlege schon, ob ich mir vllt doch eine CPU und Board bestelle. Aber weiß einfach nicht welches Board und wahrscheinlich ist es auch sinnvoller noch zu warten bis der 7800X3D raus kommt und es vllt Infos zum RPL Refresh gibt. Aber reizen würde mich das ganze schon. :) gerade die Effizienz überzeugt mich.
 
Der 720p Test als CPU Test ist ok, aber eine Extreme. Es wird einem suggeriert das die AMD super effizient ist und die Intel CPU das Doppelte an Verlustleistung erzeugt...

Ist aber nur halbe Wahrheit. Bei Teil-Last-Szenarien sieht es schon deutlich besser
... für Intel und auf die hohe Idel Verlustleistung der AMD wird nicht wirklich eingegangen.

Ich vermisse (real life) Tests für creative /
content creator / work.

Ausserdem sollte bei allen 7950 vs 13900 Vergleichen, die 5800X3D immer dabei sein.

Das HWLUXX... die größte HW site Deutschlands... kein review sample bekommen hat, ist ein Unding.

Lässt tief blicken...
 
bitte zeig was du genau meinst.

Nochmal für ganz schwere Fälle.

eine CPU macht in quasi JEDER auflösung die gleichen fps

720p. vs 3440x1440

Anhang anzeigen 860591Anhang anzeigen 860592
Anhang anzeigen 860595Anhang anzeigen 860596
Anhang anzeigen 860597Anhang anzeigen 860598
Anhang anzeigen 860600Anhang anzeigen 860599

Das CPU Limit verschiebt sich nicht! (Es gibt einige wenige Ausnahmen wo das der Fall ist aber das ist nicht die Regel)

wenn du 3 cpus nimmst und einen Test in 720p machst dann hast du

70 fps
100 fps
120 fps

in 4k wird das Ergebnis exakt dasselbe sein

70 fps
100 fps
120 fps

Vorraussetzung ist logischerweise, dass die gpu IMMER schneller ist. Siehe mein Screenshot. die 4090/3080ti ist immer schneller und somit habe ich auch in einer hohen Auflösung identische FPS.

ist das nicht der fall limitiert die GPU und der test ist überflüssig
um das zu vermeiden wird in einerv entsprechend niedrigen Auflösung getestet und mit einer starken gpu getestet, damit dieser Fall auf gar keinen Fall eintritt.

Jeder der eine auflösung höher als 720p nutzt, kann die werte ganz einfach ÜBERNEHMEN, denn sie sind in der Regel völlig IDENTISCH

Kommt es jetzt an? Bitte lieber GOTT

@KreativEckeYT

auch nochmal für dich!

Das was du in deinen 1440p und 4k übersichten zeigst ist ein GPU limit! Ich bin mir sicher dass du das auch selbst weißt ;)

Du erklärst den leuten aber, dass die CPU Leistung zusammenrückt. Das ist fachlich komplett falsch. Die Leute glauben das nämlich wirklich und kaufen sich dann eine 12400f und machen dann threads auf wo sie sich wundern. Ich bin mir nicht sicher ob du das Thema wirklich verstanden hast. Falls ja musst du das aber richtig erklären. Ich weiß, die youtube community besteht aus einem teil komplett inkompetenter klappspaten aber das sollte man ausblenden.

Wir wissen doch alle, dass du von Corsair, ASUS und co massiv gesponsert wirst und dein kanal deshalb gewachsen ist. Es wäre jetzt nur toll wenn das fachlich auch am ende korrekt wäre. So kommt es halt ziemlich stümperhaft rüber :)
Ich freue mich mit dir zu diskutieren, verstehe aber leider nicht, warum du in deinen Nebensätzen immer wieder abfällig wirst. Das zieht eine einfach "Definition" bzw. "ungelenke Ausdrucksweise" meinerseits absolut ins Unsachliche. Sätze wie "Ich weiß, die youtube community besteht aus einem Teil inkompetenter Klappspaten" oder die Tatsache, dass ich von Corsair gesponsert bin (wie Hardwareluxx übrigens auch, neben bemerkt) tun hier doch gar nichts zur Sache.
Also nochmal: Du kannst halt nicht gewährleisten, dass die GPU immer schneller ist. Auch ne RTX 4090 kommt eben irgendwann an ihre Grenzen. Um eben die prozentualen Unterschiede zwischen Grafikkarten rauszuarbeiten, wird dann in 720 und 1080p getestet. Am Ende ist es so: Das was auf deinem Bildschirm ankommt, rückt zusammen, wenn die GPU das schwächste Glied in der Kette ist. Dadurch spuckt die CPU selbst vielleicht nicht weniger fps aus, aber dem Enduser kann das mehr oder weniger egal sein. Wenn jemand einen 12400f mit ner RTX 4090 kombiniert, weil ich in nem Video 7950x3D, 7900x und 13900K gegeneinander verglichen habe, dann ist ja auch nicht meine Schuld.
Dennoch räume ich ein: Die Erklärung war ungelenk. Der Umstand bleibt aber dennoch bestehen. Und das ist theoretisch das, was den Enduser dann auch wirklich interessiert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh