Intel: Mehr als acht Kerne für Spiele nicht notwendig

Ob er es jetzt wohl verstanden hat!!??

Gesendet von meinem SM-G960F mit Tapatalk
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wahrscheinlich nicht... [emoji848]
 
...nicht sein kann, was nicht sein darf ;)
HWLuxx, CB, Igorslab, der8auer, HW Unboxed, Gamers Nexus, Anandtech sind also allesamt Cherrypicker, dein gezeigter Youtuber natürlich völlig seriös, arbeitet halbwegs wissenschaftlich (*hust* keine Versionsangaben von OS/Game/Treiber/BIOS-Version) und alle hier in den Luxx Benchmarks Threads irren sich natürlich.
Ich denke bei ElBlindo ist der Name Programm, alles angesehen, nichts dazugelernt.
Verstehe auch nicht warum das hier wieder Thema sein muss.

Das Nvidia und Intel viele gute Features hat ist doch klar, anders kommt man nicht an Marktanteile in dieser Form.
Und auch wenn RTX scheitern sollte macht es das nicht schlecht weil der AMD Neidkarpfen immer noch Probleme mit 4K hat, der Standard-Ansatz für Schatten war immer schon nicht zufriedenstellen und auch performancehungrig, die Hardwarelösung Nvidias klingt da plausibel, die Karten können aber auch auf anderen Gebieten punkten. Leider manches Modell etwa pricy, aber das ist kein Geheimnis und Qualität kostet halt Geld.
Speziell der Shrink könnte die Kosten auch wieder senken, bzw. es ist stark davon auszugehen das die RTX Familie in etwa so bleiben wird weil man in der Produktion wohl zweigleisig fährt :banana:.

Die gpu videoumwandlung da habe ich keine Vorteile. Sobald ich bei cpu die settings ebenfalls so weit runter setze wie bei der gpu, dann sieht die Sachlage wieder ganz anders aus.

Nun gut, kann ja eh nicht mehr wirklich was runter setzen. Dzwischen meinen settings und minimalen sind nur noch 20 Sekunden unterschied. Dann wären halt die Videos statt in 1:40 bei 1:20 fertig. Da kann dann die gpu nicht mehr recht viel mehr herausquetachen. Die settings die ich fahre, kann ich leider nicht 1/1 auf die gpu übertragen. Statt main Profil nur baseline, bei Latenz kann ich auch nicht so genau einstellen. Einige Funktionen sind nicht mehr vorhanden.
und die Qualität ist dennoch etwas schlechter auf der gpu im Vergleich zur CPU. Habe sogar Bilder zum Vergleich gemacht. Und direkt miteinander verglichen.

Ja zum archivieren der H264 umgewandelten Aufnahmen, ist das nartürlich kontraproduktiv. Und zwischen. 1 und 2 Referenz frames ist auch noch ein Unterschied festzustellen.
Fragwürdiges Statement, warum stellst du CPU und GPU vergleiche an ? Hast du Nvenc je anständig benutzt ? Vor ein paar Jahren warst du mit Multicore CPUs in Spielen wesentlich langsamer die nebenbei Kodieren muss als jetzt, vorausgesetzt du hattest ne High-End GeForce.

Der Sinn von Nvidia NVENC sollte dabei auch klar sein, Performance Encoding beim spielen welches billiger ist als ne Multicore CPU oder ne Elgato, da kommt speziell der H265 Encoder sehr gut weg.
Reine Qualität war nie das Ziel, guck dir mal die AMD GPU Lösung dazu an, die konnte man nur als Debakel bezeichnen, was auch natürlich Spieler bzw. Kundschaft kostet.
Die extrovertierte Generation möchte heutzutage alles mitteilen, da ist Nvenc tatsächlich Cutting Edge und mit das schnellste wenn ne GPU zum kodieren herhalten soll.
Ich weiß allerdings nicht ob Twitch native H.265 überhaupt hat, die wurden auch überrundet und sind mit Werbung beschäftigt.
 
Wenn ich mal kurz Igors Test hervorheben darf, dort gibt es FPS vs Frametime difference in Millisekunden:

totalwar3kingdoms_i7-ypj0r.jpg


Vergleicht das mal mit den anderen CPUs in seinem Test.
Das ist mir lieber als die reinen FPS Balken, denn die Frametimes Lügen nicht, ganz im Gegensatz zu den Durschnittlichen FPS (Average FPS) ;)
 
Du postest aber jetzt nicht auch noch Frametimes vom Bulldozer oder ?
 
Kann ich hier auch irgendwo etwas zum Thema lesen?
 
Der Thread ist mal wieder Fremdscham pur.

Da hast du zwar Recht, aber genau deswegen ist es doch so lustig hier.
Der Blinde, der Holzige und wie Sie alle heißen drehen wieder Ihre Runden in den Intel Threads um Beiträge zu sammeln (Oder Satzzeichen auf Vorrat zu legen) dazu jetzt noch der neue Nvidia Fan und die Darsteller lassen sich noch mehr triggern, es ist einfach eine absolut Super Unterhaltung zum Kaffee morgens und wenn man noch copy/paste betreibt hat man auch Satzzeichen für einen ganzen Arbeitstag auf Vorrat :bigok:

Blöd ist natürlich wenn man in den Thread kommt um was zum Thema zu lesen, aber man weiß doch mittlerweile was einen in dem AMD/Intel/Nvidia Thread erwartet: Feinste Telenovela mit den immer gleichen, schlechten, Darstellern die auf Dschungelcamp Niveau auch ne Blaue, Grüne oder Rote Kakerlake essen würden nur um Ihre Produkt-Treue zu zeigen :fresse:
 
Da hast du zwar Recht, aber genau deswegen ist es doch so lustig hier.
Der Blinde, der Holzige und wie Sie alle heißen drehen wieder Ihre Runden in den Intel Threads um Beiträge zu sammeln (Oder Satzzeichen auf Vorrat zu legen) dazu jetzt noch der neue Nvidia Fan und die Darsteller lassen sich noch mehr triggern, es ist einfach eine absolut Super Unterhaltung zum Kaffee morgens und wenn man noch copy/paste betreibt hat man auch Satzzeichen für einen ganzen Arbeitstag auf Vorrat :bigok:

Blöd ist natürlich wenn man in den Thread kommt um was zum Thema zu lesen, aber man weiß doch mittlerweile was einen in dem AMD/Intel/Nvidia Thread erwartet: Feinste Telenovela mit den immer gleichen, schlechten, Darstellern die auf Dschungelcamp Niveau auch ne Blaue, Grüne oder Rote Kakerlake essen würden nur um Ihre Produkt-Treue zu zeigen :fresse:


Aha, liest sich so als ob du es als rote, blaue und grüne Zombies beschreibst. Das sobald wieder was neues kommt, sich alle draufstürzen wie Hyänen.
und waschechte Fans sind wirklich verblendet, weil sie nur das dann verteidigen, egal was man denen sagen würde.

Nun gut, an der Leistung der ganzen prozessoren ändert das ganze ja eh nix. Wie auch, durch reden wird die CPU ja auch nicht besser. Auch streicheln hilft da nix.
und man merkt allmählich,prozessoren limitierten nicht. Was limitiert ist halt nun die Software. Die hinkt der Hardware hält nun wie hinter her. Sind halt wohl die Software Entwickler die nicht mehr hinter her kommen. Sind alle überfordert und Geld kostet das leider auch immer mehr. Da heißt es wohl nun halt Geduld haben
 
Kann ich hier auch irgendwo etwas zum Thema lesen?

Hier wird doch ständig über das Thema diskutiert, ob mehr als 8 Kerne für Gaming notwendig sind...

Nächstes Jahr wird Intel sagen, mehr als 10 Kerne sind für Gaming nicht notwendig usw.

Marketingblabla, es wird immer Ausreißer in beide Richtungen geben.
 
Mehr als 640 KB RAM wird man niemals brauchen.
 
Zuletzt bearbeitet:
Das hat nur nie jemand von Belang gesagt.
 
Bill Gates.jpg

Quelle:

Legendäre Fehlprognosen: „Mehr als 640 Kilobyte Speicher braucht kein Mensch“ | Express.de

Es gibt ja genug Fehlprognosen, die sich als falsch herausstellten. Dazu wird in Zukunft auch die Aussage von Intel gehören.

"Noch hat ein Rechner wie der ENIAC 18,000 Vakuum-Röhren und wiegt 30 Tonnen. Doch die Computer der Zukunft werden nur noch 1.000 Vakuum-Röhren besitzen und vielleicht nur noch 1,5 Tonnen wiegen”.*

"Es gibt keinen Grund, warum jeder einen Computer zu Hause haben sollte”

"In fünf Jahren wird das Tablet in den USA die beliebteste Form eines PCs sein“.

Quelle:

Die spektakulärsten Fehlprognosen der IT-Geschichte - PC-WELT
 
Zuletzt bearbeitet:
Wofür? Unnützes Wissen.

Da ist es wichtiger zu wissen, dass es derzeit keinen HDMI 2.0-Anschluss auf Intel-Platinen gibt, der 4K@60Hz HDR darstellen kann. :)
 
Wozu nur sollte man Dinge wissen anstatt sie nicht zu wissen und dann falschen Unsinn verbreiten.... hmm.... wozu nur.... :confused:
 
Es gibt ja genug Fehlprognosen, die sich als falsch herausstellten. Dazu wird in Zukunft auch die Aussage von Intel gehören.
Wenn man den Artikel liest, wird klar, dass Intel nicht gesagt hat, das nie irgendjemand mehr als 8 Kerne brauchen wird, sondern sie sich ganz klar darauf beziehen, das aktuelle Spiele AKTUELL mehr als 8 Kerne nicht sinnvoll nutzen.

Das die Überschrift mal wieder arges Klickbait ist weil sie eben genau sowas wie die alten "640kb" suggeriert, habe ich schon auf Seite 1 angemerkt. Die Reaktionen auf meine Kritik wirkten allerdings eher wie Unverständnis. Zumindest haben jetzt noch ein paar andere Leute gezeigt, dass sie die Überschrift genauso "falsch" verstehen, wie ich. ;)
 
ob mehr als 8 kerne gebraucht werden liegt doch nicht nur am spiel, sondern auch was der pc sonst noch so macht. wenn man streamt braucht man eh mehr, aber auch wenn man teamspeak laufen lässt ist ein kern nich voll verfügbar, wenn man den rechner im hintergrund noch was anderes machen lässt, etc.
stand heute würde ich sogar sagen, dass für einen spiele pc 6 kerne reichen würden, wenn man denn wirklich nur das spiel laufen lässt.

dass intel bei genau 8 kernen den schnitt macht, ist angesichts der produktpalette in abgrenzung zu der der konkurrenz wohl offensichtlich. aber die aussage trifft halt nur unter idealbedingungen zu.
 
ob mehr als 8 kerne gebraucht werden liegt doch nicht nur am spiel, sondern auch was der pc sonst noch so macht.
Intel hat ja gesagt, das man nicht mehr als 8 Kerne FÜR SPIELE braucht. Wenn du natürlich nebenbei noch streamst, Videos codierst und ne Big Data Analyse laufen lässt, kannst du natürlich mehr Kerne in deinem System brauchen, die brauchst du aber eben nicht FÜR DAS SPIEL.
 
Bill Gates hat auch mal gesagt das 640k genug sind

Bei aktuellen games stimmt das ja auch und wird auch die nächsten jahre kaum anders sein aber wenn die PS5 games kommen wird sich das auch ändern weil die eben Ressourcen hat die man nutzen wird.
 
Zuletzt bearbeitet:
Vorallem Intel hat recht. Die ps4 und die neue Xbox wird auch nur über 8 Kerne verfügen. Nur halt höher takten. Ihr werdet doch wohl nicht glauben das die Entwickler sich hier recht viel Aufwand betreiben werden nur um ne handvoll an gamer auch mit mehr als 8 Kernen so richtig fett auslasten zu lassen. Den Aufwand werden die meisten Entwickler nicht machen. Weil Entwicklung kostet viel Geld und auch viel Zeit. Darum machen es die Entwickler das sie halt Stück für Stück optimieren. Step bei step. Also so ne Art Rollout. Das wird also langfristig nicht besser aussehen. Und da auch diese hardware nie reichen wird und die wird auch wieder bzw soll wieder 5 Jahre reichen. Klar könnte man auch ne leistungsfähige nachschieben.
diese würde bei der ps4 dazu genutzt um ne höhere Auflösung hochzuskalieren. Also so ne Art downsamplimg. Also keine echte 4k.

Die Entwickler werden schließlich 4k auch nicht nutzen.,somdern wieder 1080p. Nur das halt dann die Grafik weiter sich verbessert. Also die nächsten 4-5 Jahre wird sich an das dilemme. Nicht so viel tuen. Klar werden bis dahin wohl auch die Viel Kerner billiger, nur halt nicht so richtig von den Entwicklern voll ausgenutzt.
Bei software tuen sich ja die Entwickler zum Teil ja auch schwer. Darum steigen ja auch Anwendung ungern nicht so stark. Würden da sich die Entwickler so richtig rein steigern, dann ginge da so einiges. Man kann die Entwickler halt jedoch nicht dazu zwingen. Und sie müssen ja leider auch immer die Kosten abwägen. So wie es halt ist, so ist das halt.
 
Ist denn auslasten! immer! gleich besser, ergo mehr FPS?


Gesendet von meinem VOG-L29 mit Tapatalk
 
Ist denn auslasten! immer! gleich besser, ergo mehr FPS?


Gesendet von meinem VOG-L29 mit Tapatalk
Je mehr aus zulasten ,dann umso besser. Der PC wird auf jedenfall davon profitieren wenn es in den Konsolen auch 8 Kerne mit höheren takt geben wird. .
Ja sicher wenn sie die CPUs besser auslasten können, dann gibt es ja auch mehr fps. Also das vorhandene besser ausnutzen. Dann sinken zwar die CPUs die wo weniger Kerne haben in der gedämmt leistung zwar, aber so ist halt der Fortschritt.
 
Gibt's es denn auch sinnvolle und nicht sinnvolle auslastung?

Kann ja auch eine S heiss Portierung sein mit 100% auslastung und 50 FPS denn kommt ein Patch und wir sind bei 70fps. Weißt was ich meine?

Gesendet von meinem VOG-L29 mit Tapatalk
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh