Aktuelles

Intel: Mehr als acht Kerne für Spiele nicht notwendig

Latiose

Member
Mitglied seit
11.06.2019
Beiträge
370
Ah OK, jetzt habe ich es verstanden. Das tut dennoch nichts zur Sache. Dieser xeon wird dennoch nicht besser. Nun weiß ich also warum er diese engernering assemble verkauft hat und warum so günstig. Ich kann also somit nie das volle Potenzial dieser CPU ausfahren, schade. Musste weil sonst die CPU schlechter wird leider ht abschalten. Habe mal ausgerechnet wie stark dann der i9 9980xe bzw 7980xe in der roh Leistung gestiegen ist. Taktet man den ebenfalls auf 2,8 ghz max und schaltet das ht ab, so ähneln sich die beiden CPUs ja sehr bei der rohleistung. Ich dachte die Leistung sei stark gestiegen. Nun muss ich feststellen das dies ja eben nicht der Fall ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

ElBlindo

Well-known member
Mitglied seit
31.01.2009
Beiträge
9.099
Ort
Dortmund
System
Desktop System
Olle Kiste
Laptop
2x Lenovo Yoga Ultrabook
Details zu meinem Desktop
Prozessor
AMD 3700X
Mainboard
Asus ROG Strix X570-F
Kühler
Asus ROG RYUJIN 240
Speicher
16GB G.Skill Trident Z RGB DDR4-3200
Grafikprozessor
Asus GeForce RTX 2070 ROG Strix OC
Display
LG 34UC88-B
SSD
Samsung Evo 120 + Crucial MX500 2000GB
Gehäuse
Corsair Air 540 White
Netzteil
Corsair AX 860i
Keyboard
Corsair K95 RGB Platinum
Mouse
Corsair Dark Core RGB+Corsair MM800 RGB Polaris
Betriebssystem
Win 10 Pro 64bit
Ob er es jetzt wohl verstanden hat!!??

Gesendet von meinem SM-G960F mit Tapatalk
 

Infi88

Member
Mitglied seit
09.09.2010
Beiträge
409
...nicht sein kann, was nicht sein darf ;)
HWLuxx, CB, Igorslab, der8auer, HW Unboxed, Gamers Nexus, Anandtech sind also allesamt Cherrypicker, dein gezeigter Youtuber natürlich völlig seriös, arbeitet halbwegs wissenschaftlich (*hust* keine Versionsangaben von OS/Game/Treiber/BIOS-Version) und alle hier in den Luxx Benchmarks Threads irren sich natürlich.
Ich denke bei ElBlindo ist der Name Programm, alles angesehen, nichts dazugelernt.
Verstehe auch nicht warum das hier wieder Thema sein muss.

Das Nvidia und Intel viele gute Features hat ist doch klar, anders kommt man nicht an Marktanteile in dieser Form.
Und auch wenn RTX scheitern sollte macht es das nicht schlecht weil der AMD Neidkarpfen immer noch Probleme mit 4K hat, der Standard-Ansatz für Schatten war immer schon nicht zufriedenstellen und auch performancehungrig, die Hardwarelösung Nvidias klingt da plausibel, die Karten können aber auch auf anderen Gebieten punkten. Leider manches Modell etwa pricy, aber das ist kein Geheimnis und Qualität kostet halt Geld.
Speziell der Shrink könnte die Kosten auch wieder senken, bzw. es ist stark davon auszugehen das die RTX Familie in etwa so bleiben wird weil man in der Produktion wohl zweigleisig fährt :banana:.

Die gpu videoumwandlung da habe ich keine Vorteile. Sobald ich bei cpu die settings ebenfalls so weit runter setze wie bei der gpu, dann sieht die Sachlage wieder ganz anders aus.

Nun gut, kann ja eh nicht mehr wirklich was runter setzen. Dzwischen meinen settings und minimalen sind nur noch 20 Sekunden unterschied. Dann wären halt die Videos statt in 1:40 bei 1:20 fertig. Da kann dann die gpu nicht mehr recht viel mehr herausquetachen. Die settings die ich fahre, kann ich leider nicht 1/1 auf die gpu übertragen. Statt main Profil nur baseline, bei Latenz kann ich auch nicht so genau einstellen. Einige Funktionen sind nicht mehr vorhanden.
und die Qualität ist dennoch etwas schlechter auf der gpu im Vergleich zur CPU. Habe sogar Bilder zum Vergleich gemacht. Und direkt miteinander verglichen.

Ja zum archivieren der H264 umgewandelten Aufnahmen, ist das nartürlich kontraproduktiv. Und zwischen. 1 und 2 Referenz frames ist auch noch ein Unterschied festzustellen.
Fragwürdiges Statement, warum stellst du CPU und GPU vergleiche an ? Hast du Nvenc je anständig benutzt ? Vor ein paar Jahren warst du mit Multicore CPUs in Spielen wesentlich langsamer die nebenbei Kodieren muss als jetzt, vorausgesetzt du hattest ne High-End GeForce.

Der Sinn von Nvidia NVENC sollte dabei auch klar sein, Performance Encoding beim spielen welches billiger ist als ne Multicore CPU oder ne Elgato, da kommt speziell der H265 Encoder sehr gut weg.
Reine Qualität war nie das Ziel, guck dir mal die AMD GPU Lösung dazu an, die konnte man nur als Debakel bezeichnen, was auch natürlich Spieler bzw. Kundschaft kostet.
Die extrovertierte Generation möchte heutzutage alles mitteilen, da ist Nvenc tatsächlich Cutting Edge und mit das schnellste wenn ne GPU zum kodieren herhalten soll.
Ich weiß allerdings nicht ob Twitch native H.265 überhaupt hat, die wurden auch überrundet und sind mit Werbung beschäftigt.
 

Phantomias88

Active member
Mitglied seit
19.04.2008
Beiträge
7.498
Ort
StuggiTown
Wenn ich mal kurz Igors Test hervorheben darf, dort gibt es FPS vs Frametime difference in Millisekunden:



Vergleicht das mal mit den anderen CPUs in seinem Test.
Das ist mir lieber als die reinen FPS Balken, denn die Frametimes Lügen nicht, ganz im Gegensatz zu den Durschnittlichen FPS (Average FPS) ;)
 

Infi88

Member
Mitglied seit
09.09.2010
Beiträge
409
Du postest aber jetzt nicht auch noch Frametimes vom Bulldozer oder ?
 

schakusa

Active member
Mitglied seit
26.06.2011
Beiträge
10.536
System
Desktop System
Der Gerät
Laptop
Surface Pro 6
Details zu meinem Desktop
Prozessor
Intel i9 9900k@5,0
Mainboard
Asus RoG Hero XI
Kühler
Fractal Design S36
Speicher
16GB G.Skill Trident Z @4000-CL16/16/32
Grafikprozessor
Gainward 2080Ti Phoenix
Display
Asus RoG PG279Q
SSD
Samsung m.2 250gb + 2x Crucial 1TB
Soundkarte
Creative ZXR
Gehäuse
Phanteks Enthoo Luxe
Netzteil
Seasonic Focus 750W
Keyboard
Corsair K70 Mk2 Low Profile
Mouse
Logitech G-Pro + Logitech G Powerplay
Betriebssystem
Windows 10
Webbrowser
Chrome
Der Thread ist mal wieder Fremdscham pur.
Da hast du zwar Recht, aber genau deswegen ist es doch so lustig hier.
Der Blinde, der Holzige und wie Sie alle heißen drehen wieder Ihre Runden in den Intel Threads um Beiträge zu sammeln (Oder Satzzeichen auf Vorrat zu legen) dazu jetzt noch der neue Nvidia Fan und die Darsteller lassen sich noch mehr triggern, es ist einfach eine absolut Super Unterhaltung zum Kaffee morgens und wenn man noch copy/paste betreibt hat man auch Satzzeichen für einen ganzen Arbeitstag auf Vorrat :bigok:

Blöd ist natürlich wenn man in den Thread kommt um was zum Thema zu lesen, aber man weiß doch mittlerweile was einen in dem AMD/Intel/Nvidia Thread erwartet: Feinste Telenovela mit den immer gleichen, schlechten, Darstellern die auf Dschungelcamp Niveau auch ne Blaue, Grüne oder Rote Kakerlake essen würden nur um Ihre Produkt-Treue zu zeigen :fresse:
 

Latiose

Member
Mitglied seit
11.06.2019
Beiträge
370
Da hast du zwar Recht, aber genau deswegen ist es doch so lustig hier.
Der Blinde, der Holzige und wie Sie alle heißen drehen wieder Ihre Runden in den Intel Threads um Beiträge zu sammeln (Oder Satzzeichen auf Vorrat zu legen) dazu jetzt noch der neue Nvidia Fan und die Darsteller lassen sich noch mehr triggern, es ist einfach eine absolut Super Unterhaltung zum Kaffee morgens und wenn man noch copy/paste betreibt hat man auch Satzzeichen für einen ganzen Arbeitstag auf Vorrat :bigok:

Blöd ist natürlich wenn man in den Thread kommt um was zum Thema zu lesen, aber man weiß doch mittlerweile was einen in dem AMD/Intel/Nvidia Thread erwartet: Feinste Telenovela mit den immer gleichen, schlechten, Darstellern die auf Dschungelcamp Niveau auch ne Blaue, Grüne oder Rote Kakerlake essen würden nur um Ihre Produkt-Treue zu zeigen :fresse:

Aha, liest sich so als ob du es als rote, blaue und grüne Zombies beschreibst. Das sobald wieder was neues kommt, sich alle draufstürzen wie Hyänen.
und waschechte Fans sind wirklich verblendet, weil sie nur das dann verteidigen, egal was man denen sagen würde.

Nun gut, an der Leistung der ganzen prozessoren ändert das ganze ja eh nix. Wie auch, durch reden wird die CPU ja auch nicht besser. Auch streicheln hilft da nix.
und man merkt allmählich,prozessoren limitierten nicht. Was limitiert ist halt nun die Software. Die hinkt der Hardware hält nun wie hinter her. Sind halt wohl die Software Entwickler die nicht mehr hinter her kommen. Sind alle überfordert und Geld kostet das leider auch immer mehr. Da heißt es wohl nun halt Geduld haben
 

RAZ0RLIGHT

Active member
Mitglied seit
19.08.2007
Beiträge
14.459
Ort
Bayern
Kann ich hier auch irgendwo etwas zum Thema lesen?
Hier wird doch ständig über das Thema diskutiert, ob mehr als 8 Kerne für Gaming notwendig sind...

Nächstes Jahr wird Intel sagen, mehr als 10 Kerne sind für Gaming nicht notwendig usw.

Marketingblabla, es wird immer Ausreißer in beide Richtungen geben.
 

Niftu Cal

Member
Mitglied seit
02.12.2018
Beiträge
357
Mehr als 640 KB RAM wird man niemals brauchen.
 
Zuletzt bearbeitet:

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
14.659
Ort
Luzern
System
Desktop System
Bastelbude
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand mit XPX Eisblock Kühler AM4
Speicher
G Skill 16 GB 4266/ 3800/1900 cl16
Grafikprozessor
AMD Radeon 7
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10

Gamer1969

Member
Mitglied seit
14.03.2017
Beiträge
632
Bill Gates.jpg

Quelle:

Legendäre Fehlprognosen: „Mehr als 640 Kilobyte Speicher braucht kein Mensch“ | Express.de

Es gibt ja genug Fehlprognosen, die sich als falsch herausstellten. Dazu wird in Zukunft auch die Aussage von Intel gehören.

"Noch hat ein Rechner wie der ENIAC 18,000 Vakuum-Röhren und wiegt 30 Tonnen. Doch die Computer der Zukunft werden nur noch 1.000 Vakuum-Röhren besitzen und vielleicht nur noch 1,5 Tonnen wiegen”.*

"Es gibt keinen Grund, warum jeder einen Computer zu Hause haben sollte”

"In fünf Jahren wird das Tablet in den USA die beliebteste Form eines PCs sein“.

Quelle:

Die spektakulärsten Fehlprognosen der IT-Geschichte - PC-WELT
 
Zuletzt bearbeitet:

fortunes

Well-known member
Mitglied seit
13.06.2003
Beiträge
10.911
Ort
RheinMain
Wofür? Unnützes Wissen.

Da ist es wichtiger zu wissen, dass es derzeit keinen HDMI 2.0-Anschluss auf Intel-Platinen gibt, der 4K@60Hz HDR darstellen kann. :)
 

Sir Diablo

Active member
Mitglied seit
20.12.2003
Beiträge
3.755
Ort
Karlsruhe
Wozu nur sollte man Dinge wissen anstatt sie nicht zu wissen und dann falschen Unsinn verbreiten.... hmm.... wozu nur.... :confused:
 

Liesel Weppen

Active member
Mitglied seit
20.07.2017
Beiträge
1.483
Es gibt ja genug Fehlprognosen, die sich als falsch herausstellten. Dazu wird in Zukunft auch die Aussage von Intel gehören.
Wenn man den Artikel liest, wird klar, dass Intel nicht gesagt hat, das nie irgendjemand mehr als 8 Kerne brauchen wird, sondern sie sich ganz klar darauf beziehen, das aktuelle Spiele AKTUELL mehr als 8 Kerne nicht sinnvoll nutzen.

Das die Überschrift mal wieder arges Klickbait ist weil sie eben genau sowas wie die alten "640kb" suggeriert, habe ich schon auf Seite 1 angemerkt. Die Reaktionen auf meine Kritik wirkten allerdings eher wie Unverständnis. Zumindest haben jetzt noch ein paar andere Leute gezeigt, dass sie die Überschrift genauso "falsch" verstehen, wie ich. ;)
 

Luebke

Active member
Mitglied seit
26.03.2010
Beiträge
1.941
ob mehr als 8 kerne gebraucht werden liegt doch nicht nur am spiel, sondern auch was der pc sonst noch so macht. wenn man streamt braucht man eh mehr, aber auch wenn man teamspeak laufen lässt ist ein kern nich voll verfügbar, wenn man den rechner im hintergrund noch was anderes machen lässt, etc.
stand heute würde ich sogar sagen, dass für einen spiele pc 6 kerne reichen würden, wenn man denn wirklich nur das spiel laufen lässt.

dass intel bei genau 8 kernen den schnitt macht, ist angesichts der produktpalette in abgrenzung zu der der konkurrenz wohl offensichtlich. aber die aussage trifft halt nur unter idealbedingungen zu.
 

Liesel Weppen

Active member
Mitglied seit
20.07.2017
Beiträge
1.483
ob mehr als 8 kerne gebraucht werden liegt doch nicht nur am spiel, sondern auch was der pc sonst noch so macht.
Intel hat ja gesagt, das man nicht mehr als 8 Kerne FÜR SPIELE braucht. Wenn du natürlich nebenbei noch streamst, Videos codierst und ne Big Data Analyse laufen lässt, kannst du natürlich mehr Kerne in deinem System brauchen, die brauchst du aber eben nicht FÜR DAS SPIEL.
 

Powerplay

Active member
Mitglied seit
19.08.2005
Beiträge
14.890
Ort
Gifhorn
Bill Gates hat auch mal gesagt das 640k genug sind

Bei aktuellen games stimmt das ja auch und wird auch die nächsten jahre kaum anders sein aber wenn die PS5 games kommen wird sich das auch ändern weil die eben Ressourcen hat die man nutzen wird.
 
Zuletzt bearbeitet:

Latiose

Member
Mitglied seit
11.06.2019
Beiträge
370
Vorallem Intel hat recht. Die ps4 und die neue Xbox wird auch nur über 8 Kerne verfügen. Nur halt höher takten. Ihr werdet doch wohl nicht glauben das die Entwickler sich hier recht viel Aufwand betreiben werden nur um ne handvoll an gamer auch mit mehr als 8 Kernen so richtig fett auslasten zu lassen. Den Aufwand werden die meisten Entwickler nicht machen. Weil Entwicklung kostet viel Geld und auch viel Zeit. Darum machen es die Entwickler das sie halt Stück für Stück optimieren. Step bei step. Also so ne Art Rollout. Das wird also langfristig nicht besser aussehen. Und da auch diese hardware nie reichen wird und die wird auch wieder bzw soll wieder 5 Jahre reichen. Klar könnte man auch ne leistungsfähige nachschieben.
diese würde bei der ps4 dazu genutzt um ne höhere Auflösung hochzuskalieren. Also so ne Art downsamplimg. Also keine echte 4k.

Die Entwickler werden schließlich 4k auch nicht nutzen.,somdern wieder 1080p. Nur das halt dann die Grafik weiter sich verbessert. Also die nächsten 4-5 Jahre wird sich an das dilemme. Nicht so viel tuen. Klar werden bis dahin wohl auch die Viel Kerner billiger, nur halt nicht so richtig von den Entwicklern voll ausgenutzt.
Bei software tuen sich ja die Entwickler zum Teil ja auch schwer. Darum steigen ja auch Anwendung ungern nicht so stark. Würden da sich die Entwickler so richtig rein steigern, dann ginge da so einiges. Man kann die Entwickler halt jedoch nicht dazu zwingen. Und sie müssen ja leider auch immer die Kosten abwägen. So wie es halt ist, so ist das halt.
 

DDbom

Active member
Mitglied seit
10.10.2016
Beiträge
1.959
Ort
Im Norden
Ist denn auslasten! immer! gleich besser, ergo mehr FPS?


Gesendet von meinem VOG-L29 mit Tapatalk
 

Latiose

Member
Mitglied seit
11.06.2019
Beiträge
370
Ist denn auslasten! immer! gleich besser, ergo mehr FPS?


Gesendet von meinem VOG-L29 mit Tapatalk
Je mehr aus zulasten ,dann umso besser. Der PC wird auf jedenfall davon profitieren wenn es in den Konsolen auch 8 Kerne mit höheren takt geben wird. .
Ja sicher wenn sie die CPUs besser auslasten können, dann gibt es ja auch mehr fps. Also das vorhandene besser ausnutzen. Dann sinken zwar die CPUs die wo weniger Kerne haben in der gedämmt leistung zwar, aber so ist halt der Fortschritt.
 
Oben Unten