Aktuelles

Bilder zeigen einen Core i9-10900 im Sockel LGA1200

Tigerfox

Active member
Mitglied seit
29.08.2006
Beiträge
3.361
Ort
Bad Bentheim
System
Desktop System
i5-4670K
Details zu meinem Desktop
Prozessor
Intel Core i5-4670K
Mainboard
Gigabyte GA-Z87X-UD3H @F11c
Kühler
Thermalright HR-02 Macho Rev.B.
Speicher
4x8GB G.SKill TridentX DDR-2800 (F3-2800C12Q-32GTXDG)
Grafikprozessor
Gigabyte GeForce 670 OC (GV-N670OC-2GD)
Display
Dell U2410
SSD
WD Black SN750 2TB
HDD
2xSeagate IronWolf 8TB (ST8000VN004, ST8000VN0022), WD40EZRX, 2xWD30EZRX
Optisches Laufwerk
LiteOn iHES208
Soundkarte
Creative SoundBlaster X-Fi Elite
Gehäuse
Lancool K9X
Netzteil
be quiet! Straight Power E9-CM 480W ATX 2.4 (E9-CM-480W)
Keyboard
QPAD MK-50
Mouse
Logitech G400
Betriebssystem
Win10 x64
Webbrowser
Firefox x64
@Phoenix2000 :Ich spreche von realen Games und Du kommst mir mit Geekbench und TimeSpy? Wenn interessiert sowas.

Mit Deinem Anno-Video kann ich auch nichts anfangen, mir ist überhaupt nicht ersichtlich, was ich da sehe, einen Vergleich jedenfalls nicht. Da Anno aber auch mir wichtig wäre, habe ich das z.B. hier gefunden. Da sehe ich so im Durchschnitt 1-2fps mehr mit optimierten Timings in 1080p. Toll! Ansonsten lese ich z.B. CB, PCGH oder hier, auch mal TPU. Einen anderen Vergleich, in dem man gut sehen konnte, wie es ab einer bestimmten Grenze keine Gewinne mehr gibt, finde ich leider nicht mehr.

Ein GPU-Limit ist nunmal für die Meisten der weit wahrscheinlichere Fall. Um dieses nicht zu haben, verwenden die meisten CPU- und RAM-Test ja eine 2080Ti. Aber wer hat die schon?
Wenn ich dann mit den meisten Grafikkarten ab WHQD ins GPU-Limit komme, bringt mir mein RAM-OC garnichts.

Ich will damit RAM-OC nicht den Sinn absprechen. In Zeiten, in denen bei AMD garkein sinnvolles OC mehr möglich ist (bzw. nur Allcore-Takt auf kosten des Turbos) und bei Intel auch kaum noch was auf den Wekrstakt drauf geht, bleibt einem nicht mehr viel. Aber es war noch nie eine Wunderwaffe und gerade das letzte Quäntchen ist sehr, sehr teuer. Alles andere, also irgendeinen normalen Takt 3200-3600 kaufen und hoffen, dass es auf 4GHz+ hochgeht, ist zu sehr Glückssache.
Außerdem verfliegt Euer Takt auch wieder, wenn man dann vielleicht irgendwann Vollbestückung oder bald 2x32GB fahren möchte.

EDIT: Hier nochmal ein Beleg, obwohl ich TH nicht mag. Das zeigt schön, dass auch in 1080p und sowieso in WQHD irgendwann ab DDR4-3200 bis 3600 Schluß mit Zuwächsen ist. Und das ist ja nun kein RAM-OC, das ist nur keinen Mist kaufen.

EDIT: Wenn ich mir das so kurz angucke, krieg ich 32GB (2x16GB) DDR4-3600 für meist 170-180€, selten über 200€ "hinterhergeschmissen", alles ab DDR4-3733 gibt es in der Größe kaum und wenn, kostet es mehr als doppelt soviel! Ebenso 4x8GB ab DDR4-3733. Solche Frequenzen sind nur mit 2x8GB noch bezahlbar.
Es gibt schon 32GB-Module und Ihr wollt wegen ein paar % mehr fps lieber noch 2-4x8GB Highspeed als 2x16GB mit etwas weniger speed?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Phoenix2000

Well-known member
Mitglied seit
07.01.2006
Beiträge
4.424
Da hab ich jetzt gefeiert dein Video Link, seine optimierten Subtimings sind ja meist langsamer als die Stock.:lol:

Im absoluten GPU Limit wirst du auch 0FPS mehr sehen, das ist richtig, aber hier geht's um reine CPU Leistung.
Dir den Unterschied zwischen richtiges OC und das im Video zu erklären fehlt mir aber Zeit, Muse und auch der Wille ist nicht da.

Es Posten immer alle Naselang User diese Test's diese gelten auch für "Standard User", der Rest schmunzelt halt drüber.
Ich hab übrigens 4x8GB 4400CL17-17, beim Anno Test waren es noch 4x8GB@4350CL17-19 .

P.s.
Zu Anno kann ich dir aber was posten CB hatte einen Community Test ich hab das damals auch getestet hier meine Ergebnisse.
Der 4K Test ist nicht bei, aber mit 60K Einwohner kommt die CPU richtig in schwitzen oder besser gesagt der eine Kern.
Optimierungen kannst du aber auf jeder Plattform vornehmen unabhängig Vendor oder alter.

Mit ner RTX2080 2160/8200,
bei FullHD CB Settings hat der beste
73,6FPS ich hab 93,2FPS sind 26,6% mehr
bei WQHD hat der beste
89,2FPS ich hab 104,2FPS sind 16,8%
der gleiche wie bei FullHD(mit den 26,6% mehr) hat
84FPS zu meinen 104,2FPS macht 24% mehr

Hier der Link
https://www.computerbase.de/2019-04/anno-1800-community-benchmarks/#abschnitt_benchmarks_im_lategame_mit_65000_einwohnern
 
Zuletzt bearbeitet:

Tigerfox

Active member
Mitglied seit
29.08.2006
Beiträge
3.361
Ort
Bad Bentheim
System
Desktop System
i5-4670K
Details zu meinem Desktop
Prozessor
Intel Core i5-4670K
Mainboard
Gigabyte GA-Z87X-UD3H @F11c
Kühler
Thermalright HR-02 Macho Rev.B.
Speicher
4x8GB G.SKill TridentX DDR-2800 (F3-2800C12Q-32GTXDG)
Grafikprozessor
Gigabyte GeForce 670 OC (GV-N670OC-2GD)
Display
Dell U2410
SSD
WD Black SN750 2TB
HDD
2xSeagate IronWolf 8TB (ST8000VN004, ST8000VN0022), WD40EZRX, 2xWD30EZRX
Optisches Laufwerk
LiteOn iHES208
Soundkarte
Creative SoundBlaster X-Fi Elite
Gehäuse
Lancool K9X
Netzteil
be quiet! Straight Power E9-CM 480W ATX 2.4 (E9-CM-480W)
Keyboard
QPAD MK-50
Mouse
Logitech G400
Betriebssystem
Win10 x64
Webbrowser
Firefox x64
Nun, darum ging es mir ja. Ich will als Standarduser wissen, was mir in einem normalen System RAM-OC oder besser teurer OC-RAM bringt. Sagen wir mal Ryzen 3600(X)/3700X/3800X/i5-9600K/i7-9700K/i9-9900K + RX 5700(XT)/2060S-2070S @FHD bis WQHD.
In welchen Games sehe ich wirklich Gewinn durch schnelleren RAM, der die Mehrausgabe gegenüber einer schnelleren CPU oder Graka aus der Liste rechtfertigt?

Nochmal, reine CPU-Leistung interessiert mich nicht. Die ist in Games nie oberste Priorität und ich arbeite, wie die meisten Menschen, nunmal nicht so intensiv am PC, dass ich da deutliche Vorteile durch mehr CPU-Leistungs spüren würden. Wer ständig Videos enkodiert, mag das anders sehen.

Ich kenne mich mit dem aktuellen Markt für DDR4 nicht aus, wie man an meinem System sehen kann, aber ich kann schnell sehen, dass bei 2x16GB der Unterschied zwischen DDR4-2666 und 3600 so klein ist, dass man für das Geld vielleicht höchstens vom Ryzen 5 3600 auf den 3600X wechseln oder eine bessere Custom-Graka kaufen könnte. Da kann man schon sagen, dass DDR4-3200-3600 als Standard anzusehen ist, nicht 2666 oder noch lahmer. Und was kann ich da nich rausholen? In Games nicht viel möchte ich meinen.

Was ich natürlich nicht sagen kann, weil ich mich da nicht auskenne, ist, wieviel und wie einfach man noch aus 0815-DDR4-3200 rausholen kann. Wenn selbst Ungeübte da locker noch auf 3600/3733+ kommen und/oder noch Timings problemlos optimieren können, sollte man das natürlich tun. Ich stelle mir das aber sehr müheslig vor, jedes Subtiming auf Stabilität zu testen.

EDIT: Ich komme bei Deinen Angaben durcheinander. Die zitierten Benchmark-Ergebnisse sind ja für 10K Einwohner, Du schreibst was von 60K. Ich glaube auch niemals, dass Du nur mit RAM-OC jemanden mit gleicher CPU@OC und gleicher oder schnellerer Graka um 17-27% hinter Dir lässt. Der schnellste hat ja auch 16GB@4GHz, einer mit 8700K OC und 2080Ti OC hat 16GB@4,1GHz. Da kannst Du mit 300MHz Ramtakt und etwas Timings nicht so viel raushauen.
Sicher, das Einstellungen und Treiber gleich sind? Hat sich bei NV seit 425.31 was bzgl. Anno getan? Welche CPU hast Du überhaupt und bei welchem Takt?
Warum erreicht eigtl. die gleiche Person bei WQHD mehr fps als bei FHD?
 
Zuletzt bearbeitet:

Phoenix2000

Well-known member
Mitglied seit
07.01.2006
Beiträge
4.424
Ich hab das Editiert, was du glaubst und was nicht ist mir egal, das ist nicht mein Problem, das dir ne schnellere Graka im CPU Limit nicht weiter hilft sollte auf jeden Fall logisch sein.
Hier geht es auch um den nächsten Aufguss von Intel und nicht darum dir zu erklären wie du Leistung aus ner CPU presst.

Grade bei Strategie Spielen, oder älteren Games SC2, Arma3 hast du ein CPU Limit.SC2 Funmap 25FPS sag ich nur Kumpel hatte da 7FPS^^.
Leute die generell 144FPS haben wollen sind oft im CPU Limit, reichen dir 60-75FPS hast du dort weniger Probleme.Es lohnt sich aber auch generell, da die Leistung die du mehr rausholst, ja auch die Zeit verlängert bis dein System zu lahm ist und einen Neukauf um ein paar Jahre verschiebt.

Jetzt kommt die negative Nachricht der Ram muss eingestellt und getestet werden auf Stabilität.
Im Schnitt kannst du sagen 15-30% sind schon drin, ich liege so zwischen 30-50% gegen nen 9900k@Stock je nachdem.Ich rede hier von CPU Gaming Leistung was deine CPU in Games vermag zu stemmen.
 
Zuletzt bearbeitet:

Tigerfox

Active member
Mitglied seit
29.08.2006
Beiträge
3.361
Ort
Bad Bentheim
System
Desktop System
i5-4670K
Details zu meinem Desktop
Prozessor
Intel Core i5-4670K
Mainboard
Gigabyte GA-Z87X-UD3H @F11c
Kühler
Thermalright HR-02 Macho Rev.B.
Speicher
4x8GB G.SKill TridentX DDR-2800 (F3-2800C12Q-32GTXDG)
Grafikprozessor
Gigabyte GeForce 670 OC (GV-N670OC-2GD)
Display
Dell U2410
SSD
WD Black SN750 2TB
HDD
2xSeagate IronWolf 8TB (ST8000VN004, ST8000VN0022), WD40EZRX, 2xWD30EZRX
Optisches Laufwerk
LiteOn iHES208
Soundkarte
Creative SoundBlaster X-Fi Elite
Gehäuse
Lancool K9X
Netzteil
be quiet! Straight Power E9-CM 480W ATX 2.4 (E9-CM-480W)
Keyboard
QPAD MK-50
Mouse
Logitech G400
Betriebssystem
Win10 x64
Webbrowser
Firefox x64
Mach Dir mal keine Hoffnungen, ich plane in nächster Zeit kein System-Upgrade. Ich schiele schon seit geraumer Zeit auf gebrauchte i7-4790K zum OCen und evtl. eine 2070 oder 5700XT. Weil ich eben kaum noch Zeit zum Zocken finde, scheue ich das Upgrade aber. Anno 1800 läuft jetzt @DX11 auch nicht so schlecht und sieht nicht so schlecht aus, dass es mich zum Kauf bewegt hätte.

Die einzigen Spiele, die ich zocke, sind Civ-Reihe (IV und V noch gezockt, VI kaum), Heroes-Reihe (V noch viel gezockt, VI nur etwas), Anno-Reihe (1404 und 2070 etwas gezockt, 2205 nicht mehr, 1800 wieder etwas), Total War-Reihe (nur die historischen Spiele, das aktuelle noch garnicht gezockt, sonst viel). An RPGs hab ich noch nachzuholen: sämtliche Dragon Age, Risen 2 und 3, Elex, Witcher 1-3, Kingdom Come: Deliverance (schon etwas angespielt).
Seit Ewigkeiten hat mich kein Shooter mehr interessiert, SC fand ich immer langweilig, WC3 ok.

EDIT: Nun, Ausgangspunkt unseres Dialogs waren Deine Hoffnungen in den Speichercontroller bei Rocket-Lake, also ob Intel damit nochmal deutlich seine Chancen gegen AMD steigern könnte. 2/3 der Mehrleistung vom OCen eines 9900K durch den Speichercontroller halte ich für ziemlich übertrieben, hat auch nichts mit dem OCen der CPU zu tun, funktioniert ja unabhängig davon.
Finde es auch sehr optimistisch, dass die Angabe zum maximalen Standard-RAM-Takt von DDR4-2933 ein nochmal deutlich gestigertes RAM-OC-Potential prophezeie. 1. Erreicht man denn mit den Coffe Lake 6-Kernern auch deutlich höhere RAM-Taktraten als mit Kaby Lake oder den Coffe Lake 4-Kernern? Ich glaube nicht. 2. Wenn schon jetzt irgendwann über 4000MHz die Gewinne immer geringer werden, wieso sollte das bei Rocket Lake so deutlich anders sein?
 
Zuletzt bearbeitet:

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
647
Hi an alle,gestern wurd ja über IPC ,Anzahl der Transitoren geschrieben.Also sprich um IPC zu erhöhen ,die Transsistoren anzahl dann zu erhöhen,um mehr Leistung zu haben.Das allerdings dann zu mehr Stromverbrauch und somit erhöhte Abwärme führt.


Wenn das so ist,dann wird wird die Anzahl der Transistoren durch die Anzahl der Kerne zu teilen.

ALso der
AMD 3950x hat 19,2 Milliarden / 16 Kerne )´= 1,2 Milliarden also 1200 Millionen pro Kern und bei abschaltung von den 2 Threads nur noch 600 Millionen.
i9 9980xe hat 7,2 Millarden / 18 Kerne = 400 Millionen Transistoren pro Kern und 200 Millionen bei abschalten eines Threads.

Habe bei einem den 3950x von den 16 Kernen ,10 echte bei der Software abgeschaltet und somit am ende nur noch 6 echte und 16 virtuelle Kerne.Da hatte also der 3950x am ende was dann an Transistoren am rechnen waren nur noch 7,2 Milliarden durch ganze Kerne und 10x 600 Millionen Transistoren macht dann 6 Millarden also 13,2 Milliarden Transistoren.
Beim i9 9980xe habe ich 4 echte Kerne abgeschaltet und kam dann auf 14x 400 + 4x 200 Millionen ,macht dann 5,6 Milliarden mit 800 Millionen macht dann 6,4 Milliarden.
Beim Umwandeln habe ich zwei sachen nebenher umwandeln lassen,ohne AVX,kein FMA3 und auch kein BMI3. Beide haben somit die selbe bedingung.
Der AMD gewann nur minimal,weil dieser Pro Kern mehr Transistoren hat.Aber viel kam da nicht raus.An was es wohl lag.Ich dachte die Anzahl der Transistoren würde die Leistung entscheiden.Am Takt kann es ja wohl nicht mehr liegen und am rest ja eben auch nicht mehr.Ram Takt wirkte sich leider nicht auf die Leistung aus.Mainboard hat auch keine WIrkung drauf und beide haben ja ne SSD.Also die besten voraussetzung.Dennoch ist da mal das Limit erreicht,Tya so ist das halt mal.
 

ElBlindo

Well-known member
Mitglied seit
31.01.2009
Beiträge
9.169
Ort
Dortmund
System
Desktop System
Olle Kiste
Laptop
2x Lenovo Yoga Ultrabook
Details zu meinem Desktop
Prozessor
AMD 3700X
Mainboard
Asus ROG Strix X570-F
Kühler
Asus ROG RYUJIN 240
Speicher
16GB G.Skill Trident Z RGB DDR4-3200
Grafikprozessor
Asus GeForce RTX 2070 ROG Strix OC
Display
LG 34UC88-B
SSD
Samsung M.2 970 EVO Plus 250GB + Crucial MX500 2000GB
Gehäuse
Corsair Air 540 White
Netzteil
Corsair AX 860i
Keyboard
Corsair K95 RGB Platinum
Mouse
Corsair Dark Core RGB+Corsair MM800 RGB Polaris
Betriebssystem
Win 10 Pro 64bit
Webbrowser
FF
Aha..................
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.292
Ort
Exil
System
Desktop System
Bastelbude
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Eisblock Kühler mit AM4-Kit
Speicher
G Skill 16 GB 4266/ 3800/1900 cl16
Grafikprozessor
AMD Radeon 7
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10
Die Testreihen von @Latiose sind schon sehr interessant und hätten meiner Meinung nach einen eigenen Fred verdient, wo er Hintergrund und Zielsetzung näher erläutern und diskutiert werden könnte, es ist nicht zu spät dafür ;)
 

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
647
Diese Rechnung kann man auch mit jedem anderen xbelibigen CPU so machen.Der i9 10980xe hat nur durch den mehr an Takt mehrlesitung.Da sieht also die rechnung gleich aus.Damit wird Intel langfristig wohl nix mehr schaffen.Denn ohne eine erhöhung der Transistoren wird das halt nix.Dann ist halt klar das die Kernanzahl somit dann nicht mehr erhöht werden kann.Weis garnicht wie AMD das ganze noch weiter erhöhen kann.
Beitrag automatisch zusammengeführt:

Die Testreihen von @Latiose sind schon sehr interessant und hätten meiner Meinung nach einen eigenen Fred verdient, wo er Hintergrund und Zielsetzung näher erläutern und diskutiert werden könnte, es ist nicht zu spät dafür ;)
Du meinst damit,ich kann damit andere helfen und somit eine bessere Empfehlung den Nutzern nahe legen.So meinst du das also nicht wahr?
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
15.292
Ort
Exil
System
Desktop System
Bastelbude
Details zu meinem Desktop
Prozessor
AMD 3950x
Mainboard
Asus Crosshair VIII Formular X570
Kühler
Alphacool Wakü Eiswand 360er und 280er Radi mit XPX pro Eisblock Kühler mit AM4-Kit
Speicher
G Skill 16 GB 4266/ 3800/1900 cl16
Grafikprozessor
AMD Radeon 7
Display
Dell 21:9
SSD
PCIE4 Corsair MP600
Gehäuse
Corsair 680X
Netzteil
Corsair AXI 860i
Betriebssystem
win10
Ja nicht nur das, denke deine Betrachtung und Analyse ist für jeden CPU interessierten eine Bereicherung :-)
 

Gunmarine

Member
Mitglied seit
09.10.2003
Beiträge
97
Ort
Bonn
Warum vergleicht du nen NH-D15 mit AIO.
Falls du es nicht raus gelesen hast, die beiden sind vergleichbar (in der Kühlleistung), genau weil sie vllt 1-2 Grad auseinander liegen. Wo ist das Problem? :X Ich sagte doch entweder Noctua/Aio oder halt richtiger Loop. Die 2 Sachen vergleicht man dann miteinander, sorry falls es falsch rüber gekommen ist. Ich zähle halt ne AIO nicht als Wasserkühlung in dem Sinne (gemessen einer richtigen Wasserkühlung mit eigener Pumpe etc.,) weil auch die 360er AIOs nicht wirklich besser als Luft sind, mit den entsprechenden Lüftern vielleicht 5 Grad, aber das macht ja bei den mickrigen Kühlern und Pumpen den Braten nicht fett.

@ Tigerfox du kapierst aber auch nicht worauf man hier hinaus will. Nimm eine 4080 TI und rechne mal 30-50% pro Gen dazu (SW Fallen Order hab ich ich schon in manchen Situationen die doppelten Framerates gesehen zwischen 1080 ti und 2080 ti). Nvidia pusht im gleichen Zeitraum die Leistung mehr als AMD oder auch Intel bei Ihren CPUs überhaupt können. Nimm in den letzten Jahren die 10% bei Intel und Nvidia setzt dir seit Jahren 30% vor die Nase. Und das nicht nur in der Highendklasse sondern auch in der Mittelklasse. AMD kann man hier mal getrost raus lassen, weil die von der Gaming Leistung immer noch nicht zum 8700K aufschließen konnten, wenn der vernünftiges RAM hat.

Und spätestens in 4 Jahren hast du dann eine 4060, die schneller ist als ne 2080 Ti und dann hängst du in 4K wieder öfters im CPU Limit. Und die Leute mit schnellem RAM haben da deutlich weniger Probleme, weil die jetzt schon 30% mehr Rawpower raus kitzeln.

Letzten Endes interessiert es doch auch kein Schwein beim Zocken ob ich average 144 oder 150 FPS hab, es geht doch einzig und allein um die Drops, die nur einen Bruchteil der Zeit vorhanden sind, aber keiner will sie haben der das Geld für ne starke GPU ausgibt. Ergo haut man das RAM OC noch rein damit wir nicht im CPU Limit landen und falls ja, merkt man es halt kaum. Ohne RAM OC haste dann wieder den kurzen Drop und das nervt manche Leute einfach nur.

Ich merke doch jetzt wie hart mein 5960X im CPU Limit hängt, PUBG ist das beste Beispiel, die CPU kotzt selbst mit 4.5 GHZ OC einfach komplett aus dem letztem Loch und ist trotzdem in jedem Spiel schneller als ein Ryzen 2700X. Für den einen mag ein 2700X echt schnell sein, ich zocke seit 2001? Nicht mehr unter 100 HZ, mein erster TFT war 2007/2008 in dem Dreh ein 120 hz Samsung 2233RZ, danach kam 2014 der ROG Swift mit 144. Klar stell ich auf 4K hoch merk ich davon nix mehr, da kotzt meine 1080 ti genauso ab, aber selbst mit jetzigem WQHD hat man auch mit nem 9900K(S) noch CPU Limits mit ner 2080 ti.

Man hat ja auch nicht 30% mehr Spieleleistung durch RAM OC (da GPU Limit), versteh es einfach mal wie 30% mehr Reserven, damit es eben nicht durch die CPU ruckelt sondern maximal nur durch die GPU. Und die GPU Ruckler kann man mit den Reglern komplett eliminieren, die CPU Ruckler nunmal nicht. Und mit jeder weiteren (Nvidia) GPU Generation verschiebt sich das ganze wieder zur Lasten der CPU.

Gut wenn die 4080 TI raus kommt, wird die Ice Lake Basis dann als Tiger Lake or whatever mit den Taktraten verfügbar sein, da schafft Intel ja wenigstens mal wieder mehr als 10% . Aber bis dahin muss AMD erstmal an Intel in Spielen vorbei ziehen können was (bei 30%-40% Rückstand im harten CPU Limit gegen so ein Setup wie das von Phoenix) mit Zen 3 definitiv nicht passieren wird und auch mit Zen4 schwer sein wird.

Ergo sind wir bis Tiger Lake @ 5 GHZ im Desktop auf RAM OC bei Intel angewiesen um eben die Min FPS 30% höher zu halten, wenn es hart auf hart kommt. Ist selten im Spiel messbar, aber @144hz deutlich spürbar ;-) Daher macht mans ja.
 
Zuletzt bearbeitet:

Phoenix2000

Well-known member
Mitglied seit
07.01.2006
Beiträge
4.424
Die Testreihen von @Latiose sind schon sehr interessant und hätten meiner Meinung nach einen eigenen Fred verdient, wo er Hintergrund und Zielsetzung näher erläutern und diskutiert werden könnte, es ist nicht zu spät dafür ;)
Auf jeden Fall!!!!Vor allem das folgende wusste garnicht das das technisch überhaupt möglich ist.:popcorn:
Habe bei einem den 3950x von den 16 Kernen ,10 echte bei der Software abgeschaltet und somit am ende nur noch 6 echte und 16 virtuelle Kerne.
Ich würde auf jeden Fall empfehlen dafür sich in einen eigenen Thread zu begeben, am besten auch AMD kontaktieren und die Ergebnisse präsentieren und bitte dem Herren an der Leitung ne Packung Aspirin zur Verfügung zu stellen.
Die wird er brauchen.^^
 

Holt

Well-known member
Mitglied seit
05.07.2010
Beiträge
19.964
Da habe ich mir wirklich mal wieder die ignorierten Inhalte anzeigen lassen und konnte wieder feststellen wieso manch einer auf meiner Ignoreliste steht. Die Aspirin sollte jeder brachen der "10 echte bei der Software abgeschaltet und somit am ende nur noch 6 echte und 16 virtuelle Kerne" lesen muss. :wall:
 

Kalorean

Well-known member
Mitglied seit
30.08.2012
Beiträge
1.298
Da habe ich mir wirklich mal wieder die ignorierten Inhalte anzeigen lassen und konnte wieder feststellen wieso manch einer auf meiner Ignoreliste steht.
Hast Du Dir eigentlich selbst schon einen Antrag gemacht, so geil, wie Du dich findest?
 

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
647
Da habe ich mir wirklich mal wieder die ignorierten Inhalte anzeigen lassen und konnte wieder feststellen wieso manch einer auf meiner Ignoreliste steht. Die Aspirin sollte jeder brachen der "10 echte bei der Software abgeschaltet und somit am ende nur noch 6 echte und 16 virtuelle Kerne" lesen muss. :wall:
Na na, was ist denn mit dir los, das war doch nur zum testen gewesen. Man wird ja wohl noch die Grenzen der Software austesten dürfen. Ich merke allerdings langsam wie sehr die Geschwindigkeit einbricht. Mehr abzuschalten wird also nur noch die Geschwindigkeit einbrechen. Ich bin fall überrascht wie flexible bzw wie stark jeder einzelne Kern ist. Denn ein andere CPU wäre schon mit massiv zeiteinbruch eingebrochen. Der amd 3950x allerdings nicht. Selbst mit nur 6 echten und 16 virtuelle Kerne noch immer fast die selbe Leistung. Aber sobald ich smt Kerne reduziere und die echte rechnen lasse, sinkt die Leistung stärker ein, trotz das ich nur sehr wenige Kerne abgeschaltet hatte bei der Software. Ist die Anordnung bei AMD etwa anders als bei Intel das nicht Kern 0 ein echter ist sondern Kern 1? Das ich in Wirklichkeit die nicht die echten sondern die virtuellen Kerne bei der Software abgeschaltet hatte. Nun der nächste test wird es sein mit abgeschalteten smt zu testen. Ich will halt mehr über die Software wissen. Ein cpu Limit ab wann es halt keine mehrleistung mehr bringt. Nur deswegen mache ich das ganze. Denn nirgendswo steht im Internet ab wann diese software nicht mehr mit mehr Kernen skaliert. Und da ich auch keine kenne, muss ich das halt selbst austesten. Denn wenn die Software gut skalieren würde, dann wäre ja der 22 kernige xenon schneller als der 18 Kerner, trotz des geringen taktes. Und dann wäre die Geschwindigkeit nicht beim abschalten des hts schneller geworden. Das Verhalten ist also sehr skurill. Und dann kam es mit den Transistoren, IPC und Fläche hier zum Thema. Dann schlug ich ne andere Denkweise ein, die dann dazu führte. Denn sonst würde es ja keine solche starke leistungsunterschiede trotz so unterschiedlichen Kern zählen geben. Nun weißt du warum ich das alles mache. Wenn du das noch immer nicht verstehst, dann kann ich dir auch nicht mehr helfen.
 

SANY

Well-known member
Mitglied seit
12.04.2005
Beiträge
2.868
System
Desktop System
Gaming PC
Details zu meinem Desktop
Prozessor
Intel Core i5-8600K @5 GHz allcore
Mainboard
MSI Z370 Tomahawk
Kühler
Custom Wakü, EK Velocity, Phanteks Glacier, HeatkillerTube, D5,420er Radi extern, 240er Radi intern
Speicher
32 GB G.Skill Trident Z RGB, DDR4-3600, Samsung B-Die
Grafikprozessor
ASUS ROG Strix GeForce RTX 2070 OC
Display
ASUS ROG Swift PG279Q, IPS 165 Hz; Zweitmonitor: AOC G2590VXQ, TN 75 Hz
SSD
NVMe: Samsung SSD 970 EVO 250GB, Corsair Force Series MP510 960GB; SSD: Samsung SSD 860 EVO 500GB
Gehäuse
Phanteks Eclipse P600S Anthracite Gray
Netzteil
ASUS ROG-THOR-850P, Platinum 850W
Keyboard
Logitech G610 Orion, Cherry MX Brown
Mouse
Logitech G Pro Wireless
Betriebssystem
Windows 10 Pro
Nochmal was hast du den konkret und wie getestet? 6 echte Kerne und 16 virtuelle ist nicht möglich.
 

ElBlindo

Well-known member
Mitglied seit
31.01.2009
Beiträge
9.169
Ort
Dortmund
System
Desktop System
Olle Kiste
Laptop
2x Lenovo Yoga Ultrabook
Details zu meinem Desktop
Prozessor
AMD 3700X
Mainboard
Asus ROG Strix X570-F
Kühler
Asus ROG RYUJIN 240
Speicher
16GB G.Skill Trident Z RGB DDR4-3200
Grafikprozessor
Asus GeForce RTX 2070 ROG Strix OC
Display
LG 34UC88-B
SSD
Samsung M.2 970 EVO Plus 250GB + Crucial MX500 2000GB
Gehäuse
Corsair Air 540 White
Netzteil
Corsair AX 860i
Keyboard
Corsair K95 RGB Platinum
Mouse
Corsair Dark Core RGB+Corsair MM800 RGB Polaris
Betriebssystem
Win 10 Pro 64bit
Webbrowser
FF
Die Testreihen von @Latiose sind schon sehr interessant und hätten meiner Meinung nach einen eigenen Fred verdient, wo er Hintergrund und Zielsetzung näher erläutern und diskutiert werden könnte, es ist nicht zu spät dafür ;)
Ich finde wir sollten Arbeitsgruppen bilden!! Ich koch den Tee!!:wall:
 

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
647
Nochmal was hast du den konkret und wie getestet? 6 echte Kerne und 16 virtuelle ist nicht möglich.
Meintest du die CPU oder die Software. Ich kann ja beides beantworten.
Die Software heißt xmedia recode und hat nicht die aktuellste Version sondern 3 Versionsnummer dahinter weil die neueste Version meine Einstellungen ständig wieder vergisst und mir das dann zu blöd wurde.
Wandle die MPEG 2 ts fernsehr Aufnahmen die ja in SD Qualität sind in H264 um. Habe den i9 9980xe und der holzmann den AMD 3950x. Wir beide haben jeweils ne ssd drinnen, bei den temps auch beide gute Werte. Er hat zwar seinen auf 4,1 und inzwischen auf 4,3 GHz und ich nur 3,8 GHz. Wenn ich wollte könnte ich das allerdings auch. Dann nehmen die sich gewiss nix mehr von der Leistung. Nur das halt der amd 3950x mehr Transistoren hat und das auf 16 Kernen verteilt ist und der i9 9980xe hat zwar mehr Kerne allerdings wie man aus meiner Rechnung entnimmt weniger Transistoren zur verfügung.

Beide CPUs werden also mit der selben Version betrieben. Aber auch ohne jedliches avx. Zuletzt sogar fma3 sowie auch bmi2. Das habe ich dann auch bei meiner Intel CPU so gemacht dann. Bei mir wurde es nur 1 Sekunde langsamer.
Bei 2 parallelen umwandeln gleichzeitig neben her. Dann Taskmanager genommen und der jeweiligen Software die Haken bei der Zugehörigkeit abgewählt und schwupps geht das dann sehr wohl das es nur 6 echte und 16 virtuelle benutzt werden. Da ich ja auch bei ihm 2x xmedia recode gleichzeitig offen hatte, musste ich es freilich auch beim zweiten so machen.
Ich bin echt buff das da die leistung nicht eingebrochen ist bzw nur sehr minimal. Warum ich die beiden Einheiten a geschälten hatte, na weil es angeblich auf amd Seite Probleme gab. Und in der tat, wenige Sekunden wurde es dann schneller.
Es heißt ja auch das die beiden Einheiten Intel beschleunigen. Aber meine Szenario ist so speziell das das ja nicht zum Tragen kommt. Das erklärt auch warum avx ebenfalls nicht bei mir beschleunigt.
Ich habe da noch eine Einheit mit der ich da leider nix anfangen kann nenn sich lzcnt.
Ansonsten ist der Rest wohl aus Pentium 4 bzw core 2 duo Zeiten entsprungen. Die Einheiten bmi2 sowie fma3 stammen ja aus der Core I Serie der 3gen. Hätte nicht gedacht das es so kommt. Der core i7 4700hq beim Laptop stieg ebenfalls um 5 Sekunden an.
Es ist somit erfreulich das die leistung steigt. Und meine Anforderungen immer weiter sinken. Die neidrigende Einstellung des H264 brachte mir nur noch 20 Sekunden an Beschleunigung. Hier scheine ich wohl am Ende der Optimierung schon angelangt zu sein. Und DeInterlacing kostet 2 Kerne an Leistung. Wenn dies abgeschaltet ist, dann habe ich bei 2 dieser Programme dann ganze 4 Kerne weniger was ich da auslaste. Also dann wohl nur noch 8 Kerne maximal pro Software dann nur noch oder waren es 6 Kerne. Wie auch immer.
 

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
647
Ja aber es wird dennoch kaum einer da mitreden können. Und ich werde da viele person erleben die mir da dann schrieben werden, das sie das nicht verstehen werden warum ich das denn abschalte und mir dann was predigen, warum mann das dann nicht abschalten sollte weil es angeblich aus deren Sicht dann Leistung kosten wird und so weiter. Aber halt keine konstruktive Antworten, sondern nur kritik. Darauf kann ich getrost verzichten.
 

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
34.911
Ort
SN
Der amd 3950x allerdings nicht. Selbst mit nur 6 echten und 16 virtuelle Kerne noch immer fast die selbe Leistung. Aber sobald ich smt Kerne reduziere und die echte rechnen lasse, sinkt die Leistung stärker ein, trotz das ich nur sehr wenige Kerne abgeschaltet hatte bei der Software. Ist die Anordnung bei AMD etwa anders als bei Intel das nicht Kern 0 ein echter ist sondern Kern 1? Das ich in Wirklichkeit die nicht die echten sondern die virtuellen Kerne bei der Software abgeschaltet hatte.
Es gibt keine "echten" und "unechten" Kerne. Es gibt auch keine "virtuellen" Kerne. Was erzählst du hier bitte?
Das Zauberwort lautet hier Threads. Gezählt wird in Threads!

Dem Prozessor ist das völlig egal, ob du Thread 0 oder Thread 1 unbelastet lässt. Die beiden Threads sind vollständig gleichberechtigt auf einem physikalischen Kern. Die Zählweise bei AMD ist dabei auch nicht anders als bei Intel. Thread 0 + 1 = Core 0, Thread 2 + 3 = Core 1 usw. usf.
Bei AMD kommt hinzu, dass der Prozessor je nach dem, um welches Modell es sich handelt, (ab Zen) in CCX aufgeteilt ist. Je CCX gibt es eigene Caches - einfach von vorn oder hinten in der Liste anzufangen Threads zu deaktivieren, ist zwischen AMD und Intel also nicht vergleichbar.
"6 echten und 16 virtuelle Kerne" ist damit ein Ding der Unmöglichkeit, das geht nicht!

Deine ganze Testerei in allen Ehren, aber das ist einfach so komisches Zeug - noch dazu in einer Software, wo du uns seit Wochen und Monaten erzählst in diversen Threads, dass der Spaß nicht richtig skaliert, teils deine Kisten instabil sind, du teils Versionen von Assbach nutzt usw. usf. Dann vergleichst du wild Ergebnisse irgendwelcher Leute im Netz mit deinen eigenen, ohne dass wirklich klar ist, was da wie und wo passiert, oder die Basis identisch ist.

Denn wenn die Software gut skalieren würde, dann wäre ja der 22 kernige xenon schneller als der 18 Kerner, trotz des geringen taktes. Und dann wäre die Geschwindigkeit nicht beim abschalten des hts schneller geworden. Das Verhalten ist also sehr skurill.
Hier ist schon das erste Problem in deiner Denkweise... Nirgendwo steht geschrieben, dass Takt, pro Takt Performance und Kernanzahl wirklich 1:1 in die Performance eingehen. Es kann also sein, dass die grob 20% mehr Kerne von 18C auf 22C nur 5% reale Mehrleistung bringen - der Takt wird aber recht sicher ziemlich 1:1 in die Leistung eingehen. Sinkt der Takt in diesem Beispiel!! also um mehr wie 5%, dann ist der 22C am Ende nicht schneller. Gleiches gilt für pro Thread/Takt Performance - die wieder nicht zwingend 1:1 skaliert.

Das Verhalten zu SMT (das meinst du wohl mit HT) ist auch nicht skurril, sondern logisch. Der Threadscheduler versucht so gut es geht nur einen der beiden verfügbaren Threads zu benutzen. ABER, das gelingt ihm im Zweifel nicht immer wirklich gut. Das heißt, wenn gar kein SMT aktiv ist, dann kann auch der zweite Thread nicht mit Aufgaben belastet werden - die am Ende im physischen Core dafür sorgen, dass deine zeitlich gebenchte Aufgabe langsamer ist als ohne SMT.
Unterm Strich wird SMT aber in der Masse aller Fälle nicht langsamer, sondern sorgt dafür, dass es overall schneller wird - du musst halt dazu auch die zweite/anderen Aufgaben benchmarken und nicht nur einen Teil. Jede Wette, dass der Prozessor in Summe mehr Aufgaben in der selben Zeit schafft als ohne SMT. Für nichts anderes ist SMT da - bessere Auslastung und damit mehr Leistung in Summe.

Für die meisten Gamer bspw. ist das aber dennoch ein Problem, weil die wollen nicht dass es in Summe schneller wird, sondern die wollen dass das Spiel nicht langsamer wird. Zusatzlast, die dafür sorgt, dass das Spiel weniger schnell berechnet wird, sorgt also schnell für den Gedanken, dass das deaktivieren von SMT für mehr Leistung sorgt. Real praktisch aber so nicht stimmt.

Und dann kam es mit den Transistoren, IPC und Fläche hier zum Thema. Dann schlug ich ne andere Denkweise ein, die dann dazu führte. Denn sonst würde es ja keine solche starke leistungsunterschiede trotz so unterschiedlichen Kern zählen geben.
Deine Rechnung mit strikt der Transistoranzahl geteilt durch die Kernanzahl ist nur halt ziemlicher Käse. Ein Prozessor besteht aus weit mehr als nur "Kernen" - allen vorran der ganze Cache, der viele Transistoren kostet und im Zweifle nicht ein einziges Prozent an Leistung bringt, nur weil dieser größer ist als bei anderen Modellen. Hier hat AMD mit ihrem MCM einen erhöhten Flächenbedarf, weil die CPUs viel mehr L3 Cache haben. Rein auf die DIE Size gesehen ist der L3 Cache ungefähr 1/3tel eines Zen2 Compute DIEs. Die Cores sind ein ebenso ganz grob 1/3tel und der Rest ist Anbindung und anderer Kram. Spielt aber nicht wirklich eine Rolle, ob das 100% stimmt oder nicht. Bei AMD verdoppelt sich mit dem zweiten Compute DIE aber eben auch der Cache - bei Intel NICHT. Mainstream S11xx Intels skalieren mit 2,5MB/Core L3 Cache. S2066 mittlerweile nur noch 1,375MB/Core an L3 Cache. Bei AMD sind das aktuell im direkten Vergleich 4MB/Core an L3 Cache.

Wie du vielleicht selbst erkennst, ist es völlig unsinnig diesen Zusammenhang komplett auszuklammern und stupide auf "Total Transistor Count / Core Count" zu rechnen, weil bei AMD viel viel mehr Cache vorhanden ist, der viele viele Transistoren "kostet" - zusätzlich zum IO DIE, der bei allen non APU AM4 CPUs immer gleich ist. Egal ob 6C oder 16C. Bei TR/Eypc wieder das gleiche, egal ob 8C Epyc oder 64C TR/Epyc, der IO DIE ist gleich und versäuft die gleiche Anzahl an Transistoren.
Weiterhin kommt dazu, dass gerade bei AMDs Umsetzung häufig der L3 Cache voll ausgebaut ist, obwohl es weniger aktive Cores im Compute DIE gibt. Beim 12C 3900X bspw. -> der halt also gar 5,33MB/Core an L3 Cache. Richtig übel kann das bei Epyc ausfallen, der 7262 hat 128MB und nur acht aktive Kerne. Das macht 16MB/Core an L3 Cache. Rechne einfach selbst. 3,9Mrd Transistoren pro Chiplet, davon sind ungefähr 2/3tel aktiv. Vier dieser Chiplets und dann noch der IO DIE, macht irgendwas um die 18-19 Mrd. Transistoren für diesen 8C Epyc. Ggü. einem 3700/3800X ist das Ding in deinem Anwendungsfall aber schlicht unterlegen - und der machts, trotz gleicher Archiektur, nur anderem Aufbau mit grob 6 Mrd. Transistoren.
Ich denke das Beispiel verdeutlicht ganz klar, wie unsinnig das mit der Transistor Count Rechnung hier wirklich ist... OT ist der Spaß dazu auch noch!
 

DTX xxx

Well-known member
Mitglied seit
03.05.2013
Beiträge
1.422
Bei Spiele wird sich nichts verändern und in MultiCore Anwendungen wird der 10 Kerner von Intel genau mittig zwischen 9900KS und 3900X liegen.
 

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
647
@fdsonne Du willst also mit damit sagen, daß es keinen Unterschied zwischen simulierte und nicht simulieren thread macht. Mir wurde allerdings damals gesagt das der simulierte thread nur 25 % Leistung von einem nicht simulierten thread hätte. Stimmt das etwa inzwischen etwa nicht mehr und ist das so bei AMD mit dem Amt etwa ganz anders als bei Intel.

Und na klar bringt mir l3 cache bei dieser Anwendung nix. Wichtig ist hier der l1 und l2 Cache bei den games. Der l3 cache wird also erst dann verwendet wenn die anderen nicht mehr ausreichen. Sinkt jedoch die Anforderung der Software so weit ab, dann wird der l3 cache allerdings nicht mehr dafür angefordert. Wenn also die Software nicht Bandbreitenabhängig ist sondern wie bei mir sterile berechnung dann merkt man das sehr gut. Ich konnte zwischen ddr4 2133 und ddr4 3600 keinen leistungsunterschied feststellen. Ich weiß allerdings das es bei manchen Anwendungen hier massive Unterschiede gibt. Bei mir ist das allerdings nicht der Fall und mit der selben Software, sowie quelldatei haben dies auch andere so festgestellt. Die haben allerdings andere System aber das selbe Verhalten. Du willst also sagen ich könne das nicht vergleichen. Aber warum kommen die dann auf die selben bzw ähnlichen Ergebnisse. Das kann kein Zufall sein. Es liegt also an der Software.
Und irgendwo wollte ich es also ja wohl ansetzen. Und wie du schon sagtest, 1/3 kann ich also weg rechnen. Dann bleibt ja am Ende ja nicht mehr soviel davon übrig. Das erklärt auch warum es die selbe Leistung trotz dem ersten Schein ja mehr Transistoren hat. Dennoch hat der 3950x mehr Leistung als der i9 7960x der ja auch 16 Kerne hat und trotz der 4,6 GHz dem 3950x nicht davon ziehen kann. Ich verstehe es ja nicht.
 

sch4kal

Active member
Mitglied seit
18.07.2016
Beiträge
1.478
Es gibt keine "echten" und "unechten" Kerne. Es gibt auch keine "virtuellen" Kerne. Was erzählst du hier bitte?
Das Zauberwort lautet hier Threads. Gezählt wird in Threads!

Dem Prozessor ist das völlig egal, ob du Thread 0 oder Thread 1 unbelastet lässt. Die beiden Threads sind vollständig gleichberechtigt auf einem physikalischen Kern. Die Zählweise bei AMD ist dabei auch nicht anders als bei Intel. Thread 0 + 1 = Core 0, Thread 2 + 3 = Core 1 usw. usf.
Bei AMD kommt hinzu, dass der Prozessor je nach dem, um welches Modell es sich handelt, (ab Zen) in CCX aufgeteilt ist. Je CCX gibt es eigene Caches - einfach von vorn oder hinten in der Liste anzufangen Threads zu deaktivieren, ist zwischen AMD und Intel also nicht vergleichbar.
"6 echten und 16 virtuelle Kerne" ist damit ein Ding der Unmöglichkeit, das geht nicht!

Deine ganze Testerei in allen Ehren, aber das ist einfach so komisches Zeug - noch dazu in einer Software, wo du uns seit Wochen und Monaten erzählst in diversen Threads, dass der Spaß nicht richtig skaliert, teils deine Kisten instabil sind, du teils Versionen von Assbach nutzt usw. usf. Dann vergleichst du wild Ergebnisse irgendwelcher Leute im Netz mit deinen eigenen, ohne dass wirklich klar ist, was da wie und wo passiert, oder die Basis identisch ist.


Hier ist schon das erste Problem in deiner Denkweise... Nirgendwo steht geschrieben, dass Takt, pro Takt Performance und Kernanzahl wirklich 1:1 in die Performance eingehen. Es kann also sein, dass die grob 20% mehr Kerne von 18C auf 22C nur 5% reale Mehrleistung bringen - der Takt wird aber recht sicher ziemlich 1:1 in die Leistung eingehen. Sinkt der Takt in diesem Beispiel!! also um mehr wie 5%, dann ist der 22C am Ende nicht schneller. Gleiches gilt für pro Thread/Takt Performance - die wieder nicht zwingend 1:1 skaliert.

Das Verhalten zu SMT (das meinst du wohl mit HT) ist auch nicht skurril, sondern logisch. Der Threadscheduler versucht so gut es geht nur einen der beiden verfügbaren Threads zu benutzen. ABER, das gelingt ihm im Zweifel nicht immer wirklich gut. Das heißt, wenn gar kein SMT aktiv ist, dann kann auch der zweite Thread nicht mit Aufgaben belastet werden - die am Ende im physischen Core dafür sorgen, dass deine zeitlich gebenchte Aufgabe langsamer ist als ohne SMT.
Unterm Strich wird SMT aber in der Masse aller Fälle nicht langsamer, sondern sorgt dafür, dass es overall schneller wird - du musst halt dazu auch die zweite/anderen Aufgaben benchmarken und nicht nur einen Teil. Jede Wette, dass der Prozessor in Summe mehr Aufgaben in der selben Zeit schafft als ohne SMT. Für nichts anderes ist SMT da - bessere Auslastung und damit mehr Leistung in Summe.

Für die meisten Gamer bspw. ist das aber dennoch ein Problem, weil die wollen nicht dass es in Summe schneller wird, sondern die wollen dass das Spiel nicht langsamer wird. Zusatzlast, die dafür sorgt, dass das Spiel weniger schnell berechnet wird, sorgt also schnell für den Gedanken, dass das deaktivieren von SMT für mehr Leistung sorgt. Real praktisch aber so nicht stimmt.


Deine Rechnung mit strikt der Transistoranzahl geteilt durch die Kernanzahl ist nur halt ziemlicher Käse. Ein Prozessor besteht aus weit mehr als nur "Kernen" - allen vorran der ganze Cache, der viele Transistoren kostet und im Zweifle nicht ein einziges Prozent an Leistung bringt, nur weil dieser größer ist als bei anderen Modellen. Hier hat AMD mit ihrem MCM einen erhöhten Flächenbedarf, weil die CPUs viel mehr L3 Cache haben. Rein auf die DIE Size gesehen ist der L3 Cache ungefähr 1/3tel eines Zen2 Compute DIEs. Die Cores sind ein ebenso ganz grob 1/3tel und der Rest ist Anbindung und anderer Kram. Spielt aber nicht wirklich eine Rolle, ob das 100% stimmt oder nicht. Bei AMD verdoppelt sich mit dem zweiten Compute DIE aber eben auch der Cache - bei Intel NICHT. Mainstream S11xx Intels skalieren mit 2,5MB/Core L3 Cache. S2066 mittlerweile nur noch 1,375MB/Core an L3 Cache. Bei AMD sind das aktuell im direkten Vergleich 4MB/Core an L3 Cache.

Wie du vielleicht selbst erkennst, ist es völlig unsinnig diesen Zusammenhang komplett auszuklammern und stupide auf "Total Transistor Count / Core Count" zu rechnen, weil bei AMD viel viel mehr Cache vorhanden ist, der viele viele Transistoren "kostet" - zusätzlich zum IO DIE, der bei allen non APU AM4 CPUs immer gleich ist. Egal ob 6C oder 16C. Bei TR/Eypc wieder das gleiche, egal ob 8C Epyc oder 64C TR/Epyc, der IO DIE ist gleich und versäuft die gleiche Anzahl an Transistoren.
Weiterhin kommt dazu, dass gerade bei AMDs Umsetzung häufig der L3 Cache voll ausgebaut ist, obwohl es weniger aktive Cores im Compute DIE gibt. Beim 12C 3900X bspw. -> der halt also gar 5,33MB/Core an L3 Cache. Richtig übel kann das bei Epyc ausfallen, der 7262 hat 128MB und nur acht aktive Kerne. Das macht 16MB/Core an L3 Cache. Rechne einfach selbst. 3,9Mrd Transistoren pro Chiplet, davon sind ungefähr 2/3tel aktiv. Vier dieser Chiplets und dann noch der IO DIE, macht irgendwas um die 18-19 Mrd. Transistoren für diesen 8C Epyc. Ggü. einem 3700/3800X ist das Ding in deinem Anwendungsfall aber schlicht unterlegen - und der machts, trotz gleicher Archiektur, nur anderem Aufbau mit grob 6 Mrd. Transistoren.
Ich denke das Beispiel verdeutlicht ganz klar, wie unsinnig das mit der Transistor Count Rechnung hier wirklich ist... OT ist der Spaß dazu auch noch!
Und dann gibt es ja auch noch die iGPUs bei den Intels, die ja auch Transistoren kostet...
 

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
647
Ja aber nicht bei den hedt Plattformen denn die haben ja keine integrierte gpu. Wir schreiben ja von den high-end CPUs. Und da hat auch AMD keine onboard gpu drauf. Also wenn dann schon gleiches recht für beide.
 
Oben Unten