Comet Lake-S soll am 30. April vorgestellt werden

Das ist, mit Verlaub, Blödsinn. Intel kann nurnoch da gegen AMD anstinken, wo eben nicht alle Kerne genutzt werden. Die 5GHz+ bringen eben nichts, wenn es 8-12 vs 12-16 Kerne geht. [...]

Du hast den Kommentar schon gelesen, oder? Er hat explizit den Takt, die Latenzen und das Zusammenspiel mit der GPU erwähnt; du darfst also getrost davon ausgehen, dass es sich um den Anwendungsbereich "Gaming" handelt.

Und da sieht es aktuell nunmal so aus, dass ein Intel 6-Kerner ohne HT, sprich der 9600K, bei ausreichender Chipgüte und entsprechendem Takt (nehmen wir hier mal 5.0 bis 5.1 GHz allcore an) samt RAM-Optimierung selbst das absolute Topmodell Ryzen 3950X bei optimalen Einstellungen in die Tasche steckt und "nur" in ein paar Games bzgl. der Frametimes mal Schwächen offenbart. Das zeigt doch schonmal, wie wenig relevant 6/6 C/Tvs 16/32 C/T sein können, wenn bei zweiterem Takt und Latenzen noch so weit hinterherhinken.

Entsprechend: Doch, die 5 GHz+ bringen sehr wohl was. Und das wird sich auch in naher Zukunft nicht ändern beim Gaming. Dazu fehlt es schlicht an weiterer Parallelisierbarkeit ab einem gewissen Punkt, weil Spiele nunmal hauptsächlich Echtzeit-Berechnungen erfordern. Dagegen gibt es auch keinen magischen Programmcode oder einen zu erwartenden Geniestreich eines Game Designers, d.h. das wird so bleiben.[/QUOTE]

Jetzt mal im Ernst... Ein 9900K(S) ist bei 5.3ghz schon schwer zu kühlen, was glaubst du wie das mit zwei Kernen mehr aussieht? Da stehen unter Volllast bestimmt 300W an, die weggekühlt werden müssen. Und selbst wenn das klappt sollte man sich fragen was man damit gewinnt (und zu welchem Preis). Übrigens sind 5,3ghz ggü. 5ghz satte 6% extra. Das ist so verdammt wenig, das lohnt kaum... Dann lieber auf die paar 100Mhz verzichtet und den Verbrauch halbiert.

Und damit beantwortet sich auch die Frage warum man mit einem 3900X bei etwas über 4ghz mehr als gut fährt. Viel weniger Abwärme, mehr Kerne und günstiger ist er auch noch...

"Mehr Kerne" ist und bleibt aber schlicht kein valides Argument, solange sich diese mehr Kerne nicht auch direkt in mehr Leistung niederschlagen. Aktuell ist da bei den 12 Threads des Ryzen 5 3600 oder des 8700k schon relativ Ende; bei den FPS sowieso und bzgl. Frametimes ebenso. Intel hat mit der kommenden Gen die Möglichkeit, größere Schwächen zB des o.g. 9600k (Preisgestaltung / teils schwache Frametimes durch fehlendes HT) auszugleichen, die dieser ansonsten sehr guten Gaming CPU im Weg stehen.

Am Ende hängt es bei Ryzen dabei tatsächlich hauptsächlich am niedrigeren Takt und vor allem an den Speicherlatenzen, dass man immernoch hinter Intel steht. Der 10600k mit 6C/12C wird ggf. bald ein günstigeres Facelift des 8700k bzw. ein 9600K mit HT mit weiter verbessertem IMC und besserem OC-Verhalten.

Wenn Intel hier preislich einen attraktiven Rahmen findet (und für 6 Kerne braucht es weder Wakü noch ein 250,-€-Board), reicht der in Verbindung mit E-Dies (die nun auch nicht maximal teuer sind) problemlos aus, um das CPU-Limit im Vergleich zu den Ryzen CPUs weiter nach oben zu verschieben und damit auch im Hinblick auf RTX 3000 / Big(ger) Navi erstmal besser dazustehen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Gegenteil, wenn Games in Zukunft mehr Kerne nutzen, werden die aktuellen AMDs besser da stehen, als die aktuellen Intels.
.
Wenn Games mehr Kerne nutzen- höre ich auch schon gefühlte fünf Jahre.
Tut sich aber nix-bis auf wenige Ausnahmen.
Im Gaming bleibt Intel "Benchmark" und das weiß wohl mittlerweile jeder.
 
Ja so ist das, Intel ist gut für games, die keine Kerne nutzen, da wo halt Kerne bzw. CPU Leitung gefragt ist, ist eben AMD besser, so kann jeder entscheiden, was für einen besser ist im individuellen Fall.
 
Du hast einen ähnlichen Vorteil auch bei allen Anwendungen die keinen hohen Core Count Unterstützen.
 
Hat da mal jemand einen guten Benchmark, also Spiele in 1080p, wo der 9600K auch drin ist? Ich kenn jetzt nur den von CB, wo als Sechskerner von Intel nur der i5-9400F und i7-8700K drin sind und letzterer gerne mal in Games an allen AMDs vorbei zieht, ersterer aber oft schwächer als der Ryzen 5 3600 ist.
Ich kann mit gut vorstellen, dass Intel mit 6 Kernen ab 5GHz in Spielen schneller ist als alle AMDs - die Frage ist, wieviel und zu welchem Preis. Die 5GHz erreicht man nur mit den K-CPUs und der 9600K kostet 30€ mehr als der 3600X und 60€ mehr als der 3600, nur der 9600KF ist auf einem Niveau mit dem 3600X. Der 9700K(F) ist dann gleich 70€ teurer als der 3800X. Dann muss man OCen, dazu braucht man ne gute Kühlung und das für einen Performancegewinn (und Vorsprung vor AMD) im wahrscheinlich einstelligen Prozentbereich.
Sobald es dann nicht mehr nur ums Gaming geht oder Games mal mehr als sechs bzw. acht Kerne unterstützen, ist AMD wieder vorne.

@torti : Da hat sich jetzt in letzter Zeit einiges getan, viele Games profitieren nun von sechs bis acht Kernen, wo man vorher mit maximal vier punkten konnte. Dadurch sind die aktuellen i5 und i7 bzw. Ryzen 4 und 7 optimal, die Ryzen 9 bringen jedoch keinen großen Vorteil.

@Tzk : So, wie ich das verstehe, regelt Ryzen das zwar alleine ganz gut, aber nur, wenn man nicht OCed. Wenn man OCed, dann gilt wohl nur der Takt für alle Kerne. Der ist dann etwas höher, als das was bei den CPUs ab Werk für alle Kerne anliegt, aber niedriger, als das, was bei weniger genutzten Kernen ab Werk anläge. Wieviel genau, ist wohl sehr individuell. Aber deshalb lohnt sich OC kaum, weil es einem mehr bringt, wenn ein Ryzen 3700X oder 3900X auch mit 8 bzw 6 genutzten Kernen hochtaktet, als wenn er nur mit der vollen Kernzahl OCed wird.
 
  • Danke
Reaktionen: Tzk
Die Tests beziehen sich immer auf ohne OC, da brauch man aber ehrlich gesagt sich auch keinen Intel kaufen.

Wer etwas Ahnung hat weiß um wieviel Prozent es hier geht und da reden wir hier nicht nur von 10-20% sondern mehr, was man an CPU Gaming Leistung rausholt.
Genauso bei Anwendungen sieht man gut bei Pc Mark10 da hab ich mit ner einfachen 2080 knappe 8500 Punkte.
 
@torti : Da hat sich jetzt in letzter Zeit einiges getan, viele Games profitieren nun von sechs bis acht Kernen, wo man vorher mit maximal vier punkten konnte. Dadurch sind die aktuellen i5 und i7 bzw. Ryzen 4 und 7 optimal, die Ryzen 9 bringen jedoch keinen großen Vorteil.

Bei ausgesuchten AAA Titeln spielt hier der NV Treiber maßgeblich eine Rolle - hast du keine 2080TI oder TitanRTX im Test, sondern was kleineres oder was von AMD, nimmt der Mehrwert durch mehr CPU Cores ab, weil ein Großteil der Skalierung nicht vom Spiel kommt. Keine Ahnung warum das nicht mal Jemand unter nachvollziehbar und brauchbaren Bedingungen (also nicht unterschiedliche Systeme mit unbekannten Einflüssen) nachtestet... Ist doch nicht erst seit gestern so -> aber immer wieder heißt es, die Games profitieren. Pustekuchen. Es gibt nur wenige Titel die nennenswert schneller werden.

Der größte Vorteil von mehr Cores bei ner sau schnellen GPU ist noch am ehesten, dass die Frametimes glatter werden - dummerweise hat hier ne Navi GPU mit Hardware Scheduler ggü. ner NV GPU mit Software Scheduler (und zu schmaler CPU) wieder ein Vorteil.



Btw. ist das MT Argument echt müßig - würde es um MT gehen müsstet ihr alle nen 3990er 64C TR haben. Warum ist das wohl nicht so?
Abseits der Cinebench und Co. Modebenchmarks definiert die eigene Anforderung eher die notwendige Breite der CPU. Ab einem gewissen Punkt spielt es fast keine Rolle mehr wie viele Cores du in den PC steckst - Software, die auf MT Ausgelegt ist, skaliert einfach. Klar oben fällt das etwas ab, aber ob 8, 16, 24 oder 32C ist selten die Frage. Die Software wird skalieren wenn man nicht gerade nur Modebenches nutzt. Bei all dem Rest wo MT nicht für eine Skalierung sondern für die Aufgabentrennung genutzt wird, kannst du auch in Jahren noch mit Cores drauf ballern wie du willst - das wird nicht besser. Bestenfalls kommen mehr Aufgaben dazu (wie in Games) - da wird immer mehr und mehr dran gebaut. Damit die Anforderungen steigen - es skaliert damit aber nicht auf mehr Cores (wird also obenraus nicht schneller) -> sondern lediglich langsamer wenn du nicht genug Basisperformance mitbringst.
Schau dir die Benches an - abseits von Civilisation und vllt noch AC bzw. der Sonderlocke Star Citizen ist >4C in Sachen Skalierung unter gleichen Bedingungen fast nichts zu holen. 50% mehr Cores bei ner Hand voll Prozent schneller ist nicht unbedingt viel. 100% mehr Cores bei zwei Händen voll auch nicht. Und dann kommt immernoch ein Teil vom Treiber (weil überall mit 2080TIs getestet wird)

Andersrum bringen dir in Extremszenen so simple Sachen wie IF-OC bei AMD oder RAM mit scharfen Timings und hohem Takt schnell mal 20, 30 oder 50% an Mehrleistung (IN der Szene mit Limit!!) - mit ner Core Verdopplung wird das nicht passieren. Zumindest bis auf wenige Ausnahmen nicht. (Civilisation, wo du bspw. die Zeit der Computerrechnung misst anstatt den Frames)
 
@Phoenix2000 : Das glaube ich ehrlich gesagt erst, wenn ich es schwarz auf weiss sehe, 20% mehr Gaming Leistung bei Intel mit OC als bei AMD. In einzelnen, sehr intelfreudigen Spielen vielleicht. Hier hat ein 9900KS in Anno 1800 20% mehr in FHD als ein 3900X, aber nurnoch 17% mehr als ein 3950X, in Far Cry sind es sogar 22% und 27% respektive, da ist aber auch jeder Intel mit 6 Kernen schneller als AMD. KC: Deliverance, Metro und Shadow of the Tombraider sind weitere Spiele, wo der 9900KS 15-20% schneller als der schnellste AMD ist. In den vier anderen Spielen sind es dann aber deutlich weniger als 10%.
In den Spielen, wo Intel gut abschneidet, ist der 8700K meist knapp über oder unter dem schnellsten AMD und es geht dann recht gleichmäßig hoch über 9700, 9900K zum 9900KS. Da scheint es also wirklich rein am Takt zu liegen.
 
ich sehe nicht das sich mit den neuen Intels großartig was ändert, wer im Gaming mit 60-90fps leben kann bzw auch wer in 4K spielt, wo ohnehin zu 99% die GPU limitiert, kann auf jeden Fall auch zu jeden beliebigem Ryzen 3XXX (ausser den Apus) greifen, wer 120fps+ haben möchte, sollte wie gehabt auf Intel setzen da hier durch die hohe SC Leistung und dem höheren Takt Allcore in Verbindung mit besseren Ram Latenzen einfach noch zusätzlich die letzten Fps auch in FHD und 1440p rausgequetscht werden.

und in Anwendungen ist und bleibt Amd relativ unangefochten, es mag sein das Intel mit dem 10 Kerner und dem hohen Allcore Takt hier etwas rankommt (trotzdem glaube ich nicht das man im Schnitt im Andwendungsbereich am 3900X und schon gar nicht am 3950X vorbei kommt), aber das will dann halt auch erstmal halbwegs leise gekühlt werden.
 
@Phoenix2000 : Das glaube ich ehrlich gesagt erst, wenn ich es schwarz auf weiss sehe, 20% mehr Gaming Leistung bei Intel mit OC als bei AMD. In einzelnen, sehr intelfreudigen Spielen vielleicht. Hier hat ein 9900KS in Anno 1800 20% mehr in FHD als ein 3900X, aber nurnoch 17% mehr als ein 3950X, in Far Cry sind es sogar 22% und 27% respektive, da ist aber auch jeder Intel mit 6 Kernen schneller als AMD. KC: Deliverance, Metro und Shadow of the Tombraider sind weitere Spiele, wo der 9900KS 15-20% schneller als der schnellste AMD ist. In den vier anderen Spielen sind es dann aber deutlich weniger als 10%.
In den Spielen, wo Intel gut abschneidet, ist der 8700K meist knapp über oder unter dem schnellsten AMD und es geht dann recht gleichmäßig hoch über 9700, 9900K zum 9900KS. Da scheint es also wirklich rein am Takt zu liegen.
Ich bin es leid jeden "Noob" irgendwas zu erklären oder zu beweisen, mir ist das auch Wurst was wer kauft, wir haben halt beide Plattformen mit OC ausgiebig getestet in allen Belangen.
Mit max. 24/7 OC beide Systeme CPU Gaming Leistung 3900X/9900K liegst du z.B. so ca. 25% bei BF5, Tombraider 35-40% etc., Anwendungen kein max. CoreCount meist weniger, bei effektiver max. Core Count Nutzung ist der 3900X in Anwendungen leicht schneller.

P.S.
Nimms mir nicht für Übel aber das nicht Glauben etc. kommt wirklich jedes Mal von irgend jemanden.
 
Ich bin es leid jeden "Noob" irgendwas zu erklären oder zu beweisen, mir ist das auch Wurst was wer kauft, wir haben halt beide Plattformen mit OC ausgiebig getestet in allen Belangen.
Ja, nur weisst Du, erzählen kann man vieles. Ist für mich auch durchaus interessant. Im Zusammenstellungsforum wird so konsequent nurnoch AMD empfohlen, dass man meinen könnte, Intel wäre Schnee von gestern. Man wird auch direkt angepöbelt, wenn man es wagt, Intel ins Spiel zu bringen, wenn Zocken die Hauptverwendung ist.
Da Zocken aber nunmal das Einzige ist, was ich mit dem Rechner mache, was wirklich Leistung erfordert, möchte ich durchaus mal Praxisnahe Benchmarks dazu sehen, wie so ein 9600K oder 9700K mit alltagstauglichem OC und Optimierungen gegen einen gut optimierten 3700X oder 3800X abschneidet, vielleicht auch mit allcore OC, um zeigen, was das bringt.
 
Guck mal im Benchmark Thread, reichen tun beide Systeme Locker unter 8Kerne mit HT würde ich aber nicht nehmen, du hast bei AMD aber auch Vorteile du wirst bestimmt noch mindestens eine neue Gen CPU auf der Plattform sehen und günstiger ist es auch.Dazu ist auch noch nen höherer CoreCount möglich, dagegen steht halt das derzeitige mehr an Leistung mit OC .
 
Wenn @Phoenix2000 das sagt und selber die Gelegenheit hatte zum testen und vergleichen wird das schon stimmen, zumindest für seine Testumgebung.
 
Wir haben das ja nun mit dem RamOC bis ins absolut noch machbare getrieben und getestet bis sonstwas.
Guck dir einfach mal mein 24/7 TimeSpy CPU Score´s an, Games skalieren da meist besser, der liegt 24/7 bei 14000 und leicht drüber bei 5,24Ghz 4x8GB 4400CL17-17.
Ein "normaler" 9900K hat 10500-11000 rum.
Max erreicht bei 5,45Ghz hab ich 14538 Punkte und da geht noch mehr.
https://www.3dmark.com/spy/10264176
Unbenannt.jpg


Da liegen die CPU´s so Standard, das sagt ja schon genug aus und der 9900K hat nur 8Kerne.
111.jpg
 
Ich bin es leid jeden "Noob" irgendwas zu erklären oder zu beweisen, mir ist das auch Wurst was wer kauft, wir haben halt beide Plattformen mit OC ausgiebig getestet in allen Belangen.
Mit max. 24/7 OC beide Systeme CPU Gaming Leistung 3900X/9900K liegst du z.B. so ca. 25% bei BF5, Tombraider 35-40% etc., Anwendungen kein max. CoreCount meist weniger, bei effektiver max. Core Count Nutzung ist der 3900X in Anwendungen leicht schneller.

P.S.
Nimms mir nicht für Übel aber das nicht Glauben etc. kommt wirklich jedes Mal von irgend jemanden.

Werde genau diesen Beitrag auch nur noch in Zukunft zitieren, danke dir :d Im Computernoob Forum glauben ja auch 99% dass RAM OC bei Intel nichts bringt und 3200 mhz ja OC wäre obwohl 4x32 mit 2666 den IMC viel mehr stresst als 2x8 mit 4000 :d
 
Das ist schade, dass Du das so siehst, denn 1. zeigt das Zitat von Phoenix2000 eine Haltung, die in keiner Weise dazu geignet ist, an diesen angeblichen Irrmeinungen etwas zu ändern und 2. hat auch sein nächster Post nicht viel geholfen, denn theoretische Benchmarks sind da wenig aussagekräftig. Es ist interessant, dass der 9900K mit extremem OC soviel in einem CPU-lastigen Benchmark zulegt, dass er einen 3950X überholt, und das obwohl der Benchmark ganz gut auf Kerne anzusprechen scheint, aber das ist nicht unbedingt auf Spiele übertragbar.
Außerdem werden einige jetzt wieder sagen, dass die AMDs mit Optimierungen wie RAM, IF-Takt usw. auch mehr erreichen.

Und zuguterletzt halte ich absolut garnichts von extremen RAM-OCs, die nur mit 2x8GB erreicht werden. Wir sind gerade schon in einer Übergangsphase von 16 zu 32GB, ich habe schon seit zwei Jahren 32GB DDR3-2800. Es wird nicht mehr lange dauern, bis 16GB in einigen Games nicht mehr reichen. Egal ob Ihr dann noch 2x8GB dazusteckt oder auf 2x16GB umsteigt, eure einstmals so hohen RAM-OCs könnt ihr euch dann erstmal abschminken.
 
Und zuguterletzt halte ich absolut garnichts von extremen RAM-OCs, die nur mit 2x8GB erreicht werden. Wir sind gerade schon in einer Übergangsphase von 16 zu 32GB, ich habe schon seit zwei Jahren 32GB DDR3-2800. Es wird nicht mehr lange dauern, bis 16GB in einigen Games nicht mehr reichen. Egal ob Ihr dann noch 2x8GB dazusteckt oder auf 2x16GB umsteigt, eure einstmals so hohen RAM-OCs könnt ihr euch dann erstmal abschminken.

Ich habe mal fett markiert, mit wieviel RAM er sein Ergebnis erreicht hat. Hinweis: 2x8GB waren es nicht.

Wir haben das ja nun mit dem RamOC bis ins absolut noch machbare getrieben und getestet bis sonstwas.
Guck dir einfach mal mein 24/7 TimeSpy CPU Score´s an, Games skalieren da meist besser, der liegt 24/7 bei 14000 und leicht drüber bei 5,24Ghz 4x8GB 4400CL17-17.
 
Ich bezuog mich hierauf
Im Computernoob Forum glauben ja auch 99% dass RAM OC bei Intel nichts bringt und 3200 mhz ja OC wäre obwohl 4x32 mit 2666 den IMC viel mehr stresst als 2x8 mit 4000 :d

Außerdem:
Wir haben das ja nun mit dem RamOC bis ins absolut noch machbare getrieben und getestet bis sonstwas.
Guck dir einfach mal mein 24/7 TimeSpy CPU Score´s an, Games skalieren da meist besser, der liegt 24/7 bei 14000 und leicht drüber bei 5,24Ghz 4x8GB 4400CL17-17.
Was ist mit 4x8GB einigermaßen realistisch erreichbar? Allein an den 5,24GHz der CPU sehe ich ja schon, dass da jedes Quäntchen Leistung rausgequetscht wurde. Habt Ihr auch mal getestet, wie der Zugewinn von Stufe zu Stufe ist und wo vielleicht eine Grenze erreicht wird, ab der kaum noch was passiert? Wenn jetzt DDR4-3600 bis 3800 gegenüber 2933 noch sagen wir 10% bringt (völlig aus der Luft gegriffen, des Beispiels zuliebe) und dann auf DDR4-4400 mit scharfen Timings aber nurnoch 1-2% dazukommen, dann stehen Aufwand und Kosten in keinem Verhältnis zum Gewinn. Ich habe Benchmarks gesehen, und das in 720p und CPU-lastigen Spielen, wo irgendwann der Zugewinn unter 1% lag.
 
Das ist schade, dass Du das so siehst, denn 1. zeigt das Zitat von Phoenix2000 eine Haltung, die in keiner Weise dazu geignet ist, an diesen angeblichen Irrmeinungen etwas zu ändern und 2. hat auch sein nächster Post nicht viel geholfen, denn theoretische Benchmarks sind da wenig aussagekräftig. Es ist interessant, dass der 9900K mit extremem OC soviel in einem CPU-lastigen Benchmark zulegt, dass er einen 3950X überholt, und das obwohl der Benchmark ganz gut auf Kerne anzusprechen scheint, aber das ist nicht unbedingt auf Spiele übertragbar.
Außerdem werden einige jetzt wieder sagen, dass die AMDs mit Optimierungen wie RAM, IF-Takt usw. auch mehr erreichen.

Und zuguterletzt halte ich absolut garnichts von extremen RAM-OCs, die nur mit 2x8GB erreicht werden. Wir sind gerade schon in einer Übergangsphase von 16 zu 32GB, ich habe schon seit zwei Jahren 32GB DDR3-2800. Es wird nicht mehr lange dauern, bis 16GB in einigen Games nicht mehr reichen. Egal ob Ihr dann noch 2x8GB dazusteckt oder auf 2x16GB umsteigt, eure einstmals so hohen RAM-OCs könnt ihr euch dann erstmal abschminken.
Naja, schau dir mal die Extreme Hall of Fame von TimeSpy an, da sind nur noch 3000 Threaripper an den oberen Plätzen beim CPU Score: https://www.3dmark.com/hall-of-fame-2/timespy+cpu+score+extreme+preset/version+1.0
Woran liegt es, Quad Channel RAM oder doch mehr Kerne ?
 
Sag Du es mir?
 
Was ist mit 4x8GB einigermaßen realistisch erreichbar?

4000 kann man eigentlich immer erreichen mit 4x8GB und T-Topologie, 4133-4200 sind auch nichts besonderes. Ebenso landet man mit 2x16GB bei 4000-4266.
 
Und, wie ist der Zugewinn ggü. 3600 oder 3800, besonders bei Intel?
 
Gegenüber 3600 relativ hoch.
 
Ich gehe mal davon aus, es liegt an beidem.
Ein 9900K wird nicht viel mehr mit Quad Channel heraus holen.
Wenn man Cache, RAM und Kerne vergleicht, bekommt man bei AMD mehr Hardware.

Es liegt aber immer noch viel an der API, also mit DX11 würde ich da jetzt auch kein 64 Kern support erwarten. ;)
 
Naja, schau dir mal die Extreme Hall of Fame von TimeSpy an, da sind nur noch 3000 Threaripper an den oberen Plätzen beim CPU Score: https://www.3dmark.com/hall-of-fame-2/timespy+cpu+score+extreme+preset/version+1.0
Woran liegt es, Quad Channel RAM oder doch mehr Kerne ?
Dein Link führt zum Time Spy extreme und da sind in der Tat die Kerne/Takt wichtiger. Da hänge ich mit meinem 3900X gaaanz locker einen 9900K ab. Ähnlich wie Cinebench. Nur gibt es kein Spiel daß alle Kerne nutzt, so wie hier oder im Cinebench.

Das Ergebnis von @Phoenix2000 ist vom normalen Time Spy und der reagiert sehr gut auf Ram Oc, eben ähnlich wie bei Spielen.
Es war ja auch kein Vergleich zwischen CPU X und CPU Y, sondern einfach ein Statement was Ram clocking mit der selben CPU bringen kann.
 
Zuletzt bearbeitet:
Das ist schade, dass Du das so siehst, denn 1. zeigt das Zitat von Phoenix2000 eine Haltung, die in keiner Weise dazu geignet ist, an diesen angeblichen Irrmeinungen etwas zu ändern und 2. hat auch sein nächster Post nicht viel geholfen, denn theoretische Benchmarks sind da wenig aussagekräftig.

Naja, es ist nunmal so, dass zB Phoenix2000 zu denjenigen gehört, die das mit anderen Luxxern so ziemlich im Direktvergleich über längere Zeit und eben doch in Games getestet hat. Jedesmal zig Screenshots / Benchmarks etc. rauszukramen, bis die Gegenseite (in diesem Fall: du) es dann letztlich doch einsieht, ist eben müßig.

Oder anders gesagt: Was hätten die testenden User hier in der Community davon, die "Laien" anzulügen bzw. über Testergebnisse etc. zu täuschen?

Außerdem werden einige jetzt wieder sagen, dass die AMDs mit Optimierungen wie RAM, IF-Takt usw. auch mehr erreichen.

Die ursprüngliche und korrekte Aussage von Phoenix2000 war allerdings die, dass der Intel @OC mit vollem RAM-OC je nach Spiel und Szene im CPU-Limit um 15 bis 40% am ebenfalls optimierten Ryzen (also inkl. 1:1 IF, inkl. RAM-OC und Timing-Optimierung bis zum letzten Quäntchen) vorbeiziehen kann, was wieder auf die Schwächen bei IF / Latenzen der Ryzen CPUs beim Gaming hinweist.

Und zuguterletzt halte ich absolut garnichts von extremen RAM-OCs, die nur mit 2x8GB erreicht werden. Wir sind gerade schon in einer Übergangsphase von 16 zu 32GB, ich habe schon seit zwei Jahren 32GB DDR3-2800. Es wird nicht mehr lange dauern, bis 16GB in einigen Games nicht mehr reichen. Egal ob Ihr dann noch 2x8GB dazusteckt oder auf 2x16GB umsteigt, eure einstmals so hohen RAM-OCs könnt ihr euch dann erstmal abschminken.

aerotracks hat dir ja schon aufgezeigt, dass die Ergebnisse von 4x 8 GB = 32 GB stammen. Zudem ist es mehr als zweifelhaft, wann 32 GB wirklich sog. "Pflicht" werden. Wer mit max. 8 GB VRAM (und davon meist nur 5 wirklich belegten GB) auskommt, wie aktuell wohl noch deutlich über 80% aller Gamer, der benötigt auch keine 32 GB Systemspeicher.
 
Dein Link führt zum Time Spy extreme und da sind in der Tat die Kerne/Takt wichtiger. Da hänge ich mit meinem 3900X gaaanz locker einen 9900K ab. Ähnlich wie Cinebench. Nur gibt es kein Spiel daß alle Kerne nutzt, so wie hier oder im Cinebench.

Das Ergebnis von @Phoenix2000 ist vom normalen Time Spy und der reagiert sehr gut auf Ram Oc, eben ähnlich wie bei Spielen.
Es war ja auch kein Vergleich zwischen CPU X und CPU Y, sondern einfach ein Statement was Ram clocking mit der selben CPU bringen kann.
Ok, ich habe es ja dazu geschrieben: Extreme

Das läuft bei mir auch extreme langsam @ 1440p DownSampling : https://abload.de/img/timespy_xtreme_stockn2k93.jpg
CPU Score 1K Punkte...bei 319.2 ms für ein Frame. (4 Kerne a 256Bit) :geek:
 
Ich denke mal ein Grundlegendes Problem liegt darin das das parallelisieren von Aufgaben teilweise nicht so einfach umzusetzen ist und auch nicht unbedingt immer schneller.
In vielen Fällen brauch man einfach keine zig Kerne.

Es ist halt auch ein unterschied ob eine CPU selber das komplette Bild berechnet wie bei Cinebench oder ob man vor allem Daten für die Berechnungen der wesentlich potenteren Grafikkarte zur Verfügung stellt.

Wie Igor auch bei Blender Render fest stellte ist da ein 9900k überlegen wenn man Cuda/Optix benutzt, ähnlich wie bei Games.
Die Grafikkarte wird da quasi ja nur von der CPU "beliefert".
 
Der Overhead für die Synchronisierung der Threads und die dafür nötigen API-Calls ist sehr hoch, bei DX12 zwar etwas geringer, aber auch noch vorhanden, und das Problem wird mit zunehmender Anzahl von Kernen/Threads auch nicht geringer.


Ich habe bei meinem S2066 acht oder 10 Kerner HT teilweise deaktiviert, weil es mit "nur" 8-10 physischen Kernen mitunter besser läuft, einfacher zu Kühlen ist, weniger Strom benötigt,

Was will ich mit 16 Kernen, wenn ich effektiv maximal 8-10 Nutze, da habe ich von höherem Takt einfach mehr, 16 Kerner habe ich schon vor Monaten wieder abgestoßen, selbst ein 12-Kerner war mir noch too much.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh