CPU-Marktanteile: AMDs Desktop-Anteil steigt stetig

Stimmt, denn das passt nicht zu dir. Viel mehr verteidigst du Intel bis aufs Blut.
Vor allem leidet er an irgend etwas das ihn dazu bringt in jedem AMD topic das Thema Intel breit zu latschen bis zum geht nicht mehr. Nervt nur ganz leicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Doch vor 2 Monaten ersetzte ich mein 4 Jahre altes XMG Gaming/Workstation AMD Notebook mit RTX 3060 gegen ein Honor MagicBook Pro 14 mit Intel Core Ultra 285H.
An der Kiste will ich rein garnichts aussetzen, aber eine Gegenüberstellung zu XMG sollte das wohl eher nicht werden oder? Das hört sich auch so an als wenn es da nichts vergleichbares von AMD gäbe (?)
Aber kann schon sein. So wirklich ernst ist AMD für mich eh erst mit der aktuellen Generation (Mobile) eingestiegen.

FRAGE: Nur noch 30% Intel. Von? Wie hat sich das in den letzten 10 Jahren bei euch entwickelt?

@all
Ich hatte eine Wissenslücke. Ich dachte imemr neben den Enthusiasten - wofür auch immer man sich da enthusistisch zeigte - war HEDT für Leute die eine Workstation brauchten udn sich keine fertige Kiste von XY kaufen wollten.

Ich muss zugeben, da ich irgendwie keine Kaltstartprobs habe - nutze ich fürs Knechten den X99 Taichi mit dem Xeon weiterhin sehr gerne. Und nicht irgendeinen halb-priopriäteren Mist wo schonmal nichts von Noctua direkt läuft ;)
 
Zuletzt bearbeitet:
Dennoch war es die erste richtig erschwingliche HEDT

Ich fand LGA1366 auch schon sehr erschwinglich, und extrem spaßig noch dazu. 8-)

Da hat es echt gewundert warum Leute noch Quadcore nehmen, vielleicht sind manche auch zu dumm zum übertakten.

Mit den Hasis waren einfach höhere Taktraten drin, was damals in Spielchen mehr gebracht hat als 2 Cores mehr.

Doch bis 2027 soll ja alles in die Cloud kommen

Herzliches Beileid. :oops:
 
Und was Laptops angeht... :rolleyes: :fresse:

 
An der Kiste will ich rein garnichts aussetzen, aber eine Gegenüberstellung zu XMG sollte das wohl eher nicht werden oder? Das hört sich auch so an als wenn es da nichts vergleichbares von AMD gäbe (?)
Aber kann schon sein. So wirklich ernst ist AMD für mich eh erst mit der aktuellen Generation (Mobile) eingestiegen.

FRAGE: Nur noch 30% Intel. Von? Wie hat sich das in den letzten 10 Jahren bei euch entwickelt?

@all
Ich hatte eine Wissenslücke. Ich dachte imemr neben den Enthusiasten - wofür auch immer man sich da enthusistisch zeigte - war HEDT für Leute die eine Workstation brauchten udn sich keine fertige Kiste von XY kaufen wollten.

Ich muss zugeben, da ich irgendwie keine Kaltstartprobs habe - nutze ich fürs Knechten den X99 Taichi mit dem Xeon weiterhin sehr gerne. Und nicht irgendeinen halb-priopriäteren Mist wo schonmal nichts von Noctua direkt läuft ;)
Teilweise OT:

Nein, es ist kein direkter Vergleich zum XMG. Das Notebook von XMG spielt in einer anderen Klasse mit einer performanten aber Watt fressenden 8 Core CPU mit vollwertigen Kernen, mit16 Threads und eigener Grafikkarte. Ich hatte es im Einsatz Leistung hungrige Arbeiten (Gaming, VMs, Videobearbeitung usw.), als Ersatz-Gerät und für den mobilen Einsatz. Für alles andere hatte ich ein Samsung Tab S9+ 512.
Ich hatte dann teilweise beide Geräte mit, wenn ich für länger Unterwegs war. Das Nervte mich schon, da das Notebook mit Netzteil mit knapp 4 kg auf die Waage brachte.
So richtig anfreunden, konnte ich mich nicht wirklich mit dem Tab S9 für Office-Aufgaben oder Dergleichen. Ich habe stattdessen meist das Notebook benutzt. Größerer Bildschirm, besseres Handlung, vor allem die Tastatur usw.
Das Tablet nutzte ich eigentlich nur noch überwiegend für Multimedia und Sofa-Surfen 8-)

Mit dem Wechsel zum Honor MagicBook Pro, konnte ich beide Anforderung gut verbinden. Der Intel Core Ultra 9 285H ist eine sehr gute CPU von Intel, Das Notebook ist ziemlich kompakt, gute GPUi, viel Speicher, Touchscreen und ein sehr gutes OLED-Display. Dazu noch eine verdammt gute Akkulaufzeit. Dazu hat es gerade mal 1059€ im Summersale bei Honor gekostet.

Ich war wirklich überrascht, wie gut das Teil ist, insbesondere die Intel CPU/iGPU. Meiner Meinung nach, derzeit eines der besten Geräte auf dem Markt, quasi ein Geheim-Tipp. Zumindest aus meiner Sicht.

Mit Arrow Lake Architektur Intel inzwischen vieles richtig gemacht. Doch das ist bisher nicht so richtig am Markt angekommen. Mit den Architekturen davor, wurden einfach zu viele Fehler gemacht.
AMD hat in der Vergangenheit auch so manche falsch gemacht, doch jetzt machen sie viele richtig.

Mir persönlich ist es egal. Ich kaufe Produkte nicht Marken bezogen, sondern, wer bietet das beste Produkt an das meine persönlichen Präferenzen gut befriedigt, zu einem Preis den ich bezahlen will.
Punkt, aus.
Ob das Intel, AMD, Nvidia oder sonst wer ist, spielt für mich keine große Rolle.
 
Mit Arrow Lake Architektur Intel inzwischen vieles richtig gemacht. Doch das ist bisher nicht so richtig am Markt angekommen. Mit den Architekturen davor, wurden einfach zu viele Fehler gemacht.
Würde ich so nicht sagen, ich glaube Du meinst mehr die Fertigung als die Architektur. Aber bei Arrow Lake hat Intel einen gewaltigen Fehler gemacht: Den RAM Controller nicht auf die gleiche Tile wie die CPU Kerne zu packen! Damit hat man die RAM Latenzen verschlechtert und dies geht eben auf die Gamingperformance und nur darauf schauen viele Heimanwender, gerade auch hier im Forum.
 
Aber bei Arrow Lake hat Intel einen gewaltigen Fehler gemacht: Den RAM Controller nicht auf die gleiche Tile wie die CPU Kerne zu packen! Damit hat man die RAM Latenzen verschlechtert und dies geht eben auf die Gamingperformance
Ach ist deswegen ein 3nm TSMC Arrow Lake schlechter als ein 10nm Raptor Lake bei Battlefield 6 ? (Sowohl in Absoluter Leistung als auch in FPS pro Watt) ?
Ich hatte mich schon gefragt wie das sein kann, weil die E Cores massiv aufgebohrt wurden und es einen Massiven Fertigungsvorteil gibt.
Die Architektur Arrow Lake ist schon mega flawed.
 

Anhänge

  • BF6 CPU vergleich.jpg
    BF6 CPU vergleich.jpg
    137,4 KB · Aufrufe: 35
  • 1755675272192.png
    1755675272192.png
    107,9 KB · Aufrufe: 34
Nighteye, nerve nicht und mache mich nicht immer blöd von der Seite an, nur weil du ein Beispiel gefunden hast, wo jemand, mit welchen Einstellungen auch immer, so eine hohe Leistungsaufnahme mit einem 285K beim Spielen (und wer weiß was da nach nebenbei läuft) hinbekommen hat. Lies lieber was HL hier selbst im Review des 285K für eine Leistungsaufnahme in Spielen ermittelt hat:


Die deckt sich auch weitgehend mit den anderen Review von Arrow Lake, die im alle bei Spielen eine deutlich geringere Leistungsaufnahme als seine Vorgänger attestiert haben! Irgendwelche Screenshots ohne Quellenangabe und Beschreibung der kompletten Testbedingungen sind total wertlos, genau wie jeder Beitrag der sich auf so einen Mist stützt!
 
Nighteye, nerve nicht und mache mich nicht immer blöd von der Seite an
Was bildest du dir eigentlich ein ?
Was unterstellst du mir das ich dich nerven will ?
Willst du mir das Recht meiner Meinung absprechen ?
Ich mache dich auch nicht Blöd von der Seite an. Du hast vielleicht nerven. Hab mal ein bisschen mehr Respekt und lass deinen Frust bitte nicht an mir aus. Danke dir.
total wertlos, genau wie jeder Beitrag der sich auf so einen Mist stützt!
Zur Quelle:
Hier:

Zum Thema:
Es ging mir eher 2t ranging um den Verbrauch, sondern erstrangig um die schwache Leistung in BF6.
Meine frage ist: Wie kann es sein dass der 285K da so lahm gegen Raptor Lake ist, obwohl mehr IPC bei den Kernen und 3nm tsmc vs 10nm Intel.

Edit: Hier noch ein schönes Beispiel von Hardware Unboxed.
Warum ist der 265K hier lahmer als ein R5 7600X ohne X3D ? Der Raptor Lake ist immer schneller als ein 7600X.
Ich bin bei PCGH & Hardwareluxx alle Benchmarks durchgegangen. In keinem Spiel war der 7600X auch nur annähernd so schnell wie ein zb 14700K.
Der 265K würde also auch gegen einen 14700K verlieren, wie im Bild unten.
Kein Wunder das AMD mehr Marktanteile bekommt.
Intels Raptor Lake war eine Zeitbombe und Intels Core Ultra Slow war ein Experiment das je nach Software Okay ist, oder die Total-Katastrophe.

Und verzeih falls dich das jetzt wieder "Nervt". Es ist Meine Meinung zu der ich komme wenn ich so viele Beispiele sehe wo Raptor Lake schneller in Spielen ist.
 

Anhänge

  • 265K slower then 7600X Tested in 3Q 2025.jpg
    265K slower then 7600X Tested in 3Q 2025.jpg
    108,1 KB · Aufrufe: 13
Zuletzt bearbeitet:
Was für Spiele zb ? Kumpel von mir wollte mit Potenter iGPU Forza Motortsport (2023) zocken, leider nichtmal nah an 30fps gewesen. Irgendwas mit 10-20fps, auf sehr niedriger Auflösung Low details.
Und das Spiel ist wirklich gut Optimiert und nicht Hardwarelastig. (Muss ja auch auf Xbox One laufen)
Sorry. Habe dein Post übersehen. Forza spiele ich leider nicht. Derzeit World of Warships oder Mafia.
Ich kann mal Cyberpunk oder ähnliches die Tage probieren. Es gibt aber ein paar Tests in YouTube. Ich verlinken sie später. Ich bin gerade unterwegs.
 
Es geht auch anders als dein Rosinenpicken!
Dein Benchmark ist Flawed, hat PCGH selbst in den Kommentaren zugegeben.
Also du betreibst das Rosenpicken, da du fehlerhafte benchmarks benutzt, wie PCGH selber zugab.

PCGH sagte in den Kommentaren, bei dem Test wurden die AMD CPU,s nichtmals zur hälfte ausgelastet durch einen Bug im First Day Early Acsess.
Der Bug war keine 2 tage später behoben, und damit auch alle Werte wieder extrem anders.

Aber das zeigt was für ein unsachlicher Intel Liebhaber du bist das du das scheinbar nicht mal bemerkt hast. Wie kann man nur so in eine Marke verliebt sein ?
Ich bin weder Pro AMD noch gegen Intel da ich mir einen Nova Lake holen will, daher kann ich sachlich sagen, du bist wirklich nicht neutral.

Ich mein wie wenig muss man sich mit Hardware auskennen, um nicht zu sehen was da für fehlerhafte werte vorliegen.
Hast noch schön die offensichtlichen CPU,s da in deinem Screen ausgeblendet was :lol:weil es dann besser zu deiner Propaganda passt 😜
Hier mal die fehlenden CPU,s eingeblendet.
Wir sehen da ein Zen 3 R5 5600 (ohne X) ist mal eben auf 7950X3D Niveau. Und der 9950X3D ist dann mal eben 120% schneller.
Man muss sich nicht gut mit Hardware auskennen um zu erkennen, da stimmt was vorne und hinten nicht.
Also wie kann man so doppelmoralisch sein und solche Mega Rosinen von Bugy benchmarks als argument nutzen, und anderen Rosinen unterstellen ?
Bist damit der für mich unprofessionellste Poster im ganzen Forum.
 

Anhänge

  • 1755759309968.png
    1755759309968.png
    40,3 KB · Aufrufe: 18
Aus "Fanboy" Sicht bestimmt, aus Kundensicht -> Warum?
weil es kunden gibt, wenn auch offensichtlich nicht dich, die nicht gerne unbegrenzt viel für ihre hardware bezahlen und die auch gerne fortschritt sehen und nicht wie zu zeiten von intels quasimonopol vom core 2 quad bis zum kaby lake beim quadcore stehen bleiben wollen?
wenn man natürlich keinen wettbewerbsbedingten fortschritt will und die preise einem vollkommen egal sind, dann hast du recht. dann ist wettbewerb egal und fanboytum bestimmt (warum auch immer) was erstrebenswertes.
Beitrag automatisch zusammengeführt:

Es war ein nötiger Schritt und sehr geil Intel mal so am Ende zu sehen.
kein hersteller sollte am ende sein. je ausgeglichener ein markt ist, des so mehr müssen die hersteller über ihre produkte und preise punkten und davon profitiert am ende der konsument. denn wer schrott baut oder zu viel verlangt, der verliert marktanteile. wer einen technologischen vorsprung vor der konkurrenz erarbeiten kann oder besonders günstig ist, der gewinnt marktanteile.
 
Zuletzt bearbeitet:
Die Architektur Arrow Lake ist schon mega flawed.
Besser als 13/14 allemal, zudem das Gesamtpaket überraschend vernünftig ist.
Diese Screens sind komisch, da die GPU dort überall ziemlich viel Last hat, ist also kein "CPU-Limit getunter" Bench.
Edit: Hier noch ein schönes Beispiel von Hardware Unboxed.
Naja, fairerweise muss man sagen, dass diese "nur" 353 fps vom 265k ausreichend sind.

Wenn das Ding dafür entsprechend sinnvoll (sprich günstig, sparsam und gute Ausstattung / Mainboards) ist, warum nicht?
 
Diese Screens sind komisch, da die GPU dort überall ziemlich viel Last hat, ist also kein "CPU-Limit getunter" Bench.
Findest du ? Sieht für mich eher normal aus.
Besonders wenn man sich den 9800X3D als vergleich herannimmt.
9800X3D -- : 260 fps | 94% GPU Last | 322W GPU Verbrauch
14900K ----: 209 fps | 82% GPU Last | 292W GPU Verbrauch
Erscheint mir stimmig.
Hier noch eine andere stelle: (Er spielte ja mit seinen Squad Kameraden auf dem selben Server und die bewegten sich alle zusammen, daher besserer Test geht kaum)
Der 285K hat da ganz massiv das nachsehen gegenüber dem Raptor Lake.
Und klar reichen die FPS hier für BF6 auch aus.
Aber es gibt auch spiele wo es nicht reicht wenn man einen Rückschritt kauft. Daher finde ich die Argumentation seltsam.
Das erinnert mich an damals der Bulldozer Release, wo man nicht mal die eigenen Vorgänger (Phenom II) in Spielen schlagen konnte.
 

Anhänge

  • 1755764609014.png
    1755764609014.png
    192,1 KB · Aufrufe: 8
  • 1755765013967.png
    1755765013967.png
    12 KB · Aufrufe: 7
Zuletzt bearbeitet:
Mir nicht, >80% GPU Last ist unpassend, wenn ich ne CPU benchen will.


Keine Sorge, ich bin kein Intel Fanboy und auch nicht im Holt-Fanclub. Aber trotzdem...
 
Die Architektur Arrow Lake ist schon mega flawed.
Woran machst du das fest? daran, dass ein bis zur kotzgrenze aufgebohreter 14900KS marginal schneller ist (über alle spiele, nicht nur in einem einzelfalll!) als ein weitaus sparsamerer und langlebigerer 285k? arrow lake war ein großer schritt in die richtige richtung und ist eine sehr gute architektur. dass amd gerade die nase vorne hat, macht arrow lake nicht schlecht. intel lag seinerseits viele jahre am stück deutlich vorne, über einige jahre sogar mit immer neuen aufgüssen einer einzigen architektur (sky lake++++). arrow lake ist seit dem wohl intels größter schritt nach vorne, auch wenn man das nicht immer an der nackten gamingleistung ablesen kann.
 
>80% GPU Last ist unpassend, wenn ich ne CPU benchen will.
80% GPU Last bedeutet, CPU Limit. Und wenn du siehst das ein 9800X3D die GPU fast auf 100% bringt, spricht es um so mehr für ein CPU limit.

Woran machst du das fest? daran, dass ein bis zur kotzgrenze aufgebohreter 14900KS marginal schneller ist als ein weitaus sparsamerer und langlebigerer 285k?
Hast du das Bild nicht gesehen ?
1755765256260.png


9800X3D -- 268fps | 95% GPU Load | 112W CPU
14900K --- 244fps | 92% GPU Load | 164W CPU
i9 285K --- 194fps | 82% GPU Load | 178W CPU

Ergo ist der 285K der schwächste und benötigt gleichzeitig am meisten Energie.

PS: Hier im Hardwareluxx Core 200 OC thread hat ein auf Effizient Optimierter 265K schon bei 20% CPU last in Wow 90W verbrauch. (Also fast so viel wie der 9800X3D bei Volllast in BF6)
 
wie gesagt, ausreißer gibt es immer. über alle spiele hinweg ist der 14900KS aber kaum noch schneller und das auch nur so lange er nicht degeneriert weil er im gegensatz zum 285k überzüchtet ist. wenn ich zwischen den beiden wählen müsste, dann würde ich ohne lange zu überlegen immer den 285k nehmen.
 
Nein, 82%-95%, das ist zu hoch für so einen dynamischen Wert.
Mit ner 4090, die auf 82%-95% läuft ne CPU benchen wollen? Sauber ist das nicht, fertig.

Ein realistisches Gesamt-Bild mag das ergeben, aber gesonderter CPU-Benchmark ist das keiner, sorry.
Man kann schon sagen, dass der 285k hier an seine Grenze kommt.

Unterm Strich muss man halt sagen, dass der 265k dem 285k gleichwertig ist und man mit dem rechnen sollte (so wie auch 9950x3d vs 9800x3d)... und da ist das Gesamtbild vom 265k + Z890 P/L mäßig und Ausstattungsmäßig halt so gut und rund, dass man sich die Alternativen erstmal schönreden muss (speziell den 14900er).
 
wenn ich zwischen den beiden wählen müsste, dann würde ich ohne lange zu überlegen immer den 285k nehmen.
Ist klar das der 285K bei 3nm TSMC auch manchmal Effizienter ist je nach Software.
9800X3D ist noch in 4nm TSMC
Raptor Lake in 10nm Intel 7.
Der 285K hat von den 3 CPU,s damit die beste Fertigung mit abstand.
Ich bin mal gespannt wie das nächstes Jahr wird wenn AMD auf 2nm geht.
Aber Intel wird mit Nova dann endlich auch mal einen dicken Cache bringen. Dann wird Intel wieder konkurrenzfähig in Spielen sein. Da bin ich 100% sicher.

Man sollte jetzt auf keinen Fall auf Core 200 gehen wenn man hauptsächlich Leistung zum Zocken benötigt.
Ein 285K bringt mit 100% Volllast bei meinem Lieblingsspiel nur 41fps.
Nur zum Arbeiten ist 285K besser, quasi wie damals bei Bulldozer vs Phenom II :fresse:
Die CPU Situation ist sehr gut vergleichbar mit damals.
Phenom II = Raptor Lake (Gut in Spieleleistung)
Core 200 = Bulldozer (Schlecht in Spieleleistung, gut in Anwendungen)
Nehalem ist Zen 4 X3D (Besser als Phenom II & Bulldozer)
Sandy Bridge ist Zen 5 X3D (Meilenweit besser als Phenom II & Bulldozer)
 

Anhänge

  • Star citizen 285K 100% CPU Load (156W) 41fps.jpg
    Star citizen 285K 100% CPU Load (156W) 41fps.jpg
    68,7 KB · Aufrufe: 5
Findest du ? Sieht für mich eher normal aus.
Du hast nicht einmal einen 9800X3D und reißt die klappe dermaßen weit auf. Respekt muss man sich verdienen. Dazu gehört auch, dass man andere Meinungen respektierst, was bei dir vollkommen fehlt.
Ich habe beides hier (9950X3D geköpft mit DirectDie) nutze den aber nicht, weil die Plattform für mich nicht geeignet ist bzw. zu viele Einschränkungen mitbringt.

Bildschirmfoto vom 2025-08-21 10-54-35.png
 
@pwnbert
Da ich keinen 9800X3D besitze, darf ich nicht über 9800X3D sprechen.
Du hast nicht einmal einen 9800X3D.
Alle Benchmarks die ich verlinke sind dadurch ungültig.
Die werden erst gültig wenn ich den 9800X3D besitze.
Respekt muss man sich verdienen
Und Respekt habe ich auch nicht verdient, weil den muss ich mir erst verdienen.
Ironie Off:
Und so einen Stumpfsinnigen kommentar likest du ? Sagt viel über dich aus pwnbert.
 
Ich "kenne" Schrotti seit 23 Jahren, er ist nicht dämlich.
Beitrag automatisch zusammengeführt:

Worum gehts dir eigentlich?

Arrow-Bashing? Ja okay, kann man machen, aber... so what?
Intel-Fanboys ärgern? Ja, kann man auch machen, aber wozu?

So schlecht ist Arrow nicht... wofür entscheidest du dich, wenn du nen brauchbaren Universal-PC brauchst?
265k + Z890 Steel-Legend oder 9700X + B850 Steel-Legend?
Vergleich mal die beiden preisgleichen und vergleichbaren (gleiche MB Serie) Systeme (CPU und Mainboard inkl. Ausstattung).


Ich halte nichts von dem Fanboygelaber - auf beiden Seiten.
 
Zuletzt bearbeitet:
klar reichen die FPS hier für BF6 auch aus.
Ist klar das der 285K bei 3nm TSMC auch manchmal Effizienter ist je nach Software.
zum Arbeiten ist 285K besser
Du siehst anscheinend nur das Kritische.
Das ganze Lob für Arrow Lake bitte nicht übersehen.
Arrow Lake hat durchaus seine Berechtigung, wie ich selber schrieb.
Wer nicht gerade Spiele mit hoher CPU Last spielen will (Hallo Star Citizen), und eher Rendering betreibt hat mit Arrow Lake eine CPU die gute Preis Leistung hat.
Quasi wie damals bei Bulldozer. AMD war in Preis Leistung ungeschlagen damals bei Anwendungsleistung.
Meinen FX8 hab ich damals für 130€ bekommen. Das war ein Schnäppchen.
Intel ist quasi das was AMD vor 14 Jahren war. Super Budget CPU Hersteller.
Und nächstes Jahr ändert sich das, denn ich sagte:
Intel wird mit Nova dann endlich auch mal einen dicken Cache bringen. Dann wird Intel wieder konkurrenzfähig in Spielen sein. Da bin ich 100% sicher.
 
Wo bin ich ignorant? Ich nutze beide Plattformen, habe im Notebook einen AMD Ryzen Prozzi (8845HS), weil der eben effizient ist, und Arrow Lake da noch nicht im Notebook verfügbar war.
Also nicht von Dir auf andere schließen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh