CPU-Marktanteile: AMDs Desktop-Anteil steigt stetig

Das stimmt doch gar nicht, nur waren die CPUs mit mehr als 4 Kernen eben HEDT CPUs und RYZEN ist im AM4 im Grunde auch als HEDT platziert worden, nämlich als Nachfolger der AM3+ "8 Kerner", auch wenn man darüber streiten kann, ob 4 Bulldozer Module einen echten 8 Kerner ergeben, während die kleineren FM3 Sockel (wo auch maximal 2 Module gab) eingestellt wurden.
Woah, jetzt machst du dir die Welt aber wie sie wie sie dir gefällt. :d
AM4 wurde nicht als HEDT platziert und war auch nie als solche gedacht. Dafür sprachen sowohl die Mainboard- als auch CPU-Preise. Mit dem Vorgänger AM3 hat technisch gesehen Ryzen kaum mehr was gemeinsam, das war quasi eine komplette Neuentwicklung. Da spielt es ebenfalls keine Rolle was du dir so einbildest, oder ob du darauf rumreiten musst, das der Sockel mit der Benamung AM4 halt nach AM3 kam.


Die AM4 CPUs hatten wie jede HEDT CPU auch keine iGPU und die Idee zu TR kam ja wohl erst später und TR waren im Grunde auch nur EYPC CPUs.
Als HEDT gedacht und auch platziert hat AMD Threadripper. Überraschung.... hatte einen anderen Sockel als die Consumer-Platform und sich auch preislich deutlich abgehoben.

Wo Intel auf der Consumerplatform mit 4 Kernen rumgeturnt ist und 6-Kerner als HEDT angepriesen hat, kam AMD mal eben mit 6-8 Kernen im Consumer- und 8-16 Kernen im HEDT-Segment an.

Ja, Threadripper kam ein bisschen später, aber das macht AM4 noch lange nicht zu HEDT. Mit Epyc hat das überhaupt nichts zu tun. Epyc ist weder HEDT noch Consumer sondern die Serverplatform... also der Gegenspieler zu Xeon. Mittlerweile hat AMD Threadripper als HEDT wieder eingestellt Gibts sogar doch noch, das macht die Einteilung dann ja sogar wieder einfacher. Es muss nicht jeder Anbieter jederzeit Produkte in jedem Segment haben und nur wenn er mal in einem Segment kein Produkt anbietet, wie es eben aktuell keine aktuelle HEDT-Platform gibt, werden nicht nach den Hirnpfürzen von irgendwelchen Leuten auf einmal irgendwelche CPUs oder Platformen auf andere Segemente umdeklariert, nur damit da wieder irgendwas ist.

Dazu kommt, dass damals bei AMD wie bei Intel bei den Mainstream CPUs der Fokus auf der iGPU lag, nicht darauf mehr Kerne zu bringen, was Intel aber für Cannon Lake mit 8 Kernern im Desktop und 6 Kernen im Notebook für 2018 geplant hatte. Das Märchen Intel hatte nie mehr als 4 Kerne gebracht, weil AMD keine Konkurrenz war, ist ein Märchen und nichts daran ist wahr.
LOL, ROFL :ROFLMAO:
Intel legte den Fokus also auf die iGPUs? Ach deswegen sind die Intel-iGPUs auch bis heute noch so überragend gut? :rofl:
Die Geschichte bestätigt dein Märchen doch sogar. Intel konnte sehr wohl mehr als 4 Kerne in einer CPU, wie du eben schon sagtest, gabs bei HEDT immerhin schon 6 Kerne und bei den Server-Xeons um 2009-2010 rum sogar schon 8-10 Kerner. Aber Intel hat sich knapp 10 Jahre lang auf seiner Marktposition ausgeruht, bzw. die Weiterentwicklung nicht markttauglich auf die Reihe gekriegt wie dein Link ja zeigt, und wollte am Produktsegment einfach viel zu lange nichts großartig ändern. Da spielst auch keine Rolle was sie irgendwann mal geplant hätten... und ein Link auf eine News das man 2020 mal mitgekriegt hat, das Intel wohl mal was in der Pipeline hatte, was aber nie auf den Markt kam, weil das Produkt nicht funktioniert hatte ist kein Gegenbeweis sondern eine Bestätigung dafür.

Aber egal, du wirst deine Meinung nicht ändern und ich meine nicht, auch nicht meine Meinung über dich!
Meine Meinung über dich hast du jedenfalls mal wieder hervorragend bestätigt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nicht die aktuellen Preise mit den Core Ultra vergleichen.

Auch dein i5-14400, den du hier als Beispiel nimmst, kostete Tray vor einem Jahr ~ 238 Euro. Ein aktueller Core Ultra 5 225 mit 6 P und 4 E-Kernen liegt aktuell bei ~ 181 Euro und besagter Ultra 5 245KF kostet ~ 251 Euro als Tray.
Stimmt ... allerdings kostete ein i5-14500 zur Markteinführung nur ne Winzigkeit mehr als der 14400er - ergo musste Intel da im Laufe der Zeit den Preis @ 14400 nach unten korrigieren. Das die Schere dann i-wann viel zu weit auseinander ging, scheint denen entgangen zu sein. i5-14500 und i5-14600(non-K) sind im Grunde obsolet wenns nen 14600K für unter 200 Ocken gibt!

Und genauso ist es beim aktuellen Core Ultra, den 235er und normalen 245er kauft keine Sau wenn ein CU5 245K für 255 EUR angeboten wird. Wobei ich den 245K auch noch für zu teuer halte, da kann ich auch gleich den nur ca. 35 EUR teureren CU7 265K nehmen. Also für mich herrscht da ein nicht nachzuvollziehendes Durcheinander bei den Intelschen CPU-Preisen.

Und den 265KF bekommst du boxed sogar für 269 Euro (8 Performance Kerne + 12 E Kerne). Ein Ryzen 7 7700x kostet boxed aktuell ~ 249 Euro also vergleichbar nur das der 265KF schneller ist.
Wenn schon Vergleich, dann aber bitte richtig und bei beiden Prozessoren die Variante mit iGPU wählen ... CU7 265K liegt aktuell bei knapp über 290 EUR! ;)
 
Please rename thread in "Holts Märchenstunde" bitte liebe Mods. Das ist einfach zuuuu gut hier gerade :d:d:d
 
Ich bewundere euch schon alleine dafür, daß ihr euch durch solche Textwalls überhaupt schlägt. Aber ja, mehr als konstant verbohrt ist es am Ende nicht.
 
Das stimmt doch gar nicht, nur waren die CPUs mit mehr als 4 Kernen eben HEDT CPUs und RYZEN ist im AM4 im Grunde auch als HEDT platziert worden, nämlich als Nachfolger der AM3+ "8 Kerner", auch wenn man darüber streiten kann, ob 4 Bulldozer Module einen echten 8 Kerner ergeben, während die kleineren FM3 Sockel (wo auch maximal 2 Module gab) eingestellt wurden. Die AM4 CPUs hatten wie jede HEDT CPU auch keine iGPU und die Idee zu TR kam ja wohl erst später und TR waren im Grunde auch nur EYPC CPUs.
Ich wollte wirklich INTEL Aktien kaufen, nach dem ich Dein Geschwurbel gelesen habe, sehe ich keine Zukunft für INTEL.😭
Beitrag automatisch zusammengeführt:

Ich bewundere euch schon alleine dafür, daß ihr euch durch solche Textwalls überhaupt schlägt.
Das glaubst Du doch selbst nicht, so viel Lebenszeit hat hier doch keiner, um dieses Kunststück zu bewältigen. :coffee2: :coffee2: :coffee2::coffee:
 
Wo Intel auf der Consumerplatform mit 4 Kernen rumgeturnt ist und 6-Kerner als HEDT angepriesen hat, kam AMD mal eben mit 6-8 Kernen im Consumer- und 8-16 Kernen im HEDT-Segment an.
Intel legte den Fokus also auf die iGPUs? Ach deswegen sind die Intel-iGPUs auch bis heute noch so überragend gut? :rofl:
Die Geschichte bestätigt dein Märchen doch sogar. Intel konnte sehr wohl mehr als 4 Kerne in einer CPU, wie du eben schon sagtest, gabs bei HEDT immerhin schon 6 Kerne und bei den Server-Xeons um 2009-2010 rum sogar schon 8-10 Kerner. Aber Intel hat sich knapp 10 Jahre lang auf seiner Marktposition ausgeruht, bzw. die Weiterentwicklung nicht markttauglich auf die Reihe gekriegt wie dein Link ja zeigt, und wollte am Produktsegment einfach viel zu lange nichts großartig ändern.
Darum bin ich damals auch vom 5820K auf den R7 1700 gewechselt. Das Upgrade war ja kostenlos für neue Garantie, weil damals jeder noch meinte AMD sei scheiße. Die CPU war trotzdem besser und vor allem sparsamer als der 5820, Takt und Singlethread waren recht identisch da meine CPU sowieso eine Krücke war (4,3 GHz bei 1,4 V).

Es war ein nötiger Schritt und sehr geil Intel mal so am Ende zu sehen. Dabei zeichnete es sich mit Zen 3 schon ab, jetzt dominiert AMD schon abartig. Trotzdem wird Intel weitermachen. Als Budgetoption sind die 12/13er in manchen Fällen legitim. Intel muss da über den Preis arbeiten. Ansonsten würde ich trotzdem eher AMD kaufen weil man immer aufrüsten kann, darum bin ich nun nach AM4 auf AM5. Es ist klar dass Zen 6 draufpassen wird und Zen 7 vermutlich auch. Die 200er Intel sind einfach viel zu teuer für das was sie bieten und dann die tote Plattform die offenbar keine weitere Generation tragen wird.

Intels momentane Zukunft liegt eher im Bereich GPUs so wie es aussieht. Pleite gehen werden sie auf jeden Fall nicht. Ist AMD auch nicht obwohl damals schon immer gelacht wurde dass AMD bald dicht macht.
 
Wobei ich den 245K auch noch für zu teuer halte, da kann ich auch gleich den nur ca. 35 EUR teureren CU7 265K nehmen. Also für mich herrscht da ein nicht nachzuvollziehendes Durcheinander bei den Intelschen CPU-Preisen.
Das stimmt schon, der 265K(F) ist einfach ungewöhnlich günstig, sowohl im Verhältnis zum 285K(F) darüber als auch und gerade mit Blick auf die Ultra 5 darunter. Aber vielleicht liegt es daran, dass es ja wohl zwei CPU Chiplets gibt, eines mit 6+8 Kernen und eines mit 8+16 Kernen, letztere sind nur in den Desktop Ultra 7 und Ultra 9 und einigen HS CPUs verbaut, während die meisten Arrow Lake das 6+8 Die haben. Vielleicht hat Intel das Verhältnis zwischen beiden bei der Bestellung der Dies bei TSMC falsch eingeschätzt und lässt zu viele 8+16 Kerner fertigen und verkauft daher den 265K(F) so günstig.
Wenn schon Vergleich, dann aber bitte richtig und bei beiden Prozessoren die Variante mit iGPU wählen ... CU7 265K liegt aktuell bei knapp über 290 EUR!
Im Prinzip geben ich Dir da recht, aber nicht jeder möchte eine CPU mit iGPU und manche kaufen eine CPU nur obwohl sie eine hat. Da es keinen 7700XF gibt, ist für alle die keinen Wert auf eine iGPU legen, weil sie eben sowieso eine Graka haben, der Vergleich zwischen dem 7700X und dem 265KF durchaus legitim.
 
Man muss schon sehr pro Intel sein, um die Instabilitäts Probleme von Intels 13. und 14. Gen schönzureden, und Ryzens auf das selbe Niveau zu stellen.
Allgemein musste man sehr pro Intel sein, um mit dem Auftauchen von Zen noch irgend ein Argument für Intel im Desktop zu finden (Holt hat sicher ein Essay darüber auf Lager).

Wobei ich meine, dass sich das momentan möglicherweise wenden könnte.
AMD ist zu teuer geworden und hat bei Zen 5 imho nachgelassen (weil die Zen 5 CPUs einfach zu teuer geworden sind und die Mainboards/Chipsätze vom P/L her nicht so wirklich passen).
Zeitgleich ist Intel mit den Preisen für ihre Ultras (den weniger interessanten 285er mal außen vor) sowie die Z-Boards wieder in ein realistisches Spektrum gerückt.
 
Und bald kommt Core 300 mit schnellerem Ringbus-Takt und mehr Chiptakt. Also ca 5-10% mehr Leistung.
Eig müsste AMD dann mal runter mit den Preisen.
Aber ist wohl noch zu hohe nachfrage.
Aber wie ein Österreicher einst sagte. Mit dem Angriff Novas wird das alles schon in Ordnung kommen :fresse:
 
AMD ist zu teuer geworden und hat bei Zen 5 imho nachgelassen (weil die Zen 5 CPUs einfach zu teuer geworden sind und die Mainboards/Chipsätze vom P/L her nicht so wirklich passen).
Zeitgleich ist Intel mit den Preisen für ihre Ultras (den weniger interessanten 285er mal außen vor) sowie die Z-Boards wieder in ein realistisches Spektrum gerückt.
1. Das ist aber auch nicht so einfach und damit nicht so günstig V-Cache drunter zu bauen.
Das ist leider so ein aufgebautes Sprungbrett für Zen6, der dadurch nicht günstig ausfiel und auch nicht alles ausspielt was bereits vorbereitet wurde. Zen6 dürfte von P/L her besser aussehen.

2. "Zeitgleich" war das keineswegs. Die ersten 3 (?) Monate waren die Preise lachhaft bis lächerlich. Das änderte sich erst als man merkte, die PR kann da auch nicht weiter helfen.

@Nighteye
Dir ist schon klar, daß ein 300er der im Schnitt 7,5% schneller ist als ein 200er, den 9800X3D nicht tangiert? So nennt die Presse das Ding auch "Mini-Refresh".
Und wir werden auch erstmal sehen was dieses Teil sich dafür an Watts reinzieht...

@all
Wie man es auch dreht und wendet, bis AMD auch allgemein keine festen 40% am x86-Markt hält, ist dieser Markt nicht gesund. Bleibt nur zu hoffen, daß Intel bis dahin nicht Chapter 11 unterliegt, aber jetzt schon Intels Rückehr kann man sich beim gesunden nicht-fanboy Verstand nicht wünschen (zu früh).
Wenn der Speck für AMD zu schnell wieder weniger wird, dann leidet drunter auch die GPU-Sparte und dann gäbe es auch nie mehr vernünftiges P/L bei Nvidia.
 
Zuletzt bearbeitet:
1. Das ist aber auch nicht so einfach und damit nicht so günstig V-Cache drunter zu bauen.
Spannend, schau mal, zu welchem Preis man nen 7800x3d mal bekommen hat.
2. "Zeitgleich" war das keineswegs. Die ersten 3 (?) Monate waren die Preise lachhaft bis lächerlich. Das änderte sich erst als man merkte, die PR kann da auch nicht weiter helfen.
So what, jetzt isses seit ner Zeit so, und das zählt.
Zudem zählt halt auch, dass der Z890 verhältnismäßig gut ist und der X870E verhältnismäßig scheiße.


Mir gefällt die Sache mit den E-Cores immer noch nicht, aber bitte.. vllt. funktioniert das ja wirklich irgendwann mal brauchbar.
Wenn der Speck für AMD wieder weniger wird, dann leidet drunter auch die GPU-Sparte und dann gäbe es auch nie mehr vernünftiges P/L bei Nvidia.
Die AMD GPU-Sparte ist jetzt schon nur Steigbügelhalter für Intel, Familie regelt.

AMD versucht ja noch nicht mal ne sinnvolle Alternative (XTX Nachfolger) zu machen, warum nur? Wäre ja kein Thema, meinentwegen sollen sie Crossfire wieder auspacken und / oder ne Dualchip-Karte machen wie früher, so what... alles machbar als "5090 Killer" (2x "9070XT" a 32gb würden ca. kosten, was ne 5090 kostet und wsl. ähnlich brauchbar sein).
 
Mir gefällt die Sache mit den E-Cores immer noch nicht, aber bitte.. vllt. funktioniert das ja wirklich irgendwann mal brauchbar.
In 3 Jahren geht Intel zu SMT. Also P&E Cores sind dann bestimmt weg. (Vermutung meinerseits)
Dann wird der Support über die Jahre nur noch schlechter.
Und der ist ja sogar heute in der 3ten Gen schon schlecht. Viele neuen Spiele achten nicht auf P&E und laufen langsam.
 
In 3 Jahren geht Intel zu SMT. Also P&E Cores sind dann bestimmt weg. (Vermutung meinerseits)
Kommt, das hatten wir schon, diese These habe ich bereits aufgestellt, meine Hand sogar ins Feuer 🫳dafür gelegt,

nichts ist passiert und ich durfte meine Hand behalten.-------------------------------------------------------🔥🔥🔥
 
Wobei ich meine, dass sich das momentan möglicherweise wenden könnte.
AMD ist zu teuer geworden und hat bei Zen 5 imho nachgelassen (weil die Zen 5 CPUs einfach zu teuer geworden sind und die Mainboards/Chipsätze vom P/L her nicht so wirklich passen).
Zeitgleich ist Intel mit den Preisen für ihre Ultras (den weniger interessanten 285er mal außen vor) sowie die Z-Boards wieder in ein realistisches Spektrum gerückt.
Wie kommst du darauf, anfangs ja das ist immer so, aber jetzt bekommt man zB den 9700X unter 300 € der 9600X sogar unter 200. Das sind Preise wie zu Zen 1. Dafür bekommt man eine ganze Menge geboten. Was überteuert ist der 3D und zwar nur der. Weil der so gehyped wird und jeder den haben muss, zumal der konkurrenzlos ist wenn man das Maximum haben will. Man braucht keinen 3D. Der 9700X ist besser als der 5700X3D und kommt auf das Level eines 13/14900K, zumindest was Spiele betrifft. Dabei ist er noch extrem sparsam. Von Zen 4 auf Zen 5 lohnt natürlich nicht so aber wer jetzt noch auf Zen 3 hängt für den lohnt das durchaus. Ich werde den 3D einfach überspringen da er nicht mehr im Preis sinkt, wenn er es dann mal tut ist Zen 6 draußen und dann ist er eh uninteressant. Zumal mit Zen 6 gute Chancen auf günstige 8/10 Kerner stehen da sie mehr Kerne auf dem CCD haben. Für Gamer werden das gute Zeiten.
Spannend, schau mal, zu welchem Preis man nen 7800x3d mal bekommen hat.

AMD versucht ja noch nicht mal ne sinnvolle Alternative (XTX Nachfolger) zu machen, warum nur? Wäre ja kein Thema, meinentwegen sollen sie Crossfire wieder auspacken und / oder ne Dualchip-Karte machen wie früher, so what... alles machbar als "5090 Killer" (2x "9070XT" a 32gb würden ca. kosten, was ne 5090 kostet und wsl. ähnlich brauchbar sein).
Den hätte ich gern gehabt aber erst danach gewechselt, der günstige 3D war damals mit ein Anreiz es zu tun. Der 9800X3D ist irgendwie unverhältnismäßig teuer, wenn man mal die aktuellen Neupreise nimmt:

Irgendwie bizarr, da man beim großen mehr CPU pro Euro bekommt. Sind ja immer noch zwei volle CCDs nur einmal Cache drauf. AMD lässt sich den Cache hier fürstlich bezahlen. Nett ist er schon bringt aber nicht in allen Szenarien überhaupt so viel dass man da von lohnenswert sprechen kann. Das Geld ist in besserem (mehr) RAM oder einer dickeren GPU oft besser investiert. Gerade beim RAM wird gern gespart, mittlerweile würde ich schon 64 GB empfehlen. 32 sind so ziemlich das Minimum für ein aktuelles System weil 16 schon grenzwertig sind. Wer es nicht wahrhaben will schaut mal dieses Video (und das ist nichtmal eine Highend GPU):
- Scheinbar startet es mit 8 GB gar nicht erst.

AMD hatte wohl irgendwas in Planung hat es dann aber eingestampft. Warum wissen nur die. Bitte kein Dualchip einfach nur eine neue XTX mit 8192 Shadern von denen wie RDNA4 die hat. Das wäre dann vielleicht auch noch bezahlbar im Gegensatz zur 5090. Bei den CPUs wird AMD so oder so dominieren. Da bleibt nur zu hoffen dass sie nicht auch die Preise langfristig steigern.
 
Spannend, schau mal, zu welchem Preis man nen 7800x3d mal bekommen hat.
Da war der V-Cache noch drauf :fresse: Und man muss auch "gleiche Tageszahl nach Launch" vergleichen. (falls es da Unsicherheiten gibt...)

Nein :), das mit den E-Cores funktioneirt bisher nur bei Apple. Weil sie eben über alles selbst bestimmen (Firmware, OS, Treiber). Das wird auch mit TitanLake wieder begraben und SMT - übrigens, kommt wieder zurück.

Die AMD GPU-Sparte ist jetzt schon nur Steigbügelhalter für Intel, Familie regelt.

AMD versucht ja noch nicht mal ne sinnvolle Alternative (XTX Nachfolger) zu machen, warum nur? Wäre ja kein Thema, meinentwegen sollen sie Crossfire wieder auspacken
Das haben sie früher versucht. Das bringt NULL. Die Leute lästern nur oder meckern, man zeigt erst richtig wie man nicht an NVs Spitze kommt :fresse: Also beschlossen sie endlich ein pragmatisches Vernunftprodukt für einen sinnvollen Teil des Marktes zu machen. Und die XT verkauft sich wohl ziemlich gut. (ich glaub die non-XT gibt es nur, damit es nicht heißt, sie haben nur ein einziges Modell rausgebracht :hust:)

Was du meinst sind, aus der BWL-Sicht und gegenüber der Konkurrenz, nutzlose Husarenritte. Wo man eigentlich froh sein sollte, daß sie solchen Blödsinn nicht mehr machen...

@Niftu Cal
Der 9800X3D ist eine CPU die zur 5090 noch genauso passt wie sie es zu einer 6090 passen wird. Und alles andere drunter sowieso. Für eine CPU mit der man sich über Jahre kaum Gedanken machen muss, verlangt AMD halt Stück mehr.
REAL, abseits der Launchtester-Welt, hängen um die 90% der Spiele sowieso im GPU-Limit.
 
Zuletzt bearbeitet:
Das sind Preise wie zu Zen 1
Ja, 8 Jahre. :fresse:
Das ist ungefähr so attraktiv wie ein 7700k gegen nen 2600k zu tauschen, lol...

Sorry, wenn du mir jetzt damit kommst, dass die 8 Core CPU heute das gleiche kostet wie vor 8 Jahren... ja ne, da bin ich raus, IPC hin oder her.
Das haben sie früher versucht. Das bringt NULL.
Erklär das meinem HD6970 Gespann, das hat wunderbar funktioniert.
Was du meinst sind, aus der BWL-Sicht und gegenüber der Konkurrenz, nutzlose Husarenritte.
Unsinn, Crossfire (SLI) kostet dich erstmal "nix", wenn du einfach die gleiche Karte 2x verkaufen kannst. Geht super auf Masse.
 
Wer kauft/fährt denn bitte heute daheim SLI? Und Crossfire? Egal welche Einzelne das in welchen Forem bejubeln, Lisa macht nichts mehr was voraussichtlich mehr kostet als es bringt. Irgendwelche Aktionen nur des Namens oder Prestiges wegen - oder auf absolutes Biegen&Brechen dem Verkürzen von Abständen zum König - sind Wirren der vergangenen Tage.

Ich habs nicht beschlossen, aber ich finde es ok. Wer es bis heute nicht ok findet sollte irgendwann anfangen damit klarzukommen.
 
Wer kauft/fährt denn bitte heute daheim SLI? Und Crossfire? Egal welche Einzelne das in welchen Forem bejubeln, Lisa macht nichts mehr was voraussichtlich mehr kostet als es bringt. Irgendwelche Aktionen nur des Namens oder Prestiges wegen - oder auf absolutes Biegen&Brechen dem Verkürzen von Abständen zum König - sind Wirren der vergangenen Tage.

Ich habs nicht beschlossen, aber ich finde es ok. Wer es bis heute nicht ok findet sollte irgendwann anfangen damit klarzukommen.
Ein Chip muss reichen, alles andere ist nicht effizient. Ich bringe das gekühlt, manche eher nicht.
 
Wer kauft/fährt denn bitte heute daheim SLI? Und Crossfire?
Keiner, weils das aktuell nicht gibt.

Aber was soll bitte schlecht daran sein?
Ob du jetzt 1x 5090 oder 2x 9070XT reinsteckst, so what?
Kosten tut das nicht viel, die Karten selbst bleiben ja mehr oder weniger die gleichen... für 1440p nimmst 1 Stück, für 4k nimmst 2 Stück davon, fertig.

Wäre halt der einzige (einfache) Weg, wie man mit AMD vernünftig 4k verwenden kann.
Aktuell ist es halt so, dass AMD einfach nichts im Angebot hat, was wirklich 4k-tauglich wäre.

Ein Chip muss reichen, alles andere ist nicht effizient. Ich bringe das gekühlt, manche eher nicht.
Wie auch immer das gemeint sein soll. Wüsste jetzt nicht, was an einer 5090 effizienter ist.


Naja, mal sehn, was kommt. Würde mich wundern, wenn CF nicht ein Revival erlebt.
 
um mit dem Auftauchen von Zen noch irgend ein Argument für Intel im Desktop zu finden

Alles auserhalb von Spielen, mit vordernder Software (MC) die häufig auch längere Niedriglast Zeiträume umfasst. Da hat man dann den Vorteil der Idlelastaufnahme! Alles ausser den APUs ist bei AMD ordentlich drüber an der Steckdose.

Kann aus dem Grund auf Arbeit keine AMD Systeme hinstellen, der Workload besteht aus einer relativ kurzen CPU, GPU, Speicher und Massenspeicher Intensiven Aktion, gefollgt von einer langen Sichtungszeit im Idle. Da verliert AMD dann bis auf die APUs, vielleicht wird es mit einer 16 Kern APU samt deutlich schnellerer Grafik dann mal was mit AMD.
 
Zuletzt bearbeitet:
Wäre halt der einzige (einfache) Weg, wie man mit AMD vernünftig 4k verwenden kann.
Aktuell ist es halt so, dass AMD einfach nichts im Angebot hat, was wirklich 4k-tauglich wäre.
Das ist richtig. Wo ist das Problem damit, wirtschaftlich gesehen? Das ist jetzt das erste mal seit wievielen Jahren (?) gewesen, daß sie gegen NV ein attraktives Modell haben. Welches sich übrigens auch oberhalb der Erwartungen verkauft (auch nicht einfach nur laut AMD). Quasi Neuanfang also :d Die Treiber haben sie ordentlich nachgewürzt, FSR4 ist auf dem Wege und sieht tatsächlich passabel aus.

Es gab für die GPU-Sparte schon miesere Zeiten oder?
 
Kann aus dem Grund auf Arbeit keine AMD Systeme hinstellen, der Workload besteht aus einer relativ kurzen CPU, GPU, Speicher und Massenspeicher Intensiven Aktion, gefollgt von einer langen Sichtungszeit im Idle.
Das ist schon bisschen speziell, wenn das tatsächlich eine starke Last ist. Oder? ;) Aber ja. Das stimmt so. Das wäre tatsächlich ein Idealjob für die APUs.
 
..als Linkshänder fällt einem die Kassenprothese halt nur nicht immer gleich sofort auf.. ..kommt aber noch! (y)
Netter versucht, das funktioniert nur bei @Holt, ich merke aber schon, dass Du aus leidvoller Erfahrung sprichst.:LOL:
Alles auserhalb von Spielen, mit vordernder Software (MC) die häufig auch längere Niedriglast Zeiträume umfasst. Da hat man dann den Vorteil der Idlelastaufnahme! Alles ausser den APUs ist bei AMD ordentlich drüber an der Steckdose.

Kann aus dem Grund auf Arbeit keine AMD Systeme hinstellen, der Workload besteht aus einer relativ kurzen CPU, GPU, Speicher und Massenspeicher Intensiven Aktion, gefollgt von einer langen Sichtungszeit im Idle. Da verliert AMD dann bis auf die APUs, vielleicht wird es mit einer 16 Kern APU samt deutlich schnellerer Grafik dann mal was mit AMD.
Das ist ja so wichtig, deswegen verliert INTEL beständig Marktanteile(y)
 
Kann aus dem Grund auf Arbeit keine AMD Systeme hinstellen, der Workload besteht aus einer relativ kurzen CPU, GPU, Speicher und Massenspeicher Intensiven Aktion, gefollgt von einer langen Sichtungszeit im Idle. Da verliert AMD dann bis auf die APUs, vielleicht wird es mit einer 16 Kern APU samt deutlich schnellerer Grafik dann mal was mit AMD.
Das ist nicht verkehrt, trifft aber auf den durchschnittlichen Luxxer sehr wenig zu.

Man kann so ne "APU" btw. auch kaufen seit Zen, das ist nicht so en "meh" wie die FM Dinger.
Nicht zu vergessen, die Pro-APUs die selbst mit dem billigen B-Mainboard (einiger Hersteller) "richtiges" ECC konnten, die waren schon okay, gabs immerhin mit (4-) 6-8 Cores zu absolut verträglichen Preisen, die iGPU war auch okay (bis auf ihren PCIe-Passthrough Reset-Bug, der wsl. 0,05% der Nutzer tangiert hat).

Hab da ein paar Cezanne laufen (Office-PC und Server, alles mit ECC; weil ichs kann), astrein. Stimmt aber, dass der Verbrauch z.B. eines 5900X am X570 deutlich höher ist.


Aber ja, auch Mobile waren die Intel-CPUs vllt. besser geeignet.
Aber nachdem wir hier "Desktop" im Topic haben und ich das auf "uns Luxxer", "Gamer" und "Home-Workstation" Leute beziehe.. lass ich das so stehen. :-)
Das ist richtig. Wo ist das Problem damit, wirtschaftlich gesehen?
Naja, so bleibt an ihnen halt der Ruf kleben, dass der Kram nix taugt.
Ist so, der durchschnittliche Kunde bekommt den 5090 Hype mit und kauft dann ne 5060 um auch cool zu sein.

Zudem fehlender Wettbewerb der die Preise eben so hochtreibt, ich unterstelle AMD da Mithilfe.

Man muss schon ein ordentlicher Fanboy sein, um sich sowas schön zu reden.
Und wie du siehst, fällt keiner auf deine Lügen herrein...
Naja, würde gern wissen, wie man das bei Legacy Software macht...
Ist das im Kernel so gut implementiert?

Wir haben teilweise 30-40 Jahre alten Code... Copy&Paste und Aufgeblasen bis zum geht nimmer, ist halt mal so. Durchs ChatGPT Coding wird das alles nur noch schlimmer, wenn die Leute dann Codefragmente aus ChatGPT zusammenwursten.

Ich bin bei dieser P/E Sache sehr zwiegespalten und mittlererweile wäre ich bereit sowas mit Arrow zu testen (weil die Plattform einfach ganz rund wirkt).
Einerseits ist die Idee ja super
Andererseits wohl echt schwer, hinsichtlich so viel Legacy und potentiellen Problemen, die sowas bringt.
 
Naja, so bleibt an ihnen halt der Ruf kleben, dass der Kram nix taugt.
Ist so, der durchschnittliche Kunde bekommt den 5090 Hype mit und kauft dann ne 5060 um auch cool zu sein.

Zudem fehlender Wettbewerb der die Preise eben so hochtreibt, ich unterstelle AMD da Mithilfe.

Man muss schon ein ordentlicher Fanboy sein, um sich sowas schön zu reden.
:hust: Das sind Marketingsprech-Blasen von vor Corona. Betrachtet man es pragmatisch dreht sich das mit den Fanboys... Weil einem jemand einzureden versucht, eine 5090 verkauft die 5060, entspricht das nicht umgehend der Realität entsprechen. Die Realität ist, daß die 9070XT sich für AMD auch ohne eines Galionsmodells GUT verkauft. Thats all. Du kannst das noch 10x ignorieren, sie tut es trotzdem.

Was du herbeifantasierst - wobei zugegeben geht es nicht um dich an sich, davon gibt es Legionen - sind nur persönliche Befindlichkeiten. Das hat nichts mit dem Markt oder Marktwirtschaft zu tun. Denen auf der AMD-Seite fehlt das Galionsmodell um auf die andere Seite mit Kaka werfen zu können. Die auf der anderen seite finden das aber auch nicht ok, weil NV sie dadurch noch mehr melkt als ohnehin.

Für Nichtforisten spielt beides keine Geige. Sie kaufen wofür die Kohle reicht und die machen auch den meisten Umsatz. Von jenem Kuchen die 9070XT im Gegensatz zu vielen vorherigen Gens soweit nun ausreichend abbeißt, daß man sie wirtschaftlich als ein gutes Produkt bezeichnen kann. Endlich etwas was auch wirklich Geld bringt und nicht nur bestenfalls eine schwarze Null schreibt.

Nein, man kann damit nicht mit Screenshots vom aufgedrehten 4k Pathtracing in Cyberpunk angeben. Dafür musst du halt 2400€-2700€ ausgeben :fresse: Man ist hat jetzt mit einer GPU endlich einen Zen+ Moment. Irgendwie nicht wirklich der passende Zeitpunkt um wie davor weiter rumzuheulen.
Imho sollte man sich noch die Zeit dafür nehmen um noch zu schauen was aus RDNA5 wird. DA sollen wieder auch Modelle kommen die sich mit den entsprechenden 80ern von NV duellieren können sollen. Bei RDNA4 war vom Anfang an klar (gesagt worden) was kommt.

Jetzt haben wir August 2025 und es wird weiter genauso Gepladdert wie kurz vor dem Launch. Check ich nicht :hmm:
 
Wie auch immer das gemeint sein soll. Wüsste jetzt nicht, was an einer 5090 effizienter ist.


Naja, mal sehn, was kommt. Würde mich wundern, wenn CF nicht ein Revival erlebt.
Ach ich meine damit eigentlich nur das es in Zukunft vielleicht mehr Richtung stärkerer iGPU geht. Wäre ja praktisch aber ist mit dem Speicher halt nicht so einfach.
 
Naja, für so "einfache Sachen" reicht ja eine aktuelle iGPU allemal, für Office und Medien-Betrieb.

Insofern versteh ich nicht, wie man PCs ohne iGPU kaufen kann, ist für die "Nachnutzung" eigentlich ziemlich blöd... bzw. auch bei GPU Ausfall, Fehlersuche etc. ganz nützlich... man muss ja nicht immer zocken.
Bzw. gibts auch alte Spiele die trotzdem nice sind... RTCW mal wieder durchspielen ist auch 2025 noch nice.

Für so richtig dickes 1440/4k Gaming wird ne iGPU nie reichen.. insofern.. joa.
Aber stimmt schon, das mit dem Unified ist schon interessant, wo die Reise da hingeht, auch mit dem AMD Strix Halo und so.


Ist halt "für uns" "Desktop-User" nicht wirklich optimal, wenn man Mainboard, CPU, RAM und GPU quasi als Bundle kaufen muss... nimmt halt die Flexibelität raus und am Ende hast ein Kompaktsystem, wenns ganz frech läuft (wie beim Apfel) hast noch ne SSD verlötet.
Ist für Upgrade-Wege und Preis-Gestlatung halt richtig übel, wenn du dann z.B. für RAM / SSD einfach ein vielfaches vom Marktwert aufzahlen musst mangels Alternative.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh