94 % Marktanteil: NVIDIA dominiert den Markt für Desktop-Grafikkarten

Hast du den Rest meines Posts gelesen ?
Also auch was ich den anderen Zitaten geantwortet habe ?
Darauf bist du noch nicht eingegangen.

Da wurde von mir erklärt, laut Lisa Su (AMD Chefin) war RDNA 3 ladenhüter und RDNA 4 ist es laut mehreren Meldung nicht.
AMD kommt kaum mit der Produktion hinterher. Die Nachfrage ist größer als das Angebot sagte sie dieses Jahr.
Also selbst die Technische Unterlegenheit spielt hier lediglich die Nebenrolle.
Die Hauptrolle ist, Nvidia stellt schlicht und einfach viel mehr her.

Weil selbst wenn Radeons Technisch und Featuremäßig gleichauf wären, stellst du jedes Jahr 95% weniger her als dein Konkurrent, verlierst du Marktanteil.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit der Verfügbarkeit ist auch Quatsch jede 9070xt als bsp ist bei uns verfügbar und lieferbar

Wenn dem so wäre dann wäre hier alles restlos ausverkauft siehe 5090 Release dort wurde alles gekauft noch bevor es gelistet wurde und auch in anderen EU Ländern wurde es direkt gekauft nur um eine zu bekommen

Beim 9800x3d war es so mit der Nachfrage aber ganz bestimmt nicht bei rdna4
 
Ich habe übrigens mal Informationen gesammelt.
AMD,s Radeon sparte befindet sich wohl wirklich im Downfall. (Anspielung beabsichtigt)

Noch 2010 hat Radeon 28,9 Millionen Dedizierte Grafikkarten verkauft.

Im Jahr 2017 hat AMD Radeon noch 15,89 Millionen Dedizierte Grafikkarten verkauft.
Für 2023 wird geschätzt, dass AMD rund 5,2 Millionen dedizierte Radeon‑Grafikkarten für Desktop‑PCs verkauft hat.

Im gesamten Jahr 2024 wurden von AMD nur 4,4 Millionen Grafikkarten verkauft.
Das ist das Historisch schwächste Ergebnis gewesen.

2025 wird das wohl noch getoppt.
In den ersten 6 Monaten von 2025 hat AMD nur 1,44 Millionen dedizierte Grafikkarten verkauft.
Wenn das so weiter geht, wird nicht mal das schwache Ergebnis von 2024 erreicht.
AMD scheint immer weniger herzustellen.

Aber es ist auch logisch warum.
Die Kapazitäten von TSMC sind begrenzt und größtenteils durch Nvidia, Intel und eigene CPU,s ausgelastet.

Dazu kommt. Ein Wafer für CPU & GPU kostet AMD ca das gleiche.
AMD macht also pro CPU Wafer deutlich mehr Gewinn weil CPU,s kleiner und in der Herstellung deutlich günstiger sind.
AMD könnte also mehr GPU,s in Auftrag geben, aber AMD verdient mehr wenn sie mehr Kapazität für CPU,s nehmen.
Daher kümmert sich AMD momentan nicht besonders darum, deutlich mehr GPU,s herzustellen.

Sie würden sogar davon Profitieren noch weniger GPU,s herzustellen.
Aber auf 0 wollen sie es wohl nicht machen da sie die Forschung zwecks Konsolen GPU,s und den FSR Support in den Spielen nicht aufgeben wollen.
 
Global gesehen ist MF nicht mehr als ein Tante Emma Laden ums Eck. Deren Zahlen sind weit weg von repräsentativ für den Gesamtmarkt weltweit.
Das meinte ich ja, und schrieb daher von Deutschland. Mir ist das jeweilige "Lager" vollkommen egal. Ob Intel, AMD oder Nvidia ist mir einfach Latte. Ich kaufe, was ich haben möchte und mir gefällt.
 
Die Zahlen beziehen sich ja auch auf den Gesamtmarkt für diskrete Grafikkarten – von klein bis groß. Bezieht man die integrierten GPUs mit, sähe dies anders aus.
Erinnert mich an Zeiten, in denen Intel die Statistik der verkauften GPUs meilenweit anführte, obwohl man noch nicht mal Grafikkarten herstellte. Da waren es auch Chipsatz-GPUs und später die iGPUs in Prozessoren. ;)

94% erscheinen mir dennoch zuviel für den freien Markt, Ich denke auch, daß da viele "Farmen" (Mining, KI) mitgezählt werden.
 
Man kann alles, vorallem sich das Totalversagen der Radeons schön reden.
So ist es.
9070XTX mit 24/32gb + Crossfire aus der Schublade (PCIe 5.0 schreit eh danach) und alles ist gut.
Man wollte aber lieber NV helfen die Preise hoch zu halten... ist halt so, auch wenns den Fanboys nicht passt.

Die 9070XT ist um die jetzigen Preise für 1440p nicht schlecht, sobald NV aber die Blackwell Super rausbringt wars das endgültig...
Selbst wenn man die 9070XT für 500€ rauswirft, kann man für die 4k Fraktion einfach 0 bieten, ebenso bietet man 0 für die KI-Hobbisten (das ist ohne Cuda eh schon so ne Sache, da hätte man halt mit günstig großem VRAM punkten können).
 
Den Aufwand den AMD betreibt, um ihre GPU Sparte am leben zu erhalten sollte man besser in die Entwicklung von CPUs stecken, da macht es wenigstens Sinn.
 
Den Aufwand den AMD betreibt, um ihre GPU Sparte am leben zu erhalten sollte man besser in die Entwicklung von CPUs stecken, da macht es wenigstens Sinn.
Glaubst du nicht es würde dem x86 Markt schaden wenn wir nur noch Geforce Karten zu überhohen Preisen haben falls Radeon wegfällt ?
 
Nein warum sollte das dem CPU Markt schaden?
AMD ist im CPU Markt sehr erfolgreich und es wäre schön wenn das so bleibt.
 
Bevor AMD die Pixelschleuderschmiede ATI aufgekauft hatte, hat es den "Markt" damals eigentlich auch nie geschadet, dass NVidia die Poolposition für sich in Blei gegossen hatte.

ps: Mir persönlich stößt eher die Qualität der Radeon Karten negativ auf. Ich hatte bisher drei Karten der Serie (zuletzt RX7600 XT), keine dieser Karten hat länger gehalten als 1 Jahr. Am schlimmsten die 6500er, die war schon nach knapp 5 Monaten hinüber. Dazu sind die Treiber "verbesserungswürdig" um es mal milde auszudrücken. Die NVidia Karten sind irgendwie solider, Treiber auch stabiler. Kurioserweise ist mir noch nie eine GTX/RTX abgeraucht. Wie schon geschrieben, meine persönliche Erfahrung.
 
Zuletzt bearbeitet:
klar wäre natürlich top wenn AMD vom GPU Markt verschwindet dann bringt NV next Gen ne RTX 6070 mit 8GB Vram um 1500€ raus

Konkurrenz belebt das Geschäft und im Nachhinein bereue ich es zur 5070Ti gegriffen zu haben aber beim Rechner vom Nachwuchs kommt 100% ne 9070 XT zum Einsatz
Außerdem kann sich das Blatt auch ganz schnell wenden, ich kann mich noch sehr gut an Zeiten erinnern als AMD absolut 0 Chance bei CPU's hatte und Intel (vor allem bei den Preisen) machen konnte was es wollte und wie sieht es heute aus? :ROFLMAO:
 
Wenn das stimmt sind das keine guten Aussichten. Bei RDNA4 hats ja schon geheissen das sich Highend nicht mehr lohnt weil die Kosten zu teuer sind.
Und im Einstiegsbereich verdient man wohl zu wenig an der Karte.
Jetzt heissts auf einmal das RDNA5 im Highend Bereich kommt.

Ist für mich auch nicht nachvollziehbar das so wenige bereit sind das Produkt mit besserer P/L auszuwählen. So eine 5070 mag ok sein aber die dürfte nicht mehr als 400 kosten.
Bei GH sind auch in der Top10 5 Karten von AMD drin. Sind die nur in EU so beliebt?
 
Bevor AMD die Pixelschleuderschmiede ATI aufgekauft hatte, hat es den "Markt" damals eigentlich auch nie geschadet, dass NVidia die Poolposition für sich in Blei gegossen hatte.
...weil es Ati gab! Und andere Grafikchip-Produzenten wie 3dfx. Nvidia mag damals in Games bereits die Leistungsspitze markiert haben, aber es war kein Monopolmarkt.

Und man sollte froh sein, daß AMD dann auch die Grafiksparte weiter vorangetrieben hat, denn der Kauf hatte wohl eher mit den Chipsätzen der Kanadier zu tun, die besser waren als die hauseigenen und eine Onboard-Grafik ermöglichten. Damals waren die besseren Mainboards für AMD-CPUs ja auch noch mit Nvidia-Chipsätzen bestückt.
 
Zuletzt bearbeitet:
Zum Kontext eines Szenarios dass es nur noch Nvidia als GPU Hersteller gibt.
warum sollte das dem CPU Markt schaden?
hat es den "Markt" damals eigentlich auch nie geschadet, dass NVidia die Poolposition für sich in Blei gegossen hatte.
@zuchtmaista
Ich glaube ihr unterschätzt die bedeutung des Szenarios gewaltig.
RTX 5070ti kam für 1300€ auf den Markt bevor es die RX9070XT gab.
Die Preise der RTX 5060ti purzelten Rapide um mehr als 100€ nachdem die RX9060XT einen Starken Release hatte.

Wenn Radeon ganz weg geht, stellt euch schonmal auf 800€ GPU,s für Entry level ein.
Ich wette viele würden eher zur Konsole wechseln als 800€ für eine RTX 5060 auszugeben.
Ich hatte bisher drei Karten der Serie (zuletzt RX7600 XT), keine dieser Karten hat länger gehalten als 1 Jahr. Am schlimmsten die 6500er, die war schon nach knapp 5 Monaten hinüber.
Da bist du aber eine Ausnahme. Mir ging in 25 Jahren bisher nur die Geforce 8 8800GTS 640mb nach einem Jahr Kaputt. Backen hat damals nochmal 2 Monate geholfen aber dann brachte Backen auch nichts mehr.
Meine Radeon HD6870 gekauft 2011 für 129€ bei Mindfactory hab ich bis zur Polaris 2016 genutzt.
Meine Polaris von 2016 (199€ Mindfactory) dann bis zur RX6800 16GB welche ich bei Mindfactory für 360€ bekam vor ein paar Jahren.
Also all meine Radeon Karten haben Jahre mitgemacht und Funktionieren heute noch. (Meine Mutter benutzt noch meine HD4770 von 2009)
 
Nein warum sollte das dem CPU Markt schaden?
AMD ist im CPU Markt sehr erfolgreich und es wäre schön wenn das so bleibt.
Weil mit der GPU dann das ganze Konzept "ATX-PC" fällt.

Arbeiten kannst am Thin-Client oder Mini-Notebook mit der Cloud oder dem Server und spielen auf der Konsole.

Das, wovor sich die "PC-Community" (zu recht) schon seit mindestens einem Jahrzehnt "fürchtet".
 
Ich habe übrigens mal Informationen gesammelt.
AMD,s Radeon sparte befindet sich wohl wirklich im Downfall. (Anspielung beabsichtigt)

Noch 2010 hat Radeon 28,9 Millionen Dedizierte Grafikkarten verkauft.

Im Jahr 2017 hat AMD Radeon noch 15,89 Millionen Dedizierte Grafikkarten verkauft.
Für 2023 wird geschätzt, dass AMD rund 5,2 Millionen dedizierte Radeon‑Grafikkarten für Desktop‑PCs verkauft hat.

Im gesamten Jahr 2024 wurden von AMD nur 4,4 Millionen Grafikkarten verkauft.
Das ist das Historisch schwächste Ergebnis gewesen.

2025 wird das wohl noch getoppt.
In den ersten 6 Monaten von 2025 hat AMD nur 1,44 Millionen dedizierte Grafikkarten verkauft.
Wenn das so weiter geht, wird nicht mal das schwache Ergebnis von 2024 erreicht.
AMD scheint immer weniger herzustellen.

Aber es ist auch logisch warum.
Die Kapazitäten von TSMC sind begrenzt und größtenteils durch Nvidia, Intel und eigene CPU,s ausgelastet.

Dazu kommt. Ein Wafer für CPU & GPU kostet AMD ca das gleiche.
AMD macht also pro CPU Wafer deutlich mehr Gewinn weil CPU,s kleiner und in der Herstellung deutlich günstiger sind.
AMD könnte also mehr GPU,s in Auftrag geben, aber AMD verdient mehr wenn sie mehr Kapazität für CPU,s nehmen.
Daher kümmert sich AMD momentan nicht besonders darum, deutlich mehr GPU,s herzustellen.

Sie würden sogar davon Profitieren noch weniger GPU,s herzustellen.
Aber auf 0 wollen sie es wohl nicht machen da sie die Forschung zwecks Konsolen GPU,s und den FSR Support in den Spielen nicht aufgeben wollen.
Danke.

Ich habe schon öfters geschrieben, dass AMD aufgrund der geringen Stückzahlen VIEL höhere EK Preise als NV hat und obendrauf R&D ebenso auf viel weniger verkaufte Einheiten umlegen muss. Die Marge pro Stück is verschwindent gering. Die können preislich nicht tiefer gehen, ohne Verluste zu generieren.

NV hingegen könnte AMD bei den Preisen sogar noch unterbieten und würde immernoch Gewinn machen.

Also hoffen wir mal, dass AMDs kommende Pro/KI GPUs gut laufen und der Gaming Absatz nicht ganz einbricht, sonst war es das mit der Graka Sparte.

Wenn Sie die Gaming GPU Sparte dicht machen würden, würde die Gesamtmarge von AMD steigen. Ist schon verrückt.

Nur aufgrund der Synergieeffekte mit den Pro GPUs gibt es überhaupt noch Gaming und es besteht Hoffnung, dass es mal wieder eine Highend Karte (von einer Pro Karte abgeleitet) in den Gaming Bereich schafft.
 
Und im Einstiegsbereich verdient man wohl zu wenig an der Karte.
Naja. Die Gainward 5090 hab ich um 2039€ beim alza.at im Angebot gekauft, gab bei der Aktion ein paar Hersteller verhältnismäßig günstig, über mehrere Tage. Das war nicht nur so ein Lockangebot, sondern da konnte man wirklich kaufen.

Der Handel muss ja immer groß rumjammern, dass er nix verdient am Computerkram und die Spannen so klein sind. Mir fehlt die Erfahrung in der Branche, kann schon sein.

Wenn man ne Karte aber um 2k statt 2.5k verkaufen kann, wird man das nur tun, wenn immer noch Gewinn drauf ist. Macht ja sonst keinen Sinn, für 2.2k wäre man die auch noch los geworden (oder kauft zu den Preisen keiner mehr, weil der Markt der Zahlungswilligen einfach gesättigt ist, und die vernünftigen >1k einfach nix kaufen, wie es ja auch schlau wäre?).

Heisst für mich aber, es gibt 2 Möglichkeiten:
a) Die Händler schlagen bei den Topmodellen alle total heftig auf.
b) Seitens NV gibts hier irgend ne Rückvergütung für solche Aktionen (wo der Händler also ebenso nen Rabatt erhält und diesen weitergibt / weitergeben muss bzw. ihn wegen dem Angebot bekommt).
Zu b) tendiere ich ehrlich gesagt in diesem Fall weniger.


Die Herstellungskosten selbst (also die ganze Graka, nicht der GPU Chip) müssen in Midrange und High-End relativ ähnlich sein.
PCB ähnlich groß (gut, 5090 hat schon mehr Speicherbandbreite), Bestückung ähnlich, Kühler/Lüfter ähnlich (so viel kleiner ist ein 5070 Kühler auch nicht als ein 5090 Kühler, klar Vaporchamber und sowas kostet, aber keine Unsummen).

Ich denk schon, dass "oben rum" richtig gut abkassiert wird.
 
Wenn ich AMD wäre könnte mich die ganze dedizierte GPU-Sparte kreuzweise. Die Wafer bei TSMC umbuchen auf CPU, mit EPYC richtig Kasse machen und sich schlapp lachen über das Gejaule wenn eine mid-class-GPU alleine dann schon locker für eine neue (wohlgemerkt Desinger-) Lederjacke reicht - das wäre mein Ding. Keine Ahnung was sich AMD dabei denkt da weiter Geld zu versenken, bin gespannt wie lange die Großaktionäre das noch goutieren. Das in 90% aller Fälle bessere P/L-Verhältnis danken die Kunden jedenfalls nicht gebührend. Und an der Verfügbarkeit kann es ja auch nicht liegen, 9070er und 9060er waren vom Start weg durchgehend gut bis sehr gut verfügbar (wobei die sich in der Statistik wahrscheinlich noch gar nicht finden). Und komme mir jetzt keiner mit solchen vorgeschobenen Totschlag-Argumenten a la CUDA (das höchstens 10% der Nvidia-Nutzer überhaupt vom Namen kennen, von denen wiederum es höchstens 10% einsetzen). Ich für meinen Teil halte diese Monopolisierung jedenfalls für einen ziemlich gefährlichen Trend, gut möglich das es dem PC als Gaming-Plattform irgendwann den letzten Nagel in den Sarg drischt.
 
Was scheinbar viele hier vergessen NV entwickelt seit anbeginn NUR!!!!! GPUs nix anderes ist doch kein wunder das hier ein Vorsprung entstanden ist den AMD nicht mehr aufholen kann und dann kommt dazu das NV Ressourcen/Geld hat wovon AMD nur träumen kann deswegen nimmt sich NV auch nur die Filet Stücke und reserviert sie sich exklusiv damals mit GDDRX6 dann jetzt GDDR7 bei TSMC werden immer die modernsten Technologien genommen und auch lange im Vorraus geblockt damit kein anderer Hersteller sie bekommt

Lisa musste einen Konzern komplett auf Links drehen und ihn wieder Wirtschaftlichen machen was fast 10 Jahre gedauert hat und AMD spielt gefühlt auf 10 Hochzeiten von ihren Desktop Cpus dann Server dann kommt ihre APU sparte etc etc sowas hat NV alles nicht und Lisa kann nicht einfach mal 50-100Mill in einen neuen High End Desktop Chip buttern bei NV ist das gefühlt die Kaffee Kasse

AMD ist im High End Markt abgemeldet und wird dort auch keinen Fuss mehr fassen genauso mit ihrer Software FSR und Co weil NV so ein Tempo vorlegt und Ressourcen aufwendet was für AMD unmöglich ist
 
Was scheinbar viele hier vergessen NV entwickelt seit anbeginn
Nach der Logik hätten AMD CPU,s nie besser werden können als Intel :stupid:
Und ka ob du es nicht wusstest. AMD kaufte ATI auf. ATI gabs seit 1985. Nvidia wurde erst 1993 gegründet. Also wenn jemand potentiell mehr ältere Mitarbeiter hat, dann eher nicht Nvidia.
 
Du meinst die Cousine ersten Grades der Lederjacke?
AMD ist Nvidias CPU-Sparte.
:devilish: 🤡

1756987544330.png


Eine enge familiäre Beziehung also...

PS: Die KI ist offenbar durch die vielen Geschlechter verwirrt...
 
Das war nicht die Kernaussage meines Posts sondern das AMD viel viel breiter aufgestellt ist als NV und so muss Lisa schauen wo das Geld hingeht bei NV ist das Egal sie haben nur ihre GPUs und dort wird Reingebuttert und nachdem man jetzt die Workstation Chips als Gaming GPUs verkauft spart NV hier auch gut Geld in der Entwicklung und hat eine Win/Win situation

Und nochmal AMD hat nicht die Ressourcen wie NV alleine deswegen werden sie kein Fuss mehr in das HighEnd Geschäfft bekommen weil Jen ist nicht im Ansatz so dumm ist wie einst Intel die sich gefühlt 10 Jahre auf ihrer 14NM++++++++++++++++++++++++++++++++++ ausgeruht hat und dann über nacht von AMD überholt wurde das wird es bei NV nicht geben und sieht man auch in welchen Raschen Tempo sie immer und immer neue Hardware und Technologien bringen
Du meinst die Cousine ersten Grades der Lederjacke?
Genau die aber laut einem Interview wussten die beide das ganz lange nicht :ROFLMAO:
 
Zuletzt bearbeitet:
Ich musste gezwungenermaßen wieder zu Nvidia greifen, der Langzeit-Support und die Treiber sind bei Team Grün einfach besser. Die nächste Radeon hole ich mir dann mit der PS6, da brauch ich mich auch nicht mit dem Treibern herumärgern.
Glaubst du das auch selbst?
Spätestens seit der 5xxx-Serie hat NV mehr als genug Treiberbugs, gibt auch genug Artikel und Videos dazu, der bessere Treiber war vielleicht irgendwann mal.
 
Lest euch mal lieber den Thread durch, dann erkennt ihr womöglich, dass die JPR-Zahlen großer Humbug sind.
 
Spätestens seit der 5xxx-Serie hat NV mehr als genug Treiberbugs, gibt auch genug Artikel und Videos dazu, der bessere Treiber war vielleicht irgendwann mal.


Ja das war zur Zeit der Einführung ein großes Thema, inzwischen haben die Treiber wieder die gewohnte Qualität.
 
Lest euch mal lieber den Thread durch, dann erkennt ihr womöglich, dass die JPR-Zahlen großer Humbug sind.
Wie erklärst du dir dann Steam Juli und Steam August ? Sogar die übertrieben Teure RTX 5090 nimmt da von Monat zu Monat zu.
Kann doch nicht sein das die RTX 5090 öfter verkauft wurde als die RX9070XT würde man meinen. Aber scheinbar ist es so.
 
der Langzeit-Support
So gelacht habe ich selten. Unter Windows nehmen sich die Treiber schon lange nichts mehr (weder im longterm support noch in der Qualität) und unter Linux sieht Nvidia da mindestens alt (Qualität) bis ganz alt (longterm support) aus gegen AMD. Das ist ganz sicher kein Argument das sticht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh