> > > > Wachstum des Grafikkartenmarkts um 10% - NVIDIA profitiert am meisten

Wachstum des Grafikkartenmarkts um 10% - NVIDIA profitiert am meisten

Veröffentlicht am: von

nvidiaGeht es nach den neusten Entwicklungen im Grafikkartenmarkt, kann laut den Analysten von Jon Peddie Research ein Gesamtwachstum von satten 10 % gegenüber dem vorherigen Quartal verzeichnet werden. Vor allem NVIDIA scheint von der gestiegenen Nachfrage zu profitierten, denn der Marktanteil steigt im dritten Quartal auf 20 % und somit so stark wie bei keinem anderen Kontrahenten. Auch AMD kann seinen Anteil steigern, allerdings weniger stark. Der Marktanteil wird auf 16,1 % beziffert. Weiterhin an der Spitze ist Intel. Da das Unternehmen durch seine integrierte Grafikeinheit in den Prozessoren ein leichteres Spiel hat, wird hier ein Marktanteil von 68 % erreicht. Damit bleibt Intel weit vor den beiden Kontrahenten.

Für das Gesamtwachstum ist laut der Analysten vor allem die hohe Nachfrage aufgrund des Mining-Booms bei Kryptowährungen verantwortlich. Viele Nutzer hätten im dritten Quartal zu einer Grafikkarte gegriffen, um virtuelle Währungen zu generieren. Ob dieser Trend anhalten wird, entscheidet letztendlich lediglich der Kursverlauf der Kryptowährungen. Sollte der Kurs wieder deutlich fallen, wird das Mining wieder uninteressanter und die Nachfrage von Grafikkarten dürfte entsprechend zurückgehen.

Trotz des Wachstums im Grafikkartenmarkt bleibt die Anzahl der verkauften 3D-Beschleuniger weit hinter den Ergebnissen von 2011. Seit 2011 ist ein Abwärtstrend in diesem Bereich zu erkennen, auch wenn es eine Erholung der Gesamtsituation gibt. Der negative Verlauf seit dem Jahr 2011 ist wohl vor allem auf den allgemeinen schwachen PC-Markt zurückzuführen. Insgesamt werden immer weniger PC-Systeme verkauft und somit nimmt auch die Nachfrage nach Grafikkarten ab.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (21)

#12
Registriert seit: 01.01.2016

Gefreiter
Beiträge: 58
Zitat Morrich;25968374

Der Unterschied beträgt lediglich ca. 100W.

Wer also eine GTX1080 total effizient findet, bei einer Vega 64 hingegen von "AKW" spricht, macht sich ziemlich lächerlich.


Durschnittsverbrauch 173 Watt (GTX1080) vs 285 Watt (Vega 64) laut Tomshardware Tests.
8-16h Laufzeit am Tag, bei mir.
Strompreis von 0,2648

Im Jahr ist die GTX 1080 also 129,54 € billiger im Verbrauch.
Dazu sind 112 Watt weniger Kühlung nötig was den Lärmpegel reduziert.
Und was man auch gerne vergisst: Der Raum ist kühler, weil die ganze Abwärme ja irgendwo landet.

Mal von Lärm und Wärme abgesehen, nur die laufenden Kosten. Um Deine Worte zu nutzen: Wer 100Watt für wenig hält macht sich ziemlich lächerlich.

Da ich normal alle zwei Jahre eine neue GPU kaufe spart die 1080 rechnerisch 260 Euro. Für den Aufpreis kann ich eine 1080ti kaufen und habe immer noch weniger Verbrauchskosten (212Watt).

Also egal wie man es dreht und wendet, die Effizienz ist einer der wichtigsten Faktoren einer GPU. Leider wird das viel zu oft ignoriert, weil pure FPS und Euro Zahlen einfacher zu verstehen sind. Die Kosten über Zeit und die anderen Vorteile einer effizienten Karte sind deswegen aber dennoch vorhanden. Lärm und Wärme sind durchaus ein Punkt und Stromkosten sind sogar ein sehr deutlicher Faktor. Leute schachern wegen 50 Euro hin und her beim Kaufpreis rum, aber 100+ Euro im Jahr Strom soll irrelevant sein? Hä?
#13
Registriert seit: 10.03.2005

Oberleutnant zur See
Beiträge: 1286
deine karte läuft 8 bis 16h am Tag auf volllast? respekt :D

ich nutze meinen pc vlt 3std am tag im schnitt und das ausschließlich zum zocken, daher käme es mir auf die stromkosten nicht an, aber 300Wh pro tag... so viel braucht mein Kühlschrank oder alle lampen in der Wohnung wenn sie 72h an sind... ivh mein wir haben 2017 da sind 100Wh schon viel. natürlich nicht wenn mans mit nem 3kW wasserkocher vergleicht aber ja....

mein pc und bildschirm ziehen 70W im idle, mein laptop 15W beim surfen, DAS macht einen unterschied, deswegwn surf ich nur am laptop bzw am handy das sind dann nochmal weniger watt.

nunja ivh hatte die 1080 schon vor vega aber ich würde sie mir trotzdem nivht kaufen, denn wie du sagst Lautstärke Wärme usw. ist ja auch da zumal vega auch langsamer ist als meine 1080 und die mir wiederum zu langsam ist für 4k.


#14
Registriert seit: 01.01.2016

Gefreiter
Beiträge: 58
Die Werte von Toms Hardware sind keine Vollastwerte, sondern Durchschnittswerte beim Gaming.
Vollast ist nochmal ne gute ecke drüber. Vega geht da bis 500 Watt+ ;-)

Mein PC läuft auch zur Arbeit unter hoher Last, gaming ist danach als Freizeit der Bonus. Also ja, die Karten bei mir laufen schon ne Weile am Tag.
Das Geld würde mich auch ehrlich (persönlich!) weniger belasten. Was mich mehr stört ist die Hitze und der Lärm die unweigerlich durch "nur 100 watt extra" entstehen.

Da kann auch kein magischer Treiber oder Wunderkühler helfen. 100 Watt mehr, sind halt 100 mehr. Wenn ein Kühler genauso leise agiert bei der Extralast, dann wäre er noch leiser wenn die Extralast eben nicht wäre.
Und die Wärme im Raum verschwindet ja nicht, nur weil sie von der GPU weg ist. Ich muss jetzt schon 27-30 Grad im Sommer ertragen. Vega würde rein rechnerisch meine Raumtemperatur um 2-3 Grad erhöhen.

Ich würde schmelzen!

Aber mal kurz zum eigentlichen topic:
Diagramme mit integrierten GPUs sind doch mehr als irrelevant. So ein Diagramm nur mit dGPUs wäre viel aussagekräftiger.

Sinkender Absatz an dGPUs? Klar! Ultrabooks werden ja auch immer performanter und sind für sau viele Tasks ausreichend. Da ist zumeist keine GPU drin. Die GPU-Nachfrage war vorher also nur deswegen höher, weil viele Leute halt eine GPU im Laptop gehabt haben, obwohl sie nicht benutzt wurde. Jetzt kaufen sie halt ein Ultrabook.
Also riesen Panik um nix.
#15
customavatars/avatar273161_1.gif
Registriert seit: 13.08.2017

Obergefreiter
Beiträge: 90
Mir doch egal was NV verkauft, Vega und Freesync ist eh günstiger.
#16
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 17329
Muss ja auch so sein, schlieslich kostet der Strom bei AMD deutlich mehr..
#17
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6353
Zitat Thrawn.;25980466
Muss ja auch so sein, schlieslich kostet der Strom bei AMD deutlich mehr..

Er hat doch im Zusammenhang auch Freesync erwähnt, das begrenzt nicht nur die FPS sondern den Gesamten Render Prozess -> spart Strom!
Selbst wenn sie mehr Verbrauchen, wer bietet denn noch Freesync an?
#18
customavatars/avatar273161_1.gif
Registriert seit: 13.08.2017

Obergefreiter
Beiträge: 90
Ich sag nur der Preis für einen Monitor mit G-Sync oder Freesync. Da kann man eine weile Stromverbraten. Bevor man soweit ist, kommt die nächste GPU Gen. .

PS.: Jetzt ist in meinem Zimmer keine Heizung nötig, hat doch auch was ;-)
#19
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Kapitän zur See
Beiträge: 3141
Zitat Rattenmann;25969910

8-16h Laufzeit am Tag, bei mir.


Durchschnittliche Arbeitszeit bei einer 40Std Woche abzüglich Urlaub sind gerade einmal 4,9Std durchschnittlich pro Tag.

Die Stromkosten sind ein Problem? Wenn die Angabe stimmt hast du ein ganz anderes Problem. ;)

Wie gesagt wir reden von Volllast. Also kein League of Legends, kein Surfen, etc... Rechne noch mal mit 1,5 bis 2 Std. Alles andere ist schon koreanischer-Super-Nerd.
#20
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 17329
Zitat Phantomias88;25980595
Er hat doch im Zusammenhang auch Freesync erwähnt, das begrenzt nicht nur die FPS sondern den Gesamten Render Prozess -> spart Strom!
Selbst wenn sie mehr Verbrauchen, wer bietet denn noch Freesync an?


Wer braucht denn noch Freesync ? Es ist Wurstegal das das offen ist ,defacto ist Nvidia G-Sync und AMD Freeseync, ich jedenfalls bin nicht für ideologischen Monitorkauf zu gewinnen und kaufe mir einen G-Sync Monitor, einfach weil die Chance das die nächste Karte wieder ne Nvidia wird deutlich höher ist weil von AMD seit geraumer Zeit nur Aufgewärmte alte sosse kommt. Vega war nix als die Fury wieder aufgewärmt..

Achja Nvida spart auch Takt bei G-Sny und schon ist der Abstand wieder da beim Verbrauch.

Es wird echt immer ulkiger an welche (auch argumentativen) Strohhälme sich hier die AMDler klammern..
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33283
Zitat oooverclocker;25967513
Jo, denn die IGPs von Intel, die hier so hoch beziffert werden, sind häufig gar nicht im Einsatz und werden auch nicht gebraucht.
Das hat man am besten beim Start von Ryzen gesehen: Was die Leute nicht brauchen, ignorieren sie völlig - ein IGP ist kein Argument, wenn mein eine zusätzliche Grafikkarte einbaut.


Wie kommst du darauf?
Bring doch mal ein paar konkrete Zahlen. So wie ich das Diagramm sehe, Intel sinkt in dem Maße wie NV und AMD steigen. Deine Aussage deckt sich also nicht mit dem Diagramm. Selbst WENN man auf 100% kommuliert und davon ausgeht, jede dGPU von AMD und NV wird mit einer abgeschalteten IGP von Intel gepaart, dann würde A) AMD wie Intel gar keine CPUs ohne IGP verkaufen (also auch kein Ryzen) und B) wären es nur grob 35% in Summe. Welchen der drei GPU Hersteller nutzen denn all die anderen 65%, wenn es nicht AMD oder NV ist? ...


Es ist eher wie so oft beim Thema AMD, die verblendeten Forennerds scheitern an ihrem Tellerrand. Lügt euch nur selbst weiter in die Tasche, bringt AMD nur nicht weiter, ist aber wenigstens amüsant ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]