> > > > Wachstum des Grafikkartenmarkts um 10% - NVIDIA profitiert am meisten

Wachstum des Grafikkartenmarkts um 10% - NVIDIA profitiert am meisten

Veröffentlicht am: von

nvidiaGeht es nach den neusten Entwicklungen im Grafikkartenmarkt, kann laut den Analysten von Jon Peddie Research ein Gesamtwachstum von satten 10 % gegenüber dem vorherigen Quartal verzeichnet werden. Vor allem NVIDIA scheint von der gestiegenen Nachfrage zu profitierten, denn der Marktanteil steigt im dritten Quartal auf 20 % und somit so stark wie bei keinem anderen Kontrahenten. Auch AMD kann seinen Anteil steigern, allerdings weniger stark. Der Marktanteil wird auf 16,1 % beziffert. Weiterhin an der Spitze ist Intel. Da das Unternehmen durch seine integrierte Grafikeinheit in den Prozessoren ein leichteres Spiel hat, wird hier ein Marktanteil von 68 % erreicht. Damit bleibt Intel weit vor den beiden Kontrahenten.

Für das Gesamtwachstum ist laut der Analysten vor allem die hohe Nachfrage aufgrund des Mining-Booms bei Kryptowährungen verantwortlich. Viele Nutzer hätten im dritten Quartal zu einer Grafikkarte gegriffen, um virtuelle Währungen zu generieren. Ob dieser Trend anhalten wird, entscheidet letztendlich lediglich der Kursverlauf der Kryptowährungen. Sollte der Kurs wieder deutlich fallen, wird das Mining wieder uninteressanter und die Nachfrage von Grafikkarten dürfte entsprechend zurückgehen.

Trotz des Wachstums im Grafikkartenmarkt bleibt die Anzahl der verkauften 3D-Beschleuniger weit hinter den Ergebnissen von 2011. Seit 2011 ist ein Abwärtstrend in diesem Bereich zu erkennen, auch wenn es eine Erholung der Gesamtsituation gibt. Der negative Verlauf seit dem Jahr 2011 ist wohl vor allem auf den allgemeinen schwachen PC-Markt zurückzuführen. Insgesamt werden immer weniger PC-Systeme verkauft und somit nimmt auch die Nachfrage nach Grafikkarten ab.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (21)

#12
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberbootsmann
Beiträge: 933
Zitat Morrich;25968374

Der Unterschied beträgt lediglich ca. 100W.

Wer also eine GTX1080 total effizient findet, bei einer Vega 64 hingegen von "AKW" spricht, macht sich ziemlich lächerlich.


Durschnittsverbrauch 173 Watt (GTX1080) vs 285 Watt (Vega 64) laut Tomshardware Tests.
8-16h Laufzeit am Tag, bei mir.
Strompreis von 0,2648

Im Jahr ist die GTX 1080 also 129,54 € billiger im Verbrauch.
Dazu sind 112 Watt weniger Kühlung nötig was den Lärmpegel reduziert.
Und was man auch gerne vergisst: Der Raum ist kühler, weil die ganze Abwärme ja irgendwo landet.

Mal von Lärm und Wärme abgesehen, nur die laufenden Kosten. Um Deine Worte zu nutzen: Wer 100Watt für wenig hält macht sich ziemlich lächerlich.

Da ich normal alle zwei Jahre eine neue GPU kaufe spart die 1080 rechnerisch 260 Euro. Für den Aufpreis kann ich eine 1080ti kaufen und habe immer noch weniger Verbrauchskosten (212Watt).

Also egal wie man es dreht und wendet, die Effizienz ist einer der wichtigsten Faktoren einer GPU. Leider wird das viel zu oft ignoriert, weil pure FPS und Euro Zahlen einfacher zu verstehen sind. Die Kosten über Zeit und die anderen Vorteile einer effizienten Karte sind deswegen aber dennoch vorhanden. Lärm und Wärme sind durchaus ein Punkt und Stromkosten sind sogar ein sehr deutlicher Faktor. Leute schachern wegen 50 Euro hin und her beim Kaufpreis rum, aber 100+ Euro im Jahr Strom soll irrelevant sein? Hä?
#13
Registriert seit: 10.03.2005

Kapitänleutnant
Beiträge: 1572
deine karte läuft 8 bis 16h am Tag auf volllast? respekt :D

ich nutze meinen pc vlt 3std am tag im schnitt und das ausschließlich zum zocken, daher käme es mir auf die stromkosten nicht an, aber 300Wh pro tag... so viel braucht mein Kühlschrank oder alle lampen in der Wohnung wenn sie 72h an sind... ivh mein wir haben 2017 da sind 100Wh schon viel. natürlich nicht wenn mans mit nem 3kW wasserkocher vergleicht aber ja....

mein pc und bildschirm ziehen 70W im idle, mein laptop 15W beim surfen, DAS macht einen unterschied, deswegwn surf ich nur am laptop bzw am handy das sind dann nochmal weniger watt.

nunja ivh hatte die 1080 schon vor vega aber ich würde sie mir trotzdem nivht kaufen, denn wie du sagst Lautstärke Wärme usw. ist ja auch da zumal vega auch langsamer ist als meine 1080 und die mir wiederum zu langsam ist für 4k.


#14
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberbootsmann
Beiträge: 933
Die Werte von Toms Hardware sind keine Vollastwerte, sondern Durchschnittswerte beim Gaming.
Vollast ist nochmal ne gute ecke drüber. Vega geht da bis 500 Watt+ ;-)

Mein PC läuft auch zur Arbeit unter hoher Last, gaming ist danach als Freizeit der Bonus. Also ja, die Karten bei mir laufen schon ne Weile am Tag.
Das Geld würde mich auch ehrlich (persönlich!) weniger belasten. Was mich mehr stört ist die Hitze und der Lärm die unweigerlich durch "nur 100 watt extra" entstehen.

Da kann auch kein magischer Treiber oder Wunderkühler helfen. 100 Watt mehr, sind halt 100 mehr. Wenn ein Kühler genauso leise agiert bei der Extralast, dann wäre er noch leiser wenn die Extralast eben nicht wäre.
Und die Wärme im Raum verschwindet ja nicht, nur weil sie von der GPU weg ist. Ich muss jetzt schon 27-30 Grad im Sommer ertragen. Vega würde rein rechnerisch meine Raumtemperatur um 2-3 Grad erhöhen.

Ich würde schmelzen!

Aber mal kurz zum eigentlichen topic:
Diagramme mit integrierten GPUs sind doch mehr als irrelevant. So ein Diagramm nur mit dGPUs wäre viel aussagekräftiger.

Sinkender Absatz an dGPUs? Klar! Ultrabooks werden ja auch immer performanter und sind für sau viele Tasks ausreichend. Da ist zumeist keine GPU drin. Die GPU-Nachfrage war vorher also nur deswegen höher, weil viele Leute halt eine GPU im Laptop gehabt haben, obwohl sie nicht benutzt wurde. Jetzt kaufen sie halt ein Ultrabook.
Also riesen Panik um nix.
#15
customavatars/avatar273161_1.gif
Registriert seit: 13.08.2017

Hauptgefreiter
Beiträge: 228
Mir doch egal was NV verkauft, Vega und Freesync ist eh günstiger.
#16
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 18786
Muss ja auch so sein, schlieslich kostet der Strom bei AMD deutlich mehr..
#17
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6898
Zitat Thrawn.;25980466
Muss ja auch so sein, schlieslich kostet der Strom bei AMD deutlich mehr..

Er hat doch im Zusammenhang auch Freesync erwähnt, das begrenzt nicht nur die FPS sondern den Gesamten Render Prozess -> spart Strom!
Selbst wenn sie mehr Verbrauchen, wer bietet denn noch Freesync an?
#18
customavatars/avatar273161_1.gif
Registriert seit: 13.08.2017

Hauptgefreiter
Beiträge: 228
Ich sag nur der Preis für einen Monitor mit G-Sync oder Freesync. Da kann man eine weile Stromverbraten. Bevor man soweit ist, kommt die nächste GPU Gen. .

PS.: Jetzt ist in meinem Zimmer keine Heizung nötig, hat doch auch was ;-)
#19
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Kapitän zur See
Beiträge: 3176
Zitat Rattenmann;25969910

8-16h Laufzeit am Tag, bei mir.


Durchschnittliche Arbeitszeit bei einer 40Std Woche abzüglich Urlaub sind gerade einmal 4,9Std durchschnittlich pro Tag.

Die Stromkosten sind ein Problem? Wenn die Angabe stimmt hast du ein ganz anderes Problem. ;)

Wie gesagt wir reden von Volllast. Also kein League of Legends, kein Surfen, etc... Rechne noch mal mit 1,5 bis 2 Std. Alles andere ist schon koreanischer-Super-Nerd.
#20
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 18786
Zitat Phantomias88;25980595
Er hat doch im Zusammenhang auch Freesync erwähnt, das begrenzt nicht nur die FPS sondern den Gesamten Render Prozess -> spart Strom!
Selbst wenn sie mehr Verbrauchen, wer bietet denn noch Freesync an?


Wer braucht denn noch Freesync ? Es ist Wurstegal das das offen ist ,defacto ist Nvidia G-Sync und AMD Freeseync, ich jedenfalls bin nicht für ideologischen Monitorkauf zu gewinnen und kaufe mir einen G-Sync Monitor, einfach weil die Chance das die nächste Karte wieder ne Nvidia wird deutlich höher ist weil von AMD seit geraumer Zeit nur Aufgewärmte alte sosse kommt. Vega war nix als die Fury wieder aufgewärmt..

Achja Nvida spart auch Takt bei G-Sny und schon ist der Abstand wieder da beim Verbrauch.

Es wird echt immer ulkiger an welche (auch argumentativen) Strohhälme sich hier die AMDler klammern..
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat oooverclocker;25967513
Jo, denn die IGPs von Intel, die hier so hoch beziffert werden, sind häufig gar nicht im Einsatz und werden auch nicht gebraucht.
Das hat man am besten beim Start von Ryzen gesehen: Was die Leute nicht brauchen, ignorieren sie völlig - ein IGP ist kein Argument, wenn mein eine zusätzliche Grafikkarte einbaut.


Wie kommst du darauf?
Bring doch mal ein paar konkrete Zahlen. So wie ich das Diagramm sehe, Intel sinkt in dem Maße wie NV und AMD steigen. Deine Aussage deckt sich also nicht mit dem Diagramm. Selbst WENN man auf 100% kommuliert und davon ausgeht, jede dGPU von AMD und NV wird mit einer abgeschalteten IGP von Intel gepaart, dann würde A) AMD wie Intel gar keine CPUs ohne IGP verkaufen (also auch kein Ryzen) und B) wären es nur grob 35% in Summe. Welchen der drei GPU Hersteller nutzen denn all die anderen 65%, wenn es nicht AMD oder NV ist? ...


Es ist eher wie so oft beim Thema AMD, die verblendeten Forennerds scheitern an ihrem Tellerrand. Lügt euch nur selbst weiter in die Tasche, bringt AMD nur nicht weiter, ist aber wenigstens amüsant ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]