> > > > Grafikkarten-Preise fallen weiter

Grafikkarten-Preise fallen weiter

Veröffentlicht am: von

hardwareluxx_news_newEs ist eigentlich kein großes Geheimnis, dass die Preise nach Einführung neuer Modelle nach unten korrigiert werden. Selten aber gibt es soviel Leistung fürs Geld. Während AMDs neuster Mittelklasse-Chip in unserem Preisvergleich bereits für etwa 82 Euro gehandelt wird und damit erstmals an der 80-Euro-Marke kratzt, ist die ATI Radeon HD 4850 hingegen schon für unter 100 Euro zu haben. Doch damit macht man es dem Anwender nicht viel einfacher. Während der RV740 dank des fortschrittlicheren 40-nm-Fertigungsverfahren vor allem unter Last weniger Strom verbraucht, bietet der größer Bruder hingegen meist mehr Leistung. Doch auch der kalifornische Grafikkartenspezialist NVIDIA konnte da nicht tatenlos zusehen. So sank in den letzten Wochen auch der Preis für eine NVIDIA GeForce 9800 GT, welche in unserem Preisvergleich bereits ab 82 Euro zu haben ist.

Ob die Preise in den nächsten Wochen noch weiter fallen werden, bleibt abzuwarten. Je nachdem welcher Grafikprozessor derzeit verbaut ist, könnte sich ein Neukauf aber schon heute lohnen. Das letzte Wort ist jedenfalls noch nicht gesprochen.

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (34)

#25
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
@copyright:
das kann man so nicht sagen! Vllt. ist es doch möglich (also das Grundgerüst der jetzigen GPUs kombiniert mit meiner Idee)
Auf jeden Fall steckt das ganze noch in den Kinderschuhen :)
#26
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34161
Zitat PCZeus;12000116
Wäre es aus technischer Sicht möglich (erstmal nur theoretisch betrachtet, über die anfallenden Entwicklungskosten und den Bedarf will ich gar nicht erst nachdenken :d)
eine GPU zu entwicklen, bei der man einen Aufbau ähnlich wie bei dem Core i7 hat? Also ein Art QPI oder Bus der alle Daten innerhalb der GPU nochmal verteilt und zu den einzelnen Rechenwerken schickt. Somit wäre die Möglichkeit gegeben, Teile von diesen Recheneinheiten ganz wegzulassen und somit adhoc einen Mainstream oder sogar Low-End Chip zu produzieren ohne zusätzliche Entwicklung. Man könnte sogar soweit gehen und sagen, Teile von diesen Recheneinheiten werden bei geringer Last abgeschaltet um Strom zu sparen.


Nei den NVs ist das doch mehr oder weniger schon der Fall mit den ROP Clustern, du hast seit dem G80 ROP Clustereinheiten, welche du nach belieben in der Anzahl skalieren kannst.
Abschalten der Teile im Idle geht aber derzeit nicht, aber sollte technisch sicher auch möglich sein.
Wenn man so will könnte NV bei den G200 GPUs einfach noch weitere ROP Cluster anpappen und schon wäre die Büchse schneller bei gleichem Takt...

Nachteil ist aber du musst beim anpappen oder weglassen jedesmal ein neues Chipdesign entwerfen.
#27
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;12000013
Das frag ich mich auch wie das gehen mag...
Vor allem, wenn man bedenkt, das es bis jetzt keine Mainstream Karten auf G200 Basis gibt und wohl vorerst auch keine Mittelklasse auf G(T)300 zu erwarten ist frag ich mich wirklich, was NV da fabriziert...
...


Wieso der lowend u midrange bereich könnte doch jetzt nach möglichkeit von den im sommer in 40nm gefertigten g200 chips bedient werden.Wenn dessen leistung nur um 30% ansteigt im vergleich zum 285er,kommt man doch aller vorraussicht nach dem 5000er chip von ati recht nahe.

Und der Highendchip gtx 380 bräuchte so erstmal nicht im preis gedrosselt zu werden,da man die passende antwort für die anderen bereiche mit dem g212 u g214 hätte:p

Vielleicht wird der 285 u 260 55nm ja von diesen beiden chips in 40nm abgelößt wer weiß;)
#28
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34161
ich glaube nicht das man den G200 in der Form nochmal auf 40nm shrinken wird, vor allem, es ist ein Design, was ursprünglich mal auf 65nm aufgesetzt hat, ein Shrink ist zwar möglich aber ein natives Design, was direkt auf 40nm aufbaut bringt deutlich mehr Vorteile...

Man sieht ja auch, das das Einsparpotential zwischen den 65 und 55nm Karten beim G200 nicht wirklich viel war.
Andererseits zeigte AMD zwischen R600 und RV670 eine ganz andere (deutlich bessere) Figur, wie es hätte laufen können.

Der nächste Punkt ist, das der Chip auch in 40nm viel zu komplex und zu groß ist, um im Mittelklassebereich mitwirken zu können.
Ich würde meinen, NV hat damals von Anfang an geplant die heutige Mittelklasse mit dem G92 abzudecken, weil einfach das Teil recht klein ist und durch extrem hohen Takt dennoch konkurenzfähig ist.

Seit dem R600/G80 Zeiten läuft es im Mittelklassebereich bei NV aber irgendwie anders, es scheint mittlerweile gang und gebe, die "alte" HighEnd Klasse mit neuem Namen als Mittelklasse zu verkaufen, wenn schnellere Produkte draußen sind.
Klar das spart erstmal Entwicklungskosten, aber ob sich das am Ende wirklich ausgeht?
#29
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
MMh gute frage ob sich das ausgeht:p

Aber der G212 u 214 ist ja nun für sommer bestätigt u ich wüsste nicht in welchen bereich nvidia sonst diese karten positionieren will.

Gut möglich das der 260er,285er u 295er höchstwahrscheinlich auch noch dieses jahr ausgetauscht werden u alles auf 40nm umgestellt wird,allein schon um die produktionskosten zu senken;)

Man müsste mal wissen wieviel 40nm fertigungskapazitäten nvidia bei tsmc geordert hat:d
#30
customavatars/avatar37164_1.gif
Registriert seit: 20.03.2006
Bayern, Oberpfalz
Flottillenadmiral
Beiträge: 4734
ist schon ein hammer, für welches geld man mittlerweile high-end karten bekommt! vor ein paar jahren (G80) musste man noch 4-500 euro für ne high-end karte zahlen und jetzt bekommt man momentan für 150-200 euro absolute top karten!
die frage die sich mir stellt, ist, warum die karten eigentlich im preis fallen...nvidia hat ja schon gejammert, dass sie ihre G200 karten verschenken müssen und deshalb war z.t. auch eine schlechte qualität abgeliefert worden (siehe fiepende G200 Karten)!
amd/ati hat wohl keine probleme damit, ihre RV770 karten so günstig an den mann zu bringen!?
#31
Registriert seit: 08.02.2007

Oberstabsgefreiter
Beiträge: 432
Das hat imho mit der AMD/ATI-Fusion zu tun. AMD ist ja schon seit geraumer Zeit (spätestens seit Mitte 2006) auf dem P/L-Trip, da ihre Produkte leistungsmäßig oft nicht konkurrieren können. (ich weiss ich weiss, sehr allgemein..) Deswegen muss man eben über den (aggressiven) Preis Druck machen und versuchen so seine HW zu verticken. Hat ja in der letzten Zeit auch gut geklappt, besonders bei der HD48xx-Reihe. Der Vorteil bei ATI ist halt der schnellere Umstieg auf neue Fertigungsprozesse (NVidia ist da ja etwas konservativer) und die geringere Die-Size, wobei bei RV740 letzteres wohl gerade reicht um die noch miesen Yields "auszugleichen".
#32
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34161
Zitat scully1234;12005305
MMh gute frage ob sich das ausgeht:p

Aber der G212 u 214 ist ja nun für sommer bestätigt u ich wüsste nicht in welchen bereich nvidia sonst diese karten positionieren will


Die genannten sind ja aber auch neue Produkte, ich mein, einen jetzigen G200 oder G200b in dem Fall wird es wohl nicht auf 40nm Basis geben.
Ich denke eher NV ist sich der nur minimalen Vorteile eines einfachen DIE Shrinks bewusst.

Zitat THE_DOCTOR;12005409
amd/ati hat wohl keine probleme damit, ihre RV770 karten so günstig an den mann zu bringen!?


Das liegt wohl eher daran, das AMD eine Klasse unter NV ansetzt, was ihnen den Vorteil bringt, schon seit dem R600 die größte Karte im P/L Bereich anzusetzen.
NV hingegen baut seit dem G80 in dem Bereich nur auf abgespeckte Karten, welche weniger Ausführungseinheiten bekommen, was den Nachteil hat, das dennoch die DIE Size des großen Chips und somit die Produktionskosten des großen Chips zu buche stehen...
Es scheint auch in Zukunft so weiter zu gehen, das NV stur HighEnd auf Teufel komm raus bauen will und AMD sich mit der Performanceklasse zufrieden gibt und somit die Preise stark drücken kann...
HighEnd wird dann von einer Dual-GPU Karte abgedeckt.

Zitat Wolla;12006327
AMD ist ja schon seit geraumer Zeit (spätestens seit Mitte 2006) auf dem P/L-Trip, da ihre Produkte leistungsmäßig oft nicht konkurrieren können. (ich weiss ich weiss, sehr allgemein..)


Würd ich nicht sagen, ich würde eher sagen, die wollen nicht und sind sich der Nachteile von damals (siehe X1800 und X1900) bewusst, das auf Krampf HighEnd zu bringen erhebliche Nachteile mit sich zieht, siehe Stromverbrauch/Lautstärke usw.
#33
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;12006385

Würd ich nicht sagen, ich würde eher sagen, die wollen nicht und sind sich der Nachteile von damals (siehe X1800 und X1900) bewusst, das auf Krampf HighEnd zu bringen erhebliche Nachteile mit sich zieht, siehe Stromverbrauch/Lautstärke usw.


Genau so!


Und in dem segment wo AMD die prioritäten setzt nämlich im (low,midrangebereich u unterem highendsektor)sind sie in jedemfall preis u leistungstechnisch nvidia gewachsen.

Den highendsektor will man gar nicht angreifen weil der aufwand dafür viel zu hoch wäre u für nvidia selbst ist der bereich imo nur ein grosses kostengrab auch wenn es prestige bringt;)
#34
customavatars/avatar51320_1.gif
Registriert seit: 11.11.2006
C:\Bayern\Nürnberg
Super Moderator
Beiträge: 6758
Was nicht vergessen werden sollte ist die Wirtschaftskrise.

Der weltweite Gesamtabsatz (Alle Industrieprodukte) ging im Gesamten in den letzten 12 Monaten ca. 15%-20% zurück. Bei manchen Branchen sogar um 50%.

Das macht sich im gesamten Markt bemerkbar. Die Preise fallen weltweit.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]