Nvidia macht im Q2/2010 > 141 Millionen $ Verlust und der Marktanteil sinkt auch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Überrascht das jemanden? Wenn man seine Karten vom Markt nimt und ein halbes Jahr lang keine richtigen Karten mehr kaufen kann ist das ja logisch...
Irgendwie geschieht ihnen das recht. Ich hoffe nur, dass sie sich jetzt mehr anstrengen und nicht komplett durchhängen.
 
wenn man die hausaufgaben macht wird man auch belohnt :-)

aber irgendwo ist das auch gut so denn jetzt muss NV gas geben und das tut uns allen gut ^^
 
Nvidia: Geringe Umsätze und hohe Verluste - 13.08.2010 - ComputerBase

Bei CB steht alles nochmal in Deutsch

Den hohen Verlust von 141 Millionen US-Dollar erklärt Nvidia aber auch über Sonderausgaben, die im Zusammenhang mit den Hitzeproblemen bei mobilen Chips vor zwei Jahren aufgetreten waren. Hier musste man in dem abgelaufenen Quartal nochmals 193,9 Millionen US-Dollar berappen. Ohne diese Ausgaben und durch Herausrechnung der Steuer wäre am Ende sonst ein Gewinn von 20 Millionen US-Dollar übrig geblieben.

Die guten Zeiten für Nvidia sid leider vorbei
 
Das passiert halt wenn man den Kunden für dumm verkaufen will und am Markt vorbeientwickelt....
 
Die müssen sich jetzt ganz schön am Riemen reißen, wenn ATI schon im Herbst die neue (Übergangs-)Serie vorstellt.
Und sie sollten mal so entwickeln, dass der Nutzer auch versteht, was neue Karten sind und was einfach nur refresh ist.
 
was aber nicht heißt das sie nicht wieder kommen ;)
Bei ATI wars doch genauso.

Kann man mit der Situation jetzt aber nicht vergleichen.

Ist doch immer ein auf und ab. Bei 2 Herstellern ist das ja auch kein wunder. Die wechseln sich doch immer ab bei der herstellerkrone :d

Es sind 3 Hersteller und der Big Player hier ist nun mal Intel mit fast 55% Marktanteil. ;)

Der Markt für IGP Lösungen + das Notebookgeschäft (Chipsätze + Grafikchips) werden immer wichtiger. Und genau hier sieht Nvidia kein Land mehr. Der Markt für dedizierte Karten macht gerade noch 20% aus.

Wenn demnächst noch die Deals mit Apple weg brechen (beginnt ja schon) sieht es ganz düster aus.

Und für Ion und Tegra interessiert sich ja offensichtlich auch kein Schwein...
 
David Morgan von S|A hat die Massage der grünen Heilsbringer mal auf den Punkt gebracht.
According to Nvidia, the driving forces behind the expected Q3 increases are as follows (in no particular order): StarCraft II, Fermi-based Quadro, StarCraft II, Fermi-based Tesla, StarCraft II, blind faith in Tegra based products, StarCraft II, and ramping of Fermi rev 2 derivative cards (GF104, 106, & :coolblue:10 presumably for playing StarCraft II. Now the more astute readers may have noticed a subtle pattern taking shape in the preceding list. That's right, they have indicated that their product mix will be converted to primarily Fermi based chips across their product portfolio. While no exact timetables were furnished for the budget/midrange Fermi rollout, it was alluded to that these parts would be available soon, presumably when JHH takes a break from his StarCraft II ladder matches and pushes the big, red, "Ship" button on his desk. Here's to hoping somebody reaper-rushes captain Huang soon so he can get product on shelves before schools start back up in a couple weeks.

In all seriousness now, StarCraft II was mentioned ad nauseam throughout the whole conference call.

SemiAccurate :: Nvidia's Q2 Financial Phone-a-thon

:lol:
 
Zuletzt bearbeitet:
Man sollte trotzdem bedenken, in den Quartalszahlen sind Einmaleffekte enthalten, wenn auch durch Eigenverschulden (Garantieleistungen wegen Qualitätsmängel). Das macht es natürlich nicht leichter für nVidia. Vielleicht können sie ja im kommenden Quartal den Abwärtstrend mit den kleineren Designs wieder etwas verlangsamen. Grundlegende Besserung scheint erstmal nicht in Sicht. Gerade auch, da ATI in 2 Monaten die neue Generation launchen will. So schaut es halt aus, wenn man am Markt vorbei entwickelt. Man kann nur hoffen, nVidia lernt daraus.
 
das war bei ati noch viel schlimmer,nach ihren rohrkrepierer 2900 xt waren sie nur noch am Markt, weil sie von amd geschluckt wurden.die Marke ati existiert garnicht mehr, sondern das ist alles amd.nvidia hat den genialen fermi in die Mittelklasse gebracht ,mit der gtx 460, und ab September kommen dann auch die teile für die low-end fans auf den Markt.also liebe ati fans schön den Ball flachhalten,nvidia wird auch weiterhin die number one sein!
 
das war bei ati noch viel schlimmer,nach ihren rohrkrepierer 2900 xt waren sie nur noch am Markt, weil sie von amd geschluckt wurden.die Marke ati existiert garnicht mehr, sondern das ist alles amd.nvidia hat den genialen fermi in die Mittelklasse gebracht ,mit der gtx 460, und ab September kommen dann auch die teile für die low-end fans auf den Markt.also liebe ati fans schön den Ball flachhalten,nvidia wird auch weiterhin die number one sein!

War ja klar Duplex 2 nur von der grünen Sorte:rolleyes:

Warum tut ihr euch nicht zusammen als "Newsberichterstatter",das wäre doch das Dreamteam schlechthin
 
Zuletzt bearbeitet:
Man müsste Mod sein um diese "leute" zu bannen, es nervt einfach :d
 
Man sollte trotzdem bedenken, in den Quartalszahlen sind Einmaleffekte enthalten, wenn auch durch Eigenverschulden (Garantieleistungen wegen Qualitätsmängel). Das macht es natürlich nicht leichter für nVidia. Vielleicht können sie ja im kommenden Quartal den Abwärtstrend mit den kleineren Designs wieder etwas verlangsamen. Grundlegende Besserung scheint erstmal nicht in Sicht. Gerade auch, da ATI in 2 Monaten die neue Generation launchen will. So schaut es halt aus, wenn man am Markt vorbei entwickelt. Man kann nur hoffen, nVidia lernt daraus.

Da würde ich mir mal keine Gedanken machen drum,der Fermi ist released und allen Unkenrufen zum trotz sind die großen Karten sowie die kleinen Abläger mit dem GF104 erfolgreich in den Markt eingestiegen.

Gedanken machen würde ich mir eher darum das ATI diese damalig einzigartige Chance auf Gewinnoptimierung nicht genutzt hat oder besser gesagt nicht nutzen konnte(georderte Produktionskapazitäten bei TSMC)

Nvidia konnte Aufgrund von Fertigungsproblemen den Markt nicht bedienen mit neuen Chips,was sich nun in den Quartalszahlen niederschlägt;)

Und die unterschwellige Botschaft das dieses anhalten wird
Grundlegende Besserung scheint erstmal nicht in Sicht
ist wohl eher Wunschdenken deinerseits
 
Korrekt. nVidia ist mittlerweile nur noch Nummer 3 im GPU-Markt.

Der R600 (HD 2900 XT) war übrigens kein Rohrkrepierer. Es ist ja immer noch die Basis für die aktuelle Architektur. Der R600 litt vor allem an Kinderkrankheiten, siehe AA und zu grosses Speicherinterface. Mit Fermi ist die Geschichte eine andere. Fermi ist grundsätzlich fehldesigned und hat nach wie vor eine veraltete Shader Architektur. Und daran ändern auch kleinere Designs wie GF104 nichts, die immer noch mehr Strom brauchen, grösser und sogar langsamer als Konkurrenzprodukte sind. Und deshalb wird sich so schnell auch nichts an der Situation ändern.

Das mögen nVidia "Fans" nicht gerne hören. Die persönlichen Angriffe sprechen schon wieder Bände. :rolleyes: Wer jedoch keine Tomaten auf den Augen hat und sich mal objektiv damit auseinandersetzt, wird diese Tatsachen erkennen.
 
@software fux was nicht gefällt wird verboten.
die 2900 xt war eine absolute katastrophe, einbruch unter aa, extrem laut und liebe ati Fans extrem viel Verbrauch.aber das wollt ihr ja nicht warhaben!
 
@software fux was nicht gefällt wird verboten.
die 2900 xt war eine absolute katastrophe, einbruch unter aa, extrem laut und liebe ati Fans extrem viel Verbrauch.aber das wollt ihr ja nicht warhaben!

Ach jetzt kramen wir Grafikkarten aus dem Jahre von vor 3 1/4 Jahren heraus? Coole Sache. Es wurde nie bestritten das die HD2900XT ein Griff ins Klo war.

Aber andere Frage: Was hat dein Verbreiten von falschen Dingen und der heutigen Situation der GTX400er Serie mit der HD2900XT zu tun? Aber hauptsache mal vom Thema ablenken. :fresse2:
 
und sogar langsamer als Konkurrenzprodukte sind

wie bitte? Fermi langsamer als die Konkurenz

Kannst du das anhand einschlägiger Tests auch belegen

---------- Beitrag hinzugefügt um 18:18 ---------- Vorheriger Beitrag war um 18:14 ----------

@software fux was nicht gefällt wird verboten.
die 2900 xt war eine absolute katastrophe, einbruch unter aa, extrem laut und liebe ati Fans extrem viel Verbrauch.aber das wollt ihr ja nicht warhaben!

Und das Geschreibsel hier hier ist auch ne Katastrophe:rolleyes:
 
Zuletzt bearbeitet:
Wie ich schon sagte, das waren Kinderkrankheiten bzw falsche Designentscheidungen. Die Basis des R600 war schon damals richtig gut. Mit zB einem 256-bit Speicherinterface wäre die HD 2900 XT auch nicht spürbar langsamer gewesen, jedoch um einiges sparsamer. Und wir reden hier immer noch von Bereichen um die 150-200 W. Fermi mit 300 W und mehr stellt da ganz andere Negativrekorde auf.

Ich weiss auch nicht, was die HD 2900 XT mit dem Thema zu tun haben soll. Das sind doch nur Ausflüchte, um sich die Fermi Schwächen schönzureden. Ich sehe hier auch niemanden, der die HD 2900 XT als super tolle Karte angepriesen hat. :rolleyes:


@scully1234
Leseschwäche? Ich sprach konkret vom GF104, nicht Fermi allgemein. Und wenn du zB HD 5850 und GTX 460 vergleichst, wirst du merken, dass die Radeon schneller ist. In Spielen sind es schon 10-20%, bei GPGPU sicherlich noch einiges mehr.
 
Zuletzt bearbeitet:
Ich seh schon. Der Thread hier wird innert kürzerster Zeit zu gehen... Deshalb schreibe ich auch noch ein paar Gedanken.
Ich vermute, das 3 Dinge NV in den Arsch getreten haben. Zum einen ist das die Fertigung in 40nm: Zu langsam, zu teuer und trozdem zu grosse Struktur. Zum zweiten sind das ihre "Zusatzfeauters" wie Physix Cuda ect. welche ebenfalls Chipfläche verbraten kombiniert mit der Tesselation die ja auch Platz braucht. Zu guter letzt sind da immer noch die gleichen shader drauf wie im legendären G80. 1D Shader mögen ja flexibel sein aber sie haben eine kleinere Leistung pro Fläche wie ATI ja bereits bewiesen hat. Es gab hier mal ne Diskusion zu 4D oder 3D Shader. Sowas will ich sehen liebe Produzenten!
So und jetzt flamt weiter xD
lg
 
@Nimrais

ATI wird mit Southern Islands oder Northern Isalnds ihr VLIW Design auf 4 PEs pro Stream Core ändern, statt bisher 5. Du solltest das also in naher Zukunft sehen. Ich sehe auch wenig Chancen, dass nVidia ihren bisherigen Ansatz weiterverfolgen können wird. Die Vorteile bezüglich Flächen- und Energieeffizienz sind bei ATI mittlerweile zu gravierend.


@scully1234

Ich habe auf Chipbasis verglichen, nicht wozu sich das Marketing im Endeffekt genötigt sieht. Und rein von der Chipgrösse sind RV870 (334 mm²) und GF104 (367 mm²) deutlich eher vergleichbar. Also nix mit Äpfeln und Birnen.
 
Zum zweiten sind das ihre "Zusatzfeauters" wie Physix Cuda ect. welche ebenfalls Chipfläche verbraten
Wie kann eine Plattform wie Cuda(PhysX mit eingeschlossen) "Chipfläche verbraten";)

---------- Beitrag hinzugefügt um 18:42 ---------- Vorheriger Beitrag war um 18:39 ----------

@Nimrais



@scully1234

Ich habe auf Chipbasis verglichen, nicht wozu sich das Marketing im Endeffekt genötigt sieht. Und rein von der Chipgrösse sind RV870 (334 mm²) und GF104 (367 mm²) deutlich eher vergleichbar. Also nix mit Äpfeln und Birnen.

Ein typischer Vergleich alla dude

Gut dann vergleichen wir mal die 470er mit der 5770 weil da ist ja in beiden Namen eine 7

Sieben und Sieben ist auch deutlich eher vergleichbar:coolblue:

Welche Hardwareseite hat jemals?? nach Chipgröße nen Leistungsvergleich gemacht,wo holst du deine abstrakten Vergleichsansätze nur immer her?
 
Zuletzt bearbeitet:
Woran machst du fest, daß die 460 nicht der Gegenspieler der 5850 sein kann. Egal was Nvidia und AMD bezüglich der Gegenseitigen Platzierung kolpotieren; fakt ist, daß selbst der GF104 größer ist, immernoch mehr verbrät und leistungstechnisch schwächer als der Cypress ist. Das einzige Kriterium, daß für eine Sortierung aus Kundensicht ins Auge fällt, wäre das Preisgefüge bzw. das Preissegment und das hält sich derzeit nur so, wegen der genannten Schwächen des Fermis.

Aus wirtschaftlicher Sicht der Unternehmen ist der GF104 eigentlich sogar der Konkurrent bis rauf zur 5870, was den Chip angeht und demnach sieht das für Nvidia in dieser Generation wahrlich nicht rosig aus.
Ich sprech jetzt mal nur von Kosten; Performance ist zweitrangig. Wenn AMD es nötig gehabt hätte, wäre schon längst eine 5890 erschienen. Da würd ich dir Brief und Siegel für geben.

Und Gnade Nvidia Gott, wenn der Abverkauf der 5800er beginnt. Sollten die Preise der Karten um 50€, 100€ oder gar mehr Euronen fallen, dann wird es wohl selbst mit dem GF104 schwer so etwas wie eine Gewinnmarge zu erzielen.
Dann ereilt dem GF100 ganz schnell das Schicksal des GT200 der schon seit langer Zeit EOL war. Und noch so ein Jahr wie das Ende letzten Jahres bzw. der Anfang diesen Jahres, wo Nvidia quasi überhaupt nichts anbieten konnte, weil die eigenen Produkte zu teuer waren, wollen die sich doch wohl nicht nochmal leisten.


Edit: Das mit der Chipgröße habt ihr schon abgerühstückt, da war ich noch am schreiben. Der Vergleich von Dude ist deswegen typisch, weil er einfach zulässig ist. Entweder wir betrachten aus Kundensicht oder aus der des Unternehmens und hier gehts um das Unternehmen Nvidia und dessen Produkte
 
Zuletzt bearbeitet:
Tja, ein typischer Scully, den objektive Vergleiche nicht interessieren und lieber mit absurden Aussagen spamt. :rolleyes: Wenn man verstehen will, wie ein Unternehmen technologisch tickt, muss man natürlich auch mal einen Blick auf die Technologie werfen und nicht nur auf das, was das Marketing kolportiert. Vielleicht merkt ja dann der eine oder andere mal, was Luftschlösser sind und was nicht. Scully, du hast nun schon genug davon im Vorfeld von Fermi gebaut, die sich in Schall und Rauch aufgelöst haben. Und das habe ua ich dir schon vorher gesagt. Nicht, weil ich nVidia irgendwas Schlechtes will, schliesslich hatte ich lange genug GeForces, sondern weil ich mal objektiv über den Tellerrand geschaut habe. Und das solltest auch du langsam mal machen, anstatt dich ständig von irgendwelchen Reviews berieseln zu lassen, die maximal FPS Balken zeigen.

Was hast du denn daran auszusetzen, zwei ähnlich grösse Chips bezüglich Performance und Leistungsaufnahme miteinander zu vergleichen? Nenne mir bitte einen plausiblen und vernünftigen Grund! Die HD 5850 mit 170 W TDP und die GTX 460 1 GiB mit 160 W TDP haben sogar vergleichbare thermische Specs.

Wieso soll die GTX 470 mit einem 529 mm² Chip, einer TDP von 215 W und mehr Speicher ein besserer Vergleich sein? Dass diese Karte letztendlich gegen HD 5850/5870 vermarktet werden muss, weil sie nicht mehr hergibt, zeigt doch lediglich das Dilemma von nVidia.
 
Zuletzt bearbeitet:
...nach Chipgröße nen Leistungsvergleich gemacht,wo holst du deine abstrakten Vergleichsansätze nur immer her?
Es kann auf jeden Fall als Vergleich herangezogen werden. Sofern es sich um die selbe Fertigungsgröße handelt kann man hier von der Anzahl der Transistoren ausgehen und daher von der Effektivität pro Transistor.
 
Tja, ein typischer Scully

Was hast du denn daran auszusetzen Scully, zwei ähnlich grösse Chips bezüglich Performance und Leistungsaufnahme miteinander zu vergleichen? Nenne mir bitte einen plausiblen und vernünftigen Grund! .

Gerne zwei Gründe sogar ersten andere Preisklasse zweitens andere Leistungsklasse Punkt aus!

Dem Verbraucher ist es schnurz egal wie groß der Die ist

Er entscheidet nach oben genannten Kriterien und nicht nach deiner "Diegrößenwunschliste" weil der Fermi dadurch bzw generell die Nvidia Chips ins negative gerückt werden
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh