> > > > Kommentar: Warum Larrabee (noch) kein Verlust ist

Kommentar: Warum Larrabee (noch) kein Verlust ist

DruckenE-Mail
Erstellt am: von

intel-leapaheadDiese Woche vermeldete Intel, dass die erste Generation des Larrabee nicht als Consumer-Grafikkarte den Weg in den Markt finden wird. Anders gesagt: Nächstes Jahr wird es nicht möglich sein ein Spiel auf der Larrabee-GPU laufen zu lassen. Auch wissenschaftliche Berechnungen werden nicht ausgeführt werden können. Dem ersten Schock über diese Nachricht folgte die Ernüchterung. Intel wird die Larrabee-Entwicklung allerdings nicht völlig einstellen, sondern lässt Entwickler weiter auf dieser Plattform arbeiten. Doch ein klarer und nüchterner Blick auf die Folgen macht deutlich, dass durch diesen Schritt keine große Nachwehen, weder für Intel, noch für den Grafikkarten-Markt zu erwarten sind.


Intel verfolgte teilweise eine fast schon verwirrende Produktpolitik mit Larrabee. Ersten theoretischen Ankündigungen folgte über Monate ein Mantel des Schweigens. Dann wurde erste Working-Hardware gezeigt, aber auch hier wollte oder konnte sich Intel nicht zum Leistungspotenzial von Larrabee äußern. Erst vor kurzen präsentierte Intel eine übertaktete Version von Larrabee, die laut eigener Aussage über eine theoretische Rechenleistung von knapp einem TeraFLOP verfügt. Wohlgemerkt ist hier die Rede von Peak-Performance, also einem nicht alltäglichen Anwendungsfall. Vergleicht man diese Angabe mit denen von AMD und NVIDIA wird schnell klar, Intels Larrabee ist nicht das erwartete Performance-Monster. Bereits eine ATI Radeon HD 4870 oder NVIDIA GeForce GTX 260 reichen an die TeraFLOP-Grenze heran. Von den aktuellen 2,7 TeraFLOP der ATI Radeon HD 5870 wollen wir erst gar nicht sprechen. Natürlich lassen sich diese Zahlen nicht direkt vergleichen, denn jeder Hersteller berechnet diese anhand der eigenen Architektur anders. Zudem sind die theoretischen Werte kaum praxisrelevant. Auch verhalten sich die unterschiedlichen Architekturen in Single-Precision, Double-Precision oder aber unter Verwendung von Cell-Shading-Computing komplett unterschiedlich. Dennoch dürfte klar sein, das High-End-Segment, weder bei der 3D-Performance, noch im Computing war für Intel mit der ersten Generation von Larrabee ein realistisches Ziel. Da hilft es auch nicht, wenn die Intel-Offiziellen schon recht bald verlauten ließen, Grafikkarten die mehr als 200 US-Dollar kosten, seihen mehr oder weniger sinnlose Performance-Schleudern und Energieverschwender.


Doch wann wäre Larrabee erschienen wenn sich Intel nicht zum Rückzug entschieden hätte? Diese Frage muss auch weiterhin offenbleiben. Allerdings können folgende Überlegungen vorgenommen werden: Im Normalfall kann Intel sechs Monate vor der Einführung einer neuen CPU-Generation bereits das nahezu fertige Produkt hinter verschlossenen Türen vorführen. Von Intels Larrabee ist aber bis auf einige Auftritte auf der IDF-Bühne bisher recht wenig zu sehen gewesen. Und auch dort hat es sich weniger um ein marktreifes Produkt gehandelt, als vielmehr um ein Laborexperiment. Bis Larrabee also vermutlich hätte erscheinen können, wäre die nächste Weihnachtssaison 2010 sicher schon angebrochen.

Fast zeitgleich zur Meldung, Intel würde das Larrabee-Projekt in der bisherigen Form einstellen, lies man verlauten, dass in den Entwickler-Labors ein Prozessor mit 48-Kernen arbeite. Ob Zufall oder nicht, beide Meldungen haben nur auf den ersten Blick etwas miteinander zu tun. Intels Entwicklungsabteilung arbeitet gleichzeitig an mehreren Projekten, Larrabee und der 48-Core dürften zwei völlig unterschiedliche sein. Eine echte Verwandtschaft ist nicht zu erkennen, zumal sich bereits die Anzahl der Kerne unterscheidet. Larrabee basierte auf 32 x86-Kernen, während die Labor-CPU mit 48 Kernen auf eine leicht weiter entwickelte Architektur setzt.


Bisher basierten alle Larrabee-Chips auf dem 45-nm-Prozess. Zum Zeitpunkt der ersten Vorstellung noch eine völlig neuartige Strukturbreite. Wäre Larrabee 2010 erschienen, hätte eine GPU in 45 nm sicherlich nicht mehr für eine zukunftsweisende Fertigungstechnik gestanden. 32-nm-CPUs werden dann erhältlich sein, bei den Flash-Speichern ist man gar schon bei 20 nm. Natürlich ist es denkbar, dass Intel auf 32 nm hätte wechseln können, angesichts der fehlenden vorzeigbaren Hardware in 45 nm aber sicherlich eher unwahrscheinlich.

Viel diskutiert wurden und werden auch die finanziellen Folgen für Intel. Diese dürften weitaus geringer sein als befürchtet. Intel hat in seinem gewaltigen Etat für die Entwicklung neuer Technologien sicher ausreichend Luft, um die bisherige Entwicklung von Larrabee abzufangen. Hinzu kommt, dass die bisher gemachten Schritte ja nicht vollends ins Leere laufen werden. Wesentlich schwerwiegender wäre es sicherlich gewesen, wenn Intel eine Consumer-Grafikkarte auf Larrabee-Basis in den Markt gebracht hätte, die dann als nicht konkurrenzfähig von AMD und NVIDIA zerpflückt worden wäre.

Intel hat bisher nur die erste Generation von Larrabee als Cosumer-Grafikkarte eingestellt. Bei entsprechender Neuausrichtung stehen zahlreiche Optionen für die Zukunft offen. So ist das Many-Core-Konzept für Intel zukunftsweisend. Larrabee basiert genau auf diesem Grundprinzip und hat sicherlich grundlegende Konzepte von Many-Core-Hardware eingeleitet. Egal ob Intel nun den Many-Core-Ansatz weiter verfolgt oder aber doch noch auf eine diskrete Lösung setzt, Larrabee wird uns sicher noch einige Zeit begleiten. Derzeit aber stellt das teilweise eingestellte Projekt keinen größeren Verlust dar, nicht für uns IT-Journalisten, nicht für Intel und sicher auch nicht für den Endkunden.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (25)

#16
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 13350
ggf. wirds vielleicht ja einfahc mitgenommen udn nicht genutzt?

wieso aufwand betreiben wenn mans nur einfach deaktivieren muss?
#17
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Problem ist das die Speicheranbindung über die IGP läuft. Einfach cutten geht also nicht, man muss das ganze Ding teildeaktivieren.

Allerdings hat das nichts mehr mit dem Thema hier zu tun.
#18
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Wassenberg
Bootsmann
Beiträge: 653
Und damit werden sie also als Integrierte lösung mit verkauft und Intel lässt sie in die Verkaufszahlen der Grafiklösungen mit einfließen :D

Nothing more to say
#19
customavatars/avatar5435_1.gif
Registriert seit: 13.04.2003

Trekker
Beiträge: 3774
@mr. dude: Das ist mir wohl bewusst und trotzdem bleibe ich dabei. ;)

Es geht ja nicht nur darum, das Intel eine absolute Marktmacht hat, sondern auch um die wesentlich höhere Marge im Vergleich zu AMD. Technologie und Fortschritt ist was schönes, aber leider fast gänzlich irrelevant.
Marktanteile zu gewinnen ist wesentlich schwerer als zu verlieren. Wenn der Kunde ein Produkt von Firma A kauft und damit nicht gänzlich unzufriieden ist wird er auch mit großer wahrscheinlichkeit Folgeprodukte der selben Firma kaufen. Das ist einfachstes kaufmännisches Wissen. Also ist ein hoher Marktanteil in einer bestimmten Sparte sehr wohl eine gute Aufstellung für die Zukunft.
Das Intel in diesen Bereichen Marktanteile verlieren muss ist fast schon klar, da die derzeitige Situation ja fast schon als das Optimum angesehen werden muss(mit einer der Gründe für den guten AMD Aktien Kurs). Aber dennoch ist Intel derzeit sehr gut aufgestellt und die derzeitigen Gewinne werden sicher nicht auf die Bank gelegt.

Ich hab ja oben schon mehrmals erwähnt das AMD technologisch nicht schlecht aufgestellt ist. Jedoch sind sie das auch heute gerade im Desktop Markt bereits und was ihnen das an Marktanteilen und vorallem an Gewinnen bringt sieht man ja.

Auf der anderen Seite steht Intel mit Milliardengewinnen und einem jetzt teileingestellten Larrabee-Projekt. Ich denke Intel weiß schon genau warum sie es in dieser Form eingestellt haben und in welche Richtung die nächste Generation gehen wird.
#20
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
http://www.cringely.com/2009/12/intel-will-buy-nvidia/ ....öh
#21
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5104
Ja manchmal sind Verschwörungstheorien wahr.
Wundern würde es mich nicht.;)
#22
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Wassenberg
Bootsmann
Beiträge: 653
Könnte auch ein Grund sein für das einstellen des Larrabee :D

fänd ich nicht mal schlecht, aber für AMD würde es dann echt hart werden. da ist es mir lieber wie es im moment ist da amd eine ganze menge arbeitsplätze in deutschland hält :(
#23
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5104
Ob das Intel so gut bekommen würde? Das glaub ich weniger.
Mit der zahlung die an AMD geleistet wurde sind die Schmiergeld zahlungen und Bstechungen ja nicht aus der Welt. Das kann noch gewaltig teuer werden für Intel.
Diese Mifiamethoden mögen die Amis gar nicht.
Da könnten Summen fällig werden die auch Intel wehtun würden.;)
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1257400514
#24
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Wassenberg
Bootsmann
Beiträge: 653
Jo aber AMD hat den kauf von ATI auch nicht wirklich aus der Portokasse bezahlt. Umbringen würde es Intel sicher nicht. Aber gewisse Argumente in den News sind schon nicht ganz unbegründet für diese annahme. Und irgendwoher muss das Gerücht ja wieder herkommen auch wenn manche Seiten sich gerne viel aus den Fingern saugen.
#25
customavatars/avatar5435_1.gif
Registriert seit: 13.04.2003

Trekker
Beiträge: 3774
Das wäre mit das dümmste was passieren könnte. Aber daran glaube ich eher nicht. Stellt euch das mal vor. Für uns bliebe dann sicher iwann nur noch die Wahl zwischen AMD only und Intel only. Mir wäre es am liebsten wenn AMD Intel bzw Intel AMD Chipsätze rausbringen würde, dazu noch Via und Nvidia. Und am besten von allen noch Grakas und CPUs, aber dazu wird es sicher auch nicht kommen. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]