> > > > Kommentar: Warum Larrabee (noch) kein Verlust ist

Kommentar: Warum Larrabee (noch) kein Verlust ist

Veröffentlicht am: von

intel-leapaheadDiese Woche vermeldete Intel, dass die erste Generation des Larrabee nicht als Consumer-Grafikkarte den Weg in den Markt finden wird. Anders gesagt: Nächstes Jahr wird es nicht möglich sein ein Spiel auf der Larrabee-GPU laufen zu lassen. Auch wissenschaftliche Berechnungen werden nicht ausgeführt werden können. Dem ersten Schock über diese Nachricht folgte die Ernüchterung. Intel wird die Larrabee-Entwicklung allerdings nicht völlig einstellen, sondern lässt Entwickler weiter auf dieser Plattform arbeiten. Doch ein klarer und nüchterner Blick auf die Folgen macht deutlich, dass durch diesen Schritt keine große Nachwehen, weder für Intel, noch für den Grafikkarten-Markt zu erwarten sind.


Intel verfolgte teilweise eine fast schon verwirrende Produktpolitik mit Larrabee. Ersten theoretischen Ankündigungen folgte über Monate ein Mantel des Schweigens. Dann wurde erste Working-Hardware gezeigt, aber auch hier wollte oder konnte sich Intel nicht zum Leistungspotenzial von Larrabee äußern. Erst vor kurzen präsentierte Intel eine übertaktete Version von Larrabee, die laut eigener Aussage über eine theoretische Rechenleistung von knapp einem TeraFLOP verfügt. Wohlgemerkt ist hier die Rede von Peak-Performance, also einem nicht alltäglichen Anwendungsfall. Vergleicht man diese Angabe mit denen von AMD und NVIDIA wird schnell klar, Intels Larrabee ist nicht das erwartete Performance-Monster. Bereits eine ATI Radeon HD 4870 oder NVIDIA GeForce GTX 260 reichen an die TeraFLOP-Grenze heran. Von den aktuellen 2,7 TeraFLOP der ATI Radeon HD 5870 wollen wir erst gar nicht sprechen. Natürlich lassen sich diese Zahlen nicht direkt vergleichen, denn jeder Hersteller berechnet diese anhand der eigenen Architektur anders. Zudem sind die theoretischen Werte kaum praxisrelevant. Auch verhalten sich die unterschiedlichen Architekturen in Single-Precision, Double-Precision oder aber unter Verwendung von Cell-Shading-Computing komplett unterschiedlich. Dennoch dürfte klar sein, das High-End-Segment, weder bei der 3D-Performance, noch im Computing war für Intel mit der ersten Generation von Larrabee ein realistisches Ziel. Da hilft es auch nicht, wenn die Intel-Offiziellen schon recht bald verlauten ließen, Grafikkarten die mehr als 200 US-Dollar kosten, seihen mehr oder weniger sinnlose Performance-Schleudern und Energieverschwender.


Doch wann wäre Larrabee erschienen wenn sich Intel nicht zum Rückzug entschieden hätte? Diese Frage muss auch weiterhin offenbleiben. Allerdings können folgende Überlegungen vorgenommen werden: Im Normalfall kann Intel sechs Monate vor der Einführung einer neuen CPU-Generation bereits das nahezu fertige Produkt hinter verschlossenen Türen vorführen. Von Intels Larrabee ist aber bis auf einige Auftritte auf der IDF-Bühne bisher recht wenig zu sehen gewesen. Und auch dort hat es sich weniger um ein marktreifes Produkt gehandelt, als vielmehr um ein Laborexperiment. Bis Larrabee also vermutlich hätte erscheinen können, wäre die nächste Weihnachtssaison 2010 sicher schon angebrochen.

Fast zeitgleich zur Meldung, Intel würde das Larrabee-Projekt in der bisherigen Form einstellen, lies man verlauten, dass in den Entwickler-Labors ein Prozessor mit 48-Kernen arbeite. Ob Zufall oder nicht, beide Meldungen haben nur auf den ersten Blick etwas miteinander zu tun. Intels Entwicklungsabteilung arbeitet gleichzeitig an mehreren Projekten, Larrabee und der 48-Core dürften zwei völlig unterschiedliche sein. Eine echte Verwandtschaft ist nicht zu erkennen, zumal sich bereits die Anzahl der Kerne unterscheidet. Larrabee basierte auf 32 x86-Kernen, während die Labor-CPU mit 48 Kernen auf eine leicht weiter entwickelte Architektur setzt.


Bisher basierten alle Larrabee-Chips auf dem 45-nm-Prozess. Zum Zeitpunkt der ersten Vorstellung noch eine völlig neuartige Strukturbreite. Wäre Larrabee 2010 erschienen, hätte eine GPU in 45 nm sicherlich nicht mehr für eine zukunftsweisende Fertigungstechnik gestanden. 32-nm-CPUs werden dann erhältlich sein, bei den Flash-Speichern ist man gar schon bei 20 nm. Natürlich ist es denkbar, dass Intel auf 32 nm hätte wechseln können, angesichts der fehlenden vorzeigbaren Hardware in 45 nm aber sicherlich eher unwahrscheinlich.

Viel diskutiert wurden und werden auch die finanziellen Folgen für Intel. Diese dürften weitaus geringer sein als befürchtet. Intel hat in seinem gewaltigen Etat für die Entwicklung neuer Technologien sicher ausreichend Luft, um die bisherige Entwicklung von Larrabee abzufangen. Hinzu kommt, dass die bisher gemachten Schritte ja nicht vollends ins Leere laufen werden. Wesentlich schwerwiegender wäre es sicherlich gewesen, wenn Intel eine Consumer-Grafikkarte auf Larrabee-Basis in den Markt gebracht hätte, die dann als nicht konkurrenzfähig von AMD und NVIDIA zerpflückt worden wäre.

Intel hat bisher nur die erste Generation von Larrabee als Cosumer-Grafikkarte eingestellt. Bei entsprechender Neuausrichtung stehen zahlreiche Optionen für die Zukunft offen. So ist das Many-Core-Konzept für Intel zukunftsweisend. Larrabee basiert genau auf diesem Grundprinzip und hat sicherlich grundlegende Konzepte von Many-Core-Hardware eingeleitet. Egal ob Intel nun den Many-Core-Ansatz weiter verfolgt oder aber doch noch auf eine diskrete Lösung setzt, Larrabee wird uns sicher noch einige Zeit begleiten. Derzeit aber stellt das teilweise eingestellte Projekt keinen größeren Verlust dar, nicht für uns IT-Journalisten, nicht für Intel und sicher auch nicht für den Endkunden.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (25)

#16
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 17361
ggf. wirds vielleicht ja einfahc mitgenommen udn nicht genutzt?

wieso aufwand betreiben wenn mans nur einfach deaktivieren muss?
#17
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Problem ist das die Speicheranbindung über die IGP läuft. Einfach cutten geht also nicht, man muss das ganze Ding teildeaktivieren.

Allerdings hat das nichts mehr mit dem Thema hier zu tun.
#18
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Wassenberg
Bootsmann
Beiträge: 653
Und damit werden sie also als Integrierte lösung mit verkauft und Intel lässt sie in die Verkaufszahlen der Grafiklösungen mit einfließen :D

Nothing more to say
#19
customavatars/avatar5435_1.gif
Registriert seit: 13.04.2003

Trekker
Beiträge: 3774
@mr. dude: Das ist mir wohl bewusst und trotzdem bleibe ich dabei. ;)

Es geht ja nicht nur darum, das Intel eine absolute Marktmacht hat, sondern auch um die wesentlich höhere Marge im Vergleich zu AMD. Technologie und Fortschritt ist was schönes, aber leider fast gänzlich irrelevant.
Marktanteile zu gewinnen ist wesentlich schwerer als zu verlieren. Wenn der Kunde ein Produkt von Firma A kauft und damit nicht gänzlich unzufriieden ist wird er auch mit großer wahrscheinlichkeit Folgeprodukte der selben Firma kaufen. Das ist einfachstes kaufmännisches Wissen. Also ist ein hoher Marktanteil in einer bestimmten Sparte sehr wohl eine gute Aufstellung für die Zukunft.
Das Intel in diesen Bereichen Marktanteile verlieren muss ist fast schon klar, da die derzeitige Situation ja fast schon als das Optimum angesehen werden muss(mit einer der Gründe für den guten AMD Aktien Kurs). Aber dennoch ist Intel derzeit sehr gut aufgestellt und die derzeitigen Gewinne werden sicher nicht auf die Bank gelegt.

Ich hab ja oben schon mehrmals erwähnt das AMD technologisch nicht schlecht aufgestellt ist. Jedoch sind sie das auch heute gerade im Desktop Markt bereits und was ihnen das an Marktanteilen und vorallem an Gewinnen bringt sieht man ja.

Auf der anderen Seite steht Intel mit Milliardengewinnen und einem jetzt teileingestellten Larrabee-Projekt. Ich denke Intel weiß schon genau warum sie es in dieser Form eingestellt haben und in welche Richtung die nächste Generation gehen wird.
#20
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
http://www.cringely.com/2009/12/intel-will-buy-nvidia/ ....öh
#21
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5799
Ja manchmal sind Verschwörungstheorien wahr.
Wundern würde es mich nicht.;)
#22
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Wassenberg
Bootsmann
Beiträge: 653
Könnte auch ein Grund sein für das einstellen des Larrabee :D

fänd ich nicht mal schlecht, aber für AMD würde es dann echt hart werden. da ist es mir lieber wie es im moment ist da amd eine ganze menge arbeitsplätze in deutschland hält :(
#23
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5799
Ob das Intel so gut bekommen würde? Das glaub ich weniger.
Mit der zahlung die an AMD geleistet wurde sind die Schmiergeld zahlungen und Bstechungen ja nicht aus der Welt. Das kann noch gewaltig teuer werden für Intel.
Diese Mifiamethoden mögen die Amis gar nicht.
Da könnten Summen fällig werden die auch Intel wehtun würden.;)
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1257400514
#24
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Wassenberg
Bootsmann
Beiträge: 653
Jo aber AMD hat den kauf von ATI auch nicht wirklich aus der Portokasse bezahlt. Umbringen würde es Intel sicher nicht. Aber gewisse Argumente in den News sind schon nicht ganz unbegründet für diese annahme. Und irgendwoher muss das Gerücht ja wieder herkommen auch wenn manche Seiten sich gerne viel aus den Fingern saugen.
#25
customavatars/avatar5435_1.gif
Registriert seit: 13.04.2003

Trekker
Beiträge: 3774
Das wäre mit das dümmste was passieren könnte. Aber daran glaube ich eher nicht. Stellt euch das mal vor. Für uns bliebe dann sicher iwann nur noch die Wahl zwischen AMD only und Intel only. Mir wäre es am liebsten wenn AMD Intel bzw Intel AMD Chipsätze rausbringen würde, dazu noch Via und Nvidia. Und am besten von allen noch Grakas und CPUs, aber dazu wird es sicher auch nicht kommen. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]