> > > > Intels Larrabee kommt nicht auf den Markt

Intels Larrabee kommt nicht auf den Markt

Veröffentlicht am: von

intel3 Nachdem sich der Launch von Intels ambitioniertem Larrabee-Projekt bereits mehrfach verzögert hatte (wir berichteten), kommt jetzt praktisch das Aus für die als Multi-CPU-Chip konzipierte Grafikkarte. Intel selbst hat eingeräumt, dass der Larrabee-Entwicklungsfortschritt nicht den eigenen Erwartungen entspricht und Larrabee entsprechend nicht auf den Consumer-Markt kommen wird. Stattdessen soll Larrabee nur noch als Softwareentwicklungsplattform dienen. Mit den Worten eines Intel-Sprechers: "Larrabee silicon and software development are behind where we hoped to be at this point in the project. As a result, our first Larrabee product will not be launched as a standalone discrete graphics product."

Durch die dauernden Verzögerungen konnte Larrabee offensichtlich nicht mehr hinreichend konkurrenzfähig zu den Produkten von AMD und Nvidia sein.

Ob es zukünftig noch weitere, dann vielleicht doch auch für Konsumenten bestimmte Larrabee-Versionen geben wird, lässt Intel offen.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (33)

#24
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat scully1234;13471604


Das eine kann ohne das andere nicht gut auskommen zumindestens z.Zt;)


Deswegen lag der Streit ja auch in der Zukunft ;)
#25
Registriert seit: 20.08.2006

Flottillenadmiral
Beiträge: 5400
Zitat Neurosphere;13471649
Deswegen lag der Streit ja auch in der Zukunft ;)


Das ist ja so als wenn man sagen würde, die werden sich im Jahre 2008 streiten. Nur andersrum. :fresse:
#26
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat vento;13472293
Das ist ja so als wenn man sagen würde, die werden sich im Jahre 2008 streiten. Nur andersrum. :fresse:


Hast recht, klang irgendwie doof :fresse:

Ok, dann stritten sie sich über ein Thema das noch in der Zukunft liegt...
#27
customavatars/avatar24340_1.gif
Registriert seit: 27.06.2005

Fregattenkapitän
Beiträge: 2826
Zitat scully1234;13471565
Das geht auf reinen Gpus auch durch Cuda oder Stream zu realisieren;)

Wenn nicht sogar besser,als das je eine x86 cpu könnte,auch wenn sie viele Cores hat.


Klar geht das. Die Ausrichtung war aber eine andere. LRB ist ein HPC Teil mit dem man Grafik berechnen kann, AMDs Chips sind das Gegenteil und Fermi ist irgendwo dazwischen.

Wo die Reise hingeht ist klar aber offenbar ist die Zeit für eine Lösung wie Larrabee noch nicht gekommen.

Fraglich ist auch, ob der Larrabeeansatz mit den x86 Cores der richtige ist. Das Ding ist vermutlich an der Verlustleistung gescheitert, die man bei brauchbarer Leistung gehabt hätte. Und das obwohl Intel im Vergleich zu ATI und NV in einem um längen besseren Prozess fertigen kann.
#28
Registriert seit: 20.08.2006

Flottillenadmiral
Beiträge: 5400
Intel hatte doch schon vor einiger Zeit gemeint, dass die durchaus auch ein paar Larrabee Generationen auslassen und vll erst Larrabee 2, 3 oder so in Masse produziert werden könnte und für den Endkunden kommt.
#29
Registriert seit: 01.06.2009

Korvettenkapitän
Beiträge: 2494
Oh man letzte woche hab ich noch das Video von Intel gesehen mit der Umlackierten GTX in den Händen und ner Anzeige auf der 1 Tera flop angezeigt wurde und jetzt das .

mfGamiac
#30
customavatars/avatar31508_1.gif
Registriert seit: 16.12.2005

Fregattenkapitän
Beiträge: 2916
wie ich es wusste.... papiertiger :rolleyes:
#31
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Heinsberg
Bootsmann
Beiträge: 654
Ich bin mir bei der Geschichte jetzt nicht mal sicher, ob Intel es aufgegeben hat weil die Technik nicht reif war oder weil der Markt noch nicht reif war für die nötige Software.

Ich denke eher letzteres. Intel hatte doch ein gänzliches anderes Ziel verfolgt oder nicht? War ja ständig von Raytracing die Rede. Das wäre dann, zumindest am Anfang, genau so proprietär geworden wie Nvidias PhysX dem viele keine Zukunft geben. Auf jeden fall wird man irgendwann ein Resultat aus der Forschung sehen. Umsonst war das bestimmt nich.

Ich finde es jetzt schade das daraus erstmal nichts wird!
#32
customavatars/avatar30622_1.gif
Registriert seit: 02.12.2005
Eutin.OH.SH
Vizeadmiral
Beiträge: 7024
Zitat [TLR]Snoopy;13471057
Also das ist doch mal absolut falsch. Wo stagniert die Entwicklung und das auch noch seit Jahren? Auf diese Antwort bin ich gespannt. Ohne eine Erklärung wie du auf diesen Gedanken kommen kannst hast du mit viel Worte nichts gesagt.

Wo ist Nvidia abwesend im High-End? Das die neue Generation etwas braucht macht deine Aussage nicht richtiger.

Aber ich gebe zu, dass ich es klasse finde das Intel nichts bringen kann, weil es wohl doch zu viele Probleme gibt und ihnen anscheinend die Fähigkeiten fehlen :wink: Tschüss Intel


ich antworte gleich mal mit einer gegenfrage...wann hattest du das letzte mal das gefühl "WoW das topt einfach alles,
das ist ne wirkliche evolutions stufe, sowas hat man noch nicht gesehen"? egal ob hardware oder software, meiner
meinung nach hat sich seit dem G80, DX9 und spielen wie HL² oder Doom3 kaum etwas weiter entwickelt. einizg
Crysis hat, vor immerhin schon ~2 jahren, grafisch die messlatte ein stück höher gelegt. der GT200 basiert im grunde
auf dem fast 3 1/2 jahre alten G80, DX10 und wahrscheinlich auch DX11 werden kaum optische akzente gegenüber
DX9 setzen können und das niveau der KI ist im großteil der aktuellen spiele kaum höher als vor 5 jahren. monitore und
fernseher sind die einzigen bereiche in denen in den letzten jahren viel passiert ist. 19 zoll monitore für unter 100€,
fullHD 16:9 geräte für um die 200€...1m große LCD oder Plasma geräte für 500-1000€...von sowas konnte man vor einigen
jahren nur träumen! die HW-industrie natürlich ebenfalls, für "damals" übliche 1024/786 oder 1280er auflösungen würde
ansonsten noch heute ne 8800er graka reichen!

Nvidia ist aktuell im highend/performance segment gänzlich abwesend! entsprechende karten der letzten generation
sind EOL und werden gerade immer weniger und teurer. meine GTX 275 hat mich im september 160€ gekostet, jetzt ist
sie entweder nicht mehr lieferbar, oder kostet über 200...zudem kann man aktuell selbst die 285er höchstens als performance
karte sehen, zumindest die 5870 liegt einfach zu weit vorne. erinnere mich seit bestehen von Nvidia an keine vergleichbare
situation. noch vor einigen jahren hätten sie lieber eine aufs allerletzt ausgereizte, überteuerte und viel zu laute monster
karte der letzten generation gebracht, als dem konkurenten das feld zu überlassen. klar sind die 58x0 karten auch noch
kaum lieferbar, dafür hat ATI mit der 4870 1gb und 4890 zwei extrem günstige und immer noch ausreichend schnelle
performance karten im angebot, die sich sicher gerade zu weihnachten richtig gut verkaufen werden!

glaube auch nicht dass fehlende produktreife, sonder fehlende unterstützung der software entwickler schuld an intels
rückzieher ist. vorallem dank Xbox360 und PS3 ist der markt derart fest gefahren...für wirkliche innovationen ist da
aktuell scheinbar kein platz!
#33
customavatars/avatar87660_1.gif
Registriert seit: 21.03.2008
Heinsberg
Bootsmann
Beiträge: 654
Zitat Madschac;13477027
...noch vor einigen jahren hätten sie lieber eine aufs allerletzt ausgereizte, überteuerte und viel zu laute monster
karte der letzten generation gebracht, als dem konkurenten das feld zu überlassen...


Ich glaube aber das ne GTX 285 mit LN² nicht wirklich massentauglich wäre :lol::lol:
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]