> > > > Kommt Larrabee doch noch?

Kommt Larrabee doch noch?

Veröffentlicht am: von

intel3Im vergangenen Dezember wurde bekannt, dass Intel sein Larrabee-Projekt vorerst auf Eis legt. Durch wiederholte Verzögerungen sah man sich in Santa Clara außerstande, die Multi-CPU-Grafikkarte als konkurrenzfähiges Produkt auf den Markt zu bringen (wir berichteten in einer News und in einem Kommentar). Damals wiesen wir darauf hin, dass Intel das Larrabee nicht völlig für tot erklärt, sondern dass dieses Projekt zu einem späteren Zeitpunkt durchaus wieder aufleben könnte.

Wie TechEYE jetzt berichtet, arbeitet Intel auch wirklich weiterhin an Larrabee. Ein anonymer Larrabee-Ingenieur hat der Seite mitgeteilt, dass es immernoch eine Roadmap für Larrabee gäbe und kündigte ein beeindruckendes Comeback an. Der Insider kritisierte Intel dafür, dass das Unternehmen die damalige Ankündigung zum Aus für Larrabee falsch kommuniziert hätte. Es sei nie um ein völliges Ende für das Projekt gegangen. Intel sei in der Lage, Produkte dann auf den Markt zu bringen, wenn die Zeit dafür reif ist. Für Larrabee seien ursprünglich mehrere Hundert fähiger Entwickler angeheuert wurden, von denen ein großer Teil nur auf eine Wiederbelebung des Projekt warten würde.

In welchem Ausmaße momentan aber noch an Larrabee entwickelt wird und mit welcher Perspektive, teilte der Insider nicht mit. Es bleibt also abzuwarten, ob Larrabee wirklich nochmal ein Revival erleben wird.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (6)

#1
customavatars/avatar6035_1.gif
Registriert seit: 03.06.2003
Duisburg
Leutnant zur See
Beiträge: 1084
...dass es immernoch eine Roadmap für Larrabee gäbe und kündigte ein beeindruckendes Comeback...

von denen ein großer Teil nur auf eine ?Wiedebelegung? (ist hier Wiederbelebung gemeint?) des Projekt warten würde.

In welchem Ausmaße momentan aber noch an Larrabee entwickelt wird und mit welcher Perspektive,...
#2
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Die Frage ist: in wie weit ist das Design zeitgemäß bzw. kann Larabee so in der Form wie es mal konzipiert war mit aktuellen Lösungen mithalten?
#3
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Ich denke mal die alten Werte für den LRB 1 kann man über den Haufen werfen. Mal sehen mit was Intel da kommt.
#4
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat
Intel sei in der Lage, Produkte dann auf den Markt zu bringen, wenn die Zeit dafür reif ist


Was heißt bei Intel reif?Wenn der Apfel vom Baum fällt ists zu spät;)

Ich glaube nicht das die Grafikchipschmieden schlafen und ein "New" LRB wird ordentlich Leistung vor legen müssen um sich gegen Rot/Grün zu positionieren
#5
Registriert seit: 11.09.2009

Oberstabsgefreiter
Beiträge: 407
Schon das reine Ankündigen der Entwicklung des Larrabee hätte den Vorteil,
das Nvidia und AMD versuchen müssten,
auch ein bessere neue Architektur zu entwickeln.
Selbst wenn Larrbaree nie kommen wird oder Schwach wird,
ist es für den Endkunden vorteilhaft.
Außerdem ist sieht Larrabee eher in der Grafiksparte,
wie ein Singularity bei den Betriebssystemen aus,
nämlich wie eine Zukunftsinnovation.
Daher ist das Entwickeln wichtiger als das herauskommen in massen.
#6
customavatars/avatar129181_1.gif
Registriert seit: 07.02.2010

Gefreiter
Beiträge: 38
Da bin gespannt sobald die Zeit reif ist.
Kann mir schon gut vorstellen das die gut fürs untere Segment ist aber für mehr wir werden sehen ?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]