> > > > Intel Larabee hätte eine gute Grafikkarte werden können, wenn ...

Intel Larabee hätte eine gute Grafikkarte werden können, wenn ...

DruckenE-Mail
Erstellt am: von

intel3Längst abgeschlossene Themen sollte man nicht zwingend wiedererwecken, im Falle von Larabee reden wir aber nicht von vollständig eingestellten Projekten, denn die Entwicklung hinter Larabee findet in den aktuellen Xeon-Phi-Beschleunigern weiterhin Verwendung. Nun hat Tom Forsyth seine Sicht hinter der Entwicklung und den Umständen der Einstellung der Ambitionen einer dedizierten Grafikkarte von Intel veröffentlicht. Forsyth war an Larabee im Core-Entwickler-Team beteiligt und arbeitet momentan bei Oculus.

Zunächst einmal will Tom Forsyth festhalten, dass die Entwicklung von Larabee in großer Erfolgt war, denn sie hat Intel die Situation gebracht, mit den aktuellen Xeon-Phi-Beschleunigern im GPU-Compute-Markt sehr gut aufgestellt zu sein. Mit Knights Landing liefert Intel die aktuelle Generation dieser Entwicklung derzeit aus und Knights Mill soll als Zwischenschritt bis zu Knights Hill im kommenden Jahr bei der Beschleunigung von Deep-Learning-Netzwerken helfen. Larabee krankte laut Forsyth nicht an langsamer oder wenig erfolgreicher Entwicklung, sondern an politischen Entscheidungen die dazu geführt haben, dass Larabee in einem schlechteren Licht dasteht, als es dies eigentlich verdient hätte.

Die Architektur von Larabee wie sie auf der SIGGRAPH 2008 vorgestellt wurde
Die Architektur von Larabee wie sie auf der SIGGRAPH 2008 vorgestellt wurde

Er liefert dazu natürlich auch viele Hintergründe. So beschreibt das Projekt Larabee eigentlich die Entwicklung von drei Chips, die unter den Namen Knights Ferry (Aubrey Isle bzw. LRB1), Knights Corner (Xeon Phi bzw. LRB2) und Knights Landing (ebenfalls Xeon Phi bzw. LRB3) bekannt sind. Alle diese drei Chips wurden fertig entwickelt und werden im Falle von Knights Corner und Knights Landing in Form von Xeon-Phi-Beschleunigern auch ausgeliefert. Zwischenzeitlich gab es auch noch einen Chip mit dem Codenamen LRB3, dieser aber sollte zwischen Knights Corner und Knights Landing positioniert werden. Dabei könnte es sich theoretisch um den von Intel auf dem IDF 2016 angekündigten Knights Mill handeln, wenngleich Tom Forsyth sicherlich von Zeiträumen spricht, in der an die aktuelle Ausrichtung von Knights Mill noch nicht zu denken war.

Die Ziele von Larabee

Doch zurück zu Larabee: Das Projekt wurde 2005 unter dem Titel SMAC gestartet und hatte folgende Ziele:

  1. Der stärkste Chip hinsichtlich FLOPS/W für Real-World-Workloads zu sein, der aus einer möglichst hohen Anzahl an simplen Kernen besteht und sich einfach in bestehende Systeme integrieren lässt.
  2. Dieser Chip sollte auf x86-Kernen beruhen und es damit möglich machen, bestehende Betriebssysteme zu verwenden oder aber eine einfache Implementation von Speicher-Koheränz zu erreichen. Es sollte kein Legacy Code oder proprietärer Code verwendet werden. Man wollte keinen weiteren Itanium-Prozessor entwickeln.
  3. Der Prozessor sollte schnell und einfach entwickelt werden.
  4. Larabee sollte den wachsenden GPGPU-Markt adressieren. Zu diesem Zeitpunkt wollte Intel keine PCI-Express-Grafikkarte auf Basis der Gen-Grafik entwickeln lassen. Es war also wichtige "normale Grafik" ebenso ausführen zu können, wie am GPGPU-Markt vertreten zu sein.
  5. Es sollte so wenig grafikkartenspezifische Hardware wie möglich verwendet werden.

Die Reihenfolge dieser Anforderungen ist entscheidend, denn erst an vierter Stelle kommt der Grafikkartenmarkt ins Spiel. Hätte Intel eine dedizierte Grafikkarte entwickeln wollen, hätte man die Prioritäten anders gesetzt. Man hatte diesen Markt aber bereits im Hinterkopf, daher sollte Larabee auch „normale Grafik" ausführen können.

Laut Tom Forsyth machte Intel in der Außenkommunikation große Fehler und wollte Larabee als Grafikkarte und die Knights-Generationen als Xeon-Phi-Produkte getrennt voneinander behandeln – obwohl es sich unter der Haube um ein und dasselbe Produkt handelt. Die ersten Produkte beider Kategorien unterschieden sich nur durch den nicht vorhandenen DVI-Anschluss voneinander. Erst durch die Art und Weise wie der Chip angesprochen wird, unterscheidet sich Larabee in Form einer Grafikkarte oder eines GPU-Beschleunigers. Bis hin zu Knights Corner verfügte der Chip über Texture Samplers und Video-Ausgänge. Diese sind aber deaktiviert und können auch per Software nicht angesprochen werden. Die Tatsache, dass diese Komponenten vorhanden sind zeigt aber, dass Larabee bzw. Knights Corner noch immer eine vollständige Grafikkarte hätte sein können.

Die meisten Ziele der Entwicklung wurden erreicht

In der Folge wertet Tom Forsyth die gesteckten Ziele und Prioritäten aus:

  1. Einen der stärksten Chips hinsichtlich der FLOPS/W hat Intel mit Knights Landing entwickelt, denn eine Reihe der Top10-Supercomputer verwendet entsprechende GPU-Beschleuniger.
  2. Die Xeon-Phi-Beschleuniger verwenden eine unterschiedliche Anzahl an x86-Kernen. Knights Ferry und Knights Corner konnten zwar noch keine SSE-Befehlssätze ausführen, mit Knights Landing brachte man diese aber zurück und führte mit AVX512 sogar Befehlssätze ein, die in allen aktuellen x86-Kernen von Intel weiterhin Verwendung finden.
  3. Auch wenn nicht alle Zeitpläne eingehalten werden konnten, so hat man dennoch recht schnell einen relativ einfachen Chip entwickelt, der Programmieren einen einfachen Zugang ermöglicht.
  4. Larabee konnte problemlos den zum damaligen Zeitpunkt verfügbaren Grafikkarte und GPU-Beschleunigern folgen. Compute Shader und OpenCL liefen schnell und effizient auf den Chips. DirectX und OpenCL waren sogar schneller als auf Hardware der Konkurrenz – zumindest so lange weitestgehend Compute-Berechnungen damit durchgeführt wurden. Die notwendigen Programmierungs-Modelle wie ISPC und CILK Plus sind noch heute ein Standard in diesem Bereich. Mit der Einstellung der Entwicklung von Larabee als Grafikkarten endeten auch die Software-Anpassungen in diesem Bereich und damit befand Larabee als Grafikkarte in einer Sackgasse.
  5. Larabee sollte eine Grafikkarte ohne typische Architektur werden. Dies legt die Verwendung von x86-Kernen bereits nahe. Das Ziel so wenig grafikkartenspezifische Komponenten zu verwenden wie irgend möglich, wurde allerdings nur teilweise erreicht. Etwa 10 % der Chipfläche fallen auf eben solche Komponenten wie Textureinheiten. Diese sind selbst bei Knights Corner noch vorhanden und sind erst mit Knights Landing vom Chip verschwunden. In Knights Corner waren acht Textureinheiten vorhanden, später sollten es sogar 16 sein. Am Ende wurden sie komplett gestrichen. Doch auch wenn Intel bei Larabee nicht auf solche grafikkartenspezifische Komponenten verzichten konnte, so wurden sie derart implementiert, dass sie sich bei Nichtverwendung einfach komplett abschalten konnten. Sie belegen bei Knights Corner also Chipfläche, sorgen aber nicht für einen höheren Verbrauch des Chips.

Warum aber Larabee dennoch scheitern musste

Larabee scheiterte vor allem daran, dass bei Intel ein Umdenken in der Chefetage stattgefunden hat und man eine dedizierte Grafikkarte nicht mehr als Ziel dieser Entwicklung sehen wollte. Larabee hat aber auch nie die Chance bekommen zu zeigen, zu was es im Stande ist. Larabee konnte die zu diesem Zeitpunkt aktuelle DirectX 11 und OpenGL 4.x Grafik schnell ausführen. Treiber und Software haben sich auf einem Stand befunden, in dem eine PCI-Express-Grafikkarte auf Basis von Larabee einfach in den Rechner gesteckt, der Treiber installiert und gespielt werden konnte. Es handelte sich bereits um eine vollwertige Grafikkarte.

Es handelte sich bei Larabee sogar um die erste Grafikarte, die vollständig alle Feature Sets von DirectX 11 unterstützen konnte. Dies war der Konzeption von Larabee geschuldet. Es handelte sich ja um x86-Kerne, die per Software so angesprochen werden konnten, dass sie ein Shader-Modell simulieren konnten. Auf den Larabee-Grafikkarten lief ein FreeBSD, darauf ein x86-Programm namens DirectXGfx mit 248 Threads. Per Telnet konnte auf Larabee zugegriffen werden. Ressourcen konnten umverteilt werden und wer wollte konnte bestimmte Bereiche dedizierten Aufgaben zuordnen. AMD hat mit der Polaris-Architektur ein ähnliches Konzept eingeführt. Hier können per Compute Unit Reservation einzelne Recheneinheiten einer bestimmten Aufgabe, der Berechnung von Audio, zugeordnet werden.

Xeon-Phi-Beschleuniger als PCI-Express-Karte
Xeon-Phi-Beschleuniger als PCI-Express-Karte

Larabee ist laut Tom Forsyth noch immer die schnellste GPU aus dem Hause Intel. Vermutlich sogar schneller als die Gen-Grafik der 7. Core-Generation alias Kaby Lake. Die Anpassung der Software hat sich zum Zeitpunkt der Einstellung in einem recht frühen Stadium befunden. Mit etwas mehr Zeit hätten hier weitere Optimierungen zu weiteren Verbesserungen bei der Leistung geführt. Mit dem nächsten Chip, LRB3, hätte man dann auch auf Seiten der Hardware weitere Verbesserungen im Zusammenspiel mit der Software einführen können. Zu all dem ist es nicht mehr gekommen. LRB3 bzw. Knights Landing sollte einem anderen Zweck dienen.

Tom Forsyth hat aber auch ein klares Fazit zu Larabee und inzwischen einen Strich unter die Geschichte gezogen. Er möchte die Erfahrungen nicht missen und glaubt auch, an einem wichtigen Projekt seinen Beitrag geleistet zu haben. In Anbetracht der Tatsache, wie stark Intel sich derzeit mit den Xeon-Phi-Beschleunigern aufstellt sicherlich keine falsche Darstellung. Ohne das Projekt Larabee hätte es Knights Landing und die Nachfolger Knights Mill und Knights Hill in dieser Form nicht gegeben. Er bedauert aber auch die Entscheidungen des Managements bei Intel, denn in seinen Augen hatte Larabee eine Chance am Markt verdient gehabt. Hat man die Ressourcen von Intel im Hinterkopf, wäre es sicher ein Versuch wert gewesen.

Letztendlich ist es aber nicht dazu gekommen und Larabee wird als Desktop-Grafikkarte eine Randnotiz bleiben. Wie es dazu gekommen ist, ist nun weitestgehend erklärt. Larabee war aber kein Fehlschlag, sondern ist womöglich ein Opfer des eigenen Erfolgs geworden. Man darf gespannt sein ob und wann sich Intel wieder in diesem Bereich vorwagen wird oder aber ob integrierte GPUs und GPU-Beschleuniger für Intel die einzig lohnenswerte Entwicklung in diesem Bereich bleiben wird.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (13)

#4
Registriert seit: 07.03.2013

Fregattenkapitän
Beiträge: 2954
Ich hätte es auch durchaus interessant gefunden...

Die dreiste Abzocke, bei Nvidia sieht bei der 1060 wie aus? ;)

Die 1060 ist ein bisschen schneller als die RX480 und kostet auch nur minimal mehr...

Die Abzocke fängt weiter oben an.

Ich wünschte auch, es gäbe noch einen ernst zu nehmenden Mitspieler im GPU Markt, zu Nvidia und AMD.
#5
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5606
@Topic
Interessant zu sehen daß es eigentlich möglich gewesen wäre da im GPU Sektor mitzumischen. Würde ich sehr gerne sehen so einen Prototypen in Aktion vs. den damaligen High End nVidia und AMD (ATI) Größen. Wenn man sich die Xeon Phi so ansieht wäre jedoch die Frage gewesen ob die Karten damals in vertretbaren preislichen Rahmen zu verkaufen gewesen wären. Mit passender RAM Ausstattung und in Massenfertigung denke ich jedoch schon.

@BrahmandYaatra
In Sachen AMD übertreibst Du wohl etwas. Ja klar - im Moment haben sie nichts im High End GPU Bereich (genau so wie im CPU Bereich schon seit einigen Jahren), aber da soll ja noch was kommen (in beiden Bereichen). Mit Abzocke gebe ich Dir im Falle der 1080 und teils auch 1070 bzw. im Speziellen mit der Founders Edition (= Referenz Design, egal wie die das nennen) recht. Mittlerweile zahlt man für mehr Leistung auch mehr Geld, und damit meine ich nicht nur den USD<->EUR Kurs.

Ein oder mehrere Mitspieler im GPU Markt wären bestimmt nicht schlecht. Ebenso im x86 CPU Markt. Ich stamme ja auch noch aus einer Zeit wo es als ich an PCs herumzuschrauben begann noch unzählige Grafikchiphersteller und auch noch einige CPU Hersteller gab. Auch die Grafikkarten an sich waren von Hersteller zu Hersteller oft komplett verschieden aufgebaut/ausgestattet. Mit den später eingeläuteten 3D Grafikbeschleuniger Karten wurde der Markt stark gesiebt, trotzdem gab es noch Unmengen an unterschiedlichen Karten und Chips die teils sehr unterschiedliche Funktionen und Bilddarstellung (im 3D Bereich) hatten. Seit vielen Jahren sehen Spiele auf AMD und nVidia Karten sowie Intel iGPUs so gut wie gleich aus. Damals gab es riesen Unterschiede (z.B. 3DFX Voodoo Graphics vs Matrox Mystique vs S3 Virge vs Rendition Verite vs 3DLabs Permedia vs ATI Rage3D vs nVidia Riva128 vs Intel 740 usw. usw.). Ähnlich wie früher die Soundwiedergabe auf den unterschiedlichsten Soundkarten teils komplett anders war (Adlib vs. Soundblaster vs. ProAudio Spectrum vs. Gravis Ultrasound vs. Roland MT32/LAPC-1 vs. General MIDI usw.)

Mal sehen, vielleicht wagt sich Intel vielleicht doch noch irgendwann mal wieder in den dGPU Markt.
#6
Registriert seit: 22.02.2013

Hauptgefreiter
Beiträge: 171
Zitat Bucho;24851774
@Topic
Mal sehen, vielleicht wagt sich Intel vielleicht doch noch irgendwann mal wieder in den dGPU Markt.


Glaube ich nicht. Wenn sich das abzeichnet werden weder AMD noch Nvidia irgendwelche GPU IP Lizenzen an Intel vergeben und dann können sie dort nichts bauen. Zu vieles von dem was da notwendig ist, ist bereits patentiert. Zudem ist es für den Markt langfristig auch nicht hilfreich. Intel ist eh schon zu groß. Da wäre es viel sinnvoller endlich mal x86 für jedermann nach dem FRAND Prinzip aufzumachen, damit die mehr unter Druck machen. Und wenn das nicht passiert, dann müssen eben alle anderen mit jedem Jahr ARM einfach mehr puschen.
#7
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2582
Zitat BrahmandYaatra;24844834

AMD wird sich mit dem Lowend- und Konsolenmarkt wohl noch eine Weile halten, den Rest hat Nvidia inzwischen vollständig eingenommen.


Ja, AMD wird sich wohl nicht mehr lange halten können. Sind schon fast am Ende und ein Licht am Horizont gibt es auch nicht mehr. :rolleyes:
https://www.computerbase.de/2016-08/amd-grafikkarten-marktanteil/

Das wird sicher selbst auch Polaris nicht mehr retten können, welcher noch gar nicht in diesem Quartal mit einbezogen wurde.

Zitat

Wenn Intel etwas auf Höhe des GP102 bringen würde mit besseren Treibern würde ich es eher kaufen - Vor allem wenn die Karte dann nach Release der nächsten Generation nach einem Jahr nicht als "Legacy" einsortiert wird und treibermäßig vernachlässigt wird.


Also für mich ist Intel ein absoluter Notlauf, wenn ich mal meine Karte wechseln muss. Vor allem deren Treiber sind absolute Grütze ! Wer über AMDs-Treiber meckert, hat noch keinen Intel-Treiber erlebt. Es hat schon seinen Grund warum selbst Intel da nicht so einfach mit einsteigen kann.
#8
Registriert seit: 11.08.2016

Banned
Beiträge: 50
Zitat Pickebuh;24852392


Das wird sicher selbst auch Polaris nicht mehr retten können, welcher noch gar nicht in diesem Quartal mit einbezogen wurde.


Polaris gegen GTX 1070 GTX 1080 und GTX 1060 das wird ein Fiasko bei den Marktanteilen.
#9
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat BrahmandYaatra;24844834
Ich hätte nichts dagegen. AMD hat leider extrem nachgelassen, außer für Lowendlösungen und als Notfall-Gebrauchtkauf liefern die nichts mehr. Das Problem ist nur dass Nvidia jetzt mit seiner dreisten Abzocke durchkommt und dafür auch noch gefeiert wird. Kein Wunder, für kompromisslose Leistung und Energieeffizienz kommt man um Nvidia nicht herum, außer man ist bereit komplett auf Grafikbeschleuniger zu verzichten.


Völliger Unsinn. Wieso schaffst du es irgendwie alle Nase lang, sich mit solchem Pauschalen Mist hier in den Diskusionen zu platzieren!?
Vega ist angekündigt und wird mindestens mal mithalten können. Auf welches Modell (1080 oder TitanX), ist noch offen und wohin die Reise geht.
Aber LowEnd only bei AMD ist irgendwie was anderes... :rolleyes:

Zitat BrahmandYaatra;24844834
AMD wird sich mit dem Lowend- und Konsolenmarkt wohl noch eine Weile halten, den Rest hat Nvidia inzwischen vollständig eingenommen. Wenn Intel etwas auf Höhe des GP102 bringen würde mit besseren Treibern würde ich es eher kaufen - Vor allem wenn die Karte dann nach Release der nächsten Generation nach einem Jahr nicht als "Legacy" einsortiert wird und treibermäßig vernachlässigt wird.


Auch das ist quark. Bei dir ist irgendwie alles "Legacy", was deine eigene Fehlentscheidung zwischen Monitorwahl und GPU Wahl nicht befriedigen kann habe ich so das Gefühl... Nochmal für dich zum Mitschreiben, was gibt Hardwaretechnische Gründe, WARUM Kepler nicht so fix ist wie Maxwell. Und es gibt effektiv sogut wie keine Gründe, warum Pascal deutlich besser sein soll als Maxwell (wenn man den GP100 außen vor nimmt)
Wohin die Reise bei NV also gehen wird, ist völlig offen und wird sich zeigen müssen.

Zitat Chasaai;24845778
z.b. sind die 30w oder wieviel es sind, die eine 480 auf eine 1060 mehr verbraucht ne riesen nummer, die selben leute haben aber einen 2700k auf 4,5ghz laufen, der im vergleich zu nem skylake gute 50w mehr verbrät. mal abgesehen von dmi3, pcie3, m.2 usw. usf.


Es geht und ging bei dem Verbrauchsargument doch NIE um den absoluten Verbrauch, nichtmal um die Relation. Sondern viel eher um die Kühlung... Kühle 120W weg oder kühle 160W weg, das ist ein ziemlich deutlicher Unterschied.
Das gleiche gilt für all die anderen Verbrauchsargumentationen -> und dort wirds es noch deutlich schlimmer.
Wenn du schonmal eine Fermi GK110 GPU, am Besten mit OC und OV im PC hattest, weist du WARUM der Verbrauch nicht primär ein Thema des Geldes durch Leistungsaufnahme ist, sondern eher der Kühlung ;)

Zitat Richthofen;24852338
Glaube ich nicht. Wenn sich das abzeichnet werden weder AMD noch Nvidia irgendwelche GPU IP Lizenzen an Intel vergeben und dann können sie dort nichts bauen.


Intel baut schon GPUs, nur nicht dGPUs... Was für Lizenzen sollen das sein?

Das Problem von LRB ist, wie man auch im Artikel nachlesen kann eher ein ganz anderes gewesen. Nämlich das man die Eierlegende Wollmilchsau mit Softwarerendering auf einer PCIe Beschleunigerkarte bringen wollte... Das geht nunmal nicht auf.
Der aktuelle Ansatz im Mainstream mit bspw. der Skylake GT4(e) ist ein Stück weit anders als NV und AMD, aber sooo anders auch wieder nicht.
Dieser Part würde sich technisch auch skalieren lassen, gepaart mit einem dedizierten Speicherinterface und dedizierter PCIe Anbindung... Das KnowHow dafür hätte Intel. Im Moment scheint eher aber gar kein Interesse dafür da zu sein. Zumal, welche Märkte sollen die damit bedienen?? Das Treiberthema schwebt schon über den IGPs. Und Intel kommt nur kläckerweise vorran.
Anders im Profibereich... Da geht es deutlich größere Gelder und entsprechend lassen sich auch mal ein paar Entwickler abstellen um dedizierte Probleme lösen zu können.

Interessant dabei dürfte eher werden ob Intel nicht irgendwann die Puste ausgehen wird. Nämlich wenn bspw. der Fertigungsvorteil vielleicht irgendwann verpuffen wird... Die aktuellen Xeon Phi Modelle sind in der absoluten Performance und der Effizienz im Moment dem P100 unterlegen von NV. Bieten dafür aber durch den Softwareansatz eben ggf. deutlich bessere/einfachere/weitreichendere Möglichkeiten. Auch interessant ist, dass die Teile alleine laufen können, sprich ohne dedizierten Server, wo man die Dinger rein steckt.

Zitat Bucho;24851774
@Topic
Interessant zu sehen daß es eigentlich möglich gewesen wäre da im GPU Sektor mitzumischen. Würde ich sehr gerne sehen so einen Prototypen in Aktion vs. den damaligen High End nVidia und AMD (ATI) Größen. Wenn man sich die Xeon Phi so ansieht wäre jedoch die Frage gewesen ob die Karten damals in vertretbaren preislichen Rahmen zu verkaufen gewesen wären. Mit passender RAM Ausstattung und in Massenfertigung denke ich jedoch schon.


Ich würde nicht zu viel Wert auf die Aussagen zur Einordnung und der Machbarkeit geben... Wenn ich das recht in Erinnerung habe, so krankte LRB für GPUs ein Stück weit gerade unter dem Softwareansatz. Die Effizienz war damals schon recht mau und von der absoluten Rohleistung ggü. den damaligen NV/AMD Modellen war man auch nicht soooo exorbitant gut aufgestellt. Das war die Zeit RV770/G200(b). Ich glaube LRB hatte den 45nm Ansatz bei der Fertigung und erreichte damit in etwa das Leistungsniveau der genannten AMD/NV GPUs (die auf 65/55nm basieren). Das war ~2009 rum...
Das Teil hätte im ersten Ansatz wohl nicht für ein HighEnd Modell gereicht, vom Verbrauch (Effizienz) diese Stellung aber eingenommen...

Vorteil dieser/einer solchen Lösung ist aber ganz klar, in Software kann man effektiv alles machen. Das hätte eine Karte sein können, die auch mit damaliger Hardware DX12 und Vulcan ohne zu mucken abfedern hätte können. (sofern man das gewollt hätte)

Und selbst heute, die aktuellen Xeon Phi Dinger mit Intels aktuellem 14nm Prozess (der immernoch kleiner als GloFo und TSMC mit ihren Prozessen 14/16nm ist, wenn ich das richtig sehe), packt von der absoluten GFLop/s Performance in Sachen Rohleistung den P100 von NV nicht. Selbst ggü. dem GP102 in der TitanX sieht es eher mau aus, zumindest in FP32... Zwischen der großen 7290er Xeon Phi und dem P100 von NV liegen 245W vs. 250W TDP...
#10
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2582
Zitat FiftypOp;24853629
Polaris gegen GTX 1070 GTX 1080 und GTX 1060 das wird ein Fiasko bei den Marktanteilen.


Nach den Verkaufszahlen ausgehend eher nicht.
#11
Registriert seit: 08.11.2015

Leutnant zur See
Beiträge: 1058
Gibt es eigentlich Daniel Pohl noch :D ansonsten das übliche: hätte hätte Fahradkette.
#12
Registriert seit: 07.03.2013

Fregattenkapitän
Beiträge: 2954
Zitat Pickebuh;24856604
Nach den Verkaufszahlen ausgehend eher nicht.


Naja, Fiasko nicht, aber gut sehen die Verkäufe nicht aus!
Die Tage eien Umfrage gesehen. Da sah es schon recht traurig aus.
#13
Registriert seit: 11.01.2015
Siegen
Oberstabsgefreiter
Beiträge: 421
"Zunächst einmal will Tom Forsyth festhalten, dass die Entwicklung von Larabee in großer Erfolgt war" - das spricht jetzt nicht gerade für eine objektive Meinung. Ich kann mich nicht mehr so genau erinnern, aber wenn ich mich nicht täusche konnten die vorher getätigten Aussagen zur Leistungsfähigkeit einfach nicht gehalten werden. In der Praxis war larrabee absolut nichts besonderes und Intel hat daher von einem Release abgesehen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]