Naja, ich glaube, es wäre sinnvoller sich an bereits bestehende Standards zu hängen, wenn man noch nicht mithalten kann. Wenn man alles neu macht, aber hinter der Konkurrenz ist, warum sollten Entwickler dann in's Boot kommen. Die müssten sich erst einarbeiten und ihre Arbeit hätte dann nur Nachteile gegenüber der Konkurrenz. Da wäre es geschickter, wenn der Einarbeitungsaufwand für den Entwickler weg fällt, indem man z.B. auf einen bereits existierenden Standard setzt und den später dann erweitert (wenn man Konkurrenzfähig ist).
Das was Intel zunächst einmal braucht, ist eine gemeinsame Plattform für die eigenen Hardware. Prozessoren, FPGAs, ASICs und eben dann die GPGPUs müssen unter einem Dach angesprochen werden können. Mit der Marktmacht, die Intel da schon hat, wird man sich damit auch durchsetzen können. Den Quasi-Standard in dem Bereich gibt es ja nicht, allenfalls CUDA und da hat NVIDIA Jahre dran gearbeitet um im GPGPU-Segment so weit zu kommen, wie man heute ist. Das hat schon dazu geführt, dass Hersteller wie AMD und Intel Schnittstellen entworfen haben, die in CUDA übersetzen.
Aber man hat derzeit das Gefühl, dass bei NVIDIA im Datacenter etwas die Luft raus ist. Sicherlich, bei den Hyperscalern ist man noch immer dabei, aber viele haben inzwischen ihre eigenen AI-Beschleuniger und beim HPC-Geschäft spielt nun eben auch Intel eine große Rolle – schon alleine durch die erweiterten Befehlssätze. AMD versucht da auch irgendwie einen Fuß in die Tür zu bekommen, aber wie schwierig das ist, sieht man ja.