> > > > Intel bestätigt 10-nm-Einsatz auch für NNPs

Intel bestätigt 10-nm-Einsatz auch für NNPs

Veröffentlicht am: von

intelZur CES stellte Intel in allen Produktkategorien zukünftige Produkte vor, die allesamt in 10 nm gefertigt werden sollen. Der Lakefield-SoC bietet einen Sunny-Cove-Core und vier sparsame Atom-Kerne, Ice Lake-U wird ab Spätsommer bzw. Herbst in kompakten Notebooks zu finden sein und 2020 starten dann die Ice-Lake-SP-Prozessoren der nächsten Xeon-Generation – allesamt werden diese Chips in 10 nm gefertigt werden.

Doch auch in einer weiteren Produktserie wird Intel bald auf die Fertigung in 10 nm umstellen und dabei handelt es sich um die Neural Network Prozessor (NNP) der Nervana-Produktsparte. Mit dem Nervana NNP-L1000 hat Intel bereits einen großen Compute-Chip vorgestellt, der das Training von Deep-Learning-Netzwerken übernehmen soll und auf dem Leistungsniveau einer Tesla V100 von NVIDIA liegt. 32 GB HBM2, eine Fertigung in 16 nm und eine aufwendige Cluster-Topologie sind die Kerngrößen des Spring Crest getauften Chips, welcher ab 2019 der erste kommerziell verfügbare NNP von Intel sein soll.

Auf der CES wurde nun das Gegenstück vorgestellt. NNP-L1000 deutet als NNP-L auf die Optimierung des Learnings hin, NNP-I hingegen soll das schnelle Inferencing, also die Verarbeitung von Daten durch ein Deep-Learning-Netzwerk, ermöglichen. Dazu hat sich Intel mit Facebook zusammengetan und einen ersten NNP-I entwickelt, der ebenfalls noch in diesem Jahr auf den Markt kommen soll. Leistungsdaten nennt Intel noch nicht, diese sollen aber nachgereicht werden, wenn der Marktstart näherrückt.

Interessant dabei ist: NNP-I wird ebenfalls einen Sunny-Cove-Core verwenden, wie sie auch bei den Ice-Lake-Prozessoren zu Einsatz kommen werden. Außerdem soll der Chip in 10 nm gefertigt werden. Intel scheint sich seiner Fähigkeiten, in 10 nm fertigen zu können, nun also sehr sicher zu sein, denn andernfalls würde man nicht nahezu alle Produkte auf die neue Fertigung umstellen wollen. Spezielle Compute-Hardware sorgt im NNP-I für das Inferencing. Weitere Details stehen aber wie gesagt noch aus.