> > > > Intel zeigt TensorFlow-Optimierungen für Xeon-Scalable-Prozessoren

Intel zeigt TensorFlow-Optimierungen für Xeon-Scalable-Prozessoren

Veröffentlicht am: von

intel-xeon-platinumTensorFlow ist eines der führenden Frameworks im Bereich Deep Learning und Machine Learning. Google, NVIDIA und auch Intel haben bereits Optimierungen angekündigt, die TensorFlow auf der eigenen Hardware beschleunigen. Im Falle von Intel betrifft dies die Xeon- und Xeon-Phi-Prozessoren, welche Intels Math Kernel Libraries (MKL) nutzen. Nun hat Intel erste Ergebnisse veröffentlicht und spricht von Verbesserungen im Bereich von überraschenden Größenordnungen. Für das Training soll ein Plus von bis zu Faktor 70 möglich sein. Für das Inferencing um den Faktor 85.

AMD, NVIDIA, aber auch Google durch die Entwicklung spezieller Hardware für diesen Bereich, hinterlassen gerne den Eindruck, dass Deep Learning, Machine Learning und andere Synonyme der zugrunde liegenden Methodiken, auf Standard-Prozessoren kaum noch effektiv auszuführen sind. Intel widerspricht natürlich vehement und will damit seine Prozessoren in den Fokus rücken.

Für die Optimierungen auf Basis der Xeon-Scalable-Prozessoren nutzt Intel das Vorhandensein von bis zu 28 Prozessorkernen, den Last-Level-Cache, den 1 MB großen L2-Cache sowie den DDR4-Arbeitsspeicher mit bis zu 2.666 MHz über sechs Speicherkanäle. Weitaus wichtiger aber dürften die verwendeten Befehlssätze sein. Von den Xeon-Phi-Prozessoren übernommen werden die Advanced Vector Extensions 512 (AVX-512). Mit den Xeon-Scalable-Prozessoren hinzugekommen sind die AVX-512 CPUID Flags (AVX512BW und AVX512DQ) und die Kompatibilität zu AVX512VL. AVX512DQ CPUID Flag ist im Besonderen auf Optimierungen für das High-Performance-Computing (HPC) und Machine-Learning-Workloads ausgelegt.

Die Anpassung der Software, bzw. der zu berechnenden Daten auf die Hardware sind laut Intel der Schlüssel für das Machine Learning. Intel verwendet dazu die Math Kernel Library für Deep Neural Networks (MKL-DNN), die als Open-Source-Variante zur Verfügung steht. TensorFlow unterstützt MKL-DNN und DNN Primitives, überführt werden diese aber aus einer Closed Source Math Kernel Library. Alles ist darauf ausgelegt die Daten auf die AVX-512-Instruktionen hin zu optimieren und die zur Verfügung stehenden Prozessorkerne schnellstmöglich damit zu füttern, damit diese ohne Verzögerungen und über eine gefüllte Pipeline ihr Leistungspotenzial auch ausspielen können.

In einem detaillierten Bericht veröffentlicht Intel einige Leistungsdaten und vergleicht dabei ein Broadwell-System mit zwei Prozessoren zu jeweils 22 Kernen und einem Xeon-Phi-Beschleuniger mit 68 Kernen. Die Optimierungen sollen auch für ein Skylake-SP-System mit zwei Prozessoren zu jeweils 28 Kernen im Bereich von Faktor 70 für das Training und Faktor 85 für das Inferencing liegen.

Für Entwickler zeichnet Intel folgendes Bild: Wer einen oder mehrere Xeon-Scalable-Prozessor einsetzt, muss nichts weiter tun als TensorFlow mit den für MKL optimierten Einstellungen auszuführen und soll dann von den Optimierungen profitieren. Für Intel ist es durchaus wichtig seine Prozessoren in diesem Bereich ins rechte Licht zu rücken, denn auch aus eigenem Hause ist zunehmend eine Tendenz zu spezieller Hardware für solche Netzwerke zu erkennen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Intel kämpft mit schwerer Sicherheitslücke (Update: Intel veröffentlicht...

Logo von IMAGES/STORIES/2017/INTEL

Vor, während und zwischen den Feiertagen herrschte ein wildes Treiben in der Linux-Community. Zunächst war nicht ganz klar, was hier genau vor sich geht, inzwischen aber scheinen die Auswirkungen deutlich zu werden: Intel hat nach einer Lücke in der Management Unit eines jeden... [mehr]

Coffee Lake: Intel Core i7-8700K, i5-8600K und i5-8400 im Test

Logo von IMAGES/STORIES/2017/INTEL8GEN

Der sechste und letzte (?) CPU-Launch in diesem Jahr kommt von Intel: Mit den unter dem Codenamen Coffee Lake zusammengefassten Core-i7- und i5-Modellen kommen bei Intel erstmals Sechskern-Prozessoren in den Mainstream-Markt. Bedanken darf man sich aber wohl nicht bei Intel, sondern bei der... [mehr]

Coffee Lake: Overclocking-Check

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Nach dem ausführlichen Overclocking-Check für Skylake-Prozessoren sowie dem Overclocking-Check für Kaby Lake-Prozessoren ist es nach Veröffentlichung der neuen Generation mit Codenamen Coffee-Lake erneut Zeit für einen Overclocking-Check. Wir werfen einen Blick auf die Übertaktbarkeit... [mehr]

Intel Core i5-8250U und i7-8550U im Test: Mal ein kleiner, mal ein großer...

Logo von IMAGES/STORIES/2017/MEDION_P7649_KABY_LAKE_REFRESH

Im Gleichschritt marschierten Intels Desktop- und Mobil-Prozessoren schon länger nicht mehr. Ein so gravierender Unterschied wie derzeit ist aber völlig neu - und für den Verbraucher einmal mehr irritierend. Denn mit der 8. Core-Generation spendiert Intel beiden Plattformen eine eigene... [mehr]

Gelungener Feinschliff: AMD Ryzen 7 2700X und Ryzen 5 2600X im Test

Logo von IMAGES/STORIES/2017/AMD_RYZEN_7_2700X

Rund ein Jahr nach dem Start der Ryzen-Prozessoren legt AMD nach und bringt die zweite Generation in den Handel. Die soll schneller und effizienter arbeiten und den Druck auf Intel weiter erhöhen. Allerdings lautet die Devise Evolution statt Revolution, statt gravierender Änderungen gibt es vor... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G im Test: Die Lücke ist gestopft

Logo von IMAGES/STORIES/2017/AMD_RYZEN_5_2400G

Während Notebook-Käufer sich bereits seit einigen Wochen von den Vorzügen der Zen-basierten Raven-Ridge-APUs überzeugen können, musste sich das Desktop-Lager noch gedulden. Nun aber heißt es auch hier: Intel erhält neue Konkurrenz. Und die könnte einen noch größeren Einfluss als die... [mehr]