> > > > Intel zeigt TensorFlow-Optimierungen für Xeon-Scalable-Prozessoren

Intel zeigt TensorFlow-Optimierungen für Xeon-Scalable-Prozessoren

Veröffentlicht am: von

intel-xeon-platinumTensorFlow ist eines der führenden Frameworks im Bereich Deep Learning und Machine Learning. Google, NVIDIA und auch Intel haben bereits Optimierungen angekündigt, die TensorFlow auf der eigenen Hardware beschleunigen. Im Falle von Intel betrifft dies die Xeon- und Xeon-Phi-Prozessoren, welche Intels Math Kernel Libraries (MKL) nutzen. Nun hat Intel erste Ergebnisse veröffentlicht und spricht von Verbesserungen im Bereich von überraschenden Größenordnungen. Für das Training soll ein Plus von bis zu Faktor 70 möglich sein. Für das Inferencing um den Faktor 85.

AMD, NVIDIA, aber auch Google durch die Entwicklung spezieller Hardware für diesen Bereich, hinterlassen gerne den Eindruck, dass Deep Learning, Machine Learning und andere Synonyme der zugrunde liegenden Methodiken, auf Standard-Prozessoren kaum noch effektiv auszuführen sind. Intel widerspricht natürlich vehement und will damit seine Prozessoren in den Fokus rücken.

Für die Optimierungen auf Basis der Xeon-Scalable-Prozessoren nutzt Intel das Vorhandensein von bis zu 28 Prozessorkernen, den Last-Level-Cache, den 1 MB großen L2-Cache sowie den DDR4-Arbeitsspeicher mit bis zu 2.666 MHz über sechs Speicherkanäle. Weitaus wichtiger aber dürften die verwendeten Befehlssätze sein. Von den Xeon-Phi-Prozessoren übernommen werden die Advanced Vector Extensions 512 (AVX-512). Mit den Xeon-Scalable-Prozessoren hinzugekommen sind die AVX-512 CPUID Flags (AVX512BW und AVX512DQ) und die Kompatibilität zu AVX512VL. AVX512DQ CPUID Flag ist im Besonderen auf Optimierungen für das High-Performance-Computing (HPC) und Machine-Learning-Workloads ausgelegt.

Die Anpassung der Software, bzw. der zu berechnenden Daten auf die Hardware sind laut Intel der Schlüssel für das Machine Learning. Intel verwendet dazu die Math Kernel Library für Deep Neural Networks (MKL-DNN), die als Open-Source-Variante zur Verfügung steht. TensorFlow unterstützt MKL-DNN und DNN Primitives, überführt werden diese aber aus einer Closed Source Math Kernel Library. Alles ist darauf ausgelegt die Daten auf die AVX-512-Instruktionen hin zu optimieren und die zur Verfügung stehenden Prozessorkerne schnellstmöglich damit zu füttern, damit diese ohne Verzögerungen und über eine gefüllte Pipeline ihr Leistungspotenzial auch ausspielen können.

In einem detaillierten Bericht veröffentlicht Intel einige Leistungsdaten und vergleicht dabei ein Broadwell-System mit zwei Prozessoren zu jeweils 22 Kernen und einem Xeon-Phi-Beschleuniger mit 68 Kernen. Die Optimierungen sollen auch für ein Skylake-SP-System mit zwei Prozessoren zu jeweils 28 Kernen im Bereich von Faktor 70 für das Training und Faktor 85 für das Inferencing liegen.

Für Entwickler zeichnet Intel folgendes Bild: Wer einen oder mehrere Xeon-Scalable-Prozessor einsetzt, muss nichts weiter tun als TensorFlow mit den für MKL optimierten Einstellungen auszuführen und soll dann von den Optimierungen profitieren. Für Intel ist es durchaus wichtig seine Prozessoren in diesem Bereich ins rechte Licht zu rücken, denn auch aus eigenem Hause ist zunehmend eine Tendenz zu spezieller Hardware für solche Netzwerke zu erkennen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Coffee Lake: Overclocking-Check

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Nach dem ausführlichen Overclocking-Check für Skylake-Prozessoren sowie dem Overclocking-Check für Kaby Lake-Prozessoren ist es nach Veröffentlichung der neuen Generation mit Codenamen Coffee-Lake erneut Zeit für einen Overclocking-Check. Wir werfen einen Blick auf die Übertaktbarkeit... [mehr]

Intel kämpft mit schwerer Sicherheitslücke (Update: Intel veröffentlicht...

Logo von IMAGES/STORIES/2017/INTEL

Vor, während und zwischen den Feiertagen herrschte ein wildes Treiben in der Linux-Community. Zunächst war nicht ganz klar, was hier genau vor sich geht, inzwischen aber scheinen die Auswirkungen deutlich zu werden: Intel hat nach einer Lücke in der Management Unit eines jeden... [mehr]

Gelungener Feinschliff: AMD Ryzen 7 2700X und Ryzen 5 2600X im Test

Logo von IMAGES/STORIES/2017/AMD_RYZEN_7_2700X

Rund ein Jahr nach dem Start der Ryzen-Prozessoren legt AMD nach und bringt die zweite Generation in den Handel. Die soll schneller und effizienter arbeiten und den Druck auf Intel weiter erhöhen. Allerdings lautet die Devise Evolution statt Revolution, statt gravierender Änderungen gibt es vor... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G im Test: Die Lücke ist gestopft

Logo von IMAGES/STORIES/2017/AMD_RYZEN_5_2400G

Während Notebook-Käufer sich bereits seit einigen Wochen von den Vorzügen der Zen-basierten Raven-Ridge-APUs überzeugen können, musste sich das Desktop-Lager noch gedulden. Nun aber heißt es auch hier: Intel erhält neue Konkurrenz. Und die könnte einen noch größeren Einfluss als die... [mehr]

AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

Logo von IMAGES/STORIES/2017/AMD_THREADRIPPER_2950X

Pünktlich zum ersten Geburtstag startet AMD den Ryzen-Threadripper-Generationswechsel. Und wie schon im Frühjahr beim Sprung von Ryzen 1 zu Ryzen 2 vertraut man auf zwei Dinge: mehr Kerne und einen geringeren Preis. Beide sollen dabei helfen, dem Dauerrivalen Intel im... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G: Raven Ridge kann auch spielen

Logo von IMAGES/STORIES/2017/AMD_RYZEN_TEASER_100

Eine gute Alternative, wenn es um einen Alltags- oder Office-Rechner geht: So lautete vor wenigen Tagen das Fazit zu AMDs neuen APUs. Doch wie sich Ryzen 3 2200G und Ryzen 5 2400G schlagen, wenn die Zeit zwischen Word und Chrome mit dem ein oder anderen Spiel überbrückt werden soll, konnte... [mehr]