> > > > Intel zeigt TensorFlow-Optimierungen für Xeon-Scalable-Prozessoren

Intel zeigt TensorFlow-Optimierungen für Xeon-Scalable-Prozessoren

Veröffentlicht am: von

intel-xeon-platinumTensorFlow ist eines der führenden Frameworks im Bereich Deep Learning und Machine Learning. Google, NVIDIA und auch Intel haben bereits Optimierungen angekündigt, die TensorFlow auf der eigenen Hardware beschleunigen. Im Falle von Intel betrifft dies die Xeon- und Xeon-Phi-Prozessoren, welche Intels Math Kernel Libraries (MKL) nutzen. Nun hat Intel erste Ergebnisse veröffentlicht und spricht von Verbesserungen im Bereich von überraschenden Größenordnungen. Für das Training soll ein Plus von bis zu Faktor 70 möglich sein. Für das Inferencing um den Faktor 85.

AMD, NVIDIA, aber auch Google durch die Entwicklung spezieller Hardware für diesen Bereich, hinterlassen gerne den Eindruck, dass Deep Learning, Machine Learning und andere Synonyme der zugrunde liegenden Methodiken, auf Standard-Prozessoren kaum noch effektiv auszuführen sind. Intel widerspricht natürlich vehement und will damit seine Prozessoren in den Fokus rücken.

Für die Optimierungen auf Basis der Xeon-Scalable-Prozessoren nutzt Intel das Vorhandensein von bis zu 28 Prozessorkernen, den Last-Level-Cache, den 1 MB großen L2-Cache sowie den DDR4-Arbeitsspeicher mit bis zu 2.666 MHz über sechs Speicherkanäle. Weitaus wichtiger aber dürften die verwendeten Befehlssätze sein. Von den Xeon-Phi-Prozessoren übernommen werden die Advanced Vector Extensions 512 (AVX-512). Mit den Xeon-Scalable-Prozessoren hinzugekommen sind die AVX-512 CPUID Flags (AVX512BW und AVX512DQ) und die Kompatibilität zu AVX512VL. AVX512DQ CPUID Flag ist im Besonderen auf Optimierungen für das High-Performance-Computing (HPC) und Machine-Learning-Workloads ausgelegt.

Die Anpassung der Software, bzw. der zu berechnenden Daten auf die Hardware sind laut Intel der Schlüssel für das Machine Learning. Intel verwendet dazu die Math Kernel Library für Deep Neural Networks (MKL-DNN), die als Open-Source-Variante zur Verfügung steht. TensorFlow unterstützt MKL-DNN und DNN Primitives, überführt werden diese aber aus einer Closed Source Math Kernel Library. Alles ist darauf ausgelegt die Daten auf die AVX-512-Instruktionen hin zu optimieren und die zur Verfügung stehenden Prozessorkerne schnellstmöglich damit zu füttern, damit diese ohne Verzögerungen und über eine gefüllte Pipeline ihr Leistungspotenzial auch ausspielen können.

In einem detaillierten Bericht veröffentlicht Intel einige Leistungsdaten und vergleicht dabei ein Broadwell-System mit zwei Prozessoren zu jeweils 22 Kernen und einem Xeon-Phi-Beschleuniger mit 68 Kernen. Die Optimierungen sollen auch für ein Skylake-SP-System mit zwei Prozessoren zu jeweils 28 Kernen im Bereich von Faktor 70 für das Training und Faktor 85 für das Inferencing liegen.

Für Entwickler zeichnet Intel folgendes Bild: Wer einen oder mehrere Xeon-Scalable-Prozessor einsetzt, muss nichts weiter tun als TensorFlow mit den für MKL optimierten Einstellungen auszuführen und soll dann von den Optimierungen profitieren. Für Intel ist es durchaus wichtig seine Prozessoren in diesem Bereich ins rechte Licht zu rücken, denn auch aus eigenem Hause ist zunehmend eine Tendenz zu spezieller Hardware für solche Netzwerke zu erkennen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Gelungener Feinschliff: AMD Ryzen 7 2700X und Ryzen 5 2600X im Test

    Logo von IMAGES/STORIES/2017/AMD_RYZEN_7_2700X

    Rund ein Jahr nach dem Start der Ryzen-Prozessoren legt AMD nach und bringt die zweite Generation in den Handel. Die soll schneller und effizienter arbeiten und den Druck auf Intel weiter erhöhen. Allerdings lautet die Devise Evolution statt Revolution, statt gravierender Änderungen gibt es vor... [mehr]

  • AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

    Logo von IMAGES/STORIES/2017/AMD_THREADRIPPER_2950X

    Pünktlich zum ersten Geburtstag startet AMD den Ryzen-Threadripper-Generationswechsel. Und wie schon im Frühjahr beim Sprung von Ryzen 1 zu Ryzen 2 vertraut man auf zwei Dinge: mehr Kerne und einen geringeren Preis. Beide sollen dabei helfen, dem Dauerrivalen Intel im... [mehr]

  • Intel Core i9-9900K im Test: Acht Kerne mit Luxuszuschlag

    Logo von IMAGES/STORIES/2017/INTEL_CORE_I9-9900K

    Nach monatelangen Spekulationen und zahlreichen durchgesickerten Informationen hat Intel vor knapp zwei Wochen seine neunte Generation der Core-Prozessoren vorgestellt. Ins Rennen werden mit dem Core i5-9600K, Core i7-9700K und Core i9-9900K zunächst drei Modelle geschickt, die nicht nur... [mehr]

  • Intel mit eigenen Benchmarks zum i9-9900K, i9-9980XE und i9-9900X (5. Update)

    Logo von IMAGES/STORIES/2017/INTEL

    Am gestrigen Nachmittag präsentierte Intel die kommenden Produktlinien bei den Desktop-Prozessoren. Besonders interessant sind dabei natürlich die Core-Prozessoren der 9. Generation, die mit dem Core i9-9900K nun auch ein Modell mit acht Kernen und 16 Threads beinhalten. Im November wird es... [mehr]

  • AMD soll Ryzen 7 2800X mit 10 Kernen in Vorbereitung haben

    Logo von IMAGES/STORIES/2017/AMD_RYZEN_TEASER_100

    Auf der spanischen Seite El chapuzas Informatico ist ein Bild aufgetaucht, welches die Cinebench-Ergebnisse eines Ryzen 7 2800X zeigen soll. Derzeit lässt sich die Echtheit des Screenshots nicht bestätigen und bisher sind auch noch keine weiteren Informationen zu einem Ryzen 7 2800X... [mehr]

  • AMD Ryzen 3000: Acht Zen-2-Kerne mit PCIe 4.0 ab Mitte 2019

    Logo von IMAGES/STORIES/2017/RYZEN3000-CES19

    Neben der Vorstellung der Radeon Vega 7 als erste Gaming-GPU aus der 7-nm-Fertigung hat AMD eine Vorschau auf die Ryzen-Prozessoren der 3000er-Serie gegeben. Die als Matisse geführten Desktop-Prozessoren werden im Sockel AM4 Platz finden, basieren aber auf der neuen Zen-2-Architektur und bieten... [mehr]