1. Hardwareluxx
  2. >
  3. Tags
  4. >
  5. AI - Hardwareluxx

Thema: AI

  • MLPerf Training 2.0: NVIDIA die beständige Konstante, Graphcore, Google und Habana mit neuer Hardware

    mlperfDie MLCommons hat die neuesten Ergebnisse für das Training von AI-Netzwerken veröffentlicht. Im Rahmen des MLPerf Training v2.0 geht es einmal mehr darum, eine Vergleichsbasis für solche Systeme zu bilden. Unternehmen wie Dell, HPE, Google, Inspur, Intel, Lenovo, NVIDIA, Gigabyte, Supermicro, Graphcore und viele weitere können an den Benchmarks teilnehmen, müssen sich natürlich an die...... [mehr]
  • NVIDIA zeichnet seine Zukunft der AI-Supercomputer

    nvidiaNach der Bekanntgaben der neuen Nummer eins der Supercomputer sowie der interessanten Verschiebungen innerhalb der Liste hat NVIDIA auf der Internations Supercomputing Conference seine Pläne in diesem Bereich etwas konkretisiert. Hinsichtlich der Hardware sind die kommenden Monate und Jahre auf die ... [mehr]
  • SK hynix entwickelt GDDR6-Speicher mit integrierter AI-Engine

    skhynixZiemlich genau vor einem Jahr kündigte Samsung einen HBM-PIM an, der über integrierte AI-Beschleuniger verfügen soll und die auf dem Speicher befindlichen Daten schon einmal vorverarbeiten kann. PIM steht dabei...... [mehr]
  • MLPerf Inference 1.1: Software-Optimierungen zeigen stärkste Wirkung

    mlperfIn einem sechsmonatigen Rhythmus hat MLCommons die Version 1.1 der Inferencing-Resultate veröffentlicht. Wie immer stammen die Ergebnisse von Dell, HPE, Inspur, Intel, Lenovo, NVIDIA, Qualcomm, Gigabyte, Supermicro und einigen mehr. Eine gegenseitige Review-Schleife eröffnet jedem Teilnehmer die Möglichkeit, die Resultate des anderen zu prüfen. MLCommons überprüft die Resultate natürlich...... [mehr]
  • Hot Chips 33: Esperanto ET-SoC-1 ist der Inferencing-Effizienz-König

    esperantoMachine-Learning, bzw. AI-Anwendungen lassen sich in zwei Bereiche aufteilen. Im Training werden verschiedenste Eingabewerte so verarbeitet, dass sie über das Inferencing schnell wieder ausgewertet werden können. Für das autonome Fahren werden Videodaten ausgewertet und ein Netzwerk trainiert, damit die Erkennung der verschiedenen Situationen verbessert wird. Im Inferencing wird das Erlernte...... [mehr]
  • Hot Chips 33: Samsung Aquabolt-XL - HBM2 mit integrierter Rechenkapazität

    samsung-hbm2Anfang des Jahres stellte Samsung den HBM-PIM, den ersten HBM-Speicher mit eingebauter AI-Engine, vor. Einige Details kennen wir also bereits, auf der Hot-Chips-Konferenz sprach Samsung aber etwas genauer über die...... [mehr]
  • Hot Chips 33: Synopsys will komplette Chipentwicklung per AI anbieten

    synopsysModerne Chipdesigns sind unglaublich komplex. Mehr als 50 Milliarden Transistoren kann ein moderner Chip umfassen. Eine Architektur und einzelne IP-Blöcke sind in der Theorie vergleichsweise schnell entwickelt, diese dann aber fertigen zu können, ist eine ganz andere Aufgabe und kann zu großen Problemen führen. Anbieter sogenannter EDA-Werkzeuge (Electronic Design Automation) haben sich...... [mehr]
  • Tesla: D1-Chip für das Training - Dojo-Supercomputer mit 1,1 EFLOPS

    tesla-fsd-chipAuf einem eigenen AI Day hat Tesla über die aktuellen und zukünftigen Entwicklungen im Bereich der Hard- und Software rund um die autonomen Systeme gesprochen. Das autonome Fahren ist in den verschiedenen Stufen zwar bereits in der Lage, einzelne Aufgaben und Strecken zu übernehmen, bis ein Fahrzeug aber in der Lage sein wird, sich komplett eigenständig von A nach B zu bewegen, wird...... [mehr]
  • MLPerf Training 1.0: Graphcore und Google greifen NVIDIAs Vormachtstellung an

    mlperfDie MLCommons haben pünktlich zur ISC 21 die Ergebnisse des MLPerf Training in der Version 1.0 veröffentlicht. Für diese neueste Version der Benchmark-Ergebnisse wurden einige Prozesse in der Teilnahme geändert, sodass es für Unternehmen einfacher werden soll, daran teilzunehmen. So wurden die bisher verwendeten Übersetzungs-Benchmarks GNMT und Transformer aus der Wertung genommen. Auf der...... [mehr]
  • Neuer Intelligence X280 von SiFive verbindet RISC-V mit Vektorbeschleunigung

    sifiveAuf der Linley Spring Processor Conference 2021 in der vergangenen Woche stellte Cerebras die zweite Generation der Wafer Scale Engine mit 850.000 AI-Kernen vor. Außerdem verkündete SiFive eine...... [mehr]
  • MLPerf Inference 1.0 Power legt den Fokus auf die Effizienz

    mlperfIn all unseren Tests versuchen wir über Benchmarks und Messungen unter gleichen Bedingungen des korrekte Leistungsbild der Hardware darzustellen. Für Prozessoren, Grafikkarten, Speicher, aber auch für Lüfter und Kühler stellt sich dies noch recht einfach und nachvollziehbar dar. Schon anders sieht dies für Serveranwendungen, die weitaus komplexer und weniger einfach nachvollziehbar sein...... [mehr]
  • Samsung HBM-PIM: Schneller Speicher bekommt eingebaute AI-Engine (Update)

    samsung-hbm2Samsung hat eine neue Art High Bandwidth Memory (HBM) vorgestellt, der nicht nur ein einfacher Speicher ist, sondern der eine Processing-in-Memory (PIM) Architektur enthält. Es handelt sich laut Samsung um den ersten HBM, der über eine solche Art der integrierten Recheneinheiten verfügt. Noch ist nicht bekannt, wie genau die integrierten Recheneinheiten...... [mehr]
  • NVIDIA und Mellanox wollen Supercomputer per AI schützen

    ufm-cyber-aiZusammen mit der Ampere-Architektur bzw. der gigantischen GA100-GPU präsentierten NVIDIA und Mellanox auch die ersten Früchte der engeren Zusammenarbeit durch den Kauf des israelischen Netzwerkspezialisten. In den DGX-Systemen finden sich unter andere gleich mehrere ConnectX-6 Lx SmartNICs von Mellanox. Die EGX A100 ist eine Erweiterungskarte mit GA100-GPU ist direkt mit den...... [mehr]
  • Zwei Cerebras CS-1 für den AI-Supercomputer Neocortex

    cerebras-wseBereits ausführlich haben wir in der Vergangenheit über die Wafer Scale Engine (WSE) von Cerebras berichtet. Es handelt sich dabei um einen gigantischen Chip mit einer Fläche von 46.225 mm² – 215 x 215 mm. In der...... [mehr]
  • Chips designen Chips: Machine Learning übernimmt das Floorplanning

    googleaiMit dem Chip Design with Deep Reinforcement Learning haben einige Forscher bei Google AI, genauer gesagt dem Brain Team, eine selbstlernende Methode für das Floorplaning von Chips vorgestellt. Moderne Chip-Architekturen befinden sich über Jahre in der Entwicklung. Je nach Größe des Projekts und der Auslegung vergehen zwischen zwei und fünf Jahren. Heute bereits zu...... [mehr]
  • Star Trek Voyager per AI auf 4K gebracht

    ai-mlBereits häufiger haben wir über die Möglichkeiten der Machine-Learning-Anwendungen berichtet, altes Bildmaterial zu verbessern. Den Anfang machte ein Versuch mit Star Trek Deep Space Nine, zuletzt wurde aber auch ein ... [mehr]
  • NVIDIA DLSS 2.0: Ein AI-Upscaling wie von Anfang an geplant

    dlss20Neben der Vorstellung bzw. Teilnahme an DirectX 12 Ultimate hat NVIDIA im Rahmen der Game Developers Conference eine Neuerung zum Deep Learning Super...... [mehr]
  • Neuronaler Chip: Intel bringt Loihi das Riechen bei (Update)

    intel-loihiIntel treibt die Entwicklung seines neuronalen Chips Loihi voran. Dazu hat man 72 chemische Sensoren an seine Testplattform angebunden, um über ein Deep-Learning-Netzwerk eine Analyse der Sensordaten zu ermöglichen. Dazu musste das Netzwerk zunächst einmal trainiert werden, was üblicherweise 3.000 Trainingsdurchläufe voraussetzt. Der Grund dafür ist, dass eine gesicherte Erkennung...... [mehr]
  • Alibabas AI-Chip Hanguang 800 ist schneller als die Konkurrenz

    alibabaAuf der International Solid-State Circuits Conference (ISSCC) 2020 in San Francisco hat Alibaba einige Details zum AI-Beschleuniger Hanguang 800 verraten, bzw. diesen öffentlich ausgestellt. Der chinesische Online-Gigant ist bereits seit Jahren dabei sich eine eigene Hardware-Infrastruktur aufzubauen. Ausgeführt werden diese Bemühungen von der Alibaba-Tochter T-Head. Auch in dieser...... [mehr]
  • Bessere Grafikqualität: DLSS wird weiter optimiert

    turing-gpuBereits mehrfach haben wir uns mit dem Thema Deep Learning Super Sampling oder kurz DLSS beschäftigt. Anfänglich gab es noch große Defizite in der Bildqualität, die vor allem in Battlefield V auffällig waren. Auch in Metro: Exodus und Anthem oder Shadow of the Tomb Raider waren noch Probleme in der Darstellungsqualität erkennbar, was auch Titel wie Anthem betraf. Erst mit Control...... [mehr]
  • Datenskandal: Die App "Clearview AI" nutzt Bilder von Facebook

    facebook logo Dass durch das Hochladen eines Bildes bei der Social-Media-Plattform Facebook nicht nur Freunde auf besagte Aufnahme Zugriff haben, sondern das gesamte Internet, müsste mittlerweile bei den meisten Menschen angekommen sein. Zwar gibt es Privatsphäre-Optionen, mit denen man die Sichtbarkeit einschränken kann, allerdings haben solche Funktionen - wie die Vergangenheit gezeigt hat...... [mehr]
  • Booster für Supercomputer in Jülich setzt auf EPYC und Next-Gen NVIDIA-GPUs

    supercomputerDer von Beginn an modular und erweiterbar ausgelegte Supercomputer JUWELS in Jülich bekommt 2020 seine geplante Booster-Erweiterung und diese ist mit AMD-Prozessoren und NVIDIA-GPU ausgestattet. Das nun in Auftrag gegebene Modul wird von Atos und ParTec aufgestellt werden und soll 2020 in Betrieb gehen. Mit dem Booster-Modul bestehend aus mehreren Nodes soll die...... [mehr]
  • Intels neue AI-Hardware: NNP-T1000, NNP-I1000 und VPU

    intel-nervana-nnp-l-1000Auf dem AI Summit 2019 hat Intel seine neue Hardware im Bereich der AI-Beschleunigung vorgestellt. Bei diesen handelt es sich vor allem um die Nervana Neural Network Prozessoren (NNP). Der NNP-T1000 ist für das Training von neuronalen Netzen vorgesehen, der NNP-I1000 für das Inferencing. Die technischen Daten zu beiden Produkten hat Intel bereits in den...... [mehr]
  • Adobe MAX: NVIDIAs Treiber wird schneller und nutzt RT und Tensor Cores

    adobe logo 100Zur Adobe-MAX-Konferenz präsentiert NVIDIA einen neuen Studio Driver, der neben einem Geschwindigkeitszuwachs neue Funktionen für Adobe Dimension, Substance Alchemist und Premiere Pro bringen soll. Dazu müssen die erwähnten Adobe-Programme natürlich ebenfalls angepasst werden. Mit dem Programmupdate und dem neuen Treiber verwendet Adobe Dimension verschiedene...... [mehr]
  • UPMEM: DDR4-DIMMs bekommen integrierte AI-Prozessoren

    upmemFür AI-Anwendungen ist es wichtig, den Speicher so nahe wie möglich an den verarbeitenden Prozessor zu bringen. Ein Unternehmen aus Frankreich namens UPMEM hat sich gedacht: "Warum den Prozessor nicht näher an den Speicher bringen?" Auf der Hotchips hat man nun einen DDR4-Speicher vorgestellt, der mit sogenannten DPUs (DRAM Processing Unit) kombiniert wird. Dabei integriert UPMEM die DPUs als...... [mehr]