News und Artikel durchsuchen
{{#data.error.root_cause}}
{{/data.error}}
{{^data.error}}
{{#texts.summary}}
[{{{type}}}] {{{reason}}}
{{/data.error.root_cause}}{{texts.summary}} {{#options.result.rssIcon}} RSS {{/options.result.rssIcon}}
{{/texts.summary}} {{#data.hits.hits}}
{{#_source.featured}}
FEATURED
{{/_source.featured}}
{{#_source.showImage}}
{{#_source.image}}
{{/_source.image}}
{{/_source.showImage}}
{{/data.hits.hits}}
{{{_source.title}}} {{#_source.showPrice}} {{{_source.displayPrice}}} {{/_source.showPrice}}
{{#_source.showLink}} {{/_source.showLink}} {{#_source.showDate}}{{{_source.displayDate}}}
{{/_source.showDate}}{{{_source.description}}}
{{#_source.additionalInfo}}{{#_source.additionalFields}} {{#title}} {{{label}}}: {{{title}}} {{/title}} {{/_source.additionalFields}}
{{/_source.additionalInfo}}
AI
-
AI-Chiplets der nächsten Generation: Tenstorrent wählt Samsungs SF4X-Prozess
Lange konnte Samsung keine größeren Erfolge oder Neukunden für das eigene Foundry-Geschäft mehr verkünden. Verzögerungen und eine schlechte Ausbeute haben die potentielle Kundschaft wohl abgeschreckt und davon hat nicht zuletzt auch TSMC profitiert, wo quasi alle modernen Chips und Packages gefertigt werden – zumindest alles was nicht direkt von Intel stammt und dort auch gefertigt wird. Nun verkündet Tenstorrent, dass man Samsungs... [mehr] -
Windows 11, Version 23H2: Mit KI-Begleiter Copilot und über 150 neuen Features
Microsoft plant für Windows 11 eines der bisher größten Updates. Windows 11, Version 23H2 soll vor allem den KI-Begleiter Copilot einführen und das Thema künstliche Intelligenz für Windows-Nutzer noch präsenter machen. Insgesamt werden über 150 neue Features versprochen, die selbst vor Anwendungen wie Paint nicht Halt machen. Auch wenn der ganz große KI-Hype aktuell etwas nachlässt, bleibt das Thema natürlich relevant. KI-Lösungen werden in... [mehr] -
IBM Research NorthPole: KI-Beschleuniger soll alle in den Schatten stellen
Aktuell dominiert NVIDIA den Hardwaremarkt, wenn es um das Thema Generative AI geht. 10 Milliarden US-Dollar Umsatz alleine durch die Datancenter-Sparte sprechen eine deutlich Sprache. Es gibt aber auch Punkte, durch die sich andere Hersteller absetzen wollen. Hier kommt vor allem die Effizienz in den Fokus. IBM Research hat auf der HotChips den KI-Beschleuniger NorthPole vorgestellt. Der Trend ist klar: Viele kleine Beschleuniger... [mehr] -
Sk hynix und Samsung: Speicher mit In-Memory-AI wird konkreter
Sk hynix und Samsung arbeiten bereits seit geraumer Zeit daran, den Speicher und den AI-Beschleuniger dichter zusammen zu bringen. Bei Sk hynix nennt sich die entsprechende Technologie AiM (Accelerator in Memory), bei Samsung Processing-in-Memory (PIM). Beide Ansätze sind nicht neu, rücken auf der diesjährigen HotChips 2023 aber näher an einen möglichen Praxiseinsatz. So sieht Sk hynix zu einem GDDR6-AiM einen Prototypen vor,... [mehr] -
DGX GH200: NVIDIA kündigt Grace-Hopper-Supercomputer-Block an
Bereits zur Supercomputing-Konferenz ISC in der vergangenen Woche kündigt NVIDIA einen neuen Grace-Supercomputer mit "Grace CPU Superchip" an und verkündete zugleich, dass der Aus- und Aufbau dieser Systeme noch in diesem Jahr beginnen könnte. Die "Grace CPU Superchips" und "Grace Hopper Superchips" sollen eine neue Generation an Supercomputern einläuten – weiterhin unterstützt von den dedizierten Lösungen wie aktuell dem... [mehr] -
Zukünftig mehr AI-Unterstützung in CPUs: AMD und Intel arbeiten an konkreten Lösungen
Was im Bereich der Spezialbeschleuniger, GPU-Beschleuniger im Allgemeinen und auch den ersten Server-Prozessoren bereits Gang und Gäbe ist, soll in den kommenden Prozessoren im Endkundenbereich in Zukunft eine größere Rolle spielen. Die zur CES vorgestellten Ryzen-Mobile-Prozessoren bieten teilweise dedizierte AI-Einheiten namens Ryzen AI. Auch bei Intel wird schon seit Jahren damit geworben, dass über die integrierte Grafikeinheit gewisse... [mehr] -
Sprachmodell für kommerzielle Nutzung: MosaicML veröffentlicht MPT-7B als Open-Source
Große Sprachmodelle (Large Language Model oder kurz LLM) sind aktuell in aller Munde. Bei MosaicML hat man sich darauf spezialisiert, das Software-Ökosystem für AI-Systeme zu optimieren, denn über eine optimierte Software lassen sich große Leistungssprünge im Training erreichen – ein um 30 % beschleunigtes Training bei gleicher Hardware ist bei einer solchen Optimierung keine Seltenheit. Eines der Probleme der Sprachmodelle ist aktuell,... [mehr] -
GPT-4 und Co: NVIDIA will der KI Grenzen setzen
Wer sich schon einmal mit den Möglichkeiten in der Generierung von Texten, der Übersetzung, Transkription oder der Erstellung von Code über KI-Systeme und Large Language Models (LLM) beschäftigt hat, wird das Potential dieser Technik ebenso erfahren haben, wie die Grenzen. Zu den Grenzen gehört auch, dass einige der Systeme aktuell zur sogenannten Halluzination neigen oder es mit den Fakten nicht immer so genau nehmen. In Extrembeispielen geht... [mehr] -
Lightroom mit KI: Adobe setzt auf KI zur Bildbearbeitung
Seit Jahren ist Adobe einer der führenden Produzenten für Bild- und Videobearbeitungssoftware. Neben Photoshop und Premiere greifen viele User auch auf Lightroom zurück. Nun setzt das Programm auf künstliche Intelligenz, um das Rauschen in Bildern automatisch zu reduzieren. Bilder im RAW-Format können jetzt mit einem Klick auf "Entrauschen" von einer KI automatisch nachbearbeitet werden. Da die Berechnung über die GPU läuft, kann der Vorgang... [mehr] -
Künstliche Intelligenz für alle: Microsoft wertet Bing und Edge mit KI-Funktionen auf
Es geht Schlag auf Schlag: Nachdem ChatGTP einen regelrechten KI-Hype entfacht hat, unternimmt Microsoft nun den nächsten größeren Schritt zur KI-Integration. Sowohl die Suchmaschine Bing als auch der Browser Edge werden um KI-Funktionen aufgewertet. Die KI-Integration soll laut Microsoft zu besseren Suchergebnissen, kompletteren Antworten und einem Chat-Erlebnis führen, bei dem Content auf neue Weise erstellt werden kann. Kurz... [mehr] -
Reaktion auf ChatGPT: Google stellt Bard vor
In einem Blogbeitrag hat Google sich zum aktuellen Stand der eigenen Entwicklungen im Bereich der künstlichen Intelligenz (KI) geäußert. Im Zentrum steht dabei mit Bard eine Reaktion auf ChatGPT. Seitdem OpenAI ChatGPT öffentlich gemacht hat, erhalten dieser Chatbot und damit das Thema künstliche Intelligenz bemerkenswert viel Aufmerksamkeit. Auch Google schaut wachsam auf diese Entwicklung - nicht zuletzt, weil sich eine Integration von... [mehr] -
Künstliche Intelligenz: Russische Hacker versuchen ChatGPT-Beschränkungen auszuhebeln
Der Hype rund um ChatGPT ist weiterhin ungebrochen. Viele sogenannte Experten halten die künstliche Intelligenz für das "Next Big Thing". Andere wiederum sehen nur einen rudimentären Chatbot. Ob sich ChatGPT tatsächlich durchsetzen und das Ende der Google-Suchmaschine einleiten wird, bleibt allerdings zunächst abzuwarten. Fakt ist jedoch, dass Kriminelle immer wieder versuchen, die OpenAI für illegale Machenschaften zu missbrauchen. Wie jetzt... [mehr] -
Leistungsfähigerer SOC: Snapdragon 8 Gen2 von Qualcomm vorgestellt
Auf Qualcomms jährlichem Snapdragon Summit gab der Hersteller erstmals einen Einblick in die kommenden Smartphone-SOCs, unter anderem auf den neuen Snapdragon 8 Gen2. Nach Qualcomms Meinung erfüllt er die Herausforderung, immer mehr Leistung in Smartphone-Prozessoren zu bekommen, um neue Anforderungen in den Bereichen AI, Gaming und anderen Hauptbereichen der Smartphones gerecht zu werden. Smartphones müssen dabei in Zukunft... [mehr] -
MLPerf Inference 2.1: H100 mit erstem Auftritt und mehr Diversität
Es gibt eine neue Runde unabhängiger, bzw. gegenseitig geprüfter Benchmark-Ergebnisse aus dem Server-Bereich. Genauer gesagt geht es um die Inferencing-Ergebnisse in der Version 2.1. Diese sollen eine unabhängige Beurteilung der Server-Systeme in den verschiedenen Anwendungsbereichen ermöglichen. Große Unternehmen werden natürlich weiterhin eine eigene Evaluierung vornehmen, aber in der Außendarstellung konnten die Hersteller meist nur mit... [mehr] -
Schneller und effizienter: Forschung zeigt Vorteile neuronaler Chips
Intel ist nicht der einzige Hersteller, der an neuronalen Chips arbeitet. Vor drei Jahren stellte Intel die erste Generation der Hardware für das neuronale Computing vor: den Loihi. Der Chip verwendete rund 130.000 Neuronen aus Silizium und soll die Art und Weise, wie Deep-Learning-Netzwerke arbeiten, effizienter machen und vor allem beschleunigen. Inzwischen gibt es die zweite Generation alias Loihi 2w, die aus... [mehr] -
MLPerf Training 2.0: NVIDIA die beständige Konstante, Graphcore, Google und Habana mit neuer Hardware
Die MLCommons hat die neuesten Ergebnisse für das Training von AI-Netzwerken veröffentlicht. Im Rahmen des MLPerf Training v2.0 geht es einmal mehr darum, eine Vergleichsbasis für solche Systeme zu bilden. Unternehmen wie Dell, HPE, Google, Inspur, Intel, Lenovo, NVIDIA, Gigabyte, Supermicro, Graphcore und viele weitere können an den Benchmarks teilnehmen, müssen sich natürlich an die aufgestellten Regeln halten und dürften auch die... [mehr] -
NVIDIA zeichnet seine Zukunft der AI-Supercomputer
Nach der Bekanntgaben der neuen Nummer eins der Supercomputer sowie der interessanten Verschiebungen innerhalb der Liste hat NVIDIA auf der Internations Supercomputing Conference seine Pläne in diesem Bereich etwas konkretisiert. Hinsichtlich der Hardware sind die kommenden Monate und Jahre auf die Hopper-Architektur bei den GPUs sowie die Grace- und Grace-Hopper-Superchips ausgelegt. NVIDIA sieht seine Zukunft vor allem bei den... [mehr] -
Intel/Habana Labs AI-Chip Gaudi HL2080 zeigt sich erstmals
Bisher ist zur nächsten Generation der AI-Chips aus dem Hause Habana Labs wenig bekannt. Ende 2019 kaufte Intel das israelische Unternehmen Habana Labs für 2 Milliarden US-Dollar. Die Gaudi- und Goya-Chips setzen auf spezielle Tensor Processing Cores und sind auf das Training- und Inferencing von AI-Netzwerken ausgelegt. Der kommerzielle Einsatz der ersten Gaudi-Generation verzögerte sich allerdings. Ab 2020 sollen erste Kunden... [mehr] -
SK hynix entwickelt GDDR6-Speicher mit integrierter AI-Engine
Ziemlich genau vor einem Jahr kündigte Samsung einen HBM-PIM an, der über integrierte AI-Beschleuniger verfügen soll und die auf dem Speicher befindlichen Daten schon einmal vorverarbeiten kann. PIM steht dabei für Processing-in-Memory und nun hat auch SK hynix einen solchen Speicher vorgestellt – allerdings auf Basis von GDDR6. Der nun vorgestellte GDDR6-AiM (Accelerator in Memory) arbeitet mit 16 Gbps als Interface zwischen... [mehr] -
Hot Chips 33: Esperanto ET-SoC-1 ist der Inferencing-Effizienz-König
Machine-Learning, bzw. AI-Anwendungen lassen sich in zwei Bereiche aufteilen. Im Training werden verschiedenste Eingabewerte so verarbeitet, dass sie über das Inferencing schnell wieder ausgewertet werden können. Für das autonome Fahren werden Videodaten ausgewertet und ein Netzwerk trainiert, damit die Erkennung der verschiedenen Situationen verbessert wird. Im Inferencing wird das Erlernte dann über die lokalen Systeme in den Fahrzeugen nur... [mehr] -
Hot Chips 33: Samsung Aquabolt-XL - HBM2 mit integrierter Rechenkapazität
Anfang des Jahres stellte Samsung den HBM-PIM, den ersten HBM-Speicher mit eingebauter AI-Engine, vor. Einige Details kennen wir also bereits, auf der Hot-Chips-Konferenz sprach Samsung aber etwas genauer über die Motivation und die Ziele hinter einem solchen Speichertyp. Auch hat man bereits erste Produkte mit diesem Speicher ausgestattet und testet diese zusammen mit seinen potenziellen Kunden. Beim Aquabolt-XL handelt es sich um... [mehr] -
Hot Chips 33: Synopsys will komplette Chipentwicklung per AI anbieten
Moderne Chipdesigns sind unglaublich komplex. Mehr als 50 Milliarden Transistoren kann ein moderner Chip umfassen. Eine Architektur und einzelne IP-Blöcke sind in der Theorie vergleichsweise schnell entwickelt, diese dann aber fertigen zu können, ist eine ganz andere Aufgabe und kann zu großen Problemen führen. Anbieter sogenannter EDA-Werkzeuge (Electronic Design Automation) haben sich darauf spezialisiert, den Prozess eines Designs in die... [mehr] -
AVerMedia AI Speakerphone ausprobiert: Endlich rauschfrei
In Zeiten von Videokonferenzen und virtuellen Zusammentreffen werden plötzlich Komponenten des Computers wichtig, die vormals gar keine Wichtigkeit besaßen. Neben der Webcam - hier warfen wir kürzlich den Blick auf die Elgato Facecam - ist dies auch das Mikrofon des Notebooks oder des PCs. Externe Mikrofone gibt es dabei viele, AVerMedias AI Speakerphone hat aber spezielle Funktionen mit an Board, die es für Videokonferenzen interessant... [mehr] -
MLPerf Training 1.0: Graphcore und Google greifen NVIDIAs Vormachtstellung an
Die MLCommons haben pünktlich zur ISC 21 die Ergebnisse des MLPerf Training in der Version 1.0 veröffentlicht. Für diese neueste Version der Benchmark-Ergebnisse wurden einige Prozesse in der Teilnahme geändert, sodass es für Unternehmen einfacher werden soll, daran teilzunehmen. So wurden die bisher verwendeten Übersetzungs-Benchmarks GNMT und Transformer aus der Wertung genommen. Auf der anderen Seite wurde mit RNNT eine... [mehr] -
Neuer Intelligence X280 von SiFive verbindet RISC-V mit Vektorbeschleunigung
Auf der Linley Spring Processor Conference 2021 in der vergangenen Woche stellte Cerebras die zweite Generation der Wafer Scale Engine mit 850.000 AI-Kernen vor. Außerdem verkündete SiFive eine Erweiterung seiner Intelligence IP um den neuen X280-Prozessor. Eingebaut werden kann dieser in die U7-Series-Kerne mit RISC-V ISA. Der Intelligence X280 soll sämtliche AI- und ML-Workloads beschleunigen – von INT8, über BF16 und... [mehr] -
MLPerf Inference 1.0 Power legt den Fokus auf die Effizienz
In all unseren Tests versuchen wir über Benchmarks und Messungen unter gleichen Bedingungen des korrekte Leistungsbild der Hardware darzustellen. Für Prozessoren, Grafikkarten, Speicher, aber auch für Lüfter und Kühler stellt sich dies noch recht einfach und nachvollziehbar dar. Schon anders sieht dies für Serveranwendungen, die weitaus komplexer und weniger einfach nachvollziehbar sein können. Auf die Spitze getrieben wird dies mit AI-, bzw... [mehr]. -
Samsung HBM-PIM: Schneller Speicher bekommt eingebaute AI-Engine (Update)
Samsung hat eine neue Art High Bandwidth Memory (HBM) vorgestellt, der nicht nur ein einfacher Speicher ist, sondern der eine Processing-in-Memory (PIM) Architektur enthält. Es handelt sich laut Samsung um den ersten HBM, der über eine solche Art der integrierten Recheneinheiten verfügt. Noch ist nicht bekannt, wie genau die integrierten Recheneinheiten funktionieren, bzw. welche Rechenleistung diese erreichen. Samsung nennt keinerlei... [mehr] -
NVIDIA und Mellanox wollen Supercomputer per AI schützen
Zusammen mit der Ampere-Architektur bzw. der gigantischen GA100-GPU präsentierten NVIDIA und Mellanox auch die ersten Früchte der engeren Zusammenarbeit durch den Kauf des israelischen Netzwerkspezialisten. In den DGX-Systemen finden sich unter andere gleich mehrere ConnectX-6 Lx SmartNICs von Mellanox. Die EGX A100 ist eine Erweiterungskarte mit GA100-GPU ist direkt mit den ConnectX-6 Lx SmartNICs bestückt. Heute nun kündigt... [mehr] -
Zwei Cerebras CS-1 für den AI-Supercomputer Neocortex
Bereits ausführlich haben wir in der Vergangenheit über die Wafer Scale Engine (WSE) von Cerebras berichtet. Es handelt sich dabei um einen gigantischen Chip mit einer Fläche von 46.225 mm² – 215 x 215 mm. In der Fertigung wird dazu die maximale Fläche für ein Rechteck aus einer 300-mm-Wafer herausgeholt. Die Fertigung findet bei TSMC statt. Das System, welches eine solche WSE verwendet, ist das CS-1 getaufte System... [mehr] -
Chips designen Chips: Machine Learning übernimmt das Floorplanning
Mit dem Chip Design with Deep Reinforcement Learning haben einige Forscher bei Google AI, genauer gesagt dem Brain Team, eine selbstlernende Methode für das Floorplaning von Chips vorgestellt. Moderne Chip-Architekturen befinden sich über Jahre in der Entwicklung. Je nach Größe des Projekts und der Auslegung vergehen zwischen zwei und fünf Jahren. Heute bereits zu wissen, welche Anforderungen in zwei bis fünf Jahren an das Design... [mehr] -
Star Trek Voyager per AI auf 4K gebracht
Bereits häufiger haben wir über die Möglichkeiten der Machine-Learning-Anwendungen berichtet, altes Bildmaterial zu verbessern. Den Anfang machte ein Versuch mit Star Trek Deep Space Nine, zuletzt wurde aber auch ein altes Schwarz-Weiß-Video in ein 4K@60FPS-Format gebracht. Auf Reddit wurden nun die Ergebnisse einer solchen Bearbeitung einer alten Star-Trek-Voyager-Folge präsentiert. Diese wurde vom DVD-Format auf ein 4K... [mehr] -
NVIDIA DLSS 2.0: Ein AI-Upscaling wie von Anfang an geplant
Neben der Vorstellung bzw. Teilnahme an DirectX 12 Ultimate hat NVIDIA im Rahmen der Game Developers Conference eine Neuerung zum Deep Learning Super Sampling verkünden. Als DLSS 2.0 hat man den bisherigen Ansatz für das Training und Inferencing weitestgehend verworfen und startet von Vorne. Das Ergebnis: Eine Bildqualität für ein Upscaling, die Tatsächlich besser als je zuvor aussieht. Wir haben uns die Details... [mehr] -
Neuronaler Chip: Intel bringt Loihi das Riechen bei (Update)
Intel treibt die Entwicklung seines neuronalen Chips Loihi voran. Dazu hat man 72 chemische Sensoren an seine Testplattform angebunden, um über ein Deep-Learning-Netzwerk eine Analyse der Sensordaten zu ermöglichen. Dazu musste das Netzwerk zunächst einmal trainiert werden, was üblicherweise 3.000 Trainingsdurchläufe voraussetzt. Der Grund dafür ist, dass eine gesicherte Erkennung über die Sensordaten gewährleistet werden sollte. Im Falle des... [mehr] -
Alibabas AI-Chip Hanguang 800 ist schneller als die Konkurrenz
Auf der International Solid-State Circuits Conference (ISSCC) 2020 in San Francisco hat Alibaba einige Details zum AI-Beschleuniger Hanguang 800 verraten, bzw. diesen öffentlich ausgestellt. Der chinesische Online-Gigant ist bereits seit Jahren dabei sich eine eigene Hardware-Infrastruktur aufzubauen. Ausgeführt werden diese Bemühungen von der Alibaba-Tochter T-Head. Auch in dieser Hinsicht macht sich China mehr und mehr unabhängig... [mehr] -
Bessere Grafikqualität: DLSS wird weiter optimiert
Bereits mehrfach haben wir uns mit dem Thema Deep Learning Super Sampling oder kurz DLSS beschäftigt. Anfänglich gab es noch große Defizite in der Bildqualität, die vor allem in Battlefield V auffällig waren. Auch in Metro: Exodus und Anthem oder Shadow of the Tomb Raider waren noch Probleme in der Darstellungsqualität erkennbar, was auch Titel wie Anthem betraf. Erst mit Control konnten wesentliche Verbesserungen festgestellt... [mehr] -
Machine Learning macht aus altem S/W-Video 4K60FPS
Alte Filmaufnahmen haben durchaus ihren Charme und können je nach Genre dazu beitragen, dass bestimmte Filme und Serien nur in der jeweiligen Optik funktionieren. Doch in Zeiten immer hochauflösender Inhalte fallen so manche Filmsequenzen optisch weiter zurück. Die Ankunft eines Dampfzuges in La Ciotat ist eine der ikonischsten Aufnahmen der Filmgeschichte. Die 1896 von Auguste und Louis Lumière gemachten Aufnahmen stellten zur... [mehr] -
Datenskandal: Die App "Clearview AI" nutzt Bilder von Facebook
Dass durch das Hochladen eines Bildes bei der Social-Media-Plattform Facebook nicht nur Freunde auf besagte Aufnahme Zugriff haben, sondern das gesamte Internet, müsste mittlerweile bei den meisten Menschen angekommen sein. Zwar gibt es Privatsphäre-Optionen, mit denen man die Sichtbarkeit einschränken kann, allerdings haben solche Funktionen - wie die Vergangenheit gezeigt hat - diverse Sicherheitslücken. Somit kann man nie absolut sicher... [mehr] -
Cerebras CS-1: AI-Riesenchip in 15U mit aufwändiger Kühlung
Nach der Ankündigung des gigantischen Chips im Sommer und dem Blick auf die Herausforderungen in der Fertigung hat Cerebras nun ein erstes konkretes System vorgestellt, welches die Wafer Scale Engine (WSE) verwendet. 46.225 mm², 1,2 Billionen Transistoren, über 400.000 AI-Kerne und 18 GB an SRAM auf einem Chip machen die Dimensionen deutlich. Das CS-1 getaufte System hat eine Höhe von 15U. Es belegt damit etwa ein Drittel eines... [mehr] -
Booster für Supercomputer in Jülich setzt auf EPYC und Next-Gen NVIDIA-GPUs
Der von Beginn an modular und erweiterbar ausgelegte Supercomputer JUWELS in Jülich bekommt 2020 seine geplante Booster-Erweiterung und diese ist mit AMD-Prozessoren und NVIDIA-GPU ausgestattet. Das nun in Auftrag gegebene Modul wird von Atos und ParTec aufgestellt werden und soll 2020 in Betrieb gehen. Mit dem Booster-Modul bestehend aus mehreren Nodes soll die Rechenleistung von JUWELS von 12 auf über 70 PFLOPS gesteigert... [mehr] -
Intels neue AI-Hardware: NNP-T1000, NNP-I1000 und VPU
Auf dem AI Summit 2019 hat Intel seine neue Hardware im Bereich der AI-Beschleunigung vorgestellt. Bei diesen handelt es sich vor allem um die Nervana Neural Network Prozessoren (NNP). Der NNP-T1000 ist für das Training von neuronalen Netzen vorgesehen, der NNP-I1000 für das Inferencing. Die technischen Daten zu beiden Produkten hat Intel bereits in den vergangenen Monaten veröffentlicht, nun erfolgt der offizielle... [mehr] -
Adobe MAX: NVIDIAs Treiber wird schneller und nutzt RT und Tensor Cores
Zur Adobe-MAX-Konferenz präsentiert NVIDIA einen neuen Studio Driver, der neben einem Geschwindigkeitszuwachs neue Funktionen für Adobe Dimension, Substance Alchemist und Premiere Pro bringen soll. Dazu müssen die erwähnten Adobe-Programme natürlich ebenfalls angepasst werden. Mit dem Programmupdate und dem neuen Treiber verwendet Adobe Dimension verschiedene Raytracing-Effekte zum 3D-Rendering. Es geht dabei um eine nahezu in... [mehr] -
UPMEM: DDR4-DIMMs bekommen integrierte AI-Prozessoren
Für AI-Anwendungen ist es wichtig, den Speicher so nahe wie möglich an den verarbeitenden Prozessor zu bringen. Ein Unternehmen aus Frankreich namens UPMEM hat sich gedacht: "Warum den Prozessor nicht näher an den Speicher bringen?" Auf der Hotchips hat man nun einen DDR4-Speicher vorgestellt, der mit sogenannten DPUs (DRAM Processing Unit) kombiniert wird. Dabei integriert UPMEM die DPUs als Teil des DRAM-Speicherchips. Bereits in der... [mehr] -
Intel nennt Details zum NNP-T: 27 Milliarden Transistoren und 32 GB HBM2
Intel hat weitere Details zum Nervana Neural Network Processor for Training (NNP-T) veröffentlicht, die Tomshardware aufbereitet hat. Aus den Informationen gehen bisher unbekannte technische Details hervor. So verwendet der NNP-T 27 Milliarden Transistoren sowie 32 GB HBM2-Speicher und packt dies alles auf einen Interposer mit einer Fläche von 1.200 mm². Der NNP-T ist das Gegenstück zum NNP-I – letztgenannter ist für das... [mehr] -
ISC19: Intel sieht HPC-Markt im Wandel – neuer HPL-AI-Benchmark für mehr Klarheit
Regelmäßig zur Supercomputing im November und zur International Supercomputing Conference im Juni wird eine neue Liste der Top500-Supercomputer vorgestellt. Dies ist auch am gestrigen Tag, dem ersten der ISC19 in Frankfurt geschehen. In Gesprächen mit einigen Herstellern ist schnell zu spüren, dass die Top500-Liste zunehmend in den Hintergrund des Interesses rückt und dies hat gleich mehrere Gründe. Zudem gibt es einen Wandel in der Auslegung... [mehr] -
Qualcomm stellt dedizierte AI-Beschleunigerhardware vor
In seinen eigenen SoCs verbaut Qualcomm schon seit geraumer Zeit dedizierte Inferencing-Hardware und beschleunigt damit beispielsweise Mechanismen zur Verbesserung von Bildern, der Spracherkennung und in weiteren Anwendungsbereichen. Doch nun scheint Qualcomm einen Schritt weiter gehen zu wollen und kündigt auf dem AI Day in San Francisco dedizierte Inferencing-Hardware für 2020 an. Qualcomm sieht in diesem Markt ein Potential von 17... [mehr] -
Star Trek DS9 per AI auf höhere Auflösung gebracht
Noch immer erfreuen sich einige TV-Serien aus den 90ern großer Beliebtheit. Doch in Zeiten immer hochauflösender Inhalte fallen diese optisch immer weiter zurück. Nun gibt es immer wieder Remastered-Versionen bekannter Filme und Serien. Diese basieren sehr oft auf hochauflösendem Originalmaterial und werden auch anderweitig noch einmal optisch aufgebessert – sprich Remastered. Im Falle von Filmen und Serien die viele Post-Production-Arbeiten... [mehr] -
DeepMind-AI besiegt Starcraft-Profis 10:1
Fast alle größeren Unternehmen arbeiten in irgendeinem Bereich mit künstlichen Intelligenzen. Die Google-Tochter DeepMind will Machine-Learning-Anwendungen in die verschiedensten Bereiche einbringen. Bereits seit einiger Zeit arbeitet man an ML-Netzwerken, die in Spielen ein taktisches Verständnis entwickeln sollen. Dabei gehen die Algorithmen einen Schritt weiter als Systeme, die in Brettspielen wie Schach oder Go schon längst... [mehr] -
NVIDIA will 3D-Welten durch AI erzeugen lassen
Der Begriff prozeduales Leveldesign ist vielen sicherlich von Spielen wie No Man's Sky und Star Citizen bekannt. Dahinter verbirgt sich die prozedurale Synthese oder prozedurale Generierung von Inhalten wie Texturen, 3D-Objekten und Musik in einem vom Entwickler gesteckten Rahmen, um nicht eine zu 100 % vordefinierte Welt anfertigen zu müssen. Im Falle der beiden Weltraum-Abenteuer ist es nur so möglich hundert oder gar tausenden... [mehr] -
Neuronale Entwicklerplattform: Pohoiki Springs verwendet 768 Loihi-Chips
Auch wenn die Entwicklung neuer CPU-Architekturen bei Intel derzeit stillzustehen scheint, so macht der Chipgigant in anderen Bereichen große Fortschritte. Dazu gehört der im September 2017 vorgestellte Loihi-Chip, der aus 130.000 „Neuronen" aus Silizium besteht, die sich abhängig von der jeweiligen Anwendung selbstständig verknüpfen sollen. In einem ersten Schritt ging es für Intel darum das Potential der Hardware auszuloten und... [mehr] -
AI-Intelligenz als USB-Stick: Intels NCS 2 bietet 8fach höhere Leistung
Der Einstieg in die AI-Welt setzt nicht zwangsläufig leistungsstarke Hardware voraus. Die Zeiten, die Berechnungen auf dem Prozessor des Heim-PC ablaufen zu lassen, sind allerdings auch vorbei. Mit dem Neural Compute Stick (NCS) bietet Intel günstige Einsteigerhardware in Form eines USB-Sticks. Der NCS der ersten Generation verwendet eine Vision Processing Unit (VPU) von Movidius. Im Falle des ersten NCS war dies der Myriad 2, der... [mehr]