News und Artikel durchsuchen
{{#data.error.root_cause}}
{{/data.error}}
{{^data.error}}
{{#texts.summary}}
[{{{type}}}] {{{reason}}}
{{/data.error.root_cause}}{{texts.summary}} {{#options.result.rssIcon}} RSS {{/options.result.rssIcon}}
{{/texts.summary}} {{#data.hits.hits}}
{{#_source.featured}}
FEATURED
{{/_source.featured}}
{{#_source.showImage}}
{{#_source.image}}
{{/_source.image}}
{{/_source.showImage}}
{{/data.hits.hits}}
{{{_source.title}}} {{#_source.showPrice}} {{{_source.displayPrice}}} {{/_source.showPrice}}
{{#_source.showLink}} {{/_source.showLink}} {{#_source.showDate}}{{{_source.displayDate}}}
{{/_source.showDate}}{{{_source.description}}}
{{#_source.additionalInfo}}{{#_source.additionalFields}} {{#title}} {{{label}}}: {{{title}}} {{/title}} {{/_source.additionalFields}}
{{/_source.additionalInfo}}
MLCommons
-
MLPerf Inference 2.1: H100 mit erstem Auftritt und mehr Diversität
Es gibt eine neue Runde unabhängiger, bzw. gegenseitig geprüfter Benchmark-Ergebnisse aus dem Server-Bereich. Genauer gesagt geht es um die Inferencing-Ergebnisse in der Version 2.1. Diese sollen eine unabhängige Beurteilung der Server-Systeme in den verschiedenen Anwendungsbereichen ermöglichen. Große Unternehmen werden natürlich weiterhin eine eigene Evaluierung vornehmen, aber in der Außendarstellung konnten die Hersteller meist nur mit... [mehr] -
MLPerf Training 2.0: NVIDIA die beständige Konstante, Graphcore, Google und Habana mit neuer Hardware
Die MLCommons hat die neuesten Ergebnisse für das Training von AI-Netzwerken veröffentlicht. Im Rahmen des MLPerf Training v2.0 geht es einmal mehr darum, eine Vergleichsbasis für solche Systeme zu bilden. Unternehmen wie Dell, HPE, Google, Inspur, Intel, Lenovo, NVIDIA, Gigabyte, Supermicro, Graphcore und viele weitere können an den Benchmarks teilnehmen, müssen sich natürlich an die aufgestellten Regeln halten und dürften auch die... [mehr]