[ad_1]
SAN FRANCISCO: Benchmarkgroep voor kunstmatige intelligentie MLCommons heeft woensdag een nieuwe reeks tests en resultaten vrijgegeven die de snelheid beoordelen waarmee hoogwaardige hardware AI-applicaties kan uitvoeren en op gebruikers kan reageren.
De twee nieuwe benchmarks die door MLCommons zijn toegevoegd, meten de snelheid waarmee de AI-chips en -systemen reacties kunnen genereren uit de krachtige AI-modellen boordevol gegevens. De resultaten laten grofweg zien hoe snel een AI-applicatie zoals ChatGPT een antwoord kan geven op een gebruikersvraag.
Een van de nieuwe benchmarks voegde de mogelijkheid toe om de snelheid van een vraag-en-antwoordscenario voor grote taalmodellen te meten. Het heet Llama 2, bevat 70 miljard parameters en is ontwikkeld door Meta Platforms.
Ambtenaren van MLCommons hebben ook een tweede tekst-naar-afbeelding-generator toegevoegd aan de reeks benchmarkingtools, genaamd MLPerf, gebaseerd op het Stable Diffusion XL-model van Stability AI.
Servers aangedreven door Nvidia's H100-chips, gebouwd door onder meer Alphabet's Google, Supermicro en Nvidia zelf, wonnen handig beide nieuwe benchmarks op het gebied van ruwe prestaties. Verschillende serverbouwers dienden ontwerpen in op basis van de minder krachtige L40S-chip van het bedrijf.
Serverbouwer Krai heeft een ontwerp ingediend voor de benchmark voor beeldgeneratie met een Qualcomm AI-chip die aanzienlijk minder stroom verbruikt dan de geavanceerde processors van Nvidia.
Intel heeft ook een ontwerp ingediend op basis van zijn Gaudi2-acceleratorchips. Het bedrijf omschreef de resultaten als ‘solide’.
Ruwe prestaties zijn niet de enige maatstaf die van cruciaal belang is bij de inzet van AI-applicaties. Geavanceerde AI-chips zuigen enorme hoeveelheden energie op en een van de grootste uitdagingen voor AI-bedrijven is het inzetten van chips die optimale prestaties leveren voor een minimale hoeveelheid energie.
MLCommons heeft een aparte benchmarkcategorie voor het meten van het stroomverbruik.
[ad_2]
Source link