[ad_1]
SAN FRANCISCO: Meta Platforms heeft woensdag details onthuld over de volgende generatie van de interne kunstmatige intelligentie-acceleratorchip van het bedrijf.
WAAROM HET BELANGRIJK IS
Reuters meldde eerder dit jaar dat Meta van plan was een nieuwe versie van een aangepaste datacenterchip in te zetten om de groeiende hoeveelheid rekenkracht aan te pakken die nodig is om AI-producten op Facebook, Instagram en WhatsApp te laten draaien. De chip, intern “Artemis” genoemd, zal Meta helpen de afhankelijkheid van Nvida's AI-chips te verminderen en de algehele energiekosten te verlagen.
BELANGRIJK CITAAT
“De architectuur van deze chip is fundamenteel gericht op het bieden van de juiste balans tussen rekenkracht, geheugenbandbreedte en geheugencapaciteit voor het bedienen van ranking- en aanbevelingsmodellen”, schreef het bedrijf in een blogpost.
CONTEXT
De nieuwe Meta Training and Inference Accelerator (MTIA) -chip maakt deel uit van een brede, op maat gemaakte siliciuminspanning bij het bedrijf, waarbij ook naar andere hardwaresystemen wordt gekeken. Naast het bouwen van de chips en hardware heeft Meta aanzienlijke investeringen gedaan in de ontwikkeling van de software die nodig is om de kracht van zijn infrastructuur op de meest efficiënte manier te benutten.
Het bedrijf geeft ook miljarden uit aan het kopen van Nvidia en andere AI-chips: dit jaar zei CEO Mark Zuckerberg dat het bedrijf van plan was ongeveer 350.000 vlaggenschip H100-chips van Nvidia over te nemen. Gecombineerd met andere leveranciers is Meta van plan dit jaar het equivalent van 600.000 H100-chips te verzamelen, zei hij.
DE NUMMERS
Taiwan Semiconductor Manufacturing Co zal de nieuwe chip produceren volgens zijn “5nm”-proces. Meta zei dat het drie keer de prestaties kan leveren van zijn eerste generatie processor.
WAT KOMT HIERNA
De chip is ingezet in het datacenter en houdt zich bezig met het bedienen van AI-toepassingen. Het bedrijf zei dat het verschillende programma's heeft lopen “gericht op het uitbreiden van de reikwijdte van MTIA, inclusief ondersteuning van (generatieve AI) workloads.”
[ad_2]
Source link