IA

Meta va acheter 350K GPUs Nvidia H100

En construisant une infrastructure proposant une puissance équivalente à 600 000 des dernières puces haut de gamme Nvidia, Meta vise à atteindre l’Intelligence Artificielle Générale (AGI).

Meta va s’offrir une montagne de GPU Nvidia. //www.threads.net/@zuck/post/C2QBoRaRmR1">Dans un post Instagram diffusé le 18 janvier, Mark Zuckerberg, patron de la maison mère de Facebook a annoncé que la société allait acquérir d’ici la fin de l’année 350 000 processeurs graphiques H100, soit ce qui se fait de mieux aujourd’hui chez le fondeur de Santa Clara. L’objectif de cette faramineuse puissance de calcul est tout simplement, d’après Mark Zuckerberg, de développer des IA qui égalent ou dépassent l’intelligence humaine, à savoir l’Intelligence Artificielle Générale (AGI).

Evidemment, Meta ne souhaite pas atteindre cet objectif juste pour l’exploit ou la beauté du geste. Mark Zuckerberg avance ainsi les nombreux avantages business que pourraient apporter de telles IA, notamment en termes d’assistant, de création de contenus, etc. Meta ne va donc pas lésiner sur l’infrastructure pour y arriver. Avec les GPU qu’elle possède déjà en plus de ceux qu’elle prévoit d’acquérir, la firme bénéficierait d’une installation déployant une puissance équivalente à 600 000 H100 de Nvidia, selon Zuckerberg. S’il est acquis que Meta s’appuie déjà sur des puces A100 de Nvidia, il n’est pas à exclure que l’entreprise utilise aussi des puces AMD, notamment les M1300X AI.

Pour le fondeur, l’opération a tout l’air du deal de l’année. Alors que les spéculations vont bon train, les analystes s'accordent pour dire que cette commande pourrait coûter à Meta autour de 9 milliards de dollars. A noter que le succès de la puce H100 de Nvidia lancée fin 2022 ne se dément pas. L’an passé, la firme de Santa Clara en aurait déjà écoulé près de 500 000, déjà auprès de Meta, mais aussi de Microsoft, AWS et Google.

Avant de nourrir des IA ayant atteint l’AGI, ces nouveaux GPU devraient en tout cas venir renforcer les modèles déjà déployés par Meta, notamment Llama 2, disponible en Open Source, et Llama 3, qui devrait bientôt l’être.