IA

De nouvelles instances GPU chez OVH

L’hyper scaler français ajoute de nouvelles gammes de GPU de NVidia et ajoute une nouvelle instance sur les puces A 100 du fondeur.

Complétant les anciennes instances sur les puces NVIDIA V100 et NVIDIA V100S, OVH propose maintenant les GPU NVIDIA H100, NVIDIA A100, NVIDIA L40S et NVIDIA L4 avec un déploiement effectif dans les semaines à venir. Une nouvelle instance sur les puces A 100 80 Go est disponible immédiatement et permettent aux spécialistes de l’IA d’exécuter des projets complexes sur les unités hautement spécialisées de NVIDIA, les Tensor Cores. Les instances A100 Public Cloud peuvent être configurées comme A100-180 avec 1x A100, 15 vCore et 180 Go de RAM, A100-360 avec 2x A100, 30 vCore et 360 Go de RAM et A100-720 avec 4x A100, 60 vCore et 720 Go de RAM. De la même manière de nouvelles instances s’appuient sur les modèles H 100 bénéficiant des dernières avancées de NVIDIA avec une puissance de calcul de 26 petaFLOPS (FP64) par GPU en PCIe, conçu spécifiquement pour les modèles IA les plus exigeants.

Pour certains usages spécifiques comme la configuration fine ou l’entraînement, OVH mettra à disposition des solutions sur NVIDIA H100 SXM. Avec une puissance de calcul de 67 TFlops (FP64) et une bande passante GPU supérieure. Enfin le fournisseur de Cloud annonce également de nouvelles instances GPU avec le GPU NVIDIA L4 armé de 24 Go de mémoire. Le L4 est basé sur l’architecture GPU NVIDIA Ada Lovelace et se présente comme un GPU universel apte à tous types de charges de travail avec des capacités IA et vidéo améliorées. Cette puce offre des ressources de calcul optimales pour le graphisme, la simulation ainsi que les scénarii d’analyse de données et de science des données. Le GPU NVIDIA L40S lancé récemment par NVIDIA rejoint les instances GPU proposées par le groupe en configuration 48 Go de mémoire. Le NVIDIA L40S profite de la quatrième génération de Tensor Cores et des Transformer Engine FP8 pour de solides performances dans les tâches relatives à l’IA comme l’entraînement ou l’inférence. Ces nouvelles références de GPU seront disponibles au travers d’instances Public Cloud mais aussi dans des serveurs dédiés Bare Metal : le L4 rejoindra la gamme SCALE-GPU et le L40S la gamme HGR-AI.

Les instances GPU basées sur les NVIDIA A100 sont maintenant disponibles dans Public Cloud à partir de 2,75 EUR l’heure pour l’A100-180, 5,50 EUR l’heure pour A100-360 et 11 EUR l’heure pour A100-720. Les solutions IA managées basées sur A100 seront disponibles plus tard à partir de 3 EUR par heure. Les instances NVIDIA H100 PCIe dans l’univers Public Cloud seront proposées durant l’automne avec une pré-réservation qui démarre dès à présent. Les clients intéressés par les prochaines offres NVIDIA H100 SXM peuvent dès à présent solliciter un devis personnalisé. Les instances GPU NVIDIA L4 et L40S seront disponibles dans le courant du mois d’octobre. Les instances bare metal devraient être disponible courant octobre.