Google et Hugging Face s’associent pour révolutionner l’IA générative
Dans le but de démocratiser l’IA et d’ouvrir de nouvelles opportunités aux développeurs, Google et la start-up Hugging Face ont annoncé un partenariat stratégique axé sur l’open science, l’open source et l’intégration avec Google Cloud. Cette collaboration promet des améliorations significatives en termes de performance, d’accessibilité et de facilité d’utilisation pour les développeurs.
Une alliance pour l’IA ouverte
Google et Hugging Face ont décidé de s’unir pour faire progresser le domaine de l’IA ouverte et du machine learning. L’objectif est d’intégrer la plateforme de Hugging Face à l’infrastructure de Google Cloud, y compris Vertex AI, afin de rendre l’IA générative plus accessible et impactante pour les développeurs. Grâce à cette collaboration, les utilisateurs de Hugging Face pourront facilement déployer des modèles sur Google Cloud avec des Inference Endpoints, accélérer leurs applications avec des TPU sur Hugging Face Spaces et gérer leur utilisation via leur compte Google Cloud.
Un partenariat avantageux
Ce partenariat offre de nombreux avantages technologiques et d’intégration. Les développeurs pourront entraîner, ajuster et servir des modèles ouverts de manière rapide et économique sur Google Cloud, en profitant d’une infrastructure optimisée pour l’IA, telle que les TPU et les GPU. De plus, les modèles Hugging Face pourront être déployés sur Google Kubernetes Engine et Vertex AI. Les TPU de Google, spécialement conçus pour accélérer les tâches de machine learning, offrent des vitesses supérieures et une efficacité énergétique optimale.
Une start-up en plein essor
Fondée en 2016, Hugging Face a rapidement attiré l’attention des géants technologiques tels que Google, IBM, Nvidia, Amazon, Qualcomm, AMD et Salesforce. Lors d’un tour de financement de série D en août dernier, la start-up a levé 235 millions de dollars, portant sa valorisation à 4,5 milliards de dollars. Avec son engagement envers l’open source et les modèles ouverts, Hugging Face est devenue la plateforme de référence pour héberger des modèles, des ensembles de données et des points d’inférence.
Des implications positives pour les développeurs
Ce partenariat offre de nouvelles perspectives aux développeurs, qui pourront utiliser l’infrastructure de Google Cloud Platform pour profiter de tous les services de Hugging Face, y compris les services de calcul, les TPU et les GPU. Ils pourront également entraîner et déployer rapidement des modèles de Hugging Face sur Google Cloud Platform via Vertex AI. De plus, les services MLOps intégrés de Google Cloud, conçus pour développer des applications d’IA, seront également disponibles pour ces utilisateurs.
Des performances accrues et une gestion simplifiée
Google et Hugging Face promettent des performances jusqu’à 2,5 fois supérieures par dollar et jusqu’à 1,7 fois moins de latence sur l’inférence avec Cloud TPU v5e, par rapport aux versions précédentes. De plus, les développeurs pourront bénéficier du support des supercalculateurs A3, offrant une vitesse d’entraînement triplée et une bande passante réseau dix fois plus importante. Les entreprises pourront également gérer facilement l’utilisation et la facturation de leur abonnement Enterprise Hub via leur compte Google Cloud.
En conclusion, ce partenariat entre Google et Hugging Face représente une avancée majeure dans le domaine de l’IA générative. Il permettra aux développeurs d’accéder à l’infrastructure de Google Cloud et de tirer parti des services avancés de Hugging Face, ouvrant ainsi de nouvelles possibilités dans le domaine de l’IA.