Passer de l’étape du prototype à la production en IA et en apprentissage automatique est l’une des tâches les plus difficiles. La recherche montre que plus de 87 % des projets de science des données n’arrivent jamais à la production pour des raisons telles que l’utilisation de divers frameworks, langages et écosystèmes, parallèlement à une pénurie de calculs spécialisés pour la formation à grande échelle et des charges de travail variables sur le service ML, et nécessitant une utilisation plus intelligente. gestion des infrastructures.
Dans ce contexte, Google, qui croit fermement que le cadre/la plate-forme MLOps est essentiel pour garantir un délai de mise sur le marché plus rapide et reproductible pour les modèles ML, a annoncé sa plate-forme phare de ML (Vertex AI). Il répond à tous les besoins en science des données, de l’expérimentation (avec les blocs-notes gérés) et de la formation (à l’aide de frameworks de pipeline ML évolutifs) au déploiement (autoscaling ++ GKE) et à la gestion et à la surveillance des modèles de manière systématique, évolutive et unifiée.
Galerie du concours
Le marché mondial de l’apprentissage automatique en tant que service (MLaaS) devrait atteindre 302,66 milliards USD d’ici 2030, avec une croissance à un TCAC de 36,2 % de 2021 à 2030. La croissance est déclenchée par une demande accrue de solutions basées sur le cloud. , cloud computing, croissance du marché de l’IA et de l’informatique cognitive, augmentation de l’adoption de solutions analytiques, augmentation des domaines d’application, etc.
À la tête de la vague, Google Cloud aide les clients à mieux comprendre leur chaîne d’approvisionnement et leurs produits grâce aux données. De plus, ils aident également à exécuter des applications (applications existantes et nouvelles – en utilisant une architecture ouverte) et rassemblent les gens pour améliorer la productivité et la créativité, en veillant à ce que les systèmes, les utilisateurs et les données soient protégés.
Google Cloud croit en la démocratisation du ML dans toute l’organisation. Dans cette entreprise, il fournit ses capacités de ML de trois manières distinctes :
API : Google Cloud fournit des API aux entreprises, où elles peuvent intégrer les modèles directement dans leurs applications. Par exemple, incluez l’IA vidéo, l’API Google Cloud Vision, l’API Speech-to-text, l’API Cloud Document AI, etc.
AutoML : Il aide les entreprises à créer des modèles personnalisés pour leurs données. Grâce aux fonctionnalités de ML sans code d’AutoML, les organisations (en particulier les analystes commerciaux) peuvent facilement créer des modèles à la pointe de la technologie.
Plate-forme IA : Pour les organisations qui souhaitent adopter la science des données comme différenciateur stratégique, Google Cloud permet aux data scientists de disposer des outils les plus sophistiqués. Google Cloud prend en charge tous les frameworks ML populaires (TensorFlow, PySpark, PyTorch, scikit-learn, etc.). De plus, les entreprises peuvent utiliser les TPU pour créer des modèles complexes de l’échelle du BERT (réglage de milliards de paramètres) en quelques heures/jours. En d’autres termes, cela pourrait durer des semaines et des mois ailleurs.
BQML : Pour les équipes qui connaissent bien SQL, BQML, les capacités de machine learning intégrées de Google Cloud libèrent son potentiel pour des millions d’analystes de données, car elles leur permettent de créer et d’opérationnaliser des modèles directement à partir de BigQuery, à l’aide de SQL simple.
L’avenir du MLaaS – collaboration stratégique
Google Cloud a plusieurs améliorations prévues à l’avenir pour les services ML. La société prévoit d’étendre l’IA de recommandation au-delà de la vente au détail dans certains des autres domaines tels que les médias et le divertissement. De plus, ils apporteraient des fonctionnalités telles que la formation pour permettre une plus grande personnalisation des modèles prédéfinis en fonction des données des clients.
Récemment, Google Cloud a lancé son TPU v4 à la pointe de la technologie pour ses entreprises clientes. Ces puces hautes performances ont été le moteur du développement de ses grands modèles de langage. Il est maintenant disponible pour ses clients.
Les clients qui ont récemment utilisé TPU v4 ont été témoins de résultats étonnants. Par exemple, Erik Nijkamp, chercheur scientifique chez Salesforce, a déclaré que l’accès à TPU v4 leur avait permis d’accomplir des exploits dans la programmation d’IA conversationnelle avec leur projet CodeGen – un modèle de langage auto-régressif de 16 milliards de paramètres que l’anglais simple invite dans code exécutable.
Il a déclaré que l’observation empirique détermine la grande taille de ce modèle et que la mise à l’échelle du nombre de paramètres du modèle proportionnellement au nombre d’échantillons d’apprentissage semble améliorer les performances du modèle. Ce phénomène est également connu sous le nom de « loi d’échelle ».
“TPU v4 est une plate-forme exceptionnelle pour ce type de formation d’apprentissage automatique à grande échelle, offrant des performances significatives par rapport à d’autres alternatives matérielles d’IA comparables”, a déclaré Nijkamp.
La recherche LG AI a récemment collaboré avec Google Cloud pour tester le TPU v4 avant sa commercialisation. Ils ont utilisé le dernier supercalculateur d’apprentissage automatique de Google pour former les capacités multimodales de LG, LG EXAONE, une IA super géante qui a une échelle de 300 milliards de paramètres.
LG EXAONE a été formé avec TPU v4 et une énorme quantité de données, plus de 600 milliards de corpus de texte et 250 millions d’images – équipés de capacités multimodales – visant à surpasser les experts humains en termes de communication, de créativité, de productivité, et autres. “Non seulement les performances de TPU v4 ont surpassé les autres architectures informatiques de pointe, mais le support orienté client a également dépassé nos attentes”, a déclaré Kyunghoon Bae, responsable de la recherche LG AI.
De l’ingénierie des données au jeu multi-cloud
Google Cloud fournit des technologies d’IA, d’apprentissage automatique, d’analyse et de bases de données. Il a joué un rôle déterminant en aidant des organisations telles qu’Exabeam, Deutsche Bank et PayPal à éliminer les silos, à accroître l’agilité, à tirer davantage de valeur des données et à innover plus rapidement.
Au cours des dernières années, la méthode multi-cloud est devenue plus populaire que l’approche à cloud unique, car elle offre aux organisations une flexibilité, des capacités et des alternatives de prix nettement supérieures. Dans le même temps, de nombreuses entreprises pensent qu’une approche multi-cloud est un moyen de résoudre les problèmes fondamentaux du cloud computing.
Le multi-cloud est une approche de plus en plus populaire ; Outre la flexibilité, les capacités et le prix, deux facteurs clés pour adopter une approche multi-cloud sont la diversification des risques et l’exploitation des meilleures capacités de chaque offre CSP.
Bien que cela semble être une décision stratégique évidente dans la conception d’une architecture technologique, une mise en garde à prendre en compte concerne les défis d’intégration et la gravité des données qui sont inévitables dans tout cloud dès le départ dans votre choix technologique. Cela permet d’éviter une réarchitecture coûteuse à un stade ultérieur et de contrôler les coûts de sortie que vous devrez peut-être engager pour opérer efficacement sur les clouds.
Au cœur de tout ce qu’ils font, l’équipe pense que Google a toujours eu “ouvert” au cœur de sa philosophie de conception. C’est au cœur de leur ADN, comme en témoignent également leurs contributions à des sources ouvertes telles que GKE et Tensorflow. Google a plus de 20 000 projets et 2 millions de lignes de code ont contribué à l’open source. Cette philosophie a également été au cœur de la façon dont l’entreprise a conçu ses offres cloud – des produits comme Anthos, Dataplex, BQ Omni de BigQuery, etc., en sont de bons exemples.
Pour ceux qui ne le savent pas, Anthos est conçu pour aider les équipes à exploiter, orchestrer et gérer leurs applications sur plusieurs clouds. Dataplex permet aux équipes de gérer les données et de créer un référentiel central de métadonnées, quel que soit le cloud sur lequel se trouvent les données. BigQuery, l’un de leurs produits d’analyse les plus performants, a récemment lancé BQ Omni pour agir comme un wrapper capable d’interroger des données quel que soit le cloud sur lequel elles résident.
Google Cloud est un fournisseur de cloud véritablement centré sur le client. L’entreprise travaille avec l’architecture technique et de données du client, qu’il utilise la technologie sous-jacente de Google Cloud ou celle de quelqu’un d’autre.