Rendre l’IA accessible à tous

Rendre l’IA accessible à tous

La démocratisation de toute technologie efficace se produit automatiquement en raison de son succès, même si la complexité qu’elle présente submerge initialement certaines des personnes les plus intelligentes qui la manient. Mais après six décennies d’informatique commerciale dans le centre de données, nous avons certainement appris une chose ou deux sur la façon d’aider ce processus d’adoption et d’intégration.

Il n’y a rien d’intrinsèquement spécial dans l’intelligence artificielle (IA) à cet égard, qui n’est sans doute que la dernière évolution d’une longue lignée d’outils de traitement de données sophistiqués.

Les ordinateurs centraux ont été conservés dans des serres comme une sorte de temple de l’informatique dans les années 1960 et 1970 avant d’être imités et copiés dans des mini-ordinateurs. Finalement, les PC ont engendré deux changements sismiques : devenir suffisamment puissants pour être des serveurs et exécuter des charges de travail critiques dans un environnement client-serveur. Ils ont rendu l’accès constant aux données omniprésent pour les masses, ce qui a finalement conduit au smartphone à une extrémité de la puissance de traitement condensée et au centre de données hyperscale à l’autre.

Une évolution parallèle s’est produite avec la base de données relationnelle à partir des années 1980. On pourrait poser des questions à l’original dans un langage de requête structuré (SQL) assez simple et montrer les connexions et les relations entre les données transactionnelles. Son successeur a abouti à des entrepôts de données remplis de données historiques à partir desquelles des pépites d’informations ont été extraites, avant d’exploser avec l’ajout de données non structurées dans Hadoop et Spark et une myriade d’autres plates-formes d’analyse de données.

L’inévitable révolution de l’IA

La révolution de l’IA de la dernière décennie était inévitable compte tenu du volume et de la disponibilité des informations sur lesquelles former des algorithmes statistiques d’apprentissage automatique, couplées à la quantité toujours croissante de données qui devaient être sélectionnées pour obtenir des informations, et à l’émergence d’un relativement moteur GPU de traitement parallèle peu coûteux et puissant. Les modèles de réseaux de neurones convolutifs sur lesquels repose l’apprentissage automatique existent depuis les années 1980, mais il n’y avait pas suffisamment de données d’entraînement ou de puissance de calcul pour que ces modèles convergent et offrent la précision que nous voyons aujourd’hui.

Il est tout aussi certain que les techniques d’IA seront désormais intégrées à toutes sortes d’applications et de cas d’utilisation informatique couvrant les agences gouvernementales, les institutions universitaires et les entreprises. Et à terme, chaque organisation est susceptible d’acquérir les technologies de traitement et de stockage des données pour explorer ses propres charges de travail d’IA et encapsuler les opérations dans le code d’application qu’elle a créé ou acheté.

Cette informatisation des fonctions a déjà transformé les applications comptables de back-office en suites de logiciels de planification des ressources d’entreprise (ERP), de gestion de la relation client (CRM) et de gestion de la chaîne d’approvisionnement (SCM). Ce changement s’accélérera avec une injection d’IA qui utilisera des techniques statistiques avancées et des réseaux de neurones pour améliorer l’efficacité et, comme d’autres technologies antérieures à l’IA, fera de nouvelles choses qui n’étaient pas possibles auparavant.

Si cela est fait correctement, l’IA sera à la portée de toutes les organisations et s’étendra au-delà du domaine des hyperscalers et des constructeurs de cloud qui ont historiquement eu le plus de ressources de calcul et de stockage à leur disposition. Et contrairement à la simulation et à la modélisation HPC traditionnelles, qui se sont également démocratisées au cours des dernières décennies, l’IA est une technologie qui peut être appliquée à toutes les industries et à toutes les tailles d’entreprise.

Simplifier le complexe

La démocratisation de l’IA implique de simplifier la technologie. C’est le point délicat, car contrairement aux techniques de traitement et d’analyse de données antérieures, l’IA est basée sur le traitement non déterministe et en boîte noire d’un réseau de neurones, une collection de modèles statistiques à partir desquels des ensembles de données peuvent être convertis en d’autres formes ou identifié ou analysé d’une manière ou d’une autre. C’est une technologie difficile à maîtriser, tout comme la simulation et la modélisation HPC l’étaient avant elle. Pourtant, le HPC fait désormais partie de la compréhension technique et économique de toute organisation qui souhaite l’utiliser, et l’IA devrait suivre.

« La majorité des data scientists et des ingénieurs en intelligence artificielle connaissent très bien les environnements Windows ou Ubuntu, et ils travaillent principalement à partir d’ordinateurs portables, de PC ou de stations de travail », explique Valerio Rizzo, responsable EMEA de l’IA chez Lenovo, déjà l’un des plus grands au monde. fournisseurs de systèmes HPC et désormais un leader sur le marché émergent des systèmes d’IA. »

“La licorne data scientist que tout le monde recherche est un professionnel qui possède une expertise approfondie en mathématiques et en statistiques, capable de programmer dans plusieurs langages, peut utiliser n’importe quel type d’outil ou de cadre sur le marché, maîtrise la technologie informatique et a un esprit d’entreprise il ajouta. “Mais la réalité est qu’il y a aujourd’hui une pénurie de ce type d’expertise très large et approfondie, et une fois trouvée, elle coûte cher.”

Il y a plusieurs années, Lenovo a développé Software Antilles pour simplifier la gestion de l’infrastructure HPC et la planification des tâches. Il a depuis évolué pour devenir le Lenovo Intelligence Computing Orchestrator, ou LiCO en abrégé, qui couvre désormais à la fois les charges de travail HPC et AI. Et plus précisément, selon Rizzo, sert l’intersection du HPC et de l’IA.

“La plupart des utilisateurs d’IA ne sont pas familiers avec la pile logicielle HPC traditionnelle, et donc avec LiCO, nous pouvons leur permettre d’utiliser une infrastructure de type HPC pour prendre en charge les applications de formation d’IA sans qu’ils aient besoin d’apprendre cette pile HPC et de passer par une courbe d’apprentissage abrupte, il expliqua.

“Ils ont configuré leur environnement Python et leurs notebooks Jupyter, toutes leurs bibliothèques, et nous résumons cette pile de logiciels HPC de telle manière qu’il n’est pas plus difficile à utiliser pour les data scientists que PyTorch ou Anaconda, qu’ils connaissent bien. ”

Combinaison LiCO et HPC

Essentiellement, LiCO permet aux scientifiques des données de former des modèles d’IA et d’utiliser un cluster HPC sans qu’ils aient besoin d’exploiter, de gérer et de connecter chaque composant de la pile logicielle HPC. Mais tout aussi important, dit Rizzo, la pile LiCO aide à maintenir les serveurs accélérés par GPU dans le cluster occupé afin que l’investissement en capital dans ces systèmes d’IA – comme le système HPC avant eux – soit maximisé.

La filiale de Lenovo, Motorola Mobility, utilise déjà LiCO pour exécuter la formation à l’IA nécessaire pour exécuter les fonctions de zoom assistées par l’IA sur ses caméras de smartphone. Il ne s’agit pas d’un cas d’utilisation HPC traditionnel, mais de nombreux utilisateurs LiCO ne sont pas intéressés par la simulation et la modélisation HPC, mais souhaitent néanmoins créer des clusters de formation IA évolutifs à l’aide des technologies HPC.

D’autres, prédit Rizzo, viendront à l’IA sous l’angle du conteneur Kubernetes et des microservices. En tant que tels, ils voudront un outil de gestion pouvant s’interfacer avec Kubernetes. Lenovo a donc créé une version de LiCO qui interagit avec la plate-forme de gestion de conteneurs elle-même.

“La version HPC de LiCO est liée aux systèmes Lenovo car elle dispose de capacités spéciales qui lui sont conférées par notre pile matérielle et logicielle, telles qu’une surveillance approfondie qui nous permet d’utiliser efficacement les ressources du cluster”, explique Rizzo. “La version de Kubernetes est pratiquement indépendante du matériel.”

Pour les clients HPC traditionnels, par exemple dans les secteurs du pétrole et du gaz, de l’automobile ou des services financiers, LiCO peut être installé au-dessus de l’infrastructure HPC existante avec accélération GPU et rendu accessible aux nouveaux utilisateurs d’IA qui souhaitent effectuer des entraînements sur les systèmes HPC. .

Le fait est que pouvoir suivre une formation à l’IA à grande échelle presque en continu est la première étape pour intégrer l’IA dans toutes sortes d’applications différentes. Et les nombreuses entreprises qui ont récemment créé des centaines de milliers d’applications avec l’intention de leur ajouter des algorithmes d’IA à l’avenir devront faire cette formation à l’IA elles-mêmes et trouver comment augmenter les capacités de leurs applications avec l’apprentissage automatique.

Poussées par des éditeurs de logiciels indépendants du monde entier, plusieurs charges de travail sont devenues les premières pionnières de la révolution de l’IA. Dans l’industrie électronique, l’automatisation des processus robotiques (RPA) transforme la fabrication pour offrir un niveau de précision beaucoup plus élevé et des temps de fabrication plus rapides que ceux associés aux employés humains. L’IA est également utilisée avec des algorithmes de vision par ordinateur pour effectuer des inspections de contrôle de la qualité sur des produits manufacturés dans des environnements de production. Dans les services financiers, l’IA est intégrée à la détection des fraudes pour mieux repérer les fraudes sans donner trop de faux positifs. Et dans le commerce de détail, la vidéosurveillance assistée par IA est utilisée pour plusieurs types de prévention des pertes, ainsi que pour améliorer l’expérience client.

Bon nombre de ces applications sont déjà commercialisées via le programme AI Solutions Accelerator de Lenovo. Et lorsqu’ils le feront, les éditeurs de logiciels indépendants utiliseront les outils et plates-formes Lenovo pour effectuer une formation à l’IA et prendre en charge leur charge de travail d’application, tandis que les clients achèteront simplement les applications alimentées par l’IA et profiteront des avantages de leur mise en œuvre dans leur entreprise. C’est la véritable démocratisation de l’IA en action.

Sponsorisé par Lenovo.

Leave a Comment