4 défis clés pour maîtriser l’IA à l’horizon 2023

Le 8 juin 2022, Accenture a présenté le rapport The Art of AI Maturity. Le rapport a révélé que seulement 12 % des entreprises interrogées utilisent l’IA à un niveau de maturité, réalisant une croissance supérieure et une transformation de l’entreprise. 63% des entreprises utilisant l’IA ne font qu’effleurer la surface.

Bien que l’IA puisse offrir des avantages significatifs aux entreprises de tous les secteurs, le potentiel de la technologie est encore loin d’avoir atteint son apogée. Bien que de multiples problèmes puissent faire échouer votre adoption de l’IA d’entreprise, les entreprises seront confrontées à quatre défis clés à l’approche de 2023. Comprendre ces défis peut aider les organisations à établir une feuille de route et leurs stratégies d’IA. Ils font la différence entre maîtriser l’IA et récolter les bénéfices ou simplement jouer avec une nouveauté technologique.

Créer une culture d’IA axée sur l’entreprise

Les entreprises qui excellent dans l’apprentissage automatique et la résolution de problèmes commerciaux réels avec l’IA auront probablement une forte culture de l’innovation à tous les niveaux. Actuellement, des centaines de milliers d’entreprises expérimentent d’une manière ou d’une autre l’IA. Au sein de ces entreprises, des équipes de data scientists ou d’ingénieurs de données sont chargées de montrer la voie en développant des modèles d’apprentissage automatique qui profitent à l’entreprise. Cependant, ces équipes sont souvent isolées, développent des modèles de manière très ad-hoc, presque artisanale et sont déconnectées des décideurs, cloisonnées et peu soutenues par les cadres dirigeants ou les autres départements.

Les entreprises qui démarrent des projets d’IA en tant qu’expérimentaux et les présentent ensuite à leur organisation ont des taux d’échec plus élevés que celles avec une approbation initiale pour la production. Les données doivent recueillir les commentaires des principaux décideurs sur les défis auxquels l’entreprise est confrontée et créer des modèles d’apprentissage automatique qui répondent à ces problèmes commerciaux réels.

Les scientifiques des données travaillant dans des organisations qui n’ont pas une forte culture de l’IA entrent souvent en conflit avec les «anciennes façons de faire les choses». Les projets Blackbox AI peuvent ne pas obtenir l’adhésion des dirigeants car ils ne comprennent pas comment le modèle d’apprentissage automatique est arrivé à ses résultats.

La formation de tous les travailleurs, des PDG aux employés de l’informatique, du marketing, des ventes et des bureaux, brise la barrière linguistique et technique et crée un soutien et une compréhension. Les data scientists au sein d’une organisation ne peuvent pas travailler seuls. Ils doivent collaborer avec d’autres ministères.

Passer des projets expérimentaux d’IA à la production

Il existe une myriade de raisons pour lesquelles les organisations ont du mal à faire passer les projets expérimentaux d’IA en production. La plupart des défis commerciaux sont directement liés à l’absence d’une solide culture de l’IA. Cela génère toutes sortes de problèmes.

Par exemple, les PDG ne comprennent souvent pas les limites de l’IA et ce qu’elle peut et ne peut pas faire. Par exemple, les modèles d’apprentissage automatique peuvent avoir un impact sur les résultats d’une entreprise – en particulier dans le climat économique actuel et la récession imminente – grâce à des solutions d’IA qui optimisent les dépenses marketing grâce à la modélisation du marketing mix ou à des modèles qui peuvent réduire le taux de désabonnement des clients. Mais d’autres problèmes de prédiction peuvent ne pas être résolus pour plusieurs raisons, comme des données insuffisantes.

Il est également essentiel que la direction comprenne comment fonctionnent les modèles d’apprentissage automatique et combien de temps il faut pour créer un modèle. Construire un machine learning prend du temps. Le rapport « 2020 State of Enterprise ML » d’Algorithmia a révélé que seulement 63 % des 745 entreprises ont étudié les modèles d’apprentissage automatique en production. En moyenne, 40 % des entreprises ont déclaré qu’il fallait plus d’un mois pour déployer un modèle d’apprentissage automatique en production.

Les scientifiques des données doivent parcourir de grandes quantités de données brutes, choisir les données qu’ils doivent utiliser, parler à des experts, former leurs modèles et comparer les résultats. Supposons que les dirigeants cherchent à résoudre un problème commercial avec une échéance urgente, par exemple, en prédisant les impacts de la récession au cours des trois prochains mois. Dans ce cas, ils doivent tenir compte des contraintes de temps liées au développement de modèles d’IA. Ces processus chronophages peuvent être source de frustration et compliquent souvent la réalisation des projets expérimentaux d’IA.

Sur le plan technique, les projets expérimentaux échouent souvent à entrer en production car ils utilisent un sous-ensemble de données beaucoup plus volumineux. Un modèle expérimental peut bien fonctionner avec un sous-ensemble de données. Pourtant, d’autres variables entrent en jeu lorsqu’il devient opérationnel et utilise des données en direct, et le modèle peut dériver, échouer ou s’effondrer. Un autre problème avec l’opérationnalisation des modèles est que le code de science des données est initialement en Python – un langage de programmation interprété de haut niveau et à usage général. La conversion du code d’apprentissage automatique en quelque chose qui peut être utilisé dans les systèmes de production peut prendre du temps et être difficile.

Investir dans les talents, la technologie et les environnements de données

Alors que l’IA et l’apprentissage automatique sont devenus courants, de nouvelles entreprises proposant des services d’IA ont commencé à se développer. Les plates-formes d’automatisation de l’apprentissage automatique sont à la mode pour leur potentiel d’accélération et d’augmentation du travail effectué par les data scientists.

Les quatre principaux avantages des nouvelles solutions d’IA sur lesquelles il convient de se concentrer sont : la découverte de modèles, la création de pipelines de données, la validation de fonctionnalités et la découverte d’informations commerciales. Les nouvelles technologies qui permettent la découverte de modèles dans les données (fonctionnalités) peuvent donner aux équipes d’ingénierie et de science des données la possibilité de passer rapidement des données d’entreprise brutes et relationnelles aux besoins d’apprentissage automatique des tables plates. La création de pipelines de données pour ML concerne la capacité d’alimenter les magasins de fonctionnalités avec des fonctionnalités nouvelles et à jour prêtes pour l’apprentissage automatique qui peuvent être utilisées dans autant de cas d’utilisation que possible pour accélérer le temps de développement.

Les scientifiques des données peuvent également réduire le temps de développement et fournir de meilleurs modèles avec des fonctionnalités déjà approuvées en validant les fonctionnalités pour l’apprentissage automatique afin d’identifier la « valeur » d’une fonctionnalité pour un modèle donné. Enfin, de nouvelles solutions peuvent favoriser la découverte d’informations commerciales. L’apprentissage automatique traite d’énormes quantités de données, mais même si toutes ne sont pas utiles, ces nouvelles technologies peuvent trouver des modèles dans les données et les utiliser même en dehors du domaine de l’apprentissage automatique.

Alors que la nouvelle technologie d’IA peut accélérer et améliorer les processus, l’IA présente également des défis pour les entreprises. L’un d’eux est la transparence. Une entreprise peut développer un modèle complexe pour prévoir les ventes et la demande ou gérer les stocks, mais peut ne pas comprendre le fonctionnement du modèle. C’est un problème pour de nombreuses raisons. Si nous ne pouvons pas comprendre le fonctionnement des modèles, comment pouvons-nous faire confiance aux résultats ou aux recommandations qu’ils fournissent ?

L’autre problème avec les fonctionnalités découvertes automatiquement est que les entreprises peuvent croire à tort que ces solutions peuvent remplacer leurs équipes talentueuses et leurs investissements dans la technologie ML. Les plateformes d’automatisation de l’IA sont des outils développés pour les data scientists, pas leurs remplaçants. Avec ces outils, les scientifiques des données peuvent devenir plus productifs et éliminer bon nombre des frustrations qui ralentissent les processus de développement, en faisant en quelques heures ce qui prenait traditionnellement des mois à accomplir…

IA responsable et transparence

Le concept “IA responsable” est devenu un mot à la mode pour l’industrie, avec des entreprises comme Google promouvant des slogans comme l’IA qui “ne fait pas de mal” et Microsoft se référant à son cloud comme un “cloud pour le bien mondial”. Cependant, il y a plus dans ces slogans que ce qui saute aux yeux.

Dès le début du projet, les principales entreprises d’IA réfléchissent à la manière dont elles utiliseront leurs modèles d’apprentissage automatique et aux données qu’elles utiliseront. Un modèle de machine peut nuire de plusieurs manières. Il peut sous-performer et avoir un impact négatif sur une organisation ou être codé sans comprendre les conséquences imprévues de son utilisation.

Par exemple, une société d’évaluation du crédit qui développe un modèle d’apprentissage automatique pour donner aux clients une évaluation de crédit en quelques secondes doit déterminer quelles données sont éthiques à utiliser. Bien que le sexe, la race, le code postal ou d’autres données puissent avoir un impact sur une cote de crédit qui déterminerait si un client devrait obtenir un crédit, les scientifiques des données doivent se demander si l’utilisation de ces données est éthique.

Les modèles d’apprentissage automatique et l’IA n’ont pas de concepts inhérents comme la « responsabilité » ou « l’éthique » et peuvent être discriminatoires et biaisés. Le développement et l’utilisation de modèles d’apprentissage automatique comportent des responsabilités éthiques. La transparence est essentielle pour garantir une utilisation éthique des modèles de ML. Il est essentiel que tout le monde au sein de l’entreprise, et pas seulement les scientifiques des données, comprenne comment un algorithme arrive à ses conclusions et quelles données ont été utilisées dans le processus.

Lorsqu’un modèle d’apprentissage automatique peut résoudre des problèmes très complexes, mais que les humains ont du mal à comprendre comment un modèle parvient à des conclusions ou fait des prédictions et quelles données il utilise, il manque de transparence. Ces modèles d’IA dits « boîte noire » peuvent être problématiques. Les plateformes de développement d’IA doivent assurer la transparence et la traçabilité des fonctionnalités. Le premier fait référence à la capacité des utilisateurs qui n’ont pas développé le modèle à comprendre comment il est arrivé à ses prédictions. La traçabilité, quant à elle, fait référence à la capacité des développeurs à « tracer » les éléments de données qui ont été utilisés dans des prédictions spécifiques et dans des caractéristiques spécifiques associées à un modèle donné.

L’apprentissage automatique doit être facile à comprendre, transparent, responsable et accessible. Les quatre défis interconnectés auxquels l’industrie et le monde sont confrontés aujourd’hui façonneront notre avenir.

La création d’une culture de l’IA axée sur l’entreprise, l’efficacité du passage des projets d’IA expérimentaux à la production, l’investissement dans les talents, la technologie et les environnements de données et l’adoption du concept d’IA responsable dès le départ, voilà comment les organisations maîtrisent l’apprentissage automatique.

Ryohei Fujimaki est fondateur et PDG de dotData.

Leave a Comment