Les projets d'Intelligence Artificielle (IA) sont souvent des échecs !

 
Tout le monde parle de l’IA, même nous. Certains vous proposent de la découvrir en action dans des séminaires, d’autres se targuent de vous l’expliquer avec des mots simples ou des démos bluffantes. Mais que ce soit dans l’industrie, le marketing, les ressources humaines, la santé, les voitures connectées, le divertissement, la logistique, l’imagerie ou dans tant d’autres domaines, les choses ne sont pas aussi simples qu’elles n’y paraissent, quand bien même chacun se sente autorisé à aller de son petit couplet.
 
De nos jours toutes les entreprises cotées se doivent d’avoir leur data scientist (si ce n’est plusieurs), ce qui provoque une inévitable flambée des salaires et peut aussi parfois attirer des charlatans. Bien sûr on parle de nouveau pétrole (comme disait Clive Humby), d’innovation (destructrice selon Luc Ferry) et Schumpeter nous explique que la destruction peut être créatrice, bien sûr on clame que la révolution est en marche, bien sûr les projets d’IA se multiplient et pourtant, dans tout ce fatras, combien sont réellement conscients que la majorité des entreprises qui s’engagent dans de tels projets échoueront très probablement ?
 

IA : risque et confusion

Les projets d’IA sont souvent le fruit d’une décision: celle de remplacer des systèmes et des processus qui ont (largement) démontré leur valeur par une intelligence artificielle sensée faire mieux. Or ce n’est de loin pas facile, ni rapide et encore moins aisé: la promesse de valeur d’une offre portée par une entreprise est très souvent le fruit d’une intelligence collective et d’un travail d’équipe. Et c’est aussi ce que les clients apprécient: s’ils comprennent et utilisent les produits vendus, ils aiment aussi (re)trouver de l’humain quand les choses vont de travers. Alors quand on décide de placer de l’IA dans ce bel équilibre, cela sous-entend que « on » a bien su évaluer quels sont les réels bénéfices à en tirer et que ceux-ci ne se limitent pas au seul bien-être des actionnaires. Mais est-ce vraiment le cas ? En réalité, considérer investir du temps, de la formation et de l’argent dans le développement de projets d’IA est un grand risque que la plupart des entreprises ne peuvent pas encore concrètement justifier.
 
Ensuite, une fois que les entreprises optent pour un projet d’IA, la confusion peut faire des ravages. D’abord cela commence par un manque de compréhension de ce qu’est l’Intelligence Artificielle. Trop souvent les dirigeants d’entreprise lui prêtent des vertus qu’elle n’a pas ou lui attribuent des miracles qu’elle ne peut accomplir. Cette mauvaise appréhension peut les conduire à monter des projets avec des attentes disproportionnées. Et quand les résultats escomptés ne sont pas là, les doigts commencent à être pointés dans toutes les directions, la pression s’accroît et parfois les têtes roulent.
 
Or, quand cela ne va pas, cela peut signifier soit que le problème est mal défini, soit qu’il n’y a peut-être pas assez de données ou qu’elles ne conviennent pas au projet qui a été envisagé. Dans tous les cas, quand les données ne sont pas bonnes, les algorithmes ne peuvent pas fonctionner correctement et encore moins générer les résultats espérés. Mais peut-être que ce ne sont pas les bons algorithmes non plus. Allez savoir. Ainsi, quand le projet dérape et qu’on ne sait plus où regarder, la confusion peut rapidement prendre des proportions conséquentes. Et plus il y en a, plus le risque d’échec est prononcé.
 
Cela dit, admettons que le bon problème ait été identifié et que l’on dispose des données nécessaires pour le résoudre, encore faut-il s’appuyer sur les bons talents pour mener à bien toutes les tâches. Trouver lesdits talent est une affaire délicate, notamment parce que l’IA n’est pas un processus ou une technologie unique et sans heurt, bien au contraire. Le nombre de projets dépasse largement le nombre de personnes réellement à même d’apporter des réponses tangibles aux défis posés. Dans ce cas, malgré un bon problème, malgré de bonnes données, sans de véritables experts en la matière, les entreprises ne devraient pas se lancer dans de tels projets sans y réfléchir à deux fois. Et avant qu’elles puissent réellement être en mesure de faire confiance à une IA, elles se rendent vite compte que la courbe d’apprentissage est longue et souvent ardue.
 

Les trois défis posés par l’IA

En ce qui concerne CALYPS, nous pratiquons l’IA depuis quelques temps déjà. Force est de constater que l’animal n’est de loin pas facile à dompter. Si trouver une problématique est relativement aisé (encore que), disposer des bonnes données l’est déjà moins et savoir comment correctement exploiter les résultats obtenus l’est encore moins. Notre expérience nous montre qu’il y a trois défis majeurs à relever avant qu’une IA puisse être d’une quelconque utilité.
 
D’abord il faut noter que le premier défi n’est pas technologique (bien des éditeurs vous expliquent maintenant que tout cela se fait sans code et en quelques clics), mais qu’il réside dans la capacité effective à apporter une réelle valeur ajoutée dans un processus opérationnel où l’humain a un rôle (important) à jouer. Et il faut insister sur ce point: considérer l’humain comme un point de détail est non seulement une énorme erreur, mais cela démontre un vrai déni de réalité. L’IA doit compléter l’humain, voire le magnifier, et non le remplacer.
 
Une fois qu’on a su trouver comment fédérer toutes les parties prenantes autour de l’IA, son adoption devient plus facile et on peut se lancer dans le deuxième défi, celui du temps court. Faire des calcul savants sur des données historiques et générer des résultats de plus en plus pertinents est (presque) à la portée du premier data scientist venu. Mais le faire dans le quotidien avec des données qui tombent au fur et à mesure qu’elles sont générées n’est pas aussi aisé qu’il n’y paraît (même si les algorithmes font de petits miracles de nos jours). Prenez par exemple un hôpital : il peut générer des milliers d’admissions sur une année et prises toutes ensemble elles constituent de très bonnes données historiques. Mais ramené à l’heure, le nombre d’admissions devient forcément plus petit et le biais forcément plus grand. Ainsi, parce que l’échantillonnage au temps court n’est plus aussi fourni qu’avec les données historiques, des incertitudes sont induites et cela génère des résultats erronés.
 
Ce qui nous amène au troisième défi: faire comprendre aux utilisateurs que tout intelligente qu’elle prétend être, cette technologie n’en est pas moins sujette à erreur. Et c’est là que le bât blesse: que faire quand les résultats ne sont pas ceux escomptés ? Que faire quand la voiture choisit le précipice plutôt que le chemin ? Que faire quand l’avion décide de ne plus voler ? Que faire quand l’ordinateur décide de vous considérer comme un ennemi d’état ? Que faire quand la machine se trompe ? C’est bien là toute la question et le seul qui puisse corriger le tir, c’est l’Homme. Dans ce cas, il s’agit de lui donner les moyens de (1) pouvoir interpréter ce qu’il se passe et de (2) pouvoir agir en conséquence.
 
Comme vous l’avez compris, l’IA n’est pas à prendre à la légère et sans l’Homme, elle est loin d’être la panacée qu’on nous promet. Dans les années à venir, l’IA ne sera pas la seule voie de notre (r)évolution sociétale; c’est simplement l’une d’entre elles, pour autant qu’on sache résoudre les défis qu’elle engendre. Au final, c’est une question de pouvoir et il s’agit de bien savoir à qui on le donne…
 
KABE
avec le soutien du Team CALYPS

Vos données ont de la valeur !

La Data Intelligence est destinée aux gestionnaires, décideurs et dirigeants d’entreprise. Il s’agit de la mise en œuvre des moyens, outils et méthodes destinés à fournir l’information utile pour décider et agir en toute connaissance de cause. Mettez-toutes les chances de votre côté en vous appuyant sur des professionnels de la donnée.

Les experts CALYPS sont là pour vous aider