ou comment les algorithmes prennent gentiment le pouvoir …

 
Rappelez-vous : il fut un temps pas si lointain où l’on pensait qu’avec du bon reporting, bien pensé et basé sur de bonnes données, il était possible de piloter avec succès une entreprise / une organisation, car un bon dirigeant est avant tout un dirigeant informé.
 
La chose semblait entendue, les entreprises ont rapidement compris comment utiliser l’informatique et du reporting, ma foi, il y en a eu. A la tonne. Littéralement. Mais en vérité, que vaut une information (aussi juste soit-elle) si elle arrive trop tard ? Un peu comme si on annonçait au général l’arrivée de l’ennemi une fois l’ennemi dans la place: la marge de manœuvre s’amenuise, c’est sûr… Alors toujours aussi informé le dirigeant ?
 
« Bien que les advanced analytics existent depuis plus de 20 ans, les big data ont accéléré leur intérêt pour le marché et accru leur visibilité au sein de l’entreprise  » ,  déclarait en 2014 Alexander Linden, directeur de recherche chez Gartner.  « Plutôt que d’être le domaine réservé de quelques groupes sélectionnés (comme le marketing ou le risque), de nombreuses autres fonctions commerciales ont maintenant un intérêt légitime dans cette capacité à favoriser une meilleure prise de décision et de meilleurs résultats commerciaux. L’informatique et les chefs d’entreprise doivent redoubler d’effort pour faire en sorte que leurs organisations qui utilisent de la BI traditionnelle passent de l’analyse descriptive (ce qui est arrivé) à l’analyse approfondie (pourquoi et comment est-ce arrivé, comment pouvons-nous y remédier…). Alors que les analyses de base fournissent un résumé général des données, l’analyse approfondie fournit une connaissance approfondie et granulaire des données  » ,  a ajouté M. Linden.
 
En 2014 les predictive analytics étaient ce qu’on faisait de mieux en termes d’advanced analytics ! Le big data semblait la réponse à toutes les questions et déjà le machine learning était utilisé à toutes les sauces. Néanmoins si les « GAFA », la NASA, certaines agences (NSA, CIA and Co.), certains industriels (GE, Ford, Airbus, ADP, RATP, Siemens…) ou certaines villes (comme Detroit, Barcelone, Tallinn…) s’étaient lancés dans la danse avec le succès qu’on leur connaît, force était de constater que pour bien des entreprises, le big data, « c’est bien, mais c’est quoi au juste.. ? » .  Bref, ça parlait peu.
 
Nous sommes maintenant fin 2017, les big data ont montré leur capacité à collecter de la donnée (même si souvent on se sait pas toujours pourquoi) et la BI traditionnelle répond toujours à un certain besoin (qui toutefois s’amenuise au fur et à mesure de l’accroissement du nombre de dirigeants qui partent à la retraite). Par contre les analytics sont maintenant monnaie courante et M. Linden voyait au final assez juste : l’informatique et les chefs d’entreprise ont bel et bien redoublé d’effort, et tout ceci a changé effectivement la donne. Pas exactement comme on l’imaginait, mais la donne a changée.
 
Ainsi le marché a vu émergé quatre groupes bien distincts quand on parle de data: il y a ceux qui n’ont toujours pas compris que nous étions au 21ème siècle (siècle de la donnée s’il en est, et comme suggéré plus haut, ils tendent à disparaître de l’équation), il a les fana du reporting (et qui n’arrêteront pas d’en faire, probablement jusqu’à ce qu’ils rejoignent les premiers), il y a ceux, enfin, qui travaillent désormais quotidiennement avec les advanced analytics (et en tirent profit). Et puis il y a tous ceux qui les subissent (directement ou indirectement), c’est-à-dire nous tous.
 
Désormais les entreprises ont sérieusement pris conscience de l’importance des données et la grande tendance est maintenant d’en tirer réellement parti. Les cas d’usage prédictifs de type dynamic segmentation, propensity to buy ou next best offer sont maintenant des « classiques », les robots (software ou hardware) sont partout et même si les big data ne sont plus la panacée, les algorithmes ont maintenant pris le relais et leur intelligence (appliquée ou avérée) nous ont fait entrer dans l’ère des prescriptive analytics, celles qui décident et nous poussent à agir.
 
Grâce aux universités et à l’essor des data scientists, grâce à une technologie toujours plus puissante et toujours moins chère, grâce à la baisse constante du coût de stockage, on a commencé à vraiment « travailler » la donnée. Profondément. Et au lieu de se coltiner toutes les hypothèses et de les introduire dans les algos, des petits malins ont eu l’idée d’enseigner aux algorithmes à apprendre. Cette nouvelle façon de faire, appelée le Deep Learning, s’est rapidement propagée auprès des professionnels de la donnée. Certains ont commencé à la mettre massivement en pratique, et ce de façon très convaincante (voire très lucrative pour quelques uns). Les prescriptive analytics ne sont donc plus un phantasme : elles existent, sont tout à fait opérationnelles et influencent déjà nos vies. !
 
Le Deep Learning consiste donc à « enseigner » à des ordinateurs ce dont les humains sont naturellement capables : apprendre par l’exemple. La plupart des méthodes de Deep Learning utilisent des architectures de réseaux de neurones dits « profonds » (à l’opposé des réseaux « légers » associés au Machine Learning). Le terme Deep (ou profond) se rapporte généralement au nombre de couches cachées des réseaux de neurones. Les réseaux de neurones classiques ne comportent que 2 à 3 couches cachées, tandis que les réseaux profonds peuvent en compter plusieurs centaines pour les plus complexes…
 
Pour performer correctement, le Deep Learning nécessite un apprentissage préalable (un peu comme le vélo : c’est pas inné, mais une fois acquis, ça reste): sur la base de données brutes (si possible vérifiées), un réseau se voit assigner des tâches à accomplir (une priorisation des risques, par exemple, ou l’identification de facteurs clé…) et apprend comment les automatiser. A partir de là, les algorithmes sous-jacents évoluent avec les données et ne cessent de s’améliorer en même temps que le volume des données augmente
 
Cette méthode requiert donc un certain nombre de cycles d’apprentissage avant que les algorithmes ne puissent exprimer tout leur potentiel. Mais une fois le contexte compris, l’attente s’avère payante. Ce qui est bien pratique (par exemple) quand une expérimentation en conditions réelles serait trop chère à pratiquer, comporterait trop de risques ou prendrait trop de temps. Il s’agit alors d’exécuter des modèles analytiques sophistiqués et de notamment pratiquer des simulations de Monte Carlo à partir de variables connues randomisées, ceci afin de recommander les prochaines mesures à prendre, d’afficher des scénarios conditionnels et de mieux comprendre toutes les éventualités à prendre en compte.
 

Mais quel sont les cas d’usage du Deep Learning en 2017 ?

 
Il y en a déjà beaucoup: tarification, gestion des stocks, allocation des ressources, planification de la production, optimisation de la chaîne logistique, planification des transports et de la distribution, optimisation du trafic, gestion des installations, affectation de pistes de vente, optimisation du marketing mix, planification financière et j’en passe et des meilleurs. Ainsi, les systèmes de tarification des billets d’avion exploitent l’analytique prescriptif pour faire le tri entre des combinaisons complexes comprenant les conditions de voyage, le niveau de demande, le profil des demandeurs et la période d’achat. Ils peuvent ainsi proposer des prix permettant d’optimiser les bénéfices sans pour autant dissuader les clients. Autre exemple particulièrement visible, l’utilisation par UPS de l’analytique prescriptif pour optimiser ses tournées de livraison.
 
De fait, les algorithmes d’analyse prescriptive ne datent pas d’hier, mais ce n’est que maintenant qu’on peut pleinement exploiter leur pleine puissance ! Mais attention, pour tirer parti des prescriptive analytics, il convient de non seulement très bien maîtriser le cycle de sa donnée, mais encore de pouvoir réinjecter la donnée enrichie (cad calculée par un ou plusieurs algorithmes) dans la chaîne opérationnelle. Tout cela dans le but d’influencer cette dernière tout en mesurant les résultats et les deltas une fois ladite chaîne influencée (car on ne cesse jamais d’apprendre).
 
Pour terminer, il convient de quelque peu relativiser: même si pour certains les Intelligences Artificielles sont une réalité avec laquelle ils composent déjà, pour beaucoup d’autres cela reste encore très abscons. Mais qu’on ne s’y trompe pas : l’écosystème est en cours de mutation, les objets sont de plus en plus connectés et les réseaux de plus en plus rapides. La révolution est en marche et on ne pourra pas l’arrêter: les algorithmes sont (et seront de plus en plus) dans notre quotidien et nous seront poussés (à n’en pas douter) à nous adapter. Bienfait ou malédiction ? L’avenir nous le dira, et dans tous les cas ce sont les advanced analytics qui nous l’expliqueront.

 

KABE

 

Vos données ont de la valeur !

La Data Intelligence est destinée aux gestionnaires, décideurs et dirigeants d’entreprise. Il s’agit de la mise en œuvre des moyens, outils et méthodes destinés à fournir l’information utile pour décider et agir en toute connaissance de cause. Mettez-toutes les chances de votre côté en vous appuyant sur des professionnels de la donnée.

Les experts CALYPS sont là pour vous aider