Un grand nombre de projets de machine learning et de deep learning échouent faute de gouvernance, d’implication des métiers ou d’explicabilité du modèle. Voici quelques bonnes pratiques pour assurer un passage à l’échelle.
L’IA est de plus en plus considérée par les entreprises comme un levier pour transformer leur organisation voire leur modèle économique. Pour autant, il y a un fossé entre la théorie et la pratique et nombre de projets ne passent pas le stade du POC. Selon une étude d’IDC, datée de juin 2020, environ 28% des chantiers d’IA se soldent par un échec. En cause, selon le cabinet d’études, un manque d’expertise en interne, un déficit de données prêtes pour la production et l’absence d’environnements de développement suffisamment intégrés.
Une autre étude, menée cette fois par IBM auprès de cinq pays européens dont la France, cite également le manque de compétences comme frein à l’adoption de l’IA pour 33 % des sondés. 38 % des répondants ont cité la difficulté apparente de l’intégration de l’IA dans les systèmes d’entreprise existants.
Enfin, 29 % ont identifié la complexité croissante des données et l’existence de données en silos comme un obstacle. « En raison de la prolifération des données dans l’entreprise, plus des deux tiers des professionnels européens de l’informatique puisent dans plus de vingt sources de données différentes pour alimenter leur IA« , avance l’étude.
DevOps appliqué à l’IA
La première erreur serait d’aborder un projet IA comme un projet informatique. A la différence de ce dernier, il n’a pas de fin. Même une fois en production, le modèle doit être supervisé et réentraîné. En fonction de la nature des données qui l’alimente, il varie dans le temps. L’équipe projet peut aussi tâtonner au début, avant de trouver le bon modèle.
Le caractère imprévisible d’un projet d’IA suppose de faire appel à des cadres méthodologiques spécifiques, comme la méthode CRISP, développée par IBM, et les approches DataOps pour automatiser l’intégration et l’automatisation des flux de données et MLOps pour gérer le cycle de vie complet d’un modèle de machine learning. Les entreprises qui appliquent déjà DevOps retrouveront un grand nombre de principes communs.
Ces méthodologies visent à réunir toutes les parties prenantes du projet : l’équipe de data science, la DSI pour préparer l’infrastructure qui héberge le modèle et les experts métiers à l’origine du cas d’usage. L’implication des métiers apparaît clairement comme un facteur de succès dans la série d’interviews conduite par le collectif Impact AI auprès d’experts dans les domaines de l’assurance, l’éducation la gestion de la relation client et la santé.
La qualité et l’accessibilité des données de la donnée sont des autres enjeux clés alors que le patrimoine informationnel en entreprise est souvent siloté. Un modèle d’IA doit être entraîné à partir d’un jeu de données « propres » et labellisées, au volume suffisamment conséquent.
Les experts de la data science passeraient l’essentiel de leur temps à cette phase de préparation de la donnée. L’approche DataOps couplée à un d’outil d’intégration de données (ETL/ELT) de type Microsoft SSIS, Talend, Stambia ou PDI doivent permettre d’automatiser l’alimentation de pipelines de données.
Bâtir une IA de confiance
Une fois les données à disposition, il convient de choisir l’algorithme. Arbres de décision, régressions linéaires, réseaux de neurones convolutifs ou récurrents…. Chaque famille algorithmique répond à des cas d’usage précis, du traitement purement statistique à la reconnaissance d’images.
Le choix de l’algorithme s’établit aussi en fonction du type de données à traiter (structurée, non structurées), du volume de données nécessaire, du mode d’apprentissage (supervisé, non supervisé) et de sa durée.
Autre critère à prendre en compte : la transparence du modèle. Soit la capacité à expliquer par quels mécanismes un modèle algorithmique obtient, à partir de ces données en entrée, ces résultats en sortie. Un système de règles métiers présente une explicabilité naturelle alors qu’à l’inverse le deep learning offre une transparence nulle (on parle de « boîte noire »). Comme l’opacité d’un modèle croît proportionnellement à sa complexité, il s’agit de trouver un juste équilibre entre performances et transparence.
L’explicabilité n’est qu’une des exigences d’une IA dite de confiance. Elle doit être, entre autres, éthique (non discriminatoire), respectueuse de la vie privée et robuste. C’est-à-dire capable de reproduire les mêmes performances dans la durée sans qu’un phénomène extérieur ou une moindre qualité des données ne vienne à perturber le modèle.
Pour garantir cette robustesse, l’équipe projet devra superviser le modèle en production en mettant en place des points de contrôle afin de l’alerter en cas de dérive. Il devra aussi être réentraîné à intervalles réguliers.
Des plateformes de data science
Ne brûlons pas les étapes et, en attendant cette mise en production, il convient de réfléchir au type d’infrastructure qui hébergera le modèle. Le traitement en volume de données non structurées suppose d’une architecture de type big data (Hadoop, Spark…).
En ce qui concerne les modalités d’hébergement, le cloud l’emporte de plus en plus sur les environnements on-premise même s’il présente un risque d’enfermement propriétaire, chaque provider développant son propre écosystème.
De fait, AWS, Google Cloud et Microsoft Azure proposent à la fois l’infrastructure pour héberger les données et toute la gamme de services cognitifs pour les traiter, comme la computer vision, le traitement du langage naturel ou la traduction automatique.
Les hyperscalers américains commercialisent aussi des solutions dites de machine learning automatisé comme Google Cloud AutoML ou Azure Automated ML. Elles ont vocation à démocratiser l’IA en suggérant, par exemple, l’algorithme le plus pertinent à partir d’un jeu de données.
Ils ne sont pas les seuls sur ce créneau. Le français Dataiku ou les américains Viya (SAS), Alteryx, DataRobot et Domino distribuent des plateformes de data science qui servent de cadre pour développer un projet de bout en bout, de la préparation au déploiement en passant par la modélisation.
Ces plateformes collaboratives ont pour ambition d’élargir l’accès à l’IA en associant les experts métiers au développement des modèles algorithmiques. Un facteur clé de succès comme on l’a vu précédemment.