L’interprétabilité des modèles algorithmiques devient un enjeu de premier plan pour emporter l’adhésion de l’utilisateur final et répondre aux exigences réglementaires. Différentes techniques favorisent ce besoin de transparence.
Des conseils de placements financiers dispensés par un robot-advisor au diagnostic médical automatisé en passant par l’affectation des bacheliers dans le supérieur, l’intelligence artificielle émet un nombre croissant d' »aides à la décision » voire prend des décisions à la place de l’humain.
Cette montée en puissance de l’IA pose la question de son explicabilité. Pour éviter le fameux effet « boîte noire » et les inquiétudes parfois irrationnelles que suscite l’IA, un responsable de traitement doit offrir des gages de transparence à même de rassurer un expert métier ou l’utilisateur final. Par quels mécanismes un modèle algorithmique obtient-il, à partir de ces données en entrée, ce résultat en sortie ?
Un établissement bancaire doit ainsi pouvoir expliquer à son autorité de contrôle sur quels critères factuels et objectivés son algorithme octroie ou refuse un crédit. En interne, un commercial a besoin de comprendre pourquoi un modèle de churn management lui demande de contacter un client susceptible de partir à la concurrence. S’agit-il d’un problème de tarif ? D’une gamme de produits ne répondant plus à ses attentes ?
L’explicabilité fait partie des sept exigences définies par la Commission Européenne pour parvenir à une IA dite de confiance, avec la robustesse technique du modèle, le respect de la vie privée, la diversité, la non-discrimination et l’équité ou l’impact environnemental et sociétal.
Le 21 avril dernier, la Commission a été un pas plus loin en posant les bases d’une régulation des systèmes d’IA présentant des risques élevés. Ce futur RGPD appliqué à l’IA concernera notamment les technologies appliquées aux services bancaires, à l’éducation, au recrutement (tri des CV), au maintien de l’ordre, aux infrastructures critiques ou à la justice.
Si l’explicabilité est appelée à répondre à cet enjeu de conformité, elle est déjà un facteur clé de réussite dans l’industrialisation des projets d’IA. Nombre d’entre eux ne passent le stade du POC, non pas du fait des performances du modèle mais par manque de transparence de ce dernier.
Ce marché de l’IA explicable ou X-AI (Explainable AI) est porteur. Le cabinet Next Move Strategy Consulting l’évalue, au niveau mondial, à 3,55 milliards de dollars en 2019 et devrait atteindre 21,78 milliards de dollars d’ici 2030, soit une croissance annuelle moyenne de 19,9 %. Sur ce créneau, on trouve des plateformes de data science qui automatisent le déploiement de modèles comme le français Dataiku, SAS, Alteryx ou DataRobot.
Ouvre le capot des algorithmes « boîte noire »
Cette quête d’explicabilité passe tout d’abord par le choix de l’algorithme. Sur la soixantaine de grandes familles algorithmiques, certaines sont davantage interprétables que d’autres. Ce le cas des arbres de décision, des régressions linéaires, des systèmes de règles métiers qui offrent une explicabilité naturelle.
A l’inverse le deep learning, les réseaux neuronaux profonds, au mode d’apprentissage non supervisé ou renforcé, offrent une transparence nulle. Ces technologies répondent pourtant à des cas d’usage complexes de traitement de données non structurées comme la reconnaissance d’images.
L’opacité d’un modèle croit proportionnellement à sa complexité et il convient de trouver un juste équilibre entre performances et transparence. Une approche hybride consiste à entraîner un modèle sur des technologies de deep learning, d’identifier des variables discriminantes, puis, au moment du passage en production, de revenir à une méthode moins opaque.
A défaut, il existe des méthodes d’interprétabilités permettant de rendre plus transparents des algorithmes de type « boîte noire ». Des approches graphiques, comme ICE (Individual Conditional Expectations) et PDP (Partial Dependance Plot), proposent de visualiser la relation entre une variable et le phénomène à expliquer. Qualifiées d’holistiques, LIME (Local Interpretable Model-agnostic Explanations) et SHAP (SHapley Additive exPlanations) sont deux librairies d’interprétabilité qui reposent sur des approches d’explication locales, indépendantes du modèle.
Les géants du numérique proposent leurs propres modules d’explicabilité et de détection de biais comme Google Cloud avec Explainable AI (en version bêta), IBM avec Watson OpenScale ou Amazon Web Services avec SageMaker Clarify. Microsoft Azure s’appuie, lui, sur le framework Fairlearn. Les GAFA ont aussi libéré des outils en open source comme InterpretML, développé par Microsoft, Fairness Flow par Facebook, What-If Tool par Google et AI Fairness 360 par IBM.
Après avoir ouvert le capot des modèles complexes, l’étape suivante consiste à traduire de façon intelligible aux experts métiers la corrélation établie entre des variables discriminantes et le résultat obtenu. Cette restitution peut prendre la forme d’un graphique, d’indicateurs de pondération ou de phénomènes de causalité. Par exemple, ce placement financier sera recommandé à un client de plus de 45 ans, à la tête d’un patrimoine d’un montant minimal de X euros et présentant tel profil de risques.