Qu’est-ce qu’Explainable AI (XAI) ?

Au gré des améliorations et au vu de la complexité toujours grandissante, le domaine de l’intelligence artificielle devient toujours plus compliqué et de moins en moins intelligible. Grâce à des succès sans précédent dans ce domaine, notamment l’apprentissage automatique, la recherche dans l’intelligence artificielle suscite cependant un immense intérêt. Malgré la complexité grandissante, développer des IA de façon à ce que les programmes soient en mesure d’apprendre de façon autonome et de trouver des solutions à des problèmes complexes demeure l’un des principaux champs de recherche. Il est d’autant plus essentiel de maintenir la compréhension des décisions et des résultats des intelligences artificielles à un niveau élevé.

C’est sur ce point qu’intervient Explainable Artificial Intelligence (XAI). Les utilisateurs souhaitent et doivent comprendre comment l’IA d’un programme fonctionne et comment évaluer les résultats obtenus. Dans le cas contraire, il est difficile d’accorder une confiance réelle dans les calculs numériques correspondants. La transparence apportée par Explainable AI revêt ainsi une énorme importance pour l’acceptation de l’intelligence artificielle. En quoi consiste cette approche exactement ?

Outils d'IA d'IONOS

Lancez votre présence en ligne plus rapidement. Nos produits évoluent en permanence grâce à l'intégration de nouvelles fonctions d'IA.

Texte par IA
Images par IA
SEO par IA

Qu’est-ce que l’Explainable Artificial Intelligence (XAI) ?

Traduit de façon littérale, Explainable Artificial Intelligence signifie « intelligence artificielle explicable ». Ce terme est un néologisme utilisé depuis 2004 dans la recherche et les débats sur l’apprentissage automatique. À l’heure actuelle, il n’existe aucune définition universelle de l’Explainable AI. Le programme XAI de la DARPA (Defense Advanced Research Projects Agency) définit toutefois les objectifs de l’intelligence artificielle explicable avec les exigences suivantes.

Elle doit comporter des modèles explicables sans avoir à renoncer à sa grande capacité d’apprentissage. Il convient également de veiller à ce que les futurs utilisateurs puissent comprendre la génération émergente d’intelligences artificielles, leur faire confiance dans la limite du raisonnable et l’utiliser et travailler avec elle de façon efficace.

Définition : Explainable AI (XAI)

On entend par Explainable AI (XAI) le principe, le fonctionnement et le mode opératoire d’une intelligence artificielle ainsi que sa capacité à présenter les résultats qu’elle atteint de façon aussi intelligible que possible pour l’utilisateur.

Quel est l’objectif de XAI ?

L’intelligence artificielle n’est plus réservée aux chercheurs et aux scientifiques depuis un certain temps déjà. De nos jours, elle fait partie intégrante de la vie quotidienne. C’est la raison pour laquelle il est essentiel que la modularité de l’intelligence artificielle ne soit pas uniquement accessible aux concepteurs et aux utilisateurs directs : les décisionnaires en particulier doivent pouvoir comprendre autant que possible le fonctionnement des IA pour avoir un minimum de confiance dans cette technologie.

Plusieurs entreprises de renom donnent déjà un bon exemple à cet égard : en 2017, le groupe Nvidia a publié sur le blog des développeurs de son site internet un article sur le thème « Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a car ». Dans cet article, quatre développeurs expliquent comment leur intelligence artificielle apprend à conduire de façon autonome. L’entreprise y décrit de façon transparente ses résultats de recherche et montre comment l’intelligence artificielle apprend des choses à travers plusieurs exemples facilement compréhensibles.

La même année, Accenture a publié le guide « Responsible AI: Why we need Explainable AI », dans lequel ce fournisseur de services technologiques traite des aspects comme l’éthique et la confiance en lien avec les machines (en particulier dans le domaine de la conduite autonome).

Quelles sont les méthodes de l’Explainable AI ?

Il existe différentes méthodes ou approches permettant d’apporter de la transparence et de la compréhension dans les intelligences artificielles. Les principales sont résumées dans les paragraphes suivants.

La Layer-wise Relevance Propagation (LRP ; que l’on peut traduire approximativement par : « transmission de l’importance couche par couche ») a été décrite pour la toute première fois en 2015. Il s’agit d’une technologie permettant de déterminer les caractéristiques des vecteurs d’entrée contribuant le plus au résultat de sortie d’un réseau neuronal.

La Counterfactual Method (« méthode contrefactuelle ») décrit la façon dont des entrées de données (textes, images, diagrammes, etc.) sont modifiées de façon entièrement ciblée après l’obtention d’un résultat. On observe ensuite dans quelle mesure le résultat a été modifié.

Les Local Interpretable Model-Agnostic Explanations (LIME) consistent en un modèle d’explication avec une approche holistique qui vise à expliquer n’importe quel classificateur mécanique et les pronostics qui en résultent. Cette approche doit rendre accessibles les données et les méthodes à des utilisateurs non spécialisés.

La rationalisation est une méthode utilisée spécialement pour les robots basés sur une IA. Dans ce cadre, la machine est conçue de façon à pouvoir expliquer ses actions de façon autonome.

Dans quels cas l’Explainable Artificial Intelligence est-elle utilisée ?

L’intelligence artificielle intervenant déjà dans de nombreux domaines, il est tout particulièrement essentiel d’apporter de la transparence. L’IA est de plus en plus utilisée dans certains secteurs industriels ou de service. La reddition de comptes (angl. accountability) joue donc un rôle essentiel.

L’accent est particulièrement mis sur certains domaines d’applications ou secteurs :

  • la conception d’antennes ;
  • les échanges à haute fréquence (échanges algorithmiques) ;
  • le diagnostic médical ;
  • la conduite autonome (véhicules conduisant sans conducteur) ;
  • l’imagerie de réseaux neuronaux ;
  • la formation aux stratégies militaires.

Toute personne ayant déjà utilisé le park assist sait à quel point on est sceptique et tendu derrière le volant et à quel point on est ensuite étonné de voir qu’une telle technologie peut fonctionner. En tant qu’utilisateur, on a alors envie de savoir comment une voiture peut se garer de façon autonome. On peut donc tout à fait comprendre que les domaines mentionnés ci-dessus accordent un intérêt particulier à la transparence et à l’explication du fonctionnement de l’IA.

Google Explainable AI

Google a également identifié l’importance grandissante de la reddition de comptes : effectuant de très nombreuses recherches dans le domaine de l’intelligence artificielle et l’utilisant pour son moteur de recherche ainsi que dans d’autres domaines, le groupe s’est fortement engagé à rendre ses programmes plus transparents. Depuis 2019, Google a franchi une nouvelle étape avec Google Explainable AI qui permet de créer des modèles d’apprentissage automatique intégratifs et interprétables. Cette suite peut être utilisée gratuitement pendant douze mois.

Dans le pack de services, Google propose notamment l’outil « What-If » permettant de visualiser le comportement d’un modèle. Les prédictions de cet outil peuvent être ajustées en fonction des besoins individuels. Les différentes démos et l’interface graphique permettent de passer au crible les différents modèles d’apprentissage automatique sans avoir à écrire beaucoup de code. À cette fin, Google propose divers outils prêts à l’emploi : outre les fonctionnalités d’estimation de l’âge ou de classification de fleurs, il existe également une fonctionnalité permettant d’analyser différents portraits. La répartition s’effectue selon que la personne sourit ou pas. En outre, le module indique différents paramètres concernant les caractéristiques des visages. Par exemple, les photos peuvent également être triées selon que la personne porte une barbe ou une frange.

Pour afficher cette vidéo, des cookies de tiers sont nécessaires. Vous pouvez consulter et modifier vos paramètres de cookies ici.

D’autres entreprises utilisent les possibilités offertes par Google Explainable AI. La chaîne de télévision Sky utilise l’outil « What-If » pour sa propre plate-forme d’IA afin de donner des explications claires et de mieux analyser les données.