Matthieu Bellucci soutiendra sa thèse le vendredi 1er décembre à 14h30 dans l'amphithéâtre Marie Curie (salle B RJ 02) de l'INSA Rouen Normandie.
Cette thèse a été réalisée à l'INSA Rouen Normandie, au sein de l'équipe MIND (Multi-Agent, Interaction, Décision) du LITIS et s'intitule:
"Approches symboliques pour une intelligence artificielle explicable"
La soutenance aura lieu devant le jury composé de:
M. Christophe CRUZ, Professeur des Universités, Université de Bourgogne, Dijon, rapporteur
M. Pierre MARQUIS, Professeur des Universités, Université d'Artois, Lens, rapporteur
Mme Marie-Hélène ABEL, Professeure des Universités, Université de Technologie de Compiègne, examinatrice
Mme Claudia FRYDMAN, Professeure des Universités, Université d'Aix-Marseille, examinatrice
Mme Cecilia ZANNI-MERK, Professeure des Universités, Institut National des Sciences Appliquées de Rouen Normandie, directrice de thèse
M. Nicolas DELESTRE, Maître de conférences, Institut National des Sciences Appliquées de Rouen Normandie, encadrant
M. Nicolas MALANDAIN, Maître de conférences, Institut National des Sciences Appliquées de Rouen Normandie, encadrant
La soutenance sera également retransmise sur Zoom via le lien suivant:
ID de réunion: 537 891 0496
Résumé
L'adoption généralisée de l'IA est due aux progrès considérables réalisés par les modèles d’apprentissage automatique en termes de performances. Ces algorithmes sont appliqués pour aider les décideurs dans des domaines sensibles tels que la santé ou la justice. Ces modèles sont communément appelés boîtes noires car il est impossible de comprendre leur processus de décision et l’influence de chaque caractéristique sur le résultat. Cette opacité peut cacher des décisions discriminatoires qui peuvent avoir un impact sur la vie d’une personne. C’est pourquoi la communauté scientifique a commencé à étudier la conception d’une IA explicable (XAI).
Une direction prometteuse pour le développement d’une IA puissante et explicable est la combinaison d’approches symboliques de l’IA avec des modèles d’apprentissage automatique, résultant en des méthodes neurosymboliques. Alors que les modèles d’apprentissage automatique sont préférés pour leurs performances, les méthodes d’IA symbolique sont connues pour être explicables car elles exploitent les connaissances et la logique humaines pour prendre une décision. En outre, les ontologies ont été identifiées comme des candidates idéales pour la conception d’algorithmes d’IA explicables. Pourtant, les travaux actuels sur les techniques neurosymboliques se concentrent sur l’amélioration des performances plutôt que sur la conception de systèmes d’IA explicables, malgré leur potentiel à fournir des explications. Par conséquent, cette thèse est consacrée à l’exploration des applications des méthodes symboliques d’IA pour créer un système d’IA explicable.
Au préalable, une étude de la terminologie de la XAI est menée, car des notions importantes ne sont pas clairement définies dans la littérature. Une terminologie est introduite qui identifie et définit les termes récurrents de la XAI qui sont ambiguës dans la littérature. La principale conclusion est qu’une explication est un processus interactif qui détermine un ensemble de causes ayant conduit au résultat d’un système d’IA.
Ensuite, nous présentons un classificateur d’images basé sur une ontologie (OBIC) capable de détecter les erreurs dans ses prédictions. Ce système exploite une ontologie qui décrit le domaine d’application pour former des modèles d’apprentissage automatique capables de détecter la classe de l’image et un ensemble de propriétés définies dans l’ontologie, comme la texture ou la couleur d’un objet. Une incohérence dans les prédictions est détectée par l’ontologie et signifie qu’il y a eu une erreur dans la classification, ce qui aide l’utilisateur à décider s’il doit faire confiance à la prédiction finale. En outre, les prédictions des modèles d’apprentissage automatique sont fondées sur la connaissance du domaine, ce qui facilite la compréhension et l’explication de la prédiction. Nous avons construit une interface d’explication qui extrait des informations utiles de ce système et formule des explications adéquates.
Afin d’expliquer l’étape de détection des erreurs du système intelligent explicable, nous devons concevoir une méthode d’explication pour les ontologies adaptée à la plupart des utilisateurs. Parmi les techniques d’explication les plus populaires, les explications contrefactuelles semblent présenter de nombreux avantages et font l’objet d’études approfondies pour expliquer les modèles d’apprentissage automatique. Nous proposons une méthode de génération d’explications contrefactuelles pour les ontologies. Elle est adaptée pour expliquer le fonctionnement de l’ontologie aux non-initiés, ce qui rend cette solution idéale pour expliquer l’étape de détection des erreurs.
Enfin, nous évaluons nos contributions sur une tâche de classification d'images. La qualité et la validité de la phase de détection des erreurs sont testées et analysées. Une étude utilisateur à petite échelle est menée avec des experts du domaine pour évaluer la pertinence et la qualité des explications contrefactuelles générées.