Grande Ecole de management de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, Institut Mines-Télécom Business School est une Grande Ecole publique qui forme des managers et des entrepreneurs responsables, innovants et ouverts sur le monde, afin de guider les entreprises dans les transitions au cœur de la société de demain, avec une expertise particulière dans le management du numérique et des technologies. Elle partage son campus avec Télécom SudParis, également membre de l’IMT. L’Ecole compte 1500 étudiants, figure chaque année au classement des meilleures business schools françaises et européennes, et est accréditée AACSB et AMBA. L’Ecole propose des formations allant du post-Bac (Bachelor – Grade Licence) à l’Executive Education en passant par le Programme Grande Ecole délivrant un diplôme Bac+5 (Grade Master).
Vidéo de présentation de l'Institut Mines-Télécom
De nombreuses procédures s’appuient à l’heure actuelle sur les prédictions réalisées par un modèle d’Intelligence Artificielle (IA) et interviennent alors comme un élément d’aide à la décision pour des opérateurs humains.
Pour améliorer ce type de collaboration entre l'Homme et la Machine, il peut être pertinent de fournir à l'opérateur humain des informations sur le comportement global du prédicteur, ainsi que d'enrichir les prédictions avec des éléments visant à les expliquer. Par exemple, il s'agit de fournir des informations permettant d'expliciter, pour une entrée donnée, la prédiction d'un modèle d'apprentissage profond, tel qu'un Vision Transformer : pourquoi ce modèle aboutit-il à un certain résultat de classification pour une image donnée ? Des techniques d'IA explicable ou XAI (eXplainable AI) ont été proposées et étudiées dans la littérature. Elles permettent d'évaluer le comportement global des modèles entraînés et d'expliquer des prédictions spécifiques en fonction des entrées (via des méthodes d'interprétabilité locale). Ces techniques s'appuient sur des hypothèses concernant la compréhension des processus de traitement des modèles prédictifs et l'importance accordée aux informations qui leur sont fournies.
Quelle est l'impact des techniques de XAI sur la collaboration entre l'Homme et la Machine ? Le Post-Doc proposé vise à apporter des éléments de réponse à cette question. En effet, dans de nombreux cas, les modèles d'IA sont des systèmes complexes qui traitent d'énormes quantités de données et effectuent des calculs difficiles à interpréter de manière intuitive. L'objectif de l'explicabilité est de fournir aux utilisateurs des informations sur la logique décisionnelle du modèle, afin qu'ils puissent comprendre et avoir confiance dans les résultats de l'IA. Si la compréhension des conclusions d'une IA peut influencer la confiance que l'on lui accorde, la collaboration entre l'Homme et la Machine peut-elle évoluer vers une relation de médiation, de délégation, voire de substitution ? Ce sont les questions que nous nous proposons d'explorer dans le cadre de cette étude.
Vous contribuez à :
Vous participez à la définition :
En fonction de votre profil, certains aspects sont plus approfondis que d'autres, et des aspects complémentaires sont envisagés concernant l'identification de techniques XAI susceptibles de répondre aux limitations des techniques existantes identifiées dans la littérature ou par les tests réalisés. Nous restons ouverts aux propositions de contributions des candidats en fonction de leurs centres d'intérêt.
Le projet sera mené en étroite collaboration avec l’IMT Mines Alès, en particulier avec Jacky Montmain, Sébastien Harispe et Andon Tchechmedjiev (laboratoire CERIS). Des déplacements, voire des séjours à Alès pourront si besoin être mis en place.