Dossier Éclats de sciences

IA : savoir interpréter ces boîtes noires pour en garder le contrôle

Malgré leur démocratisation, les modèles d’IA restent des « boîtes noires », dont même les spécialistes ne parviennent pas à expliquer précisément le fonctionnement. Pour garantir la sécurité des systèmes et limiter leurs biais, le domaine dit de « l’interprétabilité » suscite beaucoup d’intérêt.

Charlotte Mauger

C’est un champ de recherche aujourd’hui en plein bouillonnement : l’interprétabilité de l’intelligence artificielle (IA), ou comment rendre intelligibles les décisions produites par les modèles. Tels des neuroscientifiques, des spécialistes de l’IA étudient ces cerveaux artificiels afin d’en comprendre les rouages. Modèles de langage, reconnaissance d’images, traitement automatisé de données… Alors que ces systèmes, sous toutes leurs formes, se sont imposés dans notre quotidien, cet effort arrive presque tardivement.

Réservé aux abonné·es

Se connecter

La lecture des articles est réservée aux abonné·es

Se connecter