La Cnil pose les bases d’une éthique de l’intelligence artificielle

Par

La Commission nationale de l’informatique et des libertés a présenté les résultats d’une vaste consultation lancée au mois de janvier 2017 sur la question de l’intelligence artificielle. Son « rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle » pose deux principes fondamentaux et six recommandations.

Cet article est en accès libre. Découvrez notre offre spéciale ! S'abonner

La Commission nationale de l’informatique et des libertés (Cnil) a rendu, vendredi 15 décembre, un rapport primordial sur la question des algorithmes et de l’intelligence artificielle fixant deux grands principes et six recommandations censées guider à l’avenir les décideurs, qu’ils soient politiques ou du secteur privé.

Intitulé « Comment permettre à l’homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle », ce rapport est le fruit d’une vaste consultation lancée en janvier dernier par la Cnil et ayant mobilisé près de 3 000 participants, experts, chercheurs et citoyens, lors de quarante-cinq événements organisés dans plusieurs villes de France.

Un travail approfondi et une diversité de points de vue qui transparaissent dans le résultat final, complet, tout en ciblant précisément les problématiques et en écartant les fausses pistes. Face à un sujet particulièrement vaste et propice à tous les fantasmes, la Cnil évite l’écueil d’un rapport trop vague et généraliste en circonscrivant sa réflexion de manière pragmatique.

 © Reuters © Reuters

Ainsi, le rapport commence par démonter les mythes tournant autour du terme d’intelligence artificielle, et plus particulièrement de l’IA dite « forte », c’est-à-dire celle qui serait capable de simuler l’intégralité du cerveau humain. La Cnil n’hésite pas à dénoncer les coups de com de certaines entreprises du secteur pour qui le terme « IA » est avant tout un outil marketing.

« Les algorithmes et l’intelligence artificielle en sont venus à constituer de nouvelles mythologies de notre temps, dont la simple évocation suffit à connoter la modernité et l’innovation numériques », soulignent les auteurs. « Rien d’étonnant dès lors à ce que ces termes soient apposés de manière souvent rapide et peu justifiée à des réalités ou à des entreprises soucieuses de se forger une image flatteuse et futuriste. »

La Cnil tord également le cou au fameux mythe de la « singularité », cette théorie selon laquelle les IA parviendront, un jour prochain, à devenir totalement autonomes et supplanteront l’humanité. « Les voix les plus compétentes s’élèvent pour battre en brèche de telles prévisions, assimilées au mieux à des fantasmes, voire à des mensonges », assène le rapport.

Celui-ci fait donc volontairement le choix de limiter son étude aux « IA faibles », c’est-à-dire spécialisées dans une tâche particulière, et plus précisément à celles reposant sur le machine learning. Ce terme désigne les techniques d’apprentissage automatique permettant aux algorithmes d’évoluer, de se reprogrammer, en fonction des résultats obtenus, sans intervention humaine.

Cette limitation du débat aux algorithmes, loin d’appauvrir l’analyse de la Cnil, lui permet de cibler les dangers réels. Car, si les « IA fortes » relèvent encore aujourd’hui de la science-fiction, les « IA faibles » sont déjà omniprésentes. Ce sont ces algorithmes qui sont utilisés pour tous les systèmes de recommandation sur Internet, pour les moteurs de recherches, pour la reconnaissance d’images et la reconnaissance faciale. Ils sont également déjà utilisés dans des domaines tels que les ressources humaines, l’assurance et la finance. Et ils commencent à envahir les administrations avec par exemple les logiciels de prédiction du crime ou encore le logiciel « APB » de l’Éducation nationale.

Après avoir défini les termes du débat, la Cnil identifie les multiples problèmes posés par ces algorithmes. Elle insiste notamment sur la question de la responsabilité humaine et met en garde contre l’illusion d’objectivité attribuée aux machines. Celles-ci sont en effet programmées par des humains et, si les algorithmes peuvent effectivement évoluer de manière autonome, ils ne le font qu’en fonction de critères forcément subjectifs et qui doivent pouvoir être contestés.

« L’intervention humaine est bien présente dans le recours aux algorithmes, par l’intermédiaire du paramétrage de l’algorithme, du choix et de la pondération des critères et des catégories de données à prendre en compte pour arriver au résultat recherché », affirment ainsi les auteurs du rapport.

Cette subjectivité de l’algorithme peut même être source de discriminations difficilement détectables en raison de leur nature totalement opaque. « Tout algorithme est (…) en un sens biaisé dans la mesure où il est toujours le reflet – à travers son paramétrage et ses critères de fonctionnement, ou à travers les données d’apprentissage qui lui ont été fournies – d’un système de valeurs et de choix de société », pointe le rapport qui cite, comme exemple, une étude publiée en 2015 par trois chercheurs de l’université Carnegie-Mellon et de l’International Computer Science Institute.

Celle-ci avait montré comment la plateforme publicitaire de Google, AdSense, conduisait à renforcer les discriminations envers les femmes qui se voyaient proposer des offres d’emploi moins bien rémunérées que celles adressées aux hommes. « La publicité en ligne en ligne ciblée de Google est tellement omniprésente que l’information proposée aux personnes est susceptible d’avoir un effet tangible sur les décisions qu’elles prennent », soulignait Anupam Datta, coauteur de l’étude.

Prolongez la lecture de Mediapart Accès illimité au Journal contribution libre au Club Profitez de notre offre spéciale