Face aux algorithmes, «défendre les médiocres et ceux qui sont dans la moyenne»

Par

Deuxième article d’une série consacrée aux algorithmes et à leur utilisation par les pouvoirs publics. Pour le sociologue Dominique Cardon, l’algorithme accompagne l’évolution d’une société marquée par une individualisation des rapports et une dérive vers la méritocratie.

Cet article est en accès libre. Découvrez notre offre spéciale ! S'abonner

« Algorithme » est devenu un des principaux mots-totems de notre société, un terme mystérieux dont peu de gens sont capables de donner une définition claire mais investi d’un fort pouvoir symbolique. L’algorithme est censé être partout dans notre quotidien. C’est lui qui oriente nos recherches sur Internet, qui nous dit quoi écouter, quoi regarder, quels articles lire, quels livres acheter. Bientôt, c’est grâce à lui que nous trouverons un emploi, que la police arrêtera les criminels et, plus globalement, c’est lui qui guidera les politiques publiques. C’est également lui qui se trouve au centre des principales critiques contre le développement des nouvelles formes de contrôle, le « capitalisme de surveillance » ou encore la « gouvernementalité algorithmique ». Il est lié aux grandes craintes contemporaines : celles d’un développement incontrôlé des intelligences artificielles et d’une « dictature des algorithmes ».

Le concept d’algorithme n’est pourtant pas nouveau. Le mot vient du nom du célèbre mathématicien perse Al-Khawarizmi, qui vécut entre les années 750 et 850, et à qui l’on ne doit ni plus ni moins que l’invention du mot « algèbre », ainsi que la diffusion des chiffres arabes grâce à son Traité du système de numérotation des Indiens. Lorsque ses écrits parviendront en Occident, dans la première moitié du XIIe siècle, son nom sera traduit par « Algoritmi », par exemple dans le Carmen de algorismo du Français Alexandre de Villedieu. Al-Khawarizmi a donné son nom aux algorithmes mais il ne les a pas inventés et lui-même cite l’exemple de l’algorithme d’Euclide, posé dès 300 avant J.-C.

Si son origine est bien connue, la définition du mot algorithme est un sujet plus complexe, sur lequel les chercheurs débattent encore aujourd’hui. Dans son sens le plus large, un algorithme désigne tout simplement une série d’étapes, d’opérations ou d’instructions précises permettant d’obtenir un résultat en fonction de données de départ. À côté des algorithmes utilisés en mathématiques, chaque jour, nous utilisons tous, sans le savoir, des « algorithmes du quotidien ». L’exemple classique est la recette de cuisine dont le principe consiste à suivre une série précise d’instructions nécessitant des ingrédients, les données de départ, pour obtenir un résultat, le plat.

 © Reuters © Reuters

Dans les années 1930, le concept d’algorithme va prendre une tout autre dimension qui va le placer au cœur de la révolution numérique à venir. En 1936, le mathématicien anglais Alan Turing pose les bases de l’informatique en imaginant sa « machine de Turing », modèle abstrait d’un appareil capable d’opérer des « procédures mécaniques », soit des algorithmes, permettant d’effectuer des calculs. Dans la foulée, son collègue américain Alonzo Church pose une autre pierre fondatrice de l’informatique en formulant la thèse dite « de Church-Turing », selon laquelle tous les algorithmes sont calculables par une machine de Turing. Entre les mains de mathématiciens tels que Church, Turing ou encore Emil Post, le concept d’algorithme va se complexifier et se retrouver au cœur de la science informatique.

Le développement des ordinateurs va permettre la mise au point d’algorithmes de plus en plus puissants et complexes, auparavant inexploitables par l’homme. Parmi eux, les « algorithmes prédictifs » vont prendre une place centrale dans le développement du Web. Parallèlement, le développement d’Internet et la dématérialisation d’un nombre croissant d’activités et de procédures ont conduit à une numérisation quasi totale de la société. Le « big data » a offert aux algorithmes une source presque illimitée de matière première pour expérimenter et développer des programmes de plus en plus complexes. Aujourd’hui, les algorithmes numériques sont présents partout. Innombrables et de toutes sortes, ils sont présents dans le moindre appareil reposant sur de l’informatique et au cœur de chaque programme informatique.

Cette omniprésence a fait de l’algorithme le symbole de la nouvelle société numérique, mais au prix d’une simplification de ce concept. « Algorithme est devenu un terme très difficile à définir, nous explique Dominique Cardon, auteur de À quoi rêvent les algorithmes (Seuil, octobre 2015). Moi-même, j’en fais un usage métaphorique. Il y a cinq ans, ce mot, personne ne savait ce qu’il voulait dire. C’était un terme d’informaticien. L’algorithme est très lié à la culture technique de l’informatique, c’est son noyau. Puis, c’est devenu un objet fétiche, un objet public dans lequel on met un peu tout. Dès qu’il y a du programme, on dit qu’on est dans le cadre d’un algorithme. Alors qu’un informaticien vous dira que, non, tout dans un code n’est pas algorithmique. »

La réalité de l’algorithme n’explique donc pas, à elle seule, la fascination et les craintes que suscite son nom. « Il y a deux histoires indépendantes », explique Dominique Cardon. Celle issue des mathématiques et qui mène au Web algorithmique. Et celle, moins connue, issue des « politiques néolibérales et des techniques de benchmark nées dans les années 1980 », poursuit le sociologue. « Le Web a épousé ce que j’appelle le “monde des compteurs”, l’idée que le monde social, sous exigence de transparence et d’efficacité, doit produire des signaux permettant d’évaluer quasiment tout. Cette évolution est totalement liée au néomanagement venu du privé : sous contrainte d’efficacité, il faut vérifier que les investissements qui ont été faits ont bien produit les effets attendus, mettre en comparaison deux politiques différentes pour évaluer laquelle est la plus efficace, et du coup, il faut mettre en comparaison des individus, et donc il faut mesurer leurs performances. »

Cette obsession pour la mesure, la notation, la comparaison, a trouvé sur Internet le terrain idéal pour s’épanouir. Pour alimenter leurs algorithmes, les plateformes ont mis en place toute une série de dispositifs permettant justement de mesurer les interactions, de les classer et de les mettre à disposition des utilisateurs. « Le Web est arrivé, avec tous ces petits compteurs un peu partout, il a donné aux gens un instrument de comparaison, de soi à soi-même et de soi avec les autres », raconte Dominique Cardon. « Ce qui est fascinant, c’est que ça ne marche pas du tout dans l’esprit totalisant que l’on avait imaginé, précise le sociologue. En fait, l’idée d’un benchmark de la réputation sur le Web, ça ne marche que localement, sur une plateforme, sur des micro-espaces sociaux. »

Dans son livre À quoi rêvent les algorithmes, Dominique Cardon classe ces dispositifs en quatre catégories, apparues en fonction des besoins de mesure. Il y a tout d’abord eu les systèmes se plaçant « à côté du Web » pour mesurer « la popularité » d’un contenu en se contentant d’en mesurer l’audience, le nombre de clics ou de vues. Les moteurs de recherche ont ensuite introduit la mesure de « l’autorité » en se situant « au-dessus de Web ». Ces dispositifs reposent sur la prise en compte de la qualité des contenus en utilisant par exemple un système de vote. L’exemple classique est celui du système de page rank du moteur de recherche Google. Ensuite, la mesure s’est déplacée « dans le Web » afin de mesurer « la réputation » des internautes. Il s’agit ici des techniques de benchmark et de personal branding reposant sur la mesure du nombre de likes, de followers, de retweets, etc., présents sur tous les réseaux sociaux.

Mais ces techniques sont facilement manipulables, à commencer par les internautes eux-mêmes, qui adaptent leur comportement et établissent des stratégies tenant compte des critères du système d’évaluation. La solution trouvée par les sociétés du Net a été de placer leurs capteurs « au-dessous du Web ». Cette fois, ce sont nos « traces » qui sont captées et analysées : nos interactions, nos comportements, les pages que nous visitons, le temps que nous passons sur une vidéo… Pour cela, les plateformes utilisent des algorithmes « prédictifs », fondés sur des méthodes d’auto-apprentissage dites de machine learning.

« Beaucoup de modèles prédictifs modélisent des données comportementales, avec une certitude très ancrée : le comportement ne ment pas, explique Dominique Cardon. Il y a une sorte de scientisme positiviste très fort. Chez certains, c’est quasi obsessionnel. Par exemple, pour ses recommandations, YouTube regarde de moins en moins les “pouces”, les “likes”, qui sont beaucoup trop humains. Ce qui les intéresse, c’est le watch-time, la durée de lecture, c’est à dire le comportement des gens. »

Prolongez la lecture de Mediapart Accès illimité au Journal contribution libre au Club Profitez de notre offre spéciale