Statistiques et probabilités: la politisation du chiffre

Par

Pour ce troisième article de notre série consacrée aux algorithmes et à l’État, Mediapart s’intéresse à l’histoire de l’utilisation des chiffres par les pouvoirs publics, à la naissance du concept de probabilité et à son rôle joué dans le processus de numérisation de la société depuis « l’homme moyen » de Quételet au XIXe siècle, jusqu’aux algorithmes bayésiens contemporains.

Cet article est en accès libre. Découvrez notre offre spéciale ! S'abonner

Lors de la campagne pour l’élection présidentielle, la numérisation de l’action publique était l’un des principaux dossiers portés par Emmanuel Macron. « L’État doit devenir un État plateforme », affirmait son programme qui promettait que « 100 % des démarches administratives » pourront être effectuées en ligne d’ici 2022.

Plus d’un an plus tard, plusieurs chantiers ont déjà été lancés. Au mois d’octobre 2017, le premier ministre Édouard Philippe a enclenché le programme « Action publique 2022 » chargé de préparer la numérisation de l’administration et doté d’un fonds de 700 millions d’euros sur cinq ans. Au mois de janvier dernier, le gouvernement a également mis sur pied un programme interministériel chargé de réfléchir à la notion d’identité numérique et aux moyens de simplifier les systèmes d’identification des internautes.

L’objectif du gouvernement est de permettre aux citoyens de réaliser toutes leurs démarches en ligne auprès d’un seul interlocuteur selon le principe du « guichet unique ». Pour cela, chaque usager se verra attribuer un identifiant unique lui permettant d’accéder à un maximum de services. Le modèle pour beaucoup est l’Estonie qui, dès 2002, est devenue un « e-gouvernement » en mettant en place une eID, une carte d’identité électronique équipée d’une puce permettant d’effectuer toutes les démarches administratives possibles.

Un État entièrement numérisé suscite également de nombreuses inquiétudes en termes de croisement des données et fichage généralisé de la population. De plus, quel usage fera l’administration de la masse considérable de données à sa disposition ? Les algorithmes sont déjà utilisés par certaines administrations, comme les logiciels de prédiction du crime ou le logiciel Parcoursup de l’Éducation nationale. Se dirige-t-on vers une « dictature des algorithmes » dans laquelle des machines auront remplacé les politiques et où nos comportements seront dictés par nos données passées ?

 © Reuters © Reuters

La question de l’usage des chiffres et des probabilités par l’État n’est pas nouvelle et dépasse celle de l’informatique. Son histoire remonte même à plus de trois cents ans et elle est traversée de débats faisant souvent écho aux questionnements contemporains. Son origine est racontée dans le livre de Ian Hacking, initialement publié en 1975 aux États-Unis puis en 2002 en France, L’Émergence de la probabilité (Seuil, collection Liber, novembre 2002). Celui-ci montre que le concept de probabilité a une origine bien particulière.

Auparavant, le mot « probabilité » existait bien, mais avait une tout autre signification. Était « probable » ce qui était « digne d’approbation ». La probabilité s’appliquait par exemple dans le domaine de l’administration d’une preuve. Il y avait d’un côté les faits, et de l’autre « l’opinion », et au sein de celle-ci la probabilité désignait non pas un degré de certitude, mais l’avis que portait tel ou tel auteur ou personne de référence sur le sujet.

L’émergence du concept de probabilité tel que nous le connaissons a plusieurs racines anciennes. Mais Ian Hacking la situe dans une période relativement courte, entre 1655 et 1665, durant laquelle un groupe de mathématiciens vont par leurs écrits changer notre façon de voir le monde. Le Pari de Pascal, La Logique de Port-Royal d’Antoine Arnauld et Pierre Nicole, les travaux Wilhelm Leibniz, John Graunt ou encore de Christian Huygens vont en quelques années définir la probabilité moderne, ouvrant ainsi la voie à une nouvelle époque pour la science.

L’émergence de la probabilité correspond également au renouvellement d’un rêve poursuivi encore aujourd’hui par l’homme : la découverte d’une langue (ou d’un code) universelle dissimulée dans la nature et permettant d’appréhender l’ensemble de l’Univers. « La Renaissance cherchait un “Ur-langage”, un langage originel inscrit dans le firmament et jadis parlé par Adam et, peut-être, par les prophètes ; de plus, la signature s’en lirait sur chaque feuille et chaque pierre », écrit Ian Hacking. L’interprétation de ces « signes » a longtemps été le rôle des « sciences basses » telles que l’alchimie ou la médecine. Mais la révolution intellectuelle du XVIIe siècle bouleverse les façons de penser, de raisonner et d’administrer les preuves. La Logique de Port-Royal, notamment, codifie le concept de signe et introduit celui d’« évidence factuelle ». « La mise en œuvre du concept de mise en évidence intérieure offrit un exutoire où stocker les “signes” fournis par la nature et englobés jusque là dans l’Ur-langage », explique Ian Hacking.

Gottfried Wilhelm Leibniz Gottfried Wilhelm Leibniz
L’exemple le plus célèbre de cette nouvelle utopie est celui du mathématicien Gottfried Wilhelm Leibniz, considéré comme l’un des précurseurs de la théorie informatique. À partir de son livre De arte combinatoria (Sur l’art combinatoire), Leibniz tente de mettre au point la « caractéristique universelle », un langage universel, un « alphabet de base des pensées humaines », permettant le développement de l’ensemble des raisonnements possibles. Pour cela, explique-t-il, la première étape et de mettre au point un calculus ratiocinator, une machine théorique fonctionnant tel un algorithme, permettant de résoudre tous les problèmes théoriques imaginables.

Si l’Histoire a principalement retenu le nom de Leibniz, Ian Hacking souligne l’importance des travaux de John Wilkins, mathématicien anglais et évêque de Chester. En 1641, il publie ce qui est aujourd’hui considéré comme le premier ouvrage anglophone sur la cryptographie : Mercure ou le messager secret. « Mercure, écrit Ian Hacking, est un code enrichi d’indications mécaniques en vue de la réalisation d’un sémaphore télégraphique. Ainsi l’invention même de codes, en soi banale, était à l’ordre du jour. »

Pour ces pionniers, la probabilité est la clef mathématique qui permettra de comprendre le monde. En 1640, John Wilkins avait déjà publié Découverte d’un monde dans la lune, ou discours cherchant à montrer qu’il est probable qu’il y ait un autre monde habitable sur cette planète. Après sa mort, en 1672, est publié Des principes et des devoirs de la religion naturelle dans lequel Wilkins écrit que pour « guider leurs actions », les hommes doivent « pencher en faveur de ce qui est plus probable et le plus vraisemblable quand on ne peut pas atteindre une certitude claire et indiscutable ». Cette « théorie générale de l’argumentation probabiliste », explique Ian Hacking, sera résumée en 1736 par le philosophe britannique Joseph Butler dans son livre Analogie de la religion par « le fameux aphorisme » : « La probabilité est le guide de la vie. »

Durant cette même période charnière, ce concept émergeant de probabilité va prendre appui et se lier irrémédiablement à la statistique, ainsi qu’à son utilisation par l’État. L’utilisation des chiffres par les pouvoirs publics précède la naissance de la notion contemporaine de probabilité. « Dès 1603, la ville de Londres faisait un décompte hebdomadaire des baptêmes et des enterrements », rappelle dans son livre Ian Hacking. De nombreuses données démographiques, récoltées notamment lors des épidémies de peste, existent donc.

Mais il manquait encore l’outillage intellectuel pour les exploiter. En 1662, année de la publication de La Logique de Port-Royal, un mercier londonien, John Graunt est le premier à utiliser les tables de mortalité pour calculer les espérances de vie et essayer de prédire la propagation de la peste bubonique dans son livre Observations naturelles et politiques. John Graunt est par ailleurs ami avec l’économiste et physicien William Petty, auteur de plusieurs ouvrages sur « l’arithmétique politique » et précurseur des sciences économiques et qui, lui aussi, se passionne pour les tables de mortalité et l’exploitation qui peut en être faite grâce aux probabilités. Dans les années qui suivent, les deux hommes posent tout simplement les bases de la démographie.

capture-d-e-cran-2018-09-09-a-12-10-22
En France, la statistique en tant qu’outil politique met un peu plus de temps à s’imposer. Elle est pourtant bien utilisée et des recensements sont effectués, notamment par Vauban en 1686 avant de réformer la taille. Mais, l’État ne voit pas alors l’intérêt de publier ces résultats et de les partager avec les intellectuels qui sont pourtant légion à se passionner pour ces questions. « Ces descriptions, qu’elles soient destinées au roi ou à son administration, sont secrètes et liées à la prérogative royale. Elles ne sont pas destinées à éclairer une société civile distincte de l’État », explique le grand spécialiste français de l’histoire des statistiques, décédé en 2013, Alain Desrosières dans son livre La politique des grands nombres : histoire de la raison statistique (La Découverte, 2000. 1re édition : 1993).

Cette société civile est constituée par « des savants, des médecins, des hommes de droit, portés par la philosophie nouvelle des Lumières, regroupés en sociétés, en clubs réformateurs » au sein desquels ils « discutent et mettent en forme les thèmes qui prévaudront en 1789 ».

 

Prolongez la lecture de Mediapart Accès illimité au Journal contribution libre au Club Profitez de notre offre spéciale