La réglementation des réseaux sociaux fait son chemin

Alors que Facebook s’enfonce dans les scandales, Emmanuel Macron s’est déclaré, lundi 12 novembre à l’Unesco, à Paris, partisan d’une régulation multinationale et multilatérale. Mais, publique ou privée, judiciaire ou confiée aux algorithmes, quand ce n’est pas aux régimes despotiques, c’est toujours la censure qui rôde.

Cet article est en accès libre.

Pour soutenir Mediapart je m’abonne

PDF

Jusqu’à mercredi, Facebook était « seulement » accusé d’être un outil au service de la propagation de fausses nouvelles, mensonges, désinformations, propagande, quel que soit le nom que l’on donne à toutes ces sottises qui traînent sur Internet. C’était avant la parution d’une enquête déflagratoire du New York Times qui explique comment le réseau social aux 2 milliards d’utilisateurs s’est mis à en fabriquer…, avec l’aide d’une agence de relations publiques et de son faux site d’information. Tandis que d’une main Facebook se préoccupait de discréditer des critiques en les faisant passer pour antisémites, écrit le quotidien new-yorkais, de l’autre au contraire elle plombait des « opposants » en les disant liés au philanthrope George Soros, cible récurrente du complotisme antisémite. Manipulation, quand tu nous tiens…

Pendant ce temps, le reste de la planète tente de comprendre ce qui arrive à la démocratie et à Internet. Un « Internet de confiance », c’était le titre donné à la réunion, du 12 au 14 novembre dans les bâtiments parisiens de l’Unesco, du Forum pour la gouvernance de l’Internet. Plus de trois mille participants de 143 pays pour discuter atelier après atelier, rencontre après rencontre, cybersécurité, éthique, crise de l’information, harcèlement et violences verbales, données personnelles et droits des internautes. Sous le patronage hautement optimiste d’Antonio Guterres, secrétaire général des Nations unies : « En matière de gouvernance, nous devons être aussi créatifs et audacieux que ceux qui ont construit l'Internet. Vous pouvez compter sur mon soutien dans ce voyage vers un avenir numérique prospère, sûr et équitable. »

Emmanuel Macron, dans son discours d’inauguration, s’est montré beaucoup plus pessimiste, du moins sur l’état actuel de l’Internet, dont « la liste des pathologies (...) s'allonge de jour en jour », et qui est selon lui « beaucoup mieux utilisé par les extrêmes, par les discours de haine ou par la propagation des contenus terroristes que par beaucoup d'autres ». Le président français a donc annoncé un éventail d’initiatives visant à sécuriser le réseau et ses utilisateurs, réseau menacé « dans sa structure elle-même. Parce que si le cyberespace se réduisait brutalement à un simple lieu de conflictualité, il cesserait vite d'exister comme un ensemble cohérent pour se fracturer en plaques nationales ou continentales ». Bref, « il y a urgence ».

Emmanuel Macron à l’Unesco, lundi 12 novembre 2018. © Reuters

Et le président français n’était pas peu fier d’annoncer « une expérience de terrain inédite », un pas vers la co-régulation multilatérale évoquée (et espérée, attendue) tout au long de ces trois jours – on est à l’ONU. « Facebook accueillera prochainement une délégation de régulateurs français qui auront pour mission, avec les experts de la plateforme, d’élaborer des propositions conjointes, précises et concrètes sur la lutte contre les contenus haineux ou offensants. »  

L’enquête du New York Times, suivie des réponses de Facebook, un démenti, puis une conférence de presse téléphonique avec Mark Zuckerberg lui-même, et les réactions outrées qu’elle a suscitées (lire ici), doucheront peut-être ce bel enthousiasme. Il est impossible, à ce jour, de faire confiance au réseau social, qui verrouille non seulement sa communication et manie la langue de bois comme personne, mais encore protège ses algorithmes et ses données de toute curiosité. Pas plus tard que lundi, Mark Zuckerberg avait adressé une fin de non-recevoir aux cinq parlements (dont le britannique) qui souhaitaient l’entendre conjointement. Pas sûr que la prochaine mise en place de la possibilité de « faire appel » des décisions de dépublications prises (en toute opacité) par Facebook, réclamée à cor et à cri, ni la publication de rapports sur les retraits de contenus et fermetures de pages ou de comptes, suffisent à redorer le blason d'une société qui enchaîne crise après crise. 

La France est d'ailleurs « le premier État signataire », a souligné Emmanuel Macron, du Contrat pour le Web lancé par Tim Berners-Lee, son inventeur, et qui vise notamment à lutter contre la mainmise des méga-compagnies sur la distribution de l’information et la collecte des données personnelles. Le chef de l’État a également mis en avant l’Appel de Paris pour la confiance et la sécurité dans le cyberespace, signé par 54 pays dont les 28 de l’Union européenne – mais sans les États-Unis, la Chine, ni la Russie –, des acteurs privés comme IBM, Facebook et Microsoft – mais pas Google –, et des organisations de la société civile.

Souhaitant que le Forum pour la gouvernance produise « autre chose que des débats, des réflexions » et devienne « une instance de propositions concrètes », Emmanuel Macron plaide enfin pour la mise en place de « standards internationaux », « notamment en matière de régulation de contenus illicites ou indésirables, qui est la prochaine frontière ». Comme le préconise un rapport remis au premier ministre français mi-septembre, « l'Europe devra faire évoluer son cadre légal pour sortir du système binaire des statuts d'éditeurs et d'hébergeurs », estime le chef de l’État, pour que « les très grandes plateformes [assument] des obligations renforcées le cas échéant par la mise en place d'un statut intermédiaire d'accélérateur de contenus ».

La France soutient, a encore souligné le chef de l’État, la Déclaration internationale pour l’information et la démocratie mis en place par Reporters sans frontières. Une déclaration qui fait notamment place à un droit à une « information fiable », une innovation juridique « qui établit que les êtres humains sont titulaires d’un droit fondamental qui leur permet de revendiquer la réception d’informations collectées, traitées et diffusées de manière libre ». Autrement dit, il s'agit, selon les mots du directeur de l'Institut Reuters Rasmus Kleis Nielsen, d’essayer d’échapper à la « pollution » de l'information. 

Pour Christophe Deloire, le patron de RSF, il existe dans l’espace public de l’information deux distorsions de concurrence très dangereuses. « Une compétition injuste entre les vraies et fausses nouvelles » – une étude publiée en mars dans la revue Science à propos de Twitter a montré, rappelle-t-il, que les fausses se répandent 6 fois plus vite que les vraies : « Ceux qui sèment la haine ont un avantage dans cet espace public » et « la question est de promouvoir les contenus intéressants ».

La deuxième distorsion de concurrence se trouve entre les régimes démocratiques et les autres. Les régimes despotiques, constate Christophe Deloire, « peuvent plus facilement que jamais exporter leurs contenus dans les démocraties », tandis qu’ils ferment leurs portes et n’importent pas ceux qui en proviennent. « Clairement, la crise de l’espace public est une des principales causes de la crise de la démocratie. » Mais attention, met-il en garde : « Ce qui aide n’est pas de cibler les individus qui transmettent, par exemple, les propos haineux, qui existaient avant. » Ce qui a changé, souligne-t-il, c’est la vitesse de propagation.

Pour Amy Awad, responsable des politiques législatives et réglementaires sur la communication en ligne de l’organisation gouvernementale Héritage canadien, « quand on atteint ce niveau d’impact social, alors les gouvernements commencent à s’inquiéter ». Elle souligne « que la montée de ces problèmes s'est produite au moment où le journalisme est en déclin », faute de recettes publicitaires, parties chez Google et Facebook, ce qui empêche les médias professionnels de faire « contrepoids à la pollution de l'écosystème de l'information ».  Comme de nombreux autres intervenants au cours de ce forum, Amy Awad regrette le manque de recherches en la matière.  

Pour Christophe Deloire, « nous sommes entrés dans une nouvelle logique où les gouvernements ont délégué l’organisation de l’espace public lui-même aux plateformes » – entendez Google, Twitter et Facebook. Pire, « les citoyens aussi – sans se sentir concernés comme citoyens », sans poser de conditions, alors que « ces conditions sont juste… les principes de la démocratie ».

Outre la Déclaration pour l’information et la démocratie, RSF, explique son secrétaire général, a engagé une démarche de labellisation du journalisme de qualité baptisée Journalism Trust Initiative, « neutre quant à la conception du journalisme » mais permettant selon lui de demander aux plateformes, par le biais de leurs algorithmes, et aux annonceurs, de favoriser ces médias « labellisés ».

Car Mark Zuckerberg « n’est pas, et ne doit pas devenir, rédacteur en chef » de la planète, affirme Christophe Deloire, en réponse à une question récurrente. En substance, il ne faut pas demander aux réseaux sociaux de ligne éditoriale. « Nous ne voulons pas qu'ils prennent les décisions. Nous voulons qu'ils mettent en place des mécanismes qui leur évitent de prendre des décisions. »

Pour le juriste et chercheur Claudio Lucena, « nous savons partout dans le monde quels sont les rôles d'un rédacteur en chef, les responsabilités qui pèsent sur son dos ». Mais ce qui est nouveau, c’est le volume : « aucun rédacteur en chef du monde n'est soumis à cette échelle » de production de contenus. Comme on le sait tous désormais, ce sont des algorithmes qui non seulement définissent mais aussi individualisent les résultats de recherche de Google, la prochaine vidéo à regarder sur YouTube ou les post visibles sur Facebook. Le problème est donc, pour Lucena, celui de la responsabilité : « Nous ne disposons pas d'un système de responsabilité raisonnablement élaboré pour les situations où la création et la distribution du contenu sont automatisées. » Un système à bâtir selon lui « collectivement ».

À moins que chacun puisse gérer – on parle ici de Facebook – son fil d’infos, rappelle un participant qui cite une proposition de Jonathan Zittrain, chercheur à Harvard et auteur d'un livre intitulé L’Avenir d’Internet – et comment l’arrêter : « Facebook devrait permettre à ses utilisateurs d'écrire et de partager leurs propres formules sur la façon dont leurs fils de nouvelles devraient être remplis, plutôt que de prendre une décision unique. »

Comment, alors, donner aux algorithmes de recommandation, c’est-à-dire à des procédés d’intelligence artificielle, cette intelligence humaine qui leur manque ? 

Lorena Jaume-Palasi. © Joi Ito

Pour Lorena Jaume-Palasi, fondatrice de l'ONG AlgorithmWatch« on ne peut pas inscrire l’éthique dans le code. Parce que  la nature d'un algorithme est mathématique, tandis que la nature de l'éthique est déductive, c’est un langage, une idée sociale, basée sur des références, ce qui est tout à fait l’opposé ».

« Ce que les algorithmes peuvent faire », poursuit-elle, « ce sont plutôt des approximation statistiques. Et pas des approximations de la réalité, mais de ce qu'un codeur spécifique a perçu comme étant la réalité » dans un contexte spécifique. De l’autre côté, « l'éthique est plutôt une question de contextualisation. C’est la raison pour laquelle un juge a besoin d'en savoir beaucoup sur l'ensemble du contexte pour comprendre comment décider des choses ». Ainsi, tout ce qui peut être réalisé, selon elle, c’est « d’essayer de mettre au point une méthodologie pour examiner une technologie, pour chercher les lacunes éthiques, pour essayer de comprendre quelles sont les mesures derrière qui pourraient avoir un impact sur une partie spécifique d'un écosystème où cette technologie est appliquée ».

Laila El Asri. © DR

Laila El Asri, chercheuse en intelligence artificielle chez Microsoft, préfère parler d’équité ou d’impartialité (fairness). Elle cite en exemple la reconnaissance vocale, qui doit comprendre tout le monde de la même manière, une compréhension qui peut être mesurée : si un groupe particulier d’utilisateurs est mal reconnu, alors c’est qu’il y a un problème. La probabilité que la machine ne comprenne pas doit être la même pour tout le monde. C’est comme ça, selon elle, « qu’on peut mettre de l’éthique dans un modèle mathématique ».

Satish Babu, engagé en Inde dans de nombreuses structures de gouvernance de l'Internet et défenseur du logiciel libre, rappelle de son côté que « les algorithmes sont pilotés non seulement par le code, mais aussi par les données, et les données sont probablement plus importantes à long terme que le code ». Problème : en matière de données, « la société civile et même les gouvernements n'ont aucun contrôle sur ce qui se passe réellement ».

Pourtant, il n’y a pas tant de nouveautés, estime Lorena Jaume-Palasi, qu’il soit nécessaire de mettre en place de nouvelles lois, « surtout si l’on considère la rapidité avec laquelle l’obsolescence survient »« Pensons plutôt à Google et à Facebook comme à des infrastructures de l’information, c’est-à-dire non pas à des services utilisés par chacun mais par tous : cherchons l’inspiration dans la législation des infrastructures, des biens communs, de ce qui peut être vendu ou pas », suggère-t-elle avant de poser la question : « Qu’arriverait-il si Google disparaissait ? »

Géraldine Delacroix

Mediapart est actuellement en accès libre : profitez-en et faites-le savoir ! Découvrez tous nos contenus gratuitement C’est l’occasion pour celles et ceux qui ne nous connaissent pas de découvrir un journal totalement indépendant et sans publicité qui ne vit que de l’abonnement de ses lecteurs.
L’information est la première force sur laquelle nous devons compter. Une information de qualité, au service du public, soucieuse de l’intérêt général.
Articles, contenus vidéos, podcasts, enquêtes, dossiers... : découvrez-les et jugez par vous-même.
Si vous souhaitez nous soutenir et prolonger votre lecture après la période d’accès-libre abonnez-vous !

Soutenez-nous