Brittany Kaiser: «Je ne crois pas que l'utilisation des données personnelles soit un problème»

Par

Brittany Kaiser publie sur Twitter les documents qu’il lui reste de son passage chez Cambridge Analytica, et le récit de ces années vient de sortir en français. La lanceuse d’alerte défend aujourd’hui le contrôle des individus sur leurs données, mais ne remet pas en cause leur collecte. 

Cet article est en accès libre. L’information nous protège ! Je m’abonne

On aurait pu la croire vaccinée. « La protection des données est le problème principal de notre génération », écrit-elle dans le livre où elle raconte ses années Cambridge Analytica, et qui vient de paraître en français (1). Mais l’Américaine Brittany Kaiser n’est plus à une contradiction près. 

Au service du Brexit (lire notre enquête) puis de Donald Trump, celle qui rêvait d’une carrière dans la défense des droits humains s’arrachait les cheveux, raconte-t-elle à longueur de pages, prisonnière du besoin de gagner sa vie et de soutenir financièrement ses parents.

Mais « le problème dépassait Cambridge Analytica », analyse-t-elle aujourd’hui dans son récit, deux ans après la faillite de son employeur britannique, spécialisé dans l’analyse de données à grande échelle et le conseil en communication.

Il y a certes les clients de l’entreprise, plus proches de l’extrême droite que de l’humanisme, mais « le vrai problème », selon elle, « c’était le big data et Facebook en particulier, qui avait autorisé des entreprises comme Cambridge à siphonner les données de dizaines de millions d’utilisateurs et à les revendre à n’importe qui sans se soucier des conséquences »

L’interprétation du scandale qui a éclaté en 2017 a évolué avec le temps. Facebook y a d’abord tenu le premier rôle pour avoir laissé échapper les données de millions d’utilisateurs. Cambridge Analytica lui a succédé pour avoir dressé des profils psychologiques et utilisé Facebook pour envoyer des publicités personnalisées. Puis est venu le tour des commanditaires, ceux qui se sont payé les services de Cambridge Analytica. 

Mais aujourd’hui, le micro-ciblage publicitaire, qu’il soit d’ordre politique (là où la publicité politique est autorisée) ou commercial, est monnaie courante. 

Si Brittany Kaiser met en garde contre les « centaines de nouveaux Cambridge Analytica » et plaide désormais pour la « protection des données », de telle sorte que chacun puisse reprendre le contrôle sur ses propres informations, elle ne va pas jusqu’à remettre en cause leur collecte. Au contraire, elle veut encore croire à la possibilité de leur utilisation éthique, y compris en politique. « Je suis une éternelle optimiste », se défend-elle. Entretien.

Mediapart : Le Royaume-Uni quitte l’Union européenne en cette fin janvier. Quel a été le rôle de Cambridge Analytica dans la campagne pour le Brexit ? 

Brittany Kaiser à Munich en janvier 2020. © Lino Mirgeler/DPA/dpa Picture-Alliance Brittany Kaiser à Munich en janvier 2020. © Lino Mirgeler/DPA/dpa Picture-Alliance
Brittany Kaiser : Cambridge Analytica a travaillé de deux façons différentes. La société a elle-même soutenu la campagne Leave.EU [les activistes anti-UE et anti-immigration de la formation d’extrême droite Ukip – ndlr] en réalisant un travail sur les données, en élaborant une stratégie et en leur donnant les moyens d’intégrer la science des données dans leur campagne.

Ensuite, Cambridge Analytica était partenaire de la société A IQ, qui a travaillé sur la campagne Vote Leave [les eurosceptiques conservateurs – ndlr]. A IQ avait non seulement accès à l’ensemble de la stratégie et au personnel de Cambridge Analytica, mais aussi à ses données.

Vous écrivez dans votre livre que Cambridge Analytica « a réussi à identifier les individus et à les faire penser, voter et agir différemment ». Vous y croyez vraiment ?

On peut légitimement s’interroger sur l’efficacité des campagnes numériques, car il y a beaucoup de fraude dans l’industrie de la publicité en ligne. Et parfois, c’est difficile à mesurer. Mais ce que je peux vous dire, c’est que Cambridge Analytica était une entreprise pleine de scientifiques et d’ingénieurs en données, et qu’ils ont passé beaucoup de temps à faire des tests.

Ces tests et ces expériences n’ont pas toujours été couronnés de succès. Mais ceux qui ont réussi sont ceux vers lesquels tout le budget publicitaire des clients a été dirigé. Et malheureusement, certaines des stratégies les plus fructueuses consistaient à trouver des personnes très influençables, des personnes névrotiques, et à les cibler avec des messages basés sur la peur ou manipulatoires, voire avec de la désinformation et de fausses nouvelles, pour les convaincre d’agir comme ci ou comme ça ou de changer d’avis. 

Le plus effrayant dans tout cela, c’est que lorsque les ingénieurs ont entrepris des expériences pour savoir s’il était possible d’encourager les gens à s’enthousiasmer pour la politique ou à s’intéresser à l’éducation ou à la santé, ces expériences n’ont pas eu autant de succès. Alors que les utilisations négatives, que je considère comme un abus des données personnelles, ont été très fructueuses et donc beaucoup d’argent leur a été consacré. 

Est-ce que vous voulez dire que ces méthodes sont condamnables seulement quand elles sont utilisées par la droite, l’extrême droite, les climatosceptiques… à des fins « négatives » ? 

Oui. Je ne crois pas, et c’est très important, que les outils eux-mêmes, ces technologies de pointe ou l’utilisation des données personnelles, soient un problème. Je crois que c’est neutre, en fait. Cela dépend de qui les utilise et de ce qu’on en fait. 

Ce que j’ai vu en travaillant pour des partis de gauche, notamment dans mon expérience avec Barack Obama, c’est que le discours est généralement très positif. Pendant la campagne d’Obama, nous n’étions pas autorisés à diffuser des messages négatifs. 

L’utilisation de données pour inciter les gens à s’inscrire sur les listes électorales ou pour les sensibiliser au changement climatique est, à mon avis, positive – ou neutre.

Mais j’ai vu ces outils être utilisés à droite avec des méthodes qui enfreignent des lois que nous avons déjà, et des contrats sociaux que nous avons convenu de respecter. On ne devrait pas pouvoir utiliser ces outils pour détourner les électeurs des urnes, pour inciter à l’abstention, à la violence ou au racisme. On ne devrait pas pouvoir utiliser ces outils pour diffuser de la désinformation et des fausses nouvelles, des calomnies et de la diffamation.

Nous avons des lois contre tout cela. Il ne s’agit donc pas de savoir si un parti est conservateur ou libéral. Il s'agit plutôt de savoir s’il viole la loi et bafoue les droits de l’homme avec ces outils.

Justement, selon Acronym, une organisation américaine qui surveille les dépenses électorales (et milite pour les candidats progressistes), l’ancien maire de New York Michael Bloomberg, candidat à la primaire démocrate, a dépensé jusqu’à présent 34 millions de dollars en publicité sur Google et Facebook, et presque rattrapé Donald Trump (à 36 millions de dollars). Qu’en pensez-vous ? 

Michael Bloomberg a effectivement investi beaucoup d’argent dans des campagnes basées sur les données. Et je suis d’accord avec beaucoup de ses politiques. Donc, pour ce qui est de diffuser des messages politiques positifs, et de lutter contre la négativité qui ressort de la campagne Trump, je pense que c’est très noble de sa part.

Mais venant de lui, promouvoir l’utilisation des données et du micro-ciblage sans parler de régulation des grandes entreprises technologiques, c’est de la surdité, c’est irresponsable dans ce climat.

(1) L’Affaire Cambridge Analytica, éd. HarperCollins France, 464 p., 18 €.

« Nous devons faire quelque chose pour empêcher les mauvais acteurs d’abuser de nos données »

Avec le compte Twitter Hindsight Files, vous diffusez au compte-gouttes des documents issus de vos années chez Cambridge Analytica. Pourquoi avoir choisi cette stratégie ? 

Parce que je veux rappeler constamment aux gens que c’est un problème. Je pense qu’après une grande agitation, tout le monde oublie… Donc, jour après jour, je rappelle aux gens à quel point c’est un problème important, que nous devons appeler nos législateurs à agir, nous devons être constamment conscients de notre propre vie privée et des choix que nous faisons chaque jour.

Comme je l’ai dit, il y a des moyens pour régler les problèmes, je suis une éternelle optimiste, mais nous n’y arriverons pas si l’élan est perdu, donc je fais tout ce que je peux pour que cela continue.

Vous alertez également sur l’existence de centaines de « nouveaux Cambridge Analytica » ?

Ces nouvelles entreprises sont dangereuses parce qu’elles ne sont pas responsables. Et elles utilisent des technologies qui surpassent ce que Cambridge avait auparavant. Vous savez, quand Cambridge Analytica existait encore, il n’était pas facile de gérer à grande échelle des fermes de robots et de créer des tonnes de faux comptes.

Ces nouvelles entreprises vendent de la propagande comme un service, et elles sont capables de faire des choses que Cambridge ne pouvait pas faire en 2016 parce que les technologies ont beaucoup évolué ces dernières années.

Je pense donc qu’il y a de nombreuses raisons de s’inquiéter. Sans aucun doute. Je ne dis pas que c’est une chose 100 % négative, mais je dis qu’il devrait y avoir un avertissement pour tout le monde, que nous devons agir et que nous devons faire quelque chose pour empêcher les mauvais acteurs d’abuser de nos données, de nous abuser sur les réseaux sociaux et de rendre notre monde numérique très difficile à naviguer.

Est-ce que vous pensez que Facebook devrait, comme Twitter, mettre fin aux publicités politiques ? 

Je ne pense pas que l’interdiction de la publicité politique soit la bonne réponse à long terme. Mais à court terme, oui. Parce qu’à l’heure actuelle, nous ne disposons pas de technologies comme l’intelligence artificielle, ni des équipes et des capacités humaines nécessaires pour modérer la publicité politique comme il se doit.

En ce moment, la publicité politique fait l’objet d’abus. Et elle est utilisée pour diviser la société et même pour enfreindre des lois que nous avons déjà, comme je l’ai dit. Je pense vraiment que Mark Zuckerberg devrait revenir sur sa décision et décréter une interdiction temporaire, même s’il est évident qu’il est très peu probable qu’il le fasse, vu l’argent qu’il gagne avec.

Le portrait d’une personne en 5 000 points de données, ce que Cambridge Analytica se vantait de réaliser, ça ressemble à quoi ? 

C’est quelque chose de très difficile à visualiser. Je pense que la première fois que cela a été fait, c'était dans le documentaire The Great Hack, qui montre toutes ces données qui sortent de vous, à quoi ressemble votre profil, et tous ces points de données qui peuvent vous relier à d’autres personnes avec des données similaires.

Dans l’un des premiers chapitres de mon livre, je présente une situation où vous achetez un livre et toutes les données qui sont recueillies à ce moment-là. La meilleure façon de décrire la situation est que chaque chose que vous faites chaque jour, avec un appareil ou une carte de crédit ou en lisant quelque chose en ligne, où vous allez en vacances, où vous allez à l’école, quels sont vos intérêts, où vous vous promenez, toutes ces choses sont enregistrées, et de façon beaucoup plus détaillée.

Si vous lisez un article en ligne, il n’y a pas que les données disant que vous avez lu cet article qui sont enregistrées, il y a le temps que vous prenez pour le lire, les images sur lesquelles vous vous arrêtez, où vous allez cliquer… Cet ensemble de données intimement détaillées est la raison pour laquelle il est si facile pour les entreprises de prévoir votre comportement et donc d’intervenir pour nous manipuler.

Que faites-vous désormais ? Vous militez pour un emploi éthique des données ? 

Oui. J’ai lancé deux associations différentes. La plus récente est la fondation Own Your Data (« Possédez vos données »). Nous travaillons sur l’éducation à la culture numérique pour les enfants, pour leur apprendre à se protéger en ligne et à l’école. Nous leur enseignons tout, des droits sur les données aux éléments basiques de cybersécurité, comment identifier la désinformation et les fausses nouvelles, se protéger du cyber harcèlement, se comporter de manière éthique sur les réseaux sociaux, des choses comme ça, qui sont, je crois, essentielles avant que les enfants ne soient dotés de leurs propres appareils. C’est mon tout dernier projet. 

Mais ce sur quoi je travaille depuis que j’ai quitté Cambridge Analytica, c’est la législation et la réglementation. Mon autre association à but non lucratif s’appelle Data (« Digital asset trade association »). Nous travaillons avec les législateurs et nous les réunissons avec les professionnels de la tech pour qu’ils comprennent les lacunes qu’ils doivent combler, pour qu’ils comprennent vraiment comment ces nouvelles technologies fonctionnent.

Et pour qu’ils puissent produire une législation de bon sens, qui protège les gens et assure aussi que les bons acteurs et les bons entrepreneurs puissent construire la technologie qui va aider à résoudre les problèmes du monde, plutôt qu’une législation qui empêche ces innovations.

Le Règlement général sur la protection des données (RGPD) protège-t-il l’Europe des dérives que connaissent les États-Unis ? 

Le RGPD est une très bonne première étape. Je pense vraiment qu’il a besoin de beaucoup d’améliorations. Mais en général, il nous donne le droit à la transparence, le droit de savoir quelles données sont détenues sur nous, le droit de les supprimer, et il reconnaît également que ces données sont comme une propriété. Il y a beaucoup d’éléments qui sont très importants.

Mais le principal problème, et pas seulement pour le RGPD, est que pour appliquer la loi, vous avez besoin de la technologie. Je peux demander à une entreprise quelles données elle détient sur moi et les faire supprimer. Mais cela ne signifie pas nécessairement qu’elle va me montrer toutes les données qu’elle détient réellement, ou vraiment les supprimer.

Cambridge Analytica a dit à Facebook qu’ils avaient supprimé l’ensemble des données, et apparemment, ils ne l’ont pas fait. La nécessité de faire appliquer la loi est donc très importante. Et tant que nous ne serons pas en mesure de mettre en place des technologies qui permettent ce suivi et cette traçabilité et qui me permettent de protéger plus facilement mes droits et d’exiger la preuve que mes droits sont protégés, alors la loi est surtout symbolique.

Pas de mobilisation sans confiance
Pas de confiance sans vérité
Soutenez-nous

Entretien réalisé par téléphone mardi 28 janvier.