Charte IA de Mediapart

Le développement de l’intelligence artificielle (IA), de l’automatisation des tâches à la génération de contenus, constitue, après l’apparition d’Internet et des réseaux sociaux, la troisième mutation technologique contemporaine à laquelle l’écosystème des médias fait face.

Journal d’information indépendant de tous les pouvoirs, Mediapart s’est lancé en 2008 dans le sillage de la révolution numérique. Exclusivement en ligne, il s’est construit sur les extraordinaires potentialités d’Internet en tissant avec ses lecteurs et ses lectrices un lien unique, fondé sur l’échange et le partage. Son pari – vivre du seul soutien de ses abonné·es en leur apportant une information exclusive de qualité – a réussi : sa capacité à placer les puissants face à leurs responsabilités et la pérennité de son modèle en font quotidiennement la démonstration.

Mais la promesse initiale d’Internet comme espace émancipateur d’accès entre égaux à la connaissance s’est fracassée sur la rapacité capitalistique des géants du secteur. L’élan démocratique a été rattrapé par l’avidité des intérêts privés. Accaparé par les Gafam, l’espace médiatique, par ailleurs en France sous la coupe de quelques milliardaires plus soucieux de leur influence que du bien commun, est en crise profonde : le droit de savoir est menacé par la propagation des mensonges et des « faits alternatifs », attaquant la frontière entre le vrai et le faux.

C’est dans ce contexte malsain que se déploie l’IA, à l’échelon mondial et à grande vitesse. Les mutations technologiques ne sont ni libératrices ni asservissantes en elles-mêmes. Elles peuvent aussi bien contribuer à la recherche de la vérité des faits que participer à diffuser la haine et la confusion. Les résultats produits par ces outils dépendent de la manière dont ils sont configurés et de leurs usages.

Mediapart en connaît les opportunités : renforcer les capacités d’enquête, optimiser les tâches à faible valeur ajoutée, faciliter la démultiplication des formats, renforcer l’accessibilité, répondre aux besoins des lecteurs et des lectrices.

Mais aussi les dangers : l’opacité et les biais de certains algorithmes (sexistes, raciaux, linguistiques, Nord/Sud, etc.) manipulés à leur profit par les entreprises de la Silicon Valley, le manque d’exactitude et le risque de désinformation, le pillage des données (des internautes et des médias), les impacts sociaux, politiques et écologiques.

Face à ces enjeux, Mediapart s’en tient aux principes qui font sa force : l’impératif de transparence et la protection de l’indépendance, conditions sine qua non de la confiance des lecteurs et des lectrices. Nos contenus et nos données sont notre bien le plus précieux : nous nous engageons à en garder le contrôle.

Notre journal ne craint pas la rivalité de l’IA car notre équipe dispose d’un savoir-faire que les machines, aussi bien programmées soient-elles, n’acquerront jamais : la capacité à discerner le vrai du faux en vérifiant, recoupant et documentant les faits, à contextualiser et à révéler ce qui est caché, ignoré ou passé sous silence.

C’est pourquoi nous donnerons toujours la primauté à notre rédaction et à ce qui constitue l’éthique journalistique : proposer une information honnête dans le respect du contradictoire et de la protection absolue de nos sources.

Les modèles entraînés par les Gafam s’appuient sans discernement sur ce qui a été dit et écrit dans le passé ; Mediapart façonne avec professionnalisme le futur grâce à ses scoops, ses analyses et ses reportages.

Donner la priorité à l’humain

Nous ne faisons pas appel à l’IA pour produire du contenu entièrement automatisé.

L’IA peut toutefois être utilisée notamment pour permettre aux salarié·es de Mediapart de travailler plus efficacement (retranscription d’entretiens sonores, traduction de textes, résumés d’articles…), afin de pouvoir consacrer davantage de temps à des tâches ayant une haute valeur ajoutée.

L’IA doit être considérée comme un outil qui ne remplace pas mais accompagne la créativité, l’analyse, la mise en perspective ou encore l’enquête.

Ne pas publier des contenus générés par l’IA

Nous nous engageons à ne publier aucun article, image, illustration ou vidéo élaborés par l’IA générative, sauf si le contenu lui-même fait l’objet de l'article.

Nous encourageons les contributeurs et contributrices du Club à en faire de même.

Vérifier les sources

Les informations générées par l’IA nécessitent une vérification humaine avant toute utilisation.

Nous nous engageons à ne jamais diffuser de contenu qui n’a pas été examiné ou garanti authentique (c’est-à-dire non généré par une IA) par un·e journaliste.

Les journalistes doivent faire preuve de la même prudence vis-à-vis de l’IA que de toute autre source.

Ne pas nourrir les IA aux dépens des auteur·es

Nous n’injectons pas de contenu confidentiel ou non publié dans les outils d’IA générative car de nombreux modèles sont des systèmes opaques formés sur du matériel récolté à l’insu ou sans le consentement de ses créateurs et créatrices.

Nous sommes vigilant·es à utiliser des outils et des modèles qui prennent en compte des questions clés telles que l’autorisation, la transparence et la juste rétribution des auteur·es.

Respecter la déontologie et les règles éthiques

En utilisant des outils d’IA, nous nous appuyons sur les statuts éditoriaux du journal, la loi, les chartes de référence, les principes déontologiques et éthiques fondamentaux qui s'appliquent au métier de journaliste.

Former les salarié·es

Un média, qui plus est numérique, doit demeurer à la pointe de la connaissance du domaine de l’IA. Cela passe notamment par la formation régulière des collaborateurs et collaboratrices à son utilisation.

Recommander les contenus de façon responsable

Le recours éventuel aux systèmes d’IA pour la personnalisation et la recommandation automatique de contenus devra être guidé par l’éthique journalistique.

L’utilisation de tels systèmes doit être transparente et les utilisateurs et utilisatrices doivent pouvoir les désactiver afin de garantir un accès non filtré au contenu éditorial.

Être transparent·es

Nous mentionnons les modèles d’IA utilisés, l’instruction principale qui leur a été donnée, voire les données utilisées pour entraîner le modèle.

L’impact environnemental des modèles d’IA utilisés sera comptabilisé dans notre bilan carbone (listant nos principales émissions de gaz à effet de serre). Cette consommation sera estimée en utilisant les meilleures pratiques récentes.