LA CHARTE DE PARIS SUR L’IA ET LE JOURNALISME
- Sommaire
- LES DIX PRINCIPES
- PARTENAIRES
Publiée en novembre 2023 par Reporters sans frontières (RSF) et 16 organisations partenaires, cette charte constitue la première référence éthique internationale sur l’IA et le journalisme.
Nous, représentants de la communauté des médias et du journalisme, reconnaissons les implications transformatrices de l’intelligence artificielle (IA) pour l’humanité. Nous prônons une coopération mondiale pour que l’IA respecte les droits humains, la paix et la démocratie, et serve nos aspirations et nos valeurs communes. L’histoire de l’information est intimement liée au progrès technologique. L’IA, allant de la simple automatisation de tâches à des systèmes analytiques et créatifs avancés, introduit une nouvelle catégorie de technologies dotées d’une capacité sans précédent à interférer avec la pensée, la connaissance et la créativité humaines. Elle représente un tournant majeur pour la collecte d’informations, la recherche de la vérité, la narration et la diffusion des idées. En tant que telle, elle va profondément transformer les conditions techniques, économiques et sociales du journalisme et de l’édition. Les systèmes d’IA ont le potentiel, selon leur conception, leur gouvernance et leurs usages, de révolutionner l’espace global de l’information. Ils représentent également un défi structurel pour le droit à l’information. Le droit à l’information consiste en la liberté de chercher, de recevoir et d’accéder à une information fiable. Il est ancré dans le cadre juridique international, et notamment la Déclaration universelle des droits de l’homme, le Pacte international relatif aux droits civils et politiques, et le Partenariat international sur l’information et la démocratie. Ce droit sous-tend les libertés fondamentales d’opinion et d’expression.
La fonction sociale du journalisme et des médias – celle de tiers de confiance pour la société et les individus – est une pierre angulaire de la démocratie et renforce le droit à l’information pour tous. Les systèmes d’IA peuvent grandement aider les médias à remplir ce rôle, mais seulement s’ils sont utilisés de manière transparente, équitable et responsable dans un environnement éditorial qui défend fermement l’éthique du journalisme. En affirmant ces principes, nous défendons le droit à l’information, nous soutenons le journalisme indépendant et nous nous engageons en faveur des médias de confiance à l’ère de l’IA.
LES DIX PRINCIPES
Les médias et les journalistes utilisent des technologies qui renforcent leur capacité à remplir leur mission première : garantir à chacun le droit à une information de qualité et digne de confiance. La poursuite et l’accomplissement de cet objectif doivent guider leurs choix quant aux outils technologiques. L’utilisation et le développement des systèmes d’IA dans le journalisme doivent respecter les valeurs fondatrices de l’éthique journalistique, parmi lesquelles la véracité, l’exactitude, l’équité, l’impartialité, l’indépendance, la nonnuisance, la non-discrimination, la responsabilité, le respect de la vie privée et la confidentialité des sources.
La décision humaine doit rester centrale tant dans les stratégies à long terme que dans les choix éditoriaux quotidiens. L’utilisation des systèmes d’IA doit être une décision délibérée et bien informée prise par des humains. Les équipes éditoriales doivent définir clairement les objectifs, la portée et les conditions d’usage de chaque système d’IA. Elles doivent assurer un suivi transversal et continu des impacts des systèmes d’IA déployés, garantir leur stricte conformité avec leur cadre d’utilisation et conserver la capacité de les désactiver à tout moment.
Les systèmes d’IA utilisés par les médias et les journalistes doivent faire l’objet d’une évaluation indépendante, complète et approfondie, impliquant des groupes de défense du journalisme. Cette évaluation doit démontrer que les valeurs fondamentales de l’éthique journalistique sont respectées. Ces systèmes doivent respecter la vie privée, la propriété intellectuelle et les lois sur la protection des données. Un régime de responsabilité clair est établi pour tout manquement à ces exigences. Les systèmes qui opèrent de manière prévisible et peuvent être expliqués simplement sont privilégiés.
Les médias assument leur responsabilité éditoriale, y compris lorsqu’ils utilisent l’IA dans la collecte, le traitement ou la diffusion d’informations. Ils sont responsables de chaque contenu qu’ils publient. Les responsabilités liées à l’utilisation des systèmes d’IA doivent être anticipées, définies et attribuées à des humains pour garantir le respect de l’éthique journalistique et des lignes éditoriales.
Toute utilisation de l’IA ayant un impact significatif sur la production ou la distribution de contenus journalistiques doit être révélée et clairement communiquée à tous ceux qui reçoivent l’information aux côtés du contenu concerné. Les médias doivent tenir un registre public des systèmes d’IA qu’ils utilisent et ont utilisés, détaillant leurs objectifs, leurs champs d’application et leurs conditions d’utilisation.
Les médias doivent, dans la mesure du possible, utiliser des outils de pointe qui garantissent l’authenticité et la provenance des contenus publiés, en fournissant des détails fiables sur leur origine et toute modification qu’ils ont pu subir ensuite. Tout contenu ne répondant pas à ces normes d’authenticité doit être considéré comme potentiellement trompeur et faire l’objet d’une vérification détaillée.
Les journalistes et les médias s’efforcent d’établir une distinction claire et fiable entre les contenus issus de la capture physique du monde réel (tels que les photographies et les enregistrements audio et vidéo) et les contenus créés ou modifiés de manière significative à l’aide de systèmes d’IA. Ils doivent privilégier l’utilisation d’images et d’enregistrements authentiques pour représenter des événements réels. Les médias doivent éviter d’induire le public en erreur dans leur utilisation de systèmes d’IA. En particulier, ils doivent notamment s’abstenir de créer et d’utiliser du contenu généré par une IA imitant des captures et des enregistrements du monde réel, ou incarnant de manière réaliste des personnes réelles.
Dans les médias, la conception et l’utilisation de systèmes d’IA pour la personnalisation et la recommandation automatique de contenus doivent être guidées par l’éthique journalistique. Ces systèmes doivent respecter l’intégrité de l’information et promouvoir une compréhension commune des faits et des points de vue pertinents. Ils doivent mettre en avant des perspectives diverses et nuancées sur une variété de sujets, favorisant l’ouverture d’esprit et le dialogue démocratique. L’utilisation de tels systèmes doit être transparente et les utilisateurs devraient, dans la mesure du possible, pouvoir les désactiver afin de garantir un accès non filtré au contenu éditorial.
En tant que gardiens essentiels du droit à l’information, les journalistes, les médias et les groupes de soutien au journalisme doivent jouer un rôle actif dans la gouvernance des systèmes d’IA. Ils doivent être associés à tout contrôle institutionnel mondial ou international de la gouvernance et de la réglementation de l’IA. Ils doivent veiller à ce que la gouvernance de l’IA respecte les valeurs démocratiques, et à ce que la diversité des peuples et des cultures soit reflétée dans le développement de l’IA. Ils doivent rester à la pointe de la connaissance dans le domaine de l’IA. Ils s’engagent à examiner et à rapporter les impacts de l’IA avec précision, nuance et esprit critique.
L’accès au contenu journalistique par des systèmes d’IA doit être encadré par des accords formels qui assurent la pérennité du journalisme et préservent les intérêts partagés de long terme des médias et des journalistes. Les propriétaires de systèmes d’IA doivent créditer les sources, respecter les droits de la propriété intellectuelle et fournir une juste compensation aux détenteurs de droits. Cette compensation doit être transmise aux journalistes à travers une rémunération équitable. Les propriétaires de systèmes d’IA sont également tenus de tenir un registre transparent et détaillé du contenu journalistique utilisé pour entraîner et alimenter leurs systèmes. Les détenteurs des droits doivent conditionner la réutilisation de leur contenu au respect de l’intégrité de l’information et aux principes fondamentaux de l’éthique journalistique. Ils appellent collectivement à ce que les systèmes d’IA soient conçus et utilisés de manière à garantir une information de haute qualité, pluraliste et digne de confiance.
PARTENAIRES
INITIATEUR :
Reporters sans frontières (RSF)
PARTENAIRES :
- Asia-Pacific Broadcasting Union (ABU)
- Collaboration on International ICT Policy in East and Southern Africa (CIPESA)
- Canadian Journalism Foundation (CJF)
- Committee to Protect Journalists (CPJ)
- DW Akademie
- European Federation of Journalists (EFJ)
- European Journalism Centre (EJC)
- Ethical Journalism Network (EJN)
- Free Press Unlimited (FPU)
- Global Investigative Journalism Network (GIJN)
- Global Forum for Media Development (GFMD)
- International Consortium of Investigative Journalists (ICIJ)
- International Press Institute (IPI)
- Organized Crime and Corruption Reporting Project (OCCRP)
- Pulitzer Centre
- Thomson Foundation