Deepfakes : quatre solutions pour éviter la violation du droit à l’information
En créant l’illusion des faits, les deepfakes, contenus réalistes générés par intelligence artificielle (IA), constituent une menace directe pour la réputation des personnes ciblées et pour le droit du public d’accéder à une information fiable et digne de confiance. Reporters sans frontières (RSF) émet quatre recommandations pour encadrer les deepfakes dangereux.
Les deepfakes, ou hypertrucages en français, désignent des contenus générés par IA donnant l’illusion de contenus issus de la capture du monde réel, tels que des photographies ou des enregistrements audio ou vidéo. Lorsqu’ils sont créés pour imiter une personne sans son consentement et pour tromper le public sur la réalité des faits, ces contenus représentent une menace directe pour le droit d’accéder à une information fiable et doivent être considérés comme dangereux.
Face à la prolifération des deepfakes dangereux à des fins de désinformation, RSF appelle à protéger le droit à l’information par l’instauration d’un cadre juridique ad hoc, le déploiement de standards techniques dans les médias et sur les plateformes numériques, et l’actualisation des normes professionnelles du journalisme.
RSF formule quatre recommandations clés pour lutter contre la prolifération de ces deepfakes dangereux pour le droit à l’information :
- RSF demande que des sanctions pénales soient prévues pour toute personne ou toute organisation créant ou diffusant des deepfakes avec pour intention ou ayant pour effet de tromper ou manipuler autrui. Des circonstances aggravantes pourraient être prévues en cas d’altération de la sincérité d’un scrutin, et des exceptions de bonne foi établies.
- RSF demande que les personnes et organisations développant ou fournissant un accès aux systèmes d’IA générative mettent en œuvre toutes les précautions techniques nécessaires pour empêcher la création de deepfakes dangereux pour le droit à l’information, via l’utilisation directe ou détournée de leurs outils. Elles doivent être tenues juridiquement responsables lorsqu’elles faillissent à cette obligation.
- RSF encourage le développement et l’adoption rapide, par les médias et les plateformes numériques, de standards techniques garantissant l'origine et la traçabilité des contenus audiovisuels, tels que ceux développés par la Coalition for Content Provenance and Authenticity (C2PA).
- RSF encourage les journalistes et les médias à entretenir une distinction claire et transparente entre les contenus audiovisuels authentiques et synthétiques. Les médias doivent privilégier les contenus authentiques pour illustrer les faits, comme les y invite la Charte de Paris sur l’IA et le Journalisme.
Ces derniers mois, un nombre croissant de personnalités publiques, dont des journalistes, ont vu leur voix ou leur apparence physique simulée au moyen de deepfakes. Avec les progrès rapides de l’IA, les deepfakes simulant des photographies ou des enregistrements sonores sont devenus indiscernables de contenus authentiques, tandis que des outils permettant de créer des deepfakes au format vidéo sont sur le point d’être mis à disposition du public.
Des initiatives internationales pour une meilleure régulation
RSF joint sa voix à celle de centaines de personnalités du monde de la technologie et de la culture pour exiger l’instauration de régulations permettant de lutter efficacement contre la création et la diffusion de ces contenus. Le secrétaire général de RSF, Christophe Deloire, a ainsi signé la lettre ouverte, publiée le 21 février 2024, demandant que la création et la diffusion intentionnelle de deepfakes dangereux soit passible de poursuites pénales et exigeant des fournisseurs de logiciels d’IA de mettre en place des mesures préventives pour empêcher la création de ces contenus. Cette lettre a notamment été signée par la lanceuse d’alerte américaine à l’origine des “Facebook Files”, Frances Haugen, l'experte en régulation technologique néerlandaise Marietje Schaake, ou encore les chercheurs américains spécialisés en IA Stuart Russell et Gary Marcus.
De nombreux experts et organisations de la société civile, dont RSF, avaient déjà alerté quant au risque que font peser ces contenus sur l’intégrité de l’information et la démocratie. Publiée en novembre 2023, la Charte de Paris sur l’IA et le Journalisme, initiée par RSF et soutenue par 16 organisations internationales, engage les médias et les journalistes à “s’abstenir de créer et d’utiliser du contenu généré par une IA imitant des captures et des enregistrements du monde réel, ou incarnant de manière réaliste des personnes réelles”.
Au niveau européen, le règlement sur les services numériques (Digital Services Act ou DSA) oblige les très grandes plateformes et les moteurs de recherche à apposer un “marquage bien visible pour garantir qu’un élément d’information généré ou manipulé soit reconnaissable”. Le 16 février 2024, Google, Microsoft, TikTok et Meta se sont engagés à labelliser les images générées par l’IA, une démarche saluée par RSF. Ces mesures, nécessaires, doivent cependant être renforcées sur le plan technique et complétées sur le plan juridique pour être efficaces : les systèmes de détection sont faillibles et des acteurs malveillants pourront continuer à développer et utiliser des outils illégaux sans marquage des images synthétiques.
“Au-delà de la désinformation résultant directement de l’illusion des faits, c’est la possibilité même d’accorder notre confiance à l’information qui est menacée par les deepfakes dangereux. Leur prolifération risque d’engendrer un soupçon sur l’authenticité de tous les contenus, notamment ceux de nature journalistique. Une telle situation serait périlleuse pour la démocratie, en particulier en période électorale. Combattre efficacement les deepfakes exige d’agir à tous les niveaux, de leur création à leur diffusion, y compris par la loi.