Code de bonnes pratiques de l’“AI Act”: RSF réitère son appel à protéger le droit à l’information et à ne pas céder à la pression de l’industrie

Alors que le Bureau européen de l’IA est pressurisé par les entreprises technologiques pour affaiblir le code de bonnes pratiques sur l’intelligence artificielle (IA) à usage général, Reporters sans frontières (RSF) exhorte l’entité responsable de la mise en place du règlement européen sur l’IA (l’AI Act) à tenir tête aux géants de l’industrie et à renforcer le texte pour combler ses lacunes en matière de protection du journalisme et du droit à l’information fiable.
Consultée sur une première version du texte fin novembre, RSF avait déjà exprimé ses craintes concernant le manque de dispositions concrètes pour protéger le journalisme et l’information fiable dans le code de bonnes pratiques sur l’IA à usage général – l’outil d’autorégulation des fournisseurs d’IA prévu par le règlement européen sur l’IA. Lors du deuxième tour de négociations, le bureau de l’IA a soumis aux parties prenantes un projet de code encore plus pauvre en matière de protection du journalisme. La Commission, qui a décidé de reporter la livraison de la troisième version du code tandis que les entreprises technologiques tentent d’affaiblir le texte et menacent de ne pas le signer, ne doit pas renoncer à cet enjeu de régulation crucial.
“Chaque semaine rend plus évidentes les menaces que fait peser sur l’information une IA non régulée. En Europe, les élections législatives allemandes ont été le théâtre de campagnes de désinformation dans lesquelles des IA génératives ont visiblement été utilisées pour créer de faux sites d’information. Au lieu d’en prendre acte, le Bureau de l’IA a reculé en supprimant l’unique mention des médias présente dans la première version du code. Nous lui demandons de revenir sur cette décision et réitérons notre demande : considérer l’atteinte au droit des citoyens européens d’accéder à une information fiable comme un “risque systémique”, requérant à ce titre la plus grande vigilance des fournisseurs d’IA.
La classification des “risques systémiques” du code, qui délimite le périmètre des risques devant être évalués et atténués par ses signataires, ne mentionne ni les médias, ni le journalisme, ni l’information fiable. Cette liste ne cite que le risque de “facilitation de la manipulation à grande échelle”. Ainsi rédigé, le code cible de façon restrictive des manœuvres intentionnelles et de grande envergure, mais exclut de son champ d'application de très nombreuses menaces réelles et documentées qui s’abattent d’ores et déjà sur le journalisme et le droit à l’information.
Ainsi, l’atteinte à l’image de journalistes victimes de deepfakes, les faux sites d’information automatisés, la reprise et la diffusion de contenus de propagande par les chatbots, la production d'informations inexactes à répétition par les modèles de langages, ou encore les risques de perte de confiance envers les médias cités comme sources supposées à ces fausses informations sont autant de problèmes ignorés par la dernière version du code. Un manque qui doit être corrigé de toute urgence.