Face à l'infiltration de la propagande russe dans les chatbots, RSF appelle urgemment les concepteurs d’IA à valoriser l'information fiable
Plusieurs études récentes d’organisations comme Newsguard ont mis au grand jour la propension des agents conversationnels, tels que ChatGPT, à relayer des éléments de désinformation et de propagande, notamment russe. Reporters sans frontières (RSF) appelle les concepteurs de ces systèmes d’intelligence artificielle (IA) et les pouvoirs publics à prendre des mesures drastiques pour valoriser l’information journalistique fiable et ainsi défendre le droit à l’information.
Une étude accablante publiée en juin 2024 par l’entreprise Newsguard, spécialisée dans l’identification des sources de désinformation, affirme que les chatbots – soit les robots conversationnels comme ChatGPT – sont totalement perméables aux campagnes de propagande et de désinformation. Les dix principaux chatbots du marché que l’entreprise a audités, dont ChatGPT d’OpenAI, lui ont donné de fausses informations. Cela a notamment été le cas pour les réponses concernant les élections américaines, qui reprenaient des éléments de désinformation russe publiés sur de faux sites d’information.
Ces révélations s’ajoutent à la pile des autres rapports pointant le risque que font peser les robots conversationnels sur l’intégrité de l’information en ligne et, dès lors, aux fonctionnements démocratiques. En octobre 2023, l’ONG Algorithm Watch publiait déjà une étude pointant du doigt les dysfonctionnements des systèmes conversationnels et leur propension à créer de fausses informations en période électorale. Elle considérait, à juste titre, que ces technologies étaient “immatures et dangereuses”. Pour RSF le constat est clair : les chatbots d’IA générative recyclent sans distinction des contenus de désinformation et de propagande piochés en ligne sans que le public ait les moyens de distinguer une information fiable.
"Les robots conversationnels peuvent être des vecteurs de propagande massive. Il est impératif de considérer ces systèmes comme à haut risque, selon les standards européens de la législation régionale de l’AI Act, et d'imposer des standards techniques stricts pour qu’ils respectent le droit à l’information des citoyens. Ces robots ainsi que les moteurs de recherche qu’ils utilisent doivent garantir la promotion des sources d'information fiables, identifiées par des normes d'autorégulation comme la Journalism Trust Initiative (JTI), et leurs concepteurs doivent s’engager fermement à soutenir les médias qui respectent les principes fondamentaux du journalisme : exactitude, impartialité et responsabilité."
La propagation de la propagande via les chatbots soulève des questions cruciales sur la fiabilité des informations générées par l'IA. Si les données d'entrée sont erronées ou conçues de manière à tromper le public, les réponses fournies par les chatbots le seront également. C’est pour cette raison que RSF avait demandé à ce que l’AI Act considère les systèmes d’IA distribuant de l’information comme étant à “haut risque” pour la société.
RSF appelle à une réponse immédiate et forte des pouvoirs publics pour contraindre les concepteurs des systèmes d’IA à développer des services qui ne portent pas atteinte au droit des citoyens d’accéder à l’information fiable, dans la lignée des recommandations de l’organisation sur l’IA et le droit à l’information. L’innovation et la compétition effrénée des concepteurs d’IA ne doit en aucun cas occulter le problème de fond de l’intelligence artificielle : sans données de qualité, il n’y a pas d’IA fiable.