Protection des contenus journalistiques aux États-Unis : pour RSF, le “COPIED Act” vise juste mais ne frappe pas assez fort
Un projet de loi visant à encadrer l’utilisation des contenus journalistiques par les développeurs d’intelligence artificielle (IA) a été présenté au Sénat américain. Reporters sans frontières (RSF) salue cette initiative, qui pourrait marquer une avancée concrète dans la reconnaissance des droits des médias, et invite le législateur à l’adopter en corrigeant ses faiblesses.
Le 11 juillet 2024, à Washington, un groupe bipartisan de sénateurs a présenté un projet de loi visant à protéger les journalistes et les artistes contre l'utilisation non consentie de leurs œuvres par les modèles d'IA. Le texte, baptisé COPIED Act (Content Origin Protection and Integrity from Edited and Deepfaked Media Act), a également pour but de faciliter l'authentification des contenus générés par IA en encourageant le développement et la mise en œuvre de standards techniques appropriés.
“Loin d’être une solution souhaitable ou viable, les partenariats bilatéraux conclus ces derniers mois entre des médias et des fournisseurs d’IA constituent, au contraire, une menace pour l’indépendance et le pluralisme du journalisme ainsi que pour la soutenabilité des médias exclus des négociations. Il est essentiel de développer un régime de protection couvrant équitablement l’ensemble des contenus journalistiques, et ce projet de loi est un premier pas en ce sens. Le texte doit cependant être renforcé sur plusieurs dimensions clés, en particulier concernant les standards d'authenticité. RSF appelle le législateur à prendre en considération ses recommandations en la matière, afin qu’il adopte un texte fondateur pour la protection des contenus journalistiques face à l’IA.
Vers une meilleure protection des contenus journalistiques aux États-Unis
Alors que l’interprétation actuelle de la doctrine dite du “fair-use” (“usage équitable”) permet d’utiliser n’importe quel contenu journalistique pour entraîner un modèle d’IA sans autorisation ni contrepartie, la loi COPIED constituerait une réelle avancée dans la reconnaissance des droits des propriétaires de contenus. Elle est, d’ailleurs, soutenue par plusieurs acteurs de l’industrie médiatique dont News/Media Alliance, une association professionnelle fédérant environ 2 000 organisations de médias d'information nord-américains, ainsi que la National Newspaper Association, la principale fédération de journaux américains.
Le projet de loi charge l'Institut national des standards et de la technologie (NIST) de développer des standards techniques permettant d’attacher à tous types de contenus numériques (texte, image, contenu audio ou vidéo) des informations concernant leur origine. Les contenus ainsi marqués par leurs propriétaires ne pourront être utilisés par les fournisseurs d’IA qu’à condition d’obtenir leur consentement explicite. Ce faisant, la loi reconnaît le droit des médias à fixer eux-mêmes les conditions, y compris financières, de réutilisation de leurs œuvres. C’est un principe essentiel dont RSF demande la reconnaissance dans l’Union européenne (UE).
Des exigences de transparence trop faible pour les développeurs d’IA
Mais contrairement à l'AI Act européen, le texte américain n'exige pas des fournisseurs d'IA de donner un résumé détaillé des données d’entraînement de leurs modèles. En dehors des contenus assortis de leurs informations d’origine comme le permet la loi, les créateurs et les propriétaires de contenus n’auraient donc aucun moyen fiable de savoir si leurs œuvres ont été utilisées pour entraîner ou alimenter des modèles d’IA, même lorsque celles-ci sont protégées par le droit d’auteur.
RSF demande au législateur de combler cette lacune en étendant par défaut le régime de protection à toutes les œuvres journalistiques couvertes par des droits d’auteur et en obligeant les développeurs d’IA à communiquer de façon transparente les contenus utilisés.
Un marquage optionnel des contenus synthétiques
La loi COPIED exige que les développeurs et les déployeurs de systèmes d'IA utilisés pour générer du contenu synthétique offrent à leurs utilisateurs la possibilité d'attacher à leurs productions des informations concernant leur provenance. Le texte proscrit la suppression, la modification, la falsification de ces informations d’origine.
Pour RSF, s’il est utile de développer des standards garantissant l’origine synthétique des contenus générés ou modifiés par IA, il est indispensable que l’application d’un tel marquage ne soit pas optionnelle, mais systématique, comme l’exige l’AI Act dans l’UE. Par ailleurs, cette disposition devrait, selon RSF, être accompagnée de sanctions pénales pour la création et la publication intentionnelle de deepfakes (ces contenus générés par IA simulant de manière réaliste une photographie, une vidéo ou un enregistrement sonore authentiques) portant préjudice à une personne physique ou morale.