L'AI Act : un premier texte qui omet les enjeux informationnels
Alors que le Parlement européen s’apprête à voter le projet de législation européenne sur l’Intelligence artificielle (AI Act), Reporters sans frontières (RSF) regrette que ce texte fondateur néglige d’intégrer la protection du droit à l’information, en n’octroyant pas aux algorithmes impliqués dans la production et la distribution de l'information le statut de systèmes à “haut risque”, soumis à une régulation plus stricte de leur mise sur le marché.
Si l’AI Act marque un pas en avant en intégrant des mesures telles que le marquage obligatoire des contenus générés par IA, en faveur duquel RSF s’était exprimé, et la transparence autour de l'utilisation des contenus protégés par les droits d'auteur dans les bases de données d'entraînement des modèles de langage, le texte législatif que s’apprêtent à voter les députés européens ce 13 mars 2024, est incomplet. Les mesures prévues ne suffiront pas à protéger le droit à l’information. L'absence de dispositifs juridiques spécifiques aux enjeux informationnels dans le texte final constitue un grave manque.
La production d’information doit bénéficier de la même protection que les autres systèmes interférant dans des domaines cruciaux comme l’éducation, la justice ou les élections, en lui octroyant la qualification de systèmes à “haut risque”. Cette qualification implique un encadrement strict avant la mise sur le marché des systèmes d’IA.
"L’accès à l’information est l’un des piliers de la démocratie, et ne pas considérer que les systèmes interférant avec ce droit sont à “haut risque” est incompréhensible. Cette absence de protection est d’autant plus préoccupante que plus de la moitié du globe compte sur des algorithmes d’intelligence artificielle pour s’informer via les réseaux sociaux. L’AI Act est un véhicule législatif idéal pour contraindre les fabricants de ces systèmes à la transparence et à mettre ces IA au service de l’information. Les premières bases que pose l’AI Act, voté par les députés européens en ce mois de mars, devront être élargies et consolidées pour combler ce manque.”
Vincent Berthier
Responsable du bureau technologies de RSF.
Le texte de l’AI Act repose sur une classification en plusieurs systèmes selon les risques qu’ils font peser sur la démocratie. Deux catégories sont particulièrement strictes : celle du “risque inacceptable”, qui désigne des systèmes rigoureusement interdits dans l’Union, et celle des systèmes à “haut risque”, autorisés sur le marché seulement s’ils se conforment à des exigences très élevées sur la qualité des données, l’évaluation des risques, la transparence ou la validation humaine.
Les algorithmes de curation et de recommandations de contenus utilisés sur les grandes plateformes d’informations, mais aussi les robots conversationnels, les moteurs de recherche et les outils de production de contenus comme ChatGPT devraient être soumis à de telles exigences.
Le Forum sur l'information et la démocratie, dont RSF est co-fondateur, a, dans un rapport complet, adressé aux États comme aux concepteurs d’IA des recommandations très concrètes pour mettre en place les garanties démocratiques nécessaires pour protéger notre espace informationnel. Le rapport préconise par exemple de rendre accessible le contenu des bases d’entraînement à travers des interfaces ergonomiques, comme un moteur de recherche par exemple, et appelle les Etats à soutenir le développement de bases de données de langues et cultures peu représentées dans les systèmes d’IA, notamment en finançant des médias produisant des contenus dans ces langues.