Projet de loi sur le respect des principes de la République : aller plus loin dans la régulation des plateformes numériques
RSF demande que l’amendement gouvernemental au projet de loi sur le respect des principes de la République, à propos de la lutte contre les contenus illicites, soit complété, notamment par des dispositions sur la transparence et la neutralité des plateformes. L’organisation préconise également l’adoption, à terme, d’une loi fondatrice pour imposer des garanties démocratiques dans l’espace public numérique.
RSF salue l’adoption ce 21 janvier de l’amendement du gouvernement au projet de loi sur le respect des principes de la République qui vise à renforcer les obligations des plateformes numériques dans la lutte contre les contenus illicites en ligne, mais appelle à son amélioration. Pour l’organisation de défense de la liberté de la presse, les risques que les plateformes font peser sur l’espace public doivent être mieux appréhendés, les obligations de transparence doivent être approfondies, les garanties de la liberté d’opinion et d’expression renforcées, et des obligations de neutralité imposées.
C’est plus largement une refonte des garanties démocratiques pour l’espace public numérique qui doit aujourd’hui être envisagée, et faire l’objet d’une grande loi fondatrice.
- Renforcer les obligations des plateformes, notamment en matière d’évaluation des risques, de transparence et de neutralité
La logique générale de l’amendement proposé - l’imposition aux plateformes d’un certain nombre d’obligations de moyen sous le contrôle renforcé du Conseil supérieur de l’audiovisuel (CSA) - vise à empêcher que la lutte contre les contenus illicites en ligne ne dépende pas que du seul bon vouloir des plateformes, mais qu’elle réponde à une série d’obligations définies par le législateur et le régulateur, ce qui peut être salué. Ces obligations doivent cependant être renforcées.
L’amendement prévoit que les plateformes devront évaluer chaque année les “risques systémiques liés au fonctionnement et à l’utilisation de leurs services en matière de diffusion des contenus illicites et en matière d’atteinte aux droits fondamentaux, notamment à la liberté d’expression”. Cette évaluation doit amener les plateformes à prendre des mesures pour atténuer ces risques.
La reconnaissance par le législateur du risque systémique que peuvent faire peser les plateformes est un progrès. Cependant, pour RSF, ces risques sont mal identifiés. Car c’est le fonctionnement même des plateformes, avec leur logique économique et leur “business model” qui promeut des contenus censés déclencher un “engagement” chez l'utilisateur (c’est-à-dire qui génèrent des clics, des commentaires et des partages) qui aboutit à favoriser les contenus qui suscitent de l’émotion - le plus souvent des contenus haineux, violents, ou trompeurs - au détriment de l’information fiable, qui engendre un véritable risque systémique. Et c’est ce risque qui doit être identifié par le texte afin d’obliger les plateformes à l’évaluer et l’atténuer.
L’obligation de transparence proposée par l’amendement est insuffisante : une obligation de transparence digne de ce nom doit porter sur les algorithmes de modération et de référencement des contenus, et ne pas seulement donner au CSA l’accès “aux principes de fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils”. Afficher les intentions, ou les “principes”, ne suffit pas. Il est crucial de pouvoir juger sur pièces, c’est-à-dire de contrôler la conformité des algorithmes aux principes d’un espace public démocratique. Ces algorithmes devraient pouvoir être directement audités par des experts techniques, en capacité de les analyser et de les tester - experts si nécessaire soumis au secret.
La loi devrait également prévoir une obligation de neutralité politique, idéologique ou religieuse des plateformes, pour éviter qu’elles ne puissent imposer des biais à l’information et aux contenus auxquels peuvent accéder leurs utilisateurs. Il faut aussi prévoir une obligation de neutralité par rapport à leurs propres intérêts, pour assurer que les plateformes ne peuvent mettre en avant ou favoriser des contenus ou des intérêts auxquels elles sont liées sans une transparence claire. Toute situation de conflit d'intérêts - commerciaux ou politiques - des plateformes doit faire l'objet de sanctions.
Pour renforcer le respect du droit à la liberté d’expression et d’information, la loi doit aussi prévoir une obligation d’alignement des conditions générales d’utilisation des plateformes sur les standards internationaux de la liberté d’expression. Les plateformes ne doivent pas pouvoir restreindre la liberté d’expression d’une façon abusive au regard du droit international. Elles ne doivent pas être plus restrictives que les Etats dans les limites qu’elles peuvent imposer à la liberté d’expression de leurs utilisateurs.
Les droits de recours prévus par le texte, pour les utilisateurs qui voient leurs contenus supprimés par les plateformes, ne vont pas assez loin : permettre seulement un recours en interne, auprès de la plateforme, est insuffisant, et un organe indépendant devrait pouvoir évaluer au cas par cas les recours formés par les utilisateurs contre des opérations de modération - comme le prévoit le Digital Services Act (DSA), le texte sur la régulation des plateformes actuellement en préparation au niveau européen et que l’amendement reprend par anticipation. Les décisions de cet organe devraient pouvoir faire l’objet d’un recours devant le juge.
- La nécessité d’une grande loi sur la régulation de l’espace public numérique
Au-delà de cet amendement et de la seule question de la modération des contenus illicites, c’est une grande loi sur la régulation de l’espace public numérique qui est aujourd’hui nécessaire.
Les garanties pour la délibération publique qu’ont instaurées au fil de leur histoire les démocraties sont aujourd’hui largement insuffisantes et dépassées. L’organisation de la délibération publique à été déléguée aux plateformes numériques, sans qu’elles se voient imposer des obligations à la hauteur de l’impact qu’elles ont sur le fonctionnement des démocraties.
Le législateur doit aujourd’hui réintroduire des garanties démocratiques dans l’espace numérique. Les règles de la liberté d’expression en ligne doivent être refondées et adaptées à l’ère digitale, la régulation des messageries privées et des objets connectés doit être engagée, et le recours à des mécanismes de promotion de la fiabilité de l’information doit être imposé aux plateformes.
Le rapport du groupe de travail sur les infodemics du Forum sur l’information et la démocratie impulsé par RSF porte un certain nombre de recommandations à cette fin, comme la proposition de RSF de garantir la promotion de la fiabilité de l’information en ligne, dans une logique de co-régulation sur la base de normes définies par la société civile.
La France se situe à la 34e place au Classement mondial pour la liberté de la presse établi par RSF en 2020.