Comment mieux comprendre le mouvement d’encadrement de la responsabilité des plateformes en ligne relatif à la modération des contenus ? La seconde édition du colloque « Nouvelles régulations du Numérique » permet de réunir les experts du sujet. Un Webinar complet destiné à aborder les conséquences du Digital Services Act, bientôt en discussion au niveau européen.
Pour la seconde année consécutive, TECH IN France a co-organisé le colloque « Nouvelles régulations du Numérique », en partenariat avec le cabinet Samman. Une matinée d’échanges autour notamment du Digital Services Act. Le texte a pour vocation de définir à l’échelle européenne un nouveau cadre général de la responsabilité des acteurs en ligne, notamment sur la modération des contenus. Le règlement européen doit ainsi avoir pour conséquence d’étendre la responsabilité des plateformes.
Face à ce morcellement des législations nationales, les plateformes en ligne sont davantage contraintes. Elles doivent actuellement faire face à de nombreuses obligations. De leur côté, ces services en ligne mettent déjà en place des mesures fortes de contrôle et de modération des contenus. Béatrice Oeuvrard, Public Policy Manager pour Facebook France explique : « nous mettons en place des métriques clés comme le taux de prévalence. Cela équivaut à déterminer le taux de contenus haineux présents. A date, plus de 35 000 personnes sont dédiées à la cybersécurité sur Facebook. A ceux-ci s’ajoutent pas moins de 15 000 modérateurs. Nous mettons tout en œuvre pour éviter tout problème. C’est pourquoi, nous souhaitons que les sanctions internationales soient mieux coordonnées entre les différents Etats ».
L’idée est donc que le Digital Service Act permette de trouver un équilibre entre les Etats et les plateformes en ligne. Une position vivement soutenue par l’Union européenne comme l’explique Prabhat Agarwal, Chef de l’unité Plateformes de la DGConnect au sein de la Commission européenne. Il explique : « Nous nous trouvons dans une phase d’accélération de la responsabilisation des plateformes. La solution n’est pas d’édicter 27 règles différentes. Mais de dégager une proposition sérieuse afin de trouver un équilibre entre lois nationales et équilibres transfrontaliers. » En somme, le Digital Service Act se présente comme une proposition de gouvernance européenne dont chaque partie est à même d’en construire les contours.
Les réseaux sociaux : une agora publique
Comme le souligne Michèle Leridon, Membre du Conseil supérieur de l’audiovisuel (CSA), les règles actuellement applicables aux plateformes sont nationales. « Les règles applicables sont celles présentes dans les CGU [conditions générales d’utilisation, NDLR]. Issues donc des réglementations nationales. » Pour autant, la question se pose de transposer, éventuellement par anticipation, les règles du DSA en France dans le cadre du Projet de loi « Respect des principes de la République ».
Une position que soutient Audrey Goffi, Conseillère régulations numériques au cabinet du secrétaire d’État au Numérique Cédric O. Elle explique : « L’objectif n’est pas d’avoir 27 législations nationales différentes. Le DSA reste la priorité du gouvernement en matière de régulation des contenus ». La responsable précise en ce sens que l’article 19 bis du projet de loi instaure un régime transitoire (avec une clause d’extinction) permettant d’imposer de nouvelles obligations de moyens et de transparence aux plateformes.
Audrey Goffi ajoute : « les réseaux sociaux sont devenus une agora publique. Cela pose des questionnements en termes démocratique. Nous souhaitons mettre sous la supervision du régulateur la défaillance systémique d’un acteur à retirer les contenus problématiques. Les banques, par exemple, ne sont pas responsables des mauvais virements de leurs clients. Elles le sont si elles ne mettent rien en place pour reconnaître les virements frauduleux ».
Depuis les premiers pas des réseaux sociaux, les pratiques des plateformes ont évolué. Elles suppriment à présent en partie certains contenus litigieux. Toujours est-il qu’à l’heure actuelle, les Etats attendent des plateformes qu’elles les informent sur les questions de rétrogradation des contenus, de leur monétisation… afin que le régulateur dispose d’une vision effective des pratiques.
Laure Durand-Viel, Déléguée à la régulation des plateformes numériques au sein de la DGMIC (Ministère de la Culture) explique : « Nous développons une vision holistique qui n’est pas d’interdire des points qui ne sont pas visés par la loi. L’idée est donc de faire interdire ce qui est prévu par la loi du pays de l’utilisateur et de respecter la souveraineté de chaque Etat. »
Preuve en est, la suspension du compte Facebook de l’ex-président américain Donald Trump. Béatrice Oeuvrard explique : « Nous avons retiré ce compte suite à une série d’infractions aux standards de la communauté. A ceux-ci s’ajoute un véritable appel à la violence. Nous avons considéré qu’il était trop dangereux de laisser ces contenus à disposition de la population américaine ».
Des modérations opérées au moyen d’une véritable « Cour suprême » instituée au sein de Facebook. En France, un comité de surveillance similaire se penche sur certains contenus pouvant porter à confusion (sur l’hydroxychloroquine par exemple).
Le pays d’origine : un principe clé
La directive e-Commerce met en place un principe dit du « pays d’origine ». Selon les termes de Maître Jean-Sébastien Mariez, Avocat associé chez Momentum Avocats, cette règle permet aux sociétés qui proposent leurs services au niveau européen de les déployer plus simplement en s’attachant à leur pays d’origine. « Ils peuvent alors se tourner vers le régulateur du pays d’origine », ajoute-t-il.
De son côté, le gouvernement français entend ajuster ce principe. En particulier pour la gestion et le retrait des contenus dits odieux. L’idée est d’insérer par certains aspects le principe du pays du destination à la régulation du DSA. L’ensemble des experts présents au webinar de TECH IN France considèrent que l’attention doit aller en direction des structures de gouvernance.
De son côté, le Digital Service Act réaffirme de manière large la compétence du pays d’origine. Il revient alors à l’autorité du pays de destination de recevoir les plaintes locales. Elle doit émettre des recommandations aux autorités du pays d’établissement. Un point qui peut soulever des problématiques lourdes. Michèle Léridon (CSA) explique : « Il existe des différences culturelles fortes entre pays sur les contenus qui doivent ou non être supprimés. Le DSA prévoit de s’appuyer sur le pays d’origine mais le régulateur irlandais va recevoir beaucoup de demandes. Il devra en outre saisir l’ensemble des finesses de langage des pays concernés ». Le CSA entend faire des propositions en ce sens auprès de la Commission européenne.
Pour autant, Maître Jean-Sébastien Mariez souligne que les Etats s’appuient sur un référentiel commun d’harmonisation des contenus illicites. Le mécanisme permet à un opérateur établi dans un pays de pouvoir se tourner vers l’autorité de ce même Etat. Cela lui permet d’obtenir des réponses pertinentes. Une coopération qui permet de minimiser les risques juridiques. A terme, le Digital Service Act prévoit la création d’un board européen réunissant les régulateurs nationaux et la Commission européenne. Là encore, l’optique étant de renforcer les relations entre différents Etats.
Olivier Robillart