Aller au contenu principal
Représentation en France
Article d’actualité16 mai 2024Représentation en France5 min de lecture

Non, le DSA ne vise pas à censurer les réseaux sociaux et à restreindre la liberté d’expression !

Face à la multiplication des contenus haineux, illicites et manipulateurs en ligne, l’Union européenne a adopté un règlement sur les services numériques (“DSA”) - première régulation du numérique au monde pour mieux protéger les Européens et responsabiliser les grandes plateformes numériques. Avec l’entrée en application de ces nouvelles règles, certains affirment que le DSA restreindrait la liberté d’expression en ligne et servirait d’instrument de censure des réseaux sociaux. Cela est faux ! Si le DSA prévoit des règles pour les très grandes plateformes en ligne avec des obligations strictes de lutte contre les risques systémiques issus de l’utilisation de leurs services, ces mesures sont soigneusement proportionnées afin de garantir le respect de la liberté d'expression

The end of roaming charges in the EU in June 2017

Le principe du DSA : tout ce qui est illégal dans la vie réelle, est aussi illégal en ligne 

Le règlement sur les services numériques (DSA), adopté le 16 novembre 2022, établit un cadre réglementaire sans précédent au niveau mondial pour la responsabilité des plateformes en ligne concernant les contenus illégaux ou préjudiciables - comme les attaques racistes, les images pédopornographiques, la vente de produits illicites, la désinformation et d'autres risques sociétaux. Les publicités ciblées en ligne sur base de critères comme la religion, l’orientation sexuelle ou les opinions politiques, ainsi que la publicité ciblée des mineurs, sont également interdites. Des obligations spécifiques sont imposées aux très grandes plateformes utilisées par plus de 45 millions d’Européens par mois, c’est-à-dire plus de 10 % de la population de l’UE, pour prévenir toute utilisation abusive de leurs services.  

Le 25 avril 2023, la Commission a adopté les premières décisions de désignation au titre du DSA, désignant 17 très grandes plateformes en ligne et 2 très grands moteurs de recherche en ligne, comptant au moins 45 millions d'utilisateurs actifs par mois. Le 20 décembre 2023, trois sites supplémentaires ont été désignés. Ces entreprises ont dû se conformer, avant fin août 2023, à l'ensemble des nouvelles obligations découlant du règlement sur les services numériques, notamment : des moyens d'action accrus pour les utilisateurs permettant de signaler des contenus ou produits illicites, l’obligation de retirer ou bloquer ces contenus rapidement après leur signalement, une solide protection en ligne des mineurs, une modération des contenus plus diligente, moins de désinformation et plus de transparence, une obligation accrue de rendre des comptes, ou encore l’obligation de coopérer avec des “signaleurs de confiance” (organes, associations, individus labellisés dans chaque Etat membre en vertu de leur expertise) qui verront leurs signalements traités en priorité. 

Évaluation des risques 

Ces très grandes plateformes en ligne doivent ainsi procéder à des évaluations annuelles des risques issus de l’utilisation de leurs services et par la suite adopter des mesures pour atténuer ces risques. Les risques peuvent résulter, par exemple, de la création de faux comptes, de l’utilisation de robots ou de l’utilisation trompeuse d’un service ou d’autres comportements automatisés, susceptibles de conduire à la diffusion rapide et généralisée au public d’informations qui constituent un contenu illicite ou qui contribuent à des campagnes de désinformation. De même, des risques particuliers liés à la violence sexiste en ligne ou à la protection des mineurs en ligne et de leur santé mentale doivent être évalués et atténués.  

Les plans d'atténuation des risques des plateformes et moteurs de recherche désignés feront l'objet d'un audit indépendant et d'une surveillance par la Commission. Celle-ci travaillera en étroite coopération avec les coordinateurs pour les services numériques - autorités nationales - que les États membres ont eu jusqu'au 17 février 2024 pour designer. En France, l’autorité nationale désignée est l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom).  

Un instrument de protection des citoyens européens, avec des mesures proportionnées 

Le DSA prévoit un mécanisme de réaction aux crises touchant à la sécurité ou à la santé publique. Lorsqu’une crise émerge, avec un risque de préjudice grave pour les utilisateurs d’un service en ligne en matière de manipulation de l'information en ligne, la Commission européenne pourra demander aux grandes plateformes une analyse des risques que posent leurs interfaces et leur imposer pendant un temps limité des mesures d’urgence. Loin de “censurer les réseaux sociaux”, toutes ces mesures provisoires relevant du mécanisme de crise seront limitées dans le temps et accompagnées de garanties pour les droits fondamentaux, tels que la liberté d’expression. Toute utilisation du mécanisme de crise sera une décision publique, ce qui signifie qu'elle sera publiée au Journal officiel de l'UE. 

Le DSA comporte également des dispositions pour garantir le respect de la liberté d’expression. L’auteur d’un contenu illicite doit par exemple être informé avant le retrait de ce dernier et peux contester cette décision auprès de la plateforme grâce à un mécanisme de plainte gratuit et facile à utiliser. 

La Commission européenne, dotée de pouvoir d’enquête, supervisera les systèmes que ces plateformes mettent en place pour lutter contre les contenus illégaux et la désinformation, défendre les droits des utilisateurs et protéger la santé et le bien-être des utilisateurs. S’il est constaté qu’une très grande plateforme numérique n’a pas respecté ses obligations, elle sera passible d'amendes pouvant atteindre 6% de son chiffre d’affaires mondial. En tout dernier ressort, les juges pourront être saisis pour interdire temporairement les services d’une plateforme dans l’Union européenne en cas de violations graves et répétées mettant en danger la vie ou la sécurité des utilisateurs. 

Détails

Date de publication
16 mai 2024
Auteur
Représentation en France