Logo du cabinet Mathias avocat : image cliquable pour retourner à la page d'accueil
Digital Services Act : quelles obligations pour les plateformes ?
5 octobre 2024

Le Règlement relatif à un marché unique des services numériques, dit Digital Services Act (DSA), a été adopté le 19 octobre 2022. Proposé par la Commission européenne fin 2020, ce texte vise notamment à lutter contre la diffusion de contenus illicites et à instaurer plus de transparence entre les plateformes en ligne et leurs utilisateurs.

Dans un article dédié, nous précisions le contenu et les étapes de mise en œuvre de ce règlement. Et, plus récemment, nous avons dressé un état des lieux de la mise en œuvre et des actualités relatives au DSA (enquêtes de la Commission européenne, etc.)

Le DSA est entré en application le 25 août 2023 pour les très grandes plateformes en ligne et les très grands moteurs de recherche, désignés comme tels par la Commission européenne (en avril 2023). Le 17 février 2024, le DSA est entré pleinement en vigueur et s’applique à toutes les plateformes en ligne.

Quelles sont les nouvelles obligations à la charge des plateformes ? Comment leur respect sera-t-il assuré ? Quid des sanctions prévues en cas de manquement ?

Des obligations graduelles en fonction de la taille et des risques

Le régime de responsabilité des fournisseurs de services intermédiaires reste très proche de celui établi par la directive sur le commerce électronique du 8 juin 2020, qui est modifiée par le DSA. Ce dernier introduit la qualification de plateforme et propose de nouvelles obligations à la charge de ces acteurs.

En effet, les risques au regard de la diffusion et de la prolifération de contenus illicites dépendent de la nature des services proposés par les différents acteurs en ligne ainsi que de leur taille. Ainsi, le législateur européen établit un socle commun de règles qui sera applicable aux hébergeurs et aux plateformes. Ensuite, en fonction de la taille de ces dernières, d’autres obligations viennent s’ajouter à ce socle.

Par le biais de ces nouvelles obligations, le législateur européen a souhaité créer un cadre juridique équilibré qui prend en compte les différents intérêts en jeu, à savoir notamment la création d’un environnement numérique sécurisé et la protection de la liberté d’expression. A ce titre, le Digital Services Act vise à responsabiliser non seulement les plateformes en ligne mais également les internautes, tout en mettant en place une surveillance efficace.

Promulguée le 21 mai 2024, la loi visant à sécuriser et à réguler l’espace numérique (SREN) contient un certain nombre de mesures permettant de préciser les dispositions du Digital Services Act.

Les principales obligations prévues par le règlement sont les suivantes.

Mécanisme de notification et d’action pour les hébergeurs et les plateformes

Tous les hébergeurs doivent mettre en place un mécanisme de notification et d’action afin que tout utilisateur puisse signaler les contenus illicites (article 14). A ce titre, ils doivent mettre à disposition un système permettant aux utilisateurs de leur communiquer par voie électronique un certain nombre d’informations (motifs du signalement, adresse URL du contenu, nom et adresse électronique du notifiant, déclaration de bonne foi du notifiant).

Rappelons qu’un tel mécanisme est déjà prévu en droit français depuis la transposition de la directive du 8 juin 2000 par la loi n° 2004575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN).

Lorsqu’un contenu est retiré, les hébergeurs et les plateformes devront communiquer à l’utilisateur concerné plusieurs informations dont le fondement de la décision du retrait et les moyens de recours dont dispose l’utilisateur (article 15). Aucun délai n’est imposé pour l’examen et le retrait des contenus notifiés.

En outre, ces fournisseurs doivent expliquer dans les conditions générales d’utilisation (CGU) leurs politiques et moyens de modération des contenus, y compris le recours aux algorithmes et à l’évaluation humaine (article 12). Si le service en question s’adresse majoritairement à des mineurs, ces informations devront être rédigées de manière simple et compréhensible.

Ils doivent également publier des rapports de transparence, faisant état par exemple du nombre de notifications reçues, du délai nécessaire pour leur traitement et des mesures de modération mises en place de leur propre initiative (article 13). A date, certaines plateformes publient déjà des rapports de transparence en fournissant des chiffres relatifs aux contenus signalés et retirés.

Modalités de traitement des plaintes pour les plateformes

Les plateformes sont soumises à des obligations supplémentaires. Par exemple, elles doivent mettre en place un système interne de traitement des plaintes formulées par les utilisateurs contre les décisions prises à l’égard de leurs contenus (article 17).

Par ailleurs, le Digital Services Act prévoit une obligation de suspendre les comptes d’utilisateurs qui adressent de manière fréquente des notifications ou des plaintes manifestement infondées (article 20). Pour évaluer ces abus d’utilisation, les plateformes doivent prendre en compte plusieurs critères qualitatifs et quantitatifs, comme la proportion des notifications infondées par rapport au nombre des notifications reçues ou encore la gravité des abus et leurs conséquences.

Les rapports de transparence publiés par les plateformes devront ainsi inclure des informations relatives aux obligations mentionnées ci-dessus (nombre de différends soumis à un règlement extrajudiciaire, de suspensions en cas abus d’utilisation, etc.).

A noter qu’un dispositif de règlement extrajudiciaire est également prévu (article 21). Ainsi, les utilisateurs peuvent saisir un organe indépendant pour le traitement d’une plainte ou d’un différend qui ne sera pas résolu en interne. A titre d’illustration, afin de se conformer à cette exigence du règlement, Meta a annoncé la création d’une nouvelle structure baptisée « Centre d’appels Europe » destinée à trancher les litiges des utilisateurs de Facebook, TikTok et Youtube. Ces organes doivent être certifiés par le Coordinateur national pour les services numériques en fonction de certaines conditions (impartialité, indépendance, etc.). En France, l’Arcom assure cette fonction.

Évaluation et atténuation des risques pour les très grandes plateformes

Les très grandes plateformes doivent, quant à elles, évaluer tous les ans les risques systémiques résultant du fonctionnement et de l’utilisation de leurs services (article 26) et prendre des mesures pour atténuer ces risques (article 27). Ces mesures pourront modifier leurs mécanismes de modération des contenus ou encore renforcer la supervision interne de leur fonctionnement.

En dehors de ces obligations, les très grandes plateformes doivent recourir à des audits externes en vue de diagnostiquer leur niveau de conformité (article 28). Elles doivent également désigner un délégué à la conformité, qui sera le point de contact des autorités compétentes (article 32).

De plus, dans leurs CGU les très grandes plateformes doivent communiquer les paramètres utilisés dans leurs systèmes de recommandation de contenus (article 29). Leurs rapports de transparence doivent exposer les résultats de l’évaluation des risques et les mesures d’atténuation mises en œuvre ou encore les constats d’audits externes (article 33).

Participation à la gestion de crise par les très grandes plateformes

Dans le contexte de la guerre entre la Russie et l’Ukraine, le Conseil de l’Union a ajouté au texte initial proposé par la Commission un mécanisme dit de « réaction aux crises » (tout évènement imprévisible, tel que des guerres ou des actes de terrorisme). Ce mécanisme vise à intégrer les très grandes plateformes dans la gestion de crise au moyen de plusieurs mesures dont notamment l’affichage d’informations relatives à la situation de crise fournies par les États membres (article 37).

Comment le respect de ces obligations est-il assuré ?

Chaque État membre désigne une ou plusieurs autorités compétentes afin d’assurer le respect du règlement. Parmi ces autorités, l’une d’entre elles a le statut de Coordinateur des services numériques. Les pouvoirs de ce dernier sont larges. Il peut effectuer des contrôles sur place, demander la communication d’informations auprès des fournisseurs de services intermédiaires ou encore leur demander de prendre un certain nombre d’engagements (article 41).

Le législateur européen prévoit également la mise en place d’une coopération entre les différents Coordinateurs, réunis au sein d’un Conseil européen des services numériques (article 47).

Il convient de noter que les très grandes plateformes peuvent faire l’objet de mesures de contrôle renforcées (article 50). Ainsi, sur la proposition du Conseil ou sur sa propre initiative, la Commission européenne pourra intervenir afin de mener des contrôles sur place (article 54), demander la communication d’informations (article 52) et entendre toute personne sous réserve de son consentement (article 41).

Quid des sanctions ?

En cas de non-respect du règlement, le Coordinateur pourra prononcer une sanction pécuniaire dont le montant représente 6 % du chiffre d’affaires mondial du fournisseur concerné (article 42). Pour les très grandes plateformes, outre le Coordinateur, la Commission est également compétente pour prononcer de telles sanctions pécuniaires (article 59).

Mathias Avocats vous accompagne dans le cadre de votre mise en conformité avec ces nouvelles réglementations.

Ensemble, développons vos projets et formons vos équipes ! Partageons nos expertises !