C’est un refus en règle. Dans une série de questions-réponses datée du vendredi 26 mars, consultée par Contexte, l’exécutif européen détaille le fonctionnement du règlement qui doit renforcer la responsabilité des plateformes. L’occasion de distinguer ce qui relève du droit national de ce que couvre le Digital Services Act.
Relire notre analyse du Digital Services Act
Douche froide pour l’Allemagne
Sur 62 questions, 7 viennent de l’Allemagne. Le but est clair : légitimer le maintien de sa législation nationale contre la haine en ligne, la NetzDG, en parallèle du DSA. Plusieurs angles sont explorés, comme la désignation du représentant légal, les précisions nationales sur les délais de suppression d’un contenu signalé (notice and action) ou encore les suppressions de contenus considérés comme illicites dans le droit national.
L’Allemagne avait demandé l’avis du service juridique du Conseil sur le niveau d’harmonisation du DSA, donc les marges de manœuvre laissées aux États. Dans leurs suggestions sur les deux premiers chapitres, les Allemands et Français tentent de maintenir leurs lois contre la haine en ligne en parallèle du règlement.
À chaque fois, c’est le même « niet » de la Commission :
« Par principe général, les États membres ne pourront pas adopter de dispositions nationales parallèles sur les sujets dans le champ d’application, ou pleinement régulés par le DSA. […] La base juridique choisie, ainsi que le choix de l’instrument (un règlement), indiquent déjà que l’objectif du législateur est d’assurer un haut niveau d’harmonisation. »
Impossible, ainsi, d’imposer un représentant légal par État membre dans le cadre du règlement. Par ailleurs, si le droit national contrôle les retraits de contenus sur injonctions d’une autorité judiciaire ou administrative, il ne peut pas imposer une obligation générale de retirer un contenu à partir d’une notification. « Une telle obligation serait incohérente avec la nature de l’exemption de responsabilité de l’article 5 », qui place cette décision entre les mains de la plateforme, répond la Commission.
Des marges contre la pédopornographie
Autre sujet brûlant, la lutte contre les abus sur mineurs. Au sortir d’une réunion des ministres de la Justice, début mars, le Conseil a insisté pour l’inclure dans le Digital Services Act. Dans leurs questions à la Commission, l’Allemagne et la Croatie s’enquièrent de cette possibilité.
En parallèle, le Parlement et le Conseil peinent à s’accorder sur la dérogation à e-privacy pour lutter contre la pédopornographie.
Réponse : les signalements par les plateformes des soupçons « d’infraction pénale grave impliquant une menace pour la vie ou la sécurité des personnes », de l’article 21 du DSA le permettent. Le règlement laisse aux législations nationales et européennes le soin de désigner ces contenus, quitte à aller au-delà de la directive de 2011 couvrant les abus sur mineurs.
En parallèle, l’Allemagne veut obliger les plateformes à signaler aux autorités les symboles anticonstitutionnels et le recel de contrefaçon « pour faciliter les poursuites pénales ». Coup d’épée dans l’eau : un État ne peut pas compléter la liste des infractions pénales de l’article 21. Même refus pour la Roumanie, qui propose d’étendre cette obligation aux petites plateformes.
Les moteurs de recherche, très grandes plateformes en puissance
Concernant encore les obligations, les moteurs de recherche peuvent être de très grandes plateformes, confirme la Commission au Danemark. Ils sont couverts par les règles des hébergeurs, plateformes et très grandes plateformes « dans la mesure où ils offrent des services couverts par ces dispositions, en particulier le cache ou l’hébergement ».
La désignation est décidée au cas par cas. « L’hébergement de vignettes d’images et l’index incluant des liens vers le contenu originel » peuvent entrer en compte, estime la Commission.
Qu’est-ce qu’une connaissance d’un contenu ?
Le déclenchement de la responsabilité des plateformes est aussi épineux. L’Irlande et le Luxembourg, où sont installées la plupart des très grandes plateformes, pointent l’article 14.3, qui déclare que le fournisseur de service a connaissance du contenu illicite s’il reçoit une notification.
L’Irlande, « particulièrement inquiète », juge trop fragile l’idée qu’un hébergeur peut avoir connaissance d’un contenu illicite à partir de l’avis d’un seul modérateur. Cette définition n’est « pas suffisamment robuste » pour une éventuelle confrontation en justice, estime l’État. Réponse de la Commission : les signalements doivent être assez étayés, ce qui fournit un haut niveau de protection contre les abus.
La directive SMA a préséance sur la publicité
Enfin, le Luxembourg demande de clarifier l’obligation de transparence sur la publicité (article 24), déjà présente dans la directive sur les Services de médias audiovisuels (SMA). La Commission insiste : les obligations du DSA sur la publicité diffèrent de celles de la directive SMA, en particulier sur les obligations d’information.
Ainsi, le DSA ne couvre pas toutes les « communications commerciales audiovisuelles » visées par SMA. Quand les deux se superposent, le futur règlement cède sa place à la directive, par exemple pour les obligations des plateformes de partage vidéo d’identifier les contenus audiovisuels comme tels.
La France, passion financement et marketplaces
Les quelques questions françaises surprennent peu. Elle demande à la Commission d’assécher les financements des contenus illicites (« follow the money »), en incluant ce point aux risques systémiques des articles 26 et 27. Elle se demande aussi si le DSA ne s’ingère pas dans le traitement au cas par cas des contenus, alors qu’il prétend ne traiter que des questions systémiques. Enfin, il trouve le DSA léger sur la protection des consommateurs, seulement concernée par l’article 22 sur la traçabilité des vendeurs. Il demande donc les options que la Commission a envisagées, puis écartées, concernant les marketplaces, sans obtenir ici de vraie réponse de l’exécutif.