Le Quotidien du 1 mai 2023 : Internet

[Brèves] Règlement sur les services numériques : désignation des premières très grandes plateformes et des très grands moteurs de recherche

Réf. : Commission européenne, communiqué de presse IP/23/2413, 25 avril 2023

Lecture: 4 min

N5264BZY

Citer l'article

Créer un lien vers ce contenu

[Brèves] Règlement sur les services numériques : désignation des premières très grandes plateformes et des très grands moteurs de recherche. Lire en ligne : https://www.lexbase.fr/article-juridique/95595254-breves-reglement-sur-les-services-numeriques-designation-des-premieres-tres-grandes-plateformes-et-d
Copier

par Vincent Téchené

le 28 Avril 2023

► La Commission a adopté aujourd'hui les premières décisions de désignation au titre du Règlement sur les services numériques (Règlement (UE) n° 2022/2065, du 19 octobre 2022 N° Lexbase : L7614MEQ), désignant dix-sept très grandes plateformes en ligne et deux très grands moteurs de recherche en ligne, comptant au moins 45 millions d'utilisateurs actifs par mois.

Très grandes plateformes en ligne :

  • Alibaba AliExpress
  • Amazon Store
  • Apple AppStore
  • Booking.com
  • Facebook
  • Google Play
  • Google Maps
  • Google Shopping
  • Instagram
  • LinkedIn
  • Pinterest
  • Snapchat
  • TikTok
  • Twitter
  • Wikipedia
  • YouTube
  • Zalando

Très grands moteurs de recherche en ligne:

  • Bing
  • Google Search

À la suite de leur désignation, les entreprises devront se conformer, dans un délai de quatre mois, à l'ensemble des nouvelles obligations découlant du Règlement sur les services numériques. Celles-ci visent à autonomiser et à protéger les utilisateurs en ligne, y compris les mineurs, en exigeant des services désignés qu'ils évaluent et atténuent leurs risques systémiques et qu'ils fournissent des outils permettant une modération efficace des contenus.

Des moyens d'action accrus pour les utilisateurs :

  • les utilisateurs seront informés clairement des raisons pour lesquelles certaines informations leur sont recommandées et ils auront le droit de se soustraire aux systèmes de recommandations fondés sur le profilage ;
  • les utilisateurs pourront signaler facilement les contenus illicites et les plateformes devront traiter ces signalements avec diligence ;
  • les données sensibles des utilisateurs (telles que l'origine ethnique, les opinions politiques ou l'orientation sexuelle) ne pourront pas servir à sélectionner les publicités présentées ;
  • les plateformes devront étiqueter toutes les publicités et indiquer l'identité de leurs promoteurs aux utilisateurs ;
  • les plateformes doivent fournir un résumé de leurs conditions générales aisément compréhensible et rédigé dans un langage clair, dans les langues des États membres où elles exercent leurs activités.

Une solide protection en ligne des mineurs :

  • les plateformes devront repenser leurs systèmes afin d'assurer un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs ;
  • les publicités fondées sur un profilage s'adressant aux enfants ne sont plus autorisées ;
  • des évaluations spéciales des risques, portant notamment sur les effets négatifs sur la santé mentale, devront être fournies à la Commission quatre mois après la désignation et rendues publiques au plus tard un an plus tard ;
  • les plateformes devront revoir la conception de leurs services, y compris leurs interfaces, systèmes de recommandations et conditions d'utilisation, afin d'atténuer ces risques.

Une modération des contenus plus diligente, moins de désinformation :

  • les plateformes et les moteurs de recherche doivent prendre des mesures pour traiter les risques liés à la diffusion de contenus illicites en ligne et les effets négatifs sur la liberté d'expression et d'information ;
  • les plateformes doivent disposer de conditions générales claires et les faire respecter avec diligence et de manière non arbitraire ;
  • les plateformes doivent mettre en place un mécanisme permettant aux utilisateurs de signaler les contenus illicites, et doivent réagir promptement à ces signalements ;
  • les plateformes doivent analyser leurs risques spécifiques et mettre en place des mesures d'atténuation, par exemple pour empêcher la propagation de la désinformation et l'utilisation non authentique de leurs services.

Plus de transparence et une obligation accrue de rendre des comptes :

  • les plateformes doivent soumettre à un audit externe et indépendant leur évaluation des risques et les mesures qu'elles prennent pour assurer le respect de toutes les obligations découlant du Règlement sur les services numériques ;
  • elles devront permettre aux chercheurs d'accéder aux données publiquement accessibles. Par la suite, un mécanisme spécial sera mis en place pour les chercheurs agréés ;
  • elles devront rendre public le registre de toutes les publicités présentées sur leur interface ;
  • les plateformes doivent publier des rapports de transparence sur les décisions de modération des contenus et la gestion des risques.

Au plus tard quatre mois après la notification des décisions de désignation, les plateformes et moteurs de recherche désignés devront avoir adapté leurs systèmes, ressources et processus de mise en conformité, mis sur pied un système indépendant de contrôle de la conformité, effectué leur première évaluation annuelle des risques et l'avoir communiquée à la Commission.

Les plateformes devront identifier, analyser et atténuer toute une série de risques systémiques, allant de la manière dont les contenus illicites et la désinformation peuvent être amplifiés via leurs services à l'incidence sur la liberté d'expression et la liberté des médias. De même, des risques particuliers liés à la violence sexiste en ligne ou à la protection des mineurs en ligne et de leur santé mentale doivent être évalués et atténués. Les plans d'atténuation des risques des plateformes et moteurs de recherche désignés feront l'objet d'un audit indépendant et d'une surveillance par la Commission.   

Pour aller plus loin : v. E. Netter, Le Règlement sur les services numériques ou Digital Services Act, Lexbase Pénal, avril 2023, n° 59 N° Lexbase : N5170BZI.

 

newsid:485264

Utilisation des cookies sur Lexbase

Notre site utilise des cookies à des fins statistiques, communicatives et commerciales. Vous pouvez paramétrer chaque cookie de façon individuelle, accepter l'ensemble des cookies ou n'accepter que les cookies fonctionnels.

En savoir plus

Parcours utilisateur

Lexbase, via la solution Salesforce, utilisée uniquement pour des besoins internes, peut être amené à suivre une partie du parcours utilisateur afin d’améliorer l’expérience utilisateur et l’éventuelle relation commerciale. Il s’agit d’information uniquement dédiée à l’usage de Lexbase et elles ne sont communiquées à aucun tiers, autre que Salesforce qui s’est engagée à ne pas utiliser lesdites données.

Réseaux sociaux

Nous intégrons à Lexbase.fr du contenu créé par Lexbase et diffusé via la plateforme de streaming Youtube. Ces intégrations impliquent des cookies de navigation lorsque l’utilisateur souhaite accéder à la vidéo. En les acceptant, les vidéos éditoriales de Lexbase vous seront accessibles.

Données analytiques

Nous attachons la plus grande importance au confort d'utilisation de notre site. Des informations essentielles fournies par Google Tag Manager comme le temps de lecture d'une revue, la facilité d'accès aux textes de loi ou encore la robustesse de nos readers nous permettent d'améliorer quotidiennement votre expérience utilisateur. Ces données sont exclusivement à usage interne.