Selon un engagement présenté au régulateur britannique, la plateforme X affirme vouloir réduire plus efficacement les contenus liés à la haine et au terrorisme au Royaume-Uni. La promesse repose notamment sur un traitement plus rapide des signalements et sur des restrictions d’accès visant certains comptes identifiés. Toutefois, des études et des critiques antérieures soulignent que la mise en œuvre réelle demeure un point central.
Des engagements auprès d’Ofcom
La démarche d’X intervient dans le cadre des exigences de l’autorité britannique de régulation des services en ligne, Ofcom. L’entreprise indique vouloir accélérer l’examen des contenus jugés offensants et, dans certains cas, « bloquer l’accès au Royaume-Uni » pour des comptes associés à des organisations terroristes ou agissant pour leur compte.
Dans les détails communiqués, X s’engage à réviser et évaluer les contenus liés au terrorisme et à la haine « en moyenne » dans un délai de 24 heures après leur signalement. À défaut, la plateforme prévoit d’atteindre l’examen d’au moins 85 % de ces contenus dans un délai maximal de 48 heures. X annonce également vouloir s’appuyer sur des experts et procéder à des bannissements d’utilisateurs lorsque des violations sont confirmées.
Un contrôle prévu sur un an
De son côté, Ofcom indique qu’elle examinera périodiquement les performances rapportées par X. Le suivi porterait sur la base de données d’activité communiquées au fil des trimestres durant l’année à venir, afin d’évaluer si les engagements se traduisent par des résultats.
Le défi de la crédibilité face aux critiques passées
Ces promesses interviennent dans un contexte déjà contesté. Des travaux de recherche ont notamment pointé une hausse des discours haineux sur X, attribuée en partie à la présence de comptes automatisés. Dans ces conditions, l’argument de la « réduction » se heurte à une question simple : les mesures annoncées seront-elles suffisamment appliquées pour infléchir la tendance, et pas seulement pour des cas spécifiques ou géographiquement ciblés ?
Plus largement, le débat porte aussi sur la cohérence des actions de modération au regard d’événements et de publications controversées ayant suscité des réactions. L’engagement auprès d’un régulateur peut établir un cadre, mais il ne garantit pas à lui seul le respect des règles et la constance des efforts dans le temps.
Ce que peuvent faire les utilisateurs au quotidien
Même dans un environnement en cours de régulation, la vigilance individuelle reste utile : signaler les contenus problématiques, renforcer les paramètres de confidentialité et limiter l’exposition aux comptes à risque. Pour améliorer la gestion des notifications et des interactions, certains utilisateurs s’appuient aussi sur des outils matériels et logiciels visant à sécuriser leurs appareils et à réduire l’exposition aux contenus indésirables.
- Un casque antibruit peut aider à se protéger des distractions lors de la consultation de contenus en ligne, par exemple avec un casque antibruit pour travailler ou naviguer dans de meilleures conditions.
- Pour sécuriser davantage l’environnement numérique, beaucoup se tournent vers un routeur Wi‑Fi orienté sécurité, afin d’améliorer la protection du réseau domestique face aux menaces courantes.
En définitive, l’annonce d’X au Royaume-Uni marque une étape réglementaire, centrée sur des délais de traitement et sur des restrictions ciblées. Reste à vérifier, dans la durée, si cette approche permet de réduire concrètement les contenus haineux et terroristes, et si les contrôles d’Ofcom mettront en évidence des améliorations mesurables.

