Site icon ACADROIT-Spécialiste en droit du numérique

Twitter teste un « mode sécurité » contre la haine en ligne

Bien conscient des soucis de harcèlement et de trolling qui plombent son réseau, Twitter passe à l’offensive et lance Safety Mode, une fonction de blocage automatique de compte.

Bientôt moins d’insultes et de harcèlement sur Twitter ? Le réseau social vient d’annoncer le lancement – en test pour le moment – d’une fonction baptisée Safety Mode (« Mode sécurité », en français). Elle vise à « réduire les interactions perturbatrices », indique Twitter dans un communiqué qui nous a été transmis en amont de cette annonce.

Un nouveau module au fonctionnement aussi simple que radical, qui consiste en un blocage temporaire et automatique d’un compte qui vous envoie des messages problématiques.

Concrètement, un utilisateur pourra activer le Safety Mode depuis la section « Confidentialité et Sécurité » des paramètres de Twitter, que ce soit sur Android, iOS ou le Web.

Une fois cette option activée, la technologie mise en place par Twitter « évoluera la probabilité d’un engagement négatif – une insulte ou une menace en réponse à votre tweet, par exemple – en prenant en compte à la fois le contenu du tweet et la relation entre l’auteur du tweet et le répondant » explique l’entreprise.

Safety Mode fera la différence entre un compte avec lequel vous interagissez souvent et un twitto inconnu, de façon à éviter de bloquer d’éventuels amis grossiers.

Comme d’autres géants des réseaux sociaux, Twitter permet aux utilisateurs de signaler les publications qu’ils considèrent comme haineuses, y compris les messages racistes, homophobes et sexistes. Mais de nombreux utilisateurs se plaignent depuis longtemps que des failles dans la politique de Twitter permettent aux commentaires violents et discriminatoires de rester en ligne dans de nombreux cas.

La plateforme est notamment poursuivie en France par six groupes anti-discrimination qui accusent l’entreprise de manquements « persistants » à bloquer les commentaires haineux. La justice française a ordonné en juillet dernier à Twitter de communiquer, dans un délai de deux mois, des documents détaillant ses moyens de lutte contre la haine en ligne.

Bloquer temporairement les comptes qui vous polluent

Pas besoin d’être une personnalité politique ou un influenceur connu pour avoir connu le stress des conversations malsaines, parfois agressives et souvent indésirables. Un stress qui affecte aussi mentalement lorsque l’on est seul face à son écran. Alors, la firme californienne a travaillé avec des spécialistes de la santé mentale, mais aussi des experts de la sécurité en ligne pour élaborer une nouvelle fonction qui vienne en aide aux utilisateurs pour apaiser le plus grand nombre et éviter qu’ils ne quittent la plateforme.

Twitter annonce ce mercredi une nouvelle mesure pour être encore plus à l’aise sur son fil et échanger en toute tranquillité, tout en contrôlant son expérience et ses interactions. À compter de ce jour, le mode Sécurité va être déployé (Safety Mode en anglais). Il s’agit d’une nouvelle fonction qui vise à réduire les interactions perturbatrices, celles qui sont source de stress et d’échanges toxiques.

Disponible tout d’abord pour les comptes paramétrés en anglais et pour un petit groupe d’utilisateurs (iOS, Android ou Twitter.com), le Safety Mode permettra de bloquer temporairement des comptes qui multiplient les insultes, remarques haineuses, envoient des messages non sollicités ou répétitifs, vous mentionnent à outrance sans votre accord. Durant sept jours renouvelables, vous aurez la paix.

Écarter les interactions nuisibles automatiquement

Il suffit d’activer la fonction dans les paramètres pour que le compte soit remonté à Twitter qui va alors évaluer l’attitude et estimer la probabilité d’un engagement négatif à votre encontre. Le système se basera alors sur le contenu du tweet, la relation entre l’auteur du message et le destinataire. « Notre technologie tient compte des relations existantes, de sorte que les comptes que vous suivez ou avec lesquels vous interagissez fréquemment ne soient pas bloqués automatiquement », explique Twitter.

Les auteurs des tweets jugés nuisibles ou non sollicités seront automatiquement bloqués. Ils ne pourront pas lire ce que vous publiez ni vous contacter. Se basant sur son système de détection de contenus sexistes, racistes, xénophobes ou d’incitation à la violence et la haine, Twitter s’est entouré également de véritables utilisateurs, de nombreuses femmes et de spécialistes des droits de l’Homme pour mettre au point sa fonction.

Testé par des femmes journalistes

Cette nouvelle fonction a été également testée en amont par un petit nombre d’utilisateurs, la priorité étant donnée aux femmes journalistes et aux membres d’autres groupes se retrouvant souvent la cible d’abus.

Comme d’autres géants des réseaux sociaux, Twitter permet aux utilisateurs de signaler les publications qu’ils considèrent comme haineuses, y compris les messages racistes, homophobes et sexistes. Mais de nombreux utilisateurs se plaignent depuis longtemps que des failles dans la politique de Twitter permettent aux commentaires violents et discriminatoires de rester en ligne dans de nombreux cas.

La plateforme est notamment poursuivie en France par six groupes anti-discrimination qui accusent l’entreprise de manquements “persistants” à bloquer les commentaires haineux. La justice française a ordonné en juillet dernier à Twitter de communiquer, dans un délai de deux mois, des documents détaillant ses moyens de lutte contre la haine en ligne.

Comment activer le Safety Mode ?

Si vous pouvez bénéficier du mode Sécurité, il faut activer la fonction dans les paramètres et depuis la rubrique Confidentialité et Sécurité.

Les détails des comptes bloqués sont consultables à tout moment ainsi que les informations sur les tweets épinglés par le Safety Mode. Cela permet notamment d’annuler une restriction si elle n’a pas été bien jugée par le système qui est toujours en phase d’apprentissage et d’amélioration de sa détection. Au bout des sept jours, vous recevrez une notification récapitulative, une façon aussi de décider s’il faut continuer à bloquer la personne ou non.

Twitter poursuivit en France

Comme d’autres géants des réseaux sociaux, Twitter permet aux utilisateurs de signaler les publications qu’ils considèrent comme haineuses, y compris les messages racistes, homophobes et sexistes. Mais de nombreux utilisateurs se plaignent depuis longtemps que des failles dans la politique de Twitter permettent aux commentaires violents et discriminatoires de rester en ligne dans de nombreux cas.

La plateforme est notamment poursuivie en France par six groupes anti-discrimination qui accusent l’entreprise de manquements «persistants» à bloquer les commentaires haineux. La justice française a ordonné en juillet dernier à Twitter de communiquer, dans un délai de deux mois, des documents détaillant ses moyens de lutte contre la haine en ligne.

L’annonce de Twitter intervient quelques semaines après que son concurrent Instagram (filiale de Facebook) a dévoilé de nouveaux outils pour lutter contre les contenus abusifs et racistes, à la suite notamment d’une série de commentaires haineux dirigés contre des footballeurs noirs de l’équipe d’Angleterre lors du dernier championnat d’Europe des nations.

Quitter la version mobile