Le réseau X suscite de nombreuses polémiques. Plusieurs problèmes soulèvent de nombreuses questions, comme l’absence de modération, l’anonymisation constante sur le réseau et la pseudonymisation ou la multiplication des contenus antisémites, racistes et homophobes.
L’affaire du hashtag « #UnBonJuif » a émergé en octobre 2012 sur Twitter, où il est devenu l’un des sujets les plus populaires. Ce hashtag avait été utilisé pour diffuser des messages antisémites, y compris des appels au meurtre tels que « Un bon juif est un juif mort » et « Un bon juif est un tas de cendre ». Ces tweets mêlaient des références à la Shoah, au sionisme et à l’antisémitisme, créant un climat idéologique nauséabond. Ce dérapage avait été dénoncé par plusieurs associations qui avaient assigné Twitter en justice pour contraindre le réseau à lui communiquer, avec l’autorisation du juge, les données permettant d’identifier les auteurs de tweets racistes et antisémites. Après des mois d’une longue bataille judiciaire, le réseau social américain avait livré les données susceptibles de permettre l’identification de certains auteurs de tweets antisémites.
Les « pièges à juifs » étaient des contenus antisémites qui circulaient sur les réseaux sociaux, notamment en Belgique et ailleurs. Ces contenus prenaient souvent la forme de clichés ou d’images qui visaient à ridiculiser ou à stigmatiser les Juifs. Un exemple typique de ces « pièges » était une image montrant un four avec des billets de banque à l’intérieur, parfois avec une boîte contenant quelques pièces. Or, sur Twitter, ces caricatures, dessins, images se répandirent très rapidement. Plusieurs de ces clichés ont été signalés et retirés au fur et à mesure par le réseau social, mais de nouveaux clichés plus ou moins identiques fleurissent depuis.
Sur X, la fonctionnalité est d’une simplicité enfantine
Vous créez votre compte en quelques secondes. Pour ce faire, vous pouvez utiliser un pseudonyme quelconque. Ce pseudonyme (ou votre nom de famille) s’ouvre par le fameux arobase : @. Puis, vous vous abonnez à d’autres comptes. Par la suite, vous pourrez créer des listes d’abonnés, suivre des sujets, découvrir les tweets populaires. À cet effet, il existe le référencement « Tendances pour vous. » Ce sont là les sujets (du jour) les plus populaires.
Mais, que se passe-t-il si vous cherchez certains mots-clés, populaires ou non ?
Que trouve-t-on par exemple, avec les mots… « Nègre », « Youpin », « Bougnoul » ? Vous trouverez des tweets profondément racistes, antisémites et homophobes. Dans ce cas, ce qui est incroyable ici c’est l’extrême pauvreté du langage, la misère de l’expression, les insultes qui fusent si facilement, souvent avec une connotation sexuelle, l’utilisation de smileys, etc. Et pourtant, ce sont là quelques tweets classés comme populaires, parce qu’ils ont été retwittés, commentés, échangés. Peu importe le sujet d’ailleurs.
X, c’est donc (aussi) cette valse horrible de messages en 280 caractères. Prenons quelques exemples :
« Sale juif, tu vas crever », « ta mère est morte dans les camps, tu vas crever », « va te faire foutre sale juif », « sale pd », « femme, je te viole », « j’vais te défoncer sale noir », « Nique la France», « J’baiserai la France, jusqu’à ce qu’elle m’aime», « Tu parles des arméniens de 1915, ils auraient dû tous vous tuer », « ça sent le brûlé, il y a un juif à côté de moi », « parle français, sale noir », « …ta gueule, sale français de merde, dommage que tu sois pas mort au Bataclan », « sale musulman, on va t’égorger… »
X, le très mauvais élève
D’après une étude commandée par la Commission européenne, X est la problématique des plateformes grand public quand il s’agit de lutter contre la haine en ligne. Durant une opération de contrôle réalisée entre le 20 janvier et le 28 février 2020 sur un échantillon de 484 contenus haineux sur quatre plateformes (YouTube, Facebook, Instagram, Twitter), l’organisme sCAN (Specialised Cyber-Activists Network), qui expertise, outils, méthodologie et connaissances sur la cyberhaine, a relevé que seuls 58 % d’entre eux avaient été retirés sur la période. Twitter a enregistré les pires résultats : seuls 9 % des tweets problématiques dénoncés par les utilisateurs avaient été supprimés par la plateforme et 5 % avaient été rendus invisibles aux utilisateurs de la zone géographique. YouTube a fait un peu mieux, avec 26 % des contenus retirés.
Une autre étude a été menée cette fois par l’UEJF, SOS Racisme et SOS homophobie, du 17 mars au 5 mai 2020. Elle montre une augmentation de 43 % du nombre de contenus haineux postés sur Twitter. De façon plus détaillée, le nombre de contenus racistes y a augmenté de 40,5 %, celui des contenus antisémites de 20 % et celui des contenus LGBTphobes de 48 %.
Les associations assignent en justice Twitter
De fait, le 11 mai 2020, l’Union des Étudiants Juifs de France, SOS Racisme, SOS homophobie et l’association J’accuse…! ont assigné devant le tribunal judiciaire de Paris, la plateforme.
Les principales critiques des associations envers X étaient les suivantes :
-Le non-respect de son obligation légale de modération : un testing sur plus de 1100 tweets haineux signalés a montré que Twitter n’avait promptement supprimé que 12% d’entre eux dans un délai de 3 à 5 jours
-Le manque d’information sur sa politique de modération : les associations demandaient la nomination d’un expert judiciaire pour obtenir des données sur les moyens humains et matériels mis en œuvre par X pour lutter contre la haine en ligne.
L’issue de la procédure engagée par les associations a abouti à une décision significative. Le 20 janvier 2022, la cour d’appel de Paris a confirmé une ordonnance antérieure du tribunal judiciaire de Paris, enjoignant X à fournir des informations détaillées sur les moyens qu’il met en œuvre pour lutter contre la haine en ligne.
Par ailleurs, la Commission européenne a récemment demandé à X de fournir des informations détaillées sur ses ressources de modération de contenu, en raison d’une réduction significative de son équipe de modérateurs, qui a diminué de près de 20 % depuis le rapport précédent d’octobre 2023.
Quelle modération sur X ?
Depuis le rachat de Twitter par Elon Musk, 12 000 comptes ont été rétablis, dont une partie pourtant suspendue pour des propos racistes. Elon Musk, le libertarien, prône l’abstention de toute ingérence publique pour fixer la conduite à tenir sur les réseaux. Et, même s’il affirme que les règles de modération devraient se limiter à l’avenir aux lois de chaque pays, il trouve la modération de la plateforme X trop contraignante. C’est tout dire.
Lors de son arrivée tonitruante à la tête de Twitter, Elon Musk avait immédiatement remercié ses dirigeants et licencié la grande majorité de son personnel, dont les effectifs sont passés de 7500 à 1500 employés dans le monde[1]. Elon Musk a licencié 80 % des ingénieurs logiciels qui étaient en charge de la lutte contre les contenus illicites. Le 5 novembre 2023, contrainte par le Digital Service Act, X se résout enfin à exposer au grand jour la faible taille de ses équipes de modération. X explique dans un rapport qu’elle aurait une équipe internationale et interfonctionnelle de modérateurs humains qui travailleraient 24 sur 24, avec la capacité de couvrir plusieurs langues. Et, X de livrer les résultats suivants, selon les langues parlées et le nombre de modérateurs dans ces différentes langues :
Langue arabe : 12 modérateurs
Croate 2
Bulgare 1
Néerlandais 1
Anglais 2294
Français 52
Allemand 81
Hébreu 2
Italien 2
Letton 1
Polonais 1
Portugais 41
Espagnol 20
Il y aurait donc 2510 modérateurs alors que, chaque jour, près de 500 millions de tweets sont publiés dans le monde (avril 2022) et que, près de 200 milliards de tweets sont publiés chaque année sur X.
https://www.blogdumoderateur.com/chiffres-twitter

