Ces chercheurs expliquent comment on se radicalise sur Internet

Rallygoers lined up to enter the Target Center arena for a Donald J. Trump for President rally in Minneapolis, Minnesota.

Une étude explore le rôle des communautés en ligne dans la montée en puissance des opinions radicales.

Les luttes de pouvoir sont tout sauf nouvelles et elles sont même sans doute là depuis les débuts de l’humanité. Il suffit toutefois de passer quelques minutes sur les grands réseaux sociaux pour se rendre compte que quelque chose cloche.

Il semble en effet de plus en plus difficile aux citoyens de discuter sereinement en ligne. Les opinions radicales y sont d’ailleurs surreprésentées, ce qui peut donner une idée fausse de l’opinion publique et influencer certains internautes.

Des chercheurs de l’Université de Californie du Sud viennent justement de publier une étude pour comprendre le rôle joué par les communauté en ligne dans l’émergence de ces positions radicales. Un constat s’impose d’emblée : plus les groupes sont soudés idéologiquement, plus il est probable que ses membres se sentent légitimes à tenir des discours de haine.
Cité par MedicalNewsToday, Mohammad Atari, l’auteur principal de cette recherche, explique pour sa part :

Je vois certainement qu’une partie du problème est enracinée dans les plateformes. Les gens ont tendance à s’incruster dans des environnements idéologiquement proches, des sources d’information, des bots, etc. Par conséquent, ils ne parviennent pas à voir la situation dans son ensemble – qu’il existe des gens bien, avec des opinions différentes, qui peuvent être légitimes.
« Les algorithmes sont conçus pour maximiser le profit, pas le bien-être »
Les scientifiques reprennent à leur compte la théorie de la bulle de filtres qui enferme idéologiquement les internautes. Il y a donc une sorte d’ethnocentrisme qui conduit les personnes à s’engager dans des actes radicaux pour défendre les intérêts de leur groupe d’appartenance. L’intensité varie cependant grandement et va « d’un tweet indigné » à « l’attaque d’un bâtiment fédéral ». Même si elle n’est pas nommée, on pense évidemment ici à l’intrusion du 6 janvier 2021 au Congrès américain par des partisans de Donald Trump.

Bien sûr, ces dérives se produisent dans certains groupes très particuliers. Les auteurs ironisent d’ailleurs en expliquant que « si un groupe d’utilisateurs de Twitter s’intéresse au thé vert ou aux voitures de collection, il est difficile d’imaginer que quelque chose d’extraordinairement pernicieux sorte de cette bulle. »
Leur travail a donc porté sur le réseau social Gab. Très prisé par l’extrême droite américaine, il est connu pour certaines dérives, et sa célébration de la liberté d’expression parfois au détriment de la modération des discours haineux.

Des commentaires misogynes à foison sur certains subreddits
L’analyse a porté sur un vaste échantillon. Ainsi 24 millions de publications provenant de 237 000 utilisateurs ont été passé au crible par une intelligence artificielle, tandis que 7700 messages provenant de 800 comptes ont été épluchés par les chercheurs.

Sans grande surprise, les membres des communautés soudées par des thèmes telles que l’immigration « deviennent plus susceptibles de développer un sentiment instinctif de devoir moral » qui peut dériver vers un devoir d’agir selon ses convictions.
Une autre partie de l’étude consistait à scruter des publications misogynes sur des subreddits de la communautés Incels. Sur leur échantillon, 90 % des publications incitaient à la haine contre les femmes…

Forts de ces constats, les auteurs appellent les réseaux sociaux à réagir en modifiant leurs plateformes, même si à ce jour, cela ne semble pas trop les préoccuper et « leurs algorithmes sont conçus pour maximiser le profit, pas le bien-être », déplore Mohammad Atari.