Le terme « fake news » n’a plus de sens.
Demandez simplement à Mary Blankenship, chercheuse en politiques à l’UNLV et originaire d’Ukraine.
En analysant quelque 34 millions de tweets sur la guerre en Ukraine, l’étudiante diplômée et chercheuse de Brookings Mountain West de l’UNLV a découvert qu’il existe une abondance de ce qu’elle appelle pollution de l’information.
Le projet a commencé par rechercher environ 12 millions de tweets, mais ce nombre a triplé en seulement trois semaines. Sa principale trouvaille ? Les fausses nouvelles sont bien vivantes.
Malheureusement, il est également très difficile de déterminer ce que signifient les « fausses nouvelles ».
À l’origine, sur les réseaux sociaux en particulier, les fausses nouvelles étaient uniquement liées à la désinformation. Étant donné que toute personne disposant d’une adresse e-mail peut créer un compte Twitter, il n’y a aucun processus de vérification et aucun moyen de vérifier tout ce que vous publiez.
Twitter a travaillé dur pour analyser sa propre plate-forme et bloquera occasionnellement certains contenus ou émettra un avertissement concernant une éventuelle désinformation, mais des opinions non informées dominent toujours la journée. En un simple coup d’œil aux tweets sur la guerre en Ukraine, il n’est pas facile de dire qui diffuse des informations factuelles et qui est simplement sur une boîte à savon.
Et c’est bien pire en Russie.
Blankenship a découvert que le terme « fake news » signifie quelque chose de très différent dans ce pays. L’utilisation du terme «guerre» peut entraîner une peine de 15 ans de prison, note-t-elle. La Russie qualifie régulièrement toute information sur la guerre de fausses nouvelles, ce qui signifie qu’elle a réquisitionné le terme lui-même.
Blankenship a également constaté que les clients VPN sont interdits, il est donc extrêmement difficile de trouver des informations précises qui ne sont pas filtrées ou bloquées par les fournisseurs de services Internet.
« Cette ‘pollution de l’information’ déplace l’attention des problèmes réels vers la discussion de ce qui est réel et de ce qui ne l’est pas, ce qui peut retarder la prise de décision, voire l’arrêter complètement. Dans une situation volatile comme celle-ci, où la vie de tant de personnes est en jeu, même un petit retard dans la prise de décision pour discuter de cette désinformation peut avoir de graves répercussions », note-t-elle dans son rapport.
Parce que les médias sociaux sont en partie une forme d’appât au clic pour augmenter le trafic sur les sites Web, cela n’aide pas qu’il y ait maintenant des centaines de sites contrôlés par la Russie qui diffusent de la désinformation. Cela signifie qu’il est de plus en plus difficile de savoir si une publication sur les réseaux sociaux qui mène à un site Web est réellement légitime.
Nous avons tous été formés pour penser qu’un lien aide à valider une affirmation, mais les personnes qui diffusent des informations erronées savent qu’une conception Web professionnelle suffit pour convaincre les gens que quelque chose est vrai. Les fausses nouvelles sont désormais un terme si fluide que vous n’avez besoin que d’un compte GoDaddy pour créer un site Web et commencer à diffuser des informations erronées.
Blankenship dit qu’une bonne tactique consiste pour l’armée de citoyens des médias sociaux à rapporter des informations sur les plateformes qui sont manifestement fausses. Elle suggère également que commenter des publications non informées n’est pas une bonne idée, principalement parce que l’algorithme récompensera les publications populaires. Les algorithmes ne sont pas assez intelligents pour savoir que l’engagement provient de ceux qui ne sont pas d’accord avec les affirmations.
En fin de compte, c’est le problème le plus grave de tous : que les algorithmes contrôlent le flux des nouvelles. Maintenant que le terme « fake news » n’a plus de sens, nous avons confié l’agrégation des nouvelles à des robots qui ne semblent pas connaître la différence entre la vérité et le mensonge. En fin de compte, ils veulent seulement que vous cliquiez.