Malgré les assurances répétées de X (anciennement Twitter) selon lesquelles ses outils de placement publicitaire offrent une sécurité maximale de la marque, garantissant que les promotions payantes n'apparaissent pas à côté de contenus préjudiciables ou répréhensibles dans l'application, de plus en plus d'annonceurs continuent de signaler leurs préoccupations au titre de la « liberté d'expression, pas atteindre ».

Aujourd'hui, Hyundai a annoncé qu'elle suspendait ses dépenses publicitaires sur X, après avoir constaté que ses promotions étaient affichées à côté de contenus pro-nazis.

Cela survient quelques jours seulement après que NBC a publié un nouveau rapport montrant qu'au moins 150 profils à coche bleue dans l’application, ainsi que des milliers de comptes non rémunérés, ont publié et/ou amplifié du contenu pro-nazi sur X ces derniers mois.

X a nié le rapport de NBC plus tôt dans la semaineen l'étiquetant un article « piège », qui manquait de « recherche, d’enquête et de transparence approfondies ». Pourtant, aujourd’hui, un autre annonceur X majeur est confronté au problème exact mis en évidence dans le rapport. Ce que X a reconnu et a suspendu le profil en question, tout en travaillant également avec Hyundai pour répondre à ses préoccupations.

Mais encore une fois, cela continue de se produire, ce qui semble suggérer que la nouvelle approche de X en matière de liberté d'expression n'est pas durable, du moins en termes de réponse aux attentes des annonceurs.

Dans le cadre de l'approche de X « liberté d'expression, pas de portée », davantage de contenus qui enfreignent les politiques de X restent désormais actifs dans l'application, au lieu d'être supprimés par les modérateurs de X, bien que leur portée soit limitée pour limiter tout impact. X affirme également que les publications soumises à ces pénalités de portée ne sont pas éligibles à l'affichage de publicités à côté d'elles. Pourtant, divers rapports d'analyse indépendants ont révélé que les promotions de la marque sont effectivement affichées à côté de ce type de contenu, ce qui signifie qu'il n'est pas détecté comme étant en infraction. par les systèmes de X, ou les contrôles de placement des annonces de X ne fonctionnent pas comme prévu.

La principale préoccupation de X est qu’avec une réduction de 80 % du personnel total, y compris de nombreux employés de modération et de sécurité, la plateforme n’est désormais tout simplement pas équipée pour être en mesure de gérer le niveau de détection et d’action requis pour faire respecter ses règles. Ce qui signifie que de nombreuses publications qui enfreignent les règles sont tout simplement manquées lors de la détection, X s'appuyant plutôt sur l'IA et ses notes communautaires participatives pour faire le gros du travail à cet égard.

Ce que prétendent les experts ne fonctionnera pas.

Chaque plate-forme utilise l'IA pour modérer le contenu à des degrés divers, même s'il est généralement reconnu que de tels systèmes ne sont pas suffisants à eux seuls, les modérateurs humains restant une dépense nécessaire.

Et sur la base des divulgations de l’UE, nous savons que d’autres plateformes ont un meilleur ratio modérateur/utilisateur que X.

Selon les derniers rapports des modérateurs de l'UE, TikTok compte un membre de l'équipe de modération humaine pour 22 000 utilisateurs de l'application, tandis que Meta est légèrement pire, à 1/38 000..

X a un modérateur pour 55 000 utilisateurs européens.

Ainsi, même si X affirme que ses réductions de personnel l'ont rendu bien équipé pour faire face à ses exigences de modération, il est clair qu'il s'appuie désormais davantage sur ses autres systèmes et processus, sans personnel.

Les analystes de sécurité affirment également que les notes communautaires de X ne sont tout simplement pas efficaces à cet égard, les paramètres relatifs à la manière dont les notes sont affichées et au temps qu'il faut pour qu'elles apparaissent, laissant des lacunes importantes dans leur application globale.

Et sur la base des déclarations et positions répétées d’Elon Musk, il semble qu’il préférerait en réalité n’avoir aucune modération en vigueur.

L'opinion de longue date de Musk est que toutes les perspectives devraient avoir la possibilité d'être présentées dans l'application, les utilisateurs pouvant ensuite débattre de chacune d'elles sur ses mérites et décider eux-mêmes de ce qui est vrai et de ce qui ne l'est pas. Ce qui, en théorie, devrait conduire à une plus grande prise de conscience grâce à la participation civique, mais en réalité, cela signifie également que les colporteurs opportunistes de désinformation sont des détectives malavisés sur Internet qui sont capables de gagner du terrain avec leurs théories aléatoires, qui sont incorrectes, nuisibles et souvent dangereuses pour les deux. groupes et individus.

La semaine dernière, par exemple, après qu'un homme a poignardé plusieurs personnes dans un centre commercial en Australie, un compte X vérifié a mal identifié le tueur et a diffusé le nom et les informations de la mauvaise personne à des millions de personnes via l'application.

Autrefois, les comptes à coche bleue étaient ceux auxquels vous pouviez faire confiance pour obtenir des informations précises dans l'application, ce qui était souvent le but de la vérification du compte en premier lieu, mais l'incident a souligné l'érosion de la confiance provoquée par les modifications de X. , les théoriciens du complot étant désormais capables de promouvoir rapidement des idées infondées dans l'application, en payant simplement quelques dollars par mois.

Et ce qui est pire, Musk lui-même s'engage souvent dans des contenus liés au complot, qu'il a admis ne pas vérifier d'aucune manière avant de les partager. Et en tant que titulaire du profil le plus suivi dans l'application, il représente sans doute lui-même le plus grand risque de causer de tels dommages, mais c'est également lui qui prend les décisions politiques au sein de l'application.

Ce qui semble être un mélange dangereux.

C'est aussi celui qui, sans surprise, conduit toujours à l'affichage de publicités à côté de ce type de contenu dans l'application, et pourtant, cette semaine encore, plateforme de mesure publicitaire DoubleVerify a présenté des excuses pour avoir déclaré de manière erronée les informations sur la mesure de la sécurité de la marque de X, tout en réitérant que les taux réels de sécurité de la marque de X sont de « 99,99 % ». Cela signifie que l'exposition de la marque de ce type est limitée à seulement 0,01 % de toutes les annonces affichées dans l'application.

Alors, cette infime marge d’erreur conduit-elle à ce que ces préoccupations répétées soient signalées, ou la sécurité de la marque X est-elle en réalité bien pire qu’elle ne le suggère ?

Il semble, dans l’ensemble, que X a encore quelques problèmes à résoudre, surtout si l’on considère également que le problème de placement de Hyundai n’a été résolu qu’après que Hyundai l’a signalé à X. Il n’a pas été détecté par les systèmes de X.

Et comme les revenus publicitaires de X seraient toujours en baisse de 50 %, une compression importante est également à venir pour l'application, ce qui pourrait faire de l'augmentation du personnel dans cet élément une solution difficile dans les deux cas.