
Les modérateurs bénévoles de groupes Facebook pensaient avoir tout vu, mais non. Depuis le 24 juin, une vague de suspensions massives frappe des milliers de communautés, pourtant tout à fait banales, du réseau social. Animaux, Pokémon, jeux de société, astuces shopping ou encore conseils parentaux : rien d'extrême ou de subversif dans ces groupes ciblés. Pourtant, leurs administrateurs reçoivent des notifications alarmantes, évoquant des contenus liés au terrorisme ou à la nudité.
Des groupes anodins étiquetés "dangereux"
L'origine du problème, selon un porte-parole de Meta interrogé par nos confrères américains de TechCrunch, serait une simple « erreur technique ». Une explication vague, qui peine à rassurer les administrateurs concernés. Plusieurs communautés populaires, notamment un groupe de passionnés d'oiseaux comptant près d'un million de membres, se sont ainsi retrouvées bloquées pour « nudité » supposée.
Certains utilisateurs gérant plusieurs communautés ont même perdu simultanément tous leurs groupes, voyant des années de travail bénévoles réduites à néant en un instant (perte de photos et de documents en tout genre, y compris professionnels). Des utilisateurs mécontents du réseau social ont même lancé une pétition, pointant les failles de la modération par IA.
Le problème du support
Face aux explications minimalistes de Meta, la piste d'une modération automatisée mal calibrée gagne du terrain. La firme américaine, comme d'autres plateformes telles que Pinterest ou Tumblr avant elle, utilise largement l'intelligence artificielle pour identifier et supprimer les contenus problématiques. S'il arrive parfois que l'algorithme perde les pédales, ce n'est pas le seul point de crispation pour les signataires de la pétition.
Ces derniers plaident également pour que Meta fournisse un « vrai support humain ». En effet, il est devenu très difficile d'obtenir de l'aide d'un véritable salarié de l'entreprise, quel que soit le motif. Les processus sont soit automatisés, soit inexistants, la société se contentant dans beaucoup de cas de fournir un ensemble de pages internet de support pour résoudre soi-même le problème rencontré. Sans compter la difficulté de trouver les bonnes ressources dans les pages d'aide.
Loin d'être un cas isolé
Facebook n'est pas le seul concerné par ce genre de problèmes. Tumblr a récemment admis avoir malencontreusement supprimé des contenus ordinaires en testant de nouveaux filtres. De son côté, Pinterest avait aussi évoqué une « erreur interne », sans pour autant confirmer le rôle joué par son IA.
Quoi qu'il en soit, c'est un nouvel épisode embarrassant pour Meta, déjà empêtré ces derniers mois dans diverses affaires : vol de données personnelles, arnaques crypto, fausses publicités et fuites massives de mots de passe. Entre la course à l'automatisation et le besoin d'une modération humaine pertinente, l'équilibre semble toujours aussi difficile à trouver pour Mark Zuckerberg et ses équipes.



















