IA

Facebook à nouveau dans le viseur du Wall Street Journal

Les intelligences artificielles utilisées par Facebook dans les algorithmes de régulation des contenus haineux filtreraient entre 3 et 5 % de la totalité des messages, révèle le quotidien américain. Des chiffres qui viennent confirmer ceux avancés par la lanceuse d’alerte Frances Haugen et éclairer certains communiqués à l’Informaticien en juin dernier.

« L’intelligence artificielle : meilleur outil contre la haine et la désinformation ? » interrogions-nous fin juin dernier, alors que plusieurs entreprises françaises ainsi que Facebook l’avait choisi pour tenter d’endiguer un phénomène devenu plus que problématique. Le Wall Street Journal vient nuire au discours triomphant de Facebook sur la question.

L’intelligence artificielle utilisée par Facebook aurait plusieurs trous dans la raquette selon le Wall Street Journal après une nouvelle investigation publiée dimanche 17 octobre 2021. Le quotidien révèle, en outre, des difficultés à détecter des vidéos de tueries en direct, un cas unique où des combats de coqs sont confondus pour des accidents de voiture et un taux de retrait des contenus haineux, racistes et violents extrêmement faible.

L’article vient s’ajouter aux Facebook Files, une série de six articles d’investigation du journal sur plusieurs pratiques de l’entreprise, et dresse un nouveau portrait peu flatteur de l’efficacité des outils mis en place pour lutter contre la haine en ligne, à l’inverse du discours affiché par Mark Zuckerberg et plusieurs de ses employés.

Selon des documents internes, les algorithmes de Facebook ne supprimeraient qu’entre 3 et 5 % de l’ensemble des contenus haineux, pour un total de 0,6 % de l’ensemble de ce que l’entreprise considère comme relevant de sa politique contre les contenus violents. Ces chiffres sont ceux avancés par Frances Haugen, lanceuse d’alerte interrogée par l’émission 60 Minutes début octobre et principale source des Facebook Files.

Puisqu’on vous dit qu’il faut regarder le taux de prévalence

A L’Informaticien, Facebook avait confirmé avoir retiré 26,9 millions de contenus haineux au 4ème trimestre de l’année 2020. En se basant sur l’estimation la plus haute (5%) des documents révélés par le Wall Street Journal, 513 millions de messages haineux seraient donc passés sous les radars de l’algorithme.

Toujours à L’Informaticien, Facebook mettait en avant un chiffre plus flatteur : celui d’un taux de prévalence – soit la capacité à supprimer un message avant qu’il ne soit signalé de 97,1 %.

« Nous pensons que la mesure la plus importante est de se concentrer sur la prévalence, soit la quantité de contenus haineux que les utilisateurs voient sur la plateforme, » a affirmé Guy Rosen, vice-président en charge de l’intégrité chez Facebook dans un communiqué de presse publié à la suite des révélations, ajoutant que le visionnage de contenu haineux représentait 5 posts tous les 10 000.

« Les données extraites des documents sont utilisés pour donner l’impression que les technologies que nous utilisons pour comprendre la haine en ligne sont inappropriés et que nous déformons nos progrès. Ce n’est pas vrai », a ajouté Guy Rosen.


Correction: Une première version de cet article a tiré une mauvaise conclusion mathématique en associant les deux chiffres de 97,1% et les 3 à 5%. Il est mathématiquement incorrect d'écrire que le chiffre de 97,1% communiqué par Facebook soit tout ou partie des 3 à 5%.