Plusieurs documents internes à l’entreprise pointent les dangers des algorithmes chargés de proposer aux utilisateurs des pages ou groupes qu’ils ne suivent pas.
Le 2 juin 2019, une employée de Facebook crée le profil de Carol Smith, une citoyenne américaine conservatrice fictive, résidant en Caroline du Nord. Ses centres d’intérêt : les enfants, la parentalité, le christianisme et la politique. Mais, alors qu’elle commence à suivre les pages et les groupes qui lui sont suggérés par les algorithmes de Facebook, « il a fallu moins d’une semaine pour avoir une recommandation [de page] QAnon », s’alarme la salariée, en référence au mouvement conspirationniste conservateur dénonçant l’existence d’un vaste réseau pédocriminel qui impliquerait les élites politiques démocrates.
Cette expérience est tirée des documents internes récupérés par l’ex-employée de Facebook Frances Haugen et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde. Deux autres tests pointent eux aussi les risques des algorithmes de recommandation, qui sont chargés de suggérer aux utilisateurs des vidéos, des pages ou des groupes qu’ils ne connaissent pas. En février 2019, le fil d’actualités d’un profil fictif indien est, en trois semaines, « devenu un flux presque constant de contenus nationalistes polarisants, de désinformation et de violence », décrit un document. Dans une troisième expérience, une fausse utilisatrice américaine, plutôt orientée à gauche, se voit dirigée vers des contenus très partisans et anti-Trump.