>>Facebook et les ONG défendent à l'unisson les messageries cryptées
>>Facebook veut connecter les cols bleus des entreprises avec son réseau professionnel Workplace
Les pages, groupes et profils partageaient principalement des contenus du groupe de médias Epoch Times (lié au mouvement spirituel Falun Gong, interdit en Chine) et de BL, un média américain favorable au président américain.
Les personnes impliquées dans cette campagne "avaient largement recours à des faux profils - dont beaucoup avaient été automatiquement bloqués par nos systèmes - pour gérer leurs pages et groupes, poster de façon automatisée à très haute fréquence et rediriger des utilisateurs vers d'autres sites", a détaillé Nathaniel Gleicher, responsable de la cybersécurité chez Facebook.
La plateforme s'est aussi aperçue que certains profils affichaient des photos générées par des technologies d'intelligence artificielle, pour se faire passer pour des Américains.
Ils partageaient des textes, des images et des montages sur des sujets de politique américaine, de la procédure de destitution engagée contre Donald Trump aux élections, en passant par la religion, le commerce et les valeurs familiales.
L'autre opération démantelée par Facebook était menée depuis la Géorgie et ciblait des habitants de ce pays du Caucase, secoué ces dernières semaines par une profonde crise politique.
En octobre, le réseau social avait annoncé avoir bloqué quatre opérations de manipulation de l'opinion, menées par des groupes qui se faisaient passer pour des utilisateurs et étaient soutenus par l'Iran et la Russie, ainsi qu'une opération de désinformation menée à partir de la Russie dans plusieurs pays d'Afrique.
À l'approche de l'élection présidentielle de 2020 aux États-Unis, Facebook multiplie les efforts pour lutter contre les tentatives de manipulation sur ses différentes plateformes.
Le groupe californien avait été fortement critiqué pour ne pas avoir bloqué des campagnes de désinformation majeures lors de scrutins en 2016, dont l'élection présidentielle américaine.