Dans cet épisode de Data BuzzWord, Jean-louis Quéguiner reçoit Charles Cohen afin de parler de l’application de lutte contre le harcèlement sur les réseaux sociaux qu’il a lancée : Bodyguard.ai.
Listen to “#17. Charles Cohen – Bodyguard.ai – l’IA au secours du CyberHarcelement” on Spreaker.
Selon son auteur, Bodyguard supprime automatiquement 90% des commentaires haineux. L’application utilise pour cela fasttext et word2vec, et se base sur un dataset de 3 millions de commentaires incluant 600 000 contenus haineux.
Cette analyse est toutefois combinée à un moteur de règles destiné à prendre en considération le contexte :
Charles Cohen explique : “Le problème c’est que si on veut détecter beaucoup de choses, ça va détecter également beaucoup d’erreurs.
Ce que font les GAFAs, c’est qu’ils réduisent la sensibilité d’analyse à 20 ou 30 % de contenu détecté pour faire très peu d’erreurs.
C’est dû à l’absence d’analyse de contexte. Avec ce genre de Machine Learning, si on va dire: “n’écoute pas les c**nards qui disent que t’es moche”, l’algorithme va dire que ce contenu est haineux car il y a des mots très violents, alors que ce commentaire est plutôt gentil.
On compense ce fort taux d’erreur par une combinaison de plusieurs niveaux d’analyse qui sont envoyés dans des modèles de prédiction, ce qui réduit le taux d’erreur à 2%.”
L’application Bodyguard est disponible sur Android et Ios.