Intelligence artificielle DataBuzzWord : L'intelligence artificielle pour lutter contre le cyberharcèlement

Pour approfondir le sujet

Sur le même thème :

Intelligence artificielle et technologies des langues : l’ordinateur passe la barrière de la langue

Ce 12 janvier 2021, le GdR TAL organise une journée consacrée aux récentes avancées des technologies des langues pour des applications au cœur de...

Synapse Développement, acteur majeur du TAL, fête ses 25 ans

  Synapse Développement, société toulousaine spécialisée dans le traitement automatisé du langage, notamment connue pour son logiciel Cordial, fêtait en ce début de mois de...

Google I/O : annonce du chatbot LaMDA, capable de dialoguer naturellement avec un humain

Après avoir annoncé ses nouveaux TPU sa technologie d'intelligence artificielle MUM, Google présente son modèle Language Model for Dialogue Applications (LaMDA) dans le cadre...

Google I/O : annonce de la technologie d’intelligence artificielle MUM, plus puissante que BERT

Cette édition 2021 de Google I/O qui se déroule en streaming du 18 au 20 mai est, comme nous pouvions nous y attendre, l'occasion...

DataBuzzWord : L’intelligence artificielle pour lutter contre le cyberharcèlement

Dans cet épisode de Data BuzzWord, Jean-louis Quéguiner reçoit Charles Cohen afin de parler de l’application de lutte contre le harcèlement sur les réseaux sociaux qu’il a lancée : Bodyguard.ai.

Listen to “#17. Charles Cohen – Bodyguard.ai – l’IA au secours du CyberHarcelement” on Spreaker.

Selon son auteur, Bodyguard supprime automatiquement 90% des commentaires haineux. L’application utilise pour cela fasttext et word2vec, et se base sur un dataset de 3 millions de commentaires incluant 600 000 contenus haineux.

Cette analyse est toutefois combinée à un moteur de règles destiné à prendre en considération le contexte :

Charles Cohen explique : “Le problème c’est que si on veut détecter beaucoup de choses, ça va détecter également beaucoup d’erreurs.

Ce que font les GAFAs, c’est qu’ils réduisent la sensibilité d’analyse à 20 ou 30 % de contenu détecté pour faire très peu d’erreurs.

C’est dû à l’absence d’analyse de contexte. Avec ce genre de Machine Learning, si on va dire: “n’écoute pas les c**nards qui disent que t’es moche”, l’algorithme va dire que ce contenu est haineux car il y a des mots très violents, alors que ce commentaire est plutôt gentil.

On compense ce fort taux d’erreur par une combinaison de plusieurs niveaux d’analyse qui sont envoyés dans des modèles de prédiction, ce qui réduit le taux d’erreur à 2%.”

L’application Bodyguard est disponible sur Android et Ios.

Contributeur expert

Jean-Louis Quéguiner

Jean-louis est Product Unit Lead : Data & AI et directeur technique bases de données, Big Da

Partager l'article

ActuIA n°18 : plongez au coeur des tendances et enjeux de l’IA

L'année 2025 s'annonce bouillonnante en matière d'intelligence artificielle et marquera un tournant décisif pour nos sociétés. Avec un démarrage sur les chapeaux de roues...

Baromètre Impact AI : près de trois quarts des salariés français jugent nécessaire de réguler le développement de l’IA

Le collectif Impact AI, en collaboration avec le cabinet d'audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son...

Repenser l’IA pour l’intérêt général : les recommandations du CESE

En amont du Sommet mondial de l’IA de Paris, le Conseil économique, social et environnemental (CESE) a adopté hier à 99 voix pour, 22...

Adoption de la GenAI : des dirigeants français particulièrement optimistes pour la productivité de leur entreprise

Une étude récente de l'ESN Cognizant, réalisée en collaboration avec Oxford Economics auprès de 2 200 dirigeants de différents secteurs dans 23 pays, dont...