Intelligence artificielle DataBuzzWord : L'intelligence artificielle pour lutter contre le cyberharcèlement

Pour approfondir le sujet

Sur le même thème :

Intelligence artificielle et technologies des langues : l’ordinateur passe la barrière de la langue

Ce 12 janvier 2021, le GdR TAL organise une journée consacrée aux récentes avancées des technologies des langues pour des applications au cœur de...

Synapse Développement, acteur majeur du TAL, fête ses 25 ans

  Synapse Développement, société toulousaine spécialisée dans le traitement automatisé du langage, notamment connue pour son logiciel Cordial, fêtait en ce début de mois de...

Google I/O : annonce du chatbot LaMDA, capable de dialoguer naturellement avec un humain

Après avoir annoncé ses nouveaux TPU sa technologie d'intelligence artificielle MUM, Google présente son modèle Language Model for Dialogue Applications (LaMDA) dans le cadre...

Google I/O : annonce de la technologie d’intelligence artificielle MUM, plus puissante que BERT

Cette édition 2021 de Google I/O qui se déroule en streaming du 18 au 20 mai est, comme nous pouvions nous y attendre, l'occasion...

DataBuzzWord : L’intelligence artificielle pour lutter contre le cyberharcèlement

Dans cet épisode de Data BuzzWord, Jean-louis Quéguiner reçoit Charles Cohen afin de parler de l’application de lutte contre le harcèlement sur les réseaux sociaux qu’il a lancée : Bodyguard.ai.

Listen to “#17. Charles Cohen – Bodyguard.ai – l’IA au secours du CyberHarcelement” on Spreaker.

Selon son auteur, Bodyguard supprime automatiquement 90% des commentaires haineux. L’application utilise pour cela fasttext et word2vec, et se base sur un dataset de 3 millions de commentaires incluant 600 000 contenus haineux.

Cette analyse est toutefois combinée à un moteur de règles destiné à prendre en considération le contexte :

Charles Cohen explique : “Le problème c’est que si on veut détecter beaucoup de choses, ça va détecter également beaucoup d’erreurs.

Ce que font les GAFAs, c’est qu’ils réduisent la sensibilité d’analyse à 20 ou 30 % de contenu détecté pour faire très peu d’erreurs.

C’est dû à l’absence d’analyse de contexte. Avec ce genre de Machine Learning, si on va dire: “n’écoute pas les c**nards qui disent que t’es moche”, l’algorithme va dire que ce contenu est haineux car il y a des mots très violents, alors que ce commentaire est plutôt gentil.

On compense ce fort taux d’erreur par une combinaison de plusieurs niveaux d’analyse qui sont envoyés dans des modèles de prédiction, ce qui réduit le taux d’erreur à 2%.”

L’application Bodyguard est disponible sur Android et Ios.

Contributeur expert

Jean-Louis Quéguiner

Jean-louis est Product Unit Lead : Data & AI et directeur technique bases de données, Big Da

Partager l'article

Lancement d’un appel à candidatures pour l’hôtel d’entreprises de la Cité de l’Innovation de Sorbonne Université

L'hôtel d'entreprises de la Cité de l'Innovation de Sorbonne Université a pour objectif d'accueillir, à partir du 4e trimestre 2025, des entreprises spécialisées dans...

Nomination : Vincent Cornillet prend les rênes du Centre d’entraînement et de développement de l’IA de Preligens

Preligens, un des leaders de l’IA appliquée aux données géospatiales pour les secteurs de l'aéronautique, de la défense et du renseignement, annonce la nomination...

Microsoft Build : de nouveaux investissements massifs annoncés en Asie du sud-est

En tournée en Asie du Sud-Est dans le cadre de Microsoft Build, Satya Nadella, PDG de Microsoft, a annoncé hier à Kuala Lumpur un...

OpenAI, entre de nouvelles plaintes et un accord de licence avec le Financial Times

Si la semaine a débuté avec l'annonce d'un accord de licence avec le Financial Times lui permettant d'exploiter son contenu, OpenAI a été de...