Intelligence artificielle DataBuzzWord : L'intelligence artificielle pour lutter contre le cyberharcèlement

Pour approfondir le sujet

Sur le même thème :

Intelligence artificielle et technologies des langues : l’ordinateur passe la barrière de la langue

Ce 12 janvier 2021, le GdR TAL organise une journée consacrée aux récentes avancées des technologies des langues pour des applications au cœur de...

Synapse Développement, acteur majeur du TAL, fête ses 25 ans

  Synapse Développement, société toulousaine spécialisée dans le traitement automatisé du langage, notamment connue pour son logiciel Cordial, fêtait en ce début de mois de...

Google I/O : annonce du chatbot LaMDA, capable de dialoguer naturellement avec un humain

Après avoir annoncé ses nouveaux TPU sa technologie d'intelligence artificielle MUM, Google présente son modèle Language Model for Dialogue Applications (LaMDA) dans le cadre...

Google I/O : annonce de la technologie d’intelligence artificielle MUM, plus puissante que BERT

Cette édition 2021 de Google I/O qui se déroule en streaming du 18 au 20 mai est, comme nous pouvions nous y attendre, l'occasion...

DataBuzzWord : L’intelligence artificielle pour lutter contre le cyberharcèlement

Dans cet épisode de Data BuzzWord, Jean-louis Quéguiner reçoit Charles Cohen afin de parler de l’application de lutte contre le harcèlement sur les réseaux sociaux qu’il a lancée : Bodyguard.ai.

Listen to “#17. Charles Cohen – Bodyguard.ai – l’IA au secours du CyberHarcelement” on Spreaker.

Selon son auteur, Bodyguard supprime automatiquement 90% des commentaires haineux. L’application utilise pour cela fasttext et word2vec, et se base sur un dataset de 3 millions de commentaires incluant 600 000 contenus haineux.

Cette analyse est toutefois combinée à un moteur de règles destiné à prendre en considération le contexte :

Charles Cohen explique : “Le problème c’est que si on veut détecter beaucoup de choses, ça va détecter également beaucoup d’erreurs.

Ce que font les GAFAs, c’est qu’ils réduisent la sensibilité d’analyse à 20 ou 30 % de contenu détecté pour faire très peu d’erreurs.

C’est dû à l’absence d’analyse de contexte. Avec ce genre de Machine Learning, si on va dire: “n’écoute pas les c**nards qui disent que t’es moche”, l’algorithme va dire que ce contenu est haineux car il y a des mots très violents, alors que ce commentaire est plutôt gentil.

On compense ce fort taux d’erreur par une combinaison de plusieurs niveaux d’analyse qui sont envoyés dans des modèles de prédiction, ce qui réduit le taux d’erreur à 2%.”

L’application Bodyguard est disponible sur Android et Ios.

Contributeur expert

Jean-Louis Quéguiner

Jean-louis est Product Unit Lead : Data & AI et directeur technique bases de données, Big Da

Partager l'article

Sora Turbo : l’IA générative de vidéos d’OpenAI est désormais disponible

En février dernier, OpenAI dévoilait son premier modèle text-to-video, Sora, depuis lors en preview. La société a annoncé ce 9 décembre le déploiement de...

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...