Intelligence artificielle Assistants vocaux et Big Data : Les enjeux de la qualité des...

Pour approfondir le sujet

Sur le même thème :

Sora Turbo : l’IA générative de vidéos d’OpenAI est désormais disponible

En février dernier, OpenAI dévoilait son premier modèle text-to-video, Sora, depuis lors en preview. La société a annoncé ce 9 décembre le déploiement de...

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Assistants vocaux et Big Data : Les enjeux de la qualité des données

Qu’est-ce qu’on entend par Big Data ?

On ne le présente plus, vous l’avez lu dans le titre, nous allons parler Big Data. Ce tournant massif de la décennie est sûrement ce qui a le plus affecté la manière dont les entreprises, surtout dans les domaines IT, ont repensé intégralement leur stratégie. Ce courant dirigé par les plus grands acteurs technologiques a placé la donnée au centre de l’attention, déjà parce que nous sommes aujourd’hui capable d’en générer et traiter une énorme quantité, mais également parce que cela place les fondements des intelligences artificielles auto-apprenantes (cf. Machine Learning). Cette émergence, en plus de bouleverser la plupart des marchés, a redessiné l’économie, en termes de R&D, de Business Models ou même de profils recherchés dans les entreprises, en plaçant la donnée en son centre.

Maintenant que cette petite introduction est faite, nous allons passer au coeur du sujet.

Est-ce que la donnée a une importance sur nos technologies vocales ?

Reprenons déjà à l’origine, qu’est-ce qu’un assistant vocal en fait ? C’est une intelligence artificielle munie de différentes technologies liées au domaine du vocal (STT, NLP, TTS pour ne citer qu’eux, nous vous conseillons de consulter notre article sur la reconnaissance vocale pour mieux comprendre). Ayant cette nature d’IA (intelligence artificielle), les assistants vocaux sont donc totalement liés au Big Data car les modèles, sur lesquels ils sont conçus, dépendent énormément de ces dernières.

Pour être plus précis, la majorité des assistants que vous connaissez ou utilisez aujourd’hui sont développés à travers des technologies d’apprentissage machine (Machine Learning, Deep Learning etc…) qui sont des algorithmes capables de traiter des informations pour en tirer des connaissances. Ainsi, pour avoir un système intelligent, capables de comprendre et de s’adapter à de nombreuses situations, il est fortement recommandé d’administrer un maximum de données à ce dernier.

Mais du coup, est-ce que la qualité de ces informations est importante pour les assistants vocaux ?

C’est un peu le même principe que pour nous, les humains, la donnée s’assimile à la connaissance, ainsi fournir des données qualitatives à un modèle capable des les traiter revient à prodiguer un bon enseignement. Dans ce cas de figure, tant l’Homme que la Machine deviennent performants car le socle de connaissances sur lequel ils se basent est exhaustif et précis. À l’inverse vous l’aurez compris, il y a des lacunes.

Les assistants vocaux, depuis leur apparition dans les années 2010, font la course au taux de compréhension. Tantôt 95%, tantôt 95,3%, il s’agit à chaque fois d’aller plus loin pour afficher le meilleur pourcentage. Pour accomplir cela, vous le devinerez sûrement, il s’agit d’avoir des modèles performants, une suite de technologies optimale, le tout alimenté par quoi ? De la data. 

Le problème étant que pour des solutions très généralistes comme celles des GAFAM, il est difficile d’avoir des données capables de couvrir l’ensemble des profils d’utilisateurs. Ainsi, les technologies d’intelligence artificielle qui requièrent non seulement de grandes masses d’informations, incorporent lesdites données à partir d’enregistrements de voix qui correspondent à la majorité des individus. Résultat : les personnes ayant de forts accents ou celles qui rencontrent des difficultés à s’exprimer ne peuvent pas utiliser l’assistant vocal de ces firmes.

Cela représente ainsi la séparation visible aujourd’hui dans le monde des assistants vocaux. Il y a d’une part des assistants ultra génériques, ambitieux de répondre à la moindre requête et dès lors très dépendant des données, les plus exhaustives possibles. En face, nous retrouvons les assistants dédiés, adaptés à des contextes et des environnements particuliers, qui eux en l’occurrence n’ont besoin que d’un champs réduit de données, très relatif à leur utilisation. Par exemple, un assistant vocal dans le domaine de l’hôtellerie devra connaître le jargon hôtelier et le vocabulaire associé au milieu en priorité. Selon les cas d’usages, la rigueur lexicale sera différente et dès lors l’exigence de données sera variable.

À l’instar des autres technologies se démocratisant aujourd’hui, les assistants vocaux restent dépendants des données car les modèles sur lesquels ils se basent en requièrent. Ainsi, tant quantité que qualité des données sont importantes et surtout corrélées : l’idéal étant d’avoir le maximum de données riches. Heureusement pour nos assistants, la course à la data n’est pas encore terminée. Pour réellement persister dans notre quotidien, les solutions vocales ont besoin d’évoluer, et cela passera forcément par l’entraînement des intelligences artificielles.

Contributeur expert

Aurélien Chapuzet

Aurélien Chapuzet est chargé de marketing digital et acquisition de lead pour l’entreprise Vi

Partager l'article

Sora Turbo : l’IA générative de vidéos d’OpenAI est désormais disponible

En février dernier, OpenAI dévoilait son premier modèle text-to-video, Sora, depuis lors en preview. La société a annoncé ce 9 décembre le déploiement de...

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...