Intelligence artificielle Assistants vocaux et Big Data : Les enjeux de la qualité des...

Pour approfondir le sujet

Le marché mondial de l’intelligence artificielle en entreprise atteindra 342 milliards de dollars en 2022

Selon un rapport de l'International Data Corporation (IDC), les revenus mondiaux du marché de l'intelligence artificielle devraient augmenter de 15,2 % d'une année sur...

Lancement de l’association “Filière Intelligence Artificielle et Cancer”, un partenariat public/privé pour accélérer l’innovation dans le cancer

Dans le but de contribuer à de nouvelles stratégies de diagnostics et de traitements pour les patients atteints du cancer grâce à l'IA, plusieurs...

Le projet RePAIR : aider les archéologues à restaurer les fresques du passé grâce à l’intelligence artificielle

Afin de faciliter le processus de reconstruction et de réhabilitation permettant de redonner une seconde vie aux œuvres d'art de l'antiquité et du moyen-âge,...

Comment les start-up spécialisées dans l’analyse du climat déploient des solutions d’IA de gestion du réchauffement climatique

Le changement climatique est une problématique majeure de plus en plus mise en avant par les autorités et qui impacte déjà plusieurs secteurs d'activité....

Assistants vocaux et Big Data : Les enjeux de la qualité des données

Qu’est-ce qu’on entend par Big Data ?

On ne le présente plus, vous l’avez lu dans le titre, nous allons parler Big Data. Ce tournant massif de la décennie est sûrement ce qui a le plus affecté la manière dont les entreprises, surtout dans les domaines IT, ont repensé intégralement leur stratégie. Ce courant dirigé par les plus grands acteurs technologiques a placé la donnée au centre de l’attention, déjà parce que nous sommes aujourd’hui capable d’en générer et traiter une énorme quantité, mais également parce que cela place les fondements des intelligences artificielles auto-apprenantes (cf. Machine Learning). Cette émergence, en plus de bouleverser la plupart des marchés, a redessiné l’économie, en termes de R&D, de Business Models ou même de profils recherchés dans les entreprises, en plaçant la donnée en son centre.

Maintenant que cette petite introduction est faite, nous allons passer au coeur du sujet.

 

Est-ce que la donnée a une importance sur nos technologies vocales ?

Reprenons déjà à l’origine, qu’est-ce qu’un assistant vocal en fait ? C’est une intelligence artificielle munie de différentes technologies liées au domaine du vocal (STT, NLP, TTS pour ne citer qu’eux, nous vous conseillons de consulter notre article sur la reconnaissance vocale pour mieux comprendre). Ayant cette nature d’IA (intelligence artificielle), les assistants vocaux sont donc totalement liés au Big Data car les modèles, sur lesquels ils sont conçus, dépendent énormément de ces dernières.

Pour être plus précis, la majorité des assistants que vous connaissez ou utilisez aujourd’hui sont développés à travers des technologies d’apprentissage machine (Machine Learning, Deep Learning etc…) qui sont des algorithmes capables de traiter des informations pour en tirer des connaissances. Ainsi, pour avoir un système intelligent, capables de comprendre et de s’adapter à de nombreuses situations, il est fortement recommandé d’administrer un maximum de données à ce dernier.

 

Banner Leads 2 FR

Mais du coup, est-ce que la qualité de ces informations est importante pour les assistants vocaux ?

C’est un peu le même principe que pour nous, les humains, la donnée s’assimile à la connaissance, ainsi fournir des données qualitatives à un modèle capable des les traiter revient à prodiguer un bon enseignement. Dans ce cas de figure, tant l’Homme que la Machine deviennent performants car le socle de connaissances sur lequel ils se basent est exhaustif et précis. À l’inverse vous l’aurez compris, il y a des lacunes.

Les assistants vocaux, depuis leur apparition dans les années 2010, font la course au taux de compréhension. Tantôt 95%, tantôt 95,3%, il s’agit à chaque fois d’aller plus loin pour afficher le meilleur pourcentage. Pour accomplir cela, vous le devinerez sûrement, il s’agit d’avoir des modèles performants, une suite de technologies optimale, le tout alimenté par quoi ? De la data. 

Le problème étant que pour des solutions très généralistes comme celles des GAFAM, il est difficile d’avoir des données capables de couvrir l’ensemble des profils d’utilisateurs. Ainsi, les technologies d’intelligence artificielle qui requièrent non seulement de grandes masses d’informations, incorporent lesdites données à partir d’enregistrements de voix qui correspondent à la majorité des individus. Résultat : les personnes ayant de forts accents ou celles qui rencontrent des difficultés à s’exprimer ne peuvent pas utiliser l’assistant vocal de ces firmes.

Cela représente ainsi la séparation visible aujourd’hui dans le monde des assistants vocaux. Il y a d’une part des assistants ultra génériques, ambitieux de répondre à la moindre requête et dès lors très dépendant des données, les plus exhaustives possibles. En face, nous retrouvons les assistants dédiés, adaptés à des contextes et des environnements particuliers, qui eux en l’occurrence n’ont besoin que d’un champs réduit de données, très relatif à leur utilisation. Par exemple, un assistant vocal dans le domaine de l’hôtellerie devra connaître le jargon hôtelier et le vocabulaire associé au milieu en priorité. Selon les cas d’usages, la rigueur lexicale sera différente et dès lors l’exigence de données sera variable.

À l’instar des autres technologies se démocratisant aujourd’hui, les assistants vocaux restent dépendants des données car les modèles sur lesquels ils se basent en requièrent. Ainsi, tant quantité que qualité des données sont importantes et surtout corrélées : l’idéal étant d’avoir le maximum de données riches. Heureusement pour nos assistants, la course à la data n’est pas encore terminée. Pour réellement persister dans notre quotidien, les solutions vocales ont besoin d’évoluer, et cela passera forcément par l’entraînement des intelligences artificielles.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 

Contributeur expert

Aurélien Chapuzet

Aurélien Chapuzet est chargé de marketing digital et acquisition de lead pour l’entreprise Vi

Partager l'article

Le marché mondial de l’intelligence artificielle en entreprise atteindra 342 milliards de dollars en 2022

Selon un rapport de l'International Data Corporation (IDC), les revenus mondiaux du marché de l'intelligence artificielle devraient augmenter de 15,2 % d'une année sur...

Lancement de l’association “Filière Intelligence Artificielle et Cancer”, un partenariat public/privé pour accélérer l’innovation dans le cancer

Dans le but de contribuer à de nouvelles stratégies de diagnostics et de traitements pour les patients atteints du cancer grâce à l'IA, plusieurs...

Le projet RePAIR : aider les archéologues à restaurer les fresques du passé grâce à l’intelligence artificielle

Afin de faciliter le processus de reconstruction et de réhabilitation permettant de redonner une seconde vie aux œuvres d'art de l'antiquité et du moyen-âge,...

Comment les start-up spécialisées dans l’analyse du climat déploient des solutions d’IA de gestion du réchauffement climatique

Le changement climatique est une problématique majeure de plus en plus mise en avant par les autorités et qui impacte déjà plusieurs secteurs d'activité....