Intelligence artificielle Assistants vocaux : comprendre les rouages avant d’en avoir peur

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

Assistants vocaux : comprendre les rouages avant d’en avoir peur

Tribune par William Simonin, cofondateur et CEO de Vivoka.

Il aura fallu plus de 30 ans aux assistants vocaux (depuis IBM en 1961) pour connaître leurs premières applications commerciales. Avec son intégration aux smartphones puis aux enceintes connectées, la reconnaissance vocale connaît, en effet, ces dernières années une ère de croissance exponentielle (195 milliards de dollars en 2021).

De la dictée d’un message à une recherche internet en passant par un achat e-commerce ou le lancement d’une musique, pour continuer d’offrir une interactivité optimale, les acteurs doivent sans cesse étendre leur écosystème applicatif et proposer de nouvelles expériences.

Des données primordiales pour mieux servir l’utilisateur

Aujourd’hui, il existe un flou important, à l’échelle mondiale, sur la compréhension réelle de l’assistant vocal, sur son fonctionnement et sur l’exploitation des données personnelles des utilisateurs. Et qui dit inconnu dit crainte. Des craintes qui ont été renforcées par de multiples bugs de ces outils : en 2017, une petite fille de 6 ans qui commande une maison de poupées et une boîte de cookies – à l’insu de ses parents – ou encore en 2018, un couple qui découvre que sa conversation a été enregistrée et envoyée à une personne de son répertoire téléphonique.

L’utilisateur se pose la question de l’utilisation de ses données : sont-elles conservées, analysées, comment et à quelles fins ?

Pour fournir un premier élément de réponse, il faut savoir que la reconnaissance vocale peut utiliser au choix le cloud ou les technologies embarquées dans son fonctionnement. Le premier permet à l’IA d’avoir accès à une multitude d’informations en ligne pouvant servir de ressource et alimenter de nombreux cas d’usage. En contrepartie, la dépendance à Internet est inévitable. Tandis que le second est totalement autonome vis-à-vis de la connexion internet, mais verra son champ d’action en partie réduit. Cette dichotomie fait notamment écho à certaines directives du RGPD (Règlement Général sur la Protection des Données datant de mai 2018). En effet, dans ce dernier est mentionné le “Private by design” : une conception des technologies pensée pour respecter les données de l’utilisateur. Logiquement, il est facile de penser que seul un outil sans connexion internet peut l’être, car aucune information ne pourra transiter en dehors de lui. Pourtant, selon les protocoles mis en place et l’éthique des entreprises, des services cloud sécurisés peuvent garantir une totale étanchéité du flux de données personnelles

En effet, les données à l’ère du Big Data sont sensibles pour l’utilisateur, mais indispensables pour les entreprises de l’IT. L’outil technologique derrière l’assistant vocal a besoin de s’améliorer, d’apprendre, de corriger ses erreurs pour pouvoir davantage assister l’utilisateur dans son quotidien. Cette amélioration, nécessaire pour garantir la meilleure expérience d’utilisation, est néanmoins très dépendante des “inputs”, c’est-à-dire des données, que le système se verra administrer. Ceci est d’autant plus vrai lorsque l’objectif est de personnaliser l’assistance vocale avec les habitudes et les préférences de l’utilisateur ! C’est pour ces dernières raisons que les solutions vocales aujourd’hui se basent notamment sur les données des individus. Pour autant, cela ne justifie pas que certains acteurs conservent les données et les utilisent dans un but autre que l’amélioration de l’expérience

De la nécessité d’éduquer les consommateurs sur leurs droits

Même si nos paroles s’envolent, les requêtes vocales sont pour la plupart enregistrées dans un cloud tout comme les requêtes écrites faites dans un moteur de recherche. 

Depuis la création du RGPD, il est important de souligner que les utilisateurs ont désormais des lois derrière lesquelles se protéger dans le cas de l’utilisation de leurs données. Il est maintenant primordial d’éduquer ces utilisateurs à choisir s’ils veulent que leurs données soient utilisées ou non et de leur laisser ce choix.

De mon point de vue, les acteurs du marché de la reconnaissance vocale ont le devoir d’éduquer et de sensibiliser les utilisateurs sur ces aspects. En effet, personne ne prend aujourd’hui le temps de lire les CGV/CGU de n’importe quel produit, c’est donc un devoir moral de rendre accessible ces informations, sans les noyer dans un surplus d’information inutile.

De cette manière, les utilisateurs pourront non seulement connaître la réelle utilisation de leurs données, mais également connaître leurs différents droits. Par exemple, beaucoup ignore que sur une simple demande, nous pouvons demander la suppression totale des sauvegardes de nos conversations !

D’une manière plus globale, une éducation permettrait à tout à chacun de comprendre le fonctionnement de l’assistant vocal à partir du premier mot prononcé jusqu’à l’utilisation finale des données et une fois éduqué, chacun aura le choix de faire usage, ou non, de tel ou tel assistant et surtout d’en comprendre les problématiques et avantages associés.

Contributeur expert

Aurélien Chapuzet

Aurélien Chapuzet est chargé de marketing digital et acquisition de lead pour l’entreprise Vi

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...