Intelligence artificielle Le cloud : une performance en trompe-l’œil

Pour approfondir le sujet

Sur le même thème :

Données vocales : Le Voice Lab et Datafunding lancent une campagne de data funding

Les technologies vocales ont connu un grand boom ces dernières années avec des solutions innovantes, des projets de recherche avec de nombreuses applications mais...

Snips désigné lauréat du French Tech Business Award 2019 au Japon

Snips a été désigné lauréat du French Tech Business Award 2019 par la Chambre de commerce et d'industrie française du Japon. Créateur de logiciels...

Interfaces vocales: Yann Lechelle nous présente Snips

Nous avons eu le plaisir de nous entretenir avec Yann Lechelle, directeur des opérations chez Snips, acteur de l'IA spécialisé dans les interfaces vocales...

L’appel à présentations pour le Paris Open Source Summit 2019 est lancé

Les 10 et 11 décembre prochains aura lieu la 5ème édition de Paris Open Source Summit. Cette année, l'événement a pour thématique « Open...

Le cloud : une performance en trompe-l’œil

En Intelligence artificielle (IA), le choix entre performance sur le cloud et respect de la vie privée en local est un faux choix. Non seulement l’IA peut être aussi performante en local, mais recourir à des technologies embarquées permet de personnaliser la compréhension, et donc de l’affiner.

Les assistants vocaux des géants américains du numérique, qui inondent aujourd’hui le marché, fonctionnent principalement sur le cloud. En dépit d’une volonté des plus grands acteurs de façonner le monde selon ce modèle, l’usage du cloud dépossède les utilisateurs du contrôle de leurs données. Loin d’un monde numérique 100 % cloud, les grandes espérances portent en réalité sur l’utilisation de technologies embarquées.

La supériorité du cloud : un mythe

Une fausse idée, savamment entretenue par les GAFAM, est celle selon laquelle les technologies hébergées sur le cloud seraient plus performantes que celles embarquées en local. Certes, le cloud a par essence une capacité de calcul infinie, là où la puissance de calcul embarquée est limitée par l’objet qui la contient. Mais il s’agit d’une contrainte en trompe-l’œil, car les ressources du cloud n’ont pour autant pas systématiquement d’impact visible sur la performance. Pour l’usage quotidien qui est fait des objets intelligents, disposer d’une puissance gigantesque est tout simplement inutile.
De plus, les technologies les plus avancées en IA, notamment le machine learning, peuvent très bien se passer du cloud. Le machine learning embarqué s’est d’ailleurs démocratisé, et équipe les principaux smartphones et ordinateurs du marché — c’est par exemple ainsi que fonctionnent les applications de reconnaissance faciale ou auditive de nos téléphones.

L’arrivée des puces neuromorphiques : un bond technologique imminent

S’il est déjà souvent possible d’avoir les mêmes performances en local que sur le cloud, l’arrivée des « puces neuromorphiques » va réduire comme peau de chagrin les arguments du cloud en matière de performance. D’un nouveau genre, ces puces sont conçues spécifiquement pour l’exécution de réseaux de neurones ; ces modèles inspirés du cerveau qui ont révolutionné le machine learning. En un mot, cette nouvelle génération de puces permet d’embarquer des IA beaucoup, beaucoup plus puissantes, et leur arrivée imminente sur le marché va permettre un bond technologique pour tous les objets du quotidien. Les téléphones haut de gamme sont déjà équipés de puces neuromorphiques, et l’année à venir devrait voir leur incursion dans les objets du quotidien : enceintes, télévision, électroménager.

L’amélioration continue des IA sur le cloud : un autre mythe

Ce qui participe aux fantasmes suscités par les principaux assistants vocaux, la Google Home ou l’Alexa, est leur capacité à brasser toutes les données de leurs utilisateurs dans le même chaudron. A les en croire, le passage des données par le cloud permettrait d’entraîner l’IA et donc de la perfectionner ; et c’est sur la base de cet argument que le partage de leurs données est demandé aux utilisateurs, sans qu’ils en comprennent la nécessité ou les implications.
Mais cet argument est sans fondement : l’IA ne peut en effet apprendre que des réponses à des problèmes ; or l’écrasante majorité des données partagées concernent des problèmes et n’apportent donc pas de connaissances nouvelles à l’IA. Ce que ces données apportent, en revanche, sont de précieux renseignements sur leurs utilisateurs aux GAFAM, qui leur permettent ensuite — là est tout leur modèle économique — de vendre de la publicité ciblée à des annonceurs.

Technologie embarquée : vers des IA personnalisables

Outre qu’il ne respecte en aucune façon la vie privée des utilisateurs, ce brassage des données dans le cloud a pour — autre — désavantage de donner naissance à une intelligence trop générale, qui manque de précision.
Dans ce modèle de compréhension vocale unique, utilisée par tout le monde quelles que soient les requêtes, les mots sont pondérés selon leur probabilité d’occurrence (par exemple Barack Obama a plus de poids qu’un nom moins populaire). Si cela est bien pour les noms connus, c’est en revanche plus approximatif dès que la notion évoquée perd en popularité. Cette approche est donc limitée en ce qu’elle ne tient pas compte du contexte même de la recherche. Là où le cloud cherche à servir tout le monde avec un moteur de compréhension unique, la reconnaissance vocale embarquée est par essence contextualisable : une enceinte intelligente va cibler spécifiquement une recherche musicale (et, donc, ne pas rechercher Barack Obama comme artiste si on lui demande Barbara). Grâce au machine learning embarqué, l’outil va même pouvoir s’enrichir des goûts personnels des utilisateurs, et créer une IA personnalisable en fonction des usages spécifiques à chacun.

Alors que la société se dirige vers une configuration du « tout connecté » (mails, contact, fichiers), les risques que représente le passage par le cloud restent un frein. Difficile, en effet, d’envoyer dans le cloud des données qui, croisées, ouvrent le champ de toute une vie. Mais, si ces données restent en interne et sont interprétées par des technologies de machine learning embarquées, il y a fort à parier que les utilisateurs seront désireux de profiter de la simplification sans précédent que permet leur interconnexion. Une fois les données en sécurité, il est alors possible pour chaque personne de les soumettre au machine learning, afin d’entraîner son propre assistant personnel intelligent.

 

Contributeur expert

Joseph Dureau

Joseph Dureau est le CTO de Snips.

Partager l'article

Sora Turbo : l’IA générative de vidéos d’OpenAI est désormais disponible

En février dernier, OpenAI dévoilait son premier modèle text-to-video, Sora, depuis lors en preview. La société a annoncé ce 9 décembre le déploiement de...

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...