Intelligence artificielle Le cloud : une performance en trompe-l’œil

Pour approfondir le sujet

Sur le même thème :

Données vocales : Le Voice Lab et Datafunding lancent une campagne de data funding

Les technologies vocales ont connu un grand boom ces dernières années avec des solutions innovantes, des projets de recherche avec de nombreuses applications mais...

Snips désigné lauréat du French Tech Business Award 2019 au Japon

Snips a été désigné lauréat du French Tech Business Award 2019 par la Chambre de commerce et d'industrie française du Japon. Créateur de logiciels...

Interfaces vocales: Yann Lechelle nous présente Snips

Nous avons eu le plaisir de nous entretenir avec Yann Lechelle, directeur des opérations chez Snips, acteur de l'IA spécialisé dans les interfaces vocales...

L’appel à présentations pour le Paris Open Source Summit 2019 est lancé

Les 10 et 11 décembre prochains aura lieu la 5ème édition de Paris Open Source Summit. Cette année, l'événement a pour thématique « Open...

Le cloud : une performance en trompe-l’œil

En Intelligence artificielle (IA), le choix entre performance sur le cloud et respect de la vie privée en local est un faux choix. Non seulement l’IA peut être aussi performante en local, mais recourir à des technologies embarquées permet de personnaliser la compréhension, et donc de l’affiner.

Les assistants vocaux des géants américains du numérique, qui inondent aujourd’hui le marché, fonctionnent principalement sur le cloud. En dépit d’une volonté des plus grands acteurs de façonner le monde selon ce modèle, l’usage du cloud dépossède les utilisateurs du contrôle de leurs données. Loin d’un monde numérique 100 % cloud, les grandes espérances portent en réalité sur l’utilisation de technologies embarquées.

La supériorité du cloud : un mythe

Une fausse idée, savamment entretenue par les GAFAM, est celle selon laquelle les technologies hébergées sur le cloud seraient plus performantes que celles embarquées en local. Certes, le cloud a par essence une capacité de calcul infinie, là où la puissance de calcul embarquée est limitée par l’objet qui la contient. Mais il s’agit d’une contrainte en trompe-l’œil, car les ressources du cloud n’ont pour autant pas systématiquement d’impact visible sur la performance. Pour l’usage quotidien qui est fait des objets intelligents, disposer d’une puissance gigantesque est tout simplement inutile.
De plus, les technologies les plus avancées en IA, notamment le machine learning, peuvent très bien se passer du cloud. Le machine learning embarqué s’est d’ailleurs démocratisé, et équipe les principaux smartphones et ordinateurs du marché — c’est par exemple ainsi que fonctionnent les applications de reconnaissance faciale ou auditive de nos téléphones.

L’arrivée des puces neuromorphiques : un bond technologique imminent

S’il est déjà souvent possible d’avoir les mêmes performances en local que sur le cloud, l’arrivée des « puces neuromorphiques » va réduire comme peau de chagrin les arguments du cloud en matière de performance. D’un nouveau genre, ces puces sont conçues spécifiquement pour l’exécution de réseaux de neurones ; ces modèles inspirés du cerveau qui ont révolutionné le machine learning. En un mot, cette nouvelle génération de puces permet d’embarquer des IA beaucoup, beaucoup plus puissantes, et leur arrivée imminente sur le marché va permettre un bond technologique pour tous les objets du quotidien. Les téléphones haut de gamme sont déjà équipés de puces neuromorphiques, et l’année à venir devrait voir leur incursion dans les objets du quotidien : enceintes, télévision, électroménager.

L’amélioration continue des IA sur le cloud : un autre mythe

Ce qui participe aux fantasmes suscités par les principaux assistants vocaux, la Google Home ou l’Alexa, est leur capacité à brasser toutes les données de leurs utilisateurs dans le même chaudron. A les en croire, le passage des données par le cloud permettrait d’entraîner l’IA et donc de la perfectionner ; et c’est sur la base de cet argument que le partage de leurs données est demandé aux utilisateurs, sans qu’ils en comprennent la nécessité ou les implications.
Mais cet argument est sans fondement : l’IA ne peut en effet apprendre que des réponses à des problèmes ; or l’écrasante majorité des données partagées concernent des problèmes et n’apportent donc pas de connaissances nouvelles à l’IA. Ce que ces données apportent, en revanche, sont de précieux renseignements sur leurs utilisateurs aux GAFAM, qui leur permettent ensuite — là est tout leur modèle économique — de vendre de la publicité ciblée à des annonceurs.

Technologie embarquée : vers des IA personnalisables

Outre qu’il ne respecte en aucune façon la vie privée des utilisateurs, ce brassage des données dans le cloud a pour — autre — désavantage de donner naissance à une intelligence trop générale, qui manque de précision.
Dans ce modèle de compréhension vocale unique, utilisée par tout le monde quelles que soient les requêtes, les mots sont pondérés selon leur probabilité d’occurrence (par exemple Barack Obama a plus de poids qu’un nom moins populaire). Si cela est bien pour les noms connus, c’est en revanche plus approximatif dès que la notion évoquée perd en popularité. Cette approche est donc limitée en ce qu’elle ne tient pas compte du contexte même de la recherche. Là où le cloud cherche à servir tout le monde avec un moteur de compréhension unique, la reconnaissance vocale embarquée est par essence contextualisable : une enceinte intelligente va cibler spécifiquement une recherche musicale (et, donc, ne pas rechercher Barack Obama comme artiste si on lui demande Barbara). Grâce au machine learning embarqué, l’outil va même pouvoir s’enrichir des goûts personnels des utilisateurs, et créer une IA personnalisable en fonction des usages spécifiques à chacun.

Alors que la société se dirige vers une configuration du « tout connecté » (mails, contact, fichiers), les risques que représente le passage par le cloud restent un frein. Difficile, en effet, d’envoyer dans le cloud des données qui, croisées, ouvrent le champ de toute une vie. Mais, si ces données restent en interne et sont interprétées par des technologies de machine learning embarquées, il y a fort à parier que les utilisateurs seront désireux de profiter de la simplification sans précédent que permet leur interconnexion. Une fois les données en sécurité, il est alors possible pour chaque personne de les soumettre au machine learning, afin d’entraîner son propre assistant personnel intelligent.

 


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
ARCADE (Augmented Reading of Climate-cArbon DisclosurEs) par Axionable

Notre solution arcade vise à apporter aux acteurs financiers des informations détaillées et innovantes permettant d’évaluer les entreprises sur les en...

 

Contributeur expert

Joseph Dureau

Joseph Dureau est le CTO de Snips.

Partager l'article

NVIDIA GTC : NVIDIA s’apprête à mettre la France à l’honneur cette année

NVIDIA GTC, une conférence globale dédiée à l'avancée de l'intelligence artificielle et de l’informatique accélérée, se tiendra du 18 au 21 mars, marquant une...

Le Monde signe un partenariat pluriannuel avec OpenAI et se dote d’une charte sur l’IA

On savait OpenAI en tractations avec plusieurs médias pour entraîner ses LLM sur leurs publications. En France, c'est avec le journal Le Monde que...

Retour sur Copilot for Finance, l’assistant d’IA lancé en preview par Microsoft

Après avoir lancé Copilot Pro, un abonnement premium pour les particuliers permettant de créer un assistant d'IA personnalisé, Microsoft a récemment annoncé la préversion...

Etude de BpiFrance Le Lab : l’utilisation des IA génératives par les dirigeants de PME-TPE est encore très limitée

Bpifrance Le Lab a publié ce 14 mars une étude sur les usages que font les dirigeants des IA Génératives au sein des TPE...