Prochain numéro du magazine ActuIA le 15 octobre
Actualité Le cloud : une performance en trompe-l’œil

Pour approfondir le sujet

L’appel à présentations pour le Paris Open Source Summit 2019 est lancé

Les 10 et 11 décembre prochains aura lieu la 5ème édition de Paris Open Source Summit. Cette année, l'événement a pour thématique « Open...

Samsung ouvre un nouveau laboratoire spécialisé dans l’intelligence artificielle

Samsung a annoncé ce lundi avoir ouvert un nouveau laboratoire, spécialisé dans l'intelligence artificielle, au Québec. L'Université de Montréal a accueilli ce centre en...

Microsoft annonce une avancée considérable en reconnaissance vocale

Le Artificial Intelligence & Research Group de Microsoft a annoncé avoir réduit considérablement son taux d'erreur en matière de reconnaissance vocale. Il s'agit d'une...

Toyota crée un fonds d’investissement de 100 millions de dollars pour financer des start-up IA

Le constructeur japonais s'intéresse depuis de nombreuses années aux nouvelles technologies. En 2015, il avait lancé le Toyota Research Institute (TRI), en plein cœur...

Le cloud : une performance en trompe-l’œil

En Intelligence artificielle (IA), le choix entre performance sur le cloud et respect de la vie privée en local est un faux choix. Non seulement l’IA peut être aussi performante en local, mais recourir à des technologies embarquées permet de personnaliser la compréhension, et donc de l’affiner.

Les assistants vocaux des géants américains du numérique, qui inondent aujourd’hui le marché, fonctionnent principalement sur le cloud. En dépit d’une volonté des plus grands acteurs de façonner le monde selon ce modèle, l’usage du cloud dépossède les utilisateurs du contrôle de leurs données. Loin d’un monde numérique 100 % cloud, les grandes espérances portent en réalité sur l’utilisation de technologies embarquées.

La supériorité du cloud : un mythe

Une fausse idée, savamment entretenue par les GAFAM, est celle selon laquelle les technologies hébergées sur le cloud seraient plus performantes que celles embarquées en local. Certes, le cloud a par essence une capacité de calcul infinie, là où la puissance de calcul embarquée est limitée par l’objet qui la contient. Mais il s’agit d’une contrainte en trompe-l’œil, car les ressources du cloud n’ont pour autant pas systématiquement d’impact visible sur la performance. Pour l’usage quotidien qui est fait des objets intelligents, disposer d’une puissance gigantesque est tout simplement inutile.
De plus, les technologies les plus avancées en IA, notamment le machine learning, peuvent très bien se passer du cloud. Le machine learning embarqué s’est d’ailleurs démocratisé, et équipe les principaux smartphones et ordinateurs du marché — c’est par exemple ainsi que fonctionnent les applications de reconnaissance faciale ou auditive de nos téléphones.

L’arrivée des puces neuromorphiques : un bond technologique imminent

S’il est déjà souvent possible d’avoir les mêmes performances en local que sur le cloud, l’arrivée des « puces neuromorphiques » va réduire comme peau de chagrin les arguments du cloud en matière de performance. D’un nouveau genre, ces puces sont conçues spécifiquement pour l’exécution de réseaux de neurones ; ces modèles inspirés du cerveau qui ont révolutionné le machine learning. En un mot, cette nouvelle génération de puces permet d’embarquer des IA beaucoup, beaucoup plus puissantes, et leur arrivée imminente sur le marché va permettre un bond technologique pour tous les objets du quotidien. Les téléphones haut de gamme sont déjà équipés de puces neuromorphiques, et l’année à venir devrait voir leur incursion dans les objets du quotidien : enceintes, télévision, électroménager.

L’amélioration continue des IA sur le cloud : un autre mythe

Ce qui participe aux fantasmes suscités par les principaux assistants vocaux, la Google Home ou l’Alexa, est leur capacité à brasser toutes les données de leurs utilisateurs dans le même chaudron. A les en croire, le passage des données par le cloud permettrait d’entraîner l’IA et donc de la perfectionner ; et c’est sur la base de cet argument que le partage de leurs données est demandé aux utilisateurs, sans qu’ils en comprennent la nécessité ou les implications.
Mais cet argument est sans fondement : l’IA ne peut en effet apprendre que des réponses à des problèmes ; or l’écrasante majorité des données partagées concernent des problèmes et n’apportent donc pas de connaissances nouvelles à l’IA. Ce que ces données apportent, en revanche, sont de précieux renseignements sur leurs utilisateurs aux GAFAM, qui leur permettent ensuite — là est tout leur modèle économique — de vendre de la publicité ciblée à des annonceurs.

Technologie embarquée : vers des IA personnalisables

Outre qu’il ne respecte en aucune façon la vie privée des utilisateurs, ce brassage des données dans le cloud a pour — autre — désavantage de donner naissance à une intelligence trop générale, qui manque de précision.
Dans ce modèle de compréhension vocale unique, utilisée par tout le monde quelles que soient les requêtes, les mots sont pondérés selon leur probabilité d’occurrence (par exemple Barack Obama a plus de poids qu’un nom moins populaire). Si cela est bien pour les noms connus, c’est en revanche plus approximatif dès que la notion évoquée perd en popularité. Cette approche est donc limitée en ce qu’elle ne tient pas compte du contexte même de la recherche. Là où le cloud cherche à servir tout le monde avec un moteur de compréhension unique, la reconnaissance vocale embarquée est par essence contextualisable : une enceinte intelligente va cibler spécifiquement une recherche musicale (et, donc, ne pas rechercher Barack Obama comme artiste si on lui demande Barbara). Grâce au machine learning embarqué, l’outil va même pouvoir s’enrichir des goûts personnels des utilisateurs, et créer une IA personnalisable en fonction des usages spécifiques à chacun.

Alors que la société se dirige vers une configuration du « tout connecté » (mails, contact, fichiers), les risques que représente le passage par le cloud restent un frein. Difficile, en effet, d’envoyer dans le cloud des données qui, croisées, ouvrent le champ de toute une vie. Mais, si ces données restent en interne et sont interprétées par des technologies de machine learning embarquées, il y a fort à parier que les utilisateurs seront désireux de profiter de la simplification sans précédent que permet leur interconnexion. Une fois les données en sécurité, il est alors possible pour chaque personne de les soumettre au machine learning, afin d’entraîner son propre assistant personnel intelligent.

 

Contributeur expert

Joseph Dureau

Joseph Dureau est le CTO de Snips.

Partager l'article

8 startups et PME françaises lauréates de l’appel à projets EUREKA – Challenge international COVID-19

Bpifrance a annoncé ce jour les lauréats du Challenge international Covid-19. Suite à l'appel à projets ouvert du 15 avril au 15 mai 2020,...

Une approche européenne de l’intelligence artificielle : EIT Digital fait part de ses recommandations

EIT Digital a présenté son troisième rapport de sa série Policy Perspective. Il aborde la manière dont l'Europe devrait gérer l'intelligence artificielle et fournit...

Replay – Conférence 1re Pierre : Cité de l’Intelligence Artificielle organisée par le département des Alpes-Maritimes et l’Institut EuropIA

Le lundi 14 septembre 2020 s'est déroulé le troisième #IADATES organisé par le département des Alpes-Maritimes et l’Institut EuropIA. Intitulée "1re Pierre : Cité...

reciTAL, spécialiste du TAL, lève 3,5 M€ auprès de Breega

Paris, le 10 septembre 2020 - reciTAL, start-up IA spécialisée dans les solutions de Document Intelligence, effectue une première levée de fonds de 3,5 M€...