Le cloud : une performance en trompe-l’œil

    Le cloud : une performance en trompe-l’œil
    Actu IA
    joseph_dureau_snips

    En Intelligence artificielle (IA), le choix entre performance sur le cloud et respect de la vie privée en local est un faux choix. Non seulement l’IA peut être aussi performante en local, mais recourir à des technologies embarquées permet de personnaliser la compréhension, et donc de l’affiner.

    Les assistants vocaux des géants américains du numérique, qui inondent aujourd’hui le marché, fonctionnent principalement sur le cloud. En dépit d’une volonté des plus grands acteurs de façonner le monde selon ce modèle, l’usage du cloud dépossède les utilisateurs du contrôle de leurs données. Loin d’un monde numérique 100 % cloud, les grandes espérances portent en réalité sur l’utilisation de technologies embarquées.

    La supériorité du cloud : un mythe

    Une fausse idée, savamment entretenue par les GAFAM, est celle selon laquelle les technologies hébergées sur le cloud seraient plus performantes que celles embarquées en local. Certes, le cloud a par essence une capacité de calcul infinie, là où la puissance de calcul embarquée est limitée par l’objet qui la contient. Mais il s’agit d’une contrainte en trompe-l’œil, car les ressources du cloud n’ont pour autant pas systématiquement d’impact visible sur la performance. Pour l’usage quotidien qui est fait des objets intelligents, disposer d’une puissance gigantesque est tout simplement inutile.
    De plus, les technologies les plus avancées en IA, notamment le machine learning, peuvent très bien se passer du cloud. Le machine learning embarqué s’est d’ailleurs démocratisé, et équipe les principaux smartphones et ordinateurs du marché — c’est par exemple ainsi que fonctionnent les applications de reconnaissance faciale ou auditive de nos téléphones.

    L’arrivée des puces neuromorphiques : un bond technologique imminent

    S’il est déjà souvent possible d’avoir les mêmes performances en local que sur le cloud, l’arrivée des « puces neuromorphiques » va réduire comme peau de chagrin les arguments du cloud en matière de performance. D’un nouveau genre, ces puces sont conçues spécifiquement pour l’exécution de réseaux de neurones ; ces modèles inspirés du cerveau qui ont révolutionné le machine learning. En un mot, cette nouvelle génération de puces permet d’embarquer des IA beaucoup, beaucoup plus puissantes, et leur arrivée imminente sur le marché va permettre un bond technologique pour tous les objets du quotidien. Les téléphones haut de gamme sont déjà équipés de puces neuromorphiques, et l’année à venir devrait voir leur incursion dans les objets du quotidien : enceintes, télévision, électroménager.

    L’amélioration continue des IA sur le cloud : un autre mythe

    Ce qui participe aux fantasmes suscités par les principaux assistants vocaux, la Google Home ou l’Alexa, est leur capacité à brasser toutes les données de leurs utilisateurs dans le même chaudron. A les en croire, le passage des données par le cloud permettrait d’entraîner l’IA et donc de la perfectionner ; et c’est sur la base de cet argument que le partage de leurs données est demandé aux utilisateurs, sans qu’ils en comprennent la nécessité ou les implications.
    Mais cet argument est sans fondement : l’IA ne peut en effet apprendre que des réponses à des problèmes ; or l’écrasante majorité des données partagées concernent des problèmes et n’apportent donc pas de connaissances nouvelles à l’IA. Ce que ces données apportent, en revanche, sont de précieux renseignements sur leurs utilisateurs aux GAFAM, qui leur permettent ensuite — là est tout leur modèle économique — de vendre de la publicité ciblée à des annonceurs.

    Technologie embarquée : vers des IA personnalisables

    Outre qu’il ne respecte en aucune façon la vie privée des utilisateurs, ce brassage des données dans le cloud a pour — autre — désavantage de donner naissance à une intelligence trop générale, qui manque de précision.
    Dans ce modèle de compréhension vocale unique, utilisée par tout le monde quelles que soient les requêtes, les mots sont pondérés selon leur probabilité d’occurrence (par exemple Barack Obama a plus de poids qu’un nom moins populaire). Si cela est bien pour les noms connus, c’est en revanche plus approximatif dès que la notion évoquée perd en popularité. Cette approche est donc limitée en ce qu’elle ne tient pas compte du contexte même de la recherche. Là où le cloud cherche à servir tout le monde avec un moteur de compréhension unique, la reconnaissance vocale embarquée est par essence contextualisable : une enceinte intelligente va cibler spécifiquement une recherche musicale (et, donc, ne pas rechercher Barack Obama comme artiste si on lui demande Barbara). Grâce au machine learning embarqué, l’outil va même pouvoir s’enrichir des goûts personnels des utilisateurs, et créer une IA personnalisable en fonction des usages spécifiques à chacun.

    Alors que la société se dirige vers une configuration du « tout connecté » (mails, contact, fichiers), les risques que représente le passage par le cloud restent un frein. Difficile, en effet, d’envoyer dans le cloud des données qui, croisées, ouvrent le champ de toute une vie. Mais, si ces données restent en interne et sont interprétées par des technologies de machine learning embarquées, il y a fort à parier que les utilisateurs seront désireux de profiter de la simplification sans précédent que permet leur interconnexion. Une fois les données en sécurité, il est alors possible pour chaque personne de les soumettre au machine learning, afin d’entraîner son propre assistant personnel intelligent.

     

    PARTAGER