Actualité Google dévoile une pré-version de TensorFlow Lite

Pour approfondir le sujet

Expérience IA : Volume reconstruit en 3D des images et vidéos 2D

Or Fleisher et Dror Ayalon, deux développeurs spécialisés en intelligence artificielle, ont lancé une expérience interactive IA sur leur site internet Volume.gl. Les internautes...

Google dévoile une pré-version de TensorFlow Lite

L’annonce en mai dernier par Google, lors du Google I/0 d’une nouvelle version de TensorFlow pour une utilisation mobile avait fait grand bruit. L’éditeur vient de proposer une pré-version pour les développeurs de TensorFlow Lite.

Plus légère, plus rapide et multi-plateforme

Cette bibliothèque deep learning est présentée par Google comme une évolution de son TensorFlow Mobile. Elle a notamment été développée pour être embarquée sur des petits (et moins puissants) dispositifs et pour une utilisation mobile. Elle est donc bien plus légère et rapide du fait de la taille du binaire mais aussi du temps de démarrage nécessaire. Disponible actuellement sur Android et iOS app developers, TensorFlow Lite devrait par la suite être multi-plateforme.

“Avec cette pré-version pour les développeurs, nous avons intentionnellement commencé avec une plate-forme limitée pour assurer la performance de certains des modèles les plus importants (…)

Nous prévoyons de prioriser la future expansion fonctionnelle en fonction des besoins de nos utilisateurs. Les objectifs de notre développement constant sont de simplifier l’expérience des développeurs et de permettre le déploiement de modèles pour une gamme d’appareils mobiles et embarqués. “

Conduire localement des opérations sans passer par des serveurs

Il ne s’agit pas d’une version complète mais Google indique que TensorFlow Lite fonctionne avec son API Neural Networks sur Android. Elle a été pré-testée pour MobileNet, Inception V3, Device Smart reply et autres modèles de traitement du langage naturel et de vision artificielle.

La bibliothèque sera très intéressante pour les applications nécessitant la conduite d’opérations de type deep learning en local. TensorFlow Lite permet en effet de ne pas avoir recours aux serveurs. Dans son communiqué, Google explique que:

“TensorFlow Lite dispose d’un nouvel interprète optimisé pour les mobiles, dont les principaux objectifs sont de maintenir les apps à la fois simples et rapides. L’interprète utilise un ordre de graphes statiques et un allocateur de mémoire personnalisé (moins dynamique) pour assurer un temps de chargement, d’initialisation et d’exécution minimal”.

Plus d’informations sur le site de TensorFlow et GitHub.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Johanna Diaz

Partager l'article

Pénurie des semi-conducteurs : Intel évoque ses prévisions et présente sa stratégie pour limiter les dégâts

À l'heure actuelle, l'industrie de l'informatique traverse une crise particulière : une pénurie de semi-conducteurs, essentiels dans la production de certains composants ou au...

Espagne : un projet de centre européen pour l’intelligence artificielle pour rivaliser avec les infrastructures européennes

En Espagne, un projet ambitieux autour de l'IA tend à se mettre en place. Un groupe d'investisseurs privés, dirigé par les propriétaires du téléopérateur...

L’apprentissage supervisé et par renforcement pour aider les robots à s’adapter à tout type d’environnement

A travers Rapid Motor Adaptation (RMA), Facebook progresse dans l'adaptation des robots à leur environnement, afin de développer leur motricité. Adapter les robots à un...

Cinéma et Deepfake : zoom sur la synchronisation des lèvres avec le doublage en langue étrangère

Le deepfake est une technique reposant sur l'intelligence artificielle qui permet de superposer des fichiers audio ou vidéos sur d'autres fichiers déjà existants pour...