LightOn : L’avenir de l’intelligence artificielle passe par la lumière

Le hardware est relativement peu évoqué en matière d’intelligence artificielle alors que c’est en grande partie sur lui que repose le nouvel essor que nous connaissons actuellement. Nous avons eu le plaisir de visiter les locaux de LightOn, et d’y interviewer son CEO Igor Carron. La startup met au point une technologie de processeur optique amenée à révolutionner le calcul informatique en matière d’intelligence artificielle.

Après les CPU et les GPU, les OPU ?

Les CPU (Central Processing Unit)
A la naissance de l’informatique, les ordinateurs n’étaient dotés que d’un seul processeur : le CPU. Ce processeur était alors en charge de la totalité des calculs effectués par la machine : opérations arithmétiques, logiques, contrôle des entrées et sorties effectués pour répondre à l’ensemble des tâches prises en charge par l’ordinateur.

Les GPU (Graphics Processing Unit)
Les GPU ont vu le jour dès les années 70 et se sont popularisés dans les ordinateurs personnels à partir de la deuxième moitié des années 90. Bien qu’ils soient avant tout destinés à l’affichage de graphismes 2D et 3D, leurs capacités de calcul parallèle les ont progressivement détournés d’une utilisation purement graphique : ils se sont révélés très performants pour les calculs fortement parallélisables, tels que ceux effectués en deep learning.

Les calculs d’intelligence artificielle peuvent donc être effectués par le CPU seul ou tirer également parti d’un GPU, mais le GPU se rend rapidement indispensable pour tout projet conséquent.

Ces deux types de processeurs reposent sur l’électronique et se distinguent avant tout par leur architecture.

Les NPU (Neural Processing Unit)
Les NPU sont des processeurs conçus pour effectuer des calculs destinés à l’intelligence artificielle. Ils sont optimisés pour certaines tâches spécifiques, par exemple les réseaux convolutifs.  Les NPU peuvent notamment, mais non exclusivement, être destinés à des tâches d’inférence dans des applications embarquées de l’IA. L’offre est hétérogène et non standardisée.

Tout comme les CPU et les GPU, les NPU reposent habituellement sur l’électronique.

Les OPU (Optical Processing Unit)
Les OPU sont des types de processeurs reposant non pas sur l’électronique mais sur l’optique. Ils sont très prometteurs en terme de performances puisque l’information est véhiculée par la lumière. Nous pourrions dire, de façon réductrice, que l’OPU est aux processeurs traditionnels ce que la fibre optique est au câble électrique.

S’il n’est actuellement pas envisageable qu’un OPU remplace un CPU, ce nouveau type de processeur permet d’effectuer des tâches précises de façon optimisée. La startup Lighton, précurseur dans le domaine, met au point une technologie d’OPU spécialisée dans la projection de matrices aléatoires, un procédé utilisé pour la réduction des dimensions.

Le fonctionnement de la technologie mise au point par LightOn

Dans le cadre d’un projet de machine learning, il est reconnu qu’une projection de matrice aléatoire permet notamment de réduire le nombre de features et ainsi optimiser les performances du modèle. Ce que Lighton vient révolutionner, c’est la façon dont sont générées ces projections de matrices aléatoires.

Concrètement, le processus peut sembler simple : Un faisceau laser est projeté avant d’être dispersé et altéré à travers différents composants optiques formant ainsi une matrice (tableau) de grande dimension de points lumineux. Le résultat est ensuite capté par une caméra et reconverti sous forme de signal numérique. Dans les faits, la mise au point d’une telle technologie est extrêmement complexe et ne pourrait se faire sans l’expertise pluridisciplinaire de l’équipe: La startup réunit des experts en physique, mathématiques et informatique.  L’opération permet d’effectuer à la vitesse de la lumière cette tâche qui s’avérerait extrêmement coûteuse en puissance de calcul tout comme en mémoire si elle était effectuée par des composants électroniques.

Les opérations prises en charge par la technologie LightOn sont beaucoup plus rapides. L’équipe a mesuré une vitesse de calcul sur des tâches de type Transfer Learning 5 fois supérieure aux GPU du marché et 200 fois supérieure à un CPU sur une analyse de série temporelle par un réseau de neurones récurrents (RNN).

Ces opérations sont aussi beaucoup moins gourmandes en énergie : avec une consommation d’une trentaine de watts, le système consomme jusqu’à 30 fois moins d’électricité que les GPU. Critère d’autant plus crucial que la consommation électrique des datacenters représente aujourd’hui une part non négligeable et grandissante de la consommation électrique mondiale.

Une intégration aisée dans les projets d’intelligence artificielle

La technologie, qui en est au stade de Proof Of Concept, tient actuellement dans un rack serveur. Deux prototypes sont hébergés au sein des datacenters OVH et mis à disposition de la communauté scientifique, invitée à la tester et à mesurer les gains en performances.

La vraie force de cette technologie, outre le gain en performance, est qu’elle s’intègre de façon quasiment transparente aux workflows : La volonté de l’équipe est qu’il soit aussi simple de tirer parti des performances de cet OPU que de celles d’un GPU.

Un module Python permettant d’exploiter l’OPU est mis à disposition des datascientists. Ils n’ont donc pas à remettre en question leurs connaissances actuelles pour exploiter la puissance du traitement optique. La phase de conversion électronique > optique > électronique est totalement transparente. La technologie est déjà pleinement compatible avec scikit-learn.

Dr Maurizio Filippone, expert de renommée mondiale en apprentissage statistique à Eurecom (France) dit à propos de LightOn :

“JE TROUVE LA TECHNOLOGIE OPTICAL PROCESSING UNIT DÉVELOPPÉE À LIGHTON PUREMENT FASCINANTE. ELLE VA PERMETTRE D’EFFECTUER UNE SÉRIE DE CALCULS STOCHASTIQUES PLUS RAPIDEMENT QU’AVEC LES GPU, SUR DES DONNÉES DE PLUS GRANDE TAILLE, ET AVEC UNE CONSOMMATION ÉLECTRIQUE MOINDRE. CELA POURRAIT ANNONCER UNE RÉVOLUTION DANS NOTRE DOMAINE.”

La startup, prometteuse, a remporté le Prix Joseph Fourier et figure parmi les lauréats du Paris Region AI Challenge 2018. LightOn souhaite aujourd’hui industrialiser cette technologie afin de généraliser l’utilisation de ses OPU au sein des datacenters de par le monde.

Igor Carron n’exclut d’ailleurs pas que dans quelques années les OPU développés par sa société puissent être suffisamment miniaturisés pour pouvoir être intégrés aux ordinateurs personnels et qu’ils puissent optimiser les performances des ordinateurs sur certains calculs, au même titre que les GPU.

Et le quantique dans tout ça ?

Nous entendons souvent parler de l’informatique quantique, technologie qui s’apprête à révolutionner l’informatique tel que nous la connaissons. Si la technologie quantique est extrêmement prometteuse, elle repose sur d’autres paradigmes que l’informatique traditionnelle. La fabrication d’ordinateurs quantique serait à l’heure actuelle difficilement industrialisable et son adoption par les informaticiens nécessitera une réelle transition dans la manière de penser la programmation. La technologie proposée par LightOn n’est donc pas en concurrence frontale avec l’informatique quantique. Igor Carron se dit d’ailleurs extrêmement intéressé par l’informatique quantique et son potentiel sur le long terme.

Nb : Interview réalisée en octobre 2018.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.

1ère Marketplace de l'IA et de la transformation numérique vous recommande :

Rethink AI for the Enterprise

LightOn produit et commercialise des Grands Modèles de Langage puissants (type GPT-3, ChatGPT) pour les entreprises. Avec Paradigm, les entreprises pe

Découvrir LightOn

 
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.