Intelligence artificielle Intervention de Rémi Bardenet, chercheur en IA, ce 19 mai lors du...

Pour approfondir le sujet

Sur le même thème :

Projet ELSA : apprentissage effectif des affordances sociales pour l’interaction humain-robot

Les affordances (du verbe anglais to afford, permettre) sont les propriétés de l’environnement ou d'un objet qui s’y trouve, qui, lorsqu’elles sont perçues, permettent...

Capgemini et Peugeot Sport partenaires pour le développement de la Peugeot 9X8 Hybrid Hypercar

Peugeot Sport s’est associé à Capgemini pour accélérer et optimiser le développement de son hypercar hybride, la Peugeot 9X8, engagée en Championnat du Monde...

Docaposte annonce la création d’un pôle en data et intelligence artificielle

Docaposte, filiale numérique du groupe La Poste, ambitionne de devenir le référent français des solutions de confiance numérique. Dans cet objectif, elle a annoncé,...

Découvrez ActuIA n°7, le nouveau numéro du magazine de l’intelligence artificielle

Le n°7 d’ActuIA, le magazine de l’intelligence artificielle, arrive en kiosques et en version numérique ! Abonnez-vous dès aujourd’hui pour le recevoir directement chez...

Intervention de Rémi Bardenet, chercheur en IA, ce 19 mai lors du Colloquium Polaris

La communauté scientifique des chercheurs en informatique et automatique de Lille, en forte croissance ces dernières années, s’est fédérée autour de la constitution du « Colloquium Polaris ». Huit à dix fois par an, des chercheurs viennent y présenter leurs travaux. Ce 19 mai, Rémi Bardenet, chercheur CNRS à l’Université de Lille, interviendra lors du Colloquium Polaris qui aura lieu à l’amphithéâtre de l’Ircica, à Villeneuve d’Ascq. Son exposé portera sur l’amélioration de l’échantillonnage aléatoire en imposant la diversité.

Le Colloquium Polaris compte deux entités : le centre de recherche Inria Lille – Nord Europe et le laboratoire universitaire CRIStAL : Centre de Recherche en Informatique, Signal et Automatique de Lille.

Leurs chercheurs entendent enrichir la vie scientifique de leur communauté en proposant ce colloquium de dimension internationale où sont partagés des travaux de qualité dans le domaine des sciences du numérique, de l’informatique et de l’automatique, qui dépassent les frontières de leurs établissements respectifs.

Rémi Bardenet, chercheur en intelligence artificielle

Après une formation de mathématiques à l’Université de Strasbourg et un master en Machine Learning à l’ENS Cachan, Rémi Bardenet obtient un doctorat d’informatique de l’Université Paris-Sud en 2012. Sa thèse porte sur le développement de méthodes statistiques pour l’analyse des données d’une des grandes expériences actuelles de physique des particules, l’expérience Pierre Auger en Argentine.

Il déclare:

« En quelques mots, j’ai obtenu mon doctorat en novembre 2012 à l’Université Paris-Sud, en France, en travaillant avec Balázs Kégl sur les méthodes de Monte Carlo et l’optimisation bayésienne, appliquées à la physique des particules et à l’apprentissage automatique. J’ai notamment été membre de la collaboration Pierre Auger. »

Pendant son séjour postdoctoral à l’Université d’Oxford, au Royaume-Uni, Rémi Bardenet étudie les limites computationnelles des statistiques bayésiennes lorsque les données sont trop nombreuses pour être stockées en mémoire.

Il ajoute :

« J’ai ensuite rejoint le groupe de Chris Holmes à l’Université d’Oxford, au Royaume-Uni, pour travailler en tant que postdoc sur la méthode de Monte Carlo par chaîne de Markov pour les données de grande taille. Depuis, je travaille également sur les applications à la biologie computationnelle au sein du réseau scientifique 2020, dont je suis maintenant un membre émérite. »

Il rejoint ensuite le laboratoire CRIStAL de l’Université de Lille début 2015, dans l’équipe SigMA («Signaux, modèles et applications») où il travaille à un programme de recherche sur l’utilisation statistique des processus ponctuels répulsifs avec Adrien Hardy, du Laboratoire de Mathématiques Paul Painlevé de l’Université de Lille.

Avec ses collègues de l’équipe SIGMA, Rémi Bardenet a reconnu dans les outils traditionnels du traitement de signal des processus répulsifs issus de l’optique quantique, dont les propriétés statistiques permettent d’élaborer de nouveaux algorithmes de débruitage. Il continue d’explorer les connections avec le traitement du signal d’une part, et avec l’optique quantique d’autre part.

Ces travaux de recherche lui ont valu l’obtention des financements de l’ERC Starting Grant « Blackjack » de 2020 à 2025, ainsi que d’une chaire nationale d’intelligence artificielle nommée « Baccarat » de 2020 à 2024. Il a également reçu la médaille de bronze du CNRS l’an passé.

Améliorer l’échantillonnage aléatoire en imposant la diversité, thème de l’exposé

L’échantillonnage consiste à sélectionner un petit nombre d’éléments pour représenter un grand ensemble d’éléments, éventuellement infini.

Ainsi, lorsque les statisticiens se trouvent face à un ensemble de données où chaque individu est décrit par un nombre intraitable de caractéristiques, ils peuvent ne conserver parfois que les caractéristiques les plus informatives dans leur ensemble de données. Les éléments sont alors des colonnes dans une matrice de graisse et l’échantillon, un petit ensemble d’indices de colonnes.

Pour une intégration numérique, on résume une fonction par un nombre fini d’évaluations de cette fonction, qui  vont ensuite être combinées pour estimer son intégrale. Dans ce cas, l’ensemble de base est la fonction, une collection infinie de paires d’entrées-sorties, et l’échantillon est le petit ensemble d’évaluations de la fonction.

Rémi Bardenet s’intéresse à l’échantillonnage aléatoire, autrement dit aux algorithmes d’échantillonnage qui sont décrits par le tirage d’une distribution de probabilité sur des sous-ensembles d’éléments. Par exemple, l’intégration de Monte Carlo est une technique d’intégration numérique utilisant des nombres aléatoires. Alors que de nombreux algorithmes fondamentaux d’échantillonnage aléatoire tirent des éléments indépendamment les uns des autres, Rémi Bardenet se penche sur les distributions d’échantillonnage où les éléments individuels sont échantillonnés conjointement, avec la contrainte que l’échantillon résultant soit aussi diversifié que possible.

Lors du colloquium, il exposera quelques problèmes d’échantillonnage pour lesquels il a pu transformer une notion naturelle de diversité en un algorithme d’échantillonnage qui soit à la fois calculable et doté de garanties de performance statistique de pointe.

 
Pierre-yves Gerlat

Partager l'article

Découvrez ActuIA n°8, le nouveau numéro du magazine de l’intelligence artificielle

L’été est bien là et c’est déjà l’heure du nouveau numéro d’ActuIA, votre magazine de l’intelligence artificielle ! Pour ce n°8 d’ActuIA, disponible dès...

Victor Schmidt, doctorant sous la direction de Yoshua Bengio, est le lauréat de la 6ème bourse Antidote en TAL

Druide informatique a annoncé fin mai la nomination du lauréat de la 6e Bourse Antidote en traitement automatique de la langue (TAL). Victor Schmidt,...

Retour sur le lauréat du Prix CNIL-INRIA pour la protection de la vie privée

Fin mai, François Pelligrini et Mathieu Cunche, co-présidents du Jury du Prix CNIL-Inria, ont remis le prix pour la protection de la vie privée...

La Lufthansa s’appuie sur le logiciel « Virtual Aviation Training » de NMY pour former ses équipes de cabine

La pandémie a fortement impacté les compagnies aériennes. Depuis la levée des restrictions sanitaires, elles doivent affronter un autre problème : malgré une forte...
Recevoir une notification en cas d'actualité importante    OK Non merci