Les insectes, notamment les fourmis, inspirent de plus en plus les chercheurs en robotique pour la conception de systèmes de navigation autonomes pour de minuscules robots. Les fourmis utilisent une combinaison de reconnaissance visuelle de leur environnement et de comptage de leurs pas pour retrouver leur chemin, une stratégie que les chercheurs de l’Université technique de Delft ont adaptée pour les drones légers. Leur étude, publiée dans Science Robotics le 17 juillet dernier, présente une méthode de navigation efficace pour ces robots, qui nécessite très peu de calcul et de mémoire, seulement 0,65 kilo-octet pour 100 mètres de trajet.
Les robots miniatures, pesant de quelques dizaines à quelques centaines de grammes, ont un potentiel d’applications intéressantes dans le monde réel. Ils présentent plusieurs avantages : leur poids léger minimise les risques de blessures en cas de collision, leur petite taille leur permet de naviguer dans des espaces restreints, leur coût moindre permet de les déployer en grand nombre pour couvrir de vastes zones rapidement, comme dans des serres pour la détection précoce de ravageurs ou de maladies.
Cependant, un obstacle majeur à leur utilisation est qu’ils doivent être capables de naviguer de manière autonome pour effectuer des tâches dans le monde réel. Ils peuvent bénéficier d’une infrastructure externe, comme les estimations de localisation par GPS à l’extérieur ou les balises de communication sans fil à l’intérieur, mais il est préférable de ne dépendre de telles infrastructures. Le GPS n’est pas disponible à l’intérieur et peut être très imprécis dans des environnements encombrés, l’installation et l’entretien de balises dans les espaces intérieurs sont coûteux ou parfois impossibles, par exemple dans les scénarios de recherche et de sauvetage.
L’IA nécessaire à la navigation autonome utilisant uniquement des ressources embarquées a été conçue pour les grands robots tels que les voitures autonomes. Pour les systèmes plus petits, comme le drone de 56 g mentionné, les capteurs peuvent être trop grands, lourds ou gourmands en énergie. Par exemple, les capteurs LiDAR, bien que précis, ne conviennent pas aux petites plateformes. La navigation basée sur la vision pourrait être une solution, car les caméras sont légères et économes en énergie, mais les exigences de calcul des algorithmes de vision sous-jacents traditionnels sont excessives.
Stratégie inspirée des insectes
Les insectes utilisent une combinaison d’odométrie (suivi de leurs propres mouvements, en l’occurrence le comptage de pas pour les fourmis) et une mémoire visuelle quasi omnidirectionnelle pour naviguer. Ils prennent des instantanés visuels de leur environnement et comparent leur perception actuelle avec ces instantanés pour se diriger correctement. Cette méthode leur permet de retrouver leur chemin même dans des environnements complexes.
Les chercheurs s’en sont inspirés pour leurs expériences : leur drone a pris des images de son environnement à différents points de son trajet aller. Ces images ont servi de repères visuels pour le trajet retour et la navigation future grâce à un algorithme combinant guidage visuel et odométrie.
Tom van Dijk, premier auteur de l’étude, explique :
“La navigation basée sur des instantanés peut être comparée à la façon dont Hansel a essayé de ne pas se perdre dans le conte de fées de Hansel et Gretel. Quand Hans jetait des pierres sur le sol, il pouvait rentrer chez lui. Cependant, lorsqu’il a jeté des miettes de pain qui ont été mangées par les oiseaux, Hans et Gretel se sont perdus. Dans notre cas, les pierres sont les instantanés”.
Il ajoute :
“Comme pour une pierre, pour qu’un instantané fonctionne, le robot doit être suffisamment proche de l’emplacement de l’instantané. Si l’environnement visuel devient trop différent de celui de l’emplacement de l’instantané, le robot peut se déplacer dans la mauvaise direction et ne plus jamais revenir. Il faut donc utiliser suffisamment d’instantanés – ou dans le cas de Hansel, laisser tomber un nombre suffisant de pierres. D’un autre côté, laisser tomber des pierres trop près les unes des autres épuiserait trop rapidement les pierres de Hans. Dans le cas d’un robot, l’utilisation d’un trop grand nombre d’instantanés entraîne une consommation de mémoire importante. Les travaux précédents dans ce domaine avaient généralement les instantanés très proches les uns des autres, de sorte que le robot pouvait d’abord se loger visuellement sur un instantané, puis sur le suivant”.
Guido de Croon, professeur titulaire de drones bio-inspirés et co-auteur de l’article, commente :
“L’idée principale qui sous-tend notre stratégie est que vous pouvez espacer les instantanés beaucoup plus loin, si le robot se déplace entre les instantanés en fonction de l’odométrie”.
Il précise :
“Le guidage fonctionnera tant que le robot se retrouvera suffisamment près de l’emplacement de l’instantané, c’est-à-dire tant que la dérive d’odométrie du robot se situe dans la zone de chalandise de l’instantané. Cela permet également au robot de voyager beaucoup plus loin, car le robot vole beaucoup plus lentement lorsqu’il se dirige vers un instantané que lorsqu’il vole d’un instantané à l’autre en fonction de l’odométrie”.
Cette stratégie de navigation a permis à un drone « CrazyFlie » de 56 grammes, équipé d’une caméra omnidirectionnelle, de couvrir des distances allant jusqu’à 100 mètres avec seulement 1,16 kilo-octet. Tout le traitement visuel se faisait sur un minuscule ordinateur appelé « microcontrôleur », que l’on trouve dans de nombreux appareils électroniques bon marché.
Guido de Croon conclut :
“La stratégie de navigation inspirée des insectes proposée est une étape importante sur la voie de l’application de minuscules robots autonomes dans le monde réel. La fonctionnalité de la stratégie proposée est plus limitée que celle fournie par les méthodes de navigation de pointe. Il ne génère pas de carte et permet uniquement au robot de revenir au point de départ. Pourtant, pour de nombreuses applications, cela peut être plus que suffisant. Par exemple, pour le suivi des stocks dans les entrepôts ou le suivi des cultures dans les serres, les drones pourraient s’envoler, collecter des données puis revenir à la station de base. Ils pouvaient stocker des images pertinentes pour la mission sur une petite carte SD pour un post-traitement par un serveur. Mais ils n’en auraient pas besoin pour la navigation elle-même”.
Références de l’article :
- Tom van Dijk, Christophe De Wagter, Guido C. H. E. de Croon. Suivi visuel de l’itinéraire pour les petits robots autonomes. Science Robotics, 2024 ; 9 (92) DOI : 10.1126/scirobotics.adk0310
- Université de technologie de Delft. « Les connaissances des fourmis mènent à une percée dans la navigation des robots. » ScienceDaily. 17 juillet 2024.