Le 19 septembre dernier, à l’occasion de sa conférence MongoDB.local NYC, l’éditeur new-yorkais a annoncé que la recherche en texte intégral et la recherche vectorielle sont désormais disponibles en avant-première publique dans ses versions autogérées, MongoDB Community Edition et MongoDB Enterprise Server. Jusqu’ici réservées à MongoDB Atlas, son service managé dans le cloud, ces capacités avancées deviennent accessibles aux développeurs et aux organisations souhaitant expérimenter localement ou sur site.
Une réponse aux besoins croissants de l’IA
Jusqu’à présent, enrichir les environnements MongoDB autogérés de fonctionnalités de recherche impliquait de recourir à des moteurs externes ou à des bases vectorielles spécialisées. Cette fragmentation ajoutait de la complexité et des coûts, tout en fragilisant les pipelines ETL (extraction, transformation et chargement). Avec l'intégration native des fonctions MongoDB Search et MongoDB Vector Search aux éditions Community et Enterprise, les développeurs et entreprises peuvent désormais expérimenter des applications d’IA reposant sur des données non structurées (textes, images, vidéos, fichiers audio) sans avoir à recourir à des moteurs externes. La combinaison de la recherche par mot-clé et de la recherche vectorielle permet d’améliorer la précision des résultats, un atout pour les solutions basées sur la génération augmentée par récupération (RAG) et pour les agents IA.
Vers une démocratisation de la recherche vectorielle
L’annonce intervient alors que la demande pour les bases vectorielles intégrées ne cesse de croître. Selon IDC, 74 % des organisations prévoient d’y recourir dans le cadre de leurs flux de travail liés à l’IA. En intégrant ces fonctionnalités directement dans ses éditions locales, MongoDB espère séduire une base d’utilisateurs plus large, tout en facilitant la transition vers Atlas pour les déploiements en production et à grande échelle.
Des partenaires clés, tels que LangChain, LlamaIndex ou Scaleway, ont participé aux phases de test. Ils saluent une simplification des architectures RAG et une amélioration des performances. "Ces nouvelles capacités rationalisent le développement tout en offrant des expériences de recherche IA plus précises", souligne Jon Regueiro Martin, directeur des produits données et services managés chez Scaleway.