Jeudi 25 Septembre 2025
Le 19 septembre dernier, lors de sa conférence MongoDB.local NYC, la société éditrice new-yorkaise a révélé que la recherche textuelle intégrale et la recherche vectorielle sont maintenant offertes en version préliminaire publique dans ses versions autogérées, à savoir MongoDB Community Edition et MongoDB Enterprise Server. Auparavant uniquement disponibles sur MongoDB Atlas, son service géré dans le nuage, ces fonctionnalités avancées deviennent accessibles aux développeurs et aux entreprises désirant les tester en local ou sur leurs propres infrastructures.
Une réponse aux besoins croissants de l’intelligence artificielle : jusqu’à maintenant, pour doter les environnements MongoDB autogérés de capacités de recherche, il était nécessaire d'employer des moteurs externes ou des bases vectorielles spécialisées. Cette fragmentation entraînait une complexité et des coûts supplémentaires, tout en rendant plus vulnérables les pipelines ETL (extraction, transformation et chargement). Grâce à l'intégration native des fonctions MongoDB Search et MongoDB Vector Search aux éditions Community et Enterprise, les développeurs et les entreprises peuvent dorénavant mettre en œuvre des applications d’IA s’appuyant sur des données non structurées (textes, images, vidéos, fichiers audio) sans avoir besoin de recourir à des solutions externes. La combinaison de la recherche par mot-clé et de la recherche vectorielle permet d’accroître la précision des résultats, ce qui est un avantage certain pour les solutions basées sur la génération augmentée par récupération (RAG) et pour les agents IA.
Vers une démocratisation de la recherche vectorielle : cette annonce survient à un moment où la demande pour les bases vectorielles intégrées ne cesse de croître. Selon IDC, 74 % des organisations envisagent de les utiliser dans leurs processus de travail liés à l’IA. En intégrant ces fonctions directement dans ses éditions locales, MongoDB ambitionne de conquérir un public plus vaste, tout en simplifiant la transition vers Atlas pour les déploiements en production et à grande échelle.
Des partenaires clés, comme LangChain, LlamaIndex ou Scaleway, ont participé aux phases d'évaluation. Ils se félicitent d'une simplification des architectures RAG et d'une amélioration des performances. "Ces nouvelles capacités rationalisent le développement tout en offrant des expériences de recherche IA plus précises", souligne Jon Regueiro Martin, directeur des produits données et services managés chez Scaleway.