O MongoDB e os parceiros desenvolveram integrações de produtos específicas para ajudá-lo a aproveitar o MongoDB Atlas em seus aplicativos movidos a IA e agentes de IA.
Esta página destaca integrações de IA notáveis que a MongoDB e seus parceiros desenvolveram. Você pode usar o MongoDB Atlas com provedores populares de IA e LLMs por meio de seus métodos de conexão padrão e APIs. Para obter uma lista completa de integrações e serviços de parceiros, consulte Conheça o ecossistema de parceiros do MongoDB .
Frameworks
Você pode usar as seguintes estruturas para armazenar dados personalizados no Atlas e implementar recursos como o RAG com o Atlas Vector Search.
LangChain
OLangChain é uma estrutura que simplifica a criação de aplicativos LLM por meio do uso de "cadeias", que são componentes específicos do LangChain que podem ser combinados para uma variedade de casos de uso, incluindo o RAG.
Para começar, consulte os seguintes recursos:
LangChainGo
LangChainGo é um framework que simplifica a criação de aplicativos LLM no Go. A LangChainGo incorpora os recursos da LangChain ao ecossistema Go. Você pode usar o LangChainGo para uma variedade de casos de uso, incluindo pesquisa semântica e RAG.
Para começar, veja Introdução à integração do LangChainGo.
LangChain4j
LangChain4j é um framework que simplifica a criação de aplicativos LLM em Java. O LangChain4j combina conceitos e funcionalidades do LangChain,Haystack, LlamaIndex e outras fontes. Você pode usar o LangChain4j para uma variedade de casos de uso, incluindo pesquisa semântica e RAG.
Para começar, consulte Introdução à integração com o LangChain4j.
LlamaIndex
LlamaIndex é uma framework que simplifica a forma como você conecta fontes de dados personalizadas aos LLM . Ele fornece várias ferramentas para ajudá-lo a carregar e preparar incorporações vetoriais para aplicativos RAG .
Para começar, consulte Introdução à integração com o LlamaIndex.
Kernel semântico
Microsoft Kernel semântica da é um SDK que permite combinar vários AI serviços de com seus aplicativos. Você pode usar o Semantic Kernel para uma variedade de casos de uso, incluindo RAG.
Para começar, consulte os seguintes tutoriais:
Haystack
Haystack é uma estrutura para criar aplicativos personalizados com LLMs, modelos de incorporação, pesquisa vetorial e muito mais. Ele permite casos de uso como resposta a perguntas e RAG.
Para começar, consulte Introdução à integração com o Haystack.
Spring AI
Spring AI é uma estrutura de aplicativo que permite aplicar os princípios de design do Spring ao seu aplicativo de IA. Você pode usar o Spring AI para uma variedade de casos de uso, incluindo pesquisa semântica e RAG.
Para começar, consulte Introdução à integração do Spring AI.
Frameworks do agente
Você pode usar as seguintes frameworks para criar agentes de IA que usam o Atlas para implementar recursos como RAG de agente e memória de agente .
LangGraph
LangGraph é um framework especializado dentro do ecossistema LangChain, projetado para desenvolver agentes de AI e fluxos de trabalho multiagentes complexos. A abordagem baseada em grafos do LangGraph permite que você determine dinamicamente o caminho de execução do seu aplicativo, possibilitando aplicativos e casos de uso avançados e autônomos. Ele também suporte funcionalidades como persistência, streaming e memória.
Para começar, consulte os seguintes recursos:
Plataformas
Você também pode integrar o Atlas Vector Search com as seguintes plataformas corporativas para construir aplicativos de IA generativa . Essas plataformas fornecem modelos pré-treinados e outras ferramentas para ajudá-lo a criar aplicativos e agentes de IA em produção.
Amazon Bedrock
A Amazon CamaDB é uma plataforma totalmente gerenciada para criar aplicativos de IA generativa . Você pode integrar o Atlas Vector Search como uma base de conhecimento para o Amazon CamaDB armazenar dados personalizados no Atlas, implementar RAG e implantar agentes.
Para começar, consulte Introdução à integração da base de conhecimento do Amazon Bedrock.
Google Vertex AI
Vertex AI é uma plataforma do Google Cloud para desenvolver e implantar aplicativos e agentes de IA. A plataforma Vertex AI inclui várias ferramentas e modelos pré-treinados do Google que você pode usar com o Atlas para RAG e outros casos de uso, como consultas em linguagem natural.
Para começar, veja Integrar Atlas com o Google Vertex AI.
Ferramentas
Você também pode integrar o Atlas com as seguintes ferramentas de IA.
Servidor MongoDB MCP
O Model Context Protocol (MCP) é um padrão aberto de como os LLMs se conectam e interagem com recursos e serviços externos. Use nossa implementação oficial do Servidor MCP para interagir com seus dados e implantações do Atlas a partir de suas ferramentas, assistentes e plataformas de IA agente.
Para saber mais,consulte Servidor MongoDB MCP.