Menu Docs
Página inicial do Docs
/
Atlas

Integre o MongoDB Atlas com tecnologias de IA

O MongoDB e os parceiros desenvolveram integrações de produtos específicas para ajudá-lo a aproveitar o MongoDB Atlas em seus aplicativos movidos a IA e agentes de IA.

Esta página destaca integrações de IA notáveis que a MongoDB e seus parceiros desenvolveram. Você pode usar o MongoDB Atlas com provedores populares de IA e LLMs por meio de seus métodos de conexão padrão e APIs. Para obter uma lista completa de integrações e serviços de parceiros, consulte Conheça o ecossistema de parceiros do MongoDB .

Você pode usar as seguintes estruturas para armazenar dados personalizados no Atlas e implementar recursos como o RAG com o Atlas Vector Search.

OLangChain é uma estrutura que simplifica a criação de aplicativos LLM por meio do uso de "cadeias", que são componentes específicos do LangChain que podem ser combinados para uma variedade de casos de uso, incluindo o RAG.

Para começar, consulte os seguintes recursos:

LangChainGo é um framework que simplifica a criação de aplicativos LLM no Go. A LangChainGo incorpora os recursos da LangChain ao ecossistema Go. Você pode usar o LangChainGo para uma variedade de casos de uso, incluindo pesquisa semântica e RAG.

Para começar, veja Introdução à integração do LangChainGo.

LangChain4j é um framework que simplifica a criação de aplicativos LLM em Java. O LangChain4j combina conceitos e funcionalidades do LangChain,Haystack, LlamaIndex e outras fontes. Você pode usar o LangChain4j para uma variedade de casos de uso, incluindo pesquisa semântica e RAG.

Para começar, consulte Introdução à integração com o LangChain4j.

LlamaIndex é uma framework que simplifica a forma como você conecta fontes de dados personalizadas aos LLM . Ele fornece várias ferramentas para ajudá-lo a carregar e preparar incorporações vetoriais para aplicativos RAG .

Para começar, consulte Introdução à integração com o LlamaIndex.

Microsoft Kernel semântica da é um SDK que permite combinar vários AI serviços de com seus aplicativos. Você pode usar o Semantic Kernel para uma variedade de casos de uso, incluindo RAG.

Para começar, consulte os seguintes tutoriais:

Haystack é uma estrutura para criar aplicativos personalizados com LLMs, modelos de incorporação, pesquisa vetorial e muito mais. Ele permite casos de uso como resposta a perguntas e RAG.

Para começar, consulte Introdução à integração com o Haystack.

Spring AI é uma estrutura de aplicativo que permite aplicar os princípios de design do Spring ao seu aplicativo de IA. Você pode usar o Spring AI para uma variedade de casos de uso, incluindo pesquisa semântica e RAG.

Para começar, consulte Introdução à integração do Spring AI.

Você pode usar as seguintes frameworks para criar agentes de IA que usam o Atlas para implementar recursos como RAG de agente e memória de agente .

LangGraph é um framework especializado dentro do ecossistema LangChain, projetado para desenvolver agentes de AI e fluxos de trabalho multiagentes complexos. A abordagem baseada em grafos do LangGraph permite que você determine dinamicamente o caminho de execução do seu aplicativo, possibilitando aplicativos e casos de uso avançados e autônomos. Ele também suporte funcionalidades como persistência, streaming e memória.

Para começar, consulte os seguintes recursos:

Você também pode integrar o Atlas Vector Search com as seguintes plataformas corporativas para construir aplicativos de IA generativa . Essas plataformas fornecem modelos pré-treinados e outras ferramentas para ajudá-lo a criar aplicativos e agentes de IA em produção.

A Amazon CamaDB é uma plataforma totalmente gerenciada para criar aplicativos de IA generativa . Você pode integrar o Atlas Vector Search como uma base de conhecimento para o Amazon CamaDB armazenar dados personalizados no Atlas, implementar RAG e implantar agentes.

Para começar, consulte Introdução à integração da base de conhecimento do Amazon Bedrock.

Vertex AI é uma plataforma do Google Cloud para desenvolver e implantar aplicativos e agentes de IA. A plataforma Vertex AI inclui várias ferramentas e modelos pré-treinados do Google que você pode usar com o Atlas para RAG e outros casos de uso, como consultas em linguagem natural.

Para começar, veja Integrar Atlas com o Google Vertex AI.

Você também pode integrar o Atlas com as seguintes ferramentas de IA.

O Model Context Protocol (MCP) é um padrão aberto de como os LLMs se conectam e interagem com recursos e serviços externos. Use nossa implementação oficial do Servidor MCP para interagir com seus dados e implantações do Atlas a partir de suas ferramentas, assistentes e plataformas de IA agente.

Para saber mais,consulte Servidor MongoDB MCP.

Voltar

Registro de alterações

Nesta página