Visão geral da IA generativa
Neste documento, descrevemos os recursos de inteligência artificial (IA) generativa compatíveis com o BigQuery ML. Com esses recursos, é possível realizar tarefas de IA no BigQuery ML usando modelos da Vertex AI pré-treinados e modelos integrados do BigQuery ML.
Veja a seguir algumas das tarefas disponíveis:
- Gerar texto
- Gerar dados estruturados
- Gerar valores de um tipo específico por linha
- Gerar embeddings
- Série temporal prevista
Acesse um modelo da Vertex AI para executar uma dessas funções criando um modelo remoto no BigQuery ML que representa o endpoint do modelo da Vertex AI. Depois de criar um modelo remoto no modelo da Vertex AI que você quer usar, acesse os recursos desse modelo executando uma função do BigQuery ML no modelo remoto.
Com essa abordagem, é possível usar os recursos desses modelos da Vertex AI em consultas SQL para analisar dados do BigQuery.
Fluxo de trabalho
É possível usar modelos remotos em vez de modelos da Vertex AI e modelos remotos em vez de serviços do Cloud AI com as funções de ML do BigQuery para realizar tarefas complexas de análise de dados e IA generativa.
O diagrama a seguir mostra alguns fluxos de trabalho típicos em que é possível usar esses recursos juntos:
Gerar texto
A geração de texto é uma forma de IA generativa em que o texto é gerado com base em um comando ou na análise de dados. É possível realizar a geração de texto usando dados textuais e multimodais.
Confira alguns casos de uso comuns para geração de texto:
- Gerar conteúdo criativo.
- Gerando código.
- Gerar respostas por chat ou e-mail.
- Reuniões de discussão, como sugerir caminhos para produtos ou serviços futuros.
- Personalização de conteúdo, como sugestões de produtos.
- Classificar dados aplicando um ou mais rótulos ao conteúdo para classificá-lo em categorias.
- Identifique os principais sentimentos expressos no conteúdo.
- Resumir as ideias ou impressões principais transmitidas pelo conteúdo.
- Identificar uma ou mais entidades importantes em dados visuais ou de texto.
- Traduzir o conteúdo de dados de texto ou áudio para outro idioma.
- Gerar texto que corresponda ao conteúdo verbal nos dados de áudio.
- Adicionar legendas ou realizar perguntas e respostas em dados visuais.
O enriquecimento de dados é uma próxima etapa comum após a geração de texto, em que você enriquece
insights da análise inicial combinando-os com outros dados. Por
exemplo, você pode analisar imagens de móveis para casa para gerar texto para uma
coluna design_type
, para que o SKU dos móveis tenha uma descrição
associada, como mid-century modern
ou farmhouse
.
Modelos compatíveis
Para realizar tarefas de IA generativa, é possível usar modelos remotos no BigQuery ML para fazer referência a modelos implantados ou hospedados na Vertex AI. É possível criar os seguintes tipos de modelos remotos:
- Modelos remotos em qualquer um dos modelos do Gemini em disponibilização geral ou pré-lançamento.
Modelos remotos sobre os seguintes modelos de parceiros:
Como usar modelos de geração de texto
Depois de criar um modelo remoto, use a
função ML.GENERATE_TEXT
para interagir com ele:
Para modelos remotos com base em modelos do Gemini, faça o seguinte:
Use a função
ML.GENERATE_TEXT
para gerar texto a partir de um comando especificado em uma consulta ou extraído de uma coluna em uma tabela padrão. Ao especificar o comando em uma consulta, é possível fazer referência aos seguintes tipos de colunas de tabela no comando:- colunas
STRING
para fornecer dados de texto. - Colunas
STRUCT
que usam o formatoObjectRef
para fornecer dados não estruturados. É necessário usar a funçãoOBJ.GET_ACCESS_URL
no comando para converter os valoresObjectRef
em valoresObjectRefRuntime
.
- colunas
Use a função
ML.GENERATE_TEXT
para analisar texto, imagem, áudio, vídeo ou conteúdo de PDF de uma tabela de objetos com um comando fornecido como argumento de função.
Para todos os outros tipos de modelos remotos, use a função
ML.GENERATE_TEXT
com um comando fornecido em uma consulta ou de uma coluna em uma tabela padrão.
Use os seguintes tópicos para testar a geração de texto no BigQuery ML:
- Gerar texto usando um modelo do Gemini e a função
ML.GENERATE_TEXT
. - Gerar texto usando um modelo do Gemma e a função
ML.GENERATE_TEXT
. - Analisar imagens com um modelo do Gemini.
- Gerar texto usando a função
ML.GENERATE_TEXT
com seus dados. - Ajustar um modelo usando seus dados.
Atributos de aterramento e segurança
É possível usar
embasamento
e
atributos de segurança
ao usar modelos do Gemini com a função ML.GENERATE_TEXT
,
desde que você esteja usando uma tabela padrão para entrada. O embasamento permite que
Gemini usa informações adicionais da Internet para
gerar respostas mais específicas e factuais. Os atributos de segurança permitem que
Gemini filtram as respostas que retorna com base
que você especificar.
Ajuste supervisionado
Quando você cria um modelo remoto que se refere a qualquer um dos modelos a seguir, é possível configurar o ajuste supervisionado ao mesmo tempo:
gemini-2.0-flash-001
gemini-2.0-flash-lite-001
gemini-1.5-pro-002
gemini-1.5-flash-002
Toda inferência ocorre na Vertex AI. Os resultados são armazenados no BigQuery.
Capacidade de processamento provisionada da Vertex AI
Para
modelos do Gemini com suporte,
use o
throughput provisionado da Vertex AI
com a função ML.GENERATE_TEXT
para fornecer um throughput alto e consistente para
solicitações. Para mais informações, consulte
Usar a taxa de transferência provisionada da Vertex AI.
Gerar dados estruturados
A geração de dados estruturados é muito semelhante à geração de texto, exceto que você pode formatar a resposta do modelo especificando um esquema SQL.
Para gerar dados estruturados, crie um modelo remoto em qualquer um dos modelos
disponíveis em geral
ou
pré-lançamento
do Gemini. Em seguida, use a função
AI.GENERATE_TABLE
para interagir com esse modelo. Para tentar criar dados estruturados, consulte
Gerar dados estruturados usando a função AI.GENERATE_TABLE
.
É possível especificar
atributos de segurança
ao usar modelos do Gemini com a função AI.GENERATE_TABLE
para filtrar as respostas do modelo.
Gerar valores de um tipo específico por linha
É possível usar funções de IA generativa escalar com modelos do Gemini para analisar dados em tabelas padrão do BigQuery. Os dados incluem
texto e dados não estruturados de
colunas que contêm valores ObjectRef
.
Para cada linha na tabela, essas funções geram uma saída contendo um
tipo específico.
As seguintes funções de IA estão disponíveis:
AI.GENERATE
, que gera um valorSTRING
AI.GENERATE_BOOL
AI.GENERATE_DOUBLE
AI.GENERATE_INT
Ao usar a função AI.GENERATE
com
modelos do Gemini compatíveis,
é possível usar o
throughput provisionado da Vertex AI
para fornecer um throughput alto e consistente para solicitações. Para mais informações, consulte
Usar a taxa de transferência provisionada da Vertex AI.
Gerar embeddings
Um embedding é um vetor numérico de alta dimensão que representa uma determinada entidade, como um texto ou um arquivo de áudio. A geração de embeddings permite capturar a semântica dos seus dados de uma maneira que facilita a análise e a comparação deles.
Confira alguns casos de uso comuns para a geração de embeddings:
- Usar a geração aumentada de recuperação (RAG) para aumentar as respostas do modelo às consultas do usuário referenciando dados adicionais de uma fonte confiável. O RAG oferece melhor precisão factual e consistência de resposta, além de acesso a dados mais recentes do que os de treinamento do modelo.
- Realizando uma pesquisa multimodal. Por exemplo, usar a entrada de texto para pesquisar imagens.
- Realizar uma pesquisa semântica para encontrar itens semelhantes para recomendações, substituição e eliminação de registros duplicados.
- Criar embeddings para usar com um modelo k-means para agrupamento.
Modelos compatíveis
Os seguintes modelos são compatíveis:
- Para criar embeddings de texto, use os modelos
text-embedding
etext-multilingual-embedding
da Vertex AI. - Para criar embeddings multimodais, que incorporam texto, imagens e vídeos no
mesmo espaço semântico, use o modelo
multimodalembedding
da Vertex AI. - Para criar embeddings para dados estruturados de variáveis aleatórias independentes e identicamente distribuídas (IID), use um modelo de análise de componentes principais (PCA) do BigQuery ML ou um modelo de codificador automático.
- Para criar embeddings para dados de usuários ou itens, use um modelo de fatoração de matriz do BigQuery ML.
Para uma incorporação de texto menor e leve, tente usar um modelo do TensorFlow pré-treinado, como NNLM, SWIVEL ou BERT.
Como usar modelos de geração de embedding
Depois de criar o modelo, use a
função ML.GENERATE_EMBEDDING
para interagir com ele. Para todos os tipos de modelos com suporte, ML.GENERATE_EMBEDDING
trabalha com dados estruturados em
tabelas padrão. Para modelos
de incorporação multimodais, ML.GENERATE_EMBEDDING
também funciona com conteúdo visual
de colunas de tabela padrão
ou de tabelas de objetos.ObjectRef
Para modelos remotos, toda a inferência ocorre na Vertex AI. Para outros tipos de modelo, toda a inferência ocorre no BigQuery. Os resultados são armazenados no BigQuery.
Use os seguintes tópicos para testar a geração de texto no BigQuery ML:
- Gerar embeddings de texto usando a função
ML.GENERATE_EMBEDDING
- Gerar embeddings de imagens usando a função
ML.GENERATE_EMBEDDING
- Gerar embeddings de vídeo usando a função
ML.GENERATE_EMBEDDING
- Gerar e pesquisar embeddings multimodais
- Realizar pesquisa semântica e geração aumentada de recuperação
Previsão
A previsão é uma técnica que permite
analisar dados históricos de série temporal para fazer uma previsão
informada sobre tendências futuras. É possível usar o modelo de série temporal TimesFM
(pré-lançamento) integrado do BigQuery ML para fazer previsões sem
precisar criar seu próprio modelo. O modelo integrado do TimesFM funciona com a
função AI.FORECAST
para gerar previsões com base nos seus dados.
Locais
Os locais com suporte para geração de texto e modelos de embedding variam de acordo com o tipo e a versão do modelo usados. Saiba mais em Locais. Ao contrário de outros modelos de IA generativa, o suporte a local não se aplica ao modelo de série temporal integrado do TimesFM. O modelo TimesFM está disponível em todas as regiões com suporte do BigQuery.
Preços
Você vai receber cobranças pelos recursos de computação usados para executar consultas em modelos. Os modelos remotos fazem chamadas para modelos da Vertex AI, portanto, as consultas em modelos remotos também incorrem em cobranças da Vertex AI.
Para mais informações, consulte Preços do BigQuery ML.
A seguir
- Para uma introdução à IA e ao ML no BigQuery, consulte Introdução à IA e ao ML no BigQuery.
- Para mais informações sobre como realizar inferência em modelos de machine learning, consulte Visão geral da inferência de modelos.