Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Firebase Machine Learning
plat_iosplat_androidplat_flutter
Use o aprendizado de máquina nos seus apps para resolver problemas do mundo real.
O Firebase Machine Learning é um SDK para dispositivos móveis que leva a experiência em aprendizado de máquina do Google para apps Android e iOS em um pacote eficiente e fácil de usar. Não importa se você é novo ou experiente em aprendizado de máquina, é possível implementar a funcionalidade necessária com apenas algumas linhas de código. Não é preciso ter um conhecimento profundo de redes neurais ou otimização de modelos para começar. Por outro lado, se você é um desenvolvedor de ML experiente, o Firebase ML fornece APIs convenientes que ajudam você a usar seus modelos personalizados do TensorFlow Lite nos seus apps para dispositivos móveis.
Principais recursos
Hospedar e implantar modelos personalizados
Use seus próprios modelos do TensorFlow Lite para inferência no dispositivo. Basta
implantar seu modelo no Firebase, e nós o hospedaremos e
disponibilizaremos para seu app. O Firebase disponibilizará dinamicamente a versão mais recente do modelo aos usuários. Assim, você pode atualizá-los
regularmente sem precisar enviar uma nova versão do app aos usuários.
Ao usar Firebase ML com Remote Config, é possível veicular modelos diferentes para diferentes segmentos
de usuários e, com A/B Testing, você pode
realizar experimentos para encontrar o modelo de melhor desempenho (consulte os
guias da Apple e do
Android).
Pronto para produção em casos de uso comuns
O Firebase ML tem um conjunto de APIs prontas para casos de uso
comuns para dispositivos móveis: reconhecimento de texto, rotulagem de imagens e identificação de pontos de referência.
Basta transmitir os dados para a biblioteca Firebase ML, e ela vai fornecer as
informações necessárias. Essas APIs aproveitam o poder da tecnologia de machine learning do Google Cloud
para oferecer o mais alto nível de precisão.
Nuvem x dispositivo
O Firebase ML tem APIs que funcionam na nuvem ou no dispositivo.
Quando descrevemos uma API de ML como uma API de nuvem ou dispositivo, estamos
descrevendo qual máquina faz inferência, ou seja, qual máquina usa o
modelo de ML para descobrir insights sobre os dados fornecidos. No Firebase ML,
isso acontece no Google Cloud ou nos dispositivos móveis dos usuários.
As APIs de reconhecimento de texto, rotulagem de imagens e reconhecimento de pontos de referência fazem
inferência na nuvem. Esses modelos têm mais capacidade computacional e memória disponíveis
do que um modelo comparável no dispositivo e, como resultado, podem fazer
inferência com mais precisão do que um modelo no dispositivo.
Por outro lado, todas as solicitações para essas APIs exigem um tempo de resposta da rede,
o que as torna inadequadas para aplicações em tempo real e de baixa latência,
como o processamento de vídeos.
As APIs de modelo personalizado lidam com modelos de ML que são executados no
dispositivo. Os modelos usados e produzidos por esses recursos são do
TensorFlow Lite, que são otimizados para serem
executados em dispositivos móveis. A maior vantagem desses modelos é que eles
não exigem uma conexão de rede e podem ser executados rapidamente,
o suficiente para processar quadros de vídeo em tempo real, por exemplo.
Com o Firebase ML,
é possível implantar modelos personalizados nos dispositivos dos seus usuários fazendo
upload deles para nossos servidores. Seu app compatível com o Firebase fará o download do
modelo no dispositivo sob demanda. Isso permite manter o tamanho diminuto da instalação inicial do
seu app e trocar o modelo de ML sem precisar publicar o app
novamente.
Kit de ML: modelos prontos para uso no dispositivo
Se você estiver procurando modelos pré-treinados que são executados no dispositivo, confira o
Kit de ML. O Kit de ML está disponível
para iOS e Android e tem APIs para muitos casos de uso:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-24 UTC."],[],[],null,["Firebase Machine Learning \nplat_ios plat_android plat_flutter \nUse machine learning in your apps to solve real-world problems. \n\nFirebase Machine Learning is a mobile SDK that brings Google's machine\nlearning expertise to Android and Apple apps in a powerful yet easy-to-use\npackage. Whether you're new or experienced in machine learning, you can\nimplement the functionality you need in just a few lines of code. There's no\nneed to have deep knowledge of neural networks or model optimization to get\nstarted. On the other hand, if you are an experienced ML developer,\nFirebase ML provides convenient APIs that help you use your custom\nTensorFlow Lite models in your mobile apps.\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Host and deploy custom models | Use your own TensorFlow Lite models for on-device inference. Just deploy your model to Firebase, and we'll take care of hosting and serving it to your app. Firebase will dynamically serve the latest version of the model to your users, allowing you to regularly update them without having to push a new version of your app to users. When you use Firebase ML with [Remote Config](/docs/remote-config), you can serve different models to different user segments, and with [A/B Testing](/docs/ab-testing), you can run experiments to find the best performing model (see the [Apple](/docs/ml/ios/ab-test-models) and [Android](/docs/ml/android/ab-test-models) guides). |\n| Production-ready for common use cases | Firebase ML comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, labeling images, and identifying landmarks. Simply pass in data to the Firebase ML library and it gives you the information you need. These APIs leverage the power of Google Cloud's machine learning technology to give you the highest level of accuracy. |\n\nCloud vs. on-device\n\nFirebase ML has APIs that work either in the cloud or on the device.\nWhen we describe an ML API as being a cloud API or on-device API, we are\ndescribing *which machine performs inference* : that is, which machine uses the\nML model to discover insights about the data you provide it. In Firebase ML,\nthis happens either on Google Cloud, or on your users' mobile devices.\n\nThe text recognition, image labeling, and landmark recognition APIs perform\ninference in the cloud. These models have more computational power and memory\navailable to them than a comparable on-device model, and as a result, can\nperform inference with greater accuracy and precision than an on-device model.\nOn the other hand, every request to these APIs requires a network round-trip,\nwhich makes them unsuitable for real-time and low-latency applications such as\nvideo processing.\n\nThe custom model APIs deal with ML models that run on the\ndevice. The models used and produced by these features are\n[TensorFlow Lite](https://tensorflow.org/lite) models, which are\noptimized to run on mobile devices. The biggest advantage to these models is\nthat they don't require a network connection and can run very quickly---fast\nenough, for example, to process frames of video in real time.\n\nFirebase ML provides\nthe ability to deploy custom models to your users' devices by\nuploading them to our servers. Your Firebase-enabled app will download the\nmodel to the device on demand. This allows you to keep your app's initial\ninstall size small, and you can swap the ML model without having to republish\nyour app.\n\nML Kit: Ready-to-use on-device models On June 3, 2020, we started offering ML Kit's on-device APIs through a\n| [new\n| standalone SDK](https://developers.google.com/ml-kit).\n| Google Cloud APIs and custom model deployment will\n| continue to be available through Firebase Machine Learning.\n\nIf you're looking for pre-trained models that run on the device, check out\n[ML Kit](https://developers.google.com/ml-kit). ML Kit is available\nfor iOS and Android, and has APIs for many use cases:\n\n- Text recognition\n- Image labeling\n- Object detection and tracking\n- Face detection and contour tracing\n- Barcode scanning\n- Language identification\n- Translation\n- Smart Reply\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml/recognize-text), [image labeling](/docs/ml/label-images), and [landmark recognition](/docs/ml/recognize-landmarks).\n- Learn about using mobile-optimized [custom models](/docs/ml/use-custom-models) in your app."]]