Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Za pomocą interfejsów API do oznaczania obrazów w ML Kit możesz wykrywać i wyodrębniać informacje o encjach na obrazach z szerokiej grupy kategorii. Domyślny model etykietowania obrazów może identyfikować ogólne obiekty, miejsca, działania, gatunki zwierząt, produkty itp.
Możesz też użyć niestandardowego modelu klasyfikacji obrazów, aby dostosować wykrywanie do konkretnego przypadku użycia. Więcej informacji znajdziesz w artykule o używaniu niestandardowego modelu TensorFlow Lite.
Najważniejsze funkcje
Zaawansowany klasyfikator podstawowy do ogólnego zastosowania
Rozpoznaje ponad 400 kategorii opisujących najczęściej spotykane obiekty na zdjęciach.
Dostosowywanie do przypadku użycia dzięki modelom niestandardowym
Użyj innych wytrenowanych modeli z TensorFlow Hub lub własnego modelu niestandardowego wytrenowanego za pomocą TensorFlow, AutoML Vision Edge lub TensorFlow Lite.
Łatwe w użyciu interfejsy API wysokiego poziomu
Nie trzeba zajmować się danymi wejściowymi i danymi wyjściowymi modelu niskiego poziomu, przetwarzaniem obrazów przed i po nim ani tworzeniem potoku przetwarzania. ML Kit wyodrębnia etykiety z modelu TensorFlow Lite i udostępnia je w postaci opisu tekstowego.
Ten interfejs API jest przeznaczony dla modeli klasyfikacji obrazów, które opisują cały obraz. Do sklasyfikowania co najmniej jednego obiektu z obrazu, np. butów lub mebli, lepszym rozwiązaniem może być interfejs API Wykrywanie i śledzenie obiektów.
Obsługiwane modele klasyfikacji obrazów
Interfejsy Image Labeling API obsługują różne modele klasyfikacji obrazów:
Obsługiwane modele klasyfikacji obrazów
Model podstawowy
Domyślnie interfejs API używa zaawansowanego ogólnego modelu oznaczania obrazów etykietami, który rozpoznaje ponad 400 elementów obejmujących najczęściej spotykane koncepcje na zdjęciach.
Niestandardowe modele TensorFlow Lite
Aby kierować reklamy na koncepcje dotyczące konkretnych aplikacji, interfejs API akceptuje niestandardowe modele klasyfikacji obrazów z wielu źródeł. Mogą to być już wytrenowane modele pobrane z TensorFlow Hub lub Twoje własne modele wytrenowane w AutoML Vision Edge, TensorFlow Lite Maker lub samym TensorFlow. Modele można połączyć w pakiet z aplikacją lub hostować za pomocą systemów uczących się Firebase i pobierać je w czasie działania.
Korzystanie z modelu podstawowego
Model podstawowy ML Kit zwraca listę jednostek, które identyfikują osoby, rzeczy, miejsca, działania itp. Każdy element ma swój wynik, który określa poziom trafności modelu ML. Dzięki nim możesz np. automatycznie generować metadane i moderować treści. Model domyślny udostępniany w ramach pakietu ML Kit rozpoznaje ponad 400 różnych encji.
Model podstawowy w interfejsie Image Labeling API obsługuje ponad 400 etykiet, na przykład te:
Kategoria
Przykładowe etykiety
Osoby
Crowd Selfie Smile
Aktywności
Dancing Eating Surfing
Rzeczy
Car Piano Receipt
Zwierzęta
Bird Cat Dog
Rośliny
Flower Fruit Vegetable
Miejsca
Beach Lake Mountain
Przykładowe wyniki
Oto przykład podmiotów, które zostały rozpoznane na towarzyszącym zdjęciu.
Zdjęcie: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0
Etykieta 0
Tekst
Stadion
Poufność
0,9205354
Etykieta 1
Tekst
Obiekty sportowe
Poufność
0,7531109
Etykieta 2
Tekst
Zdarzenie
Poufność
0,66905296
Etykieta 3
Tekst
Rozrywka
Poufność
0,59904146
Etykieta 4
Tekst
Piłka nożna
Poufność
0,56384534
Etykieta 5
Tekst
Netto
Poufność
0,54679185
Etykieta 6
Tekst
Roślina
Poufność
0,524364
Używanie niestandardowego modelu TensorFlow Lite
Podstawowy model oznaczania obrazów etykietami w ML Kit jest przeznaczony do użytku ogólnego. Została wytrenowana tak, aby rozpoznawała 400 kategorii, które opisują najczęściej spotykane obiekty na zdjęciach. Twoja aplikacja może wymagać specjalistycznego modelu klasyfikacji obrazów, który bardziej szczegółowo rozpoznaje węższą liczbę kategorii. Może to być np. model odróżniający gatunki kwiatów czy rodzaje pożywienia.
Ten interfejs API umożliwia dostosowywanie się do konkretnego przypadku użycia dzięki obsłudze niestandardowych modeli klasyfikacji obrazów pochodzących z wielu źródeł. Więcej informacji znajdziesz w artykule Modele niestandardowe z użyciem ML Kit. Modele niestandardowe można połączyć w pakiet z aplikacją lub pobierać dynamicznie z chmury za pomocą usługi wdrażania modeli systemów uczących się Firebase.
W razie potrzeby funkcja Etykiety obrazów korzysta z dwuliniowego skalowania obrazu i rozciągania, aby dostosować rozmiar i współczynnik proporcji obrazu wejściowego, tak aby spełniał on wymagania modelu bazowego.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-08-29 UTC."],[[["\u003cp\u003eML Kit's image labeling APIs can detect and extract information about entities in an image, including objects, places, activities, and more.\u003c/p\u003e\n"],["\u003cp\u003eYou can leverage the powerful base model to identify over 400 common entities or use custom models tailored to specific use cases.\u003c/p\u003e\n"],["\u003cp\u003eML Kit simplifies the process with high-level APIs that abstract away low-level model complexities, making integration easier.\u003c/p\u003e\n"],["\u003cp\u003eEasily incorporate custom TensorFlow Lite models, whether bundled with your app or dynamically downloaded, to enable specialized image classification.\u003c/p\u003e\n"],["\u003cp\u003eImage Labeling automatically adjusts the input image size and aspect ratio to fit the model's requirements.\u003c/p\u003e\n"]]],[],null,["With ML Kit's image labeling APIs you can detect and extract information\nabout entities in an image across a broad group of categories. The default\nimage labeling model can identify general objects, places, activities, animal\nspecies, products, and more.\n\nYou can also use a custom image classification model to tailor detection\nto a specific use case. See [Using a custom TensorFlow Lite model](#custom-tflite)\nfor more information.\n\nKey capabilities\n\n- **A powerful general-purpose base classifier** Recognizes more than 400 categories that describe the most commonly found objects in photos.\n- **Tailor to your use case with custom models** Use other pre-trained models from TensorFlow Hub or your own custom model trained with TensorFlow, AutoML Vision Edge or TensorFlow Lite Model maker.\n- **Easy-to-use high-level APIs** No need to deal with low-level model input/output, image pre- and post-processing, or building a processing pipeline. ML Kit extracts the labels from the TensorFlow Lite model and provides them as a text description.\n\nNote that this API is intended for image classification models that describe the\nfull image. For classifying one or more objects in an image, such as shoes or\npieces of furniture, the\n[Object Detection \\& Tracking](/ml-kit/vision/object-detection)\nAPI may be a better fit.\n\nSupported image classification models\n\nThe Image Labeling APIs support different image classification models:\n\n| Supported image classification models ||\n|-----------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Base model** | By default the API uses a powerful general-purpose image labeling model that recognizes more than 400 entities that cover the most commonly-found concepts in photos. |\n| **Custom TensorFlow Lite models** | To target application-specific concepts, the API accepts custom image classification models from a wide range of sources. These can be pre-trained models downloaded from TensorFlow Hub or your own models trained with AutoML Vision Edge, TensorFlow Lite Model Maker or TensorFlow itself. Models can be bundled with your app or hosted with Firebase Machine Learning and downloaded at run-time. |\n\nUsing the base model\n\nML Kit's base model returns a list of entities that identify people,\nthings, places, activities, and so on. Each entity comes with a score that\nindicates the confidence the ML model has in its relevance. With this\ninformation, you can perform tasks such as automatic metadata generation and\ncontent moderation. The default model provided with ML Kit recognizes more than\n[400 different entities](/ml-kit/vision/image-labeling/label-map).\n\n[iOS](/ml-kit/vision/image-labeling/ios)\n[Android](/ml-kit/vision/image-labeling/android)\n\nExample labels\n\nThe base model in the image labeling API supports 400+ labels, such as the\nfollowing examples:\n\n| Category | Example labels |\n|------------|------------------------------|\n| People | `Crowd` `Selfie` `Smile` |\n| Activities | `Dancing` `Eating` `Surfing` |\n| Things | `Car` `Piano` `Receipt` |\n| Animals | `Bird` `Cat` `Dog` |\n| Plants | `Flower` `Fruit` `Vegetable` |\n| Places | `Beach` `Lake` `Mountain` |\n\nExample results\n\nHere is an example of the entities that were recognized in the accompanying photo.\nPhoto: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0\n\n| Label 0 ||\n|----------------|------------|\n| **Text** | Stadium |\n| **Confidence** | 0.9205354 |\n| **Text** | Sports |\n| **Confidence** | 0.7531109 |\n| **Text** | Event |\n| **Confidence** | 0.66905296 |\n| **Text** | Leisure |\n| **Confidence** | 0.59904146 |\n| **Text** | Soccer |\n| **Confidence** | 0.56384534 |\n| **Text** | Net |\n| **Confidence** | 0.54679185 |\n| **Text** | Plant |\n| **Confidence** | 0.524364 |\n\nUsing a custom TensorFlow Lite model\n\nML Kit's base image labeling model is built for general-purpose use. It's\ntrained to recognize 400 categories that describe the most commonly-found\nobjects in photos. Your app might need a specialized image classification model\nthat recognizes a narrower number of categories in more detail, such as a model\nthat distinguishes between species of flowers or types of food.\n\nThis API lets you tailor to a particular use case by supporting custom image\nclassification models from a wide range of sources. Please refer to [Custom models with ML Kit](/ml-kit/custom-models)\nto learn more. Custom models can be bundled with your app or dynamically\ndownloaded from the cloud using Firebase Machine Learning's Model deployment\nservice.\n\n[iOS](/ml-kit/vision/image-labeling/custom-models/ios)\n[Android](/ml-kit/vision/image-labeling/custom-models/android)\n\nInput image preprocessing\n\nIf needed, Image Labeling uses bilinear image scaling and stretching to adjust\nthe input image size and aspect ratio so that they fit the requirements of the\nunderlying model."]]