Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Vertex AI est une plate-forme de machine learning (ML) qui vous permet d'entraîner et de déployer des modèles de ML et des applications d'IA, et de personnaliser les modèles de langage volumineux (LLM) à utiliser dans vos applications basées sur l'IA. Vertex AI combine les workflows d'ingénierie des données, de data science et d'ingénierie de ML, ce qui permet à vos équipes de collaborer à l'aide d'un ensemble d'outils commun et de faire évoluer vos applications en tirant parti des avantages de Google Cloud.
Vertex AI propose plusieurs options d'entraînement et de déploiement de modèles :
AutoML vous permet d'entraîner des données tabulaires, d'images, de texte et vidéo sans écrire de code ni préparer de répartition des données.
L'entraînement personnalisé vous offre un contrôle total sur le processus d'entraînement, y compris l'utilisation de votre framework de ML préféré, l'écriture de votre propre code d'entraînement et le choix des options de réglage des hyperparamètres.
Model Garden vous permet de découvrir, de tester, de personnaliser et de déployer Vertex AI, et de sélectionner des modèles et des éléments Open Source (OSS).
L'IA générative vous permet d'accéder aux grands modèles d'IA générative de Google pour plusieurs modalités (texte, code, images, voix). Vous pouvez ajuster les LLM de Google pour répondre à vos besoins, puis les déployer pour les utiliser dans vos applications basées sur l'IA.
Une fois vos modèles déployés, utilisez les outils MLOps de bout en bout de Vertex AI pour automatiser et faire évoluer les projets tout au long du cycle de vie du ML.
Ces outils MLOps sont exécutés sur une infrastructure entièrement gérée que vous pouvez personnaliser en fonction de vos besoins en termes de performances et de budget.
Vous pouvez utiliser le SDK Vertex AI pour Python pour exécuter l'intégralité du workflow de machine learning dans Vertex AI Workbench, un environnement de développement basé sur un notebook Jupyter. Vous pouvez collaborer avec une équipe pour développer votre modèle dans Colab Enterprise, une version de Colaboratory intégrée à Vertex AI. Les autres interfaces disponibles comprennent la console Google Cloud, l'outil de ligne de commande Google Cloud CLI, les bibliothèques clientes et Terraform (compatibilité limitée).
Vertex AI et workflow de machine learning (ML)
Cette section présente le workflow de machine learning et explique comment utiliser Vertex AI pour créer et déployer vos modèles.
Préparation des données : après avoir extrait et nettoyé votre ensemble de données, effectuez une analyse exploratoire des données (EDA, exploratory data analysis) pour comprendre le schéma de données et les caractéristiques attendues du modèle de ML. Appliquez les transformations de données et l'ingénierie des caractéristiques au modèle, et répartissez les données en ensembles d'entraînement, de validation et de test.
Explorez et visualisez les données à l'aide de notebooks Vertex AI Workbench. Vertex AI Workbench s'intègre à Cloud Storage et BigQuery pour vous aider à accéder à vos données et à les traiter plus rapidement.
Pour les ensembles de données volumineux, utilisez Dataproc Serverless Spark à partir d'un notebook Vertex AI Workbench pour exécuter des charges de travail Spark sans avoir à gérer vos propres clusters Dataproc.
Entraînement du modèle : choisissez une méthode d'entraînement pour entraîner un modèle et le régler pour améliorer ses performances.
Pour entraîner un modèle sans écrire de code, consultez la présentation d'AutoML. AutoML accepte les données tabulaires, d'image, de texte et vidéo.
Pour écrire votre propre code d'entraînement et entraîner des modèles personnalisés à l'aide du framework de ML de votre choix, consultez la page Présentation de l'entraînement personnalisé.
Vertex AI Vizier ajuste automatiquement les hyperparamètres dans les modèles de machine learning complexes.
Utilisez Vertex AI Experiments pour entraîner votre modèle à l'aide de différentes techniques de ML et comparez les résultats.
Enregistrez vos modèles entraînés dans Vertex AI Model Registry pour la gestion des versions et l'envoi en production. Vertex AI Model Registry s'intègre aux fonctionnalités de validation et de déploiement telles que l'évaluation des modèles et les points de terminaison.
Évaluation et itération du modèle : évaluez votre modèle entraîné, ajustez vos données en fonction des métriques d'évaluation et effectuez des itérations sur votre modèle.
Utilisez les métriques d'évaluation de modèle, telles que la précision et le rappel, pour évaluer et comparer les performances de vos modèles. Créez des évaluations via Vertex AI Model Registry ou incluez des évaluations dans votre workflow Vertex AI Pipelines.
Diffusion du modèle : déployez votre modèle en production et obtenez des prédictions.
Obtenez des prédictions par lot asynchrones, qui ne nécessitent pas de déploiement sur des points de terminaison.
L'environnement d'exécution TensorFlow optimisé vous permet de diffuser des modèles TensorFlow à moindre coût et avec une latence inférieure à celle des conteneurs servis TensorFlow prédéfinis basés sur Open Source.
Pour les cas de diffusion en ligne avec des modèles tabulaires, utilisez Vertex AI Feature Store pour diffuser des caractéristiques à partir d'un dépôt central et surveiller l'état des caractéristiques.
Vertex Explainable AI vous aide à comprendre comment chaque caractéristique contribue à la prédiction du modèle (attribution de caractéristiques) et à identifier les données mal étiquetées de l'ensemble de données d'entraînement (explications basées sur des exemples).
Déployez et obtenez des prédictions en ligne pour les modèles entraînés avec BigQuery ML.
Surveillance des modèles : surveillez les performances de votre modèle déployé. Utilisez les données de prédiction entrantes pour réentraîner votre modèle afin d'améliorer les performances.
Vertex AI Model Monitoring surveille les écarts entraînement/diffusion et les dérives de prédiction, et vous envoie des alertes lorsque les données entrantes de prédiction sont trop éloignées de la référence d'entraînement.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/11/22 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/11/22 (UTC)."],[],[],null,["# Introduction to Vertex AI\n\nVertex AI is a machine learning (ML) platform that lets you train\nand deploy ML models and AI applications, and customize large language models\n(LLMs) for use in your AI-powered applications. Vertex AI combines data\nengineering, data science, and ML engineering workflows, enabling your\nteams to collaborate using a common toolset and scale your applications using\nthe benefits of Google Cloud.\n\nVertex AI provides several options for model [training](/vertex-ai/docs/start/training-methods)\nand deployment:\n\n- [AutoML](/vertex-ai/docs/beginner/beginners-guide) lets you train tabular, image, or video data\n without writing code or preparing data splits. These models can be\n [deployed for online inference or queried directly for batch inference](/vertex-ai/docs/predictions/overview#get_predictions_from_models).\n\n- [Custom training](/vertex-ai/docs/training/overview) gives you complete control over the training\n process, including using your preferred ML framework, writing your own\n training code, and choosing hyperparameter tuning options. You can import\n your custom-trained model into the [Model Registry](/vertex-ai/docs/model-registry/introduction)\n and [deploy it to an endpoint](/vertex-ai/docs/general/deployment) for online\n inference using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or [custom](/vertex-ai/docs/predictions/use-custom-container) containers.\n Or you can\n [query it directly for batch inferences](/vertex-ai/docs/predictions/get-batch-predictions).\n\n- [Model Garden](/vertex-ai/generative-ai/docs/model-garden/explore-models)\n lets you discover, test, customize, and deploy\n Vertex AI and select open-source models and assets.\n\n- [Generative AI](/vertex-ai/generative-ai/docs/overview) gives you access to Google's large generative AI\n models for multiple modalities (text, code, images, speech). You can tune\n Google's LLMs to meet your needs, and then deploy them\n for use in your AI-powered applications.\n\nAfter you deploy your models, use Vertex AI's end-to-end MLOps tools to\nautomate and scale projects throughout the ML lifecycle.\nThese MLOps tools are run on fully-managed infrastructure that you can customize\nbased on your performance and budget needs.\n\nYou can use the [Vertex AI SDK for Python](/vertex-ai/docs/python-sdk/use-vertex-ai-python-sdk) to run the entire machine\nlearning workflow in [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction), a Jupyter\nnotebook-based development environment. You can collaborate with a team\nto develop your model in [Colab Enterprise](/colab/docs/introduction),\na version of [Colaboratory](https://colab.google/) that is integrated with\nVertex AI. Other [available interfaces](/vertex-ai/docs/start/introduction-interfaces)\ninclude the Google Cloud console, the Google Cloud CLI command line tool, client\nlibraries, and Terraform (limited support).\n\nVertex AI and the machine learning (ML) workflow\n------------------------------------------------\n\nThis section provides an overview of the machine learning workflow and how you\ncan use Vertex AI to build and deploy your models.\n\n1. **Data preparation** : After extracting and cleaning your dataset, perform\n [exploratory data analysis (EDA)](/vertex-ai/docs/glossary#exploratory_data_analysis) to understand the data schema and\n characteristics that are expected by the ML model. Apply data transformations\n and feature engineering to the model, and split the data into training,\n validation, and test sets.\n\n - Explore and visualize data using [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction)\n notebooks. Vertex AI Workbench integrates with Cloud Storage and\n BigQuery to help you access and process your data faster.\n\n - For large datasets, use [Dataproc Serverless Spark](/dataproc-serverless/docs/overview) from a\n Vertex AI Workbench notebook to run Spark workloads without having to\n manage your own Dataproc clusters.\n\n2. **Model training**: Choose a training method to train a model and tune it for\n performance.\n\n - To train a model without writing code, see the [AutoML\n overview](/vertex-ai/docs/training-overview#automl). AutoML supports tabular, image, and\n video data.\n\n - To write your own training code and train custom models using your preferred\n ML framework, see the [Custom training overview](/vertex-ai/docs/training/overview).\n\n - Optimize hyperparameters for custom-trained models using [custom tuning\n jobs](/vertex-ai/docs/training/using-hyperparameter-tuning).\n\n - [Vertex AI Vizier](/vertex-ai/docs/vizier/overview) tunes hyperparameters for you in complex machine\n learning (ML) models.\n\n - Use [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) to train your model using\n different ML techniques and compare the results.\n\n - Register your trained models in the\n [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) for versioning and hand-off to\n production. Vertex AI Model Registry integrates with validation and\n deployment features such as model evaluation and endpoints.\n\n3. **Model evaluation and iteration**: Evaluate your trained model, make\n adjustments to your data based on evaluation metrics, and iterate on your\n model.\n\n - Use [model evaluation](/vertex-ai/docs/evaluation/introduction) metrics, such as precision and recall, to evaluate and compare the performance of your models. Create evaluations through Vertex AI Model Registry, or include evaluations in your [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) workflow.\n4. **Model serving**: Deploy your model to production and get online\n inferences or query it directly for batch inferences.\n\n - Deploy your custom-trained model using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or\n [custom](/vertex-ai/docs/predictions/use-custom-container) containers to get real-time [*online\n inferences*](/vertex-ai/docs/predictions/overview#online_predictions) (sometimes called HTTP inference).\n\n - Get asynchronous [*batch inferences*](/vertex-ai/docs/predictions/overview#batch_predictions), which don't require\n deployment to endpoints.\n\n - [Optimized TensorFlow runtime](/vertex-ai/docs/predictions/optimized-tensorflow-runtime) lets you serve TensorFlow\n models at a lower cost and with lower latency than open source based\n prebuilt TensorFlow serving containers.\n\n - For online serving cases with tabular models, use\n [Vertex AI Feature Store](/vertex-ai/docs/featurestore/overview) to serve features from a\n central repository and monitor feature health.\n\n - [Vertex Explainable AI](/vertex-ai/docs/explainable-ai/overview) helps you understand how each feature contributes to\n model inference (*feature attribution* ) and find mislabeled data from the\n training dataset (*example-based explanation*).\n\n - Deploy and get online inferences for models trained with\n [BigQuery ML](/vertex-ai/docs/beginner/bqml).\n\n5. **Model monitoring**: Monitor the performance of your deployed model. Use\n incoming inference data to retrain your model for improved performance.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline.\n\nWhat's next\n-----------\n\n- Learn about [Vertex AI's MLOps features](/vertex-ai/docs/start/introduction-mlops).\n\n- Learn about [interfaces that you can use to interact with\n Vertex AI](/vertex-ai/docs/start/introduction-interfaces)."]]