Text mit der Funktion ML.GENERATE_TEXT generieren
In diesem Dokument erfahren Sie, wie Sie ein BigQuery ML-Remote-Modell erstellen, das ein Vertex AI-Modell darstellt, und dieses Remote-Modell dann mit der ML.GENERATE_TEXT
-Funktion verwenden, um Text zu generieren.
Die folgenden Typen von Remote-Modellen werden unterstützt:
- Remote-Modelle für alle allgemein verfügbaren oder Vorschau-Gemini-Modelle.
- Remotemodelle über Anthropic Claude-Modelle.
- Remote-Modelle über Llama-Modelle
- Remote-Modelle über Mistral AI-Modelle
- Remotemodelle über unterstützten offenen Modellen.
Abhängig vom ausgewählten Vertex AI-Modell können Sie Text basierend auf unstrukturierten Daten aus Objekttabellen oder Texteingaben aus Standardtabellen generieren.
Erforderliche Berechtigungen
Zum Erstellen einer Verbindung benötigen Sie die Mitgliedschaft in der folgenden IAM-Rolle (Identity and Access Management):
roles/bigquery.connectionAdmin
Zum Erteilen von Berechtigungen für das Dienstkonto der Verbindung benötigen Sie die folgende Berechtigung:
resourcemanager.projects.setIamPolicy
Zum Erstellen des Modells mit BigQuery ML benötigen Sie die folgenden IAM-Berechtigungen:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Zum Ausführen von Inferenzen benötigen Sie die folgenden Berechtigungen:
bigquery.tables.getData
für die Tabellebigquery.models.getData
für das Modellbigquery.jobs.create
Hinweise
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
Dataset erstellen
Erstellen Sie ein BigQuery-Dataset, das Ihre Ressourcen enthält:
Console
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Klicken Sie im Bereich Explorer auf den Namen Ihres Projekts.
Klicken Sie auf
Aktionen ansehen > Dataset erstellen.Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:
Geben Sie für Dataset-ID einen Namen für das Dataset ein.
Wählen Sie unter Standorttyp einen Standort für das Dataset aus.
Klicken Sie auf Dataset erstellen.
bq
Wenn Sie ein neues Dataset erstellen möchten, verwenden Sie den Befehl
bq mk
mit dem Flag--location
:bq --location=LOCATION mk -d DATASET_ID
Ersetzen Sie Folgendes:
LOCATION
: Speicherort des Datasets.DATASET_ID
: der Name des zu erstellenden Datasets.
Prüfen Sie, ob das Dataset erstellt wurde:
bq ls
Verbindung herstellen
Sie können diesen Schritt überspringen, wenn Sie entweder eine Standardverbindung konfiguriert haben oder die Rolle „BigQuery-Administrator“ haben.
Erstellen Sie eine Cloud-Ressourcenverbindung für das Remote-Modell und rufen Sie das Dienstkonto der Verbindung ab. Erstellen Sie die Verbindung am selben Speicherort wie das Dataset, das Sie im vorherigen Schritt erstellt haben.
Wählen Sie eine der folgenden Optionen aus:
Console
Rufen Sie die Seite BigQuery auf.
Klicken Sie im Bereich Explorer auf
Daten hinzufügen:Das Dialogfeld Daten hinzufügen wird geöffnet.
Wählen Sie im Bereich Filtern nach im Abschnitt Datenquellentyp die Option Geschäftsanwendungen aus.
Alternativ können Sie im Feld Nach Datenquellen suchen
Vertex AI
eingeben.Klicken Sie im Abschnitt Empfohlene Datenquellen auf Vertex AI.
Klicken Sie auf die Lösungsübersichtskarte Vertex AI-Modelle: BigQuery Federation.
Wählen Sie in der Liste Verbindungstyp die Option Remote-Modelle in Vertex AI, Remote-Funktionen und BigLake (Cloud-Ressource) aus.
Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.
Klicken Sie auf Verbindung erstellen.
Klicken Sie auf Zur Verbindung.
Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.
bq
Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Der Parameter
--project_id
überschreibt das Standardprojekt.Ersetzen Sie dabei Folgendes:
REGION
: Ihre VerbindungsregionPROJECT_ID
: Ihre Google Cloud -Projekt-IDCONNECTION_ID
: eine ID für Ihre Verbindung
Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.
Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
Die Ausgabe sieht in etwa so aus:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Verwenden Sie die Ressource google_bigquery_connection
:
Richten Sie zur Authentifizierung bei BigQuery die Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für Clientbibliotheken einrichten.
Im folgenden Beispiel wird eine Cloud-Ressourcenverbindung mit dem Namen my_cloud_resource_connection
in der Region US
erstellt:
Führen Sie die Schritte in den folgenden Abschnitten aus, um Ihre Terraform-Konfiguration auf ein Google Cloud -Projekt anzuwenden.
Cloud Shell vorbereiten
- Rufen Sie Cloud Shell auf.
-
Legen Sie das Standardprojekt Google Cloud fest, auf das Sie Ihre Terraform-Konfigurationen anwenden möchten.
Sie müssen diesen Befehl nur einmal pro Projekt und in jedem beliebigen Verzeichnis ausführen.
export GOOGLE_CLOUD_PROJECT=PROJECT_ID
Umgebungsvariablen werden überschrieben, wenn Sie in der Terraform-Konfigurationsdatei explizite Werte festlegen.
Verzeichnis vorbereiten
Jede Terraform-Konfigurationsdatei muss ein eigenes Verzeichnis haben (auch als Stammmodul bezeichnet).
-
Erstellen Sie in Cloud Shell ein Verzeichnis und eine neue Datei in diesem Verzeichnis. Der Dateiname muss die Erweiterung
.tf
haben, z. B.main.tf
. In dieser Anleitung wird die Datei alsmain.tf
bezeichnet.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
-
Wenn Sie einer Anleitung folgen, können Sie den Beispielcode in jedem Abschnitt oder Schritt kopieren.
Kopieren Sie den Beispielcode in das neu erstellte
main.tf
.Kopieren Sie optional den Code aus GitHub. Dies wird empfohlen, wenn das Terraform-Snippet Teil einer End-to-End-Lösung ist.
- Prüfen und ändern Sie die Beispielparameter, die auf Ihre Umgebung angewendet werden sollen.
- Speichern Sie die Änderungen.
-
Initialisieren Sie Terraform. Dies ist nur einmal für jedes Verzeichnis erforderlich.
terraform init
Fügen Sie optional die Option
-upgrade
ein, um die neueste Google-Anbieterversion zu verwenden:terraform init -upgrade
Änderungen anwenden
-
Prüfen Sie die Konfiguration und prüfen Sie, ob die Ressourcen, die Terraform erstellen oder aktualisieren wird, Ihren Erwartungen entsprechen:
terraform plan
Korrigieren Sie die Konfiguration nach Bedarf.
-
Wenden Sie die Terraform-Konfiguration an. Führen Sie dazu den folgenden Befehl aus und geben Sie
yes
an der Eingabeaufforderung ein:terraform apply
Warten Sie, bis Terraform die Meldung „Apply complete“ anzeigt.
- Öffnen Sie Ihr Google Cloud Projekt, um die Ergebnisse aufzurufen. Rufen Sie in der Google Cloud Console Ihre Ressourcen in der Benutzeroberfläche auf, um sicherzustellen, dass Terraform sie erstellt oder aktualisiert hat.
Dienstkonten Zugriff gewähren
Sie müssen dem Dienstkonto der Verbindung, die vom Remote-Modell verwendet wird, die Rolle „Vertex AI-Nutzer“ zuweisen. Wenn Sie das Remote-Modell verwenden, um Text aus Objekttabellendaten zu generieren, müssen Sie dem Dienstkonto der Verbindung, die von der Objekttabelle verwendet wird, auch die Rolle „Vertex AI-Nutzer“ zuweisen.
Dem Dienstkonto der Verbindung zum Remote-Modell eine Rolle zuweisen
Weisen Sie dem Dienstkonto der Verbindung für das Remote-Modell die Rolle „Vertex AI User“ zu.
Wenn Sie den Endpunkt beim Erstellen des Remote-Modells als URL angeben möchten, z. B. endpoint = 'https://us-central1-aiplatform.googleapis.com/v1/projects/myproject/locations/us-central1/publishers/google/models/gemini-2.0-flash'
, gewähren Sie diese Rolle in demselben Projekt, das Sie in der URL angeben.
Wenn Sie beim Erstellen des Remote-Modells den Endpunkt mit dem Modellnamen angeben möchten, z. B. endpoint = 'gemini-2.0-flash'
, gewähren Sie diese Rolle in demselben Projekt, in dem Sie das Remote-Modell erstellen möchten.
Die Zuweisung der Rolle in einem anderen Projekt führt zu dem Fehler bqcx-1234567890-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource
.
So weisen Sie die Rolle zu:
Console
Zur Seite IAM & Verwaltung.
Klicken Sie auf
Hinzufügen.Das Dialogfeld Principals hinzufügen wird geöffnet.
Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.
Wählen Sie im Feld Rolle auswählen die Option Vertex AI und dann Vertex AI-Nutzer aus.
Klicken Sie auf Speichern.
gcloud
Führen Sie den Befehl gcloud projects add-iam-policy-binding
aus.
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
Ersetzen Sie Folgendes:
PROJECT_NUMBER
: Ihre ProjektnummerMEMBER
: Die Dienstkonto-ID, die Sie zuvor kopiert haben
Dem Dienstkonto der Verbindung zur Objekttabelle eine Rolle zuweisen
Wenn Sie das Remote-Modell verwenden, um Text aus Daten der Objekttabelle zu generieren, weisen Sie dem Dienstkonto der Verbindung der Objekttabelle die Rolle „Vertex AI-Nutzer“ zu.
So finden Sie das Dienstkonto für die Verbindung zur Objekttabelle:
Rufen Sie die Seite BigQuery auf.
Maximieren Sie im Bereich Explorer das Dataset, das die Objekt-Tabelle enthält.
Wählen Sie die Objekttabelle aus.
Klicken Sie im Editorbereich auf den Tab Details.
Notieren Sie sich den Verbindungsnamen im Feld Verbindungs-ID.
Maximieren Sie im Bereich Explorer den Ordner Externe Verbindungen.
Wählen Sie die Verbindung aus, die mit dem Feld Verbindungs-ID der Objekttabelle übereinstimmt.
Kopieren Sie den Wert im Feld Dienstkonto-ID.
So weisen Sie die Rolle zu:
Console
Zur Seite IAM & Verwaltung.
Klicken Sie auf
Hinzufügen.Das Dialogfeld Principals hinzufügen wird geöffnet.
Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.
Wählen Sie im Feld Rolle auswählen die Option Vertex AI und dann Vertex AI-Nutzer aus.
Klicken Sie auf Speichern.
gcloud
Führen Sie den Befehl gcloud projects add-iam-policy-binding
aus.
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
Ersetzen Sie Folgendes:
PROJECT_NUMBER
: Ihre ProjektnummerMEMBER
: Die Dienstkonto-ID, die Sie zuvor kopiert haben
Partnermodell aktivieren
Dieser Schritt ist nur erforderlich, wenn Sie Anthropic Claude-, Llama- oder Mistral AI-Modelle verwenden möchten.
Rufen Sie in der Google Cloud Console die Seite Vertex AI Model Garden auf.
Suchen Sie nach dem Claude-Modell, das Sie verwenden möchten.
Klicken Sie auf die Modellkarte.
Klicken Sie auf der Modellseite auf Aktivieren.
Geben Sie die erforderlichen Aktivierungsinformationen ein und klicken Sie dann auf Weiter.
Klicken Sie im Abschnitt Nutzungsbedingungen das Kästchen an.
Klicken Sie auf Zustimmen, um den Nutzungsbedingungen zuzustimmen und das Modell zu aktivieren.
Offenes Modell bereitstellen
Wenn Sie ein unterstütztes offenes Modell verwenden möchten, müssen Sie es zuerst in Vertex AI bereitstellen. Weitere Informationen dazu finden Sie unter Offene Modelle bereitstellen.
BigQuery ML-Remote-Modell erstellen
Remote-Modell erstellen:
Offene Modelle
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Erstellen Sie mit dem SQL-Editor ein Remote-Modell:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION {DEFAULT | `PROJECT_ID.REGION.CONNECTION_ID`} OPTIONS (ENDPOINT = 'https://ENDPOINT_REGION-aiplatform.googleapis.com/v1/projects/ENDPOINT_PROJECT_ID/locations/ENDPOINT_REGION/endpoints/ENDPOINT_ID');
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthalten soll. Dieses Dataset muss sich am selben Standort wie die von Ihnen verwendete Verbindung befinden.MODEL_NAME
ist der Name des Modells.REGION
ist die Region, die von der Verbindung verwendet wird.CONNECTION_ID
ist die ID Ihrer BigQuery-Verbindung.Sie können diesen Wert abrufen, indem Sie sich die Verbindungsdetails in der Google Cloud Console ansehen und den Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID kopieren, der unter Verbindungs-ID angezeigt wird. Zum Beispiel,
projects/myproject/locations/connection_location/connections/myconnection
.ENDPOINT_REGION
: die Region, in der das offene Modell bereitgestellt wird.ENDPOINT_PROJECT_ID
: Das Projekt, in dem das offene Modell bereitgestellt wird.ENDPOINT_ID
: die ID des HTTPS-Endpunkts, der vom offenen Modell verwendet wird. Sie können die Endpunkt-ID abrufen, indem Sie das offene Modell auf der Seite Onlinevorhersage suchen und den Wert im Feld ID kopieren.
Alle anderen Modelle
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Erstellen Sie mit dem SQL-Editor ein Remote-Modell:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS (ENDPOINT = 'ENDPOINT');
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthalten soll. Dieses Dataset muss sich am selben Standort wie die von Ihnen verwendete Verbindung befinden.MODEL_NAME
ist der Name des Modells.REGION
ist die Region, die von der Verbindung verwendet wird.CONNECTION_ID
ist die ID Ihrer BigQuery-Verbindung.Sie können diesen Wert abrufen, indem Sie sich die Verbindungsdetails in der Google Cloud Console ansehen und den Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID kopieren, der unter Verbindungs-ID angezeigt wird. Zum Beispiel,
projects/myproject/locations/connection_location/connections/myconnection
.ENDPOINT
: Der Endpunkt des Vertex AI-Modells, das verwendet werden soll.Geben Sie für vortrainierte Vertex AI-Modelle, Claude-Modelle und Mistral AI-Modelle den Namen des Modells an. Für einige dieser Modelle können Sie eine bestimmte Version des Modells als Teil des Namens angeben.
Geben Sie für Llama-Modelle einen OpenAI API-Endpunkt im Format
openapi/<publisher_name>/<model_name>
an. Beispiel:openapi/meta/llama-3.1-405b-instruct-maas
Informationen zu unterstützten Modellnamen und ‑versionen finden Sie unter
ENDPOINT
.Das von Ihnen angegebene Vertex AI-Modell muss an dem Ort verfügbar sein, an dem Sie das Remote-Modell erstellen. Weitere Informationen finden Sie unter Standorte.
Text aus Standardtabellendaten generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit Prompt-Daten aus einer Standardtabelle:
Gemini
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (PROMPT_QUERY)}, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings, REQUEST_TYPE AS request_type) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt. Mit dieser Abfrage muss eine Spalte mit dem Namenprompt
erstellt werden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der die Wahrscheinlichkeit der ausgewählten Tokens bestimmt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: EinBOOL
-Wert, der bestimmt, ob das Vertex AI-Modell beim Generieren von Antworten [Fundierung mit der Google Suche](/vertex-ai/generative-ai/docs/grounding/overview#ground-public) verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
festgelegt sind, wird den Ergebnissen eine zusätzliche Spalteml_generate_text_grounding_result
hinzugefügt, in der die Quellen angegeben sind, die das Modell zum Erfassen zusätzlicher Informationen verwendet hat. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn es für eine bestimmte Kategorie keine Sicherheitseinstellung gibt, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet. Folgende Kategorien werden unterstützt:HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
REQUEST_TYPE
: einSTRING
-Wert, der den Typ der Inferenzanfrage angibt, die an das Gemini-Modell gesendet werden soll. Der Anfragetyp bestimmt, welches Kontingent für die Anfrage verwendet wird. Gültige Werte:DEDICATED
: DieML.GENERATE_TEXT
-Funktion verwendet nur das Kontingent für Provisioned Throughput. DieML.GENERATE_TEXT
-Funktion gibt den FehlerProvisioned throughput is not purchased or is not active
zurück, wenn kein Kontingent für bereitgestellten Durchsatz verfügbar ist.SHARED
: Die FunktionML.GENERATE_TEXT
verwendet nur dynamisches gemeinsames Kontingent (Dynamic Shared Quota, DSQ), auch wenn Sie Kontingent für bereitgestellten Durchsatz erworben haben.UNSPECIFIED
: DieML.GENERATE_TEXT
-Funktion verwendet Kontingente so:- Wenn Sie kein Kontingent für bereitgestellten Durchsatz erworben haben, verwendet die Funktion
ML.GENERATE_TEXT
das DSQ-Kontingent. - Wenn Sie ein Kontingent für bereitgestellten Durchsatz erworben haben, wird dieses zuerst von der Funktion
ML.GENERATE_TEXT
verwendet. Wenn Anfragen das Kontingent für Provisioned Throughput überschreiten, wird für den Overflow-Traffic das DSQ-Kontingent verwendet.
- Wenn Sie kein Kontingent für bereitgestellten Durchsatz erworben haben, verwendet die Funktion
Der Standardwert ist
UNSPECIFIED
.Weitere Informationen finden Sie unter Vertex AI Provisioned Throughput verwenden.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Die JSON-Antwort des Modells wird nicht in separate Spalten geparst.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Beispiel 3:
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
Beispiel 4
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt eine kurze Antwort zurück.
- Vereinfacht die JSON-Antwort in separate Spalten.
- Ruft öffentliche Webdaten ab und gibt sie zurück, um Antworten zu fundieren.
- Filtert unsichere Antworten mithilfe von zwei Sicherheitseinstellungen heraus.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT( 100 AS max_output_tokens, 0.5 AS top_p, TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
Beispiel 5
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt eine längere Antwort zurück.
- Vereinfacht die JSON-Antwort in separate Spalten.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.flash_2_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 8192 AS max_output_tokens, TRUE AS flatten_json_output));
Beispiel 6
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Vereinfacht die JSON-Antwort in separate Spalten.
- Ruft öffentliche Webdaten ab und gibt sie zurück, um Antworten zu fundieren.
- Filtert unsichere Antworten mithilfe von zwei Sicherheitseinstellungen heraus.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( .1 AS TEMPERATURE, TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
Claude
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (PROMPT_QUERY)}, STRUCT(TOKENS AS max_output_tokens, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt. Mit dieser Abfrage muss eine Spalte mit dem Namenprompt
erstellt werden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,4096]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der die Wahrscheinlichkeit der ausgewählten Tokens bestimmt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Die JSON-Antwort des Modells wird nicht in separate Spalten geparst.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Beispiel 3:
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
Llama
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (PROMPT_QUERY)}, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt. Mit dieser Abfrage muss eine Spalte mit dem Namenprompt
erstellt werden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,4096]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der die Wahrscheinlichkeit der ausgewählten Tokens bestimmt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Die JSON-Antwort des Modells wird nicht in separate Spalten geparst.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Beispiel 3:
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
Mistral AI
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (PROMPT_QUERY)}, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt. Mit dieser Abfrage muss eine Spalte mit dem Namenprompt
erstellt werden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,4096]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der die Wahrscheinlichkeit der ausgewählten Tokens bestimmt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Die JSON-Antwort des Modells wird nicht in separate Spalten geparst.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Beispiel 3:
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
Offene Modelle
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (PROMPT_QUERY)}, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt. Mit dieser Abfrage muss eine Spalte mit dem Namenprompt
erstellt werden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,4096]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der die Wahrscheinlichkeit der ausgewählten Tokens bestimmt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Die JSON-Antwort des Modells wird nicht in separate Spalten geparst.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Beispiel 3:
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Die JSON-Antwort des Modells wird in separate Spalten aufgeteilt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
Text aus Daten in Objekttabellen generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit einem Gemini-Modell, um unstrukturierte Daten aus einer Objekttabelle zu analysieren. Sie geben die Prompt-Daten im Parameter prompt
an.
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells. Es muss sich um ein Gemini-Modell handeln.TABLE_NAME
ist der Name der Objekttabelle, die den zu analysierenden Inhalt enthält. Weitere Informationen dazu, welche Arten von Inhalten Sie analysieren können, finden Sie unter Eingabe.Der von der Objekttabelle verwendete Cloud Storage-Bucket sollte sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion
ML.GENERATE_TEXT
aufrufen. Wenn Sie dieML.GENERATE_TEXT
-Funktion in einem anderen Projekt als dem aufrufen möchten, das den von der Objekttabelle verwendeten Cloud Storage-Bucket enthält, müssen Sie dem Dienstkonto[email protected]
die Rolle Storage Admin auf Bucket-Ebene zuweisen.PROMPT
ist der Prompt zur Analyse des Inhalts.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,4096]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der die Wahrscheinlichkeit der ausgewählten Tokens bestimmt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird ein geeigneter Wert vom Modell bestimmt.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.
Beispiele
In diesem Beispiel werden Audioinhalte aus einer Objekttabelle mit dem Namen feedback
übersetzt und transkribiert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.audio_model`, TABLE `mydataset.feedback`, STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden PDF-Inhalte aus einer Objekttabelle mit dem Namen invoices
klassifiziert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.classify_model`, TABLE `mydataset.invoices`, STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));