Models

Über den Endpunkt „models“ können Sie die verfügbaren Modelle programmatisch auflisten und erweiterte Metadaten wie unterstützte Funktionen und die Größe des Kontextfensters abrufen. Weitere Informationen

Methode: models.get

Ruft Informationen zu einem bestimmten Model ab, z. B. die Versionsnummer, Tokenlimits, Parameter und andere Metadaten. Ausführliche Informationen zu den Modellen finden Sie im Leitfaden zu Gemini-Modellen.

Endpunkt

get https://generativelanguage.googleapis.com/v1beta/{name=models/*} >
>

Pfadparameter

name string

Erforderlich. Der Ressourcenname des Modells.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Es hat die Form models/{model}.

Anfragetext

Der Anfragetext muss leer sein.

Beispielanfrage

Python

from google import genai

client = genai.Client()
model_info = client.models.get(model="gemini-2.0-flash")
print(model_info)

Ok

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

modelInfo, err := client.Models.Get(ctx, "gemini-2.0-flash", nil)
if err != nil {
	log.Fatal(err)
}

fmt.Println(modelInfo)

Muschel

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash?key=$GEMINI_API_KEY

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Model.

Methode: models.list

Listet die Models auf, die über die Gemini API verfügbar sind.

Endpunkt

get https://generativelanguage.googleapis.com/v1beta/models >
>

Abfrageparameter

pageSize integer

Die maximale Anzahl von Models, die (pro Seite) zurückgegeben werden sollen.

Wenn nicht angegeben, werden 50 Modelle pro Seite zurückgegeben. Diese Methode gibt maximal 1.000 Modelle pro Seite zurück, auch wenn Sie einen größeren Wert für „pageSize“ übergeben.

pageToken string

Ein Seitentoken, das von einem vorherigen models.list-Aufruf empfangen wurde.

Geben Sie das von einer Anfrage zurückgegebene pageToken als Argument für die nächste Anfrage an, um die nächste Seite abzurufen.

Beim Paginieren müssen alle anderen für models.list bereitgestellten Parameter mit dem Aufruf übereinstimmen, der das Seitentoken bereitgestellt hat.

Anfragetext

Der Anfragetext muss leer sein.

Beispielanfrage

Python

from google import genai

client = genai.Client()

print("List of models that support generateContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "generateContent":
            print(m.name)

print("List of models that support embedContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "embedContent":
            print(m.name)

Ok

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}


// Retrieve the list of models.
models, err := client.Models.List(ctx, &genai.ListModelsConfig{})
if err != nil {
	log.Fatal(err)
}

fmt.Println("List of models that support generateContent:")
for _, m := range models.Items {
	for _, action := range m.SupportedActions {
		if action == "generateContent" {
			fmt.Println(m.Name)
			break
		}
	}
}

fmt.Println("\nList of models that support embedContent:")
for _, m := range models.Items {
	for _, action := range m.SupportedActions {
		if action == "embedContent" {
			fmt.Println(m.Name)
			break
		}
	}
}

Muschel

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GEMINI_API_KEY

Antworttext

Antwort von ListModel mit einer paginierten Liste von Modellen.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
models[] object (Model)

Die zurückgegebenen Modelle.

nextPageToken string

Ein Token, das als pageToken gesendet werden kann, um die nächste Seite abzurufen.

Wenn dieses Feld weggelassen wird, gibt es keine weiteren Seiten.

JSON-Darstellung
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

REST-Ressource: models

Ressource: Modell

Informationen zu einem generativen Sprachmodell.

Felder
name string

Erforderlich. Der Ressourcenname der Model. Alle zulässigen Werte finden Sie unter Modellvarianten.

Format: models/{model} mit der Namenskonvention {model}:

  • „{baseModelId}-{version}“

Beispiele:

  • models/gemini-1.5-flash-001
baseModelId string

Erforderlich. Der Name des Basismodells, der an die Generierungsanfrage übergeben wird.

Beispiele:

  • gemini-1.5-flash
version string

Erforderlich. Die Versionsnummer des Modells.

Dies stellt die Hauptversion (1.0 oder 1.5) dar.

displayName string

Der für Menschen lesbare Name des Modells. Beispiel: „Gemini 1.5 Flash“

Der Name kann bis zu 128 Zeichen lang sein und aus beliebigen UTF-8-Zeichen bestehen.

description string

Eine kurze Beschreibung des Modells.

inputTokenLimit integer

Maximale Anzahl von Eingabetokens, die für dieses Modell zulässig sind.

outputTokenLimit integer

Maximale Anzahl von Ausgabetokens, die für dieses Modell verfügbar sind.

supportedGenerationMethods[] string

Die vom Modell unterstützten Generierungsmethoden.

Die entsprechenden API-Methodennamen sind als Pascal-Case-Strings definiert, z. B. generateMessage und generateContent.

thinking boolean

Gibt an, ob das Modell das Denken unterstützt.

temperature number

Steuert die Zufälligkeit der Ausgabe.

Die Werte können bis zu [0.0,maxTemperature] betragen. Ein höherer Wert führt zu vielfältigeren Antworten, während ein Wert näher an 0.0 in der Regel zu weniger überraschenden Antworten des Modells führt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt.

maxTemperature number

Die maximale Temperatur, die dieses Modell verwenden kann.

topP number

Für Nucleus-Sampling.

Beim Nucleus-Sampling wird die kleinste Menge von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt.

topK integer

Für die Top-K-Stichprobenerhebung.

Beim Top-K-Sampling wird die Menge der topK wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt. Wenn leer, gibt dies an, dass das Modell kein Top-k-Sampling verwendet und topK nicht als Generierungsparameter zulässig ist.

JSON-Darstellung
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "thinking": boolean,
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}