Über den Endpunkt „models“ können Sie die verfügbaren Modelle programmatisch auflisten und erweiterte Metadaten wie unterstützte Funktionen und die Größe des Kontextfensters abrufen. Weitere Informationen
Methode: models.get
Ruft Informationen zu einem bestimmten Model
ab, z. B. die Versionsnummer, Tokenlimits, Parameter und andere Metadaten. Ausführliche Informationen zu den Modellen finden Sie im Leitfaden zu Gemini-Modellen.
Endpunkt
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=models /*}
>
>
Pfadparameter
name
string
Erforderlich. Der Ressourcenname des Modells.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Es hat die Form models/{model}
.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Ok
Muschel
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Model
.
Methode: models.list
Listet die Model
s auf, die über die Gemini API verfügbar sind.
Endpunkt
gethttps: / /generativelanguage.googleapis.com /v1beta /models
>
>
Abfrageparameter
pageSize
integer
Die maximale Anzahl von Models
, die (pro Seite) zurückgegeben werden sollen.
Wenn nicht angegeben, werden 50 Modelle pro Seite zurückgegeben. Diese Methode gibt maximal 1.000 Modelle pro Seite zurück, auch wenn Sie einen größeren Wert für „pageSize“ übergeben.
pageToken
string
Ein Seitentoken, das von einem vorherigen models.list
-Aufruf empfangen wurde.
Geben Sie das von einer Anfrage zurückgegebene pageToken
als Argument für die nächste Anfrage an, um die nächste Seite abzurufen.
Beim Paginieren müssen alle anderen für models.list
bereitgestellten Parameter mit dem Aufruf übereinstimmen, der das Seitentoken bereitgestellt hat.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Ok
Muschel
Antworttext
Antwort von ListModel
mit einer paginierten Liste von Modellen.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
models[]
object (Model
)
Die zurückgegebenen Modelle.
nextPageToken
string
Ein Token, das als pageToken
gesendet werden kann, um die nächste Seite abzurufen.
Wenn dieses Feld weggelassen wird, gibt es keine weiteren Seiten.
JSON-Darstellung |
---|
{
"models": [
{
object ( |
REST-Ressource: models
Ressource: Modell
Informationen zu einem generativen Sprachmodell.
name
string
Erforderlich. Der Ressourcenname der Model
. Alle zulässigen Werte finden Sie unter Modellvarianten.
Format: models/{model}
mit der Namenskonvention {model}
:
- „{baseModelId}-{version}“
Beispiele:
models/gemini-1.5-flash-001
baseModelId
string
Erforderlich. Der Name des Basismodells, der an die Generierungsanfrage übergeben wird.
Beispiele:
gemini-1.5-flash
version
string
Erforderlich. Die Versionsnummer des Modells.
Dies stellt die Hauptversion (1.0
oder 1.5
) dar.
displayName
string
Der für Menschen lesbare Name des Modells. Beispiel: „Gemini 1.5 Flash“
Der Name kann bis zu 128 Zeichen lang sein und aus beliebigen UTF-8-Zeichen bestehen.
description
string
Eine kurze Beschreibung des Modells.
inputTokenLimit
integer
Maximale Anzahl von Eingabetokens, die für dieses Modell zulässig sind.
outputTokenLimit
integer
Maximale Anzahl von Ausgabetokens, die für dieses Modell verfügbar sind.
supportedGenerationMethods[]
string
Die vom Modell unterstützten Generierungsmethoden.
Die entsprechenden API-Methodennamen sind als Pascal-Case-Strings definiert, z. B. generateMessage
und generateContent
.
thinking
boolean
Gibt an, ob das Modell das Denken unterstützt.
temperature
number
Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis zu [0.0,maxTemperature]
betragen. Ein höherer Wert führt zu vielfältigeren Antworten, während ein Wert näher an 0.0
in der Regel zu weniger überraschenden Antworten des Modells führt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt.
maxTemperature
number
Die maximale Temperatur, die dieses Modell verwenden kann.
topP
number
Für Nucleus-Sampling.
Beim Nucleus-Sampling wird die kleinste Menge von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt.
topK
integer
Für die Top-K-Stichprobenerhebung.
Beim Top-K-Sampling wird die Menge der topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt. Wenn leer, gibt dies an, dass das Modell kein Top-k-Sampling verwendet und topK
nicht als Generierungsparameter zulässig ist.
JSON-Darstellung |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "thinking": boolean, "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |