PaLM 2 ist eine Familie von Sprachmodellen, die für die einfache Verwendung bei wichtigen Entwickleranwendungsfällen optimiert sind. Die PaLM-Modellfamilie enthält Varianten, die für die Text- und Chatgenerierung sowie für Texteinbettungen trainiert wurden. Dieser Leitfaden enthält Informationen zu jeder Variante, damit Sie entscheiden können, welche für Ihren Anwendungsfall am besten geeignet ist.
Modellgrößen
Die Modellgrößen werden durch den Namen eines Tiers beschrieben. In der folgenden Tabelle sehen Sie die verfügbaren Größen und ihre Bedeutung im Verhältnis zueinander.
Modellgröße
Beschreibung
Dienste
Bison
Leistungsstärkste PaLM 2-Modellgröße.
Text
chat
Gecko
Kleinste und effizienteste PaLM 2-Modellgröße.
Einbettungen
Modellvarianten
Für bestimmte Anwendungsfälle sind verschiedene PaLM-Modelle verfügbar und optimiert. In der folgenden Tabelle werden die jeweiligen Attribute beschrieben.
Variation
Attribut
Beschreibung
Bison-Text
Letzte Aktualisierung des Modells
Mai 2023
Modellcode
text-bison-001
Modellfunktionen
Eingabe: Text
Ausgabe: Text
Optimiert für Sprachaufgaben wie:
Codegenerierung
Textgenerierung
Textbearbeitung
Probleme lösen
Empfehlungsgenerierung
Informationsextraktion
Datenextraktion oder -generierung
KI-Agent
Kann null, eine und wenige Aufgaben erledigen.
Modellsicherheit
Anpassbare Sicherheitseinstellungen für 6 Dimensionen von Schäden für Entwickler verfügbar.
Weitere Informationen finden Sie unter Sicherheitseinstellungen.
Ratenbegrenzung
90 Anfragen pro Minute
Bison – Chat
Letzte Aktualisierung des Modells
Mai 2023
Modellcode
chat-bison-001
Modellfunktionen
Eingabe: Text
Ausgabe: Text
Generiert Text in einem dialogorientierten Format.
Optimiert für Aufgaben der Dialogsprache wie die Implementierung von Chatbots oder KI-Agents.
Kann null, eine und wenige Aufgaben erledigen.
Modellsicherheit
Keine anpassbaren Sicherheitseinstellungen.
Ratenbegrenzung
90 Anfragen pro Minute
Geckoeinbettung
Letzte Aktualisierung des Modells
Mai 2023
Modellcode
embedding-gecko-001
Modellfunktionen
Eingabe: Text
Ausgabe: Text
Erzeugt Texteinbettungen für den Eingabetext.
Optimiert für das Erstellen von Einbettungen für Text mit bis zu 1.024 Tokens.
Modellsicherheit
Keine anpassbaren Sicherheitseinstellungen.
Ratenbegrenzung
1.500 Anfragen pro Minute
Modellmetadaten
Mit der ModelService API können Sie zusätzliche Metadaten zu den neuesten Modellen abrufen, z. B. Limits für Eingabe- und Ausgabetokens. In der folgenden Tabelle sind die Metadaten für die Modellvariante text-bison-001 aufgeführt.
Attribut
Wert
Anzeigename
SMS-Bison
Modellcode
models/text-bison-001
Beschreibung
Modell, auf das Textgenerierung ausgerichtet ist
Limit für Eingabetoken
8196
Limit für Ausgabetokens
1024
Unterstützte Generierungsmethoden
generateText
Temperatur
0.7
top_p
0,95
top_k
40
Modellattribute
In der folgenden Tabelle werden die Attribute der PaLM 2 beschrieben, die allen Modellvarianten gemeinsam sind.
Attribut
Beschreibung
Trainingsdaten
Für PaLM 2 ist Mitte 2021 der Stichtag für die Wissensvermittlung.
Das Wissen über Ereignisse, die nach diesem Zeitraum stattfinden, ist begrenzt.
Unterstützte Sprachen
Englisch
Konfigurierbare Modellparameter
Top P
Top K
Temperatur
Sequenz beenden
Maximale Ausgabelänge
Anzahl der Antwortkandidaten
Informationen zu den einzelnen Parametern finden Sie im Abschnitt Modellparameter des Leitfadens „Einführung in LLMs“.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2024-04-18 (UTC)."],[],[],null,["\u003cbr /\u003e\n\n[PaLM 2](https://ai.google/discover/palm2/)\nis a family of language models, optimized for ease of use on key developer use\ncases. The PaLM family of models includes variations trained for text and chat\ngeneration as well as text embeddings. This guide provides information about\neach variation to help you decide which is the best fit for your use case.\n\nModel sizes\n\nThe model sizes are described by an animal name. The following table shows the\navailable sizes and what they mean relative to each other.\n\n| Model size | Description | Services |\n|------------|---------------------------------------------|---------------|\n| Bison | Most capable PaLM 2 model size. | - text - chat |\n| Gecko | Smallest, most efficient PaLM 2 model size. | - embeddings |\n\nModel variations\n\nDifferent PaLM models are available and optimized for specific use cases. The\nfollowing table describes attributes of each.\n\n| Variation | Attribute | Description |\n|---------------------|--------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Bison Text** | Model last updated | May 2023 |\n| **Bison Text** | Model code | `text-bison-001` |\n| **Bison Text** | Model capabilities | - Input: text - Output: text - Optimized for language tasks such as: - Code generation - Text generation - Text editing - Problem solving - Recommendations generation - Information extraction - Data extraction or generation - AI agent - Can handle zero, one, and few-shot tasks. |\n| **Bison Text** | Model safety | Adjustable safety settings for 6 dimensions of harm available to developers. See the [safety settings](../palm_docs/safety_setting_palm) topic for details. |\n| **Bison Text** | Rate limit | 90 requests per minute |\n| |||\n| **Bison Chat** | Model last updated | May 2023 |\n| **Bison Chat** | Model code | `chat-bison-001` |\n| **Bison Chat** | Model capabilities | - Input: text - Output: text - Generates text in a conversational format. - Optimized for dialog language tasks such as implementation of chat bots or AI agents. - Can handle zero, one, and few-shot tasks. |\n| **Bison Chat** | Model safety | No adjustable safety settings. |\n| **Bison Chat** | Rate limit | 90 requests per minute |\n| |||\n| **Gecko Embedding** | Model last updated | May 2023 |\n| **Gecko Embedding** | Model code | `embedding-gecko-001` |\n| **Gecko Embedding** | Model capabilities | - Input: text - Output: text - Generates text embeddings for the input text. - Optimized for creating embeddings for text of up to 1024 tokens. |\n| **Gecko Embedding** | Model safety | No adjustable safety settings. |\n| **Gecko Embedding** | Rate limit | 1500 requests per minute |\n\nModel metadata\n\nUse the `ModelService` API to get additional metadata about\nthe latest models such as input and output token limits. The following table\ndisplays the metadata for the `text-bison-001` model variant.\n| **Note:** For the PaLM 2 model, a token is equivalent to about 4 characters. 100 tokens are about 60-80 English words.\n\n| Attribute | Value |\n|------------------------------|------------------------------------|\n| Display name | Text Bison |\n| Model code | `models/text-bison-001` |\n| Description | Model targeted for text generation |\n| Input token limit | 8196 |\n| Output token limit | 1024 |\n| Supported generation methods | `generateText` |\n| Temperature | 0.7 |\n| top_p | 0.95 |\n| top_k | 40 |\n\nModel attributes\n\nThe table below describes the attributes of the PaLM 2 which are common to\nall the model variations.\n| **Note:** The configurable parameters apply only to the text and chat model variations, but not embeddings.\n\n| Attribute | Description |\n|-------------------------------|---------------------------------------------------------------------------------------------------|\n| Training data | PaLM 2's knowledge cutoff time is mid-2021. Knowledge about events after that time is limited. |\n| Supported language | English |\n| Configurable model parameters | - Top p - Top k - Temperature - Stop sequence - Max output length - Number of response candidates |\n\nSee the [model parameters](../docs/concepts#model_parameters) section of the\nIntro to LLMs guide for information about each of these parameters."]]