Panduan ini menunjukkan cara mengirim perintah chat ke model Gemini. Halaman ini membahas beberapa topik berikut: Diagram berikut merangkum alur kerja keseluruhan: Untuk mempelajari cara menambahkan gambar dan media lain ke permintaan Anda, lihat
Pemahaman gambar. Untuk mengetahui daftar bahasa yang didukung oleh Gemini, lihat Dukungan bahasa. Untuk mempelajari model dan API AI generatif yang tersedia di Vertex AI, buka Model Garden di konsol Google Cloud . Jika Anda mencari cara untuk menggunakan Gemini langsung dari aplikasi seluler dan web, lihat SDK klien Firebase AI Logic untuk aplikasi Swift, Android, Web, Flutter, dan Unity. Anda dapat berinteraksi dengan model Gemini melalui tiga cara. Tabel berikut membantu Anda memilih metode terbaik untuk kasus penggunaan Anda. Untuk menguji dan melakukan iterasi pada perintah chat, gunakan konsol Google Cloud . Untuk mengirim prompt secara terprogram, gunakan REST API, Google Gen AI SDK, Vertex AI SDK untuk Python, atau library atau SDK lain yang didukung. Anda dapat menggunakan petunjuk sistem untuk mengarahkan perilaku model berdasarkan kebutuhan atau kasus penggunaan tertentu. Misalnya, Anda dapat menentukan persona atau peran untuk chatbot yang merespons permintaan layanan pelanggan. Untuk mengetahui informasi selengkapnya, lihat contoh kode petunjuk sistem. Untuk menggunakan Vertex AI Studio guna mengirimkan perintah chat di konsolGoogle Cloud , lakukan hal berikut: Opsional: Konfigurasikan model dan parameter: Suhu: Gunakan penggeser atau kotak teks untuk memasukkan nilai suhu. Jika model menampilkan respons yang terlalu umum, terlalu pendek, atau model memberikan respons
pengganti, coba tingkatkan suhunya. Batas token output: Gunakan penggeser atau kotak teks untuk memasukkan nilai batas output maksimum. Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk potensi respons yang lebih panjang. Klik untuk meluaskan konfigurasi lanjutan Top-K: Gunakan penggeser atau kotak teks untuk memasukkan nilai untuk top-K.
Untuk setiap langkah pemilihan token, token top-K dengan probabilitas
tertinggi akan diambil sampelnya. Kemudian token akan difilter lebih lanjut berdasarkan top-P dengan
token akhir yang dipilih menggunakan pengambilan sampel suhu. Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak
yang lebih banyak. Untuk menutup panel alat tokenizer, klik X, atau klik di luar panel.
Sebelum menggunakan salah satu data permintaan,
lakukan penggantian berikut:
Klik untuk meluaskan daftar sebagian wilayah yang tersedia Jika model menampilkan respons yang terlalu umum, terlalu pendek, atau model memberikan respons
pengganti, coba tingkatkan suhunya. Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
Simpan isi permintaan dalam file bernama
Kemudian, jalankan perintah berikut untuk mengirim permintaan REST Anda:
Simpan isi permintaan dalam file bernama
Kemudian, jalankan perintah berikut untuk mengirim permintaan REST Anda:
Anda akan menerima respons JSON yang mirip dengan berikut ini. Anda dapat menggunakan Google Gen AI SDK untuk mengirim permintaan jika Anda menggunakan Gemini 2.0 Flash. Contoh berikut menunjukkan permintaan pembuatan teks non-streaming.
Untuk mempelajari lebih lanjut, lihat
dokumentasi referensi SDK.
Tetapkan variabel lingkungan untuk menggunakan Gen AI SDK dengan Vertex AI:
Pelajari cara menginstal atau mengupdate Go.
Untuk mempelajari lebih lanjut, lihat
dokumentasi referensi SDK.
Tetapkan variabel lingkungan untuk menggunakan Gen AI SDK dengan Vertex AI:
Untuk mempelajari lebih lanjut, lihat
dokumentasi referensi SDK.
Tetapkan variabel lingkungan untuk menggunakan Gen AI SDK dengan Vertex AI:
Pelajari cara menginstal atau mengupdate Java.
Untuk mempelajari lebih lanjut, lihat
dokumentasi referensi SDK.
Tetapkan variabel lingkungan untuk menggunakan Gen AI SDK dengan Vertex AI:
Anda dapat memilih apakah model menghasilkan respons streaming atau
respons non-streaming. Untuk respons streaming, Anda akan menerima setiap respons
segera setelah token outputnya dibuat. Untuk respons non-streaming, Anda akan menerima
semua respons setelah semua token output dibuat. Contoh berikut menunjukkan permintaan pembuatan teks streaming.
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Python di
Panduan memulai Vertex AI menggunakan
library klien.
Untuk mengetahui informasi selengkapnya, lihat
Dokumentasi referensi API Python Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi.
Untuk mengetahui informasi selengkapnya, lihat
Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Pelajari cara mengirim permintaan perintah multimodal: Pelajari praktik terbaik responsible AI dan filter keamanan Vertex AI.
Memilih metode untuk membuat teks
Metode
Deskripsi
Kasus Penggunaan
Vertex AI Studio
UI berbasis web di konsol Google Cloud yang memungkinkan Anda membuat prototipe dan bereksperimen dengan perintah.
Paling cocok untuk mempelajari kemampuan model, menguji berbagai parameter, dan melakukan iterasi pada desain perintah tanpa menulis kode.
REST API
API web standar yang memungkinkan Anda mengirim permintaan ke endpoint model menggunakan metode HTTP.
Mengintegrasikan pembuatan teks ke dalam aplikasi apa pun yang dapat membuat permintaan HTTP.
SDK (Python, Go, dll.)
Library khusus bahasa yang menyederhanakan interaksi dengan API dengan menangani detail seperti autentikasi dan pemformatan permintaan.
Direkomendasikan untuk membangun aplikasi dalam bahasa yang didukung. SDK memberikan integrasi yang lebih idiomatis dan andal daripada panggilan API mentah.
Buat teks
Konsol
topP
dan topK
diterapkan. Suhu mengontrol tingkat keacakan dalam pemilihan token.
Suhu yang lebih rendah cocok untuk perintah yang memerlukan respons yang kurang terbuka atau kreatif, sedangkan
suhu yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif. Suhu 0
berarti token probabilitas tertinggi selalu dipilih. Dalam hal ini, respons untuk permintaan
tertentu sebagian besar deterministik, tetapi sedikit variasi masih dapat dilakukan.
1
berarti token yang dipilih berikutnya adalah yang paling mungkin di antara semua
token dalam kosakata model (juga disebut decoding greedy), sedangkan top-K
3
berarti token berikutnya dipilih di antara tiga token yang paling
mungkin dengan menggunakan suhu.
0
.
REST
GENERATE_RESPONSE_METHOD
: Jenis respons yang Anda inginkan dari model.
Pilih metode yang menghasilkan cara yang Anda inginkan untuk menampilkan respons model:
streamGenerateContent
: Respons di-streaming saat dibuat untuk mengurangi persepsi latensi bagi audiens manusia.generateContent
: Respons ditampilkan setelah sepenuhnya dihasilkan.LOCATION
: Region untuk memproses permintaan. Opsi yang tersedia meliputi:
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
PROJECT_ID
: Project ID Anda.MODEL_ID
: ID model multimodal
yang ingin Anda gunakan.
TEXT1
What are all the colors in a
rainbow?
TEXT2
Why does it appear when it rains?
TEMPERATURE
:
Suhu digunakan untuk pengambilan sampel selama pembuatan respons, yang terjadi saat topP
dan topK
diterapkan. Suhu mengontrol tingkat keacakan dalam pemilihan token.
Suhu yang lebih rendah cocok untuk perintah yang memerlukan respons yang kurang terbuka atau kreatif, sedangkan
suhu yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif. Suhu 0
berarti token probabilitas tertinggi selalu dipilih. Dalam hal ini, respons untuk permintaan
tertentu sebagian besar deterministik, tetapi sedikit variasi masih dapat dilakukan.
curl
request.json
.
Jalankan perintah berikut di terminal untuk membuat atau menimpa file ini di direktori saat ini:
cat > request.json << 'EOF'
{
"contents": [
{
"role": "user",
"parts": { "text": "TEXT1" }
},
{
"role": "model",
"parts": { "text": "What a great question!" }
},
{
"role": "user",
"parts": { "text": "TEXT2" }
}
],
"generation_config": {
"temperature": TEMPERATURE
}
}
EOF
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:GENERATE_RESPONSE_METHOD"PowerShell
request.json
.
Jalankan perintah berikut di terminal untuk membuat atau menimpa file ini di direktori saat ini:
@'
{
"contents": [
{
"role": "user",
"parts": { "text": "TEXT1" }
},
{
"role": "model",
"parts": { "text": "What a great question!" }
},
{
"role": "user",
"parts": { "text": "TEXT2" }
}
],
"generation_config": {
"temperature": TEMPERATURE
}
}
'@ | Out-File -FilePath request.json -Encoding utf8
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:GENERATE_RESPONSE_METHOD" | Select-Object -Expand ContentSDK
Python
Instal
pip install --upgrade google-genai
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True
Go
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True
Node.js
Instal
npm install @google/genai
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True
Java
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True
Respons streaming vs. non-streaming
Respons streaming dan non-streaming
Python
Langkah berikutnya
Pembuatan teks
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-08-19 UTC.