Skorzystaj z tego przewodnika, aby zdiagnozować i rozwiązać typowe problemy występujące podczas wywoływania interfejsu Gemini API. Możesz napotkać problemy z serwerem backendowym interfejsu API Gemini lub z pakietami SDK klienta. Nasze pakiety SDK klienta są udostępnione na licencji open source w tych repozytoriach:
Jeśli wystąpią problemy z kluczem API, sprawdź, czy został on prawidłowo skonfigurowany zgodnie z przewodnikiem po konfiguracji klucza API.
Kody błędów usługi backendowej interfejsu Gemini API
W tabeli poniżej znajdziesz listę typowych kodów błędów po stronie serwera, a także wyjaśnienia ich przyczyn i sposoby rozwiązywania problemów:
Kod HTTP | Stan | Opis | Przykład | Rozwiązanie |
400 | INVALID_ARGUMENT | Treść żądania jest nieprawidłowa. | W żądaniu występuje błąd lub brakuje wymaganego pola. | Format żądania, przykłady i obsługiwane wersje znajdziesz w dokumentacji interfejsu API. Korzystanie z funkcji nowszej wersji interfejsu API ze starszym punktem końcowym może powodować błędy. |
400 | FAILED_PRECONDITION | Bezpłatna wersja interfejsu Gemini API jest niedostępna w Twoim kraju. Włącz płatności za projekt w Google AI Studio. | wysyłasz żądanie w regionie, w którym bezpłatna wersja nie jest obsługiwana, i nie masz włączonego rozliczenia za projekt w Google AI Studio. | Aby korzystać z Gemini API, musisz skonfigurować płatny abonament za pomocą Google AI Studio. |
403 | PERMISSION_DENIED | Twój klucz interfejsu API nie ma wymaganych uprawnień. | Używasz nieprawidłowego klucza API. Próbujesz użyć dostrojonego modelu bez odpowiedniego uwierzytelnienia. | Sprawdź, czy klucz API jest skonfigurowany i ma odpowiednie uprawnienia. Pamiętaj, aby przejść prawidłowe uwierzytelnianie, aby korzystać z dostosowanych modeli. |
404 | NOT_FOUND | Nie znaleziono żądanego zasobu. | Nie znaleziono obrazu, pliku audio ani wideo, do którego odwołuje się Twoje żądanie. | Sprawdź, czy wszystkie parametry w żądaniu są prawidłowe w przypadku używanej wersji interfejsu API. |
429 | RESOURCE_EXHAUSTED | Przekroczono limit szybkości. | Wysyłasz zbyt dużo żądań na minutę za pomocą bezpłatnej wersji interfejsu Gemini API. | Upewnij się, że nie przekraczasz limitu szybkości modelu. W razie potrzeby poproś o zwiększenie limitu. |
500 | DO UŻYTKU WEWNĘTRZNEGO | Po stronie Google wystąpił nieoczekiwany błąd. | kontekst wejściowy jest za długi; | Zmniejsz kontekst danych wejściowych lub tymczasowo przełącz się na inny model (np. z Gemini 1.5 Pro na Gemini 1.5 Flash) i sprawdź, czy to pomoże. Możesz też poczekać chwilę i ponownie wysłać prośbę. Jeśli problem będzie się powtarzał po ponownym próbie, zgłoś go, korzystając z przycisku Prześlij opinię w Google AI Studio. |
503 | PRODUKT NIEDOSTĘPNY | Usługa może być tymczasowo przeciążona lub niedostępna. | Usługa jest tymczasowo niedostępna z powodu braku mocy. | Tymczasowo przełącz się na inny model (np. z Gemini 1.5 Pro na Gemini 1.5 Flash) i sprawdź, czy działa. Możesz też poczekać chwilę i ponownie wysłać prośbę. Jeśli problem będzie się powtarzał po ponownym próbie, zgłoś go, korzystając z przycisku Prześlij opinię w Google AI Studio. |
504 | DEADLINE_EXCEEDED | Usługa nie może zakończyć przetwarzania w określonym terminie. | Prompt (lub kontekst) jest za duży, aby można było go przetworzyć w czasie. | Aby uniknąć tego błędu, ustaw dłuższy „czas oczekiwania” w żądaniu klienta. |
Sprawdzanie błędów parametrów modelu w wywołaniach interfejsu API
Upewnij się, że parametry modelu mają te wartości:
Parametr modelu | Wartości (zakres) |
Liczba kandydatów | 1–8 (liczba całkowita) |
Temperatura | 0,0–1,0 |
Maksymalna liczba tokenów wyjściowych |
Użyj biblioteki get_model (Python), aby określić maksymalną liczbę tokenów dla modelu, którego używasz.
|
TopP | 0,0–1,0 |
Oprócz sprawdzania wartości parametrów sprawdź, czy używasz prawidłowej wersji interfejsu API (np. /v1
lub /v1beta
) oraz modelu, który obsługuje potrzebne funkcje. Jeśli na przykład funkcja jest w wersji beta, będzie dostępna tylko w wersji /v1beta
interfejsu API.
Sprawdź, czy masz odpowiedni model
Upewnij się, że używasz obsługiwanego modelu wymienionego na naszej stronie modeli.
Wyższy czas oczekiwania lub większe wykorzystanie tokenów w modelach 2.5
Jeśli w modelach 2.5 Flash i Pro zauważysz dłuższe opóźnienia lub zużycie tokenów, może to być spowodowane tym, że myślenie jest domyślnie włączone, aby poprawić jakość. Jeśli priorytetem jest szybkość lub musisz zminimalizować koszty, możesz dostosować lub wyłączyć myślenie.
Wskazówki i przykładowy kod znajdziesz na stronie z opisem koncepcji.
Problemy związane z bezpieczeństwem
Jeśli widzisz, że prompt został zablokowany ze względu na ustawienie zabezpieczeń w wywołaniu interfejsu API, sprawdź prompt pod kątem filtrów ustawionych w wywołaniu interfejsu API.
Jeśli widzisz BlockedReason.OTHER
, zapytanie lub odpowiedź mogą naruszać Warunki korzystania z usługi lub nie są w innej formie obsługiwane.
Problem z recytacją
Jeśli zauważysz, że model przestaje generować dane wyjściowe z powodu RECITATION, oznacza to, że dane wyjściowe modelu mogą przypominać określone dane. Aby to naprawić, postaraj się, aby prompt lub kontekst był jak najbardziej unikalny i użyj wyższej temperatury.
Poprawianie danych wyjściowych modelu
Aby uzyskać wyższą jakość danych wyjściowych modelu, spróbuj napisać bardziej ustrukturyzowane prompty. Na stronie przewodnika po projektowaniu promptów znajdziesz podstawowe pojęcia, strategie i sprawdzone metody, które pomogą Ci zacząć.
Jeśli masz setki przykładów dobrych par danych wejściowych i wyjściowych, możesz też rozważyć dostrojenie modelu.
Ograniczenia dotyczące tokenów
Aby dowiedzieć się więcej o liczeniu tokenów i ich limitach, przeczytaj przewodnik po tokenach.
Znane problemy
- Interfejs API obsługuje tylko wybrane języki. Przesyłanie promptów w nieobsługiwanych językach może spowodować nieoczekiwane lub nawet zablokowane odpowiedzi. Aktualne informacje o dostępnych językach
Zgłoś błąd
Jeśli masz pytania, dołącz do dyskusji na forum dla deweloperów Google AI.