Przewodnik rozwiązywania problemów

Ten przewodnik pomoże Ci zdiagnozować i rozwiązać typowe problemy, które pojawiają się podczas wywoływania interfejsu Gemini API. Jeśli napotkasz problemy z kluczem interfejsu API, sprawdź, czy został prawidłowo skonfigurowany zgodnie z przewodnikiem po konfiguracji klucza interfejsu API.

Kody błędów

W tabeli poniżej znajdziesz typowe kody błędów, które możesz napotkać, wraz z objaśnieniami ich przyczyn i sposobów rozwiązywania problemów:

Kod HTTP Status Opis Rozwiązanie
400 INVALID_ARGUMENT Treść żądania jest nieprawidłowa. W dokumentacji API znajdziesz format żądania, przykłady i obsługiwane wersje. Używanie funkcji nowszej wersji interfejsu API ze starszym punktem końcowym może powodować błędy.
403 PERMISSION_DENIED Twój klucz interfejsu API nie ma wymaganych uprawnień. Sprawdź, czy Twój klucz interfejsu API jest skonfigurowany i ma odpowiednie uprawnienia dostępu.
404 NOT_FOUND Nie znaleziono żądanego zasobu. Sprawdź, czy wszystkie parametry w żądaniu są prawidłowe dla Twojej wersji interfejsu API.
429 RESOURCE_EXHAUSTED Przekroczono limit częstotliwości udostępniania. Upewnij się, że nie przekraczasz limitu szybkości modelu. W razie potrzeby poproś o zwiększenie limitu.
500 DO UŻYTKU WEWNĘTRZNEGO Po stronie Google wystąpił nieoczekiwany błąd. Zaczekaj chwilę i spróbuj ponownie. Jeśli problem nie ustąpi, zgłoś go za pomocą przycisku Prześlij opinię w Google AI Studio.
503 PRODUKT NIEDOSTĘPNY Usługa może być tymczasowo przeciążona lub wyłączona. Zaczekaj chwilę i spróbuj ponownie. Jeśli problem nie ustąpi, zgłoś go za pomocą przycisku Prześlij opinię w Google AI Studio.

Sprawdź wywołania interfejsu API pod kątem błędów parametrów modelu

Upewnij się, że parametry modelu mają takie wartości:

Parametr modelu Wartości (zakres)
Liczba kandydatów 1–8 (liczba całkowita)
Temperatura 0,0–1,0
Maksymalna liczba tokenów wyjściowych Użyj get_model (Python), aby określić maksymalną liczbę tokenów dla używanego modelu.
TopP 0,0–1,0

Oprócz sprawdzania wartości parametrów upewnij się, że używasz prawidłowej wersji interfejsu API (np. /v1 lub /v1beta) i model obsługujący potrzebne funkcje. Jeśli na przykład funkcja jest w wersji beta, będzie dostępna tylko w wersji interfejsu /v1beta API.

Sprawdź, czy masz właściwy model

Sprawdź, czy używasz obsługiwanego modelu. Aby udostępnić do użycia wszystkie modele, użyj języka list_models (Python).

Problemy związane z bezpieczeństwem

Jeśli widzisz, że prompt został zablokowany z powodu ustawienia bezpieczeństwa w wywołaniu interfejsu API, sprawdź go pod kątem filtrów ustawionych w wywołaniu interfejsu API.

Jeśli widzisz tekst BlockedReason.OTHER, oznacza to, że zapytanie lub odpowiedź może naruszać warunki korzystania z usługi lub nie może być obsługiwane z innego powodu.

Ulepsz dane wyjściowe modelu

Aby uzyskać wyższą jakość wyników modelu, spróbuj tworzyć bardziej ustrukturyzowane prompty. Na stronie Wprowadzenie do projektowania promptów przedstawiamy podstawowe pojęcia, strategie i sprawdzone metody, które pomogą Ci zacząć.

Jeśli masz setki dobrych par wejścia-wyjścia, możesz też rozważyć dostrajanie modelu.

Omówienie limitów tokenów

Za pomocą interfejsu API ModelService możesz uzyskać dodatkowe metadane dotyczące modeli, w tym limity tokenów danych wejściowych i wyjściowych.

Aby uzyskać tokeny używane w prompcie, użyj countMessageTokens dla modeli czatu i countTextTokens w przypadku modeli tekstowych.

Znane problemy

  • Mobilna obsługa Google AI Studio: chociaż możesz otworzyć witrynę na urządzeniu mobilnym, nie została ona zoptymalizowana pod kątem małych ekranów.
  • Interfejs API obsługuje tylko język angielski. Wysyłanie promptów w różnych językach może skutkować nieoczekiwanymi, a nawet zablokowanymi odpowiedziami. Sprawdź dostępne języki, aby dowiedzieć się więcej.

Zgłoś błąd

Zgłoś problem w GitHubie, żeby zadać pytania, zgłosić błąd lub prośbę o dodanie funkcji.