Ten przewodnik pomoże Ci zdiagnozować i rozwiązać typowe problemy, które pojawiają się podczas wywoływania interfejsu Gemini API. Jeśli napotkasz problemy z kluczem interfejsu API, sprawdź, czy został prawidłowo skonfigurowany zgodnie z przewodnikiem po konfiguracji klucza interfejsu API.
Kody błędów
W tabeli poniżej znajdziesz typowe kody błędów, które możesz napotkać, wraz z objaśnieniami ich przyczyn i sposobów rozwiązywania problemów:
Kod HTTP | Status | Opis | Rozwiązanie |
400 | INVALID_ARGUMENT | Treść żądania jest nieprawidłowa. | W dokumentacji API znajdziesz format żądania, przykłady i obsługiwane wersje. Używanie funkcji nowszej wersji interfejsu API ze starszym punktem końcowym może powodować błędy. |
403 | PERMISSION_DENIED | Twój klucz interfejsu API nie ma wymaganych uprawnień. | Sprawdź, czy Twój klucz interfejsu API jest skonfigurowany i ma odpowiednie uprawnienia dostępu. |
404 | NOT_FOUND | Nie znaleziono żądanego zasobu. | Sprawdź, czy wszystkie parametry w żądaniu są prawidłowe dla Twojej wersji interfejsu API. |
429 | RESOURCE_EXHAUSTED | Przekroczono limit częstotliwości udostępniania. | Upewnij się, że nie przekraczasz limitu szybkości modelu. W razie potrzeby poproś o zwiększenie limitu. |
500 | DO UŻYTKU WEWNĘTRZNEGO | Po stronie Google wystąpił nieoczekiwany błąd. | Zaczekaj chwilę i spróbuj ponownie. Jeśli problem nie ustąpi, zgłoś go za pomocą przycisku Prześlij opinię w Google AI Studio. |
503 | PRODUKT NIEDOSTĘPNY | Usługa może być tymczasowo przeciążona lub wyłączona. | Zaczekaj chwilę i spróbuj ponownie. Jeśli problem nie ustąpi, zgłoś go za pomocą przycisku Prześlij opinię w Google AI Studio. |
Sprawdź wywołania interfejsu API pod kątem błędów parametrów modelu
Upewnij się, że parametry modelu mają takie wartości:
Parametr modelu | Wartości (zakres) |
Liczba kandydatów | 1–8 (liczba całkowita) |
Temperatura | 0,0–1,0 |
Maksymalna liczba tokenów wyjściowych |
Użyj get_model (Python), aby określić maksymalną liczbę tokenów dla używanego modelu.
|
TopP | 0,0–1,0 |
Oprócz sprawdzania wartości parametrów upewnij się, że używasz prawidłowej wersji interfejsu API (np. /v1
lub /v1beta
) i model obsługujący potrzebne funkcje. Jeśli na przykład funkcja jest w wersji beta, będzie dostępna tylko w wersji interfejsu /v1beta
API.
Sprawdź, czy masz właściwy model
Sprawdź, czy używasz obsługiwanego modelu. Aby udostępnić do użycia wszystkie modele, użyj języka list_models
(Python).
Problemy związane z bezpieczeństwem
Jeśli widzisz, że prompt został zablokowany z powodu ustawienia bezpieczeństwa w wywołaniu interfejsu API, sprawdź go pod kątem filtrów ustawionych w wywołaniu interfejsu API.
Jeśli widzisz tekst BlockedReason.OTHER
, oznacza to, że zapytanie lub odpowiedź może naruszać warunki korzystania z usługi lub nie może być obsługiwane z innego powodu.
Ulepsz dane wyjściowe modelu
Aby uzyskać wyższą jakość wyników modelu, spróbuj tworzyć bardziej ustrukturyzowane prompty. Na stronie Wprowadzenie do projektowania promptów przedstawiamy podstawowe pojęcia, strategie i sprawdzone metody, które pomogą Ci zacząć.
Jeśli masz setki dobrych par wejścia-wyjścia, możesz też rozważyć dostrajanie modelu.
Omówienie limitów tokenów
Za pomocą interfejsu API ModelService
możesz uzyskać dodatkowe metadane dotyczące modeli, w tym limity tokenów danych wejściowych i wyjściowych.
Aby uzyskać tokeny używane w prompcie, użyj countMessageTokens
dla modeli czatu i countTextTokens
w przypadku modeli tekstowych.
Znane problemy
- Mobilna obsługa Google AI Studio: chociaż możesz otworzyć witrynę na urządzeniu mobilnym, nie została ona zoptymalizowana pod kątem małych ekranów.
- Interfejs API obsługuje tylko język angielski. Wysyłanie promptów w różnych językach może skutkować nieoczekiwanymi, a nawet zablokowanymi odpowiedziami. Sprawdź dostępne języki, aby dowiedzieć się więcej.
Zgłoś błąd
Zgłoś problem w GitHubie, żeby zadać pytania, zgłosić błąd lub prośbę o dodanie funkcji.