Funkcja wykonywania kodu w Gemini API umożliwia modelowi generowanie i uruchamianie kodu Pythona oraz uczenie się na podstawie wyników aż do uzyskania ostatecznej wersji. Możesz użyć tej funkcji do tworzenia aplikacji, które korzystają z rozpoznawania tekstu opartego na kodzie. Możesz na przykład użyć wykonania kodu w aplikacji, która rozwiązuje równania lub przetwarza tekst.
Wykonywanie kodu jest dostępne zarówno w AI Studio, jak i w Gemini API. W AI Studio możesz włączyć wykonywanie kodu w sekcji Ustawienia zaawansowane. Gemini API umożliwia wykonywanie kodu jako narzędzie podobne do wywoływania funkcji. Gdy dodasz wykonanie kodu jako narzędzie, model decyduje, kiedy go użyć.
Pierwsze kroki z wykonywaniem kodu
W tej sekcji zakładamy, że wykonałeś(-aś) czynności konfiguracyjne opisane w krótkim wprowadzeniu.
Wykonanie kodu a wywoływanie funkcji
Wykonywanie kodu i wywoływanie funkcji to podobne funkcje:
- Wykonywanie kodu umożliwia modelowi uruchamianie kodu w backendzie interfejsu API w stałym, izolowanym środowisku.
- Wywołanie funkcji umożliwia uruchamianie funkcji, których żąda model, w dowolnym środowisku.
Ogólnie zalecamy użycie uruchomienia kodu, jeśli jest ono odpowiednie do Twojego przypadku użycia. Wykonywanie kodu jest łatwiejsze w użyciu (wystarczy je włączyć) i sprowadza się do wysłania jednego żądania GenerateContent
(więc powoduje tylko jedno obciążenie). Wywołanie funkcji wymaga dodatkowego żądania GenerateContent
, które przesyła dane wyjściowe z każdego wywołania funkcji (co powoduje wielokrotne obciążenia).
Jeśli masz własne funkcje, które chcesz uruchomić lokalnie, w większości przypadków najlepiej jest używać wywołań funkcji, a jeśli chcesz, aby interfejs API pisał i uruchamiał kod Pythona za Ciebie, a potem zwracał wyniki, użyj wykonania kodu.
Płatności
Włączenie wykonywania kodu z użyciem Gemini API nie wiąże się z dodatkowymi opłatami. Będziesz obciążany(-a) opłatą według bieżącej stawki tokenów wejściowych i wyjściowych.
Oto kilka innych informacji o płatnościach za wykonywanie kodu:
- Naliczamy opłatę tylko raz za tokeny wejściowe przekazywane do modelu. Naliczamy też opłatę za ostateczne tokeny wyjściowe zwracane przez model.
- Tokeny reprezentujące wygenerowany kod są liczone jako tokeny wyjściowe.
- Wyniki wykonania kodu są również liczone jako tokeny wyjściowe.
Ograniczenia
- Model może tylko generować i wykonywać kod. Nie może zwracać innych artefaktów, np. plików multimedialnych.
- Ta funkcja nie obsługuje operacji wejścia/wyjścia dotyczących plików ani przypadków użycia, które obejmują dane wyjściowe inne niż tekstowe (np. wykresy danych czy przesyłanie plików CSV).
- Wykonanie kodu może trwać maksymalnie 30 sekund przed przekroczeniem limitu czasu.
- W niektórych przypadkach włączenie wykonywania kodu może spowodować regresję w innych obszarach danych wyjściowych modelu (np. w pisaniu historii).
- Różne modele mają nieco inne możliwości korzystania z wykonywania kodu. Z naszych testów wynika, że Gemini 1.5 Pro to najskuteczniejszy model.