Wykonanie kodu

Funkcja wykonywania kodu w Gemini API umożliwia modelowi generowanie i uruchamianie kodu Pythona oraz uczenie się na podstawie wyników aż do uzyskania ostatecznej wersji. Za pomocą tej funkcji wykonywania kodu możesz tworzyć aplikacje korzystające z rozumowania opartego na kodzie i generujące tekstowe dane wyjściowe. Możesz na przykład użyć wykonania kodu w aplikacji, która rozwiązuje równania lub przetwarza tekst.

Wykonywanie kodu jest dostępne zarówno w AI Studio, jak i interfejsie Gemini API. W AI Studio możesz włączyć wykonywanie kodu w sekcji Ustawienia zaawansowane. Gemini API umożliwia wykonywanie kodu jako narzędzie podobne do wywoływania funkcji. Gdy dodasz wykonanie kodu jako narzędzie, model decyduje, kiedy go użyć.

Wprowadzenie do wykonywania kodu

Wyświetl na ai.google.dev Uruchom w Google Colab Wyświetl źródło w GitHubie

W tej sekcji zakładamy, że masz zainstalowany pakiet SDK Gemini i skonfigurowano klucz interfejsu API, jak pokazano w quickstart.

Wykonanie kodu a wywoływanie funkcji

Wykonywanie kodu i wywoływanie funkcji to podobne funkcje:

  • Wykonanie kodu umożliwia modelowi uruchomienie kodu w backendzie interfejsu API w stałym, odizolowanym środowisku.
  • Wywołanie funkcji umożliwia uruchamianie funkcji, których żąda model, w dowolnym środowisku.

Ogólnie zalecamy korzystanie z wykonywania kodu, jeśli może obsłużyć Twój przypadek użycia. Wykonanie kodu jest prostsze w użyciu (wystarczy je włączyć) i zatrzymuje się w ramach pojedynczego żądania GenerateContent (co wiąże się z jedną opłatą). Wywołanie funkcji wymaga dodatkowego żądania GenerateContent, które przesyła dane wyjściowe z każdego wywołania funkcji (co powoduje wielokrotne obciążenia).

Jeśli masz własne funkcje, które chcesz uruchomić lokalnie, w większości przypadków najlepiej jest używać wywołań funkcji, a jeśli chcesz, aby interfejs API pisał i uruchamiał kod Pythona za Ciebie, a potem zwracał wyniki, użyj wykonania kodu.

Płatności

Nie ma dodatkowych opłat za włączenie wykonywania kodu z Gemini API. Opłaty będą naliczane według bieżącej stawki tokenów wejściowych i wyjściowych.

Oto kilka dodatkowych informacji o płatnościach za wykonanie kodu:

  • Opłaty są naliczane tylko raz za tokeny wejściowe przekazane do modelu, a opłaty za ostateczne tokeny wyjściowe zwrócone przez model.
  • Tokeny reprezentujące wygenerowany kod są liczone jako tokeny wyjściowe.
  • Wyniki wykonania kodu są też liczone jako tokeny wyjściowe.

Ograniczenia

  • Model może tylko generować i wykonywać kod. Nie może zwracać innych artefaktów, np. plików multimedialnych.
  • Ta funkcja nie obsługuje operacji wejścia-wyjścia plików ani przypadków użycia, które obejmują dane wyjściowe inne niż tekstowe (np. wykresy danych).
  • Wykonanie kodu może trwać maksymalnie 30 sekund przed przekroczeniem limitu czasu.
  • W niektórych przypadkach włączenie wykonania kodu może prowadzić do regresji w innych obszarach danych wyjściowych modelu (np. podczas pisania historii).
  • Występują pewne różnice w możliwościach pomyślnego wykonywania kodu przez różne modele. Z naszych testów wynika, że Gemini 1.5 Pro jest najskuteczniejszym modelem.