Esecuzione di codice

La funzionalità di esecuzione del codice dell'API Gemini consente al modello di generare ed eseguire codice Python e di apprendere in modo iterativo dai risultati fino a ottenere un output finale. Puoi utilizzare questa funzionalità di esecuzione di codice per creare applicazioni che beneficiano del ragionamento basato su codice e che producono output di testo. Ad esempio, puoi utilizzare l'esecuzione di codice in un'applicazione che risolve equazioni o elabora il testo.

L'esecuzione di codice è disponibile sia in AI Studio che nell'API Gemini. In AI Studio, puoi attivare l'esecuzione del codice nel riquadro a destra in Strumenti. L'API Gemini fornisce l'esecuzione di codice come strumento, in modo simile alla chiamata di funzioni. Dopo aver aggiunto l'esecuzione di codice come strumento, è il modello a decidere quando utilizzarlo.

L'ambiente di esecuzione del codice include le seguenti librerie: altair, chess, cv2, matplotlib, mpmath, numpy, pandas, pdfminer, reportlab, seaborn, sklearn, statsmodels, striprtf, sympy e tabulate. Non puoi installare le tue librerie.

Iniziare a utilizzare l'esecuzione di codice

In questa sezione si presuppone che tu abbia completato i passaggi di installazione e configurazione illustrati nella guida rapida.

Input/output (I/O)

A partire da Gemini 2.0 Flash, l'esecuzione del codice supporta l'input di file e l'output di grafici. Grazie a queste nuove funzionalità di input e output, puoi caricare file CSV e di testo, porre domande sui file e generare grafici Matplotlib come parte della risposta.

Prezzi di I/O

Quando utilizzi l'I/O di esecuzione del codice, ti vengono addebitati i token di input e di output:

Token di input:

  • Prompt dell'utente

Token di output:

  • Codice generato dal modello
  • Output dell'esecuzione del codice nell'ambiente di codice
  • Riepilogo generato dal modello

Dettagli I/O

Quando lavori con l'I/O di esecuzione del codice, tieni presente i seguenti dettagli tecnici:

  • Il tempo di esecuzione massimo dell'ambiente di codice è di 30 secondi.
  • Se l'ambiente di codice genera un errore, il modello potrebbe decidere di rigenerare l'output del codice. Questo può accadere fino a 5 volte.
  • La dimensione massima del file di input è limitata dalla finestra del token del modello. In AI Studio, con Gemini Flash 2.0, la dimensione massima del file di input è di 1 milione di token (circa 2 MB per i file di testo dei tipi di input supportati). Se caricate un file troppo grande, AI Studio non vi consente di inviarlo.
A turno singolo Bidirezionale (API Multimodal Live)
Modelli supportati Tutti i modelli Gemini 2.0 Solo modelli sperimentali Flash
Tipi di input file supportati .png, .jpeg, .csv, .xml, .cpp, .java, .py, .js, .ts .png, .jpeg, .csv, .xml, .cpp, .java, .py, .js, .ts
Librerie di rappresentazione supportate Matplotlib Matplotlib
Utilizzo di più strumenti No

Fatturazione

Non sono previsti costi aggiuntivi per l'abilitazione dell'esecuzione di codice dall'API Gemini. Ti verrà addebitato il prezzo corrente dei token di input e di output in base al modello Gemini che utilizzi.

Ecco alcune altre informazioni da conoscere sulla fatturazione per l'esecuzione di codice:

  • Ti viene addebitato un solo token di input per i token di input che passi al modello e ti vengono addebitati i token di output finali che ti vengono restituiti dal modello.
  • I token che rappresentano il codice generato vengono conteggiati come token di output. Il codice generato può includere testo e output multimodali come le immagini.
  • Anche i risultati dell'esecuzione del codice vengono conteggiati come token di output.

Il modello di fatturazione è mostrato nel seguente diagramma:

modello di fatturazione per l'esecuzione del codice

  • La fatturazione avviene in base alla tariffa corrente dei token di input e di output in base al modello Gemini in uso.
  • Se Gemini utilizza l'esecuzione di codice per generare la risposta, il prompt originale, il codice generato e il risultato del codice eseguito sono etichettati come token intermedi e vengono fatturati come token di input.
  • Gemini genera quindi un riepilogo e restituisce il codice generato, il risultato del codice eseguito e il riepilogo finale. Questi vengono fatturati come token di output.
  • L'API Gemini include un conteggio intermedio dei token nella risposta dell'API, in modo da sapere perché ricevi token di input aggiuntivi oltre alla richiesta iniziale.

Limitazioni

  • Il modello può solo generare ed eseguire codice. Non può restituire altri elementi come i file multimediali.
  • In alcuni casi, l'attivazione dell'esecuzione di codice può portare a regressioni in altre aree dell'output del modello (ad esempio, la scrittura di una storia).
  • Esiste una certa variabilità nella capacità dei diversi modelli di utilizzare l'esecuzione del codice.