Colab Magia

Questo blocco note introduce i comandi magici di Colab per PaLM. Magic semplifica lo sviluppo, il test, il confronto e la valutazione dei prompt all'interno di un blocco note di Colab.

Visualizza su ai.google.dev Prova un blocco note di Colab Visualizza blocco note su GitHub

Configurazione

Segui questi passaggi per installare e testare le funzionalità.

Installazione della magia di PaLM

Per utilizzare i comandi magici di PaLM in Colab o in un altro ambiente IPython, devi prima scaricare e installare il pacchetto Python google-generativeai.

%pip install -q google-generativeai

Caricamento della magia di PaLM

A questo punto, carica la magia di %%palm usando la magia di %load_ext:

%load_ext google.generativeai.notebook

Verifica l'installazione

Per verificare la corretta installazione dei comandi magici, esegui %%palm --help. Tieni presente che avrai bisogno anche di una chiave API PaLM, se non ne hai già una (vedi il passaggio successivo).

%%palm --help
usage: palm [-h] {run,compile,compare,eval} ...

A system for interacting with LLMs.

positional arguments:
  {run,compile,compare,eval}

options:
  -h, --help            show this help message and exit

Ottenere una chiave API PaLM

Per utilizzare l'API PaLM, dovrai creare una chiave API. Dovrai eseguire questo passaggio una sola volta.

Imposta la chiave API nel blocco note

Imposta la chiave API eseguendo la cella in basso.

%env GOOGLE_API_KEY=YOUR PALM KEY

Comandi magici di PaLM: run, compile, compare e evaluate

Le magie di PaLM offrono quattro diversi comandi:

  1. run
  2. compile
  3. compare
  4. evaluate

Comando: palm run

Il comando run invia i contenuti della cella al modello.

Poiché l'esecuzione dei prompt è così comune, se non viene fornito alcun comando, PaLM utilizza per impostazione predefinita il comando run. Ad esempio, le due celle successive sono identiche.

%%palm run
The opposite of hot is
%%palm
The opposite of hot is

Comprensione dell'output

La colonna Prompt mostra il testo inviato al modello, mentre la colonna text_result mostra il risultato. Le altre colonne verranno introdotte man mano che procedi nella guida.

Modelli di prompt

I prompt non devono essere necessariamente stringhe fisse. Puoi inserire i valori in un prompt utilizzando i segnaposto dei modelli utilizzando {curly braces}.

english_words = {
    # Each value here (hot, cold) will be substituted in for {word} in the prompt
    'word': ['hot', 'cold']
}
%%palm --inputs english_words
The opposite of {word} is

Comprensione dell'output

La colonna Input Num monitora l'indice della parola di input negli elenchi. Nella questi esempi, Input Num di 0 è 'hot' e 1 è 'cold'.

Specificare più set di input

Puoi anche specificare più set di input contemporaneamente.

extreme_temperatures = {
    'word': ['hot', 'cold']
}
minor_temperatures = {
    'word': ['warm', 'chilly']
}
%%palm --inputs extreme_temperatures minor_temperatures
The opposite of {word} is

Lettura dei dati da Fogli Google

La magia di PaLM è anche in grado di leggere e scrivere su Fogli Google. Per accedere ai dati di Fogli devi eseguire l'accesso. Questa sezione si concentra sulla lettura dei dati di Fogli; una sezione successiva mostra come scrivere l'output in un foglio Google.

Accedi e autorizza l'accesso a Fogli

Formattare un foglio di lavoro per utilizzarlo con la magia di PaLM

Trasmetti l'ID o l'URL di un foglio Google al flag --sheets_input_names per caricarlo come dati del modello.

Utilizza il formato seguente nel foglio di lavoro per utilizzare i dati in un modello di prompt:

  1. Inserisci i nomi delle variabili (del modello di prompt) nella prima riga del foglio.
  2. Inserisci i dati da sostituire con ogni variabile nelle righe seguenti.

Ad esempio, se il modello di prompt ha due variabili da sostituire, name e temperament, devi scrivere il foglio di lavoro nel seguente modo:

nome temperamento
Milo impertinente
Molto rilassato
Subra timido
%%palm --sheets_input_names https://docs.google.com/spreadsheets/d/1UHfpkmBqIX5RjeJcGXOevIEhMmEoKlf5f9teqwQyHqc/edit
Create a single sentence description of a monkey's personality. The monkey's name is {name} and it has a {temperament} temperament.

Fai una prova!

Per fare una prova utilizzando i tuoi dati, crea un nuovo foglio e passa l'ID a --sheets_input_names. Oltre che per ID e URL, puoi anche cercare i tuoi fogli per titolo, ad esempio %%palm --sheets_input_names "Animal adjectives".

Combinare gli input di Fogli con gli input Python

Gli input di Fogli possono anche essere combinati con --inputs:

new_monkeys = {
    'name': ['Hackerella'],
    'temperament': ['clever'],
}
%%palm --inputs new_monkeys --sheets_input_names 1UHfpkmBqIX5RjeJcGXOevIEhMmEoKlf5f9teqwQyHqc 1UHfpkmBqIX5RjeJcGXOevIEhMmEoKlf5f9teqwQyHqc
Create a single sentence description of a monkey's personality. The monkey's name is {name} and it has a {temperament} temperament.

Comando: palm eval

Utilizza %%palm eval per confrontare l'output di un prompt con dati empirici reali.

test_data = {
    "word": ["dog", "cat", "house"]
}
ground_truth = ["chien", "chat", "maison"]
%%palm eval --inputs test_data --ground_truth ground_truth
English: Hello
French: Bonjour
English: {word}
French:

Output del modello di post-elaborazione

Per eseguire test basati su dati empirici reali, potrebbe essere necessario post-elaborare l'output del modello.

Le funzioni di post-elaborazione consentono di definire una funzione che elabora l'output del modello. Nel caso del comando eval, nel controllo di uguaglianza finale viene utilizzata solo la colonna dei risultati.

Utilizza il decorator post_process_replace_fn per definire una funzione di post-elaborazione dei risultati:

from google.generativeai.notebook import magics

# Define a function to extract only the first response.
@magics.post_process_replace_fn
def extract_and_normalize(input):
  first_line, *unused = input.split('English:')
  return first_line.strip().lower()

La funzione extract_and_normalize definita sopra prenderà l'output dal modello e taglia eventuali coppie di lingue ripetute, lasciando solo la prima risposta. Consulta la sezione sulla post-elaborazione per ulteriori informazioni sulla post-elaborazione.

%%palm eval --inputs test_data --ground_truth ground_truth | extract_and_normalize
English: Hello
French: Bonjour
English: {word}
French:

Comando: palm compile

Usa il comando %%palm compile per convertire un prompt con segnaposto in una funzione richiamabile dall'interno di Python.

Tutti i flag e la post-elaborazione vengono "compilati" nella funzione e verranno utilizzati quando richiamati.

In questo esempio, viene creata una funzione denominata translate_en_to_fr utilizzando la funzione di post-elaborazione extract_and_normalize di before.

%%palm compile translate_en_to_fr | extract_and_normalize
English: Hello
French: Bonjour
English: {word}
French:
'Saved function to Python variable: translate_en_to_fr'
en_words = ['cat', 'dog']
translate_en_to_fr({'word': en_words})

Formati di output

Per impostazione predefinita, un file "compilato" restituisce l'output come oggetto che verrà visualizzato come Pandas DataFrame. Tuttavia, puoi convertire l'oggetto dei risultati in un DataFrame o in un dizionario con .as_dict() o .as_dataframe(), rispettivamente.

Per maggiori informazioni, consulta il flag --outputs.

results = translate_en_to_fr({'word': en_words}).as_dict()

fr_words = results['text_result']

for en, fr in zip(en_words, fr_words):
  print(f'{fr} is French for {en}')
chat is French for cat
chien is French for dog

Comando: palm compare

%%palm compare esegue prompt compilati e genera una tabella con i risultati del confronto affiancati, in modo da poter esaminare le differenze.

%%palm compile few_shot_prompt
English: Hello
French: Bonjour
English: {word}
French:
'Saved function to Python variable: few_shot_prompt'
%%palm compile zero_shot_prompt
{word} translated to French is:
'Saved function to Python variable: zero_shot_prompt'
words = {
    "word": ["dog", "cat", "house"]
}
%%palm compare few_shot_prompt zero_shot_prompt --inputs words

Funzioni di confronto personalizzate

Per impostazione predefinita, compare verifica solo la presenza di eguaglianza nei risultati restituiti. Tuttavia, puoi specificare una o più funzioni personalizzate con il flag --compare_fn:

def average_word_length(lhs, rhs):
  """Count the average number of words used across prompts."""
  return (len(lhs.split(' ')) + len(rhs.split(' '))) / 2

def shortest_answer(lhs, rhs):
  """Label the prompt that generated the shortest output."""
  if len(lhs) < len(rhs):
    return 'first'
  elif len(lhs) > len(rhs):
    return 'second'
  else:
    return 'same'
%%palm compare few_shot_prompt zero_shot_prompt --inputs words --compare_fn average_word_length shortest_answer

Altri comandi

Guida

Il flag --help mostra i comandi supportati che puoi passare direttamente a %%palm

Aggiungi --help per visualizzare la documentazione dettagliata per ciascun comando. Ad esempio,

%%palm run --help
usage: palm run [-h] [--model_type {echo,text}] [--temperature TEMPERATURE]
                [--model MODEL] [--candidate_count CANDIDATE_COUNT] [--unique]
                [--inputs INPUTS [INPUTS ...]]
                [--sheets_input_names SHEETS_INPUT_NAMES [SHEETS_INPUT_NAMES ...]]
                [--outputs OUTPUTS [OUTPUTS ...]]
                [--sheets_output_names SHEETS_OUTPUT_NAMES [SHEETS_OUTPUT_NAMES ...]]

options:
  -h, --help            show this help message and exit
  --model_type {echo,text}, -mt {echo,text}
                        The type of model to use.
  --temperature TEMPERATURE, -t TEMPERATURE
                        Controls the randomness of the output. Must be
                        positive. Typical values are in the range: [0.0, 1.0].
                        Higher values produce a more random and varied
                        response. A temperature of zero will be deterministic.
  --model MODEL, -m MODEL
                        The name of the model to use. If not provided, a
                        default model will be used.
  --candidate_count CANDIDATE_COUNT, -cc CANDIDATE_COUNT
                        The number of candidates to produce.
  --unique              Whether to dedupe candidates returned by the model.
  --inputs INPUTS [INPUTS ...], -i INPUTS [INPUTS ...]
                        Optional names of Python variables containing inputs
                        to use to instantiate a prompt. The variable must be
                        either: a dictionary {'key1': ['val1', 'val2'] ...},
                        or an instance of LLMFnInputsSource such as
                        SheetsInput.
  --sheets_input_names SHEETS_INPUT_NAMES [SHEETS_INPUT_NAMES ...], -si SHEETS_INPUT_NAMES [SHEETS_INPUT_NAMES ...]
                        Optional names of Google Sheets to read inputs from.
                        This is equivalent to using --inputs with the names of
                        variables that are instances of SheetsInputs, just
                        more convenient to use.
  --outputs OUTPUTS [OUTPUTS ...], -o OUTPUTS [OUTPUTS ...]
                        Optional names of Python variables to output to. If
                        the Python variable has not already been defined, it
                        will be created. If the variable is defined and is an
                        instance of LLMFnOutputsSink, the outputs will be
                        written through the sink's write_outputs() method.
  --sheets_output_names SHEETS_OUTPUT_NAMES [SHEETS_OUTPUT_NAMES ...], -so SHEETS_OUTPUT_NAMES [SHEETS_OUTPUT_NAMES ...]
                        Optional names of Google Sheets to write inputs to.
                        This is equivalent to using --outputs with the names
                        of variables that are instances of SheetsOutputs, just
                        more convenient to use.

Modelli

Utilizza il flag --model per specificare la variante del modello PaLM che vuoi utilizzare.

Consulta il metodo list_models() per recuperare i modelli supportati. La magia di PaLM può essere utilizzata con qualsiasi modello che supporti il metodo generateText.

%%palm run --model models/text-bison-001
My favourite color is

Parametri del modello

Puoi anche configurare parametri del modello, ad esempio --candidate_count e --temperature.

%%palm run --model models/text-bison-001 --temperature 0.5
My favourite color is

Debug: modello eco

È disponibile anche un modello echo che ti riporterà via eco al prompt. Non effettua chiamate API né consuma la tua quota, quindi può essere un modo rapido e semplice per testare l'output o la post-elaborazione.

%%palm --model_type echo
A duck's quack does not echo.

Esporta l'output in Python

Oltre a visualizzare l'output tabulare, PaLM può salvare l'output del modello in variabili Python, consentendoti di manipolarli ulteriormente o di esportare i risultati.

In questo esempio, l'output viene salvato in una variabile Python: fave_colors

%%palm --outputs fave_colors
The best colors to wear in spring-time are

Le variabili di output sono oggetti personalizzati che verranno visualizzati come DataFrame Pandas per impostazione predefinita. Possono essere forzati esplicitamente in un dizionario o in un dataframe Python chiamando as_dict() o as_pandas_dataframe().

from pprint import pprint

pprint(fave_colors.as_dict())
{'Input Num': [0],
 'Prompt': ['The best colors to wear in spring-time are'],
 'Prompt Num': [0],
 'Result Num': [0],
 'text_result': ['* Pastels: These soft, muted colors are perfect for the '
                 'springtime, as they are fresh and airy. Some popular pastel '
                 'colors include baby blue, mint green, and pale pink.\n'
                 '* Brights: If you want to make a statement, bright colors '
                 'are a great option for spring. Some popular bright colors '
                 'include fuchsia, cobalt blue, and yellow.\n'
                 '* Neutrals: Neutral colors are always a good choice, as they '
                 'can be easily dressed up or down. Some popular neutrals '
                 'include beige, gray, and white.\n'
                 '\n'
                 'When choosing colors to wear in the spring, it is important '
                 'to consider the occasion and your personal style. For '
                 'example, if you are attending a formal event, you may want '
                 'to choose a more muted color palette, such as pastels or '
                 'neutrals. If you are going for a more casual look, you may '
                 'want to choose brighter colors, such as brights or pastels.']}

Scrivi in Fogli Google

Puoi salvare l'output in Fogli Google utilizzando --sheets_output_names. Devi aver eseguito l'accesso e devi disporre delle autorizzazioni appropriate per accedere a Fogli privati.

Per provare, crea un nuovo foglio e assegnagli il nome Translation results. Come il flag di input, il flag --sheets_output_names accetta anche l'URL o l'ID del foglio al posto del nome testuale.

%%palm --inputs english_words --sheets_output_names "Translation results"
English: Hello
French: Bonjour
English: {word}
French:

I risultati vengono salvati in una nuova scheda e contengono gli stessi dati che vedi qui in Colab.

Esempio di un foglio salvato

Generazione di più candidati in corso...

Per generare più di un output per un singolo prompt, puoi passare --candidate_count al modello. Per impostazione predefinita, questo valore è impostato su 1 e viene restituito solo il risultato migliore.

A volte il modello genera lo stesso output tra i candidati. Questi filtri possono essere filtrati con il flag --unique, che deduplica i risultati fuori dal batch candidato (ma non in più prompt).

%%palm run --temperature 1.0 --candidate_count 8 --unique
In a single word, my favourite color is

La colonna Result Num distingue più candidati generati dalla stessa richiesta.

Output del modello di post-elaborazione

L'ampia gamma di output e strutture possibili può rendere difficile adattare l'output del modello al dominio del problema. La funzione magica di PaLM offre opzioni di post-elaborazione che consentono di modificare o elaborare l'output del modello utilizzando il codice Python.

Le funzioni di post-elaborazione possono aggiungere una nuova colonna all'output o modificare la colonna text_result. La colonna text_result è l'ultima colonna ed è utilizzata dai comandi eval e compare per determinare l'output finale.

Ecco alcune funzioni di esempio da utilizzare in post-elaborazione. Uno aggiunge una nuova colonna, mentre l'altra aggiorna la colonna dei risultati utilizzando il decorator post_process_replace_fn.

import re
from google.generativeai.notebook import magics

# Add a new column.
def word_count(result):
  return len(result.split(' '))

# Modify the text_result column
@magics.post_process_replace_fn
def extract_first_sentence(result):
  """Extracts the first word from the raw result."""
  first, *_ = re.split(r'\.\s*', result)
  return first

Per utilizzare queste funzioni, aggiungile al comando %%palm utilizzando l'operatore pipe (|), in questo modo.

%%palm run | word_count | extract_first_sentence
The happiest thing I can imagine is

L'ordine è importante. Quando viene richiamato word_count, l'output del modello originale viene utilizzato per calcolare il numero di parole. Se inverti queste parole, il conteggio delle parole corrisponderà invece al numero di parole nella prima frase estratta.

Per approfondire