La progettazione dei prompt è il processo di creazione di prompt, o richieste in linguaggio naturale, che generano risposte accurate e di alta qualità da un modello linguistico.
Questa pagina introduce concetti, strategie e best practice di base per iniziare a progettare prompt per ottenere il massimo dai modelli di AI Gemini.
Guide per prompt specifiche per argomento
Cerchi strategie di prompt più specifiche? Consulta le altre nostre guide ai prompt su:
- Prompt con file multimediali
- Prompt per la generazione di immagini con Imagen e Gemini Native Image Generation
- Prompting per la generazione di video
Puoi trovare altri prompt di esempio nella galleria dei prompt, che mostra in modo interattivo molti dei concetti condivisi in questa guida.
Istruzioni chiare e specifiche
Un modo efficace ed efficiente per personalizzare il comportamento del modello è fornire istruzioni chiare e specifiche. Le istruzioni possono essere sotto forma di domanda, attività passo passo o complesse come la mappatura dell'esperienza e della mentalità di un utente.
Input
L'input è il testo richiesto nel prompt a cui vuoi che il modello fornisca una risposta. Gli input possono essere una domanda a cui il modello risponde (input di domanda), un'attività che il modello esegue (input di attività), un'entità su cui il modello agisce (input di entità) o un input parziale che il modello completa o prosegue (input di completamento).
| Tipo di input | Prompt | Output generato |
|---|---|---|
| Domanda | |
|
| Attività |
Give me a simple list of just the things that I must bring on a camping trip. The list should have 5 items. |
1. **Tent:** Your shelter from the elements.
2. **Sleeping Bag:** Stay warm and comfortable.
3. **Sleeping Pad:** Insulation and cushioning for a good night's sleep.
4. **Headlamp or Flashlight:** Light for nighttime activities.
5. **First Aid Kit:** Be prepared for minor injuries. |
| Entità | |
|
Completamento parziale dell'input
I modelli linguistici generativi funzionano come uno strumento avanzato di completamento automatico. Quando fornisci contenuti parziali, il modello può fornire il resto dei contenuti o ciò che ritiene sia una continuazione di questi contenuti come risposta. In questo modo, se includi esempi o contesto, il modello può tenerne conto.
L'esempio seguente fornisce un prompt con un'istruzione e un input di entità:
For the given order, return a JSON object that has the fields cheeseburger, hamburger, fries, or drink, with the value being the quantity. Order: A burger and a drink.
{
"cheeseburger": 0,
"hamburger": 1,
"fries": 0,
"drink": 1
}
|
Anche se il modello ha eseguito l'attività richiesta, scrivere le istruzioni in linguaggio naturale a volte può essere difficile e lascia molto all'interpretazione del modello. Ad esempio, il menu di un ristorante potrebbe contenere molti articoli. Per ridurre le dimensioni della risposta JSON, probabilmente ti conviene omettere gli articoli che non sono stati ordinati. In questo caso, puoi fornire un esempio e un prefisso di risposta e lasciare che il modello lo completi:
Valid fields are cheeseburger, hamburger, fries, and drink.
Order: Give me a cheeseburger and fries
Output:
```
{
"cheeseburger": 1,
"fries": 1
}
```
Order: I want two burgers, a drink, and fries.
Output:
```
{
"hamburger": 2,
"drink": 1,
"fries": 1
}
```
|
Nota come "cheeseburger" sia stato escluso dall'output perché non faceva parte dell'ordine.
Vincoli
Specifica eventuali vincoli alla lettura del prompt o alla generazione di una risposta. Puoi dire al modello cosa fare e cosa non fare. Ad esempio, puoi specificare un vincolo nel prompt sulla lunghezza del riepilogo:
|
Summarize this text in one sentence:
Text: A quantum computer exploits quantum mechanical phenomena to perform calculations exponentially
faster than any modern traditional computer. At very tiny scales, physical matter acts as both
particles and as waves, and quantum computing uses specialized hardware to leverage this behavior.
The operating principles of quantum devices is beyond the scope of classical physics. When deployed
at scale, quantum computers could be used in a wide variety of applications such as: in
cybersecurity to break existing encryption methods while helping researchers create new ones, in
meteorology to develop better weather forecasting etc. However, the current state of the art quantum
computers are still largely experimental and impractical.
Exploiting quantum mechanical phenomena, quantum computers can perform calculations exponentially faster than traditional computers for potential applications like cybersecurity and meteorology, although they are currently largely experimental and impractical.
|
Formato della risposta
Puoi fornire istruzioni che specificano il formato della risposta. Ad esempio, puoi chiedere che la risposta venga formattata come tabella, elenco puntato, discorso conciso, parole chiave, frase o paragrafo. La seguente istruzione di sistema indica al modello di essere più colloquiale nella sua risposta:
All questions should be answered comprehensively with details, unless the user requests a concise response specifically.
What is a smart way to make a business that sells DVD's in 2025?
Starting a business selling DVDs in 2025 presents significant challenges due to the overwhelming dominance of digital streaming and on-demand services; a "smart" approach would therefore require a highly specialized niche, a strong value proposition beyond just the disc, and likely a focus on community or collector markets rather than mainstream consumption.
Here's a breakdown of what a smart DVD business in 2025 would likely entail:
1. Extreme Niche Specialization: You cannot compete with streaming libraries. Your business must focus on what digital doesn't offer easily or at all. This could include:
* Out-of-Print & Rare Titles: Sourcing films or TV shows that have never been released digitally or are currently unavailable on major streaming platforms.
....
|
Formattare le risposte con la strategia di completamento
Anche la strategia di completamento può contribuire a formattare la risposta. L'esempio seguente chiede al modello di creare una struttura del saggio:
Create an outline for an essay about hummingbirds. Here is a possible outline for an essay about hummingbirds: I. Introduction A. Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). B. Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds. C. Thesis Statement: State the main point of the essay, which could be about the remarkable adaptations, behaviors, and ecological importance of hummingbirds. II. Appearance and Identification ..... |
Il prompt non ha specificato il formato della struttura e il modello ne ha scelto uno per te. Per fare in modo che il modello restituisca una struttura in un formato specifico, puoi aggiungere un testo che rappresenti l'inizio della struttura e lasciare che il modello la completi in base al pattern che hai avviato.
Create an outline for an essay about hummingbirds. I. Introduction * Okay, here is an outline for an essay about hummingbirds, starting from the introduction you provided: I. Introduction * Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). * Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds, and their general characteristics. * Thesis Statement: State the main point of the essay, focusing on the remarkable adaptations, behaviors, and ecological significance that make hummingbirds extraordinary. ..... |
Prompt zero-shot e few-shot
Puoi includere nel prompt esempi che mostrino al modello come dovrebbe essere una risposta corretta. Il modello tenta di identificare pattern e relazioni dagli esempi e li applica quando genera una risposta. I prompt che contengono alcuni esempi sono chiamati prompt few-shot, mentre i prompt che non forniscono esempi sono chiamati prompt zero-shot. I prompt few-shot vengono spesso utilizzati per regolare la formattazione, la formulazione, l'ambito o il pattern generale delle risposte del modello. Utilizza esempi specifici e vari per aiutare il modello a restringere il campo e generare risultati più accurati.
Ti consigliamo di includere sempre esempi few-shot nei prompt. I prompt senza esempi few-shot hanno meno probabilità di essere efficaci. Infatti, puoi rimuovere le istruzioni dal prompt se gli esempi sono abbastanza chiari per mostrare l'attività da svolgere.
Il seguente prompt zero-shot chiede al modello di scegliere la spiegazione migliore.
Please choose the best explanation to the question: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Explanation1 is the better explanation because it provides more detail on the process, including how ice crystals combine and grow into snowflakes as they fall through the atmosphere. |
Se il tuo caso d'uso richiede che il modello produca risposte concise, puoi includere esempi nel prompt che danno la preferenza a risposte concise.
Il seguente prompt fornisce due esempi che mostrano la preferenza per le spiegazioni più brevi. Nella risposta, puoi notare che gli esempi hanno guidato il modello a scegliere la spiegazione più breve (Explanation2) anziché quella più lunga (Explanation1), come aveva fatto in precedenza.
Below are some examples showing a question, explanation, and answer format: Question: Why is the sky blue? Explanation1: The sky appears blue because of Rayleigh scattering, which causes shorter blue wavelengths of light to be scattered more easily than longer red wavelengths, making the sky look blue. Explanation2: Due to Rayleigh scattering effect. Answer: Explanation2 Question: What is the cause of earthquakes? Explanation1: Sudden release of energy in the Earth's crust. Explanation2: Earthquakes happen when tectonic plates suddenly slip or break apart, causing a release of energy that creates seismic waves that can shake the ground and cause damage. Answer: Explanation1 Now, Answer the following question given the example formats above: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Answer: Explanation2 |
Numero ottimale di esempi
Modelli come Gemini spesso riescono a individuare i pattern utilizzando pochi esempi, anche se potresti dover sperimentare il numero di esempi da fornire nel prompt per ottenere i risultati migliori. Allo stesso tempo, se includi troppi esempi, il modello potrebbe iniziare a fare overfitting della risposta agli esempi.
Pattern e anti-pattern
Utilizzare esempi per mostrare al modello un pattern da seguire è più efficace che utilizzare esempi per mostrare al modello un anti-pattern da evitare.
⛔ Pattern negativo:
Don't end haikus with a question: Haiku are fun A short and simple poem Don't you enjoy them? |
✅ Pattern positivo:
Always end haikus with an assertion: Haiku are fun A short and simple poem A joy to write |
Formato coerente
Assicurati che la struttura e la formattazione degli esempi few-shot siano le stesse per evitare risposte con formati indesiderati. Uno degli obiettivi principali dell'aggiunta di esempi few-shot nei prompt è mostrare al modello il formato della risposta. Pertanto, è essenziale garantire un formato coerente in tutti gli esempi, prestando particolare attenzione a tag XML, spazi bianchi, interruzioni di riga e separatori di esempi.
Aggiungi contesto
Puoi includere istruzioni e informazioni in un prompt che il modello deve utilizzare per risolvere un problema, anziché presumere che il modello disponga di tutte le informazioni richieste. Queste informazioni contestuali aiutano il modello a comprendere i vincoli e i dettagli di ciò che gli chiedi di fare.
L'esempio seguente chiede al modello di fornire indicazioni per la risoluzione dei problemi di un router:
What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly.
A yellow blinking light on your Google Wifi router usually indicates a problem
with the internet connection. Here are some steps to troubleshoot and fix the
issue:
1. Restart your router and modem:
- Unplug your modem from the power outlet and wait for 30 seconds.
- Plug your modem back in and wait for it to fully boot up.
- Unplug your Google Wifi router and wait for 30 seconds.
- Plug your Google Wifi router back in and wait for it to fully boot up.
.....
|
La risposta sembra contenere informazioni generiche per la risoluzione dei problemi che non sono specifiche del router o dello stato delle spie LED.
Per personalizzare la risposta per il router specifico, puoi aggiungere alla richiesta la guida alla risoluzione dei problemi del router come contesto a cui fare riferimento quando fornisci una risposta.
Answer the question using the text below. Respond with only the text provided. Question: What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly. Text: Color: Slowly pulsing yellow What it means: There is a network error. What to do: Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. Color: Fast blinking yellow What it means: You are holding down the reset button and are factory resetting this device. What to do: If you keep holding down the reset button, after about 12 seconds, the light will turn solid yellow. Once it is solid yellow, let go of the factory reset button. Color: Solid yellow What it means: Router is factory resetting. What to do: This can take up to 10 minutes. When it's done, the device will reset itself and start pulsing white, letting you know it's ready for setup. Color: Solid red What it means: Something is wrong. What to do: Critical failure. Factory reset the router. If the light stays red, contact Wifi customer support. Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. |
Aggiungi prefissi
Un prefisso è una parola o una frase che aggiungi ai contenuti del prompt e che può servire a diversi scopi, a seconda di dove lo inserisci:
- Prefisso di input: aggiunta di un prefisso alle parti dell'input semanticamente significative per il modello. Ad esempio, i prefissi "Inglese:" e "Francese:" delimitano due lingue diverse.
- Prefisso di output:anche se l'output viene generato dal modello, puoi aggiungere un prefisso per l'output nel prompt. Il prefisso di output fornisce al modello informazioni su cosa è previsto come risposta. Ad esempio, il prefisso "JSON:" indica al modello che l'output deve essere in formato JSON.
- Prefisso di esempio:nei prompt few-shot, l'aggiunta di prefissi agli esempi fornisce etichette che il modello può utilizzare per generare l'output, il che facilita l'analisi dei contenuti dell'output.
Nell'esempio seguente, "Text:" è il prefisso di input e "The answer is:" è il prefisso di output.
Classify the text as one of the following categories. - large - small Text: Rhino The answer is: large Text: Mouse The answer is: small Text: Snail The answer is: small Text: Elephant The answer is: The answer is: large |
Suddividere i prompt in componenti
Per i casi d'uso che richiedono prompt complessi, puoi aiutare il modello a gestire questa complessità suddividendo gli elementi in componenti più semplici.
Suddividi le istruzioni:invece di avere molte istruzioni in un unico prompt, crea un prompt per ogni istruzione. Puoi scegliere quale prompt elaborare in base all'input dell'utente.
Prompt concatenati:per attività complesse che prevedono più passaggi sequenziali, rendi ogni passaggio un prompt e concatena i prompt in una sequenza. In questa catena sequenziale di prompt, l'output di un prompt nella sequenza diventa l'input del prompt successivo. L'output dell'ultimo prompt della sequenza è l'output finale.
Aggregazione delle risposte:l'aggregazione si verifica quando vuoi eseguire diverse attività parallele su diverse porzioni di dati e aggregare i risultati per produrre l'output finale. Ad esempio, puoi indicare al modello di eseguire un'operazione sulla prima parte dei dati, un'altra operazione sul resto dei dati e aggregare i risultati.
Sperimenta con i parametri del modello
Ogni chiamata inviata a un modello include valori parametro che controllano il modo in cui il modello genera una risposta. Il modello può generare risultati diversi per valori di parametro diversi. Sperimenta con diversi valori parametro per ottenere i valori migliori per l'attività. I parametri disponibili per i vari modelli possono variare. I parametri più comuni sono i seguenti:
Token di output massimi:specifica il numero massimo di token che possono essere generati nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.
Temperatura:la temperatura controlla il grado di casualità nella selezione dei token. La temperatura viene utilizzata per il campionamento durante la generazione della risposta, che si verifica quando vengono applicati
topPetopK. Le temperature basse sono ideali per prompt che richiedono risposte più deterministiche o meno aperte, mentre le temperature più alte possono portare a risultati più diversificati o creativi. Una temperatura pari a 0 è deterministica, il che significa che viene sempre selezionata la risposta con la probabilità più alta.topK: il parametrotopKmodifica il modo in cui il modello seleziona i token per l'output. UntopKpari a 1 indica che il token selezionato è il più probabile tra tutti i token nel vocabolario del modello (chiamato anche decodifica greedy). UntopKpari a 3 indica invece che il token successivo viene selezionato tra i tre token più probabili (utilizzando la temperatura). Per ogni fase di selezione dei token, vengono campionati itopKtoken con le probabilità più alte. I token vengono quindi ulteriormente filtrati in base atopPe il token finale viene selezionato utilizzando il campionamento con temperatura.topP: il parametrotopPmodifica il modo in cui il modello seleziona i token per l'output. I token vengono selezionati dal più probabile al meno probabile finché la somma delle loro probabilità non corrisponde al valore ditopP. Ad esempio, se i token A, B e C hanno una probabilità di 0,3, 0,2 e 0,1 e il valore ditopPè 0,5, il modello seleziona A o B come token successivo utilizzando la temperatura ed esclude C come candidato. Il valore predefinito ditopPè 0,95.stop_sequences: imposta una sequenza di interruzione per indicare al modello di interrompere la generazione di contenuti. Una sequenza di interruzione può essere qualsiasi sequenza di caratteri. Cerca di evitare di utilizzare una sequenza di caratteri che potrebbe essere presente nei contenuti generati.
Strategie di iterazione dei prompt
A volte, la progettazione dei prompt può richiedere alcune iterazioni prima di ottenere in modo coerente la risposta che stai cercando. Questa sezione fornisce indicazioni su alcune cose che puoi provare a fare quando esegui l'iterazione dei prompt:
Utilizza una formulazione diversa:l'utilizzo di parole o frasi diverse nei prompt spesso produce risposte diverse dal modello, anche se significano la stessa cosa. Se il prompt non produce i risultati che ti aspettavi, prova a riformularlo.
Version 1: How do I bake a pie? Version 2: Suggest a recipe for a pie. Version 3: What's a good pie recipe?
Passa a un'attività analoga: se non riesci a far seguire al modello le tue istruzioni per un'attività, prova a fornirgli istruzioni per un'attività analoga che ottenga lo stesso risultato.
Questo prompt indica al modello di classificare un libro utilizzando categorie predefinite:
Which category does The Odyssey belong to: thriller sci-fi mythology biography
The Odyssey belongs to the category of **mythology**. Here's why: * **Mythology:** The Odyssey tells the story of Odysseus, a hero from Greek mythology, and his journey home after the Trojan War. It features gods, monsters, and supernatural events common to Greek mythology. .....La risposta è corretta, ma il modello non è rimasto nei limiti delle opzioni. Inoltre, vuoi che il modello risponda solo con una delle opzioni invece di una frase completa. In questo caso, puoi riformulare le istruzioni come una domanda a scelta multipla e chiedere al modello di scegliere un'opzione.
Multiple choice problem: Which of the following options describes the book The Odyssey? Options:
- thriller
- sci-fi
- mythology
- biography
The correct answer is mythology.
Modificare l'ordine dei contenuti del prompt: l'ordine dei contenuti nel prompt a volte può influire sulla risposta. Prova a modificare l'ordine dei contenuti e vedi come influisce sulla risposta.
Version 1: [examples] [context] [input] Version 2: [input] [examples] [context] Version 3: [examples] [input] [context]
Risposte di riserva
Una risposta di riserva è una risposta restituita dal modello quando il prompt o la risposta attiva un filtro di sicurezza. Un esempio di risposta di riserva è "Non posso aiutarti in questo caso, perché sono solo un modello linguistico".
Se il modello risponde con una risposta di riserva, prova ad aumentare la temperatura.
Cose da evitare
- Evita di fare affidamento sui modelli per generare informazioni fattuali.
- Utilizzalo con attenzione per problemi di matematica e logica.
Gemini 3
I modelli Gemini 3 sono progettati per il ragionamento avanzato e il rispetto delle istruzioni. Rispondono meglio a prompt diretti, ben strutturati e che definiscono chiaramente l'attività e qualsiasi vincolo. Per ottenere risultati ottimali con Gemini 3, si consigliano le seguenti pratiche:
Principi fondamentali del prompt
- Sii preciso e diretto:indica il tuo obiettivo in modo chiaro e conciso. Evita un linguaggio non necessario o eccessivamente persuasivo.
- Utilizza una struttura coerente:utilizza delimitatori chiari per separare le diverse parti del prompt. Tag in stile XML (ad es.
<context>,<task>) o i titoli in Markdown. Scegli un formato e usalo in modo coerente all'interno di un singolo prompt. - Definisci i parametri: spiega in modo esplicito eventuali termini o parametri ambigui.
- Controlla la verbosità dell'output: per impostazione predefinita, Gemini 3 fornisce risposte dirette ed efficienti. Se hai bisogno di una risposta più colloquiale o dettagliata, devi richiederla esplicitamente nelle istruzioni.
- Gestisci gli input multimodali in modo coerente:quando utilizzi testo, immagini, audio o video, trattali come input di pari livello. Assicurati che le istruzioni facciano riferimento chiaramente a ogni modalità, se necessario.
- Dai la priorità alle istruzioni critiche: inserisci i vincoli comportamentali essenziali, le definizioni dei ruoli (persona) e i requisiti di formato di output nell'istruzione di sistema o all'inizio del prompt dell'utente.
- Struttura per contesti lunghi:quando fornisci grandi quantità di contesto (ad es. documenti, codice), fornisci prima tutto il contesto. Inserisci le istruzioni o le domande specifiche alla fine del prompt.
- Contesto di ancoraggio:dopo un blocco di dati di grandi dimensioni, utilizza una frase di transizione chiara per collegare il contesto e la query, ad esempio "In base alle informazioni riportate sopra..."
Migliorare il ragionamento e la pianificazione
Puoi sfruttare le funzionalità di pensiero avanzate di Gemini 3 per migliorare la qualità delle risposte per attività complesse chiedendogli di pianificare o autocriticarsi prima di fornire la risposta finale.
Esempio - Pianificazione esplicita:
Before providing the final answer, please:
1. Parse the stated goal into distinct sub-tasks.
2. Check if the input information is complete.
3. Create a structured outline to achieve the goal.
Esempio - Autocritica:
Before returning your final response, review your generated output against the user's original constraints.
1. Did I answer the user's *intent*, not just their literal words?
2. Is the tone authentic to the requested persona?
Esempi di prompt strutturati
L'utilizzo di tag o Markdown aiuta il modello a distinguere tra istruzioni, contesto e attività.
Esempio XML:
<role>
You are a helpful assistant.
</role>
<constraints>
1. Be objective.
2. Cite sources.
</constraints>
<context>
[Insert User Input Here - The model knows this is data, not instructions]
</context>
<task>
[Insert the specific user request here]
</task>
Esempio di Markdown:
# Identity
You are a senior solution architect.
# Constraints
- No external libraries allowed.
- Python 3.11+ syntax only.
# Output format
Return a single code block.
Modello di esempio che combina le best practice
Questo modello acquisisce i principi fondamentali per la creazione di prompt con Gemini 3. Assicurati sempre di eseguire iterazioni e modifiche per il tuo caso d'uso specifico.
Istruzione di sistema:
<role>
You are Gemini 3, a specialized assistant for [Insert Domain, e.g., Data Science].
You are precise, analytical, and persistent.
</role>
<instructions>
1. **Plan**: Analyze the task and create a step-by-step plan.
2. **Execute**: Carry out the plan.
3. **Validate**: Review your output against the user's task.
4. **Format**: Present the final answer in the requested structure.
</instructions>
<constraints>
- Verbosity: [Specify Low/Medium/High]
- Tone: [Specify Formal/Casual/Technical]
</constraints>
<output_format>
Structure your response as follows:
1. **Executive Summary**: [Short overview]
2. **Detailed Response**: [The main content]
</output_format>
Prompt dell'utente:
<context>
[Insert relevant documents, code snippets, or background info here]
</context>
<task>
[Insert specific user request here]
</task>
<final_instruction>
Remember to think step-by-step before answering.
</final_instruction>
Modelli generativi sotto il cofano
Questa sezione ha lo scopo di rispondere alla domanda: le risposte dei modelli generativi sono casuali o deterministiche?
La risposta breve è sì per entrambi. Quando richiedi un prompt a un modello generativo, una risposta di testo viene generata in due fasi. Nella prima fase, il modello generativo elabora il prompt di input e genera una distribuzione di probabilità sui possibili token (parole) che potrebbero seguire. Ad esempio, se inserisci il testo di input "The dog jumped over the ... ", il modello generativo produce un array di probabili parole successive:
[("fence", 0.77), ("ledge", 0.12), ("blanket", 0.03), ...]
Questo processo è deterministico: un modello generativo produrrà la stessa distribuzione ogni volta che viene inserito lo stesso testo del prompt.
Nella seconda fase, il modello generativo converte queste distribuzioni in risposte di testo effettive tramite una delle diverse strategie di decodifica. Una strategia di decodifica semplice potrebbe selezionare il token più probabile a ogni passo temporale. Questa procedura sarebbe sempre deterministica. Tuttavia, potresti scegliere di generare una risposta tramite un campionamento casuale nella distribuzione restituita dal modello. Questo processo sarebbe stocastico (casuale). Controlla il grado di casualità consentito in questo processo di decodifica impostando la temperatura. Una temperatura pari a 0 indica che vengono selezionati solo i token più probabili e non c'è casualità. Al contrario, una temperatura elevata introduce un alto grado di casualità nei token selezionati dal modello, portando a risposte più inaspettate e sorprendenti. Per Gemini 3, ti consigliamo di non modificare la temperatura predefinita di 1.0 per evitare risultati imprevisti.
Passaggi successivi
- Ora che hai una conoscenza più approfondita della progettazione dei prompt, prova a scrivere i tuoi prompt utilizzando Google AI Studio.
- Scopri di più sul modello Gemini 3 Pro Preview.
- Per scoprire di più sui prompt multimodali, consulta Prompt con file multimediali.
- Per scoprire di più sul prompting di immagini, consulta la guida ai prompt di Imagen.
- Per informazioni sui prompt video, consulta la guida ai prompt di Veo.