"""
Alla riga di comando, eseguire una sola volta per installare il pacchetto tramite pip:
$ pip install google-generativeai
"""
import google.generativeai come genai
genai.configure(api_key="YOUR API KEY")
defaults = {
'model': 'models/chat-bison-001',
'context play. Sto pensando a una parola e devo farti indovinarla. Ma non posso dire la parola stessa. Ti darò degli indizi e tu risponderai con un'ipotesi. Devi solo supporre una parola singola."
esempi = [
[
"È un aspetto in cui vanno le piume e rende più comodo sedersi.",
"Un cuscino?"
],
[
"Potresti trovarlo sul divano.",
"Un cuscino?"
],
[
"Sì. Ok, avanti. È qualcosa che potresti usare quando cadono gocce dal cielo,
"Un ombrello?"
],
[
"Successivo: Ops",
"Un errore?"
],
[
"Successivo: buu-u",
"Buuu?"
],
[
"No, un'altra parola per questa",
"Una ferita?"
]
]
messages = [
"È un tipo di creatura vissuta molto tempo fa",
"Un dinosauro?",
"Successivo: Questo è un cibo con le foglie",
"Lattuga?",
"Potresti usarlo per preparare ciò che sto pensando",
"Un'insalata?"
]
messages.append("NEXT REQUEST")
response = genai.chat(
**defaults,
contesto=context,
example=examples,
messages=messages
)
print(response.last) # Risposta dell'AI alla tua richiesta più recente
const { DealServiceClient } = richiesta("@google-ai/generativelanguage");
const { GoogleAuth } = richiesta("google-auth-library");
const MODEL_NAME = "models/chat-bison-001";
const API_KEY = "LA TUA CHIAVE API";
const client = new ResolveServiceClient({
auth.API contesto()) Sto pensando a una parola e devo farti indovinarla. Ma non posso dire la parola stessa. Ti darò degli indizi e tu risponderai con un'ipotesi. La tua idea dovrebbe essere costituita da una sola parola.";
const example = [
{
"input": {
"content": "È un oggetto in cui vanno le piume e rende più comodo sedersi."
},
"output": {
"content": "Un cuscino?"
}
},
{
"input": {
"content": "Potresti trovarlo sul divano."
},
"output": {
"content": "Un cuscino?"
}
},
{
"input": {
"content": "Sì. Ok, avanti. Si potrebbe utilizzare quando delle gocce cadono dal cielo"
},
"output": {
"content": "Un ombrello?"
}
},
{
"input": {
"content": "Successivo: Ops"
},
"output": {
"content": "Un errore?"
}
},
{
"input": {
"content": "Successivo: buu"
},
"output": {
"content": "Buuu?"
}
},
{
"input": {
"content": "No, un'altra parola per questo"
},
"output": {
"content": "Una ferita?"
}
}
];
const messages = [
{
"content": "È un tipo di creatura vissuta tanto tempo fa"
},
{
"content": "Un dinosauro?"
},
{
"content": "Successivo: questo è un cibo con le foglie"
},
{
"content": "Lattuga?"
},
{
"content": "Potresti usarlo per preparare quello che sto pensando"
},
{
"content": "Un'insalata?"
}
];
messages.push({ "content": "NEXT REQUEST" });
client.generateMessage({
// requested, which model to use to generate the result
model: MODEL_NAME,
// optional, 0.0 Always using the highest-probability result
temperature: 0.25,
// optional, how many candidato results to generate
candidati Count: 1