Projektowanie promptów to proces tworzenia promptów, czyli zapytań w języku naturalnym, które pozwalają uzyskać dokładne i wysokiej jakości odpowiedzi od modelu językowego.
Na tej stronie znajdziesz podstawowe koncepcje, strategie i sprawdzone metody, które pomogą Ci zacząć projektować prompty, aby w pełni wykorzystać możliwości modeli AI Gemini.
Przewodniki po promptach dotyczące konkretnych tematów
Szukasz bardziej szczegółowych strategii dotyczących promptów? Zapoznaj się z naszymi innymi przewodnikami po promptach:
- Promptowanie za pomocą plików multimedialnych
- Promptowanie w przypadku generowania obrazów za pomocą Imagen i natywnego generowania obrazów w Gemini
- Promptowanie w celu generowania filmów
Więcej przykładowych promptów znajdziesz w galerii promptów, która w interaktywny sposób prezentuje wiele koncepcji przedstawionych w tym przewodniku.
jasne i konkretne instrukcje,
Skutecznym i wydajnym sposobem dostosowywania zachowania modelu jest podawanie mu jasnych i konkretnych instrukcji. Instrukcje mogą mieć formę pytania, zadań krok po kroku lub bardziej złożoną, np. mapowania doświadczeń i nastawienia użytkownika.
Dane wejściowe
Dane wejściowe to wymagany tekst w prompcie, na który model ma udzielić odpowiedzi. Dane wejściowe mogą być pytaniem, na które model odpowiada (dane wejściowe w postaci pytania), zadaniem, które model wykonuje (dane wejściowe w postaci zadania), obiektem, na którym model działa (dane wejściowe w postaci obiektu), lub częściowymi danymi wejściowymi, które model uzupełnia lub kontynuuje (dane wejściowe w postaci uzupełnienia).
| Typ danych wejściowych | Prompt | Wygenerowane dane wyjściowe |
|---|---|---|
| Pytanie | |
|
| Działanie |
Give me a simple list of just the things that I must bring on a camping trip. The list should have 5 items. |
1. **Tent:** Your shelter from the elements.
2. **Sleeping Bag:** Stay warm and comfortable.
3. **Sleeping Pad:** Insulation and cushioning for a good night's sleep.
4. **Headlamp or Flashlight:** Light for nighttime activities.
5. **First Aid Kit:** Be prepared for minor injuries. |
| Jednostka | |
|
Częściowe uzupełnianie danych wejściowych
Generatywne modele językowe działają jak zaawansowane narzędzie do autouzupełniania. Gdy podasz część treści, model może dostarczyć resztę treści lub to, co uważa za jej kontynuację, w odpowiedzi. Jeśli podasz przykłady lub kontekst, model może je uwzględnić.
Poniższy przykład zawiera prompt z instrukcją i danymi wejściowymi dotyczącymi jednostki:
For the given order, return a JSON object that has the fields cheeseburger, hamburger, fries, or drink, with the value being the quantity. Order: A burger and a drink.
{
"cheeseburger": 0,
"hamburger": 1,
"fries": 0,
"drink": 1
}
|
Model wykonał zadanie zgodnie z prompterem, ale zapisanie instrukcji w języku naturalnym może być czasami trudne i pozostawia wiele miejsca na interpretację modelu. Na przykład menu restauracji może zawierać wiele pozycji. Aby zmniejszyć rozmiar odpowiedzi JSON, prawdopodobnie chcesz pominąć elementy, które nie zostały zamówione. W tym przypadku możesz podać przykład i prefiks odpowiedzi, a model dokończy resztę:
Valid fields are cheeseburger, hamburger, fries, and drink.
Order: Give me a cheeseburger and fries
Output:
```
{
"cheeseburger": 1,
"fries": 1
}
```
Order: I want two burgers, a drink, and fries.
Output:
```
{
"hamburger": 2,
"drink": 1,
"fries": 1
}
```
|
Zwróć uwagę, że „cheeseburger” został wykluczony z danych wyjściowych, ponieważ nie był częścią zamówienia.
Ograniczenia
Określ wszelkie ograniczenia dotyczące odczytywania prompta lub generowania odpowiedzi. Możesz powiedzieć modelowi, co ma robić, a czego nie. Na przykład w prompcie możesz określić ograniczenie dotyczące długości podsumowania:
|
Summarize this text in one sentence:
Text: A quantum computer exploits quantum mechanical phenomena to perform calculations exponentially
faster than any modern traditional computer. At very tiny scales, physical matter acts as both
particles and as waves, and quantum computing uses specialized hardware to leverage this behavior.
The operating principles of quantum devices is beyond the scope of classical physics. When deployed
at scale, quantum computers could be used in a wide variety of applications such as: in
cybersecurity to break existing encryption methods while helping researchers create new ones, in
meteorology to develop better weather forecasting etc. However, the current state of the art quantum
computers are still largely experimental and impractical.
Exploiting quantum mechanical phenomena, quantum computers can perform calculations exponentially faster than traditional computers for potential applications like cybersecurity and meteorology, although they are currently largely experimental and impractical.
|
Format odpowiedzi
Możesz przekazać instrukcje określające format odpowiedzi. Możesz na przykład poprosić o sformatowanie odpowiedzi jako tabeli, listy punktowanej, krótkiej prezentacji, słów kluczowych, zdania lub akapitu. Ta instrukcja systemowa nakazuje modelowi udzielać bardziej konwersacyjnych odpowiedzi:
All questions should be answered comprehensively with details, unless the user requests a concise response specifically.
What is a smart way to make a business that sells DVD's in 2025?
Starting a business selling DVDs in 2025 presents significant challenges due to the overwhelming dominance of digital streaming and on-demand services; a "smart" approach would therefore require a highly specialized niche, a strong value proposition beyond just the disc, and likely a focus on community or collector markets rather than mainstream consumption.
Here's a breakdown of what a smart DVD business in 2025 would likely entail:
1. Extreme Niche Specialization: You cannot compete with streaming libraries. Your business must focus on what digital doesn't offer easily or at all. This could include:
* Out-of-Print & Rare Titles: Sourcing films or TV shows that have never been released digitally or are currently unavailable on major streaming platforms.
....
|
Formatowanie odpowiedzi za pomocą strategii uzupełniania
Strategia uzupełniania może też pomóc w formatowaniu odpowiedzi. Ten przykład promptu zachęca model do utworzenia konspektu eseju:
Create an outline for an essay about hummingbirds. Here is a possible outline for an essay about hummingbirds: I. Introduction A. Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). B. Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds. C. Thesis Statement: State the main point of the essay, which could be about the remarkable adaptations, behaviors, and ecological importance of hummingbirds. II. Appearance and Identification ..... |
Prompt nie określał formatu konspektu, więc model wybrał go za Ciebie. Aby model zwrócił konspekt w określonym formacie, możesz dodać tekst, który będzie stanowił początek konspektu, i pozwolić modelowi dokończyć go na podstawie wzorca, który został przez Ciebie zainicjowany.
Create an outline for an essay about hummingbirds. I. Introduction * Okay, here is an outline for an essay about hummingbirds, starting from the introduction you provided: I. Introduction * Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). * Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds, and their general characteristics. * Thesis Statement: State the main point of the essay, focusing on the remarkable adaptations, behaviors, and ecological significance that make hummingbirds extraordinary. ..... |
Prompty typu „zero-shot” a prompty typu „few-shot”
W prompcie możesz podać przykłady, które pokażą modelowi, jak wygląda prawidłowa odpowiedź. Model próbuje rozpoznawać wzorce i zależności na podstawie przykładów i stosuje je podczas generowania odpowiedzi. Prompty zawierające kilka przykładów to prompty few-shot, a prompty bez przykładów to prompty zero-shot. Prompty z kilkoma przykładami są często używane do regulowania formatowania, sformułowań, zakresu lub ogólnego wzorca odpowiedzi modelu. Korzystaj z konkretnych i zróżnicowanych przykładów, aby ukierunkować model i uzyskać dokładniejsze wyniki.
Zalecamy, aby w promptach zawsze uwzględniać przykłady few-shot. Prompty bez przykładów few-shot są zwykle mniej skuteczne. Jeśli przykłady wystarczająco jasno pokazują, jakie zadanie ma wykonać model, możesz usunąć instrukcje z promptu.
Poniższy prompt zero-shot prosi model o wybranie najlepszego wyjaśnienia.
Please choose the best explanation to the question: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Explanation1 is the better explanation because it provides more detail on the process, including how ice crystals combine and grow into snowflakes as they fall through the atmosphere. |
Jeśli Twój przypadek użycia wymaga, aby model generował zwięzłe odpowiedzi, możesz uwzględnić w prompcie przykłady, które preferują zwięzłe odpowiedzi.
Poniższy prompt zawiera 2 przykłady, które pokazują preferencje dotyczące krótszych wyjaśnień. W odpowiedzi widać, że przykłady pomogły modelowi wybrać krótsze wyjaśnienie (Explanation2) zamiast dłuższego (Explanation1), jak to miało miejsce wcześniej.
Below are some examples showing a question, explanation, and answer format: Question: Why is the sky blue? Explanation1: The sky appears blue because of Rayleigh scattering, which causes shorter blue wavelengths of light to be scattered more easily than longer red wavelengths, making the sky look blue. Explanation2: Due to Rayleigh scattering effect. Answer: Explanation2 Question: What is the cause of earthquakes? Explanation1: Sudden release of energy in the Earth's crust. Explanation2: Earthquakes happen when tectonic plates suddenly slip or break apart, causing a release of energy that creates seismic waves that can shake the ground and cause damage. Answer: Explanation1 Now, Answer the following question given the example formats above: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Answer: Explanation2 |
Optymalna liczba przykładów
Modele takie jak Gemini często potrafią wykrywać wzorce na podstawie kilku przykładów, ale aby uzyskać najlepsze wyniki, może być konieczne eksperymentowanie z liczbą przykładów podawanych w prompcie. Jeśli jednak podasz zbyt wiele przykładów, model może zacząć nadmiernie dopasowywać odpowiedź do przykładów.
Wzorce i antywzorce
Używanie przykładów do pokazania modelowi wzorca do naśladowania jest skuteczniejsze niż używanie przykładów do pokazania modelowi wzorca, którego należy unikać.
⛔ Wzorzec negatywny:
Don't end haikus with a question: Haiku are fun A short and simple poem Don't you enjoy them? |
✅ Wzorzec pozytywny:
Always end haikus with an assertion: Haiku are fun A short and simple poem A joy to write |
Spójny format
Upewnij się, że struktura i formatowanie przykładów z kilkoma próbkami są takie same, aby uniknąć odpowiedzi w niepożądanych formatach. Jednym z głównych celów dodawania przykładów w promptach jest pokazanie modelowi formatu odpowiedzi. Dlatego ważne jest, aby zachować spójny format we wszystkich przykładach, zwracając szczególną uwagę na tagi XML, białe znaki, znaki nowego wiersza i separatory przykładów.
Dodaj kontekst
W prompcie możesz uwzględnić instrukcje i informacje potrzebne modelowi do rozwiązania problemu, zamiast zakładać, że ma on wszystkie wymagane dane. Te informacje kontekstowe pomagają modelowi zrozumieć ograniczenia i szczegóły tego, o co go prosisz.
W tym przykładzie model jest proszony o podanie wskazówek dotyczących rozwiązywania problemów z routerem:
What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly.
A yellow blinking light on your Google Wifi router usually indicates a problem
with the internet connection. Here are some steps to troubleshoot and fix the
issue:
1. Restart your router and modem:
- Unplug your modem from the power outlet and wait for 30 seconds.
- Plug your modem back in and wait for it to fully boot up.
- Unplug your Google Wifi router and wait for 30 seconds.
- Plug your Google Wifi router back in and wait for it to fully boot up.
.....
|
Odpowiedź wygląda jak ogólne informacje dotyczące rozwiązywania problemów, które nie są związane z routerem ani stanem diod LED.
Aby dostosować odpowiedź do konkretnego routera, możesz dodać do prompta przewodnik rozwiązywania problemów z routerem jako kontekst, do którego model będzie się odwoływać podczas udzielania odpowiedzi.
Answer the question using the text below. Respond with only the text provided. Question: What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly. Text: Color: Slowly pulsing yellow What it means: There is a network error. What to do: Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. Color: Fast blinking yellow What it means: You are holding down the reset button and are factory resetting this device. What to do: If you keep holding down the reset button, after about 12 seconds, the light will turn solid yellow. Once it is solid yellow, let go of the factory reset button. Color: Solid yellow What it means: Router is factory resetting. What to do: This can take up to 10 minutes. When it's done, the device will reset itself and start pulsing white, letting you know it's ready for setup. Color: Solid red What it means: Something is wrong. What to do: Critical failure. Factory reset the router. If the light stays red, contact Wifi customer support. Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. |
Dodaj prefiksy
Prefiks to słowo lub wyrażenie, które dodajesz do treści promptu. Może ono służyć do różnych celów w zależności od tego, gdzie je umieścisz:
- Prefiks danych wejściowych: dodanie prefiksu do sygnałów wejściowych, które semantycznie oznaczają istotne części danych wejściowych modelu. Na przykład prefiksy „English:” i „French:” oznaczają 2 różne języki.
- Prefiks wyjściowy: nawet jeśli dane wyjściowe są generowane przez model, możesz dodać prefiks do danych wyjściowych w prompcie. Prefiks wyjściowy przekazuje modelowi informacje o tym, jakiej odpowiedzi oczekujesz. Na przykład prefiks „JSON:” w danych wyjściowych informuje model, że dane wyjściowe powinny być w formacie JSON.
- Przykładowy prefiks: w promptach typu „few-shot” dodanie prefiksów do przykładów zapewnia etykiety, których model może używać podczas generowania danych wyjściowych, co ułatwia analizowanie treści wyjściowych.
W tym przykładzie „Text:” to prefiks wejściowy, a „The answer is:” to prefiks wyjściowy.
Classify the text as one of the following categories. - large - small Text: Rhino The answer is: large Text: Mouse The answer is: small Text: Snail The answer is: small Text: Elephant The answer is: The answer is: large |
Dzielenie promptów na komponenty
W przypadku zastosowań wymagających złożonych promptów możesz pomóc modelowi w zarządzaniu tą złożonością, dzieląc zadania na prostsze komponenty.
Podziel instrukcje: zamiast umieszczać wiele instrukcji w jednym promcie, utwórz po jednym promcie dla każdej instrukcji. Na podstawie danych wejściowych użytkownika możesz wybrać prompt do przetworzenia.
Łączenie promptów: w przypadku złożonych zadań, które obejmują wiele kolejnych kroków, utwórz prompt dla każdego takiego etapu, a potem powiąż prompty w sekwencję. W tym sekwencyjnym łańcuchu promptów dane wyjściowe jednego promptu w sekwencji stają się danymi wejściowymi następnego promptu. Wynik ostatniego prompta w sekwencji jest wynikiem końcowym.
Agregowanie odpowiedzi: agregowanie polega na wykonywaniu różnych zadań równoległych na różnych częściach danych i agregowaniu wyników w celu uzyskania ostatecznego wyniku. Możesz na przykład polecić modelowi wykonanie jednej operacji na pierwszej części danych, a innej operacji na pozostałych danych i zagregowanie wyników.
Eksperymentowanie z parametrami modelu
Każde wywołanie wysłane do modelu zawiera wartości parametrów, które określają, jak model wygeneruje odpowiedź. Model może generować różne wyniki w zależności od wartości parametrów. Wypróbuj różne wartości parametrów, aby uzyskać najlepsze wyniki w tym zadaniu. W różnych modelach dostępne są różne parametry. Najczęstsze parametry to:
Maksymalna liczba tokenów wyjściowych:określa maksymalną liczbę tokenów, które mogą zostać wygenerowane w odpowiedzi. Token ma około 4 znaków. 100 tokenów to około 60–80 słów.
Temperatura: temperatura decyduje o stopniu losowości wyboru tokenów. Temperatura jest używana do próbkowania podczas generowania odpowiedzi, co ma miejsce w przypadku zastosowania parametrów
topPitopK. Niższe temperatury są przydatne w przypadku promptów, na które oczekuje się bardziej deterministycznej lub mniej otwartej odpowiedzi, a wyższe mogą prowadzić do bardziej różnorodnych lub kreatywnych wyników. Temperatura o wartości 0 jest deterministyczna, co oznacza, że zawsze jest wybierana najbardziej prawdopodobna odpowiedź.topK: parametrtopKzmienia sposób, w jaki model wybiera tokeny w celu wygenerowania odpowiedzi. WartośćtopK1 oznacza, że wybierany jest najbardziej prawdopodobny token spośród wszystkich tokenów w słowniku modelu (jest to też nazywane dekodowaniem zachłannym), natomiast wartośćtopK3 oznacza, że następny token jest wybierany spośród 3 najbardziej prawdopodobnych (z użyciem temperatury). Na każdym etapie wyboru tokena próbkowane są tokenytopKo najwyższym prawdopodobieństwie. Tokeny są następnie filtrowane na podstawie parametrutopP, a ostateczny wybór tokena dokonywany jest przy pomocy próbkowania z użyciem temperatury.topP: parametrtopPzmienia sposób, w jaki model wybiera tokeny w celu wygenerowania odpowiedzi. Tokeny są wybierane od najbardziej do najmniej prawdopodobnych, aż suma ich prawdopodobieństw będzie równa wartościtopP. Jeśli na przykład tokeny A, B i C mają prawdopodobieństwa 0,3, 0,2 i 0,1, a wartościątopPjest 0,5, jako kolejny token model wybierze A lub B (z użyciem temperatury), a token C zostanie wykluczony. Domyślna wartośćtopPto 0,95.stop_sequences: ustaw sekwencję zatrzymania, aby poinformować model, że ma przestać generować treści. Sekwencja zatrzymania może być dowolną sekwencją znaków. Staraj się unikać używania sekwencji znaków, które mogą pojawić się w wygenerowanych treściach.
Strategie iteracji promptów
Projektowanie promptów może czasami wymagać kilku iteracji, zanim zaczniesz konsekwentnie otrzymywać oczekiwane odpowiedzi. W tej sekcji znajdziesz wskazówki dotyczące tego, co możesz zrobić, aby ulepszyć swoje prompty:
Używaj różnych sformułowań: używanie w promptach różnych słów lub sformułowań często daje różne odpowiedzi modelu, mimo że wszystkie oznaczają to samo. Jeśli prompt nie przynosi oczekiwanych rezultatów, spróbuj go przeformułować.
Version 1: How do I bake a pie? Version 2: Suggest a recipe for a pie. Version 3: What's a good pie recipe?
Przejdź do analogicznego zadania: jeśli model nie wykonuje instrukcji dotyczących zadania, spróbuj podać instrukcje dotyczące analogicznego zadania, które daje ten sam wynik.
Ten prompt nakazuje modelowi skategoryzowanie książki przy użyciu wstępnie zdefiniowanych kategorii:
Which category does The Odyssey belong to: thriller sci-fi mythology biography
The Odyssey belongs to the category of **mythology**. Here's why: * **Mythology:** The Odyssey tells the story of Odysseus, a hero from Greek mythology, and his journey home after the Trojan War. It features gods, monsters, and supernatural events common to Greek mythology. .....Odpowiedź jest prawidłowa, ale model nie trzymał się granic opcji. Chcesz też, aby model odpowiadał tylko jedną z opcji, a nie pełnym zdaniem. W takim przypadku możesz przeformułować instrukcje jako pytanie wielokrotnego wyboru i poprosić model o wybranie opcji.
Multiple choice problem: Which of the following options describes the book The Odyssey? Options:
- thriller
- sci-fi
- mythology
- biography
The correct answer is mythology.
Zmień kolejność treści prompta: kolejność treści w prompcie może czasami wpływać na odpowiedź. Spróbuj zmienić kolejność treści i sprawdź, jak wpłynie to na odpowiedź.
Version 1: [examples] [context] [input] Version 2: [input] [examples] [context] Version 3: [examples] [input] [context]
Odpowiedzi zastępcze
Odpowiedź zastępcza to odpowiedź zwracana przez model, gdy prompt lub odpowiedź aktywuje filtr bezpieczeństwa. Przykładowa odpowiedź rezerwowa to: „Nie mogę w tym pomóc, ponieważ jestem tylko modelem językowym”.
Jeśli model odpowie odpowiedzią zastępczą, spróbuj zwiększyć temperaturę.
Czego warto unikać
- Unikaj polegania na modelach w zakresie generowania informacji opartych na faktach.
- Używaj go ostrożnie w przypadku zadań matematycznych i logicznych.
Gemini 3
Modele Gemini 3 zostały zaprojektowane z myślą o zaawansowanym rozumowaniu i wykonywaniu instrukcji. Najlepiej reagują na prompty, które są bezpośrednie, dobrze skonstruowane i jasno określają zadanie oraz wszelkie ograniczenia. Aby uzyskać optymalne wyniki w przypadku Gemini 3, zalecamy stosowanie tych metod:
Podstawowe zasady dotyczące promptów
- Bądź precyzyjny i bezpośredni: jasno i zwięźle określ swój cel. Unikaj niepotrzebnego lub zbyt perswazyjnego języka.
- Używaj spójnej struktury: stosuj wyraźne ograniczniki, aby oddzielać różne części promptu. tagi w stylu XML (np.
<context>,<task>) lub nagłówki w języku Markdown. Wybierz jeden format i używaj go konsekwentnie w ramach jednego prompta. - Zdefiniuj parametry: wyjaśnij wszelkie niejednoznaczne terminy lub parametry.
- Kontrolowanie szczegółowości danych wyjściowych: domyślnie Gemini 3 udziela bezpośrednich i skutecznych odpowiedzi. Jeśli potrzebujesz bardziej konwersacyjnej lub szczegółowej odpowiedzi, musisz wyraźnie poprosić o to w instrukcjach.
- Spójne przetwarzanie danych wejściowych multimodalnych: podczas korzystania z tekstu, obrazów, dźwięku lub wideo traktuj je jako dane wejściowe tej samej klasy. Upewnij się, że instrukcje wyraźnie odwołują się do każdej metody w razie potrzeby.
- Nadaj priorytet krytycznym instrukcjom: umieść najważniejsze ograniczenia behawioralne, definicje ról (persona) i wymagania dotyczące formatu wyjściowego w instrukcji systemowej lub na samym początku promptu użytkownika.
- Struktura długich kontekstów: jeśli podajesz duże ilości kontekstu (np. dokumenty, kod), najpierw podaj cały kontekst. Umieść konkretne instrukcje lub pytania na końcu prompta.
- Kontekst kotwicy: po dużym bloku danych użyj jasnego zwrotu przejściowego, aby połączyć kontekst z zapytaniem, np. „Na podstawie powyższych informacji…”.
Ulepszone wnioskowanie i planowanie
Możesz wykorzystać zaawansowane możliwości myślenia Gemini 3, aby poprawić jakość odpowiedzi na złożone zadania, prosząc go o zaplanowanie lub samokrytykę przed udzieleniem ostatecznej odpowiedzi.
Przykład – planowanie jawne:
Before providing the final answer, please:
1. Parse the stated goal into distinct sub-tasks.
2. Check if the input information is complete.
3. Create a structured outline to achieve the goal.
Przykład – autokrytyka:
Before returning your final response, review your generated output against the user's original constraints.
1. Did I answer the user's *intent*, not just their literal words?
2. Is the tone authentic to the requested persona?
Przykłady promptów strukturalnych
Używanie tagów lub Markdownu pomaga modelowi odróżniać instrukcje, kontekst i zadania.
Przykład w formacie XML:
<role>
You are a helpful assistant.
</role>
<constraints>
1. Be objective.
2. Cite sources.
</constraints>
<context>
[Insert User Input Here - The model knows this is data, not instructions]
</context>
<task>
[Insert the specific user request here]
</task>
Przykład formatowania Markdown:
# Identity
You are a senior solution architect.
# Constraints
- No external libraries allowed.
- Python 3.11+ syntax only.
# Output format
Return a single code block.
Przykładowy szablon łączący sprawdzone metody
Ten szablon zawiera podstawowe zasady tworzenia promptów dla Gemini 3. Zawsze dostosowuj je do swoich potrzeb.
Instrukcja systemowa:
<role>
You are Gemini 3, a specialized assistant for [Insert Domain, e.g., Data Science].
You are precise, analytical, and persistent.
</role>
<instructions>
1. **Plan**: Analyze the task and create a step-by-step plan.
2. **Execute**: Carry out the plan.
3. **Validate**: Review your output against the user's task.
4. **Format**: Present the final answer in the requested structure.
</instructions>
<constraints>
- Verbosity: [Specify Low/Medium/High]
- Tone: [Specify Formal/Casual/Technical]
</constraints>
<output_format>
Structure your response as follows:
1. **Executive Summary**: [Short overview]
2. **Detailed Response**: [The main content]
</output_format>
Prompt użytkownika:
<context>
[Insert relevant documents, code snippets, or background info here]
</context>
<task>
[Insert specific user request here]
</task>
<final_instruction>
Remember to think step-by-step before answering.
</final_instruction>
Modele generatywne w GA4
W tej sekcji odpowiemy na pytanie: Czy odpowiedzi modeli generatywnych są losowe, czy deterministyczne?
Krótko mówiąc, tak. Gdy wysyłasz prompta do modelu generatywnego, odpowiedź tekstowa jest generowana w 2 etapach. W pierwszej fazie model generatywny przetwarza prompt wejściowy i generuje rozkład prawdopodobieństwa możliwych tokenów (słów), które prawdopodobnie pojawią się w następnej kolejności. Jeśli na przykład wpiszesz tekst „Pies przeskoczył przez …”, model generatywny utworzy tablicę prawdopodobnych następnych słów:
[("fence", 0.77), ("ledge", 0.12), ("blanket", 0.03), ...]
Ten proces jest deterministyczny. Model generatywny będzie za każdym razem tworzyć ten sam rozkład, gdy otrzyma ten sam tekst prompta.
W drugim etapie model generatywny przekształca te rozkłady w rzeczywiste odpowiedzi tekstowe za pomocą jednej z kilku strategii dekodowania. Prosta strategia dekodowania może wybierać najbardziej prawdopodobny token w każdym kroku czasowym. Ten proces zawsze będzie deterministyczny. Możesz jednak zamiast tego wygenerować odpowiedź, losowo pobierając próbki z rozkładu zwróconego przez model. Ten proces będzie stochastyczny (losowy). Kontroluj stopień losowości dozwolony w tym procesie dekodowania, ustawiając temperaturę. Temperatura 0 oznacza, że wybierane są tylko najbardziej prawdopodobne tokeny i nie ma losowości. Z kolei wysoka temperatura wprowadza dużą losowość do tokenów wybieranych przez model, co prowadzi do bardziej nieoczekiwanych i zaskakujących odpowiedzi. W przypadku Gemini 3 zalecamy, aby nie zmieniać domyślnej temperatury 1.0, aby uniknąć nieoczekiwanych wyników.
Dalsze kroki
- Teraz, gdy masz już większą wiedzę o projektowaniu promptów, spróbuj napisać własne prompty w Google AI Studio.
- Dowiedz się więcej o modelu Gemini 3 Pro w wersji przedpremierowej.
- Więcej informacji o promptach multimodalnych znajdziesz w artykule Promptowanie za pomocą plików multimedialnych.
- Więcej informacji o promptach dotyczących obrazów znajdziesz w przewodniku po promptach w usłudze Imagen.
- Więcej informacji o promptach do filmów znajdziesz w przewodniku po promptach do Veo.