Projektowanie promptów to proces tworzenia promptów, czyli zapytań w języku naturalnym, które pozwalają uzyskać dokładne i wysokiej jakości odpowiedzi od modelu językowego.
Na tej stronie znajdziesz podstawowe koncepcje, strategie i sprawdzone metody, które pomogą Ci zacząć projektować prompty, aby w pełni wykorzystać potencjał modeli AI Gemini.
Przewodniki po promptach dotyczące konkretnych tematów
Szukasz bardziej konkretnych strategii promptów? Zapoznaj się z naszymi przewodnikami po tworzeniu promptów na temat:
- Promptowanie za pomocą plików multimedialnych
- Promptowanie w przypadku generowania obrazów za pomocą Imagen i natywnego generowania obrazów w Gemini
- Promptowanie w celu generowania filmów
Więcej przykładowych promptów znajdziesz w galerii promptów, która w interaktywny sposób prezentuje wiele koncepcji przedstawionych w tym przewodniku.
Jasne i konkretne instrukcje
Skutecznym i wydajnym sposobem dostosowywania działania modelu jest podawanie mu jasnych i konkretnych instrukcji. Instrukcje mogą mieć formę pytania, zadań krok po kroku lub bardziej złożoną, np. mapowania doświadczeń i nastawienia użytkownika.
Dane wejściowe
Dane wejściowe to wymagany tekst w prompcie, na który model ma udzielić odpowiedzi. Dane wejściowe mogą być pytaniem, na które model odpowiada (dane wejściowe pytania), zadaniem, które model wykonuje (dane wejściowe zadania), obiektem, na którym model działa (dane wejściowe obiektu), lub częściowymi danymi wejściowymi, które model uzupełnia lub kontynuuje (dane wejściowe uzupełniania).
Typ danych | Prompt | Wygenerowane dane wyjściowe |
---|---|---|
Pytanie |
|
|
Zadanie | Give me a simple list of just the things that I must bring on a camping trip. The list should have 5 items. |
1. **Tent:** Your shelter from the elements. 2. **Sleeping Bag:** Stay warm and comfortable. 3. **Sleeping Pad:** Insulation and cushioning for a good night's sleep. 4. **Headlamp or Flashlight:** Light for nighttime activities. 5. **First Aid Kit:** Be prepared for minor injuries. |
Jednostka |
|
|
Częściowe uzupełnianie danych wejściowych
Generatywne modele językowe działają jak zaawansowane narzędzie do autouzupełniania. Gdy podasz część treści, model może dostarczyć resztę treści lub to, co uważa za jej kontynuację, w odpowiedzi. Jeśli podasz przykłady lub kontekst, model może je uwzględnić.
Poniższy przykład zawiera prompt z instrukcją i danymi wejściowymi dotyczącymi podmiotu:
For the given order, return a JSON object that has the fields cheeseburger, hamburger, fries, or drink, with the value being the quantity. Order: A burger and a drink. { "cheeseburger": 0, "hamburger": 1, "fries": 0, "drink": 1 } |
Model wykonał polecenie, ale zapisanie instrukcji w języku naturalnym może być czasami trudne i pozostawia wiele miejsca na interpretację przez model. Na przykład menu restauracji może zawierać wiele pozycji. Aby zmniejszyć rozmiar odpowiedzi JSON, prawdopodobnie warto pominąć elementy, które nie zostały zamówione. W tym przypadku możesz podać przykład i prefiks odpowiedzi, a model dokończy resztę:
Valid fields are cheeseburger, hamburger, fries, and drink. Order: Give me a cheeseburger and fries Output: ``` { "cheeseburger": 1, "fries": 1 } ``` Order: I want two burgers, a drink, and fries. Output: ``` { "hamburger": 2, "drink": 1, "fries": 1 } ``` |
Zwróć uwagę, że „cheeseburger” został wykluczony z danych wyjściowych, ponieważ nie był częścią zamówienia.
Ograniczenia
Określ wszelkie ograniczenia dotyczące odczytywania prompta lub generowania odpowiedzi. Możesz powiedzieć modelowi, co ma robić, a czego nie. Na przykład w prompcie możesz określić ograniczenie dotyczące długości podsumowania:
Summarize this text in one sentence: Text: A quantum computer exploits quantum mechanical phenomena to perform calculations exponentially faster than any modern traditional computer. At very tiny scales, physical matter acts as both particles and as waves, and quantum computing uses specialized hardware to leverage this behavior. The operating principles of quantum devices is beyond the scope of classical physics. When deployed at scale, quantum computers could be used in a wide variety of applications such as: in cybersecurity to break existing encryption methods while helping researchers create new ones, in meteorology to develop better weather forecasting etc. However, the current state of the art quantum computers are still largely experimental and impractical.
Exploiting quantum mechanical phenomena, quantum computers can perform calculations exponentially faster than traditional computers for potential applications like cybersecurity and meteorology, although they are currently largely experimental and impractical. |
Format odpowiedzi
Możesz przekazać instrukcje określające format odpowiedzi. Możesz na przykład poprosić o sformatowanie odpowiedzi jako tabeli, listy punktowanej, krótkiej prezentacji, słów kluczowych, zdania lub akapitu. Ta instrukcja systemowa nakazuje modelowi, aby jego odpowiedź miała bardziej konwersacyjny charakter:
All questions should be answered comprehensively with details, unless the user requests a concise response specifically. What is a smart way to make a business that sells DVD's in 2025? Starting a business selling DVDs in 2025 presents significant challenges due to the overwhelming dominance of digital streaming and on-demand services; a "smart" approach would therefore require a highly specialized niche, a strong value proposition beyond just the disc, and likely a focus on community or collector markets rather than mainstream consumption. Here's a breakdown of what a smart DVD business in 2025 would likely entail: 1. Extreme Niche Specialization: You cannot compete with streaming libraries. Your business must focus on what digital doesn't offer easily or at all. This could include: * Out-of-Print & Rare Titles: Sourcing films or TV shows that have never been released digitally or are currently unavailable on major streaming platforms. .... |
Formatowanie odpowiedzi za pomocą strategii uzupełniania
Strategia uzupełniania może też pomóc w formatowaniu odpowiedzi. W tym przykładzie promptu model ma utworzyć konspekt eseju:
Create an outline for an essay about hummingbirds. Here is a possible outline for an essay about hummingbirds: I. Introduction A. Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). B. Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds. C. Thesis Statement: State the main point of the essay, which could be about the remarkable adaptations, behaviors, and ecological importance of hummingbirds. II. Appearance and Identification ..... |
Prompt nie określał formatu konspektu, więc model wybrał go za Ciebie. Aby model zwrócił konspekt w określonym formacie, możesz dodać tekst, który będzie stanowił początek konspektu, i pozwolić modelowi dokończyć go na podstawie wzorca, który został przez Ciebie zainicjowany.
Create an outline for an essay about hummingbirds. I. Introduction * Okay, here is an outline for an essay about hummingbirds, starting from the introduction you provided: I. Introduction * Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). * Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds, and their general characteristics. * Thesis Statement: State the main point of the essay, focusing on the remarkable adaptations, behaviors, and ecological significance that make hummingbirds extraordinary. ..... |
Prompty typu „zero-shot” a prompty typu „few-shot”
W prompcie możesz podać przykłady, które pokażą modelowi, jak wygląda prawidłowa odpowiedź. Model próbuje rozpoznawać wzorce i relacje na podstawie przykładów i stosować je podczas generowania odpowiedzi. Prompty zawierające kilka przykładów to prompty few-shot, a prompty bez przykładów to prompty zero-shot. Prompty z kilkoma przykładami są często używane do regulowania formatowania, sformułowań, zakresu lub ogólnego wzorca odpowiedzi modelu. Korzystaj z konkretnych i zróżnicowanych przykładów, aby ukierunkować model i uzyskać dokładniejsze wyniki.
Zalecamy, aby w promptach zawsze uwzględniać przykłady few-shot. Prompty bez przykładów few-shot są zwykle mniej skuteczne. Jeśli przykłady wystarczająco jasno pokazują, jakie zadanie ma wykonać model, możesz usunąć instrukcje z promptu.
Poniższy prompt bez przykładów prosi model o wybranie najlepszego wyjaśnienia.
Please choose the best explanation to the question: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Explanation1 is the better explanation because it provides more detail on the process, including how ice crystals combine and grow into snowflakes as they fall through the atmosphere. |
Jeśli Twój przypadek użycia wymaga, aby model generował zwięzłe odpowiedzi, możesz uwzględnić w prompcie przykłady, które preferują zwięzłe odpowiedzi.
W tym prompcie podano 2 przykłady, które pokazują preferencje dotyczące krótszych wyjaśnień. W odpowiedzi widać, że przykłady pomogły modelowi wybrać krótsze wyjaśnienie (Explanation2
) zamiast dłuższego (Explanation1
), jak to miało miejsce wcześniej.
Below are some examples showing a question, explanation, and answer format: Question: Why is the sky blue? Explanation1: The sky appears blue because of Rayleigh scattering, which causes shorter blue wavelengths of light to be scattered more easily than longer red wavelengths, making the sky look blue. Explanation2: Due to Rayleigh scattering effect. Answer: Explanation2 Question: What is the cause of earthquakes? Explanation1: Sudden release of energy in the Earth's crust. Explanation2: Earthquakes happen when tectonic plates suddenly slip or break apart, causing a release of energy that creates seismic waves that can shake the ground and cause damage. Answer: Explanation1 Now, Answer the following question given the example formats above: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Answer: Explanation2 |
Optymalna liczba przykładów
Modele takie jak Gemini często potrafią wykrywać wzorce na podstawie kilku przykładów, ale aby uzyskać najlepsze wyniki, może być konieczne eksperymentowanie z liczbą przykładów podawanych w prompcie. Jeśli jednak podasz zbyt wiele przykładów, model może zacząć nadmiernie dopasowywać odpowiedź do przykładów.
Wzorce i antywzorce
Używanie przykładów, które pokazują modelowi wzorzec do naśladowania, jest skuteczniejsze niż używanie przykładów, które pokazują modelowi wzorzec do uniknięcia.
⛔ Wzorzec negatywny:
Don't end haikus with a question: Haiku are fun A short and simple poem Don't you enjoy them? |
✅ Wzorzec pozytywny:
Always end haikus with an assertion: Haiku are fun A short and simple poem A joy to write |
Spójny format
Upewnij się, że struktura i formatowanie przykładów z kilkoma próbkami są takie same, aby uniknąć odpowiedzi w niepożądanych formatach. Jednym z głównych celów dodawania przykładów w promtach jest pokazanie modelowi formatu odpowiedzi. Dlatego ważne jest, aby zachować spójny format we wszystkich przykładach, zwracając szczególną uwagę na tagi XML, białe znaki, znaki nowego wiersza i separatory przykładów.
Dodaj kontekst
W prompcie możesz uwzględnić instrukcje i informacje, których model potrzebuje do rozwiązania problemu, zamiast zakładać, że ma on wszystkie wymagane dane. Te informacje kontekstowe pomagają modelowi zrozumieć ograniczenia i szczegóły tego, o co go prosisz.
W tym przykładzie model jest proszony o podanie wskazówek dotyczących rozwiązywania problemów z routerem:
What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly. A yellow blinking light on your Google Wifi router usually indicates a problem with the internet connection. Here are some steps to troubleshoot and fix the issue: 1. Restart your router and modem: - Unplug your modem from the power outlet and wait for 30 seconds. - Plug your modem back in and wait for it to fully boot up. - Unplug your Google Wifi router and wait for 30 seconds. - Plug your Google Wifi router back in and wait for it to fully boot up. ..... |
Odpowiedź wygląda jak ogólne informacje dotyczące rozwiązywania problemów, które nie są specyficzne dla routera ani stanu diod LED.
Aby dostosować odpowiedź do konkretnego routera, możesz dodać do prompta przewodnik rozwiązywania problemów z routerem jako kontekst, do którego model będzie się odwoływać podczas udzielania odpowiedzi.
Answer the question using the text below. Respond with only the text provided. Question: What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly. Text: Color: Slowly pulsing yellow What it means: There is a network error. What to do: Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. Color: Fast blinking yellow What it means: You are holding down the reset button and are factory resetting this device. What to do: If you keep holding down the reset button, after about 12 seconds, the light will turn solid yellow. Once it is solid yellow, let go of the factory reset button. Color: Solid yellow What it means: Router is factory resetting. What to do: This can take up to 10 minutes. When it's done, the device will reset itself and start pulsing white, letting you know it's ready for setup. Color: Solid red What it means: Something is wrong. What to do: Critical failure. Factory reset the router. If the light stays red, contact Wifi customer support. Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. |
Dodaj prefiksy
Prefiks to słowo lub wyrażenie, które dodajesz do treści promptu. Może ono służyć do różnych celów w zależności od tego, gdzie je umieścisz:
- Prefiks danych wejściowych: dodawanie prefiksu do semantycznie istotnych części danych wejściowych modelu. Na przykład prefiksy „English:” i „French:” oznaczają 2 różne języki.
- Prefiks wyjściowy: mimo że dane wyjściowe są generowane przez model, możesz dodać prefiks do danych wyjściowych w prompcie. Prefiks wyjściowy przekazuje modelowi informacje o tym, jakiej odpowiedzi oczekujesz. Na przykład prefiks „JSON:” w danych wyjściowych informuje model, że dane wyjściowe powinny być w formacie JSON.
- Przykładowy prefiks: w promptach typu „few-shot” dodanie prefiksów do przykładów zapewnia etykiety, których model może używać podczas generowania danych wyjściowych, co ułatwia analizowanie treści wyjściowych.
W tym przykładzie „Text:” to prefiks wejściowy, a „The answer is:” to prefiks wyjściowy.
Classify the text as one of the following categories. - large - small Text: Rhino The answer is: large Text: Mouse The answer is: small Text: Snail The answer is: small Text: Elephant The answer is: The answer is: large |
Dzielenie promptów na komponenty
W przypadku zastosowań wymagających złożonych promptów możesz pomóc modelowi w zarządzaniu tą złożonością, dzieląc zadania na prostsze komponenty.
Podziel instrukcje: zamiast umieszczać wiele instrukcji w jednym promcie, utwórz po jednym promcie dla każdej instrukcji. Na podstawie danych wejściowych użytkownika możesz wybrać prompt do przetworzenia.
Łącz prompty w sekwencje: w przypadku złożonych zadań, które obejmują wiele kolejnych kroków, utwórz prompt dla każdego takiego etapu, a potem powiąż prompty w sekwencję. W tym sekwencyjnym łańcuchu promptów dane wyjściowe jednego promptu w sekwencji stają się danymi wejściowymi następnego promptu. Wynik ostatniego prompta w sekwencji jest wynikiem końcowym.
Agregowanie odpowiedzi: agregacja to wykonywanie różnych zadań równoległych na różnych częściach danych i agregowanie wyników w celu uzyskania ostatecznego wyniku. Możesz na przykład polecić modelowi wykonanie jednej operacji na pierwszej części danych, a innej operacji na pozostałych danych i zagregowanie wyników.
Eksperymentowanie z parametrami modelu
Każde wywołanie wysłane do modelu zawiera wartości parametrów, które określają, jak model wygeneruje odpowiedź. Model może generować różne wyniki w zależności od wartości parametrów. Wypróbuj różne wartości parametrów, aby uzyskać najlepsze wyniki w tym zadaniu. W różnych modelach dostępne są różne parametry. Najczęstsze parametry to:
Maksymalna liczba tokenów wyjściowych:określa maksymalną liczbę tokenów, które mogą zostać wygenerowane w odpowiedzi. Token ma około 4 znaków. 100 tokenów to około 60–80 słów.
Temperatura: temperatura decyduje o stopniu losowości wyboru tokenów. Temperatura jest używana do próbkowania podczas generowania odpowiedzi, co ma miejsce, gdy stosowane są wartości
topP
itopK
. Niższe temperatury są przydatne w przypadku promptów, na które oczekuje się bardziej deterministycznej lub mniej otwartej odpowiedzi, a wyższe mogą prowadzić do bardziej różnorodnych lub kreatywnych wyników. Temperatura o wartości 0 jest deterministyczna, co oznacza, że zawsze jest wybierana najbardziej prawdopodobna odpowiedź.topK
: parametrtopK
zmienia sposób, w jaki model wybiera tokeny w celu wygenerowania odpowiedzi. WartośćtopK
1 oznacza, że wybierany jest najbardziej prawdopodobny token spośród wszystkich tokenów w słowniku modelu (jest to też nazywane dekodowaniem zachłannym), natomiast wartośćtopK
3 oznacza, że następny token jest wybierany spośród 3 najbardziej prawdopodobnych (z użyciem temperatury). Na każdym etapie wyboru tokena próbkowane są tokenytopK
o najwyższym prawdopodobieństwie. Tokeny są następnie filtrowane na podstawie parametrutopP
, a ostateczny wybór tokena dokonywany jest przy pomocy próbkowania z użyciem temperatury.topP
: parametrtopP
zmienia sposób, w jaki model wybiera tokeny w celu wygenerowania odpowiedzi. Tokeny są wybierane od najbardziej do najmniej prawdopodobnych, aż suma ich prawdopodobieństw będzie równa wartościtopP
. Jeśli na przykład tokeny A, B i C mają prawdopodobieństwa 0,3, 0,2 i 0,1, a wartościątopP
jest 0,5, jako kolejny token model wybierze A lub B (z użyciem temperatury), a token C zostanie wykluczony. Domyślna wartośćtopP
to 0,95.stop_sequences
: ustaw sekwencję zatrzymania, aby poinformować model, że ma przestać generować treści. Sekwencja zatrzymania może być dowolną sekwencją znaków. Staraj się unikać używania sekwencji znaków, które mogą pojawić się w wygenerowanych treściach.
Strategie iteracji promptów
Projektowanie promptów może czasami wymagać kilku iteracji, zanim zaczniesz otrzymywać oczekiwane odpowiedzi. W tej sekcji znajdziesz wskazówki dotyczące tego, co możesz zrobić, aby ulepszyć swoje prompty:
Używaj różnych sformułowań: używanie różnych słów lub sformułowań w promptach często daje różne odpowiedzi modelu, mimo że wszystkie oznaczają to samo. Jeśli nie uzyskasz oczekiwanych wyników, spróbuj przeformułować prompt.
Version 1: How do I bake a pie? Version 2: Suggest a recipe for a pie. Version 3: What's a good pie recipe?
Przejdź do analogicznego zadania: jeśli model nie wykonuje instrukcji dotyczących zadania, spróbuj podać instrukcje dotyczące analogicznego zadania, które daje ten sam rezultat.
Ten prompt nakazuje modelowi skategoryzowanie książki przy użyciu wstępnie zdefiniowanych kategorii:
Which category does The Odyssey belong to: thriller sci-fi mythology biography
The Odyssey belongs to the category of **mythology**. Here's why: * **Mythology:** The Odyssey tells the story of Odysseus, a hero from Greek mythology, and his journey home after the Trojan War. It features gods, monsters, and supernatural events common to Greek mythology. .....
Odpowiedź jest prawidłowa, ale model nie zmieścił się w zakresie opcji. Chcesz też, aby model odpowiadał tylko jedną z opcji, a nie pełnym zdaniem. W takim przypadku możesz przeformułować instrukcje jako pytanie wielokrotnego wyboru i poprosić model o wybranie opcji.
Multiple choice problem: Which of the following options describes the book The Odyssey? Options:
- thriller
- sci-fi
- mythology
- biography
The correct answer is mythology.
Zmień kolejność treści prompta: kolejność treści w prompcie może czasami wpływać na odpowiedź. Spróbuj zmienić kolejność treści i sprawdź, jak wpłynie to na odpowiedź.
Version 1: [examples] [context] [input] Version 2: [input] [examples] [context] Version 3: [examples] [input] [context]
Odpowiedzi zastępcze
Odpowiedź zastępcza to odpowiedź zwracana przez model, gdy prompt lub odpowiedź aktywuje filtr bezpieczeństwa. Przykładem odpowiedzi zastępczej jest: „Nie mogę Ci w tym pomóc, ponieważ jestem tylko modelem językowym”.
Jeśli model odpowie odpowiedzią zastępczą, spróbuj zwiększyć temperaturę.
Czego warto unikać
- Nie polegaj na modelach w zakresie generowania informacji opartych na faktach.
- Uważnie korzystaj z niej w przypadku zadań matematycznych i logicznych.
Modele generatywne w GA4
W tej sekcji odpowiemy na pytanie: czy odpowiedzi modeli generatywnych są losowe, czy deterministyczne?
Krótka odpowiedź: tak w obu przypadkach. Gdy wysyłasz prompta do modelu generatywnego, odpowiedź tekstowa jest generowana w 2 etapach. W pierwszej fazie model generatywny przetwarza prompt wejściowy i generuje rozkład prawdopodobieństwa możliwych tokenów (słów), które prawdopodobnie pojawią się w następnej kolejności. Jeśli na przykład wpiszesz tekst „Pies przeskoczył przez …”, model generatywny utworzy tablicę prawdopodobnych kolejnych słów:
[("fence", 0.77), ("ledge", 0.12), ("blanket", 0.03), ...]
Ten proces jest deterministyczny. Model generatywny będzie za każdym razem tworzyć ten sam rozkład, gdy otrzyma ten sam tekst prompta.
W drugim etapie model generatywny przekształca te rozkłady w rzeczywiste odpowiedzi tekstowe za pomocą jednej z kilku strategii dekodowania. Prosta strategia dekodowania może wybierać najbardziej prawdopodobny token w każdym kroku czasowym. Ten proces zawsze będzie deterministyczny. Możesz jednak zamiast tego wygenerować odpowiedź, losowo pobierając próbki z rozkładu zwróconego przez model. Ten proces byłby stochastyczny (losowy). Kontroluj stopień losowości dozwolony w tym procesie dekodowania, ustawiając temperaturę. Temperatura 0 oznacza, że wybierane są tylko najbardziej prawdopodobne tokeny i nie ma losowości. Z kolei wysoka temperatura wprowadza dużą losowość do tokenów wybieranych przez model, co prowadzi do bardziej nieoczekiwanych i zaskakujących odpowiedzi.
Dalsze kroki
- Teraz, gdy masz już większą wiedzę o projektowaniu promptów, spróbuj napisać własne prompty w Google AI Studio.
- Więcej informacji o promptach multimodalnych znajdziesz w artykule Promptowanie za pomocą plików multimedialnych.
- Więcej informacji o promptach dotyczących obrazów znajdziesz w przewodniku po promptach w usłudze Imagen.
- Więcej informacji o promptach do filmów znajdziesz w przewodniku po promptach do Veo.