Strategien für Prompt-Design

Auf dieser Seite werden einige allgemeine Strategien für das Entwerfen von Prompts vorgestellt, die Sie beim Entwerfen von Prompts verwenden können.

Large Language Models (LLM) werden mit riesigen Textdaten trainiert, um Muster und Beziehungen zwischen Sprache zu erlernen. Bei eingegebenem Text (Prompt) können Sprachmodelle vorhersagen, was als Nächstes passieren wird, z. B. ein ausgefeiltes Tool zur automatischen Vervollständigung.

Google AI Studio hostet eine einfache Prompt-Galerie, in der viele der in diesem Leitfaden beschriebenen Konzepte interaktiv präsentiert werden können. Im Rest dieses Leitfadens erfahren Sie mehr über die folgenden Strategien für das Entwerfen von Prompts:

Klare und spezifische Anleitung geben

Wenn Sie dem Modell Anweisungen zur Vorgehensweise geben, können Sie das Modellverhalten effektiv und effizient anpassen. Achten Sie darauf, dass die Anweisungen klar und präzise sind. Anleitungen können so einfach sein wie eine Liste von Schritt-für-Schritt-Anleitungen oder so komplex wie das abbilden der Nutzererfahrung und der Denkweise.

Aufgabe definieren

Beschreiben Sie detailliert die Aufgabe, die das Modell ausführen soll. Die Aufgabe kann so einfach wie eine Schritt-für-Schritt-Liste von Anweisungen oder so komplex wie das Skizzieren der Erfahrung und Denkweise der Nutzenden sein. Der folgende Prompt weist das Modell an, einen Textblock zusammenzufassen:

Summarize this text:
Text: A quantum computer exploits quantum mechanical phenomena to perform calculations exponentially
faster than any modern traditional computer. At very tiny scales, physical matter acts as both
particles and as waves, and quantum computing uses specialized hardware to leverage this behavior.
The operating principles of quantum devices is beyond the scope of classical physics. When deployed
at scale, quantum computers could be used in a wide variety of applications such as: in
cybersecurity to break existing encryption methods while helping researchers create new ones, in
meteorology to develop better weather forecasting etc. However, the current state of the art quantum
computers are still largely experimental and impractical.
  
    Quantum computers leverage the wave-particle duality of matter at tiny scales to perform
    calculations exponentially faster than traditional computers. They harness quantum phenomena,
    which are beyond the scope of classical physics, to achieve this speed advantage. While
    promising for applications like cybersecurity, weather forecasting, and beyond, current
    quantum computers are still experimental and not yet practical for widespread use.
  

Einschränkungen angeben

Geben Sie alle Einschränkungen für das Lesen des Prompts oder das Generieren einer Antwort an. Sie können dem Modell mitteilen, was zu tun ist und was nicht. Im vorherigen Beispiel ist die Zusammenfassung kürzer als der Originaltext, aber vielleicht möchten Sie, dass die Zusammenfassung kürzer ist. In diesem Fall können Sie in der Prompt eine Einschränkung für die Dauer der Zusammenfassung angeben:

Summarize this text in two sentences:
Text: A quantum computer exploits quantum mechanical phenomena to perform calculations exponentially
faster than any modern traditional computer. At very tiny scales, physical matter acts as both
particles and as waves, and quantum computing uses specialized hardware to leverage this behavior.
The operating principles of quantum devices is beyond the scope of classical physics. When deployed
at scale, quantum computers could be used in a wide variety of applications such as: in
cybersecurity to break existing encryption methods while helping researchers create new ones, in
meteorology to develop better weather forecasting etc. However, the current state of the art quantum
computers are still largely experimental and impractical.
    

      Quantum computers harness the wave-particle duality of matter at the quantum level to perform
      computations exponentially faster than traditional computers. While these machines hold
      immense potential for fields like cybersecurity and weather forecasting, they are currently
      in their early stages of development and not yet practical for widespread use.
    

Definieren Sie das Format der Antwort

Sie können auch Anweisungen zum Formatieren der Antwort geben. Sie können beispielsweise festlegen, dass die Antwort als Tabelle, Aufzählungsliste, Elevator Pitch, Keywords, Satz oder Absatz formatiert wird. Die folgende Systemnachricht weist das Modell an, in der Antwort dialogorientierter zu sein:

    All questions should be answered comprehensively with details, unless the user requests a
    concise response specifically. Respond in the same language as the query.
  
    What is a smart way to create a lemonade business?
  
Launching a Successful Lemonade Stand: A Smart Approach
Creating a lemonade business, whether a simple stand or a larger operation, requires strategic thinking. Here's a breakdown of how to approach it smartly:

1. Define Your Business:
Scope: Are you aiming for a small, seasonal lemonade stand, a food truck, a delivery service, or something else entirely?
Target Audience: Who are you selling to? Families, office workers, tourists?
Unique Selling Proposition: What sets your lemonade apart? Special flavors, organic ingredients, a unique recipe?

Pricing: Research competitor prices and determine a profitable pricing structure.
Location: Consider foot traffic, accessibility, and regulations for your chosen location.
.....
  

Zusammenfassung

  • Geben Sie den Modellen Anweisungen zur Vorgehensweise.
  • Formulieren Sie die Anleitung klar und spezifisch.
  • Legen Sie ggf. oder Formatierungsanforderungen für die Ausgabe fest.

Few-Shot-Beispielen einfügen

Sie können Beispiele in den Prompt einfügen, die dem Modell zeigen, wie es aussieht, richtig zu liegen. Das Modell versucht, Muster und Beziehungen aus den Beispielen zu identifizieren und diese beim Generieren einer Antwort anzuwenden. Prompts, die einige Beispiele enthalten, werden als Few-Shot-Prompts bezeichnet, während Prompts, die keine Beispiele enthalten, als Zero-Shot-Prompts bezeichnet werden. Häufig werden Few-Shot-Prompts verwendet, um die Formatierung, die Formulierung, den Geltungsbereich oder das allgemeine Muster der Modellantworten zu regulieren. Verwenden Sie spezifische und vielfältige Beispiele, damit das Modell den Fokus eingrenzen und genauere Ergebnisse generieren kann.

Wir empfehlen, immer Few-Shot-Beispiele in Ihre Prompts aufzunehmen. Prompts ohne Few-Shot-Beispiele sind wahrscheinlich weniger effektiv. Tatsächlich können Sie eine Anleitung aus Ihrer Prompt entfernen, wenn Ihre Beispiele klar genug sind, um die vorliegende Aufgabe zu zeigen.

Zero-Shot- und Few-Shot-Prompts im Vergleich

In dem folgenden Prompt wird das Modell aufgefordert, die beste Erklärung auszuwählen.

Please choose the best explanation to the question:

Question: How is snow formed?
Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the
atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and
accumulate on the ground.
Explanation2: Water vapor freezes into ice crystals forming snow.
Answer:
  
Explanation 1 is the best explanation.
  

Wenn Ihr Anwendungsfall erfordert, dass das Modell prägnante Antworten erstellt, können Sie Beispiele in den Prompt einfügen, der prägnante Antworten bevorzugt.

Der folgende Prompt enthält zwei Beispiele, die die kürzere Erklärungen zeigen. In der Antwort sehen Sie, dass die Beispiele das Modell dazu veranlasst haben, die kürzere Erklärung auszuwählen (Erklärung2), im Gegensatz zur längeren Erklärung (Erklärung1) wie zuvor.

Below are some examples showing a question, explanation, and answer format:

Question: Why is sky blue?
Explanation1: The sky appears blue because of Rayleigh scattering, which causes shorter blue
wavelengths of light to be scattered more easily than longer red wavelengths, making the sky look
blue.
Explanation2: Due to Rayleigh scattering effect.
Answer: Explanation2

Question: What is the cause of earthquakes?
Explanation1: Sudden release of energy in the Earth's crust.
Explanation2: Earthquakes happen when tectonic plates suddenly slip or break apart, causing a
release of energy that creates seismic waves that can shake the ground and cause damage.
Answer: Explanation1

Now, Answer the following question given the example formats above:

Question: How is snow formed?
Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the
atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and
accumulate on the ground.
Explanation2: Water vapor freezes into ice crystals forming snow.
Answer:
  
Answer: Explanation2
  

Optimale Anzahl von Beispielen finden

Sie können mit der Anzahl der Beispiele experimentieren, die in dem Prompt für die gewünschten Ergebnisse bereitgestellt werden sollen. Modelle wie Gemini können anhand einiger Beispiele häufig Muster erkennen. Möglicherweise müssen Sie jedoch mit der Anzahl der Beispiele experimentieren, die zu den gewünschten Ergebnissen führen. Wenn Sie zu viele Beispiele hinzufügen, kann das Modell die Antwort auf die Beispiele überanpassen.

Beispiele zum Anzeigen von Mustern anstelle von Antimustern verwenden

Das Verwenden von Beispielen, um dem Modell ein Muster zu zeigen, dem es folgen soll, ist effektiver als Beispiele, um dem Modell ein Antimuster zu zeigen, das vermieden werden soll.

Negative Muster:

Don't end haikus with a question:
Haiku are fun
A short and simple poem
Don't you enjoy them?
  

Positives Muster:

Always end haikus with an assertion:
Haiku are fun
A short and simple poem
A joy to write
  

Einheitliche Formatierung für alle Beispiele verwenden

Achten Sie darauf, dass Struktur und Format der Few-Shot-Beispiele gleich sind, um Antworten mit unerwünschten Formaten zu vermeiden. Eines der Hauptziele beim Hinzufügen von Few-Shot-Beispielen in Prompts besteht darin, dem Modell das Antwortformat anzuzeigen. Daher ist es wichtig, dass Sie für alle Beispiele ein konsistentes Format gewährleisten, insbesondere auf XML-Tags, Leerzeichen, Zeilenumbrüche und Beispiel-Splitter achten.

Fazit

  • Wenn Sie Beispiele für Prompt-Antworten in den Prompt aufnehmen, helfen Sie dem Modell zu lernen zu antworten.
  • Geben Sie dem Modell Beispiele für die Muster, denen gefolgt werden soll, anstelle von Beispielen für Muster, die vermieden werden sollen.
  • Experimentieren Sie mit der Anzahl der einzubeziehenden Prompts. Je nach Modell sind zu wenige Beispiele beim Ändern des Modellverhaltens unwirksam. Zu viele Beispiele verursachen eine Überanpassung des Modells.
  • Einheitliche Formatierung für alle Beispiele verwenden

Kontextinformationen hinzufügen

Sie können in den Prompt-Anweisungen und -Informationen angeben, die das Modell benötigt, um ein Problem zu lösen, anstatt davon auszugehen, dass das Modell alle erforderlichen Informationen hat. Diese Kontextinformationen helfen dem Modell, die Einschränkungen und Details dessen zu verstehen, was es tun soll.

Im folgenden Beispiel wird das Modell aufgefordert, eine Anleitung zur Fehlerbehebung für einen Router bereitzustellen:

What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and
blinking slowly.
  
  A yellow blinking light on your Google Wifi router usually indicates a problem with the internet connection. Here are some steps to troubleshoot and fix the issue:
  1. Restart your router and modem:
    - Unplug your modem from the power outlet and wait for 30 seconds.
    - Plug your modem back in and wait for it to fully boot up.
    - Unplug your Google Wifi router and wait for 30 seconds.
    - Plug your Google Wifi router back in and wait for it to fully boot up.
.....
  

Die Antwort sieht wie allgemeine Informationen zur Fehlerbehebung aus, die nicht spezifisch für den Router oder den Status der LED-Anzeigen sind.

Um die Antwort für den jeweiligen Router anzupassen, können Sie der Anleitung zur Fehlerbehebung des Routers als Kontext hinzufügen, auf den Sie beim Antworten verweisen.

Answer the question using the text below. Respond with only the text provided.
Question: What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly.

Text:
Color: Slowly pulsing yellow
What it means: There is a network error.
What to do:
Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again.

Color: Fast blinking yellow
What it means: You are holding down the reset button and are factory resetting this device.
What to do:
If you keep holding down the reset button, after about 12 seconds, the light will turn solid yellow. Once it is solid yellow, let go of the factory reset button.

Color: Solid yellow
What it means: Router is factory resetting.
What to do:
This can take up to 10 minutes. When it's done, the device will reset itself and start pulsing white, letting you know it's ready for setup.

Color: Solid red
What it means: Something is wrong.
What to do:
Critical failure. Factory reset the router. If the light stays red, contact Wifi customer support.
  
Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again.
  

Zusammenfassung

  • Fügen Sie Informationen (Kontext) in den Prompt ein, die das Modell beim Generieren einer Antwort verwenden soll.
  • Geben Sie dem Modell Anweisungen, wie die Kontextinformationen verwendet werden sollen.

Präfixe hinzufügen

Ein Präfix ist ein Wort oder eine Wortgruppe, die Sie dem Inhalt des Prompts hinzufügen, der verschiedene Zwecke erfüllen kann, je nachdem, wo Sie das Präfix einfügen:

  • Eingabepräfix: Fügt den Eingabesignalen ein Präfix für die semantisch sinnvolle Teile der Eingabe für das Modell hinzu. Beispielsweise werden durch die Präfixe "Englisch:" und "Französisch:" zwei verschiedene Sprachen abgegrenzt.
  • Ausgabepräfix: Obwohl die Ausgabe vom Modell generiert wird, können Sie in den Prompt ein Präfix hinzufügen. Das Ausgabepräfix gibt dem Modell Informationen dazu, was als Antwort erwartet wird. Das Ausgabepräfix "JSON:" signalisiert dem Modell beispielsweise, dass die Ausgabe im JSON-Format vorliegen soll.
  • Beispielpräfix: In einigen Few-Shot-Prompts werden durch Hinzufügen von Präfixen zu den Beispielen Labels bereitgestellt, die das Modell beim Generieren der Ausgabe verwenden kann. Dies erleichtert das Parsen von Ausgabeinhalten.

Im folgenden Beispiel ist "Text:" das Eingabepräfix und "Die Antwort ist" ist das Ausgabepräfix.

Classify the text as one of the following categories.
- large
- small
Text: Rhino
The answer is: large
Text: Mouse
The answer is: small
Text: Snail
The answer is: small
Text: Elephant
The answer is:
  
The answer is: large
  

Vervollständigung von Teileingaben durch das Modell

Generative Sprachmodelle funktionieren wie ein erweitertes Tool zur automatischen Vervollständigung. Wenn Sie nur Teilinhalte angeben, kann das Modell den Rest des Inhalts bereitstellen oder das, was es als Fortsetzung des Inhalts betrachtet. Wenn Sie Beispiele oder Kontexte einbeziehen, kann das Modell diese Beispiele oder den Kontext berücksichtigen.

Das folgende Beispiel zeigt einen Prompt mit einer Anweisung und einer Entitätseingabe:

For the given order, return a JSON object that has the fields cheeseburger, hamburger, fries, or
drink, with the value being the quantity.

Order: A burger and a drink.
  
```
{
  "hamburger": 1,
  "drink": 1
}
```
  

Auch wenn das Modell wie beschrieben funktioniert, kann es schwierig sein, die Anweisungen in natürlicher Sprache zu geben. Dabei bleibt der Interpretation des Modells viel überlassen. Eine Restaurantkarte kann beispielsweise viele Elemente enthalten. Um die Größe der JSON-Antwort zu reduzieren, sollten Sie die Elemente weglassen, die nicht sortiert sind. In diesem Fall können Sie ein Beispiel und ein Antwortpräfix angeben. Lassen Sie das Modell es dann vervollständigen:

Valid fields are cheeseburger, hamburger, fries, and drink.
Order: Give me a cheeseburger and fries
Output:
```
{
  "cheeseburger": 1,
  "fries": 1
}
```
Order: I want two burgers, a drink, and fries.
Output:
  
```
{
  "hamburger": 2,
  "drink": 1,
  "fries": 1
}
```
  

Beachten Sie, dass "Cheeseburger" von der Ausgabe ausgeschlossen wurde, da er nicht Teil der Bestellung war.

Das Modell auffordern, seine Antwort zu formatieren

Sie kann auch bei der Formatierung der Antwort hilfreich sein. Im folgenden Beispiel wird das Modell aufgefordert, einen Aufzug zu erstellen:

Create an outline for an essay about hummingbirds.
  
  Hummingbirds: A Symphony of Speed and Color
    I. Introduction
    A. Hummingbirds are fascinating creatures known for their dazzling colors, lightning-fast flight, and unique feeding habits.
    B. Brief overview of the diversity of hummingbird species and their geographic distribution.
    C. Thesis statement: Hummingbirds are an embodiment of resilience, adaptation, and the wonders of the natural world.
.....
  

In dem Prompt wurde nicht das Format für den Umriss angegeben, und das Modell hat ein Format für Sie ausgewählt. Damit das Modell einen Umriss in einem bestimmten Format zurückgibt, können Sie Text hinzufügen, der den Anfang des Umrisses darstellt, und den Modell anhand des von Ihnen initiierten Musters fertigstellen.

Create an outline for an essay about hummingbirds.
I. Introduction
   *
  
  Hummingbirds: Jewels of the Air
    **I. Introduction**
       * **Hook:** Begin with a captivating image or anecdote about hummingbirds, emphasizing their vibrant colors, rapid flight, and unique feeding habits.
       * **Background:** Briefly introduce hummingbirds as the smallest birds in the world and their fascinating adaptations for a nectar-rich diet.
       * **Thesis:** State the main argument or focus of the essay. Examples: 
            * **The incredible adaptations of hummingbirds enable them to thrive in diverse ecosystems.**
            * **Hummingbirds play a crucial role in pollination and biodiversity.**
            * **The beauty and grace of hummingbirds make them captivating subjects for both scientific study and artistic appreciation.**
  

Zusammenfassung

  • Wenn Sie dem Modell eine Teileingabe zuweisen, schließt das Modell diese Eingabe anhand aller verfügbaren Beispiele oder Kontexte in dem Prompt ab.
  • Es kann einfacher sein, das Modell fertig einzugeben, als die Aufgabe in natürlicher Sprache zu beschreiben.
  • Durch Hinzufügen einer Teilantwort auf eine Eingabeaufforderung kann das Modell einem gewünschten Muster oder Format folgen.

Prompts in einfache Komponenten aufteilen

Bei Anwendungsfällen, die komplexe Prompts erfordern, können Sie das Modell bei der Bewältigung dieser Komplexität unterstützen, indem Sie Elemente in einfachere Komponenten unterteilen.

Anleitung zur Aufteilung

Anstatt mehrere Anweisungen in einem Prompt zu haben, erstellen Sie einen Prompt pro Anweisung. Sie können auswählen, welche Prompt basierend auf der Eingabe des Nutzers verarbeitet werden soll.

Prompts verketten

Bei komplexen Aufgaben, die mehrere aufeinanderfolgende Schritte umfassen, sollten Sie jeden Schritt zu einer Prompt machen und die Prompts in einer Sequenz verketten. Bei dieser sequenziellen Kette von Eingabeaufforderungen wird die Ausgabe einer Aufforderung in der Sequenz zur Eingabe der nächsten Aufforderung. Die Ausgabe des letzten Prompts in der Sequenz ist die endgültige Ausgabe.

Antworten aggregieren

Eine Aggregation erfolgt, wenn Sie verschiedene parallele Aufgaben für verschiedene Teile der Daten ausführen und die Ergebnisse aggregieren möchten, um die endgültige Ausgabe zu erhalten. Sie können dem Modell beispielsweise mitteilen, dass es einen Vorgang auf dem ersten Teil der Daten und einen anderen Vorgang auf dem Rest der Daten ausführen und die Ergebnisse zusammenfassen soll.

Fazit

  • Unterteilen Sie komplexe Anweisungen in eine Aufforderung für jede Anweisung und entscheiden Sie anhand der Nutzereingabe, welche Aufforderung angewendet werden soll.
  • Teilen Sie mehrere sequenzielle Schritte in separate Prompts auf und verketten Sie sie so, dass die Ausgabe des vorherigen Prompts zur Eingabe des folgenden Prompts wird.
  • Sie können parallele Aufgaben aufschlüsseln und die Antworten aggregieren, um die endgültige Ausgabe zu erhalten.

Mit verschiedenen Parameterwerten experimentieren

Jeder Aufruf, den Sie an ein Modell senden, enthält Parameterwerte, die steuern, wie das Modell eine Antwort generiert. Das Modell kann für verschiedene Parameterwerte unterschiedliche Ergebnisse generieren. Experimentieren Sie mit verschiedenen Parameterwerten, um die besten Werte für die Aufgabe zu erhalten. Die für verschiedene Modelle verfügbaren Parameter können unterschiedlich sein. Die häufigsten Parameter sind:

  • Max. Ausgabetokens
  • Temperatur
  • Top-K
  • Top-P

Max. Ausgabetokens

Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 20 Wörtern.

Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.

Temperatur

Die Temperatur wird für die Probenahme während der Antwortgenerierung verwendet. Dies passiert, wenn topP und topK angewendet werden. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl. Niedrigere Temperaturen eignen sich für Aufforderungen, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Temperaturen zu vielfältigeren oder kreativen Ergebnissen führen können. Eine Temperatur von 0 ist deterministisch, d. h., die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

Für die meisten Anwendungsfälle empfiehlt es sich, mit einer Temperatur von 0.2 zu beginnen. Wenn das Modell eine zu allgemeine oder zu kurze Antwort zurückgibt, oder wenn das Modell eine Fallback-Antwort ausgibt, versuchen Sie, die Temperatur zu erhöhen.

Top-K

Der Wert „Top-K“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Ein „Top-K“ von 1 bedeutet, dass das nächste ausgewählte Token unter den Tokens im Modell-Vokabular (auch als gierige Decodierung bezeichnet) am wahrscheinlichsten ist, während ein „Top-K“ von 3 bedeutet, dass das nächste Token mithilfe der Temperatur aus den drei wahrscheinlichsten Tokens ausgewählt wird.

Für jeden Tokenauswahlschritt werden die „Top-K“-Tokens mit den höchsten Wahrscheinlichkeiten abgetastet. Anschließend werden Tokens weiter auf der Grundlage von „Top-P“ gefiltert, wobei das endgültige Token mithilfe von Temperaturproben ausgewählt wird.

Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der standardmäßige „Top-K“ ist 40.

Top-P

Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. Beispiel: Wenn die Tokens A, B und C eine Wahrscheinlichkeit von 0,3, 0,2 und 0,1 haben und der „Top-P“-Wert 0.5 ist, wählt das Modell anhand der Temperatur entweder A oder B als das nächste Token und C als Kandidaten ausschließen.

Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Die Standardeinstellung von „Top-P“ ist 0.95.

Strategien für Prompt-Iteration

Prompt-Design ist ein iterativer Prozess, der oft einige Iterationen erfordert, bevor Sie die durchgehend die gewünschte Antwort erhalten. In diesem Abschnitt finden Sie Anweisungen zu einigen Dingen, die Sie beim Iterieren Ihrer Prompts versuchen können.

Andere Form verwenden

Die Verwendung unterschiedlicher Wörter oder Formulierungen in Ihren Prompts liefert häufig unterschiedliche Antworten vom Modell, obwohl sie alle dieselbe Bedeutung haben. Wenn Sie nicht die erwarteten Ergebnisse von dem Prompt erhalten, versuchen Sie, ihn umzuformulieren.

Version 1:
How do I bake a pie?

Version 2:
Suggest a recipe for a pie.

Version 3:
What's a good pie recipe?
  

Zu einer analogen Aufgabe wechseln

Wenn Sie das Modell nicht erhalten können, um den Anweisungen für eine Aufgabe zu folgen, versuchen Sie, dies für eine entsprechende Aufgabe zu tun, die dasselbe Ergebnis erzielt.

In diesem Prompt wird das Modell angewiesen, ein Buch mithilfe vordefinierter Kategorien zu kategorisieren.

Which category does The Odyssey belong to:
thriller
sci-fi
mythology
biography
  
    The Odyssey belongs to the category of **mythology**. 

    Here's why:
    
    * **Mythology:** The Odyssey tells the story of Odysseus, a hero from Greek mythology, and his
    journey home after the Trojan War. It features gods, monsters, and supernatural events common to
    Greek mythology.
.....
  

Die Antwort ist korrekt, aber das Modell blieb nicht innerhalb der Grenzen der Optionen. Sie möchten auch, dass das Modell nur mit einer der Optionen antwortet und nicht mit einem ganzen Satz. In diesem Fall können Sie die Anweisungen als Multiple-Choice-Frage umformulieren und das Modell bitten, eine Option auszuwählen.

Multiple choice problem: Which of the following options describes the book The Odyssey?
Options:
- thriller
- sci-fi
- mythology
- biography
  
The correct answer is **mythology**. 
  

Reihenfolge der Prompt-Inhalte ändern

Die Reihenfolge des Inhalts in dem Prompt kann sich manchmal auf die Antwort auswirken. Ändern Sie die Inhaltsreihenfolge und prüfen Sie, wie sich dies auf die Antwort auswirkt.

Version 1:
[examples]
[context]
[input]

Version 2:
[input]
[examples]
[context]

Version 3:
[examples]
[input]
[context]

Fallback-Antworten

Eine Fallback-Antwort ist eine Antwort, die vom Modell zurückgegeben wird, wenn entweder der Prompt oder die Antwort einen Sicherheitsfilter auslöst. Ein Beispiel für eine Fallback-Antwort ist: "Ich kann dir nicht helfen, da ich nur ein Sprachmodell habe."

Wenn das Modell mit einer Fallback-Antwort antwortet, versuchen Sie, die Temperatur zu erhöhen.

Was vermieden werden sollte

  • Vermeiden Sie es, sich bei der Generierung sachlicher Informationen auf Modelle zu verlassen.
  • Seien Sie vorsichtig bei mathematischen und logischen Problemen.

Nächste Schritte