public class
LlmInference
LlmInference Task Java API
Verschachtelte Klassen
Klasse | LlmInference.LlmInferenceOptions | Optionen zum Einrichten eines LlmInference -Objekts. |
Public Methods
void |
close()
Schließt und bereinigt das
LlmInference . |
Statisches LlmInference |
createFromOptions(Context context, LlmInference.LlmInferenceOptions-Optionen)
Erstellt eine LlmInference-Aufgabe.
|
String | |
void | |
int |
sizeInTokens(String-Text)
Führt nur die Tokenisierung für das LLM aus und gibt die Größe des Ergebnisses (in Tokens) zurück.
|
Übernommene Methoden
Public Methods
public static LlmInference createFromOptions (Context context, LlmInference.LlmInferenceOptions-Optionen)
Erstellt eine LlmInference-Aufgabe.
Parameter
context | |
---|---|
Optionen |
public String generateResponse (String inputText)
Generiert eine Antwort basierend auf dem Eingabetext.
Parameter
inputText | String für die Verarbeitung. |
---|
Löst aus
wenn die Inferenz fehlschlägt. |
public void generateResponseAsync (String inputText)
Generiert eine Antwort basierend auf dem Eingabetext.
Parameter
inputText | String für die Verarbeitung. |
---|
Löst aus
wenn die Inferenz fehlschlägt. |
public int sizeInTokens (String text)
Führt nur die Tokenisierung für das LLM aus und gibt die Größe des Ergebnisses (in Tokens) zurück. Kann nicht aufgerufen werden, während eine generateResponse(String)
-Abfrage aktiv ist. generateResponse
Parameter
Text | Der Text, der tokenisiert werden soll. |
---|
Rückgabe
- Die Anzahl der Tokens in der resultierenden Tokenisierung des Textes.
Löst aus
wenn die Tokenisierung fehlschlägt. |