Classe publique LlmInference
API Java LlmInference Task
Classes imbriquées
| classe | LlmInference.LlmInferenceOptions | Options de configuration d'un LlmInference. |
|
Méthodes publiques
| void |
close()
Ferme et nettoie
LlmInference. |
| LlmInference statique | |
| String | |
| void | |
| int |
sizeInTokens(texte de chaîne)
Exécute un appel uniquement à la tokenisation pour le LLM et renvoie la taille (en jetons) du résultat.
|
Méthodes héritées
Méthodes publiques
public statique LlmInference createFromOptions (contexte contextuel, LlmInference.LlmInferenceOptions options)
Crée une tâche LlmInference.
Paramètres
| context | |
|---|---|
| options |
public Chaîne generateResponse (String inputText)
Génère une réponse basée sur le texte d'entrée.
Paramètres
| inputText | String pour le traitement. |
|---|
Génère
| en cas d'échec de l'inférence. |
public void generateResponseAsync (String inputText)
Génère une réponse basée sur le texte d'entrée.
Paramètres
| inputText | String pour le traitement. |
|---|
Génère
| en cas d'échec de l'inférence. |
public int sizeInTokens (String text)
Exécute un appel uniquement à la tokenisation pour le LLM et renvoie la taille (en jetons) du résultat. Impossible d'appeler lorsqu'une requête generateResponse(String) est active. generateResponse
Paramètres
| text | Texte à tokeniser. |
|---|
Renvoie
- Nombre de jetons dans la tokenisation résultante du texte.
Génère
| en cas d'échec de la tokenisation. |