LlmInference.LlmInferenceOptions.Builder

общедоступный статический абстрактный класс LlmInference.LlmInferenceOptions.Builder

Построитель для LlmInference.LlmInferenceOptions .

Публичные конструкторы

Публичные методы

окончательный LlmInference.LlmInferenceOptions
строить ()
Проверяет и создает экземпляр ERROR(/ImageGeneratorOptions) .
абстрактный LlmInference.LlmInferenceOptions.Builder
setErrorListener (прослушиватель ErrorListener )
Устанавливает прослушиватель ошибок для вызова с помощью асинхронного API.
абстрактный LlmInference.LlmInferenceOptions.Builder
setLoraPath ( строка loraPath)
Абсолютный путь к пакету активов модели LoRA, хранящемуся локально на устройстве.
абстрактный LlmInference.LlmInferenceOptions.Builder
setMaxTokens (int maxTokens)
Настраивает общее количество токенов для ввода и вывода).
абстрактный LlmInference.LlmInferenceOptions.Builder
setModelPath ( строка modelPath)
Задает путь к модели для задачи генератора текста.
абстрактный LlmInference.LlmInferenceOptions.Builder
setRandomSeed (intrandomSeed)
Настраивает случайное начальное число для выборки токенов.
абстрактный LlmInference.LlmInferenceOptions.Builder
setResultListener ( ProgressListener <String> прослушиватель)
Устанавливает прослушиватель результатов для вызова с помощью асинхронного API.
абстрактный LlmInference.LlmInferenceOptions.Builder
setTemperature (плавающая температура)
Настраивает случайность при декодировании следующего токена.
абстрактный LlmInference.LlmInferenceOptions.Builder
setTopK (int topK)
Настраивает максимальное количество K токенов, из которых будет производиться выборка для каждого шага декодирования.

Унаследованные методы

Публичные конструкторы

общественный строитель ()

Публичные методы

публичная финальная сборка LlmInference.LlmInferenceOptions ()

Проверяет и создает экземпляр ERROR(/ImageGeneratorOptions) .

общедоступный абстрактный LlmInference.LlmInferenceOptions.Builder setErrorListener (прослушиватель ErrorListener )

Устанавливает прослушиватель ошибок для вызова с помощью асинхронного API.

Параметры
слушатель

публичный абстрактный LlmInference.LlmInferenceOptions.Builder setLoraPath ( String loraPath)

Абсолютный путь к пакету активов модели LoRA, хранящемуся локально на устройстве. Это совместимо только с моделями графических процессоров.

Параметры
лораПат

публичный абстрактный LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

Настраивает общее количество токенов для ввода и вывода).

Параметры
МаксТокены

публичный абстрактный LlmInference.LlmInferenceOptions.Builder setModelPath ( String modelPath)

Задает путь к модели для задачи генератора текста.

Параметры
модельпуть

публичный абстрактный LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)

Настраивает случайное начальное число для выборки токенов.

Параметры
случайное зерно

общедоступный абстрактный LlmInference.LlmInferenceOptions.Builder setResultListener ( ProgressListener <String> прослушиватель)

Устанавливает прослушиватель результатов для вызова с помощью асинхронного API.

Параметры
слушатель

общедоступный абстрактный LlmInference.LlmInferenceOptions.Builder setTemperature (плавающая температура)

Настраивает случайность при декодировании следующего токена. Значение 0,0f означает жадное декодирование. Значение по умолчанию — 0,8f.

Параметры
температура

общедоступный абстрактный LlmInference.LlmInferenceOptions.Builder setTopK (int topK)

Настраивает максимальное количество K токенов, из которых будет производиться выборка для каждого шага декодирования. Значение 1 означает жадное декодирование. Значение по умолчанию — 40.

Параметры
топК