LlmInference.LlmInferenceOptions.Builder

पब्लिक स्टैटिक ऐब्स्ट्रैक्ट क्लास LlmInference.LlmInferenceOptions.Builder

LlmInference.LlmInferenceOptions का बिल्डर.

पब्लिक कंस्ट्रक्टर

सार्वजनिक तरीके

फ़ाइनल LlmInference.LlmInferenceOptions
build()
यह ERROR(/ImageGeneratorOptions) इंस्टेंस की पुष्टि करता है और उसे बनाता है.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setErrorListener(ErrorListener लिसनर)
यह एरर लिसनर को सेट करता है, ताकि इसे एक साथ काम नहीं करने वाले एपीआई के साथ शुरू किया जा सके.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setLoraPath(स्ट्रिंग loraPath)
डिवाइस पर सेव किए गए, LoRA मॉडल ऐसेट बंडल का ऐब्सलूट पाथ.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setMaxTokens(int maxTokens)
यह नीति इनपुट और आउटपुट के लिए टोकन की कुल संख्या को कॉन्फ़िगर करती है.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setModelPath(स्ट्रिंग ModelPath)
टेक्स्ट जनरेटर टास्क के लिए मॉडल पाथ सेट करता है.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setRandomSeed(इंटरैंडम सीड)
सैंपलिंग टोकन के लिए रैंडम सीड कॉन्फ़िगर करता है.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setResultListener(ProgressListener<String> लिसनर)
यह सर्वर को एक साथ काम नहीं करने वाले एपीआई के साथ शुरू करने के लिए, नतीजे की पहचान करने वाले को सेट करता है.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setTemperature(फ़्लोट तापमान)
यह नीति अगले टोकन को डिकोड करते समय, रैंडमनेस को कॉन्फ़िगर करती है.
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder)
setTopK(int topK)
यह नीति, डिकोड करने के हर चरण के लिए, ऊपर की K संख्या को कॉन्फ़िगर करती है, ताकि उसका सैंपल लिया जा सके.

इनहेरिट किए गए तरीके

पब्लिक कंस्ट्रक्टर

सार्वजनिक बिल्डर ()

सार्वजनिक तरीके

सार्वजनिक फ़ाइनल LlmInference.LlmInferenceOptions build ()

यह ERROR(/ImageGeneratorOptions) इंस्टेंस की पुष्टि करता है और उसे बनाता है.

सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setErrorListener (ErrorListener लिसनर)

यह एरर लिसनर को सेट करता है, ताकि इसे एक साथ काम नहीं करने वाले एपीआई के साथ शुरू किया जा सके.

पैरामीटर
लिसनर

सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setLoraPath (स्ट्रिंग loraPath)

डिवाइस पर सेव किए गए, LoRA मॉडल ऐसेट बंडल का ऐब्सलूट पाथ. यह सुविधा सिर्फ़ जीपीयू मॉडल के साथ काम करती है.

पैरामीटर
loraPath

सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

यह नीति इनपुट और आउटपुट के लिए टोकन की कुल संख्या को कॉन्फ़िगर करती है.

पैरामीटर
maxTokens

सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setModelPath (स्ट्रिंग ModelPath)

टेक्स्ट जनरेटर टास्क के लिए मॉडल पाथ सेट करता है.

पैरामीटर
modelPath

सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setRandomSeed (intintrangSeed)

सैंपलिंग टोकन के लिए रैंडम सीड कॉन्फ़िगर करता है.

पैरामीटर
randomSeed

LlmInference.LlmInferenceOptions.Builder setResultListenerProgressListener

यह सर्वर को एक साथ काम नहीं करने वाले एपीआई के साथ शुरू करने के लिए, नतीजे की पहचान करने वाले को सेट करता है.

पैरामीटर
लिसनर

सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setTemperature (फ़्लोट टेंपरेचर)

यह नीति अगले टोकन को डिकोड करते समय, रैंडमनेस को कॉन्फ़िगर करती है. 0.0f वैल्यू का मतलब है लालची डिकोडिंग. डिफ़ॉल्ट वैल्यू 0.8f है.

पैरामीटर
तापमान

सार्वजनिक ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder setTopK (int TopK)

यह नीति, डिकोड करने के हर चरण के लिए, ऊपर की K संख्या को कॉन्फ़िगर करती है, ताकि उसका सैंपल लिया जा सके. 1 की वैल्यू का मतलब है लालची डिकोडिंग. डिफ़ॉल्ट वैल्यू 40 है.

पैरामीटर
topK