LlmInference.LlmInferenceOptions
का बिल्डर.
पब्लिक कंस्ट्रक्टर
Builder()
|
सार्वजनिक तरीके
फ़ाइनल LlmInference.LlmInferenceOptions |
build()
यह
ERROR(/ImageGeneratorOptions) इंस्टेंस की पुष्टि करता है और उसे बनाता है. |
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) |
setErrorListener(ErrorListener लिसनर)
यह एरर लिसनर को सेट करता है, ताकि इसे एक साथ काम नहीं करने वाले एपीआई के साथ शुरू किया जा सके.
|
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) | |
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) |
setMaxTokens(int maxTokens)
यह नीति इनपुट और आउटपुट के लिए टोकन की कुल संख्या को कॉन्फ़िगर करती है.
|
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) | |
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) |
setRandomSeed(इंटरैंडम सीड)
सैंपलिंग टोकन के लिए रैंडम सीड कॉन्फ़िगर करता है.
|
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) |
setResultListener(ProgressListener<String> लिसनर)
यह सर्वर को एक साथ काम नहीं करने वाले एपीआई के साथ शुरू करने के लिए, नतीजे की पहचान करने वाले को सेट करता है.
|
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) |
setTemperature(फ़्लोट तापमान)
यह नीति अगले टोकन को डिकोड करते समय, रैंडमनेस को कॉन्फ़िगर करती है.
|
ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder) |
setTopK(int topK)
यह नीति, डिकोड करने के हर चरण के लिए, ऊपर की K संख्या को कॉन्फ़िगर करती है, ताकि उसका सैंपल लिया जा सके.
|
इनहेरिट किए गए तरीके
पब्लिक कंस्ट्रक्टर
सार्वजनिक बिल्डर ()
सार्वजनिक तरीके
सार्वजनिक फ़ाइनल LlmInference.LlmInferenceOptions build ()
यह ERROR(/ImageGeneratorOptions)
इंस्टेंस की पुष्टि करता है और उसे बनाता है.
सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setErrorListener (ErrorListener लिसनर)
यह एरर लिसनर को सेट करता है, ताकि इसे एक साथ काम नहीं करने वाले एपीआई के साथ शुरू किया जा सके.
पैरामीटर
लिसनर |
---|
सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setLoraPath (स्ट्रिंग loraPath)
डिवाइस पर सेव किए गए, LoRA मॉडल ऐसेट बंडल का ऐब्सलूट पाथ. यह सुविधा सिर्फ़ जीपीयू मॉडल के साथ काम करती है.
पैरामीटर
loraPath |
---|
सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)
यह नीति इनपुट और आउटपुट के लिए टोकन की कुल संख्या को कॉन्फ़िगर करती है.
पैरामीटर
maxTokens |
---|
सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setModelPath (स्ट्रिंग ModelPath)
टेक्स्ट जनरेटर टास्क के लिए मॉडल पाथ सेट करता है.
पैरामीटर
modelPath |
---|
सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setRandomSeed (intintrangSeed)
सैंपलिंग टोकन के लिए रैंडम सीड कॉन्फ़िगर करता है.
पैरामीटर
randomSeed |
---|
LlmInference.LlmInferenceOptions.Builder setResultListenerProgressListener
यह सर्वर को एक साथ काम नहीं करने वाले एपीआई के साथ शुरू करने के लिए, नतीजे की पहचान करने वाले को सेट करता है.
पैरामीटर
लिसनर |
---|
सार्वजनिक ऐब्स्ट्रैक्ट LlmInference.LlmInferenceOptions.Builder setTemperature (फ़्लोट टेंपरेचर)
यह नीति अगले टोकन को डिकोड करते समय, रैंडमनेस को कॉन्फ़िगर करती है. 0.0f वैल्यू का मतलब है लालची डिकोडिंग. डिफ़ॉल्ट वैल्यू 0.8f है.
पैरामीटर
तापमान |
---|
सार्वजनिक ऐब्सट्रैक्ट LlmInference.LlmInferenceOptions.Builder setTopK (int TopK)
यह नीति, डिकोड करने के हर चरण के लिए, ऊपर की K संख्या को कॉन्फ़िगर करती है, ताकि उसका सैंपल लिया जा सके. 1 की वैल्यू का मतलब है लालची डिकोडिंग. डिफ़ॉल्ट वैल्यू 40 है.
पैरामीटर
topK |
---|