FunctionGemma मॉडल कार्ड

मॉडल पेज: FunctionGemma

संसाधन और तकनीकी दस्तावेज़:

इस्तेमाल की शर्तें: शर्तें
लेखक: Google DeepMind

मॉडल की जानकारी

कम शब्दों में जानकारी और इनपुट और आउटपुट की परिभाषा.

ब्यौरा

ध्यान दें: FunctionGemma को फ़ंक्शन कॉल करने से जुड़े आपके खास टास्क के लिए फ़ाइन-ट्यून किया गया है. इसमें कई बार इस्तेमाल किए जाने वाले फ़ंक्शन भी शामिल हैं.

FunctionGemma, Google का एक लाइटवेट ओपन मॉडल है. इसे फ़ंक्शन कॉल करने वाले अपने खास मॉडल बनाने के लिए, एक बुनियादी मॉडल के तौर पर बनाया गया है. FunctionGemma को सीधे तौर पर बातचीत करने वाले मॉडल के तौर पर इस्तेमाल नहीं किया जा सकता. इसे इस तरह से डिज़ाइन किया गया है कि फ़ाइन-ट्यूनिंग के बाद, यह बेहतर परफ़ॉर्म कर सके. इस साइज़ के मॉडल के लिए, ऐसा करना आम बात है. FunctionGemma को Gemma 3 270M मॉडल पर बनाया गया है. साथ ही, इसे Gemini मॉडल में इस्तेमाल की गई रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है. इसे खास तौर पर फ़ंक्शन कॉलिंग के लिए ट्रेन किया गया है. इस मॉडल का आर्किटेक्चर, Gemma 3 जैसा ही है. हालांकि, इसमें चैट का फ़ॉर्मैट अलग है. यह मॉडल, सिर्फ़ टेक्स्ट वाली फ़ंक्शन कॉलिंग के लिए सबसे सही है. इसका साइज़ बहुत छोटा है. इसलिए, इसे लैपटॉप, डेस्कटॉप या अपने क्लाउड इन्फ़्रास्ट्रक्चर जैसे सीमित संसाधनों वाले एनवायरमेंट में डिप्लॉय किया जा सकता है. इससे, एआई के बेहतरीन मॉडल का ऐक्सेस सभी को मिल जाता है और सभी के लिए इनोवेशन को बढ़ावा मिलता है. इसके अलावा, Gemma 270M की तरह ही इस मॉडल को भी अलग-अलग तरह के कामों के लिए ऑप्टिमाइज़ किया गया है. यह मॉडल, सिंगल टर्न वाले अलग-अलग हार्डवेयर पर अच्छी परफ़ॉर्मेंस देता है. हालांकि, किसी खास डोमेन में सबसे सटीक नतीजे पाने के लिए, इसे सिंगल टर्न या मल्टीटर्न वाले टास्क के हिसाब से फ़ाइनट्यून किया जाना चाहिए. 27 करोड़ पैरामीटर वाले मॉडल को खास एजेंटिक वर्कफ़्लो के लिए तैयार करके, बेहतर परफ़ॉर्मेंस हासिल की जा सकती है. इसे दिखाने के लिए, हमने Google AI Edge Gallery ऐप्लिकेशन में दो इस्तेमाल के उदाहरण हाइलाइट किए हैं.

  • Tiny Garden: यह मॉडल, आवाज़ से कंट्रोल किए जाने वाले इंटरैक्टिव गेम को बेहतर बनाने के लिए फ़ाइन-ट्यून किया गया है. यह गेम के लॉजिक को मैनेज करता है, ताकि ज़मीन के वर्चुअल प्लॉट को मैनेज किया जा सके. साथ ही, यह "सबसे ऊपर वाली लाइन में सूरजमुखी के फूल लगाओ" और "प्लॉट 1 और 2 में लगे फूलों को पानी दो" जैसे निर्देशों को ऐप्लिकेशन के हिसाब से फ़ंक्शन (जैसे, plant_seed, water_plots) में बदलता है और टारगेट को कोऑर्डिनेट करता है. इससे पता चलता है कि सर्वर से कनेक्ट किए बिना, मॉडल में कस्टम ऐप्लिकेशन के मेकेनिज़्म को चलाने की क्षमता है.

  • मोबाइल ऐक्शन: हमने डेटासेट और फ़ाइन-ट्यूनिंग रेसिपी पब्लिश की है, ताकि डेवलपर अपने विशेषज्ञ एजेंट बना सकें. इससे, FunctionGemma को फ़ाइन-ट्यून करने का तरीका दिखाया जा सकेगा. यह उपयोगकर्ता के इनपुट का अनुवाद करता है. जैसे, "दोपहर के खाने के लिए कैलेंडर इवेंट बनाओ" और "फ़्लैशलाइट चालू करो" जैसे अनुरोधों को, Android OS की सिस्टम टूल को ट्रिगर करने वाले फ़ंक्शन कॉल में बदलता है. इस इंटरैक्टिव नोटबुक में बताया गया है कि FunctionGemma के बेस मॉडल का इस्तेमाल करके, Google AI Edge गैलरी ऐप्लिकेशन में इस्तेमाल करने के लिए, "मोबाइल ऐक्शन" को स्क्रैच से कैसे फ़ाइन ट्यून किया जा सकता है. इस इस्तेमाल के उदाहरण से पता चलता है कि मॉडल, निजी डिवाइसों पर ऑफ़लाइन और निजी एजेंट के तौर पर काम कर सकता है.

इनपुट और आउटपुट

  • इनपुट:
    • टेक्स्ट स्ट्रिंग, जैसे कि कोई सवाल, प्रॉम्प्ट या खास जानकारी देने के लिए कोई दस्तावेज़
    • इनपुट कॉन्टेक्स्ट के लिए कुल 32 हज़ार टोकन
  • आउटपुट:
    • इनपुट के जवाब में जनरेट किया गया टेक्स्ट. जैसे, किसी सवाल का जवाब या किसी दस्तावेज़ की खास जानकारी
    • हर अनुरोध के लिए, ज़्यादा से ज़्यादा 32 हज़ार टोकन का कुल आउटपुट कॉन्टेक्स्ट. इसमें अनुरोध के इनपुट टोकन शामिल नहीं हैं

मॉडल डेटा

मॉडल को ट्रेनिंग देने के लिए इस्तेमाल किया गया डेटा और डेटा को प्रोसेस करने का तरीका.

ट्रेनिंग के लिए इस्तेमाल किया गया डेटासेट

इन मॉडल को टेक्स्ट डेटा के ऐसे डेटासेट पर ट्रेन किया गया है जिसमें अलग-अलग तरह के सोर्स से मिला डेटा शामिल है. इस मॉडल को 60 खरब टोकन के साथ ट्रेन किया गया है. ट्रेनिंग डेटा के लिए, जानकारी के अपडेट होने की तारीख अगस्त 2024 थी. मुख्य कॉम्पोनेंट ये हैं:

  • सार्वजनिक टूल की परिभाषाएं - वेब पर मौजूद सामान्य एपीआई
  • टूल इस्तेमाल करने से जुड़ी इंटरैक्शन - इनमें प्रॉम्प्ट, फ़ंक्शन कॉल, फ़ंक्शन के जवाब, और मॉडल से मिले सामान्य भाषा वाले जवाब शामिल होते हैं. इनका इस्तेमाल, फ़ंक्शन कॉल के जवाब की खास जानकारी देने या प्रॉम्प्ट के अस्पष्ट या अधूरा होने पर, ज़्यादा जानकारी का अनुरोध करने के लिए किया जाता है.

डेटा प्रीप्रोसेसिंग

ट्रेनिंग डेटा पर, डेटा को साफ़ करने और फ़िल्टर करने के ये मुख्य तरीके लागू किए जाते हैं:

  • सीएसएएम फ़िल्टर करना: डेटा तैयार करने की प्रोसेस के कई चरणों में, सीएसएएम (बच्चों का यौन शोषण दिखाने वाला कॉन्टेंट) को फ़िल्टर करने की सख्त प्रक्रिया लागू की गई थी. इससे यह पक्का किया जा सका कि नुकसान पहुंचाने वाले और गैर-कानूनी कॉन्टेंट को शामिल न किया जाए.
  • संवेदनशील डेटा को फ़िल्टर करना: Gemma के प्री-ट्रेन किए गए मॉडल को सुरक्षित और भरोसेमंद बनाने के लिए, ऑटोमेटेड तकनीकों का इस्तेमाल किया गया. इससे ट्रेनिंग सेट से कुछ निजी जानकारी और अन्य संवेदनशील डेटा को फ़िल्टर किया गया.
  • अन्य तरीके: हमारी नीतियों के मुताबिक, कॉन्टेंट की क्वालिटी और सुरक्षा के आधार पर फ़िल्टर करना.

लागू करने से जुड़ी जानकारी

मॉडल के इंटरनल के बारे में जानकारी.

हार्डवेयर

Gemma को टेंसर प्रोसेसिंग यूनिट (टीपीयू) हार्डवेयर (TPUv4p, TPUv5p, और TPUv5e) का इस्तेमाल करके ट्रेन किया गया था. विजन-लैंग्वेज मॉडल (वीएलएम) को ट्रेन करने के लिए, काफ़ी कंप्यूटेशनल पावर की ज़रूरत होती है. TPU को खास तौर पर मैट्रिक्स ऑपरेशन के लिए डिज़ाइन किया गया है. मैट्रिक्स ऑपरेशन, मशीन लर्निंग में आम तौर पर इस्तेमाल किए जाते हैं. इस डोमेन में TPU के कई फ़ायदे हैं:

  • परफ़ॉर्मेंस: टीपीयू को खास तौर पर, वीएलएम को ट्रेनिंग देने के लिए ज़रूरी बड़े पैमाने पर कंप्यूटेशन को हैंडल करने के लिए डिज़ाइन किया गया है. ये सीपीयू की तुलना में ट्रेनिंग को काफ़ी तेज़ी से पूरा कर सकते हैं.
  • मेमोरी: टीपीयू में अक्सर ज़्यादा बैंडविथ वाली मेमोरी होती है. इससे ट्रेनिंग के दौरान बड़े मॉडल और बैच साइज़ को मैनेज किया जा सकता है. इससे मॉडल की क्वालिटी बेहतर हो सकती है.
  • स्केलेबिलिटी: टीपीयू पॉड (टीपीयू के बड़े क्लस्टर), बड़े फ़ाउंडेशन मॉडल की बढ़ती जटिलता को मैनेज करने के लिए, स्केलेबल समाधान उपलब्ध कराते हैं. ट्रेनिंग को कई टीपीयू डिवाइसों पर डिस्ट्रिब्यूट किया जा सकता है, ताकि इसे तेज़ी से और ज़्यादा असरदार तरीके से प्रोसेस किया जा सके.
  • किफ़ायती: कई मामलों में, सीपीयू पर आधारित इन्फ़्रास्ट्रक्चर की तुलना में, टीपीयू बड़े मॉडल को ट्रेन करने के लिए ज़्यादा किफ़ायती समाधान उपलब्ध करा सकते हैं. खास तौर पर, जब ट्रेनिंग में लगने वाले समय और संसाधनों की बचत को ध्यान में रखा जाता है.
  • ये फ़ायदे, पर्यावरण को बेहतर बनाने के लिए Google की प्रतिबद्धताओं के मुताबिक हैं.

सॉफ़्टवेयर

इस मॉडल को JAX और ML Pathways का इस्तेमाल करके ट्रेन किया गया है. JAX की मदद से, शोधकर्ता बड़े मॉडल को तेज़ी से और ज़्यादा असरदार तरीके से ट्रेन करने के लिए, टीपीयू जैसे हार्डवेयर की नई जनरेशन का फ़ायदा ले सकते हैं. एमएल पाथवे, आर्टिफ़िशियल इंटेलिजेंस (एआई) वाले सिस्टम बनाने के लिए Google की नई पहल है. ये सिस्टम, कई टास्क को सामान्य तौर पर पूरा कर सकते हैं. यह खास तौर पर फ़ाउंडेशन मॉडल के लिए सही है. इनमें ये लार्ज लैंग्वेज मॉडल शामिल हैं.
JAX और ML Pathways का इस्तेमाल एक साथ किया जाता है. इसके बारे में Gemini फ़ैमिली के मॉडल के बारे में जानकारी देने वाले पेपर में बताया गया है. "JAX और Pathways के 'सिंगल कंट्रोलर' प्रोग्रामिंग मॉडल की मदद से, एक ही Python प्रोसेस का इस्तेमाल करके पूरी ट्रेनिंग को मैनेज किया जा सकता है. इससे डेवलपमेंट वर्कफ़्लो को काफ़ी आसान बनाया जा सकता है."

आकलन

मॉडल के आकलन की मेट्रिक और नतीजे.

बेंचमार्क के नतीजे

Benchmark n-शॉट Function Gemma 270m
BFCL Simple बिना उदाहरण वाला प्रॉम्प्ट 61.6
BFCL Multiple बिना उदाहरण वाला प्रॉम्प्ट 63.5
BFCL पैरलल बिना उदाहरण वाला प्रॉम्प्ट 39
BFCL पैरलल मल्टीपल बिना उदाहरण वाला प्रॉम्प्ट 29.5
BFCL Live Simple बिना उदाहरण वाला प्रॉम्प्ट 36.2
BFCL Live Multiple बिना उदाहरण वाला प्रॉम्प्ट 25.7
BFCL Live Parallel बिना उदाहरण वाला प्रॉम्प्ट 22.9
BFCL Live Parallel Multiple बिना उदाहरण वाला प्रॉम्प्ट 20.8
BFCL की प्रासंगिकता बिना उदाहरण वाला प्रॉम्प्ट 61.1
बीएफ़सीएल का नाम, काम का नहीं है बिना उदाहरण वाला प्रॉम्प्ट 73.7

मोबाइल ऐक्शन के डेटासेट पर फ़ाइन-ट्यून करने के बाद, परफ़ॉर्मेंस पर असर
भाषा के छोटे मॉडल के लिए स्पेशलाइज़ेशन की वैल्यू दिखाने के लिए, हमने "मोबाइल ऐक्शन" रेसिपी का इस्तेमाल करके, फ़ंक्शन Gemma के बेस मॉडल की तुलना फ़ाइन-ट्यून किए गए मॉडल से की. फ़ाइन-ट्यूनिंग की मदद से, FunctionGemma के बेस मॉडल की क्षमता में काफ़ी सुधार हुआ है. अब यह मोबाइल सिस्टम कॉल की सही पहचान कर सकता है और उन्हें सही फ़ॉर्मैट में लिख सकता है.


मॉडल

मोबाइल ऐक्शन के लिए आकलन के नतीजे

Base FunctionGemma मॉडल

58%

मोबाइल ऐक्शन को बेहतर बनाना

85%

Gemma 270m के फ़ाइन-ट्यून किए गए इस्तेमाल के उदाहरणों की ऑन-डिवाइस परफ़ॉर्मेंस
हमने Samsung S25 Ultra पर फ़ाइन-ट्यून किए गए इस्तेमाल के उदाहरणों का आकलन किया, ताकि ऑन-डिवाइस लेटेंसी और मेमोरी फ़ुटप्रिंट का पता लगाया जा सके.

  • कॉन्टेक्स्ट: 512 प्रीफ़िल टोकन और 32 डिकोड टोकन.
  • हार्डवेयर: S25 Ultra CPU, जिसमें LiteRT XNNPACK डेलिगेट का इस्तेमाल किया जा रहा है. इसमें चार थ्रेड हैं.

डिवाइस पर की जाने वाली कार्रवाइयों की परफ़ॉर्मेंस


बैकएंड

क्वांटाइज़ेशन स्कीम

कॉन्टेक्स्ट की लंबाई

प्रीफ़िल (टोकन प्रति सेकंड)

डिकोड करना (हर सेकंड टोकन)

टाइम-टू-फ़र्स्ट-टोकन (सेकंड)

मॉडल का साइज़ (एमबी)

पीक आरएसएस मेमोरी (एमबी)

सीपीयू

dynamic_int8

1024

1718

125.9

0.3

288

551

डिवाइस की परफ़ॉर्मेंस पर Tiny Garden का असर


बैकएंड

क्वांटाइज़ेशन स्कीम

कॉन्टेक्स्ट की लंबाई

प्रीफ़िल (टोकन प्रति सेकंड)

डिकोड करना (हर सेकंड टोकन)

टाइम-टू-फ़र्स्ट-टोकन (सेकंड)

मॉडल का साइज़ (एमबी)

पीक आरएसएस मेमोरी (एमबी)

सीपीयू

dynamic_int8

1024

1743

125.7

0.3

288

549

नीति और सुरक्षा

नैतिकता और सुरक्षा के आकलन का तरीका और नतीजे.

इवैलुएशन का तरीका

हमारा आकलन करने का तरीका, स्ट्रक्चर्ड आकलन और कॉन्टेंट से जुड़ी नीतियों की इंटरनल रेड-टीमिंग टेस्टिंग शामिल है. रेड-टीमिंग, कई अलग-अलग टीमों ने की. हर टीम के अलग-अलग लक्ष्य और इंसानों के आकलन की मेट्रिक थीं. इन मॉडल का आकलन, नैतिकता और सुरक्षा से जुड़ी कई अलग-अलग कैटगरी के हिसाब से किया गया. इनमें ये शामिल हैं:

  • बच्चों की सुरक्षा: टेक्स्ट-टू-टेक्स्ट और इमेज-टू-टेक्स्ट प्रॉम्प्ट का आकलन करना. इसमें बच्चों की सुरक्षा से जुड़ी नीतियों का पालन करना शामिल है. जैसे, बच्चों का यौन शोषण और उनका शोषण रोकना.
  • कॉन्टेंट की सुरक्षा: इसमें टेक्स्ट से टेक्स्ट और इमेज से टेक्स्ट वाले प्रॉम्प्ट का आकलन किया जाता है. इसमें उत्पीड़न, हिंसा और खून-खराबा, और नफ़रत फैलाने वाली भाषा से जुड़ी सुरक्षा नीतियां शामिल हैं.
  • प्रतिनिधित्व से जुड़ी समस्याएं: इसमें टेक्स्ट से टेक्स्ट और इमेज से टेक्स्ट वाले प्रॉम्प्ट का आकलन किया जाता है. इसमें सुरक्षा से जुड़ी नीतियां शामिल होती हैं. जैसे, पूर्वाग्रह, स्टीरियोटाइपिंग, और नुकसान पहुंचाने वाले जुड़ाव या गलतियां.

इवैलुएशन के नतीजे

सुरक्षा से जुड़ी सभी जांचों में, हमें पिछले Gemma मॉडल की तुलना में, बच्चों की सुरक्षा, कॉन्टेंट की सुरक्षा, और प्रतिनिधित्व से जुड़ी समस्याओं की कैटगरी में काफ़ी सुधार देखने को मिले. मॉडल की क्षमताओं और व्यवहारों का आकलन करने के लिए, सभी टेस्टिंग बिना सुरक्षा फ़िल्टर के की गई थी. इस मॉडल ने नीति के उल्लंघन से जुड़ी कम से कम समस्याएं पैदा कीं. साथ ही, बिना किसी आधार के अनुमान लगाने के मामले में, पिछले Gemma मॉडल की परफ़ॉर्मेंस के मुकाबले इस मॉडल की परफ़ॉर्मेंस में काफ़ी सुधार देखने को मिला. हमारी जांच में यह कमी थी कि इसमें सिर्फ़ अंग्रेज़ी भाषा के प्रॉम्प्ट शामिल थे.

इस्तेमाल और सीमाएं

इन मॉडल की कुछ सीमाएं हैं, जिनके बारे में उपयोगकर्ताओं को पता होना चाहिए.

इस्तेमाल का मकसद

इस मॉडल का इस्तेमाल, सीधे तौर पर बातचीत करने वाले मॉडल के तौर पर नहीं किया जाना चाहिए.
ओपन लार्ज लैंग्वेज मॉडल (एलएलएम) का इस्तेमाल, अलग-अलग इंडस्ट्री और डोमेन में कई तरह से किया जा सकता है. इस्तेमाल के संभावित उदाहरणों की यह सूची पूरी नहीं है. इस सूची का मकसद, इस्तेमाल के उन संभावित उदाहरणों के बारे में जानकारी देना है जिन पर मॉडल बनाने वालों ने मॉडल की ट्रेनिंग और डेवलपमेंट के दौरान विचार किया था.

  • कॉन्टेंट बनाना और कम्यूनिकेशन करना
    • टेक्स्ट जनरेट करना: इन मॉडल का इस्तेमाल, कविताएं, स्क्रिप्ट, कोड, मार्केटिंग कॉपी, और ईमेल के ड्राफ़्ट जैसे क्रिएटिव टेक्स्ट फ़ॉर्मैट जनरेट करने के लिए किया जा सकता है.
    • चैटबॉट और बातचीत वाला एआई: ग्राहक सेवा, वर्चुअल असिस्टेंट या इंटरैक्टिव ऐप्लिकेशन के लिए, बातचीत वाले इंटरफ़ेस को बेहतर बनाना.
    • टेक्स्ट की खास जानकारी जनरेट करना: टेक्स्ट कॉर्पस, रिसर्च पेपर या रिपोर्ट की खास जानकारी जनरेट करना.
  • रिसर्च और शिक्षा
    • नैचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) रिसर्च: ये मॉडल, शोधकर्ताओं के लिए एक आधार के तौर पर काम कर सकते हैं. इससे वे एनएलपी तकनीकों के साथ एक्सपेरिमेंट कर सकते हैं, एल्गोरिदम डेवलप कर सकते हैं, और इस फ़ील्ड को आगे बढ़ाने में योगदान दे सकते हैं.
    • भाषा सीखने में मदद करने वाले टूल: ये इंटरैक्टिव तरीके से भाषा सीखने में मदद करते हैं. साथ ही, व्याकरण की गलतियां ठीक करने या लिखने का अभ्यास करने में भी मदद करते हैं.
    • जानकारी एक्सप्लोर करना: यह सुविधा, शोधकर्ताओं को टेक्स्ट के बड़े-बड़े हिस्सों को एक्सप्लोर करने में मदद करती है. इसके लिए, यह खास जानकारी जनरेट करती है या किसी विषय के बारे में सवालों के जवाब देती है.

सीमाएं

  • ट्रेनिंग के लिए डेटा
    • ट्रेनिंग डेटा की क्वालिटी और विविधता, मॉडल की क्षमताओं पर काफ़ी असर डालती है. ट्रेनिंग डेटा में पक्षपात या कमियां होने की वजह से, मॉडल के जवाबों में कमियां हो सकती हैं.
    • ट्रेनिंग डेटासेट का दायरा तय करता है कि मॉडल किन विषयों को असरदार तरीके से हैंडल कर सकता है.
  • कॉन्टेक्स्ट और टास्क की जटिलता
    • मॉडल उन टास्क को बेहतर तरीके से पूरा करते हैं जिनके लिए साफ़ तौर पर प्रॉम्प्ट और निर्देश दिए गए हों. ऐसे टास्क जिनमें सवाल साफ़ तौर पर न पूछा गया हो या जो बहुत मुश्किल हों उन्हें पूरा करने में समस्या आ सकती है.
    • मॉडल की परफ़ॉर्मेंस पर, दिए गए कॉन्टेक्स्ट की मात्रा का असर पड़ सकता है. आम तौर पर, ज़्यादा कॉन्टेक्स्ट देने से बेहतर नतीजे मिलते हैं. हालांकि, ऐसा एक तय सीमा तक ही होता है.
  • भाषा से जुड़ी अस्पष्टता और बारीकियां
    • नैचुरल लैंग्वेज, अपने-आप में जटिल होती है. मॉडल को बारीकियों, व्यंग्य या मुहावरे वाली भाषा को समझने में मुश्किल हो सकती है.
  • तथ्यों का सही होना
    • मॉडल, अपने ट्रेनिंग डेटासेट से सीखी गई जानकारी के आधार पर जवाब जनरेट करते हैं. हालाँकि, ये मॉडल नॉलेज बेस नहीं होते. ये तथ्य के आधार पर गलत या पुरानी जानकारी दे सकते हैं.
  • Common Sense
    • मॉडल, भाषा में मौजूद आंकड़ों के पैटर्न पर निर्भर करते हैं. ऐसा हो सकता है कि वे कुछ स्थितियों में सामान्य ज्ञान का इस्तेमाल न कर पाएं.

नैतिक तौर पर अहम बातें और जोखिम

लार्ज लैंग्वेज मॉडल (एलएलएम) के डेवलपमेंट से, नैतिकता से जुड़ी कई समस्याएं पैदा होती हैं. ओपन मॉडल बनाते समय, हमने इन बातों का ध्यान रखा है:

  • पूर्वाग्रह और निष्पक्षता
    • बड़े पैमाने पर, असल दुनिया के टेक्स्ट डेटा पर ट्रेन किए गए एलएलएम, ट्रेनिंग के लिए इस्तेमाल किए गए डेटा में मौजूद सामाजिक-सांस्कृतिक पूर्वाग्रहों को दिखा सकते हैं. इन मॉडल की बारीकी से जांच की गई है. साथ ही, इनपुट डेटा की प्री-प्रोसेसिंग के बारे में बताया गया है. इसके अलावा, इस कार्ड में पोस्टेरियर इवैल्यूएशन की रिपोर्ट दी गई है.
  • गलत जानकारी और गलत इस्तेमाल
  • पारदर्शिता और जवाबदेही:
    • इस मॉडल कार्ड में, मॉडल के डिज़ाइन, क्षमताओं, सीमाओं, और आकलन की प्रोसेस के बारे में खास जानकारी दी गई है.
    • ज़िम्मेदारी के साथ तैयार किया गया ओपन मॉडल, इनोवेशन को शेयर करने का मौका देता है. इसके लिए, यह एआई इकोसिस्टम में मौजूद डेवलपर और शोधकर्ताओं के लिए, एलएलएम टेक्नोलॉजी को उपलब्ध कराता है.

पहचाने गए जोखिम और उन्हें कम करने के तरीके:

  • पूर्वाग्रहों को बढ़ावा मिलना: मॉडल की ट्रेनिंग, फ़ाइन-ट्यूनिंग, और इस्तेमाल के अन्य मामलों के दौरान, लगातार निगरानी करने का सुझाव दिया जाता है. इसके लिए, आकलन के मेट्रिक और मैन्युअल तरीके से समीक्षा करने का इस्तेमाल करें. साथ ही, पूर्वाग्रहों को कम करने की तकनीकों का इस्तेमाल करें.
  • नुकसान पहुंचाने वाला कॉन्टेंट जनरेट करना: कॉन्टेंट को सुरक्षित रखने के लिए, तरीकों और दिशा-निर्देशों का होना ज़रूरी है. डेवलपर को सलाह दी जाती है कि वे अपने प्रॉडक्ट की नीतियों और ऐप्लिकेशन के इस्तेमाल के उदाहरणों के आधार पर, कॉन्टेंट की सुरक्षा से जुड़े ज़रूरी उपाय लागू करते समय सावधानी बरतें.
  • नुकसान पहुंचाने के मकसद से गलत इस्तेमाल: एलएलएम के नुकसान पहुंचाने वाले ऐप्लिकेशन से बचने के लिए, तकनीकी सीमाओं और डेवलपर और उपयोगकर्ता की शिक्षा से मदद मिल सकती है. उपयोगकर्ताओं को शिक्षा से जुड़े संसाधन और गलत इस्तेमाल की शिकायत करने के तरीके उपलब्ध कराए जाते हैं. Gemma मॉडल के इस्तेमाल पर पाबंदी से जुड़ी जानकारी, Gemma के इस्तेमाल पर पाबंदी से जुड़ी नीति में दी गई है.
  • निजता का उल्लंघन: मॉडल को ऐसे डेटा पर ट्रेन किया गया था जिसे पीआईआई (व्यक्तिगत पहचान से जुड़ी जानकारी) हटाने के लिए फ़िल्टर किया गया था. डेवलपर को निजता को सुरक्षित रखने वाली तकनीकों के साथ, निजता के कानूनों का पालन करने के लिए प्रोत्साहित किया जाता है.

फ़ायदे

रिलीज़ के समय, मॉडल के इस फ़ैमिली में, ओपन लार्ज लैंग्वेज मॉडल के ऐसे इंप्लीमेंटेशन उपलब्ध कराए जाते हैं जो बेहतर परफ़ॉर्म करते हैं. इन्हें ज़िम्मेदारी के साथ एआई को डेवलप करने के लिए, शुरू से डिज़ाइन किया गया है. ये मॉडल, मिलते-जुलते साइज़ वाले मॉडल की तुलना में बेहतर परफ़ॉर्म करते हैं.