FunctionGemma मॉडल कार्ड

मॉडल पेज: FunctionGemma

संसाधन और तकनीकी दस्तावेज़:

इस्तेमाल की शर्तें: शर्तें
लेखक: Google DeepMind

मॉडल की जानकारी

इनपुट और आउटपुट के बारे में कम शब्दों में जानकारी और परिभाषा.

ब्यौरा

ध्यान दें: FunctionGemma को फ़ंक्शन कॉल करने से जुड़े आपके खास टास्क के लिए फ़ाइन-ट्यून किया गया है. इसमें कई बार इस्तेमाल किए जाने वाले फ़ंक्शन भी शामिल हैं.

FunctionGemma, Google का एक लाइटवेट और ओपन मॉडल है. इसे खास तौर पर फ़ंक्शन कॉल करने वाले मॉडल बनाने के लिए तैयार किया गया है. FunctionGemma को सीधे तौर पर बातचीत करने वाले मॉडल के तौर पर इस्तेमाल नहीं किया जा सकता. इसे इस तरह से डिज़ाइन किया गया है कि फ़ाइन-ट्यूनिंग के बाद, यह बेहतर परफ़ॉर्म कर सके. इस तरह के मॉडल के लिए, ऐसा करना आम बात है. FunctionGemma को Gemma 3 270M मॉडल पर बनाया गया है. साथ ही, इसे Gemini मॉडल में इस्तेमाल की गई रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है. इसे खास तौर पर फ़ंक्शन कॉलिंग के लिए ट्रेन किया गया है. इस मॉडल का आर्किटेक्चर, Gemma 3 जैसा ही है. हालांकि, इसमें चैट का फ़ॉर्मैट अलग है. यह मॉडल, सिर्फ़ टेक्स्ट वाले फ़ंक्शन कॉल के लिए सबसे सही है. इसका साइज़ बहुत छोटा है. इसलिए, इसे लैपटॉप, डेस्कटॉप या अपने क्लाउड इन्फ़्रास्ट्रक्चर जैसे सीमित संसाधनों वाले एनवायरमेंट में डिप्लॉय किया जा सकता है. इससे, एआई के बेहतरीन मॉडल का ऐक्सेस सभी को मिल जाता है और सभी के लिए इनोवेशन को बढ़ावा मिलता है. इसके अलावा, Gemma 270M की तरह ही इस मॉडल को भी अलग-अलग तरह के कामों के लिए ऑप्टिमाइज़ किया गया है. यह सिंगल टर्न वाले अलग-अलग हार्डवेयर पर अच्छी परफ़ॉर्म करता है. हालांकि, किसी खास डोमेन में सबसे सटीक नतीजे पाने के लिए, इसे सिंगल टर्न या मल्टीटर्न वाले टास्क के हिसाब से फ़ाइनट्यून किया जाना चाहिए. यह दिखाने के लिए कि 27 करोड़ पैरामीटर वाले मॉडल को खास एजेंटिक वर्कफ़्लो के लिए तैयार करके, बेहतर परफ़ॉर्मेंस हासिल की जा सकती है, हमने Google AI Edge Gallery ऐप्लिकेशन में दो इस्तेमाल के उदाहरण हाइलाइट किए हैं.

  • Tiny Garden: यह मॉडल, आवाज़ से कंट्रोल किए जाने वाले इंटरैक्टिव गेम को बेहतर बनाने के लिए बनाया गया है. यह गेम के लॉजिक को मैनेज करता है, ताकि ज़मीन के वर्चुअल प्लॉट को मैनेज किया जा सके. साथ ही, यह "सबसे ऊपर वाली लाइन में सूरजमुखी के फूल लगाओ" और "प्लॉट 1 और 2 में लगे फूलों को पानी दो" जैसे निर्देशों को ऐप्लिकेशन के हिसाब से फ़ंक्शन (जैसे, plant_seed, water_plots) में बदलता है और टारगेट को कोऑर्डिनेट करता है. इससे पता चलता है कि सर्वर से कनेक्ट किए बिना, मॉडल में कस्टम ऐप्लिकेशन के मेकेनिज़्म को चलाने की क्षमता है.

  • मोबाइल ऐक्शन: हमने डेटासेट और फ़ाइन-ट्यूनिंग रेसिपी पब्लिश की है, ताकि डेवलपर अपने विशेषज्ञ एजेंट बना सकें. इससे FunctionGemma को फ़ाइन-ट्यून करने के बारे में जानकारी मिलती है. यह उपयोगकर्ता के इनपुट का अनुवाद करता है. जैसे, "दोपहर के खाने के लिए कैलेंडर इवेंट बनाओ" और "फ़्लैशलाइट चालू करो" जैसे निर्देशों को, Android OS की सिस्टम टूल को ट्रिगर करने वाले फ़ंक्शन कॉल में बदलता है. इस इंटरैक्टिव नोटबुक में बताया गया है कि FunctionGemma के बेस मॉडल का इस्तेमाल करके, Google AI Edge गैलरी ऐप्लिकेशन में इस्तेमाल करने के लिए, "मोबाइल ऐक्शन" को स्क्रैच से कैसे फ़ाइन ट्यून किया जा सकता है. इस इस्तेमाल के उदाहरण से पता चलता है कि मॉडल, निजी डिवाइस पर किए जाने वाले कामों के लिए, ऑफ़लाइन और निजी एजेंट के तौर पर काम कर सकता है.

इनपुट और आउटपुट

  • इनपुट:
    • टेक्स्ट स्ट्रिंग, जैसे कि कोई सवाल, प्रॉम्प्ट या खास जानकारी देने के लिए कोई दस्तावेज़
    • इनपुट कॉन्टेक्स्ट के लिए कुल 32 हज़ार टोकन
  • आउटपुट:
    • इनपुट के जवाब में जनरेट किया गया टेक्स्ट. जैसे, किसी सवाल का जवाब या किसी दस्तावेज़ की खास जानकारी
    • हर अनुरोध के लिए, ज़्यादा से ज़्यादा 32 हज़ार टोकन का कुल आउटपुट कॉन्टेक्स्ट. इसमें अनुरोध के इनपुट टोकन शामिल नहीं हैं

मॉडल डेटा

मॉडल को ट्रेनिंग देने के लिए इस्तेमाल किया गया डेटा और डेटा को प्रोसेस करने का तरीका.

ट्रेनिंग के लिए इस्तेमाल किया गया डेटासेट

इन मॉडल को टेक्स्ट डेटा के ऐसे डेटासेट पर ट्रेन किया गया है जिसमें अलग-अलग तरह के सोर्स शामिल हैं. इस मॉडल को 60 खरब टोकन के साथ ट्रेन किया गया है. ट्रेनिंग डेटा के लिए, जानकारी के अपडेट होने की आखिरी तारीख अगस्त 2024 थी. यहां मुख्य कॉम्पोनेंट दिए गए हैं:

  • सार्वजनिक टूल की परिभाषाएं - वेब पर मौजूद सामान्य एपीआई
  • टूल इस्तेमाल करने से जुड़ी इंटरैक्शन - इनमें प्रॉम्प्ट, फ़ंक्शन कॉल, फ़ंक्शन के जवाब, और मॉडल से मिले सामान्य भाषा वाले जवाब शामिल होते हैं. इनका इस्तेमाल, फ़ंक्शन कॉल के जवाब की खास जानकारी देने या प्रॉम्प्ट के अस्पष्ट या अधूरा होने पर ज़्यादा जानकारी का अनुरोध करने के लिए किया जाता है.

डेटा प्रीप्रोसेसिंग

ट्रेनिंग डेटा पर, डेटा को साफ़ करने और फ़िल्टर करने के ये मुख्य तरीके लागू किए जाते हैं:

  • सीएसएएम फ़िल्टर करना: डेटा तैयार करने की प्रोसेस के कई चरणों में, सीएसएएम (बच्चों का यौन शोषण दिखाने वाला कॉन्टेंट) को फ़िल्टर करने की सख्त प्रक्रिया लागू की गई थी. इससे यह पक्का किया जा सका कि नुकसान पहुंचाने वाले और गैर-कानूनी कॉन्टेंट को शामिल न किया जाए.
  • संवेदनशील डेटा को फ़िल्टर करना: Gemma के प्री-ट्रेन किए गए मॉडल को सुरक्षित और भरोसेमंद बनाने के लिए, ऑटोमैटिक तकनीकों का इस्तेमाल किया गया. इससे ट्रेनिंग सेट से कुछ निजी जानकारी और अन्य संवेदनशील डेटा को फ़िल्टर किया गया.
  • अन्य तरीके: हमारी नीतियों के मुताबिक, कॉन्टेंट की क्वालिटी और सुरक्षा के आधार पर फ़िल्टर करना.

लागू करने से जुड़ी जानकारी

मॉडल के इंटरनल के बारे में जानकारी.

हार्डवेयर

Gemma को टेंसर प्रोसेसिंग यूनिट (टीपीयू) हार्डवेयर (TPUv4p, TPUv5p, और TPUv5e) का इस्तेमाल करके ट्रेन किया गया था. विजन-लैंग्वेज मॉडल (वीएलएम) को ट्रेन करने के लिए, काफ़ी कंप्यूटेशनल पावर की ज़रूरत होती है. TPU को खास तौर पर मैट्रिक्स ऑपरेशन के लिए डिज़ाइन किया गया है. ये ऑपरेशन, मशीन लर्निंग में आम तौर पर इस्तेमाल किए जाते हैं. इस डोमेन में TPU के कई फ़ायदे हैं:

  • परफ़ॉर्मेंस: टीपीयू को खास तौर पर, वीएलएम को ट्रेनिंग देने के लिए ज़रूरी बड़े पैमाने पर होने वाली कंप्यूटिंग को मैनेज करने के लिए डिज़ाइन किया गया है. ये सीपीयू की तुलना में ट्रेनिंग की प्रोसेस को काफ़ी तेज़ कर सकते हैं.
  • मेमोरी: टीपीयू में अक्सर ज़्यादा बैंडविड्थ वाली मेमोरी होती है. इससे ट्रेनिंग के दौरान बड़े मॉडल और बैच साइज़ को मैनेज किया जा सकता है. इससे मॉडल की क्वालिटी बेहतर हो सकती है.
  • स्केलेबिलिटी: टीपीयू पॉड (टीपीयू के बड़े क्लस्टर), बड़े फ़ाउंडेशन मॉडल की बढ़ती जटिलता को मैनेज करने के लिए, स्केलेबल समाधान उपलब्ध कराते हैं. ट्रेनिंग को कई टीपीयू डिवाइसों पर डिस्ट्रिब्यूट किया जा सकता है, ताकि इसे तेज़ी से और ज़्यादा असरदार तरीके से प्रोसेस किया जा सके.
  • किफ़ायती: कई मामलों में, सीपीयू पर आधारित इन्फ़्रास्ट्रक्चर की तुलना में टीपीयू, बड़े मॉडल को ट्रेन करने के लिए ज़्यादा किफ़ायती समाधान उपलब्ध करा सकते हैं. खास तौर पर, जब ट्रेनिंग में लगने वाले समय और संसाधनों की बचत को ध्यान में रखा जाता है. ऐसा इसलिए, क्योंकि टीपीयू की मदद से ट्रेनिंग ज़्यादा तेज़ी से होती है.
  • ये फ़ायदे, पर्यावरण को बेहतर बनाने के लिए Google की प्रतिबद्धताओं के मुताबिक हैं.

सॉफ़्टवेयर

इसे JAX और ML Pathways का इस्तेमाल करके ट्रेन किया गया है. JAX की मदद से, शोधकर्ता बड़े मॉडल को तेज़ी से और ज़्यादा असरदार तरीके से ट्रेन करने के लिए, टीपीयू जैसे हार्डवेयर की नई जनरेशन का फ़ायदा उठा सकते हैं. एमएल पाथवे, आर्टिफ़िशियल इंटेलिजेंस (एआई) वाले सिस्टम बनाने के लिए Google का नया तरीका है. ये सिस्टम, कई टास्क को सामान्य तौर पर पूरा कर सकते हैं. यह खास तौर पर फ़ाउंडेशन मॉडल के लिए सही है. इनमें लार्ज लैंग्वेज मॉडल भी शामिल हैं.
JAX और ML Pathways का इस्तेमाल एक साथ किया जाता है. इसके बारे में Gemini फ़ैमिली के मॉडल के बारे में लिखे गए पेपर में बताया गया है. "Jax और Pathways के 'सिंगल कंट्रोलर' प्रोग्रामिंग मॉडल की मदद से, एक ही Python प्रोसेस का इस्तेमाल करके पूरी ट्रेनिंग को मैनेज किया जा सकता है. इससे डेवलपमेंट वर्कफ़्लो को काफ़ी आसान बनाया जा सकता है."

आकलन

मॉडल के आकलन की मेट्रिक और नतीजे.

बेंचमार्क के नतीजे

Benchmark n-शॉट Function Gemma 270m
BFCL Simple बिना उदाहरण वाला प्रॉम्प्ट 61.6
BFCL Parallel बिना उदाहरण वाला प्रॉम्प्ट 63.5
BFCL Multiple बिना उदाहरण वाला प्रॉम्प्ट 39
BFCL पैरलल मल्टीपल बिना उदाहरण वाला प्रॉम्प्ट 29.5
BFCL Live Simple बिना उदाहरण वाला प्रॉम्प्ट 36.2
BFCL Live Parallel बिना उदाहरण वाला प्रॉम्प्ट 25.7
BFCL Live Multiple बिना उदाहरण वाला प्रॉम्प्ट 22.9
BFCL Live Parallel Multiple बिना उदाहरण वाला प्रॉम्प्ट 20.8
BFCL की प्रासंगिकता बिना उदाहरण वाला प्रॉम्प्ट 61.1
बीएफ़सीएल का नाम, काम का नहीं है बिना उदाहरण वाला प्रॉम्प्ट 70.6

मोबाइल ऐक्शन के डेटासेट पर फ़ाइन-ट्यून करने के बाद, परफ़ॉर्मेंस पर असर
भाषा के छोटे मॉडल के लिए स्पेशलाइज़ेशन की वैल्यू दिखाने के लिए, हमने "मोबाइल ऐक्शन" रेसिपी का इस्तेमाल करके, फ़ंक्शनGemma के बेस मॉडल की तुलना फ़ाइन-ट्यून किए गए मॉडल से की. फ़ाइन-ट्यूनिंग की मदद से, FunctionGemma के बेस मॉडल की परफ़ॉर्मेंस में काफ़ी सुधार हुआ है. अब यह मोबाइल सिस्टम कॉल को सही तरीके से पहचान सकता है और उन्हें फ़ॉर्मैट कर सकता है.


मॉडल

मोबाइल ऐक्शन के लिए आकलन के नतीजे

Base FunctionGemma मॉडल

58%

मोबाइल ऐक्शन को बेहतर बनाना

85%

Gemma 270m के फ़ाइन-ट्यून किए गए इस्तेमाल के उदाहरणों की ऑन-डिवाइस परफ़ॉर्मेंस
हमने Samsung S25 Ultra पर फ़ाइन-ट्यून किए गए इस्तेमाल के उदाहरणों का आकलन किया, ताकि ऑन-डिवाइस लेटेंसी और मेमोरी फ़ुटप्रिंट का पता लगाया जा सके.

  • कॉन्टेक्स्ट: 512 प्रीफ़िल टोकन और 32 डिकोड टोकन.
  • हार्डवेयर: S25 Ultra CPU, जिसमें LiteRT XNNPACK डेलिगेट का इस्तेमाल किया जा रहा है. इसमें चार थ्रेड हैं.

डिवाइस पर की जाने वाली कार्रवाइयों की परफ़ॉर्मेंस


बैकएंड

क्वांटाइज़ेशन स्कीम

कॉन्टेक्स्ट की लंबाई

प्रीफ़िल (टोकन प्रति सेकंड)

डिकोड करना (हर सेकंड टोकन)

टाइम-टू-फ़र्स्ट-टोकन (सेकंड)

मॉडल का साइज़ (एमबी)

पीक आरएसएस मेमोरी (एमबी)

सीपीयू

dynamic_int8

1024

1718

125.9

0.3

288

551

डिवाइस की परफ़ॉर्मेंस पर Tiny Garden का असर


बैकएंड

क्वांटाइज़ेशन स्कीम

कॉन्टेक्स्ट की लंबाई

प्रीफ़िल (टोकन प्रति सेकंड)

डिकोड करना (हर सेकंड टोकन)

टाइम-टू-फ़र्स्ट-टोकन (सेकंड)

मॉडल का साइज़ (एमबी)

पीक आरएसएस मेमोरी (एमबी)

सीपीयू

dynamic_int8

1024

1743

125.7

0.3

288

549

नीति और सुरक्षा

नैतिकता और सुरक्षा के आकलन का तरीका और नतीजे.

इवैलुएशन का तरीका

हमारा आकलन करने का तरीका, स्ट्रक्चर्ड आकलन और कॉन्टेंट से जुड़ी नीतियों की इंटरनल रेड-टीमिंग टेस्टिंग शामिल करता है. रेड-टीमिंग, कई अलग-अलग टीमों ने की. हर टीम के अलग-अलग लक्ष्य और इंसानों के आकलन की मेट्रिक थीं. इन मॉडल का आकलन, नैतिकता और सुरक्षा से जुड़ी कई कैटगरी के हिसाब से किया गया था. इनमें ये शामिल हैं:

  • बच्चों की सुरक्षा: टेक्स्ट-टू-टेक्स्ट और इमेज-टू-टेक्स्ट प्रॉम्प्ट का आकलन करना. इसमें बच्चों की सुरक्षा से जुड़ी नीतियां शामिल हैं. जैसे, बच्चों का यौन शोषण और उनका शोषण.
  • कॉन्टेंट की सुरक्षा: इसमें टेक्स्ट से टेक्स्ट और इमेज से टेक्स्ट वाले प्रॉम्प्ट का आकलन किया जाता है. इसमें सुरक्षा से जुड़ी नीतियां शामिल हैं. जैसे, उत्पीड़न, हिंसा और खून-खराबा, और नफ़रत फैलाने वाली भाषा.
  • प्रतिनिधित्व से जुड़ी समस्याएं: इसमें टेक्स्ट से टेक्स्ट और इमेज से टेक्स्ट वाले प्रॉम्प्ट का आकलन किया जाता है. इसमें सुरक्षा से जुड़ी नीतियां शामिल होती हैं. जैसे, पूर्वाग्रह, स्टीरियोटाइपिंग, और नुकसान पहुंचाने वाले जुड़ाव या गलतियां.

इवैलुएशन के नतीजे

सुरक्षा से जुड़ी सभी जांचों में, हमें पिछले Gemma मॉडल की तुलना में, बच्चों की सुरक्षा, कॉन्टेंट की सुरक्षा, और गलत जानकारी देने से होने वाले नुकसान की कैटगरी में काफ़ी सुधार देखने को मिले. मॉडल की क्षमताओं और व्यवहारों का आकलन करने के लिए, सभी टेस्टिंग बिना सुरक्षा फ़िल्टर के की गई थी. इस मॉडल ने नीति के उल्लंघन के मामलों में काफ़ी कमी की है. साथ ही, बिना किसी आधार के अनुमान लगाने के मामले में, पिछले Gemma मॉडल की परफ़ॉर्मेंस में काफ़ी सुधार किया है. हमारी जांच में यह कमी थी कि इसमें सिर्फ़ अंग्रेज़ी भाषा के प्रॉम्प्ट शामिल थे.

इस्तेमाल और सीमाएं

इन मॉडल की कुछ सीमाएं हैं, जिनके बारे में उपयोगकर्ताओं को पता होना चाहिए.

इस्तेमाल का मकसद

इस मॉडल का इस्तेमाल, सीधे तौर पर बातचीत करने वाले मॉडल के तौर पर नहीं किया जाना चाहिए.
ओपन लार्ज लैंग्वेज मॉडल (एलएलएम) का इस्तेमाल, अलग-अलग उद्योगों और डोमेन में कई तरह से किया जा सकता है. इस्तेमाल के संभावित उदाहरणों की यह सूची पूरी नहीं है. इस सूची का मकसद, मॉडल के इस्तेमाल के संभावित उदाहरणों के बारे में जानकारी देना है. मॉडल बनाने वालों ने मॉडल की ट्रेनिंग और डेवलपमेंट के दौरान इन उदाहरणों को ध्यान में रखा था.

  • कॉन्टेंट बनाना और कम्यूनिकेशन करना
    • टेक्स्ट जनरेशन: इन मॉडल का इस्तेमाल, कविताएं, स्क्रिप्ट, कोड, मार्केटिंग कॉपी, और ईमेल के ड्राफ़्ट जैसे क्रिएटिव टेक्स्ट फ़ॉर्मैट जनरेट करने के लिए किया जा सकता है.
    • चैटबॉट और बातचीत वाला एआई: ग्राहक सेवा, वर्चुअल असिस्टेंट या इंटरैक्टिव ऐप्लिकेशन के लिए, बातचीत वाले इंटरफ़ेस को बेहतर बनाना.
    • टेक्स्ट की खास जानकारी जनरेट करना: टेक्स्ट कॉर्पस, रिसर्च पेपर या रिपोर्ट की खास जानकारी जनरेट करें.
  • रिसर्च और शिक्षा
    • नैचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) रिसर्च: ये मॉडल, रिसर्चर के लिए एक आधार के तौर पर काम कर सकते हैं. इससे वे एनएलपी तकनीकों के साथ एक्सपेरिमेंट कर सकते हैं, एल्गोरिदम डेवलप कर सकते हैं, और इस फ़ील्ड को आगे बढ़ाने में योगदान दे सकते हैं.
    • भाषा सीखने में मदद करने वाले टूल: ये इंटरैक्टिव तरीके से भाषा सीखने में मदद करते हैं. साथ ही, व्याकरण की गलतियां ठीक करने या लिखने का अभ्यास करने में मदद करते हैं.
    • जानकारी एक्सप्लोर करना: यह सुविधा, शोधकर्ताओं को टेक्स्ट के बड़े-बड़े हिस्सों को एक्सप्लोर करने में मदद करती है. इसके लिए, यह खास जानकारी जनरेट करती है या किसी खास विषय के बारे में सवालों के जवाब देती है.

सीमाएं

  • ट्रेनिंग के लिए डेटा
    • ट्रेनिंग डेटा की क्वालिटी और विविधता, मॉडल की क्षमताओं पर काफ़ी असर डालती है. ट्रेनिंग डेटा में पक्षपात या कोई जानकारी मौजूद न होने की वजह से, मॉडल के जवाबों में कुछ कमियां हो सकती हैं.
    • ट्रेनिंग डेटासेट का दायरा तय करता है कि मॉडल किन विषयों को असरदार तरीके से हैंडल कर सकता है.
  • कॉन्टेक्स्ट और टास्क की जटिलता
    • मॉडल, ऐसे टास्क को बेहतर तरीके से पूरा करते हैं जिनके लिए साफ़ तौर पर प्रॉम्प्ट और निर्देश दिए गए हों. ऐसे टास्क जिनमें सवाल साफ़ तौर पर न पूछा गया हो या जो बेहद मुश्किल हों उन्हें पूरा करने में समस्या आ सकती है.
    • किसी मॉडल की परफ़ॉर्मेंस पर, दिए गए कॉन्टेक्स्ट की मात्रा का असर पड़ सकता है. आम तौर पर, ज़्यादा कॉन्टेक्स्ट देने से बेहतर आउटपुट मिलते हैं. हालांकि, ऐसा एक तय सीमा तक ही होता है.
  • भाषा से जुड़ी अस्पष्टता और बारीकियां
    • नैचुरल लैंग्वेज, अपने-आप में जटिल होती है. मॉडल को बारीकियों, व्यंग्य या मुहावरे वाली भाषा को समझने में मुश्किल हो सकती है.
  • तथ्यों का सही होना
    • मॉडल, अपने ट्रेनिंग डेटासेट से सीखी गई जानकारी के आधार पर जवाब जनरेट करते हैं. हालाँकि, ये मॉडल नॉलेज बेस नहीं होते. ये तथ्य के आधार पर गलत या पुरानी जानकारी दे सकते हैं.
  • Common Sense
    • मॉडल, भाषा में मौजूद आंकड़ों के पैटर्न पर निर्भर करते हैं. ऐसा हो सकता है कि कुछ स्थितियों में, वे सामान्य ज्ञान के आधार पर तर्क न दे पाएं.

नैतिक तौर पर अहम बातें और जोखिम

लार्ज लैंग्वेज मॉडल (एलएलएम) के डेवलपमेंट से, नैतिकता से जुड़ी कई समस्याएं पैदा होती हैं. ओपन मॉडल बनाते समय, हमने इन बातों का ध्यान रखा है:

  • पूर्वाग्रह और निष्पक्षता
    • बड़े पैमाने पर, असल दुनिया के टेक्स्ट डेटा पर ट्रेन किए गए एलएलएम, ट्रेनिंग के लिए इस्तेमाल किए गए डेटा में मौजूद सामाजिक-सांस्कृतिक पूर्वाग्रहों को दिखा सकते हैं. इन मॉडल की बारीकी से जांच की गई है. साथ ही, इनपुट डेटा की प्री-प्रोसेसिंग के बारे में बताया गया है. इसके अलावा, इस कार्ड में पोस्टेरियर इवैल्यूएशन की रिपोर्ट दी गई है.
  • गलत जानकारी और गलत इस्तेमाल
  • पारदर्शिता और जवाबदेही:
    • इस मॉडल कार्ड में, मॉडल के डिज़ाइन, क्षमताओं, सीमाओं, और आकलन की प्रोसेस के बारे में खास जानकारी दी गई है.
    • ज़िम्मेदारी के साथ डेवलप किया गया ओपन मॉडल, इनोवेशन को शेयर करने का मौका देता है. इससे एआई के पूरे नेटवर्क में, डेवलपर और शोधकर्ताओं के लिए एलएलएम टेक्नोलॉजी को ऐक्सेस करना आसान हो जाता है.

पहचाने गए जोखिम और उन्हें कम करने के तरीके:

  • पूर्वाग्रहों को बढ़ावा मिलना: मॉडल की ट्रेनिंग, फ़ाइन-ट्यूनिंग, और इस्तेमाल के अन्य मामलों के दौरान, लगातार निगरानी करने का सुझाव दिया जाता है. इसके लिए, आकलन के मेट्रिक और मैन्युअल तरीके से समीक्षा करने का इस्तेमाल किया जाता है. साथ ही, पूर्वाग्रहों को कम करने की तकनीकों का इस्तेमाल किया जाता है.
  • नुकसान पहुंचाने वाला कॉन्टेंट जनरेट करना: कॉन्टेंट को सुरक्षित रखने के लिए, तरीकों और दिशा-निर्देशों का होना ज़रूरी है. डेवलपर को सलाह दी जाती है कि वे सावधानी बरतें. साथ ही, अपने प्रॉडक्ट की नीतियों और ऐप्लिकेशन के इस्तेमाल के उदाहरणों के आधार पर, कॉन्टेंट की सुरक्षा से जुड़े ज़रूरी उपाय लागू करें.
  • नुकसान पहुंचाने के मकसद से गलत इस्तेमाल: एलएलएम के तकनीकी पहलुओं के बारे में जानकारी देने के साथ-साथ डेवलपर और उपयोगकर्ताओं को इसके बारे में शिक्षित करके, एलएलएम का इस्तेमाल नुकसान पहुंचाने वाले ऐप्लिकेशन के लिए किए जाने से रोका जा सकता है. लोगों को शिक्षा से जुड़े संसाधन और शिकायत करने के तरीके उपलब्ध कराए जाते हैं, ताकि वे इस सुविधा के गलत इस्तेमाल की शिकायत कर सकें. Gemma मॉडल के इस्तेमाल पर पाबंदी से जुड़ी जानकारी, Gemma के इस्तेमाल पर पाबंदी से जुड़ी नीति में दी गई है..
  • निजता का उल्लंघन: मॉडल को ऐसे डेटा पर ट्रेन किया गया था जिसे पीआईआई (व्यक्तिगत पहचान से जुड़ी जानकारी) हटाने के लिए फ़िल्टर किया गया था. डेवलपर को निजता बनाए रखने वाली तकनीकों का इस्तेमाल करके, निजता के कानूनों का पालन करने के लिए प्रोत्साहित किया जाता है.

फ़ायदे

रिलीज़ के समय, मॉडल के इस फ़ैमिली के तहत आने वाले मॉडल, ओपन लार्ज लैंग्वेज मॉडल को बेहतर तरीके से लागू करते हैं. इन्हें ज़िम्मेदारी के साथ एआई को डेवलप करने के लिए, शुरू से डिज़ाइन किया गया है. ये मॉडल, मिलते-जुलते साइज़ वाले मॉडल की तुलना में बेहतर परफ़ॉर्म करते हैं.