ডিজাইন আইকন দ্বারা দায়ী

নকশা দ্বারা দায়ী

ব্যাপক নিরাপত্তা ব্যবস্থা অন্তর্ভুক্ত করে, এই মডেলগুলি কিউরেটেড ডেটাসেট এবং কঠোর টিউনিংয়ের মাধ্যমে দায়িত্বশীল এবং বিশ্বস্ত AI সমাধানগুলি নিশ্চিত করতে সহায়তা করে।

অতুলনীয় পারফরম্যান্স আইকন

আকারে অতুলনীয় কর্মক্ষমতা

জেমা মডেলগুলি এর 2B, 7B, 9B এবং 27B আকারে ব্যতিক্রমী বেঞ্চমার্ক ফলাফল অর্জন করে, এমনকি কিছু বড় খোলা মডেলকে ছাড়িয়ে যায়।

ফ্রেমওয়ার্ক নমনীয়

নমনীয় স্থাপনা

Keras, JAX, MediaPipe, PyTorch, Hugging Face, এবং আরও অনেক কিছু ব্যবহার করে মোবাইল, ওয়েব এবং ক্লাউডে নির্বিঘ্নে স্থাপন করুন।

জেমা 2 চেষ্টা করুন

আউটসাইজ পারফরম্যান্স এবং অতুলনীয় দক্ষতার জন্য পুনরায় ডিজাইন করা হয়েছে, জেমা 2 বিভিন্ন হার্ডওয়্যারের উপর জ্বলন্ত-দ্রুত অনুমানের জন্য অপ্টিমাইজ করে।

5-শট

MMLU

MMLU বেঞ্চমার্ক হল একটি পরীক্ষা যা প্রাক-প্রশিক্ষণের সময় বৃহৎ ভাষার মডেল দ্বারা অর্জিত জ্ঞানের পরিধি এবং সমস্যা সমাধানের ক্ষমতা পরিমাপ করে।

25-শট

ARC-C

ARC-c বেঞ্চমার্ক হল ARC-e ডেটাসেটের আরও বেশি ফোকাসড সাবসেট, যেখানে শুধুমাত্র সাধারণ (পুনরুদ্ধার-বেস এবং শব্দ সহ-ঘটনা) অ্যালগরিদম দ্বারা ভুল উত্তর দেওয়া প্রশ্ন রয়েছে।

5-শট

GSM8K

GSM8K বেঞ্চমার্ক একটি ভাষা মডেলের গ্রেড-স্কুল-স্তরের গণিত সমস্যাগুলি সমাধান করার ক্ষমতা পরীক্ষা করে যার জন্য প্রায়শই একাধিক পদক্ষেপের যুক্তির প্রয়োজন হয়।

3-5-শট

AGIEval

AGIEval বেঞ্চমার্ক মানুষের বৌদ্ধিক ক্ষমতা মূল্যায়ন করার জন্য ডিজাইন করা বাস্তব-বিশ্ব পরীক্ষা থেকে প্রাপ্ত প্রশ্ন ব্যবহার করে একটি ভাষা মডেলের সাধারণ বুদ্ধিমত্তা পরীক্ষা করে।

3-শট, CoT

বিবিএইচ

বিবিএইচ (বিআইজি-বেঞ্চ হার্ড) বেঞ্চমার্ক বর্তমান ভাষার মডেলের ক্ষমতার বাইরে বিবেচিত কাজগুলির উপর ফোকাস করে, বিভিন্ন যুক্তি এবং বোঝার ডোমেন জুড়ে তাদের সীমা পরীক্ষা করে।

3-শট, F1

ড্রপ

DROP হল একটি রিডিং কম্প্রিহেনশন বেঞ্চমার্ক যার জন্য অনুচ্ছেদের উপর আলাদা যুক্তির প্রয়োজন হয়।

5-শট

উইনোগ্রান্ডে

Winogrande বেঞ্চমার্ক বাইনারি বিকল্পগুলির সাথে অস্পষ্ট ফিল-ইন-দ্য-শূন্য কাজগুলি সমাধান করার জন্য একটি ভাষা মডেলের ক্ষমতা পরীক্ষা করে, সাধারণীকৃত কমনসেন্স যুক্তির প্রয়োজন হয়।

10-শট

HellaSwag

HellaSwag বেঞ্চমার্ক একটি গল্পের সবচেয়ে যৌক্তিক সমাপ্তি নির্বাচন করে একটি ভাষা মডেলের সাধারণ জ্ঞানের যুক্তি বোঝার এবং প্রয়োগ করার ক্ষমতাকে চ্যালেঞ্জ করে।

4-শট

গণিত

MATH একটি ভাষা মডেলের জটিল গাণিতিক শব্দ সমস্যাগুলি সমাধান করার ক্ষমতা মূল্যায়ন করে, যার জন্য যুক্তি, বহু-পদক্ষেপ সমস্যা-সমাধান এবং গাণিতিক ধারণাগুলির বোঝার প্রয়োজন।

0-শট

ARC-ই

ARC-e বেঞ্চমার্ক প্রকৃত গ্রেড-স্কুল স্তর, বহুনির্বাচনী বিজ্ঞানের প্রশ্নগুলির সাথে একটি ভাষা মডেলের উন্নত প্রশ্ন-উত্তর দক্ষতা পরীক্ষা করে।

0-শট

PIQA

PIQA বেঞ্চমার্ক একটি ভাষা মডেলের দৈনন্দিন শারীরিক মিথস্ক্রিয়া সম্পর্কে প্রশ্নের উত্তর দিয়ে শারীরিক কমনসেন্স জ্ঞান বোঝার এবং প্রয়োগ করার ক্ষমতা পরীক্ষা করে।

0-শট

SIQA

SIQA বেঞ্চমার্ক মানুষের ক্রিয়াকলাপ এবং তাদের সামাজিক প্রভাব সম্পর্কে প্রশ্ন জিজ্ঞাসা করে একটি ভাষা মডেলের সামাজিক মিথস্ক্রিয়া এবং সামাজিক সাধারণ জ্ঞানের বোঝার মূল্যায়ন করে।

0-শট

বুলক

BoolQ বেঞ্চমার্ক একটি ভাষা মডেলের স্বাভাবিকভাবে হ্যাঁ/না প্রশ্নের উত্তর দেওয়ার ক্ষমতা পরীক্ষা করে, বাস্তব-বিশ্বের প্রাকৃতিক ভাষা অনুমান কাজগুলি করার মডেলের ক্ষমতা পরীক্ষা করে।

5-শট

ট্রিভিয়াকিউএ

TriviaQA বেঞ্চমার্ক প্রশ্ন-উত্তর-প্রমাণ ট্রিপল সহ পড়ার বোঝার দক্ষতা পরীক্ষা করে।

5-শট

NQ

NQ (প্রাকৃতিক প্রশ্ন) বেঞ্চমার্ক বাস্তব-বিশ্বের প্রশ্ন-উত্তর পরিস্থিতির অনুকরণ করে সমগ্র উইকিপিডিয়া নিবন্ধগুলির মধ্যে উত্তরগুলি খুঁজে পাওয়ার এবং বোঝার জন্য একটি ভাষা মডেলের ক্ষমতা পরীক্ষা করে।

পাস@1

হিউম্যান ইভাল

হিউম্যানইভাল বেঞ্চমার্ক একটি ভাষা মডেলের কোড তৈরির ক্ষমতা পরীক্ষা করে এর সমাধানগুলি প্রোগ্রামিং সমস্যার জন্য কার্যকরী ইউনিট পরীক্ষায় উত্তীর্ণ হয় কিনা তা মূল্যায়ন করে।

3-শট

এমবিপিপি

MBPP বেঞ্চমার্ক মৌলিক প্রোগ্রামিং ধারণা এবং স্ট্যান্ডার্ড লাইব্রেরি ব্যবহারের উপর ফোকাস করে মৌলিক পাইথন প্রোগ্রামিং সমস্যাগুলি সমাধান করার জন্য একটি ভাষা মডেলের ক্ষমতা পরীক্ষা করে।

100%

75%

৫০%

২৫%

0%

100%

75%

৫০%

২৫%

0%

জেমা ঘ

2.5B

42.3

জেমা 2

2.6B

51.3

মিস্ট্রাল

7B

62.5

লামা ৩

8 বি

৬৬.৬

জেমা ঘ

7B

64.4

জেমা 2

9B

71.3

জেমা 2

27বি

75.2

জেমা ঘ

2.5B

48.5

জেমা 2

2.6B

55.4

মিস্ট্রাল

7B

৬০.৫

লামা ৩

8 বি

59.2

জেমা ঘ

7B

61.1

জেমা 2

9B

৬৮.৪

জেমা 2

27বি

71.4

জেমা ঘ

2.5B

15.1

জেমা 2

2.6B

23.9

মিস্ট্রাল

7B

39.6

লামা ৩

8 বি

৪৫.৭

জেমা ঘ

7B

51.8

জেমা 2

9B

৬৮.৬

জেমা 2

27বি

74.0

জেমা ঘ

2.5B

24.2

জেমা 2

2.6B

30.6

মিস্ট্রাল

7B

44.0

লামা ৩

8 বি

৪৫.৯

জেমা ঘ

7B

44.9

জেমা 2

9B

52.8

জেমা 2

27বি

55.1

জেমা ঘ

2.5B

35.2

জেমা 2

2.6B

41.9

মিস্ট্রাল

7B

56.0

লামা ৩

8 বি

61.1

জেমা ঘ

7B

59.0

জেমা 2

9B

৬৮.২

জেমা 2

27বি

74.9

জেমা ঘ

2.5B

48.5

জেমা 2

2.6B

52.0

মিস্ট্রাল

7B

৬৩.৮

লামা ৩

8 বি

58.4

জেমা ঘ

7B

56.3

জেমা 2

9B

69.4

জেমা 2

27বি

74.2

জেমা ঘ

2.5B

৬৬.৮

জেমা 2

2.6B

70.9

মিস্ট্রাল

7B

78.5

লামা ৩

8 বি

76.1

জেমা ঘ

7B

79.0

জেমা 2

9B

80.6

জেমা 2

27বি

৮৩.৭

জেমা ঘ

2.5B

71.7

জেমা 2

2.6B

73.0

মিস্ট্রাল

7B

83.0

লামা ৩

8 বি

82.0

জেমা ঘ

7B

৮২.৩

জেমা 2

9B

৮১.৯

জেমা 2

27বি

৮৬.৪

জেমা ঘ

2.5B

11.8

জেমা 2

2.6B

15.0

মিস্ট্রাল

7B

12.7

জেমা ঘ

7B

24.3

জেমা 2

9B

36.6

জেমা 2

27বি

42.3

জেমা ঘ

2.5B

73.2

জেমা 2

2.6B

80.1

মিস্ট্রাল

7B

80.5

জেমা ঘ

7B

৮১.৫

জেমা 2

9B

৮৮.০

জেমা 2

27বি

৮৮.৬

জেমা ঘ

2.5B

77.3

জেমা 2

2.6B

77.8

মিস্ট্রাল

7B

82.2

জেমা ঘ

7B

৮১.২

জেমা 2

9B

৮১.৭

জেমা 2

27বি

৮৩.২

জেমা ঘ

2.5B

49.7

জেমা 2

2.6B

51.9

মিস্ট্রাল

7B

47.0

জেমা ঘ

7B

51.8

জেমা 2

9B

53.4

জেমা 2

27বি

53.7

জেমা ঘ

2.5B

69.4

জেমা 2

2.6B

72.5

মিস্ট্রাল

7B

৮৩.২

জেমা ঘ

7B

৮৩.২

জেমা 2

9B

৮৪.২

জেমা 2

27বি

৮৪.৮

জেমা ঘ

2.5B

53.2

জেমা 2

2.6B

59.4

মিস্ট্রাল

7B

62.5

জেমা ঘ

7B

63.4

জেমা 2

9B

76.6

জেমা 2

27বি

৮৩.৭

জেমা ঘ

2.5B

12.5

জেমা 2

2.6B

16.7

মিস্ট্রাল

7B

23.2

জেমা ঘ

7B

23.0

জেমা 2

9B

29.2

জেমা 2

27বি

34.5

জেমা ঘ

2.5B

22.0

জেমা 2

2.6B

17.7

মিস্ট্রাল

7B

26.2

জেমা ঘ

7B

32.3

জেমা 2

9B

40.2

জেমা 2

27বি

51.8

জেমা ঘ

2.5B

29.2

জেমা 2

2.6B

29.6

মিস্ট্রাল

7B

40.2

জেমা ঘ

7B

44.4

জেমা 2

9B

52.4

জেমা 2

27বি

62.6

*এগুলি হল প্রাক-প্রশিক্ষিত মডেলের মানদণ্ড, অন্যান্য পদ্ধতির সাথে পারফরম্যান্সের বিস্তারিত জানার জন্য প্রযুক্তিগত প্রতিবেদনটি দেখুন।

PaliGemma 2 নতুন

PaliGemma 2 Gemma 2 ভাষার মডেলগুলিতে সহজেই সূক্ষ্ম-টিউনযোগ্য দৃষ্টি ক্ষমতা নিয়ে আসে, যা পাঠ্য এবং চিত্র বোঝার সমন্বয়ে বিস্তৃত অ্যাপ্লিকেশন সক্ষম করে।

ডেটাজেমা

DataGemma হল প্রথম উন্মুক্ত মডেল যা LLM-গুলিকে Google-এর Data Commons থেকে নেওয়া ব্যাপক বাস্তব-বিশ্বের ডেটার সাথে সংযুক্ত করার জন্য ডিজাইন করা হয়েছে।

জেমা স্কোপ

জেমা স্কোপ আমাদের জেমা 2 মডেলের সিদ্ধান্ত গ্রহণের প্রক্রিয়াগুলিতে গবেষকদের অভূতপূর্ব স্বচ্ছতা প্রদান করে।

নির্মাণ করুন

জেম্মা দিয়ে নির্মাণ শুরু করুন

জেমা কুকবুক পড়ুন

গুগলের খোলা মডেলের জন্য ব্যবহারিক উদাহরণ ও টিউটোরিয়াল

আলিঙ্গন মুখের লোগো

আলিঙ্গন মুখ

এই নোটবুকটি দেখায় কিভাবে ডিপিও (ডাইরেক্ট প্রেফারেন্স অপ্টিমাইজেশান) ব্যবহার করে একটি জেমা-2 মডেল সারিবদ্ধ করা যায়।

NVIDIA লোগো

এনভিডিয়া

NVIDIA NeMo ফ্রেমওয়ার্কের সাথে Gemma মডেলগুলিকে ফাইন-টিউন করুন এবং উৎপাদনের জন্য TensorRT-LLM-এ রপ্তানি করুন।

ওল্লামা লোগো

ওল্লামা

ওল্লামা ব্যবহার করে একটি জেমা মডেলে স্থানীয়ভাবে অনুমান চালান।

আনস্লথ লোগো

আনস্লথ

UnSloth ব্যবহার করে দ্রুত এবং মেমরি-দক্ষ Gemma 2 (9B) ফাইন-টিউনিং আনলক করুন।