يشرح هذا الدليل التوجيهي كيفية الوصول إلى Gemini API مباشرةً من تطبيق Android يستخدم حزمة تطوير البرامج (SDK) الخاصة ببرنامج "تكنولوجيات الذكاء الاصطناعي من Google" لنظام التشغيل Android يمكنك استخدام هذه الصفحة عميل SDK إذا كنت لا تريد العمل مباشرةً باستخدام واجهات برمجة تطبيقات REST أو رمز من جهة الخادم (مثل Python) للوصول إلى نماذج Gemini في تطبيق Android.
في هذا البرنامج التعليمي، ستتعرف على كيفية إجراء ما يلي:
- إعداد مشروعك، بما في ذلك مفتاح واجهة برمجة التطبيقات
- إنشاء نص من إدخال نص فقط
- إنشاء نص من إدخال النص والصورة (متعدد الوسائط)
- إنشاء محادثات متعددة الأدوار (محادثة)
- استخدام البث المباشر للتفاعلات بشكل أسرع
بالإضافة إلى ذلك، يحتوي هذا البرنامج التعليمي على أقسام حول حالات الاستخدام المتقدمة (مثل عدد الرموز المميزة) بالإضافة إلى خيارات التحكّم في إنشاء المحتوى
ننصحك بالوصول إلى Gemini على الجهاز فقط
تتيح لك حزمة تطوير البرامج (SDK) للعميل لنظام التشغيل Android الموضَّحة في هذا البرنامج التعليمي الوصول إلى نماذج Gemini Pro التي تعمل على خوادم Google بالنسبة إلى حالات الاستخدام التي تشمل معالجة البيانات الحساسة أو التوافر في وضع عدم الاتصال أو لتوفير التكاليف مسارات المستخدمين الشائعة، ننصحك بالوصول إلى Gemini Nano والتي تعمل على الجهاز لمزيد من التفاصيل، يُرجى الرجوع إلى الدليل التعليمي لنظام التشغيل Android (على الجهاز)
المتطلبات الأساسية
يفترض هذا البرنامج التعليمي أنك على دراية باستخدام "استوديو Android" وتطوير تطبيقات Android.
لإكمال هذا البرنامج التعليمي، تأكد من أن بيئة التطوير يستوفي تطبيق Android المتطلبات التالية:
- Android Studio (أحدث إصدار)
- يجب أن يستهدف تطبيق Android المستوى 21 من واجهة برمجة التطبيقات أو المستويات الأعلى.
إعداد مشروعك
قبل طلب واجهة Gemini API، يجب إعداد مشروع Android الخاص بك، وهو: إعداد مفتاح واجهة برمجة التطبيقات وإضافة اعتماديات حزمة تطوير البرامج (SDK) إلى نظام التشغيل Android للمشروع، وتهيئة النموذج.
إعداد مفتاح واجهة برمجة التطبيقات
لاستخدام Gemini API، يجب توفُّر مفتاح واجهة برمجة تطبيقات. إذا لم يكن لديك واحد بالفعل، إنشاء مفتاح في Google AI Studio
الحصول على مفتاح واجهة برمجة التطبيقات
تأمين مفتاح واجهة برمجة التطبيقات
ننصحك بشدة بعدم التحقّق من مفتاح واجهة برمجة التطبيقات في إصدارك.
نظام التحكم. بدلاً من ذلك، عليك تخزينها في ملف local.properties
.
(والذي يقع في الدليل الجذري لمشروعك، ولكنه مستبعد من الإصدار
والتحكم فيها)، ثم استخدام
المكوّن الإضافي Secret Gradle لأجهزة Android
لقراءة مفتاح واجهة برمجة التطبيقات كمتغير تهيئة الإصدار.
Kotlin
// Access your API key as a Build Configuration variable
val apiKey = BuildConfig.apiKey
Java
// Access your API key as a Build Configuration variable
String apiKey = BuildConfig.apiKey;
تستخدم جميع المقتطفات في هذا البرنامج التعليمي أفضل الممارسات هذه. أيضًا، إذا
لمعرفة تنفيذ المكوّن الإضافي Secret Gradle، يمكنك مراجعة
نموذج تطبيق
لحزمة تطوير البرامج (SDK) هذه أو استخدام أحدث معاينة لـ "استوديو Android" في إغوانا
نموذج Gemini API Starter
(وهذا يتضمن ملف local.properties
لمساعدتك على البدء).
إضافة الاعتمادية لحزمة تطوير البرامج (SDK) إلى مشروعك
في ملف إعداد Gradle للوحدة (على مستوى التطبيق) (مثل
<project>/<app-module>/build.gradle.kts
)، أضف تبعية حزمة تطوير البرامج (SDK) لتكنولوجيات الذكاء الاصطناعي من Google لنظام التشغيل Android:Kotlin
dependencies { // ... other androidx dependencies // add the dependency for the Google AI client SDK for Android implementation("com.google.ai.client.generativeai:generativeai:0.9.0") }
Java
بالنسبة إلى Java، يجب إضافة مكتبتين إضافيتين.
dependencies { // ... other androidx dependencies // add the dependency for the Google AI client SDK for Android implementation("com.google.ai.client.generativeai:generativeai:0.9.0") // Required for one-shot operations (to use `ListenableFuture` from Guava Android) implementation("com.google.guava:guava:31.0.1-android") // Required for streaming operations (to use `Publisher` from Reactive Streams) implementation("org.reactivestreams:reactive-streams:1.0.4") }
مزامنة مشروع Android مع ملفات Gradle
إعداد النموذج التوليدي
قبل أن تتمكّن من إجراء أيّ طلبات بيانات من واجهة برمجة التطبيقات، عليك إعداد النموذج التوليدي:
Kotlin
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with most use cases
modelName = "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
apiKey = BuildConfig.apiKey
)
Java
في لغة Java، يجب أيضًا إعداد الكائن GenerativeModelFutures
.
// Use a model that's applicable for your use case
// The Gemini 1.5 models are versatile and work with most use cases
GenerativeModel gm = new GenerativeModel(/* modelName */ "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
/* apiKey */ BuildConfig.apiKey);
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
عند تحديد نموذج، يُرجى مراعاة ما يلي:
استخدِم نموذجًا مخصَّصًا لحالة الاستخدام (مثل
gemini-1.5-flash
). مخصص للإدخال متعدد الوسائط). في هذا الدليل، ستشمل التعليمات الخاصة بكل قائمة التنفيذ النموذج الموصى به لكل حالة استخدام.
تنفيذ حالات الاستخدام الشائعة
بعد الانتهاء من إعداد مشروعك، يمكنك الآن استخدام Gemini API من أجل تنفيذ حالات استخدام مختلفة:
- إنشاء نص من إدخال نص فقط
- إنشاء نص من إدخال النص والصورة (متعدد الوسائط)
- إنشاء محادثات متعددة الأدوار (محادثة)
- استخدام البث المباشر للتفاعلات بشكل أسرع
إنشاء نص من إدخال نص فقط
عندما يتضمّن الإدخال المخصّص نصًا فقط، يُرجى استخدام نموذج Gemini 1.5 أو
نموذج Gemini 1.0 Pro مع "generateContent
" لإنشاء إخراج النص:
Kotlin
تجدر الإشارة إلى أن generateContent()
هي دالة تعليق ويجب
يتم استدعاؤه من نطاق الكوروتين. إذا لم تكن معتادًا على استخدام الكوروتين، فاقرأ
Kotlin Coroutines على Android.
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
modelName = "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
apiKey = BuildConfig.apiKey
)
val prompt = "Write a story about a magic backpack."
val response = generativeModel.generateContent(prompt)
print(response.text)
Java
يُرجى العِلم أنّ السمة generateContent()
تعرض الخطأ ListenableFuture
. في حال حذف
لست على دراية بواجهة برمجة التطبيقات هذه، فراجع وثائق Android حول
استخدام ListenableFuture
:
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
GenerativeModel gm = new GenerativeModel(/* modelName */ "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
/* apiKey */ BuildConfig.apiKey);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Content content = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
Executor executor = // ...
ListenableFuture<GenerateContentResponse> response = model.generateContent(content);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
إنشاء نص من إدخال النص والصورة (متعدد الوسائط)
يوفّر Gemini نماذج مختلفة يمكنها التعامل مع الإدخالات المتعدّدة الوسائط (نموذج Gemini 1.5) لتتمكن من إدخال النصوص والصور احرص على ما يلي: راجِع المتطلبات المتعلقة بالصورة.
عندما يتضمّن إدخال الطلب نصًا وصورًا، استخدِم نموذج Gemini 1.5 مع
generateContent
لإنشاء إخراج نصي:
Kotlin
تجدر الإشارة إلى أن generateContent()
هي دالة تعليق ويجب
يتم استدعاؤه من نطاق الكوروتين. إذا لم تكن معتادًا على استخدام الكوروتين، فاقرأ
Kotlin Coroutines على Android.
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
modelName = "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
apiKey = BuildConfig.apiKey
)
val image1: Bitmap = // ...
val image2: Bitmap = // ...
val inputContent = content {
image(image1)
image(image2)
text("What's different between these pictures?")
}
val response = generativeModel.generateContent(inputContent)
print(response.text)
Java
يُرجى العِلم أنّ السمة generateContent()
تعرض الخطأ ListenableFuture
. في حال حذف
لست على دراية بواجهة برمجة التطبيقات هذه، فراجع وثائق Android حول
استخدام ListenableFuture
:
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
GenerativeModel gm = new GenerativeModel(/* modelName */ "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
/* apiKey */ BuildConfig.apiKey);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Bitmap image1 = // ...
Bitmap image2 = // ...
Content content = new Content.Builder()
.addText("What's different between these pictures?")
.addImage(image1)
.addImage(image2)
.build();
Executor executor = // ...
ListenableFuture<GenerateContentResponse> response = model.generateContent(content);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
إنشاء محادثات متعددة الأدوار (الدردشة)
باستخدام Gemini، يمكنك إجراء محادثات حرة بين مختلف الأدوار. تشير رسالة الأشكال البيانية
تعمل SDK على تبسيط العملية من خلال إدارة حالة المحادثة، بحيث لا
مع generateContent
، لن تحتاج إلى تخزين سجلّ المحادثات
نفسك.
لبدء محادثة متعددة الأدوار (مثل المحادثة)، استخدِم نموذج Gemini 1.5 أو
نموذج Gemini 1.0 Pro، وبدء المحادثة من خلال الاتصال بالرقم startChat()
.
بعد ذلك، استخدِم sendMessage()
لإرسال رسالة جديدة للمستخدم، والتي ستؤدي أيضًا إلى إلحاق
الرسالة والرد على سجل الدردشة.
ثمة خياران محتملان لحساب role
المرتبط بالمحتوى في
المحادثة:
user
: الدور الذي يقدّم الطلبات هذه القيمة هي القيمة الافتراضيةsendMessage
مكالمةmodel
: الدور الذي يقدّم الردود يمكن استخدام هذا الدور عندما جارٍ الاتصال بـstartChat()
باستخدامhistory
الحالي.
Kotlin
تجدر الإشارة إلى أن generateContent()
هي دالة تعليق ويجب
يتم استدعاؤه من نطاق الكوروتين. إذا لم تكن معتادًا على استخدام الكوروتين، فاقرأ
Kotlin Coroutines على Android.
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with multi-turn conversations (like chat)
modelName = "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
apiKey = BuildConfig.apiKey
)
val chat = generativeModel.startChat(
history = listOf(
content(role = "user") { text("Hello, I have 2 dogs in my house.") },
content(role = "model") { text("Great to meet you. What would you like to know?") }
)
)
chat.sendMessage("How many paws are in my house?")
Java
يُرجى العِلم أنّ السمة generateContent()
تعرض الخطأ ListenableFuture
. في حال حذف
لست على دراية بواجهة برمجة التطبيقات هذه، فراجع وثائق Android حول
استخدام ListenableFuture
:
// The Gemini 1.5 models are versatile and work with multi-turn conversations (like chat)
GenerativeModel gm = new GenerativeModel(/* modelName */ "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
/* apiKey */ BuildConfig.apiKey);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// (optional) Create previous chat history for context
Content.Builder userContentBuilder = new Content.Builder();
userContentBuilder.setRole("user");
userContentBuilder.addText("Hello, I have 2 dogs in my house.");
Content userContent = userContentBuilder.build();
Content.Builder modelContentBuilder = new Content.Builder();
modelContentBuilder.setRole("model");
modelContentBuilder.addText("Great to meet you. What would you like to know?");
Content modelContent = userContentBuilder.build();
List<Content> history = Arrays.asList(userContent, modelContent);
// Initialize the chat
ChatFutures chat = model.startChat(history);
// Create a new user message
Content.Builder userMessageBuilder = new Content.Builder();
userMessageBuilder.setRole("user");
userMessageBuilder.addText("How many paws are in my house?");
Content userMessage = userMessageBuilder.build();
Executor executor = // ...
// Send the message
ListenableFuture<GenerateContentResponse> response = chat.sendMessage(userMessage);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
استخدام البث المباشر للتفاعلات بشكل أسرع
يعرض النموذج تلقائيًا ردًّا بعد إكمال عملية الإنشاء بالكامل. الدفع. ويمكنك تحقيق تفاعلات أسرع من خلال عدم انتظار الحدث بأكمله والنتيجة، واستخدام البث لمعالجة النتائج الجزئية بدلاً من ذلك.
يوضح المثال التالي كيفية تنفيذ البث باستخدام
generateContentStream
لإنشاء نص من طلب إدخال نص وصورة.
Kotlin
تجدر الإشارة إلى أن generateContentStream()
هي دالة تعليق ويجب
يتم استدعاؤه من نطاق الكوروتين. إذا لم تكن معتادًا على استخدام الكوروتين، فاقرأ
Kotlin Coroutines على Android.
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
modelName = "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
apiKey = BuildConfig.apiKey
)
val image1: Bitmap = // ...
val image2: Bitmap = // ...
val inputContent = content {
image(image1)
image(image2)
text("What's the difference between these pictures?")
}
var fullResponse = ""
generativeModel.generateContentStream(inputContent).collect { chunk ->
print(chunk.text)
fullResponse += chunk.text
}
Java
تعرض طرق بث Java في حزمة تطوير البرامج (SDK) هذه النوع Publisher
.
من أحداث البث التفاعلية
المكتبة.
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
GenerativeModel gm = new GenerativeModel(/* modelName */ "gemini-1.5-flash",
// Access your API key as a Build Configuration variable (see "Set up your API key" above)
/* apiKey */ BuildConfig.apiKey);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Bitmap image1 = // ...
Bitmap image2 = // ...
Content content = new Content.Builder()
.addText("What's different between these pictures?")
.addImage(image1)
.addImage(image2)
.build();
Publisher<GenerateContentResponse> streamingResponse =
model.generateContentStream(content);
StringBuilder outputContent = new StringBuilder();
streamingResponse.subscribe(new Subscriber<GenerateContentResponse>() {
@Override
public void onNext(GenerateContentResponse generateContentResponse) {
String chunk = generateContentResponse.getText();
outputContent.append(chunk);
}
@Override
public void onComplete() {
System.out.println(outputContent);
}
@Override
public void onError(Throwable t) {
t.printStackTrace();
}
@Override
public void onSubscribe(Subscription s) {
s.request(Long.MAX_VALUE);
}
});
يمكنك اتباع طريقة مشابهة لحالات استخدام إدخال النص فقط والدردشة:
Kotlin
تجدر الإشارة إلى أن generateContentStream()
هي دالة تعليق ويجب
يتم استدعاؤه من نطاق الكوروتين. إذا لم تكن معتادًا على استخدام الكوروتين، فاقرأ
Kotlin Coroutines على Android.
// Use streaming with text-only input
generativeModel.generateContentStream(inputContent).collect { chunk ->
print(chunk.text)
}
// Use streaming with multi-turn conversations (like chat)
val chat = generativeModel.startChat()
chat.sendMessageStream(inputContent).collect { chunk ->
print(chunk.text)
}
Java
تعرض طرق بث Java في حزمة تطوير البرامج (SDK) هذه النوع Publisher
.
من أحداث البث التفاعلية
المكتبة.
// Use streaming with text-only input
Publisher<GenerateContentResponse> streamingResponse =
model.generateContentStream(inputContent);
StringBuilder outputContent = new StringBuilder();
streamingResponse.subscribe(new Subscriber<GenerateContentResponse>() {
@Override
public void onNext(GenerateContentResponse generateContentResponse) {
String chunk = generateContentResponse.getText();
outputContent.append(chunk);
}
@Override
public void onComplete() {
System.out.println(outputContent);
}
@Override
public void onSubscribe(Subscription s) {
s.request(Long.MAX_VALUE);
}
// ... other methods omitted for brevity
});
// Use streaming with multi-turn conversations (like chat)
ChatFutures chat = model.startChat(history);
Publisher<GenerateContentResponse> streamingResponse =
chat.sendMessageStream(inputContent);
StringBuilder outputContent = new StringBuilder();
streamingResponse.subscribe(new Subscriber<GenerateContentResponse>() {
@Override
public void onNext(GenerateContentResponse generateContentResponse) {
String chunk = generateContentResponse.getText();
outputContent.append(chunk);
}
@Override
public void onComplete() {
System.out.println(outputContent);
}
@Override
public void onSubscribe(Subscription s) {
s.request(Long.MAX_VALUE);
}
// ... other methods omitted for brevity
});
تنفيذ حالات الاستخدام المتقدّمة
حالات الاستخدام الشائعة الموضّحة في القسم السابق من تعليمات هذا الدليل التوجيهي إذا كنت تفضّل استخدام Gemini API يصف هذا القسم بعض حالات الاستخدام التي يمكن اعتبارها أكثر تقدمًا.
استدعاء الدالة
يسهّل استدعاء الدوال الحصول على مخرجات البيانات المنظَّمة من النماذج التوليدية يمكنك بعد ذلك استخدام هذه المخرجات لطلب واجهات برمجة تطبيقات أخرى وعرض بيانات الاستجابة ذات الصلة بالنموذج. بعبارة أخرى، يساعد استدعاء الدوال تربط النماذج التوليدية بالأنظمة الخارجية، بحيث يتم يتضمن أحدث المعلومات وأكثرها دقة. يمكنك الاطّلاع على مزيد من المعلومات في دليل تعليمي حول استدعاء الدوال.
عدد الرموز المميّزة
عند استخدام الطلبات الطويلة، قد يكون من المفيد حساب الرموز المميزة قبل إرسال أي
المحتوى إلى النموذج. توضِّح الأمثلة التالية كيفية استخدام "countTokens()
".
لحالات الاستخدام المختلفة:
Kotlin
تجدر الإشارة إلى أن countTokens()
هي دالة تعليق ويجب
يتم استدعاؤه من نطاق الكوروتين. إذا لم تكن معتادًا على استخدام الكوروتين، فاقرأ
Kotlin Coroutines على Android.
// For text-only input
val (totalTokens) = generativeModel.countTokens("Write a story about a magic backpack.")
// For text-and-image input (multi-modal)
val multiModalContent = content {
image(image1)
image(image2)
text("What's the difference between these pictures?")
}
val (totalTokens) = generativeModel.countTokens(multiModalContent)
// For multi-turn conversations (like chat)
val history = chat.history
val messageContent = content { text("This is the message I intend to send")}
val (totalTokens) = generativeModel.countTokens(*history.toTypedArray(), messageContent)
Java
يُرجى العِلم أنّ السمة countTokens()
تعرض الخطأ ListenableFuture
. في حال حذف
لست على دراية بواجهة برمجة التطبيقات هذه، فراجع وثائق Android حول
استخدام ListenableFuture
:
Content text = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
Executor executor = // ...
// For text-only input
ListenableFuture<CountTokensResponse> countTokensResponse = model.countTokens(text);
Futures.addCallback(countTokensResponse, new FutureCallback<CountTokensResponse>() {
@Override
public void onSuccess(CountTokensResponse result) {
int totalTokens = result.getTotalTokens();
System.out.println("TotalTokens = " + totalTokens);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
// For text-and-image input
Bitmap image1 = // ...
Bitmap image2 = // ...
Content multiModalContent = new Content.Builder()
.addImage(image1)
.addImage(image2)
.addText("What's different between these pictures?")
.build();
ListenableFuture<CountTokensResponse> countTokensResponse = model.countTokens(multiModalContent);
// For multi-turn conversations (like chat)
List<Content> history = chat.getChat().getHistory();
Content messageContent = new Content.Builder()
.addText("This is the message I intend to send")
.build();
Collections.addAll(history, messageContent);
ListenableFuture<CountTokensResponse> countTokensResponse = model.countTokens(history.toArray(new Content[0]));
خيارات التحكّم في إنشاء المحتوى
يمكنك التحكّم في عملية إنشاء المحتوى من خلال ضبط مَعلمات النماذج واستخدام إعدادات الأمان.
ضبط مَعلمات النموذج
يتضمن كل طلب ترسله إلى النموذج قيمًا للمعلمات تتحكم في كيفية ينشئ النموذج استجابة. يمكن أن ينتج عن النموذج نتائج مختلفة قيم المعاملات المختلفة. مزيد من المعلومات حول مَعلمات النموذج:
Kotlin
val config = generationConfig {
temperature = 0.9f
topK = 16
topP = 0.1f
maxOutputTokens = 200
stopSequences = listOf("red")
}
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with most use cases
modelName = "gemini-1.5-flash",
apiKey = BuildConfig.apiKey,
generationConfig = config
)
Java
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = Arrays.asList("red");
GenerationConfig generationConfig = configBuilder.build();
// The Gemini 1.5 models are versatile and work with most use cases
GenerativeModel gm = new GenerativeModel(
"gemini-1.5-flash",
BuildConfig.apiKey,
generationConfig
);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
استخدام إعدادات الأمان
يمكنك استخدام إعدادات الأمان لضبط احتمالية تلقّي ردود ضارًا. تحظر إعدادات الأمان المحتوى باستخدام الوسيط و/أو احتمالية عالية لكونه محتوى غير آمن بجميع السمات. التعلّم مزيد من المعلومات حول إعدادات الأمان
إليك كيفية ضبط إعداد أمان واحد:
Kotlin
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with most use cases
modelName = "gemini-1.5-flash",
apiKey = BuildConfig.apiKey,
safetySettings = listOf(
SafetySetting(HarmCategory.HARASSMENT, BlockThreshold.ONLY_HIGH)
)
)
Java
SafetySetting harassmentSafety = new SafetySetting(HarmCategory.HARASSMENT,
BlockThreshold.ONLY_HIGH);
// The Gemini 1.5 models are versatile and work with most use cases
GenerativeModel gm = new GenerativeModel(
"gemini-1.5-flash",
BuildConfig.apiKey,
null, // generation config is optional
Collections.singletonList(harassmentSafety)
);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
يمكنك أيضًا ضبط أكثر من إعداد أمان واحد:
Kotlin
val harassmentSafety = SafetySetting(HarmCategory.HARASSMENT, BlockThreshold.ONLY_HIGH)
val hateSpeechSafety = SafetySetting(HarmCategory.HATE_SPEECH, BlockThreshold.MEDIUM_AND_ABOVE)
val generativeModel = GenerativeModel(
// The Gemini 1.5 models are versatile and work with most use cases
modelName = "gemini-1.5-flash",
apiKey = BuildConfig.apiKey,
safetySettings = listOf(harassmentSafety, hateSpeechSafety)
)
Java
SafetySetting harassmentSafety = new SafetySetting(HarmCategory.HARASSMENT,
BlockThreshold.ONLY_HIGH);
SafetySetting hateSpeechSafety = new SafetySetting(HarmCategory.HATE_SPEECH,
BlockThreshold.MEDIUM_AND_ABOVE);
// The Gemini 1.5 models are versatile and work with most use cases
GenerativeModel gm = new GenerativeModel(
"gemini-1.5-flash",
BuildConfig.apiKey,
null, // generation config is optional
Arrays.asList(harassmentSafety, hateSpeechSafety)
);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
الخطوات التالية
تصميم الطلب هو عملية إنشاء الطلبات التي ستنتج عن المطلوب استجابة من النماذج اللغوية. كتابة طلبات منظمة بشكل جيد أمر أساسي لضمان تقديم ردود دقيقة وعالية الجودة باستخدام نموذج لغوي. مزيد من المعلومات حول أفضل الممارسات لكتابة الطلب
يقدّم Gemini صيغًا متعدّدة للنماذج لتلبية احتياجات الاستخدام المختلفة. مثل أنواع الإدخال ودرجة التعقيد أو عمليات التنفيذ المتعلقة بالدردشة أو غير ذلك ومهام لغة مربع الحوار وقيود الحجم. مزيد من المعلومات حول طُرز Gemini المتاحة
تتيح لك حزمة تطوير البرامج (SDK) للعميل لنظام التشغيل Android الموضَّحة في هذا البرنامج التعليمي الوصول إلى نماذج Gemini Pro التي تعمل على خوادم Google بالنسبة إلى حالات الاستخدام التي تشمل معالجة البيانات الحساسة أو التوافر في وضع عدم الاتصال أو لتوفير التكاليف مسارات المستخدمين الشائعة، ننصحك بالوصول إلى Gemini Nano والتي تعمل على الجهاز لمزيد من التفاصيل، يُرجى الرجوع إلى الدليل التعليمي لنظام التشغيل Android (على الجهاز)