チュートリアル: Gemini API のスタートガイド


このチュートリアルでは、 Google AI Swift SDK を使用した Swift アプリ。この SDK を使用しても、 REST API やサーバーサイド コード(Python など)を直接操作して、 Swift アプリでの Gemini モデルの追加。

このチュートリアルでは、次の方法を学習します。

また、このチュートリアルには、高度なユースケース( トークンのカウントなど)や、 コンテンツ生成の制御

前提条件

このチュートリアルでは、Xcode を使用して Swift を開発する方法に精通していることを前提としています 。

このチュートリアルを最後まで進めるために、お使いの開発環境と Swift アプリは次の要件を満たしています。

  • Xcode 15.0 以降
  • Swift アプリのターゲットは iOS 15 以降または macOS 12 以降である必要があります。

プロジェクトを設定する

Gemini API を呼び出す前に、Xcode プロジェクトを設定する必要があります。 API キーの設定、Xcode プロジェクトへの SDK パッケージの追加、 初期化します

API キーを設定する

Gemini API を使用するには API キーが必要です。まだお持ちでない場合は 作成することもできます。

API キーを取得する

API キーを保護する

API キーをバージョンにチェックインしないことを強くおすすめします。 制御システムです。もう 1 つの選択肢は、 GenerativeAI-Info.plist ファイルを実行し、.plist から API キーを読み取ります。 表示されます。この .plist ファイルをアプリのルートフォルダに配置し、 バージョン管理から除外できます。

また、 サンプルアプリ で確認できます。.plist

このチュートリアルのすべてのスニペットは、API キーにアクセスすることを前提としています。 このオンデマンド リソースの .plist ファイルから取得できます。

SDK パッケージをプロジェクトに追加する

独自の Swift アプリで Gemini API を使用するには、GoogleGenerativeAI を追加してください 追加します。

  1. Xcode のプロジェクト ナビゲータでプロジェクトを右クリックします。

  2. コンテキスト メニューから [Add Packages] を選択します。

  3. [Add Packages] ダイアログの検索バーにパッケージの URL を貼り付けます。

    https://github.com/google/generative-ai-swift
    
  4. [パッケージを追加] をクリックします。Xcode が GoogleGenerativeAI パッケージを追加するようになりました 追加します。

生成モデルを初期化する

API 呼び出しを行う前に、生成モデルを初期化する必要があります。

  1. GoogleGenerativeAI モジュールをインポートします。

    import GoogleGenerativeAI
    
  2. 生成モデルを初期化します。

    // Access your API key from your on-demand resource .plist file
    // (see "Set up your API key" above)
    // The Gemini 1.5 models are versatile and work with most use cases
    let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: APIKey.default)
    

モデルを指定する際は、次の点に注意してください。

  • ユースケースに固有のモデルを使用する(例: gemini-1.5-flash) マルチモーダル入力用です)。このガイドでは、それぞれの手順について説明します。 実装のリストには、各ユースケースの推奨モデルが記載されています。

一般的なユースケースの実装

プロジェクトが設定されたので、Gemini API を使用して以下を行う方法を学習します。 さまざまなユースケースを実装できます。

テキストのみの入力からテキストを生成する

プロンプト入力にテキストのみが含まれている場合は、Gemini 1.5 モデルまたは Gemini 1.0 Pro モデルで generateContent を使用してテキスト出力を生成します。

import GoogleGenerativeAI

// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
// Access your API key from your on-demand resource .plist file (see "Set up your API key" above)
let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: APIKey.default)

let prompt = "Write a story about a magic backpack."
let response = try await model.generateContent(prompt)
if let text = response.text {
  print(text)
}

テキストと画像の入力からテキストを生成する(マルチモーダル)

Gemini はマルチモーダル入力を処理できるさまざまなモデルを提供 (Gemini 1.5 モデル)を使用し、両方のテキストを入力できるようにする 説明します。必ず プロンプトの画像の要件をご覧ください。

プロンプト入力にテキストと画像の両方が含まれている場合は、Gemini 1.5 モデルを使用する generateContent メソッドを使用して、テキスト出力を生成します。

import GoogleGenerativeAI

// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
// Access your API key from your on-demand resource .plist file (see "Set up your API key" above)
let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: APIKey.default)

let image1 = UIImage(...)
let image2 = UIImage(...)

let prompt = "What's different between these pictures?"

let response = try await model.generateContent(prompt, image1, image2)
if let text = response.text {
  print(text)
}

マルチターンの会話を構築する(チャット)

Gemini を使用すると、複数のターンで自由形式の会話を構築できます。「 SDK は会話の状態を管理することでプロセスを簡素化するため、 generateContent との会話履歴を保存する必要はありません できます。

マルチターンの会話(チャットなど)を作成するには、Gemini 1.5 モデルまたは Gemini 1.0 Pro モデルを作成し、startChat() を呼び出してチャットを初期化します。 次に、sendMessage() を使用して新しいユーザー メッセージを送信します。これにより、 返信メッセージも確認できます。

コンテンツに関連付けられた role には、次の 2 つのオプションがあります。 あります。

  • user: プロンプトを提供するロール。この値は Kubernetes の sendMessage 回。

  • model: レスポンスを提供するロール。このロールは、 既存の historystartChat() を呼び出す。

で確認できます。
import GoogleGenerativeAI

let config = GenerationConfig(
  maxOutputTokens: 100
)

// The Gemini 1.5 models are versatile and work with multi-turn conversations (like chat)
// Access your API key from your on-demand resource .plist file (see "Set up your API key" above)
let model = GenerativeModel(
  name: "gemini-1.5-flash",
  apiKey: APIKey.default,
  generationConfig: config
)

let history = [
  ModelContent(role: "user", parts: "Hello, I have 2 dogs in my house."),
  ModelContent(role: "model", parts: "Great to meet you. What would you like to know?"),
]

// Initialize the chat
let chat = model.startChat(history: history)
let response = try await chat.sendMessage("How many paws are in my house?")
if let text = response.text {
  print(text)
}

ストリーミングを使用してより高速にやり取りする

デフォルトでは、モデルは生成全体を完了するとレスポンスを返します。 プロセスですメッセージ全体を待つ必要がないため、 代わりにストリーミングを使用して部分的な結果を処理できます

次の例は、Dataflow を使用してストリーミングを実装する方法を示しています。 テキストと画像の入力からテキストを生成する generateContentStream メソッド 表示されます。

import GoogleGenerativeAI

// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
// Access your API key from your on-demand resource .plist file (see "Set up your API key" above)
let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: APIKey.default)

let image1 = UIImage(named: "")!
let image2 = UIImage(named: "")!

let prompt = "What's different between these pictures?"
var fullResponse = ""
let contentStream = model.generateContentStream(prompt, image1, image2)
for try await chunk in contentStream {
  if let text = chunk.text {
    print(text)
    fullResponse += text
  }
}
print(fullResponse)

テキストのみの入力とチャットのユースケースにも、同様のアプローチを使用できます。

// Use streaming with text-only input
let contentStream = model.generateContentStream(prompt)
// Use streaming with multi-turn conversations (like chat)
let responseStream = chat.sendMessageStream(message)

高度なユースケースの実装

このチュートリアルの前のセクションで説明した一般的なユースケースは、 Gemini API の使い方に慣れてきたはずです。このセクションでは、 より高度なとみなされる可能性のあるユースケースを学習します。

関数呼び出し

関数呼び出しを使用すると、構造化データの出力を 説明します。その後、これらの出力を使用して他の API を呼び出し、 レスポンス データをモデルに送ります。つまり関数呼び出しは 生成モデルを外部システムに接続して、生成されたコンテンツが に最新の正確な情報が含まれています。 詳しくは、 関数呼び出しのチュートリアル

トークンをカウントする

長いプロンプトを使用する場合は、メッセージを送信する前にトークンをカウントすると、 モデルに提供します次の例は、countTokens() の使用方法を示しています。 さまざまなユースケースに対応できます

// For text-only input
let response = try await model.countTokens("Why is the sky blue?")
print(response.totalTokens)
// For text-and-image input (multi-modal)
let response = try await model.countTokens(prompt, image1, image2)
print(response.totalTokens)
// For multi-turn conversations (like chat)
let chat = model.startChat()
let history = chat.history
let message = try ModelContent(role: "user", "Why is the sky blue?")
let contents = history + [message]
let response = try await model.countTokens(contents)
print(response.totalTokens)

コンテンツの生成を管理するオプション

コンテンツの生成を制御するには、モデル パラメータを構成し、 安全性設定。

モデル パラメータを構成する

モデルに送信するすべてのプロンプトには、モデルにどのように モデルがレスポンスを生成します。このモデルは、パラメータ値によって異なる結果を生成できます。詳細: モデル パラメータ。 この構成は、モデル インスタンスの存続期間中に維持されます。

let config = GenerationConfig(
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
  maxOutputTokens: 200,
  stopSequences: ["red"]
)

// Access your API key from your on-demand resource .plist file (see "Set up your API key" above)
let model = GenerativeModel(
  // The Gemini 1.5 models are versatile and work with most use cases
  name: "gemini-1.5-flash",
  apiKey: APIKey.default,
  generationConfig: config
)

安全性設定を使用する

安全性設定を使用すると、 害を及ぼす可能性があります。デフォルトでは、安全性設定で「中」のコンテンツはブロックされます すべての要素で安全でないコンテンツである確率が高くなります。学習 詳しくは、安全性設定についての説明をご覧ください。

安全性設定を 1 つ設定する方法は次のとおりです。

// Access your API key from your on-demand resource .plist file (see "Set up your API key" above)
let model = GenerativeModel(
  // The Gemini 1.5 models are versatile and work with most use cases
  name: "gemini-1.5-flash",
  apiKey: APIKey.default,
  safetySettings: [
    SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
  ]
)

安全性設定は複数設定できます。

let harassmentSafety = SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
let hateSpeechSafety = SafetySetting(harmCategory: .hateSpeech, threshold: .blockMediumAndAbove)

// Access your API key from your on-demand resource .plist file (see "Set up your API key" above)
let model = GenerativeModel(
  // The Gemini 1.5 models are versatile and work with most use cases
  name: "gemini-1.5-flash",
  apiKey: APIKey.default,
    safetySettings: [harassmentSafety, hateSpeechSafety]
)

次のステップ

  • プロンプト設計は、言語モデルから望ましいレスポンスを引き出すプロンプトを作成するプロセスです。適切に構造化されたプロンプトを記述することは これは、言語モデルからの正確で高品質なレスポンスを確保するための一環です。 プロンプト作成のベスト プラクティスについて確認する。

  • Gemini には、さまざまな用途のニーズに対応する複数のモデル バリエーションが用意されています。 入力の種類や複雑さ、チャットやその他のツールの実装、 タスク、サイズの制約です。 利用可能な Gemini モデルについて学習する。