Android で Gemini Nano を使ってみる(デバイス上)

Gemini モデル ファミリーの最小バージョンである Gemini Nano は、Google Pixel 8 Pro 以降の対応 Android デバイス上で、デバイス上で実行できます。

Android で Gemini Nano モデルを実行するには、次の API を提供する Google AI Edge SDK for Android を使用する必要があります。

  • 基盤となる Android 搭載デバイスがサポートされているかどうかを確認します。
  • Gemini Nano モデルへのアクセス権を取得します。
  • 安全性設定を調整する。
  • 高パフォーマンスで推論を実行し、フォールバックを実装します。
  • 必要に応じて、LoRA ファインチューニング ブロックを指定して、ユースケースに合わせてモデルのパフォーマンスを向上させることができます。

Gemini Nano にアクセスするための API はテキストからテキストへのモダリティをサポートしており、今後さらに多くのモダリティが提供される予定です。

デバイス上での実行のメリット

デバイス上での実行により、次のことが可能になります。

  • 機密データのローカル処理: データをローカルで処理すると、ユーザーデータがクラウドに送信されなくなります。これは、エンドツーエンドの暗号化を使用するメッセージ アプリなど、機密データを処理するアプリにとって重要です。
  • オフライン アクセス: ユーザーはインターネットに接続されていなくても AI 機能にアクセスできます。これは、オフラインでも接続が不安定なアプリケーションでも有用です。
  • コスト削減: 実行をコンシューマ ハードウェアにオフロードすることで、推論費用を削減できます。これにより、頻繁に使用されるユーザーフローを大幅に削減できます。

Gemini のデバイス上での実行には多くのメリットがあります。ただし、より大規模な Gemini モデルを必要とするユースケースで、幅広いデバイスをサポートする場合は、Geambe API を使用してサーバー上の Gemini にアクセスすることをおすすめします。これは、バックエンド統合(PythonGoNode.jsREST)で行うことも、新しい Google AI クライアント SDK for Android を介して Android アプリから直接行うこともできます。

仕組み

Gemini Nano のデバイス上での実行には、Android 14 で導入された、オンデバイスで実行するための基盤モデルへのアクセスを提供する新しいシステムレベルの機能である Android AICore が採用されています。基盤モデルは AICore を使用してプリインストールされているため、アプリ内でダウンロードしたり配布したりする必要はありません。これらのモデルは、LoRa を使用してダウンストリーム タスク用にファインチューニングできます。Android AICore は現在、Google Pixel 8 Pro デバイスで製品版として利用でき、すでに Google アプリの革新的な機能を搭載しています。

詳細については、Android AICore をご覧ください。

AICore アーキテクチャ
図 1. AICore アーキテクチャ

次のステップ