モバイル、ウェブ、組み込みアプリケーション全体に AI をデプロイする

  • デバイス

    レイテンシを短縮します。オフラインで作業する。ローカルでデータを非公開に保つ。

  • クロス プラットフォーム

    Android、iOS、ウェブ、組み込みで同じモデルを実行する。

  • マルチフレームワーク

    JAX、Keras、PyTorch、TensorFlow の各モデルに対応。

  • 完全な AI エッジスタック

    柔軟なフレームワーク、ターンキー ソリューション、ハードウェア アクセラレータ

既製のソリューションと柔軟なフレームワーク

一般的な AI タスク用のローコード API

生成 AI、ビジョン、テキスト、音声の一般的なタスクに対応するクロスプラットフォーム API。

MediaPipe タスクの使用を開始する

カスタムモデルをクロスプラットフォームでデプロイする

従来の ML と生成 AI 向けに最適化された JAX、Keras、PyTorch、TensorFlow モデルを、Android、iOS、ウェブ、組み込みデバイスで高パフォーマンスで実行します。

LiteRT を使ってみる
特徴 2

可視化で開発サイクルを短縮する

変換と量子化によるモデルの変換を可視化します。ベンチマーク結果をオーバーレイしてホットスポットをデバッグする。

モデル エクスプローラを使ってみる
特徴 1

複雑な ML 特徴用のカスタム パイプラインを構築する

複数の ML モデルと前処理ロジックと後処理ロジックを効率的に連結して、独自のタスクを構築します。CPU でブロッキングすることなく、高速化された(GPU と NPU)パイプラインを実行します。

MediaPipe Framework の使用を開始する
特徴 2

Google のアプリを支えるツールとフレームワーク

ローコード API からハードウェア固有のアクセラレーション ライブラリまで、あらゆるレベルのプロダクトを備えた AI エッジ スタック全体をご確認ください。

MediaPipe Tasks

生成 AI、コンピュータ ビジョン、テキスト、音声にわたる一般的なタスクにローコード API を使用して、モバイルアプリとウェブアプリに AI 機能をすばやく構築します。

生成 AI

すぐに使用できる API を使用して、生成言語モデルと生成画像モデルをアプリに直接統合します。

Vision

セグメンテーション、分類、検出、認識、身体のランドマークにわたる幅広い画像タスクを探索します。

テキストと音声

言語、感情、独自のカスタム カテゴリなど、さまざまなカテゴリにテキストと音声を分類します。

MediaPipe フレームワーク

高パフォーマンスの高速 ML パイプラインの構築に使用される低レベル フレームワーク。多くの場合、前処理と後処理を組み合わせた複数の ML モデルが含まれます。

LiteRT

任意のフレームワークで作成された AI モデルを、ハードウェア固有のアクセラレーションを最適化して、モバイル、ウェブ、マイクロコントローラにデプロイします。

マルチフレームワーク

JAX、Keras、PyTorch、TensorFlow のモデルを変換してエッジで実行します。

クロス プラットフォーム

ネイティブ SDK を使用して、Android、iOS、ウェブ、マイクロコントローラでまったく同じモデルを実行します。

軽量で高速

LiteRT の効率的なランタイムは数メガバイトしか使用せず、CPU、GPU、NPU 全体でモデルの高速化を可能にします。

モデル エクスプローラ

モデルを視覚的に探索、デバッグ、比較します。パフォーマンスのベンチマークと数値をオーバーレイして、問題のあるホットスポットを特定します。

nano 文字

最近の動画とブログ投稿