モバイル、ウェブ、組み込みアプリケーションに AI をデプロイ

  • デバイス

    レイテンシを短縮します。オフラインで作業できます。データをローカルに保持し、非公開です。

  • クロス プラットフォーム

    同じモデルを Android、iOS、ウェブ、埋め込みで実行します。

  • マルチフレームワーク

    JAX、Keras、PyTorch、TensorFlow の各モデルに対応。

  • 完全な AI エッジスタック

    柔軟なフレームワーク、ターンキー ソリューション、ハードウェア アクセラレータ

既製のソリューションと柔軟なフレームワーク

一般的な AI タスク向けのローコード API

生成 AI、ビジョン、テキスト、音声の一般的なタスクに対応するクロスプラットフォーム API。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> MediaPipe タスクを使ってみる

カスタムモデルをクロス プラットフォームにデプロイする

従来の ML と生成 AI 向けに最適化された JAX、Keras、PyTorch、TensorFlow モデルを、Android、iOS、ウェブ、組み込みデバイスで高パフォーマンスで実行します。

LiteRT を使ってみる
特徴 2

可視化で開発サイクルを短縮する

変換と量子化によるモデルの変換を可視化します。ベンチマーク結果をオーバーレイしてホットスポットをデバッグする。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Model Explorer を使ってみる
特徴 1

複雑な ML 特徴用のカスタム パイプラインを構築する

前処理と後処理とともに複数の ML モデルを高パフォーマンスに連結することで、独自のタスクを構築 できます。CPU でブロッキングすることなく、高速化された(GPU と NPU)パイプラインを実行します。

MediaPipe Framework の使用を開始する
特徴 2

Google のアプリを支えるツールとフレームワーク

ローコード API からハードウェア固有のアクセラレーション ライブラリまで、あらゆるレベルのプロダクトを含む完全な AI エッジスタックをご確認ください。

MediaPipe Tasks

生成 AI、コンピュータ ビジョン、テキスト、音声にわたる一般的なタスクにローコード API を使用して、モバイルアプリとウェブアプリに AI 機能をすばやく構築します。

生成 AI

すぐに使える API を使用して、生成言語モデルと画像モデルを直接アプリに統合できます。

Vision

セグメンテーション、分類、検出、認識、身体ランドマークに至るまで、幅広い視覚タスクについて説明します。

テキストとオーディオ

言語、感情、独自のカスタム カテゴリなどの多くのカテゴリでテキストと音声を分類します。

MediaPipe フレームワーク

高パフォーマンスの高速 ML パイプラインの構築に使用される低レベルのフレームワーク。前処理と後処理を組み合わせた複数の ML モデルが含まれることがよくあります。

LiteRT

モバイル、ウェブ、マイクロコントローラにわたって、ハードウェア固有のアクセラレーションを最適化し、あらゆるフレームワークで作成された AI モデルをデプロイします。

マルチフレームワーク

JAX、Keras、PyTorch、TensorFlow のモデルを変換してエッジで実行します。

クロス プラットフォーム

ネイティブ SDK を使用して、Android、iOS、ウェブ、マイクロコントローラでまったく同じモデルを実行します。

軽量で速い

LiteRT の効率的なランタイムはわずか数メガバイトしか消費せず、CPU、GPU、NPU 全体でモデル アクセラレーションが可能です。

モデル エクスプローラ

モデルを視覚的に探索、デバッグ、比較します。パフォーマンスのベンチマークと数値をオーバーレイして、問題のあるホットスポットを特定します。

nano 文字

最近の動画とブログ投稿