モバイル、ウェブ、組み込みアプリケーションに AI をデプロイ

  • デバイス

    レイテンシを短縮します。オフラインで作業する。データをローカルに保持し、非公開です。

  • クロス プラットフォーム

    同じモデルを Android、iOS、ウェブ、埋め込みで実行します。

  • マルチフレームワーク

    JAX、Keras、PyTorch、TensorFlow モデルと互換性がある。

  • 完全な AI エッジスタック

    柔軟なフレームワーク、ターンキー ソリューション、ハードウェア アクセラレータ

既製のソリューションと柔軟なフレームワーク

一般的な AI タスク向けのローコード API

一般的な生成 AI、ビジョン、テキスト、音声タスクに取り組むためのクロス プラットフォーム API。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> MediaPipe タスクを使ってみる

カスタムモデルをクロス プラットフォームにデプロイする

従来の ML と生成 AI 向けに最適化された、JAX、Keras、PyTorch、TensorFlow のモデルを Android、iOS、ウェブ、組み込みデバイスで効率的に実行します。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> LiteRT のスタートガイド
特徴 2

可視化によって開発サイクルを短縮

変換と量子化によってモデルの変換を可視化します。ホットスポットをデバッグする方法 ベンチマーク結果をオーバーレイしています

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Model Explorer を使ってみる
特徴 1

複雑な ML 特徴用のカスタム パイプラインを構築する

前処理と後処理とともに複数の ML モデルを効率的に連結して、独自のタスクを構築 できます。CPU をブロックせずに高速化(GPU と NPU)パイプラインを実行する。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> MediaPipe Framework を使ってみる
特徴 2

Google のアプリを支えるツールとフレームワーク

ローコード API からハードウェア固有のアクセラレーション ライブラリまで、あらゆるレベルのプロダクトを含む完全な AI エッジスタックをご覧ください。

MediaPipe タスク

生成 AI、コンピュータ ビジョン、テキスト、音声にわたる一般的なタスク向けのローコード API を使用して、モバイルアプリやウェブアプリに AI 機能を迅速に構築できます。

生成 AI

すぐに使える API を使用して、生成言語モデルと画像モデルを直接アプリに統合できます。

Vision

セグメンテーション、分類、検出、認識、身体ランドマークに至るまで、幅広い視覚タスクについて説明します。

テキストとオーディオ

言語、感情、独自のカスタム カテゴリなどの多くのカテゴリでテキストと音声を分類します。

MediaPipe フレームワーク

高パフォーマンスの高速 ML パイプラインの構築に使用される低レベルのフレームワーク。前処理と後処理を組み合わせた複数の ML モデルが含まれることがよくあります。

<ph type="x-smartling-placeholder"></ph> 使ってみる をご覧ください。

LiteRT

モバイル、ウェブ、マイクロコントローラにわたって、ハードウェア固有のアクセラレーションを最適化し、あらゆるフレームワークで作成された AI モデルをデプロイします。

マルチフレームワーク

モデルを JAX、Keras、PyTorch、TensorFlow に変換してエッジで実行する。

クロス プラットフォーム

ネイティブ SDK を使用して、Android、iOS、ウェブ、マイクロコントローラでまったく同じモデルを実行できます。

軽量で速い

LiteRT の効率的なランタイムはわずか数メガバイトしか消費せず、CPU、GPU、NPU 全体でモデル アクセラレーションが可能です。

モデル エクスプローラ

モデルを視覚的に探索、デバッグ、比較します。パフォーマンスのベンチマークと数値をオーバーレイして、問題のあるホットスポットを特定します。

<ph type="x-smartling-placeholder"></ph> 使ってみる をご覧ください。
ナノ文字

最近の動画とブログ投稿