モバイル、ウェブ、組み込みアプリケーションに AI をデプロイ
-
デバイス
レイテンシを短縮します。オフラインで作業できます。データをローカルに保持し、非公開です。
-
クロス プラットフォーム
同じモデルを Android、iOS、ウェブ、埋め込みで実行します。
-
マルチフレームワーク
JAX、Keras、PyTorch、TensorFlow の各モデルに対応。
-
完全な AI エッジスタック
柔軟なフレームワーク、ターンキー ソリューション、ハードウェア アクセラレータ
既製のソリューションと柔軟なフレームワーク
一般的な AI タスク向けのローコード API
生成 AI、ビジョン、テキスト、音声の一般的なタスクに対応するクロスプラットフォーム API。
<ph type="x-smartling-placeholder"></ph> MediaPipe タスクを使ってみるカスタムモデルをクロス プラットフォームにデプロイする
従来の ML と生成 AI 向けに最適化された JAX、Keras、PyTorch、TensorFlow モデルを、Android、iOS、ウェブ、組み込みデバイスで高パフォーマンスで実行します。
LiteRT を使ってみる可視化で開発サイクルを短縮する
変換と量子化によるモデルの変換を可視化します。ベンチマーク結果をオーバーレイしてホットスポットをデバッグする。
<ph type="x-smartling-placeholder"></ph> Model Explorer を使ってみる複雑な ML 特徴用のカスタム パイプラインを構築する
前処理と後処理とともに複数の ML モデルを高パフォーマンスに連結することで、独自のタスクを構築 できます。CPU でブロッキングすることなく、高速化された(GPU と NPU)パイプラインを実行します。
MediaPipe Framework の使用を開始するGoogle のアプリを支えるツールとフレームワーク
ローコード API からハードウェア固有のアクセラレーション ライブラリまで、あらゆるレベルのプロダクトを含む完全な AI エッジスタックをご確認ください。
MediaPipe Tasks
生成 AI、コンピュータ ビジョン、テキスト、音声にわたる一般的なタスクにローコード API を使用して、モバイルアプリとウェブアプリに AI 機能をすばやく構築します。
生成 AI
すぐに使える API を使用して、生成言語モデルと画像モデルを直接アプリに統合できます。
Vision
セグメンテーション、分類、検出、認識、身体ランドマークに至るまで、幅広い視覚タスクについて説明します。
テキストとオーディオ
言語、感情、独自のカスタム カテゴリなどの多くのカテゴリでテキストと音声を分類します。
MediaPipe フレームワーク
高パフォーマンスの高速 ML パイプラインの構築に使用される低レベルのフレームワーク。前処理と後処理を組み合わせた複数の ML モデルが含まれることがよくあります。
LiteRT
モバイル、ウェブ、マイクロコントローラにわたって、ハードウェア固有のアクセラレーションを最適化し、あらゆるフレームワークで作成された AI モデルをデプロイします。
マルチフレームワーク
JAX、Keras、PyTorch、TensorFlow のモデルを変換してエッジで実行します。
クロス プラットフォーム
ネイティブ SDK を使用して、Android、iOS、ウェブ、マイクロコントローラでまったく同じモデルを実行します。
軽量で速い
LiteRT の効率的なランタイムはわずか数メガバイトしか消費せず、CPU、GPU、NPU 全体でモデル アクセラレーションが可能です。
モデル エクスプローラ
モデルを視覚的に探索、デバッグ、比較します。パフォーマンスのベンチマークと数値をオーバーレイして、問題のあるホットスポットを特定します。
Android と Chrome の Gemini Nano
Google の最も強力なデバイス上のモデルを使用して生成 AI エクスペリエンスを構築する