모바일, 웹, 임베디드 애플리케이션에 AI 배포

  • 기기에 보관

    지연 시간 감소 오프라인에서 작업합니다. 데이터를 로컬에서 비공개로 유지합니다.

  • 교차 플랫폼

    Android, iOS, 웹, 삽입된 환경에서 동일한 모델을 실행합니다.

  • 다중 프레임워크

    JAX, Keras, PyTorch, TensorFlow 모델과 호환됩니다.

  • 전체 AI 에지 스택

    유연한 프레임워크, 턴키 솔루션, 하드웨어 가속기

즉시 사용 가능한 솔루션 및 유연한 프레임워크

일반적인 AI 작업을 위한 로우 코드 API

일반적인 생성형 AI, 비전, 텍스트, 오디오 작업을 처리하는 교차 플랫폼 API입니다.

MediaPipe 작업 시작하기

크로스 플랫폼에 커스텀 모델 배포

기존 ML 및 생성형 AI에 최적화된 JAX, Keras, PyTorch, TensorFlow 모델을 Android, iOS, 웹, 삽입된 기기에서 성능 좋게 실행합니다.

LiteRT 시작하기
특성 2

시각화를 통해 개발 주기 단축

변환 및 양자화를 통해 모델의 변환을 시각화합니다. 핫스팟 디버그 방법 벤치마크 결과 오버레이

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 모델 탐색기 시작하기
특성 1

복잡한 ML 기능을 위한 맞춤 파이프라인 빌드

사전 및 사후 처리와 함께 여러 ML 모델을 효율적으로 체이닝하여 자체 작업 구축 제공합니다. CPU에서 차단 없이 가속 (GPU 및 NPU) 파이프라인을 실행합니다.

MediaPipe 프레임워크 시작하기
특성 2

Google 앱의 기반이 되는 도구와 프레임워크

로우 코드 API에서 하드웨어별 가속 라이브러리까지 모든 수준의 제품을 갖춘 전체 AI 에지 스택을 살펴보세요.

MediaPipe Tasks

생성형 AI, 컴퓨터 비전, 텍스트, 오디오에 걸쳐 일반적인 태스크를 위한 로우 코드 API를 사용하여 모바일 및 웹 앱에 AI 기능을 빠르게 빌드하세요.

생성형 AI

바로 사용할 수 있는 API를 사용하여 생성형 언어 및 이미지 모델을 앱에 직접 통합하세요.

Vision

세분화, 분류, 감지, 인식, 신체 랜드마크를 포괄하는 광범위한 비전 작업을 살펴보세요.

텍스트 및 오디오

언어, 감정, 자체 맞춤 카테고리 등 다양한 카테고리에서 텍스트와 오디오를 분류합니다.

MediaPipe 프레임워크

고성능 가속 ML 파이프라인을 빌드하는 데 사용되는 하위 수준의 프레임워크로, 대개 사전 및 사후 처리와 결합된 여러 ML 모델을 포함합니다.

LiteRT

하드웨어별 가속을 최적화하여 모바일, 웹, 마이크로컨트롤러 전반에 모든 프레임워크로 작성된 AI 모델을 배포합니다.

다중 프레임워크

JAX, Keras, PyTorch, TensorFlow의 모델을 변환하여 에지에서 실행하세요.

교차 플랫폼

네이티브 SDK를 사용하여 Android, iOS, 웹, 마이크로컨트롤러에서 정확히 동일한 모델을 실행하세요.

가볍고 빠름

LiteRT의 효율적인 런타임은 불과 몇 MB를 차지하며 CPU, GPU, NPU 전반에서 모델 가속화를 지원합니다.

모델 탐색기

모델을 시각적으로 탐색, 디버그, 비교하세요. 성능 벤치마크와 수치를 오버레이하여 문제의 핫스팟을 정확히 찾아냅니다.

나노 문자

최신 동영상 및 블로그 게시물