모바일, 웹, 임베디드 애플리케이션에 AI 배포
-
기기에 보관
지연 시간 감소 오프라인으로 작업 데이터를 로컬에 보관 및 비공개입니다.
-
교차 플랫폼
Android, iOS, 웹, 임베디드에서 동일한 모델을 실행합니다.
-
다중 프레임워크
JAX, Keras, PyTorch, TensorFlow 모델과 호환됩니다.
-
완전한 AI 에지 스택
유연한 프레임워크, 턴키 솔루션, 하드웨어 가속기
즉시 사용 가능한 솔루션 및 유연한 프레임워크
일반적인 AI 작업을 위한 로우 코드 API
일반적인 생성형 AI, 비전, 텍스트, 오디오 작업을 처리하는 크로스 플랫폼 API입니다.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> MediaPipe 작업 시작하기크로스 플랫폼에 커스텀 모델 배포
기존 ML 및 생성형 AI에 최적화된 JAX, Keras, PyTorch, TensorFlow 모델을 Android, iOS, 웹, 내장형 기기에서 원활하게 실행하세요.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> LiteRT 시작하기시각화를 통해 개발 주기 단축
변환 및 양자화를 통해 모델의 변환을 시각화합니다. 핫스팟 디버그 방법 벤치마크 결과 오버레이
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> 모델 탐색기 시작하기복잡한 ML 특성을 위한 커스텀 파이프라인 빌드
사전 및 사후 처리와 함께 여러 ML 모델을 효율적으로 체이닝하여 자체 작업 구축 제공합니다. CPU에서 차단 없이 가속 (GPU 및 NPU) 파이프라인을 실행합니다.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> MediaPipe 프레임워크 시작하기Google 앱의 기반이 되는 도구와 프레임워크
로우 코드 API부터 하드웨어별 가속 라이브러리에 이르기까지 모든 수준의 제품이 포함된 전체 AI 에지 스택을 살펴보세요.
MediaPipe 태스크
생성형 AI, 컴퓨터 비전, 텍스트, 오디오 등 일반적인 작업을 위한 로우 코드 API를 사용하여 모바일 및 웹 앱에 AI 기능을 빠르게 빌드하세요.
생성형 AI
즉시 사용 가능한 API를 통해 생성형 언어 및 이미지 모델을 앱에 직접 통합합니다.
Vision
세분화, 분류, 감지, 인식, 신체 랜드마크를 포괄하는 광범위한 비전 작업을 살펴보세요.
텍스트 및 오디오
언어, 감정, 맞춤 카테고리 등 다양한 카테고리로 텍스트와 오디오를 분류합니다.
MediaPipe 프레임워크
고성능 가속 ML 파이프라인을 빌드하는 데 사용되는 하위 수준의 프레임워크로, 대개 사전 및 사후 처리와 결합된 여러 ML 모델을 포함합니다.
LiteRT
하드웨어별 가속을 최적화하여 모바일, 웹, 마이크로컨트롤러 전반에 모든 프레임워크로 작성된 AI 모델을 배포합니다.
다중 프레임워크
JAX, Keras, PyTorch, TensorFlow의 모델을 변환하여 에지에서 실행하세요.
교차 플랫폼
네이티브 SDK를 사용하여 Android, iOS, 웹, 마이크로컨트롤러에서 정확히 동일한 모델을 실행하세요.
경량 및 빠름
LiteRT의 효율적인 런타임은 불과 몇 MB를 차지하며 CPU, GPU, NPU 전반에서 모델 가속화를 지원합니다.
모델 탐색기
모델을 시각적으로 탐색, 디버그, 비교하세요. 성능 벤치마크와 수치를 오버레이하여 문제의 핫스팟을 정확히 찾아냅니다.
Android용 Gemini Nano 및 크롬
Google의 가장 강력한 온디바이스 모델을 사용하여 생성형 AI 환경 빌드