Google AI 에지
모바일, 웹, 임베디드 애플리케이션을 위한 온디바이스 AI
모델에서 파이프라인에 이르는 온디바이스 솔루션
ML 배포 가속화, 파이프라인 최적화, 강력한 LLM에 손쉽게 액세스
상위 및 하위 구성요소를 모두 포함하는 엔드 투 엔드 스택
I/O의 새로운 소식
MediaPipe를 사용하여 일반적인 문제 해결
TensorFlow Lite
모바일, 웹, 마이크로컨트롤러에 모델을 배포하기 위한 경량의 다중 프레임워크 라이브러리입니다.
기기에서 실행되는 생성형 AI
MediaPipe LLM 추론 API
LLM을 완전히 기기 내에서 실행하고 텍스트 생성, 자연어 형식으로 정보 검색, 문서 요약과 같은 다양한 작업을 수행할 수 있습니다. 이 API는 여러 텍스트 간 대규모 언어 모델을 기본적으로 지원하므로 최신 온디바이스 생성형 AI 모델을 앱과 제품에 적용할 수 있습니다. 자세히 알아보기
Torch 생성 API
PyTorch에서 고성능 LLM을 작성한 후 TensorFlow Lite (TFLite) 런타임을 사용하여 기기에서 실행되도록 변환하세요. 자세히 알아보세요.
Gemini 나노
Android AICore를 통해 기기 내 작업을 위한 가장 효율적인 Gemini 모델에 액세스하세요. 곧 Chrome에서 출시됩니다.
에지 기기에 ML을 배포해야 하는 이유
지연 시간
쉽고 빠른 실시간 미디어 처리를 위해 서버 왕복을 건너뜁니다.
개인 정보 보호
민감한 정보가 기기 밖으로 유출되지 않고 로컬에서 추론을 수행합니다.
비용
기기 내 컴퓨팅 리소스를 사용하여 서버 비용을 절감합니다.
오프라인 저장 가능 여부
네트워크에 연결되지 않아도 문제 없습니다.