Google AI Edge
IA integrada en el dispositivo para aplicaciones incorporadas, móviles y web
Soluciones integradas en el dispositivo, de modelos a canalizaciones
Acelera la implementación del AA, optimiza las canalizaciones y accede con facilidad a LLM potentes
Pila de extremo a extremo con componentes de alto y bajo nivel
¿Cuáles son las novedades de I/O?
MediaPipe
Crea con facilidad soluciones innovadoras de AA integradas en el dispositivo
TensorFlow Lite
Una biblioteca ligera de varios frameworks para implementar modelos en dispositivos móviles, la Web y microcontroladores.
IA generativa que se ejecuta en el dispositivo
API de inferencia de LLM de MediaPipe
Ejecuta los LLM completamente integrados en el dispositivo y realiza una amplia variedad de tareas, como generar texto, recuperar información en formato de lenguaje natural y resumir documentos. La API proporciona compatibilidad integrada con varios modelos grandes de lenguaje de texto a texto, de modo que puedas aplicar los modelos de IA generativa más recientes integrados en el dispositivo a tus apps y productos. Más información
API generativa de Torch
Crea LLM de alto rendimiento en PyTorch y, luego, conviértelos para que se ejecuten en dispositivos con el entorno de ejecución de TensorFlow Lite (TFLite). Más información.
Gemini Nano
Accede a nuestro modelo Gemini más eficiente para tareas en el dispositivo mediante Android AICore. Próximamente en Chrome.
¿Por qué implementar AA en dispositivos perimetrales?
Lenta
Omite el proceso de ida y vuelta del servidor para procesar contenido multimedia fácil, rápido y en tiempo real.
Privacidad
Realiza inferencias de forma local, sin que los datos sensibles salgan del dispositivo.
Costo
Usa recursos de procesamiento integrados en el dispositivo y ahorra en costos del servidor.
Disponibilidad de la reproducción sin conexión
No hay conexión de red. No hay problema.