Implementa la IA en dispositivos móviles, la Web y aplicaciones incorporadas
-
En dispositivo
Reduce la latencia. Trabaja sin conexión. Mantén tus datos locales y privados.
-
Plataforma cruzada
Ejecuta el mismo modelo en Android, iOS, la Web y en dispositivos incorporados.
-
Multiframework
Es compatible con los modelos de JAX, Keras, PyTorch y TensorFlow.
-
Pila perimetral de IA completa
Frameworks flexibles, soluciones listas para usar, aceleradores de hardware
Soluciones listas para usar y frameworks flexibles
APIs de bajo nivel de codificación para tareas comunes de IA
API multiplataforma para abordar tareas comunes de IA generativa, visión, texto y audio.
Comienza a usar las tareas de MediaPipeImplementa modelos personalizados multiplataforma
Ejecuta de forma eficiente modelos de JAX, Keras, PyTorch y TensorFlow en Android, iOS, la Web y dispositivos incorporados, optimizados para el AA tradicional y la IA generativa.
Primeros pasos con LiteRTAcorta los ciclos de desarrollo con la visualización
Visualiza la transformación de tu modelo a través de la conversión y la cuantificación. Depura hotspots mediante superponer resultados de comparativas.
Comienza a usar el Explorador de modelosCrea canalizaciones personalizadas para atributos de AA complejos
Crea tu propia tarea encadenando de forma eficiente varios modelos de AA junto con la lógica de procesamiento previo y posterior. Ejecuta canalizaciones aceleradas (GPU y NPU) sin bloquear la CPU.
Comienza a usar el framework de MediaPipeLas herramientas y los frameworks que impulsan las apps de Google
Explora la pila de IA de borde completa, con productos en todos los niveles, desde APIs de poco código hasta bibliotecas de aceleración específicas para el hardware.
MediaPipe Tasks
Compila funciones de IA rápidamente en apps web y para dispositivos móviles con APIs de poco código para tareas comunes que abarcan IA generativa, visión artificial, texto y audio.
IA generativa
Integra modelos de lenguaje y de imágenes generativos directamente en tus apps con APIs listas para usar.
Vision
Explora una amplia variedad de tareas de visión que abarcan la segmentación, la clasificación, la detección, el reconocimiento y los puntos de referencia corporales.
Texto y audio
Clasifica texto y audio en varias categorías, incluidos el idioma, las opiniones y tus propias categorías personalizadas.
Comenzar
Framework de MediaPipe
Es un framework de bajo nivel que se usa para compilar canalizaciones de AA aceleradas de alto rendimiento, que a menudo incluyen varios modelos de AA combinados con procesamiento previo y posterior.
LiteRT
Implementa modelos de IA creados en cualquier framework en dispositivos móviles, la Web y microcontroladores con una aceleración específica de hardware optimizada.
Múltiples marcos de trabajo
Convierte modelos de JAX, Keras, PyTorch y TensorFlow para ejecutarlos en el perímetro.
Plataforma cruzada
Ejecuta exactamente el mismo modelo en Android, iOS, la Web y microcontroladores con SDK nativos.
Ligero y rápido
El entorno de ejecución eficiente de LiteRT solo ocupa unos pocos megabytes y permite la aceleración de modelos en CPU, GPU y NPU.
Comenzar
Explorador de modelos
Explora, depura y compara tus modelos de forma visual. Superponer comparativas de rendimiento y valores numéricos para identificar puntos de acceso problemáticos
Gemini Nano en Android y Chrome
Crea experiencias de IA generativa con el modelo integrado en el dispositivo más potente de Google