LiteRT en los Servicios de Google Play

LiteRT está disponible en el entorno de ejecución de los Servicios de Google Play para todos los dispositivos Android que ejecutan la versión actual de los Servicios de Play. Este entorno de ejecución te permite ejecutar modelos de aprendizaje automático (AA) sin agrupar bibliotecas de LiteRT de forma estática en tu app.

Con la API de los Servicios de Google Play, puedes reducir el tamaño de tus apps y obtener un rendimiento mejorado a partir de la versión estable más reciente de las bibliotecas. TensorFlow Lite en los Servicios de Google Play es la forma recomendada de usar LiteRT en Android.

Si ya usas TensorFlow Lite independiente en tu app, consulta la sección Cómo migrar de LiteRT independiente para actualizar una app existente y usar el entorno de ejecución de los Servicios de Play. Para obtener más información sobre los Servicios de Google Play, consulta el sitio web de los Servicios de Google Play.

Cómo usar el entorno de ejecución de los Servicios de Play

LiteRT en los Servicios de Google Play está disponible a través de las siguientes APIs de lenguaje de programación:

Limitaciones

LiteRT en los Servicios de Google Play tiene las siguientes limitaciones:

  • La compatibilidad con los delegados de aceleración de hardware se limita a los delegados que se enumeran en la sección Aceleración de hardware. No se admiten otros delegados de aceleración.
  • No se admiten las APIs experimentales o obsoletas de LiteRT, incluidas las operaciones personalizadas.

Asistencia y comentarios

Puedes enviar comentarios y obtener asistencia a través de la Herramienta de seguimiento de errores de TensorFlow. Informa los problemas y las solicitudes de asistencia con la plantilla de problemas para LiteRT en los Servicios de Google Play.

Condiciones del Servicio

El uso de LiteRT en las APIs de los Servicios de Google Play está sujeto a las Condiciones del Servicio de las APIs de Google.

Privacidad y recopilación de datos

Cuando usas LiteRT en las APIs de los Servicios de Google Play, el procesamiento de los datos de entrada, como imágenes, videos y texto, se realiza por completo en el dispositivo, y TensorFlow Lite en las APIs de los Servicios de Google Play no envía esos datos a los servidores de Google. Como resultado, puedes usar nuestras APIs para procesar datos que no deben salir del dispositivo.

Es posible que LiteRT en las APIs de Servicios de Google Play se comunique con los servidores de Google de vez en cuando para recibir información de compatibilidad con el acelerador de hardware, correcciones de errores y modelos actualizados. LiteRT en las APIs de los Servicios de Google Play también envía métricas sobre el rendimiento y el uso de las APIs de tu app a Google. Google usa estos datos de métricas para medir el rendimiento, depurar, mantener y mejorar las APIs, y detectar el uso inadecuado o el abuso, como se describe con más detalle en nuestra Política de Privacidad.

Usted es responsable de informar a los usuarios de su app sobre el procesamiento que hace Google de LiteRT en los datos de métricas de las APIs de los Servicios de Google Play, según lo exija la ley aplicable.

Entre los datos que recopilamos, se incluyen los siguientes:

  • Información del dispositivo (como el fabricante, el modelo, la versión y la compilación del SO) y los aceleradores de hardware de AA disponibles (GPU y DSP) Se usa para el diagnóstico y las estadísticas de uso.
  • Es el identificador de dispositivo que se usa para el diagnóstico y el análisis de uso.
  • Información de la app (nombre del paquete, versión de la app) Se usa para el diagnóstico y las estadísticas de uso.
  • Configuración de la API (como qué delegados se usan) Se usa para el diagnóstico y las estadísticas de uso.
  • Tipo de evento (como la creación de intérpretes, la inferencia). Se usa para el diagnóstico y el análisis de uso.
  • Códigos de error Se usa para el diagnóstico.
  • Métricas de rendimiento Se usa para el diagnóstico.