Implante IA em aplicativos móveis, da Web e incorporados
-
No dispositivo
reduzir a latência. Trabalhe off-line. Mantenha seus dados locais e privados.
-
Várias plataformas
Execute o mesmo modelo no Android, iOS, Web e incorporado.
-
Vários frameworks
Compatível com modelos JAX, Keras, PyTorch e TensorFlow.
-
Pilha completa de IA
Frameworks flexíveis, soluções chave na mão e aceleradores de hardware
Soluções prontas e frameworks flexíveis
APIs de pouco código para tarefas comuns de IA
APIs multiplataforma para lidar com tarefas comuns de IA generativa, visão, texto e áudio.
Comece a usar as tarefas do MediaPipeImplante modelos personalizados em várias plataformas
Execute modelos JAX, Keras, PyTorch e TensorFlow com eficiência em dispositivos Android, iOS, Web e incorporados, otimizados para ML tradicional e IA generativa.
Introdução ao LiteRTEncurtar os ciclos de desenvolvimento com a visualização
Visualize a transformação do seu modelo por meio de conversão e quantização. Depurar pontos de acesso sobrepondo os resultados de comparativos.
Introdução ao Explorador de modelosCriar pipelines personalizados para atributos complexos de ML
Crie sua própria tarefa encadeando vários modelos de ML com a lógica de pré e pós-processamento. Execute pipelines acelerados (GPU e NPU) sem bloqueio na CPU.
Introdução ao framework MediaPipeAs ferramentas e frameworks que alimentam os apps do Google
Conheça toda a pilha de borda de IA, com produtos em todos os níveis, de APIs com pouco código a bibliotecas de aceleração específicas de hardware.
Tarefas do MediaPipe
Crie rapidamente recursos de IA em apps para dispositivos móveis e Web usando APIs de pouco código para tarefas comuns que abrangem IA generativa, visão computacional, texto e áudio.
IA generativa
Integre linguagem generativa e modelos de imagem diretamente aos apps com APIs prontas para uso.
Vision
Explore uma grande variedade de tarefas de visão, incluindo segmentação, classificação, detecção, reconhecimento e pontos de referência corporais.
Texto e áudio
Classifique texto e áudio em várias categorias, incluindo idioma, sentimento e suas próprias categorias personalizadas.
Primeiros passos
Framework MediaPipe
Um framework de baixo nível usado para criar pipelines de ML acelerados de alto desempenho, muitas vezes incluindo vários modelos de ML combinados com pré e pós-processamento.
LiteRT
Implante modelos de IA criados em qualquer framework em dispositivos móveis, Web e microcontroladores com aceleração otimizada específica de hardware.
Vários frameworks
Converta modelos do JAX, Keras, PyTorch e TensorFlow para execução na borda.
Várias plataformas
Execute o mesmo modelo em Android, iOS, Web e microcontroladores com SDKs nativos.
Leve e rápido
O ambiente de execução eficiente do LiteRT ocupa apenas alguns megabytes e permite a aceleração de modelos em CPUs, GPUs e NPUs.
Primeiros passos
Simulador de modelos
Analise, depure e compare seus modelos visualmente. Sobreponha valores e comparativos de mercado de desempenho para identificar pontos problemáticos.
Gemini Nano no Android e no Chrome
Crie experiências de IA generativa usando o modelo no dispositivo mais poderoso do Google