Implante IA em aplicativos móveis, da Web e incorporados
-
No dispositivo
reduzir a latência. Trabalhe off-line. Mantenha seus dados locais e privados.
-
Várias plataformas
Execute o mesmo modelo em Android, iOS, Web e dispositivos incorporados.
-
Vários frameworks
Compatível com modelos JAX, Keras, PyTorch e TensorFlow.
-
Pilha completa de borda de IA
Frameworks flexíveis, soluções prontas para uso e aceleradores de hardware
Soluções prontas e frameworks flexíveis
APIs com pouco código para tarefas comuns de IA
APIs multiplataforma para lidar com tarefas comuns de IA generativa, visão, texto e áudio.
Introdução às tarefas do MediaPipe .Implante modelos personalizados em várias plataformas
Execute modelos JAX, Keras, PyTorch e TensorFlow com alto desempenho em dispositivos Android, iOS, Web e incorporados, otimizados para ML tradicional e IA generativa.
Introdução ao LiteRT .Encurtar ciclos de desenvolvimento com visualização
Visualize a transformação do seu modelo por meio de conversão e quantização. Depurar pontos de acesso por sobrepondo os resultados das comparações.
Comece a usar o Explorador de modelos .Criar pipelines personalizados para atributos complexos de ML
Crie sua própria tarefa encadeando vários modelos de ML de maneira eficiente com pré e pós-processamento lógica. Execute pipelines acelerados (GPU e NPU) sem bloqueio na CPU.
Introdução ao framework MediaPipe .As ferramentas e frameworks que alimentam os apps do Google
Conheça toda a pilha de borda de IA, com produtos em todos os níveis, de APIs com pouco código a bibliotecas de aceleração específicas de hardware.
Tarefas do MediaPipe
Crie recursos de IA rapidamente em apps para dispositivos móveis e da Web usando APIs com pouco código para tarefas comuns, como IA generativa, visão computacional, texto e áudio.
IA generativa
Integre linguagem generativa e modelos de imagem diretamente aos apps com APIs prontas para uso.
Vision
Explore uma grande variedade de tarefas de visão, incluindo segmentação, classificação, detecção, reconhecimento e pontos de referência corporais.
Texto e áudio
Classifique texto e áudio em várias categorias, incluindo idioma, sentimento e suas próprias categorias personalizadas.
Primeiros passos
Framework do MediaPipe
Um framework de baixo nível usado para criar pipelines de ML acelerados de alto desempenho, muitas vezes incluindo vários modelos de ML combinados com pré e pós-processamento.
LiteRT
Implante modelos de IA criados em qualquer framework em dispositivos móveis, Web e microcontroladores com aceleração otimizada específica de hardware.
Vários frameworks
Converter modelos do JAX, Keras, PyTorch e TensorFlow para execução na borda.
Várias plataformas
Execute o mesmo modelo em Android, iOS, Web e microcontroladores com SDKs nativos.
Leve e rápido
O ambiente de execução eficiente do LiteRT ocupa apenas alguns megabytes e permite a aceleração de modelos em CPUs, GPUs e NPUs.
Primeiros passos
Simulador de modelos
Analise, depure e compare seus modelos visualmente. Sobreponha valores e comparativos de mercado de desempenho para identificar pontos problemáticos.
Gemini Nano no Android e Google Chrome
Crie experiências de IA generativa usando o modelo no dispositivo mais poderoso do Google