Borda de IA do Google
IA no dispositivo para aplicativos incorporados, da Web e para dispositivos móveis
Soluções no dispositivo, de modelos a pipelines
Acelere a implantação de ML, otimize pipelines e acesse LLMs avançados com facilidade
Uma pilha completa com componentes de alto e baixo nível
Quais são as novidades do I/O?
MediaPipe
Crie facilmente soluções de ML inovadoras no dispositivo
TensorFlow Lite
Uma biblioteca leve e com vários frameworks para implantar modelos em dispositivos móveis, Web e microcontroladores.
IA generativa em execução no dispositivo
API MediaPipe LLM Inference
Execute os LLMs no dispositivo e realize diversas tarefas, como gerar texto, extrair informações em formato de linguagem natural e resumir documentos. A API oferece suporte integrado a vários modelos de linguagem grandes de texto para texto para que você possa aplicar os modelos de IA generativa mais recentes no dispositivo aos seus apps e produtos. Saiba mais
API Torch Generative
Crie LLMs de alto desempenho no PyTorch e depois os converta para serem executados no dispositivo usando o ambiente de execução do TensorFlow Lite (TFLite). Saiba mais.
Gemini Nano
Acesse nosso modelo Gemini mais eficiente para tarefas no dispositivo com o Android AICore. Em breve no Chrome.
Por que implantar ML em dispositivos de borda?
Demorada
Ignore o tempo de retorno do servidor para processamento de mídia fácil, rápido e em tempo real.
Privacidade
Faça inferências no local, sem que dados sensíveis saiam do dispositivo.
Custo
Use os recursos de computação no dispositivo e economize com o servidor.
Disponibilidade off-line
Sem conexão de rede. Não tem problema.