Dzięki MediaPipe LLM Inference możesz uruchamiać modele Gemma API. LLM Inference API działa jak kod dla dużych modeli językowych, umożliwiając uruchamianie Modele Gemma na urządzeniu do typowych zadań związanych z generowaniem tekstu na tekst, np. informacji pobieranie danych, tworzenie wersji roboczych e-maili i podsumowywanie dokumentów.
Wypróbuj interfejs LLM Inference API z MediaPipe Studio, aplikacja internetowa do oceny i dostosowywania modeli na urządzeniu.
Interfejs LLM Inference API jest dostępny na tych platformach:
Aby dowiedzieć się więcej, zapoznaj się z dokumentem MediaPipe LLM Inference dokumentacji.