Представляем LiteRT : высокопроизводительную среду выполнения Google для искусственного интеллекта на устройстве, ранее известную как TensorFlow Lite. Узнать больше
Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Модели машинного обучения (ML), которые вы используете с LiteRT, можно обучить с помощью JAX, PyTorch или TensorFlow, а затем преобразовать в формат плоского буфера TFLite.
Более подробную информацию смотрите на следующих страницах:
Обзор конвертера TFLite, который является важным компонентом поддержки различных платформ с помощью TFLite, находится в разделе Обзор преобразования моделей .
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2024-11-08 UTC."],[],[]]