Chạy hiệu quả các mô hình JAX, Keras, PyTorch và TensorFlow trên Android, iOS, web và các thiết bị nhúng, được tối ưu hoá cho học máy truyền thống và AI tạo sinh.
Xây dựng quy trình tuỳ chỉnh cho các tính năng máy học phức tạp
Tạo tác vụ của riêng bạn bằng cách tạo chuỗi nhiều mô hình học máy cùng với logic xử lý trước và sau. Chạy quy trình tăng tốc (GPU và NPU) mà không chặn trên CPU.
Các công cụ và khung hỗ trợ các ứng dụng của Google
Khám phá toàn bộ ngăn xếp AI cạnh, với các sản phẩm ở mọi cấp độ — từ API mã thấp đến thư viện tăng tốc dành riêng cho phần cứng.
Các tác vụ MediaPipe
Nhanh chóng xây dựng các tính năng AI vào ứng dụng di động và web bằng API ít mã cho các tác vụ phổ biến liên quan đến AI tạo sinh, thị giác máy tính, văn bản và âm thanh.
AI tạo sinh
Tích hợp trực tiếp mô hình hình ảnh và ngôn ngữ tạo sinh vào ứng dụng của bạn bằng các API sẵn sàng sử dụng.
Thị giác
Khám phá nhiều nhiệm vụ thị giác bao gồm phân đoạn, phân loại, phát hiện, nhận dạng và các điểm đánh dấu trên cơ thể.
Văn bản và âm thanh
Phân loại văn bản và âm thanh theo nhiều danh mục, bao gồm ngôn ngữ, cảm xúc và các danh mục tuỳ chỉnh của riêng bạn.
Triển khai các mô hình AI được tạo trong bất kỳ khung nào trên thiết bị di động, web và bộ vi điều khiển với tính năng tăng tốc dành riêng cho phần cứng được tối ưu hoá.
Đa khung
Chuyển đổi mô hình từ JAX, Keras, PyTorch và TensorFlow để chạy trên thiết bị biên.
Nhiều nền tảng
Chạy chính xác cùng một mô hình trên Android, iOS, web và bộ vi điều khiển bằng SDK gốc.
Nhẹ và nhanh
Thời gian chạy hiệu quả của LiteRT chỉ chiếm vài megabyte và cho phép tăng tốc mô hình trên CPU, GPU và NPU.
Khám phá, gỡ lỗi và so sánh các mô hình của bạn một cách trực quan. Lớp phủ các điểm chuẩn hiệu suất và số liệu để xác định các điểm nóng gây phiền toái.
[[["Dễ hiểu","easyToUnderstand","thumb-up"],["Giúp tôi giải quyết được vấn đề","solvedMyProblem","thumb-up"],["Khác","otherUp","thumb-up"]],[["Thiếu thông tin tôi cần","missingTheInformationINeed","thumb-down"],["Quá phức tạp/quá nhiều bước","tooComplicatedTooManySteps","thumb-down"],["Đã lỗi thời","outOfDate","thumb-down"],["Vấn đề về bản dịch","translationIssue","thumb-down"],["Vấn đề về mẫu/mã","samplesCodeIssue","thumb-down"],["Khác","otherDown","thumb-down"]],[],[],[],null,["# Google AI Edge\n\n### Deploy AI across mobile, web, and embedded applications\n\n - \n\n #### On device\n\n Reduce latency. Work offline. Keep your data local \\& private.\n- \n - \n\n #### Cross-platform\n\n Run the same model across Android, iOS, web, and embedded.\n- \n - \n\n #### Multi-framework\n\n Compatible with JAX, Keras, PyTorch, and TensorFlow models.\n- \n - \n\n #### Full AI edge stack\n\n Flexible frameworks, turnkey solutions, hardware accelerators\n\nReady-made solutions and flexible frameworks\n--------------------------------------------\n\n### Low-code APIs for common AI tasks\n\nCross-platform APIs to tackle common generative AI, vision, text, and audio tasks.\n[Get started with MediaPipe tasks](https://ai.google.dev/edge/mediapipe/solutions/guide) \n\n### Deploy custom models cross-platform\n\nPerformantly run JAX, Keras, PyTorch, and TensorFlow models on Android, iOS, web, and embedded devices, optimized for traditional ML and generative AI.\n[Get started with LiteRT](https://ai.google.dev/edge/litert) \n\n### Shorten development cycles with visualization\n\nVisualize your model's transformation through conversion and quantization. Debug hotspots by\noverlaying benchmarks results.\n[Get started with Model Explorer](https://ai.google.dev/edge/model-explorer) \n\n### Build custom pipelines for complex ML features\n\nBuild your own task by performantly chaining multiple ML models along with pre and post processing\nlogic. Run accelerated (GPU \\& NPU) pipelines without blocking on the CPU.\n[Get started with MediaPipe Framework](https://ai.google.dev/edge/mediapipe/framework) \n\nThe tools and frameworks that power Google's apps\n-------------------------------------------------\n\nExplore the full AI edge stack, with products at every level --- from low-code APIs down to hardware specific acceleration libraries. \n\nMediaPipe Tasks\n---------------\n\nQuickly build AI features into mobile and web apps using low-code APIs for common tasks spanning generative AI, computer vision, text, and audio. \nGenerative AI\n\nIntegrate generative language and image models directly into your apps with ready-to-use APIs. \nVision\n\nExplore a large range of vision tasks spanning segmentation, classification, detection, recognition, and body landmarks. \nText \\& audio\n\nClassify text and audio across many categories including language, sentiment, and your own custom categories. \nGet started \n[### Tasks documentation\nFind all of our ready-made low-code MediaPipe Tasks with documentation and code samples.](https://ai.google.dev/edge/mediapipe/solutions/guide) \n[### Generative AI tasks\nRun LLMs and diffusion models on the edge with our MediaPipe generative AI tasks.](https://ai.google.dev/edge/mediapipe/solutions/genai/llm_inference) \n[### Try demos\nExplore our library of MediaPipe Tasks and try them yourself.](https://goo.gle/mediapipe-studio) \n[### Model maker documentation\nCustomize the models in our MediaPipe Tasks with your own data.](https://ai.google.dev/edge/mediapipe/solutions/model_maker) \n\nMediaPipe Framework\n-------------------\n\nA low level framework used to build high performance accelerated ML pipelines, often including multiple ML models combined with pre and post processing. \n[Get started](https://ai.google.dev/edge/mediapipe/framework) \n\nLiteRT\n------\n\nDeploy AI models authored in any framework across mobile, web, and microcontrollers with optimized hardware specific acceleration. \nMulti-framework\n\nConvert models from JAX, Keras, PyTorch, and TensorFlow to run on the edge. \nCross-platform\n\nRun the same exact model on Android, iOS, web, and microcontrollers with native SDKs. \nLightweight \\& fast\n\nLiteRT's efficient runtime takes up only a few megabytes and enables model acceleration across CPU, GPU, and NPUs. \nGet started \n[### Pick a model\nPick a new model, retrain an existing one, or bring your own.](https://ai.google.dev/edge/litert/models/trained) \n[### Convert\nConvert your JAX, Keras, PyTorch, or Tensorflow model into an optimized LiteRT model.](https://ai.google.dev/edge/litert/models/convert_to_flatbuffer) \n[### Deploy\nRun a LiteRT model on Android, iOS, web, and microcontrollers.](https://ai.google.dev/edge/litert#integrate-model) \n[### Quantize\nCompress your model to reduce latency, size, and peak memory.](https://ai.google.dev/edge/litert/models/model_optimization) \n\nModel Explorer\n--------------\n\nVisually explore, debug, and compare your models. Overlay performance benchmarks and numerics to pinpoint troublesome hotspots. \n[Get started](https://ai.google.dev/edge/model-explorer) \n\nGemini Nano in Android \\& Chrome\n--------------------------------\n\nBuild generative AI experiences using Google's most powerful, on-device model \n[Learn more about Android AICore](https://developer.android.com/ai/aicore) [Learn more about Chrome Built-In AI](https://developer.chrome.com/docs/ai) \n\nRecent videos and blog posts\n----------------------------\n\n[### A walkthrough for Android's on-device GenAI solutions\n1 October 2024](https://www.youtube.com/watch?v=EpKghZYqVW4) \n[### How to bring your AI Model to Android devices\n2 October 2024](https://android-developers.googleblog.com/2024/10/bring-your-ai-model-to-android-devices.html) \n[### Gemini Nano is now available on Android via experimental access\n1 October 2024](https://android-developers.googleblog.com/2024/10/gemini-nano-experimental-access-available-on-android.html) \n[### TensorFlow Lite is now LiteRT\n4 September 2024](https://developers.googleblog.com/en/tensorflow-lite-is-now-litert)"]]