โปรแกรมฝังรูปภาพช่วยให้ฝังรูปภาพลงในเวกเตอร์ฟีเจอร์ที่มีมิติสูงได้ ซึ่งแสดงถึงความหมายเชิงความหมายของรูปภาพ จากนั้นจึงนำไปเปรียบเทียบกับ เวกเตอร์ฟีเจอร์ของรูปภาพอื่นๆ เพื่อประเมินความคล้ายคลึงกันเชิงความหมาย
ซึ่งแตกต่างจากการค้นหารูปภาพตรงที่ Image Embedder ช่วยให้ คำนวณความคล้ายคลึงระหว่างรูปภาพได้ทันทีแทนที่จะค้นหาผ่าน ดัชนีที่กำหนดไว้ล่วงหน้าซึ่งสร้างจากคลังรูปภาพ
ใช้ Task Library ImageEmbedder API เพื่อติดตั้งใช้งานโปรแกรมฝังรูปภาพที่กำหนดเอง
ในแอปบนอุปกรณ์เคลื่อนที่
ฟีเจอร์หลักของ ImageEmbedder API
การประมวลผลรูปภาพอินพุต รวมถึงการหมุน การปรับขนาด และการแปลงพื้นที่สี
ภูมิภาคที่สนใจของรูปภาพอินพุต
ฟังก์ชันยูทิลิตีในตัวเพื่อคำนวณความคล้ายกันของโคไซน์ระหว่างเวกเตอร์ฟีเจอร์
โมเดลโปรแกรมฝังรูปภาพที่รองรับ
เรารับประกันว่ารุ่นต่อไปนี้จะใช้ได้กับ ImageEmbedder
API
โมเดลเวกเตอร์ฟีเจอร์จากคอลเล็กชันโมดูลรูปภาพของ Google ใน Kaggle Models
โมเดลที่กำหนดเองซึ่งเป็นไปตามข้อกำหนดด้านความเข้ากันได้ของโมเดล
เรียกใช้การอนุมานใน C++
// Initialization
ImageEmbedderOptions options:
options.mutable_model_file_with_metadata()->set_file_name(model_path);
options.set_l2_normalize(true);
std::unique_ptr<ImageEmbedder> image_embedder = ImageEmbedder::CreateFromOptions(options).value();
// Create input frame_buffer_1 and frame_buffer_2 from your inputs `image_data1`, `image_data2`, `image_dimension1` and `image_dimension2`.
// See more information here: tensorflow_lite_support/cc/task/vision/utils/frame_buffer_common_utils.h
std::unique_ptr<FrameBuffer> frame_buffer_1 = CreateFromRgbRawBuffer(
image_data1, image_dimension1);
std::unique_ptr<FrameBuffer> frame_buffer_2 = CreateFromRgbRawBuffer(
image_data2, image_dimension2);
// Run inference on two images.
const EmbeddingResult result_1 = image_embedder->Embed(*frame_buffer_1);
const EmbeddingResult result_2 = image_embedder->Embed(*frame_buffer_2);
// Compute cosine similarity.
double similarity = ImageEmbedder::CosineSimilarity(
result_1.embeddings[0].feature_vector(),
result_2.embeddings[0].feature_vector());
ดูตัวเลือกเพิ่มเติมในการกำหนดค่า ImageEmbedder ได้ในซอร์สโค้ด
เรียกใช้การอนุมานใน Python
ขั้นตอนที่ 1: ติดตั้งแพ็กเกจ Pypi สำหรับการรองรับ TensorFlow Lite
คุณสามารถติดตั้งแพ็กเกจ TensorFlow Lite Support Pypi ได้โดยใช้คำสั่งต่อไปนี้
pip install tflite-support
ขั้นตอนที่ 2: การใช้โมเดล
from tflite_support.task import vision
# Initialization.
image_embedder = vision.ImageEmbedder.create_from_file(model_path)
# Run inference on two images.
image_1 = vision.TensorImage.create_from_file('/path/to/image1.jpg')
result_1 = image_embedder.embed(image_1)
image_2 = vision.TensorImage.create_from_file('/path/to/image2.jpg')
result_2 = image_embedder.embed(image_2)
# Compute cosine similarity.
feature_vector_1 = result_1.embeddings[0].feature_vector
feature_vector_2 = result_2.embeddings[0].feature_vector
similarity = image_embedder.cosine_similarity(
result_1.embeddings[0].feature_vector, result_2.embeddings[0].feature_vector)
ดูตัวเลือกเพิ่มเติมในการกำหนดค่า ImageEmbedder ได้ในซอร์สโค้ด
ตัวอย่างผลการแข่ง
ความคล้ายกันของโคไซน์ระหว่างเวกเตอร์ฟีเจอร์ที่ทำให้เป็นมาตรฐานจะแสดงผลคะแนนระหว่าง -1 ถึง 1 ยิ่งสูงยิ่งดี กล่าวคือ ความคล้ายคลึงกันของโคไซน์ที่ 1 หมายความว่าเวกเตอร์ 2 ตัวเหมือนกัน
Cosine similarity: 0.954312
ลองใช้เครื่องมือสาธิต CLI แบบง่ายสำหรับ ImageEmbedder กับโมเดลและข้อมูลทดสอบของคุณเอง
ข้อกำหนดความเข้ากันได้ของโมเดล
ImageEmbedder API คาดหวังโมเดล TFLite ที่มีข้อมูลเมตาของโมเดล TFLite ซึ่งไม่บังคับแต่ขอแนะนำเป็นอย่างยิ่ง
โมเดลการฝังรูปภาพที่เข้ากันได้ควรเป็นไปตามข้อกำหนดต่อไปนี้
เทนเซอร์รูปภาพอินพุต (kTfLiteUInt8/kTfLiteFloat32)
- อินพุตรูปภาพขนาด
[batch x height x width x channels] - ไม่รองรับการอนุมานแบบกลุ่ม (ต้องตั้งค่า
batchเป็น 1) - รองรับเฉพาะอินพุต RGB (
channelsต้องเป็น 3) - หากประเภทเป็น kTfLiteFloat32 จะต้องแนบ NormalizationOptions ไปกับข้อมูลเมตาสำหรับการปรับอินพุตให้เป็นมาตรฐาน
- อินพุตรูปภาพขนาด
เทนเซอร์เอาต์พุตอย่างน้อย 1 รายการ (kTfLiteUInt8/kTfLiteFloat32)
- โดยมี
Nองค์ประกอบที่สอดคล้องกับNมิติของเวกเตอร์ฟีเจอร์ที่ส่งคืน สำหรับเลเยอร์เอาต์พุตนี้ - มิติข้อมูล 2 หรือ 4 รายการ เช่น
[1 x N]หรือ[1 x 1 x 1 x N]
- โดยมี