llm-rag-eval

Trình đánh giá dựa trên Mô hình ngôn ngữ lớn cho quy trình RAG.

Ý nghĩa

Công cụ này cung cấp một khung dựa trên LLM để đánh giá hiệu suất của các hệ thống RAG bằng cách sử dụng một tập hợp các chỉ số được tối ưu hoá cho miền ứng dụng mà hệ thống RAG hoạt động. Chúng tôi đã sử dụng Gemini Pro 1.0 của Google AI làm LLM mà khung này sử dụng. Chúng tôi cũng đã sử dụng mô hình nhúng AI của Google để tạo các giá trị nhúng cho một số chỉ số.

Được tạo bằng

  • None (Không có)

Nhóm

Người cập nhật

llm-rag-eval

Từ

Hoa Kỳ