3. Cài đặt cấu hình truy vấn

Màn hình "Cài đặt cấu hình" cho phép quản trị viên tạo và quản lý các "bộ quy tắc" khác nhau để AI tuân theo khi trả lời câu hỏi. Mỗi cấu hình là một tập hợp các thiết lập chi tiết, từ việc chọn mô hình AI, tinh chỉnh các tham số, cho đến việc định hình "tính cách" và cách diễn đạt của AI thông qua các prompt. Việc này cho phép tạo ra nhiều phiên bản AI với các hành vi khác nhau để phục vụ các mục đích khác nhau.

3.1. Màn hình danh sách Cấu hình truy vấn

1. Từ menu điều hướng bên trái, nhấp vào mục "Quản lý RAG".

2. Một menu con sẽ hiện ra, nhấp vào "Cài đặt cấu hình" (được tô sáng trong hình).

Các thành phần chính:

  • Bộ lọc Nhóm tri thức (Knowledge Base): Cho phép bạn chọn nhóm tri thức để xem các cấu hình tương ứng. Ví dụ, trong hình đang chọn "Nội bộ".

  • Nút "+ Tạo cấu hình mới": Dùng để tạo một bộ cấu hình hoàn toàn mới.

  • Bảng danh sách cấu hình:

  • Tên cấu hình: Tên định danh cho cấu hình (ví dụ: H2, C2H3).

  • Loại mô hình: Cho biết mô hình AI được sử dụng là "Trực tuyến" (Online) hay "Cục bộ" (Local).

  • Mô hình: Tên mô hình AI cụ thể được sử dụng (ví dụ: gemini-2.0-flash-lite).

  • Mặc định: Dấu tích xanh cho biết đây là cấu hình mặc định sẽ được sử dụng cho Nhóm tri thức này nếu người dùng không chọn cấu hình nào khác.

  • Trạng thái: "Hoạt động" hoặc "Không hoạt động".

  • Thao tác: Các nút để Xem chi tiết, Chỉnh sửa, và Xóa cấu hình.

3.2. Chỉnh sửa / Tạo mới một cấu hình

Mô tả: Khi bạn nhấp vào "+ Tạo cấu hình mới" hoặc nút "Chỉnh sửa", một cửa sổ pop-up sẽ hiện ra với các tab chi tiết để bạn thiết lập.

Tab 1: Cấu hình Mô hình LLM

Mô tả: Tab này là nơi bạn chọn các thành phần công nghệ cốt lõi cho cấu hình, bao gồm mô hình ngôn ngữ lớn (LLM), mô hình embedding và các tham số kỹ thuật.Hướng dẫn cấu hình:

Tên cấu hình: Đặt một tên dễ nhận biết để phân biệt với các cấu hình khác (ví dụ: QT01).

Cấu hình Mô hình LLM:

- Loại mô hình: Chọn "Trực tuyến" (Online) để sử dụng các mô hình qua API hoặc "Cục bộ" (Local) cho các mô hình tự host.

- Nhà cung cấp mô hình: Chọn nhà cung cấp như "Gemini", "OpenAI"...

- Mô hình LLM: Chọn mô hình cụ thể sẽ tạo ra câu trả lời (ví dụ: gemini-2.0-flash-lite).

Cấu hình Embedding & Reranker:

- Mô hình Embedding: Chọn mô hình sẽ dùng để chuyển đổi văn bản thành vector (ví dụ: text-embedding-004). Đây là yếu tố quyết định khả năng tìm kiếm ngữ nghĩa.

- Mô hình Reranker: Chọn mô hình sẽ dùng để xếp hạng lại kết quả tìm kiếm, giúp đưa các chunk liên quan nhất lên đầu (ví dụ: bge-reranker-base).

Các tham số của LLM:

- Nhiệt độ (Temperature): Điều chỉnh độ "sáng tạo" của AI. Giá trị càng cao (gần 1.0), câu trả lời càng ngẫu nhiên và đa dạng. Giá trị càng thấp (gần 0.0), câu trả lời càng chắc chắn và lặp lại.

- Số token tối đa: Giới hạn độ dài tối đa của câu trả lời do AI sinh ra.

- Top P: Một tham số khác để kiểm soát tính ngẫu nhiên, thường chỉ sử dụng một trong hai (Nhiệt độ hoặc Top P).

Tab 2: Cấu hình Prompt

Mô tả: Tab này là nơi bạn "dạy" cho AI về vai trò, tính cách, và cách thức nó nên xây dựng câu trả lời. Đây là phần quyết định đến "văn phong" của AI.Hướng dẫn cấu hình:

  • Hướng dẫn hệ thống: Đây là phần "chỉ thị" quan trọng nhất, xác định vai trò tổng thể của AI. Ví dụ: "Bạn là một chuyên gia AI thông minh và luôn trả lời bằng tiếng Việt...".

  • Mẫu ngữ cảnh ({CONTEXT}): Định dạng cách mà các thông tin truy xuất từ tài liệu (các chunks) sẽ được đưa vào prompt cho AI. Biến {CONTEXT} sẽ được thay thế bằng nội dung thực tế của các chunks.

  • Mẫu câu hỏi ({QUERY}): Định dạng cách câu hỏi của người dùng sẽ được đưa vào prompt. Biến {QUERY} sẽ được thay thế bằng câu hỏi thực tế.

  • Hướng dẫn cách trả lời câu hỏi: Cung cấp các chỉ dẫn chi tiết hơn về định dạng đầu ra. Ví dụ: "Hãy trả lời một cách chuyên nghiệp, mạch lạc, chi tiết...".

  • Tham số Tìm kiếm & Xử lý:

- Số đoạn tối đa: Số lượng chunks liên quan nhất sẽ được lấy ra từ tài liệu để đưa vào Mẫu ngữ cảnh.

- Sử dụng Reranker: Bật/tắt mô hình xếp hạng lại kết quả tìm kiếm.

Last updated