Mục đích sử dụng: Sử dụng LLM để xử lý thông tin như phân loại, đưa ra câu trả lời. Thực hiện cài đặt các thông tin:Documentation Index
Fetch the complete documentation index at: https://docs-agents.fpt.ai/llms.txt
Use this file to discover all available pages before exploring further.
- Mô hình LLM dùng để đưa ra kết quả và các tham số của mô hình (nếu có nhu cầu).
- Biến ngữ cảnh dùng làm đầu vào cho LLM.
- Hướng dẫn cho LLM: Mô tả bằng ngôn ngữ tự nhiên (giao diện hiển thị tùy thuộc vào chế độ của mô hình)
- Lựa chọn trả ra kết quả JSON (Json Output). Nếu chọn Đầu ra Json thì phần biến xuất ra sẽ thêm trường
json array[object]. - Lựa chọn sử dụng bộ nhớ (memory).

Cấu hình mô hình LLM
| STT | Tên tham số | Ý nghĩa | Lưu ý |
|---|---|---|---|
| 1 | Temperature | Điều chỉnh độ “ngẫu nhiên” của kết quả | Nếu Temperature gần 0, mô hình sẽ cho ra kết quả chắc chắn, ổn định và ít sáng tạo. Trong thực tế, thường cài đặt Temperature thấp |
| 2 | Top P | Kiểm soát sự đa dạng. Mô hình lấy nhóm từ có tổng xác suất đạt đến mức P nhất định rồi chọn ngẫu nhiên trong nhóm đó | Top P thấp thì mô hình chọn từ cẩn trọng hơn và ít đa dạng hơn |
| 3 | Presence Penalty | Giảm lặp lại cùng một ý hoặc cùng thực thể | Presence Penalty càng cao thì mô hình càng không lặp ý |
| 4 | Frequency Penalty | Giảm việc lặp từ/cụm từ quá nhiều lần trong nội dung | Frequency Penalty cao → câu trả lời dùng từ vựng đa dạng hơn |
| 5 | Max token | Số token tối đa sử dụng để tạo kết quả |

Hướng dẫn cho LLM
Chọn mô hình mong muốn, phần cấu hình theo tương thích với chế độ hoạt động của mô hình đó. Chế độ này được cấu hình tại màn hình Quản lý Mô Hình (trường Chế độ Completion)..png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=5ef1037c6146458456649bb38cf6c7da)
- Mô hình là Completion mode: Cấu hình toàn bộ prompt trong Lời nhắc.
.png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=cb91f4ac426bf7679f602dd380eeee92)
- Mô hình là Chat mode: Chia thành các mục:
- System message: Xác định vai trò của AI, mục tiêu và các quy tắc trả lời (tone, format, giới hạn). Nội dung này giúp kiểm soát cách AI phản hồi một cách nhất quán.
- User message: Chứa yêu cầu, câu hỏi hoặc thông tin đầu vào từ người dùng. (không bắt buộc)
- Assistant Message: Lưu lại các phản hồi trước đó của AI trong hội thoại. Dùng để duy trì ngữ cảnh và giúp AI trả lời phù hợp ở các lượt tiếp theo (không bắt buộc), chỉ sử dụng khi cần mô phỏng hoặc kiểm soát thủ công lịch sử hội thoại.
.png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=92f05f4c977cec19d7ccf804c7a0b5d6)
.png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=ffa9acdc88ab19146ef131e91d94cd2c)
Những khối LLM cũ (tạo trước ngày 31/3/2026) cho phép chuyển giữa 2 chế độ.
.png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=69b500a58451df71da94a69e2d88592e)
Tham số Thinking mode
Thinking Mode cho phép model thực hiện lập luận nội bộ (reasoning) trước khi trả lời. Tính năng này chỉ khả dụng trên các model hỗ trợ reasoning. Cấu hình Thinking Support tại Quản lý Mô Hình Trong form chỉnh sửa model (dạng OpenAI-API-Compatible), trường Hỗ trợ chế độ tư duy cho phép chọn một trong ba giá trị:| Giá trị | Ý nghĩa |
|---|---|
| Only non-thinking mode | Model chỉ chạy luồng thông thường, không có reasoning. (Mặc định khi tạo mới) |
| Only thinking mode | Model luôn thực hiện reasoning. Người dùng không cần cấu hình thêm tại Node. |
| Both modes | Model hỗ trợ cả hai chế độ. Người dùng tự bật/tắt Thinking mode tại Node LLM. |
.png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=d5138ea8dd0014be8f86caa47bb22bcf)
Giá trị mặc định khi tạo mới model là Only non-thinking mode. Chỉ chọn Both modes khi model thực sự hỗ trợ reasoning ở cả hai chế độ.
| Cấu hình model | Hiển thị tại Node | Hành vi |
|---|---|---|
| Only non-thinking mode | Ẩn | Luôn chạy luồng thông thường. |
| Only thinking mode | Ẩn | Luôn chạy reasoning. Không cần người dùng thao tác. |
| Both modes | Hiển thị toggle Bật/Tắt (mặc định: Tắt) | Người dùng tự quyết định bật/tắt reasoning. |
.png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=480b030b0285b4af60f429da2e576937)
.png?fit=max&auto=format&n=-47K_wq6Fef2GjpP&q=85&s=dbb2ce07a3702c7aed345e4edbd09592)
Bật Enable Reasoning Tag Separation khi bạn muốn xử lý riêng phần reasoning của model, ví dụ: log lại nội dung suy luận hoặc hiển thị bước suy nghĩ cho người dùng cuối.
reasoning_content trong mục BIẾN XUẤT RA:
text– Nội dung câu trả lời chính.reasoning_content– Nội dung lập luận của model (có giá trị khi Enable Reasoning Tag Separation = ON; bằngnullkhi OFF).
Lựa chọn sử dụng bộ nhớ (memory)
- Nếu chọn Bộ nhớ, LLM sẽ kết hợp ngữ cảnh để đưa ra kết quả.
- Kích thước cửa sổ: Số lượt chat cần nhớ ngữ cảnh bao gồm cả lượt trả lời của AI Agent, mặc định là 50 lượt.
- Tên vai trò cuộc trò chuyện: Xác định vai trò trong cuộc trò chuyện.
- Tiền tố người dùng: Vai trò của đối tượng tương tác với AI Agent (ví dụ: khách hàng).
- Tiền tố trợ lý: Vai trò của AI Agent (ví dụ: chăm sóc khách hàng).
