AI Terminology
Danh sách các thuật ngữ chuyên ngành AI Engineering kèm theo định nghĩa ngắn gọn và ví dụ.
Context Engineering
Kỹ thuật thiết kế và tối ưu hóa thông tin đầu vào (context) cho LLM để đạt được kết quả tốt nhất. Nó bao gồm việc chọn lọc, nén, và định dạng dữ liệu (History, RAG, Tools) trước khi gửi cho model.
- Ví dụ: Thay vì gửi toàn bộ lịch sử chat 100 tin nhắn, chỉ gửi bản tóm tắt (summary) + 5 tin nhắn cuối cùng + 1 đoạn tài liệu từ RAG.
- Xem thêm: Context Engineering
Context Window
Giới hạn số lượng tokens mà model có thể xử lý trong một lần gọi (input + output). Đây là “bộ nhớ ngắn hạn” của model.
- Ví dụ: GPT-5 có context window 400K tokens (tương đương 1000 trang sách). Claude 4.5 Sonnet hỗ trợ đến 1 triệu tokens trong beta.
- Xem thêm: Context Window
Prompt Engineering
Nghệ thuật viết câu lệnh (instruction) để hướng dẫn model thực hiện tác vụ cụ thể. Tập trung vào việc tinh chỉnh từ ngữ, cấu trúc câu hỏi.
- Ví dụ: “Hãy viết một bài thơ” (Kém) vs “Hãy đóng vai một nhà thơ lãng mạn thế kỷ 19, viết bài thơ thất ngôn tứ tuyệt về trăng” (Tốt).
- Xem thêm: Prompt Engineering Guide (External)
RAG (Retrieval-Augmented Generation)
Kỹ thuật kết hợp Retrieval (Tìm kiếm dữ liệu bên ngoài) + Generation (Sinh văn bản). Giúp model trả lời chính xác dựa trên dữ liệu riêng (private data) mà nó không được huấn luyện.
- Ví dụ: Chatbot trả lời về chính sách nghỉ phép của công ty bằng cách tìm kiếm trong file PDF “Employee Handbook” trước khi trả lời.
- Xem thêm: RAG System
MCP (Model Context Protocol)
Một tiêu chuẩn mở (open standard) giúp kết nối các AI models với các hệ thống dữ liệu bên ngoài (database, tools, resources) một cách thống nhất. Giống như “cổng USB-C” cho các ứng dụng AI.
- Ví dụ: Thay vì mỗi ứng dụng AI phải tự viết code để kết nối Google Drive, Slack, GitHub… MCP cung cấp giao thức chung để AI Assistant (như Claude Desktop) có thể kết nối ngay lập tức với các nguồn này nếu chúng hỗ trợ MCP Server.
- Xem thêm: Model Context Protocol