
Gen AI cho Marketer: Prompt Engineering Là Gì?
Chào bạn, Trí đây!
Ở những bài viết trước, chúng ta đã cùng nhau khám phá thế giới kỳ diệu của Generative AI - Trí tuệ nhân tạo Tạo sinh. Chúng ta biết nó có thể viết văn, vẽ tranh, làm thơ... Nhưng có một câu hỏi lớn: Làm thế nào để chúng ta "trò chuyện" với AI một cách hiệu quả?
Chắc hẳn bạn đã từng thử dùng ChatGPT và nhận về những câu trả lời chung chung, không đúng ý. Vấn đề không nằm ở AI, mà nằm ở cách chúng ta "ra lệnh". Và nghệ thuật "ra lệnh" đó có một cái tên rất chuyên nghiệp: Prompt Engineering.
Trong bài viết này, Trí sẽ giải thích cặn kẽ Prompt Engineering là gì và nền tảng đằng sau nó, để bạn có thể biến AI từ một cỗ máy thông minh thành một trợ lý đắc lực thực sự.

Prompt Engineering Là Gì?
Trước hết, hãy nhắc lại nhanh: Generative AI là công nghệ sử dụng AI để tạo ra dữ liệu mới như văn bản, hình ảnh, âm thanh, video, và thậm chí là code lập trình.
Vậy thì, Prompt Engineering (Kỹ thuật câu lệnh) chính là nghệ thuật và khoa học của việc xây dựng những câu lệnh (input),những lời chỉ dẫn, để khai thác tối đa sức mạnh của các mô hình Generative AI, đặc biệt là các mô hình ngôn ngữ.
Đây là kỹ năng tỏa sáng khi bạn làm việc với các công cụ hàng đầu hiện nay:
- AI Chatbot: ChatGPT (GPT-4, GPT-4o),Microsoft Copilot, Google Gemini, Claude.
- AI Tạo Ảnh: DALL-E (tích hợp trong ChatGPT),Stable Diffusion, Midjourney.
- AI Tạo Video: Sora.
Nói đơn giản, Prompt Engineering là cách bạn đặt câu hỏi để nhận được câu trả lời tốt nhất.
Tại Sao Câu Lệnh Lại Quan Trọng? Nền Tảng Của LLM
Để hiểu tại sao câu lệnh lại quan trọng đến vậy, chúng ta cần biết AI "suy nghĩ" bằng gì. Chúng không suy nghĩ bằng "từ" (word) như con người, mà bằng "token".
"Token" Chứ Không Phải "Từ": Ngôn Ngữ Của AI
Token là một đơn vị thông tin mà mô hình ngôn ngữ có thể dễ dàng xử lý. Nó có thể là một từ, một phần của từ, hoặc một dấu câu. Việc chia nhỏ câu chữ thành các token được gọi là Tokenization.
Hãy xem ví dụ để dễ hiểu nhé:
| Từ/Cụm từ của người | Cách AI có thể "bẻ" thành Token | Số Lượng Token |
|---|---|---|
everyday | every + day | 2 |
joyful | joy + ful | 2 |
I'd like | I + 'd + like | 3 |
I would like | I + would + like | 3 |
Việc "bẻ nhỏ" này giúp mô hình hiểu các mẫu câu và ngữ pháp phức tạp một cách hiệu quả hơn. Mỗi mô hình AI có cách chia token khác nhau, và điều này ảnh hưởng trực tiếp đến hiệu suất của chúng.

LLM - Cỗ Máy Dự Đoán Ký Tự Tiếp Theo
Vậy Mô hình ngôn ngữ lớn (Large Language Model - LLM) như GPT-4o hoạt động như thế nào với các token này?
Cốt lõi của chúng là một cỗ máy dự đoán siêu hạng. Khi bạn đưa ra một câu lệnh (prompt),nó sẽ liên tục dự đoán token tiếp theo có khả năng xuất hiện cao nhất.
Hãy tưởng tượng một ví dụ đơn giản. Bạn gõ vào prompt:
"Tôi cố gắng học một điều gì đó mới..."
AI không "hiểu" câu này theo cách con người hiểu. Thay vào đó, nó mở ra một "Vòng quay may mắn" chứa đầy các token có khả năng xuất hiện tiếp theo, mỗi token có một tỷ lệ xác suất riêng dựa trên hàng tỷ dữ liệu nó đã học.
Vòng quay đó có thể trông như thế này:
- Token "mỗi" (every): 45% khả năng
- Token "hàng" (every/daily): 20% khả năng
- Token "mỗi ngày" (everyday): 15% khả năng
- Token "thêm" (more): 5% khả năng
- Các token khác: 15%
Nó quay vòng quay, và token có xác suất cao nhất sẽ được chọn (ví dụ: "mỗi"). Giờ đây, chuỗi văn bản đã trở thành:
"Tôi cố gắng học một điều gì đó mới mỗi..."
Quá trình lại tiếp tục! AI lại mở ra một "Vòng quay may mắn" mới để dự đoán token tiếp theo sau từ "mỗi", và có thể nó sẽ chọn ra từ "ngày". Cứ như vậy, nó tạo ra một câu hoàn chỉnh.
Điều quan trọng cần nhớ: Đây vẫn là một chuỗi token được tạo ra ngẫu nhiên dựa trên xác suất, vì vậy nó không được đảm bảo chính xác 100%. Để có thể dự đoán tốt như vậy, các mô hình LLM đã được huấn luyện trên một lượng dữ liệu khổng lồ, bao gồm gần như toàn bộ website có thể truy cập, vô số sách văn học, và được tinh chỉnh để trở nên giỏi hơn trong các kỹ năng cụ thể như trò chuyện.
Lời Kết
Vậy, Prompt Engineering thực chất là gì? Đó là việc chúng ta đưa ra một câu lệnh khởi đầu thật tốt, thật nhiều bối cảnh, để hướng dẫn "Vòng quay may mắn" của AI có xu hướng quay ra những kết quả mà chúng ta mong muốn. Một câu lệnh tốt sẽ thu hẹp các khả năng, giúp AI dự đoán các token tiếp theo một cách chính xác và phù hợp hơn với ý định của bạn.
Trong các bài viết tiếp theo, chúng ta sẽ đi sâu vào các kỹ thuật Prompt Engineering cụ thể để bạn có thể áp dụng ngay lập tức.
Bạn đã bao giờ gặp khó khăn khi "ra lệnh" cho ChatGPT chưa? Hãy chia sẻ kinh nghiệm của bạn ở phần bình luận nhé!

Article by Võ Minh Trí
Published 27 Oct 2025