Lộ trình học AI trong 30 ngày cho người mới: Cách mình học từ số 0 để dùng AI hiệu quả trong công việc thật

học gì làm gì để không bị AI thay thế

Nếu bạn hỏi mình: “Học AI có khó không?”

Câu trả lời thật lòng là: không khó, nhưng rất dễ học sai cách.

Mình gặp rất nhiều người nói rằng họ đã dùng ChatGPT, Claude, Gemini… suốt nhiều tháng, thậm chí mỗi ngày. Nhưng khi hỏi sâu hơn thì câu chuyện thường lặp lại: AI lúc trả lời rất hay, lúc lại “ngớ ngẩn”; có lúc giúp được việc, có lúc làm mình mất thêm thời gian vì phải sửa lại từ đầu.

Vấn đề không nằm ở AI. Vấn đề nằm ở thứ tự mình học và cách mình dùng.

Trong bài viết này, mình muốn chia sẻ lộ trình học AI trong 30 ngày (chia thành 4 tuần) mà nếu được quay lại từ đầu, mình sẽ chọn đi theo. Lộ trình này không dành cho kỹ sư AI, cũng không cần biết lập trình, mà dành cho những người muốn dùng AI hiệu quả trong công việc thật: viết lách, marketing, kinh doanh, vận hành, học tập.

Vì sao phần lớn mọi người học AI sai cách?

Sai lầm phổ biến nhất mà mình thấy là nhảy thẳng vào công cụ.

Nghe AI tạo ảnh đẹp là lao vào tạo ảnh. Thấy người khác “bắt AI viết content viral” là copy prompt về dùng. Thấy trên mạng nói về chatbot, agent, fine-tuning là bắt đầu cảm thấy mình bị tụt hậu.

Trong khi đó, rất ít người dừng lại để hỏi những câu rất cơ bản:

  • AI thật sự hoạt động như thế nào?
  • Vì sao cùng một câu hỏi, lúc AI trả lời hay, lúc lại dở?
  • Vì sao có lúc AI quên mất thứ mình vừa nói vài câu trước?

Không hiểu nền tảng, nên khi dùng AI có vấn đề, mình chỉ biết đổ cho “AI ngu”, thay vì nhận ra rằng mình đang giao việc sai cách.

Tuần 1: Hiểu AI đang làm gì (để không kỳ vọng sai)

Tuần đầu tiên, mình không cố gắng làm cho AI “ra sản phẩm”. Mục tiêu duy nhất của mình là hiểu đúng bản chất.

AI không “hiểu” như con người

Điều đầu tiên mình phải chấp nhận là: AI không suy nghĩ, không có ý thức, không hiểu theo nghĩa con người hiểu. AI giỏi ở một việc duy nhất: dự đoán từ tiếp theo dựa trên xác suất từ dữ liệu đã học.

Trước hết, AI là gì nếu nói một cách dễ hiểu? Với mình, AI (trí tuệ nhân tạo) đơn giản là máy “bắt chước” cách con người suy nghĩ và trả lời. Trong số đó, thứ chúng ta gặp nhiều nhất hiện nay là AI biết đọc và viết chữ, như ChatGPT hay Claude.

Để không bị rối, mình chỉ cần nhớ AI có ba tầng. Tầng lớn nhất là AI – tên gọi chung. Bên trong đó là Machine Learning, nơi AI học từ dữ liệu thay vì làm theo quy tắc cứng. Sâu hơn nữa là Deep Learning, dạng học sâu, cũng chính là nền tảng của các AI hiện đại ngày nay.

AI không “hiểu” theo kiểu con người hiểu, mà rất giỏi trong việc đoán từ tiếp theo dựa trên lượng dữ liệu đã học.

Ví dụ:

Khi mình gõ:

“Hôm nay trời rất…”

AI sẽ dự đoán tiếp những từ có xác suất cao nhất như “đẹp”, “nóng”, “mưa”.

Nó làm việc này tốt đến mức khiến mình có cảm giác là nó hiểu mình. Nhưng thực ra, nó chỉ đang đoán chữ rất giỏi.

Hiểu điều này giúp mình:

  • Bớt kỳ vọng AI “tự hiểu ý”
  • Bắt đầu học cách nói rõ ràng hơn

Token – cách AI đọc chữ (và vì sao viết dài chưa chắc tốt)

Token là gì?

Hãy tưởng tượng bạn đang đọc một cuốn sách, nhưng thay vì đọc từng chữ cái, bạn đọc theo “mảnh từ”. Token chính là những “mảnh” mà AI dùng để xử lý ngôn ngữ.

AI không đọc chữ theo kiểu từng ký tự như con người. Nó đọc theo token – những mảnh nhỏ của từ, có thể là một từ hoàn chỉnh, một phần của từ, hoặc thậm chí là dấu câu.

Ví dụ thực tế với tiếng Việt:

  • “Xin chào” → thường rơi vào khoảng 2 tokens
  • “Ngọc Đến Rồi” → khoảng 4-5 tokens (vì mỗi từ có dấu được tách riêng)
  • Một đoạn 100 chữ tiếng Việt có thể tương đương 130–150 tokens

Ví dụ với tiếng Anh (dễ thấy hơn):

  • “Hello” → 1 token
  • “Hello world!” → 3 tokens (Hello / world / !)
  • “I don’t understand” → 4 tokens (I / don / ‘t / understand)

Tại sao token lại quan trọng?

  1. AI tính chi phí theo token
    • ChatGPT Plus, Claude Pro… đều giới hạn số token bạn dùng mỗi tháng
    • Nếu bạn dùng bản API trả theo usage, mỗi token đều có giá
    • Ví dụ: GPT-4 tính khoảng $0.03/1000 tokens input
  2. Viết càng dài → càng tốn token → càng tốn tiền
    • Một prompt 500 chữ tiếng Việt ≈ 650-700 tokens
    • Nếu AI trả lời thêm 1000 chữ ≈ 1300 tokens
    • Tổng cộng gần 2000 tokens chỉ cho 1 lần hỏi đáp
  3. Khi token quá nhiều, AI dễ quên ý hoặc trả lời bị cắt ngang
    • Mỗi model AI có giới hạn context window (sẽ giải thích ở phần Context bên dưới)
    • GPT-4: 8,000 – 128,000 tokens tùy phiên bản
    • Claude: 200,000 tokens
    • Gemini: 1,000,000 tokens

Bài học thực tế của mình:

Từ lúc hiểu token, mình thay đổi hẳn cách viết prompt: ít chữ hơn, nhưng rõ ý hơn.

Thay vì viết:

“Tôi muốn bạn giúp tôi viết một bài blog dài khoảng 1000 chữ nói về chủ đề làm việc từ xa, trong đó cần phải đề cập đến những lợi ích, những thách thức, và cách vượt qua những thách thức đó. Bài viết cần phải có giọng văn thân thiện, dễ đọc, phù hợp với người Việt Nam…”

Mình viết ngắn gọn:

“Viết bài 1000 chữ về làm việc từ xa: lợi ích, thách thức, giải pháp. Giọng thân thiện, dễ hiểu, cho độc giả Việt.”

Kết quả giống nhau, nhưng tiết kiệm được 30-40% tokens!

Context – trí nhớ tạm thời của AI

Context là gì?

Context (hay context window) giống như “khối óc tạm thời” của AI trong mỗi cuộc trò chuyện. Nó quyết định AI có thể “nhớ” được bao nhiêu thông tin cùng lúc.

Một hiểu lầm rất phổ biến là nghĩ rằng AI “nhớ hết mọi thứ”. Thực tế, AI chỉ nhớ được một lượng thông tin nhất định trong mỗi cuộc trò chuyện, được đo bằng số lượng tokens.

Tình huống quen thuộc:

Mình gửi cho AI 4–5 đoạn hướng dẫn dài. Sau đó quay lại hỏi về đoạn đầu tiên. AI trả lời sai hoặc quên hẳn.

Không phải AI ngu. Nó chỉ đang quá tải trí nhớ.

Ví dụ cụ thể để hiểu rõ hơn:

Hãy tưởng tượng context window như một cuốn sổ tay có 100 trang:

  • Trang 1-20: Bạn viết hướng dẫn chi tiết về dự án A
  • Trang 21-50: Bạn hỏi về dự án B, AI trả lời dài
  • Trang 51-80: Bạn hỏi về dự án C
  • Trang 81-100: Bạn quay lại hỏi về dự án A

Lúc này, AI phải “lật lại” 80 trang để tìm thông tin về dự án A. Nếu context window đã đầy (hết 100 trang), những thông tin đầu tiên sẽ bị “xóa đi” để nhường chỗ cho thông tin mới.

Kích thước context window của các AI phổ biến:

  • GPT-3.5: 4,096 tokens (~3,000 chữ tiếng Anh, ~2,000 chữ tiếng Việt)
  • GPT-4: 8,000 – 128,000 tokens (tùy phiên bản)
  • Claude 3.5 Sonnet: 200,000 tokens (~150,000 chữ tiếng Anh)
  • Gemini 1.5 Pro: 1,000,000 tokens (khủng nhất hiện nay)

Cách mình khắc phục vấn đề context:

  1. Tóm tắt lại ý chính trước khi hỏi tiếp
    • Thay vì để AI nhớ hết 10 câu hỏi trước, mình tóm lại thành 2-3 điểm chính
  2. Chia nội dung dài thành từng phần
    • Không gửi 1 lúc 20 trang tài liệu
    • Chia thành 4-5 phần nhỏ, hỏi dần
  3. Nhắc lại bối cảnh quan trọng khi cần
    • Ví dụ: “Như đã nói ở đầu cuộc trò chuyện, mình là một blogger…”
    • Hoặc: “Quay lại vấn đề A mà mình đã đề cập lúc đầu…”

Mẹo pro:

Nếu cuộc trò chuyện quá dài và AI bắt đầu “quên”, mình thường:

  • Mở cuộc trò chuyện mới
  • Copy phần tóm tắt quan trọng nhất vào đầu
  • Tiếp tục từ đó

Temperature – nút chỉnh độ sáng tạo mà ít người để ý

Temperature là gì?

Temperature (nhiệt độ) là một thông số kỹ thuật điều chỉnh độ “ngẫu nhiên” hoặc “sáng tạo” trong cách AI chọn từ.

Hãy tưởng tượng AI đang đứng trước 100 cánh cửa (100 từ khả thi), mỗi cửa có xác suất mở khác nhau:

  • Temperature thấp (0-0.3): AI luôn chọn cửa có xác suất cao nhất → câu trả lời nhất quán, an toàn, ít bất ngờ
  • Temperature cao (0.8-1.5): AI có thể chọn cửa xác suất thấp hơn → câu trả lời đa dạng, sáng tạo, nhưng đôi khi “lạc đề”

Ví dụ cực kỳ cụ thể:

Mình hỏi AI: “Hôm nay trời đẹp, tôi nên làm gì?”

Với Temperature = 0.1 (thấp):

“Bạn có thể đi dạo công viên, tận hưởng không khí trong lành.”

Với Temperature = 0.7 (trung bình):

“Sao không thử đi picnic với gia đình? Hoặc đạp xe quanh hồ cũng rất thú vị!”

Với Temperature = 1.2 (cao):

“Ôi trời đẹp thế này mà không đi nhảy dù à? Hoặc… thử vẽ tranh ngoài trời xem sao? Chưa bao giờ thử thì càng hay!”

Bạn thấy sự khác biệt chưa?

Khi nào nên dùng Temperature nào?

Temperature thấp (0–0.3):

  • Dùng khi: Cần câu trả lời chính xác, nhất quán, logic
  • Ví dụ:
    • Viết checklist công việc
    • Tổng hợp dữ liệu
    • Trả lời câu hỏi kỹ thuật
    • Dịch thuật chính xác

Temperature trung bình (0.6–0.8):

  • Dùng khi: Cần cân bằng giữa sáng tạo và logic
  • Ví dụ:
    • Viết email marketing
    • Viết bài blog
    • Brainstorm ý tưởng có chủ đích

Temperature cao (trên 1.0):

  • Dùng khi: Muốn AI “phá cách”, sáng tạo tối đa
  • Ví dụ:
    • Viết truyện, thơ
    • Brainstorm tự do
    • Tạo slogan quảng cáo độc đáo

Cạm bẫy mà mình gặp:

Rất nhiều người chê AI trả lời “kỳ”, nhưng thực ra chỉ là đang dùng sai temperature.

Mình từng dùng temperature cao (0.9) để viết hướng dẫn kỹ thuật → kết quả AI bịa thêm tính năng không có thật! Sau khi chỉnh về 0.2, mọi thứ ổn ngay.

Cách điều chỉnh temperature:

  • ChatGPT (bản web): Không điều chỉnh được, mặc định ~0.7
  • ChatGPT (API): Có thể set từ 0 đến 2
  • Claude (web): Không điều chỉnh được
  • Claude (API): Có thể set từ 0 đến 1

Nếu bạn dùng bản web và muốn kiểm soát, cách duy nhất là dùng prompt gợi ý:

  • “Hãy trả lời ngắn gọn, chính xác, không phát triển thêm ý” → giả lập temperature thấp
  • “Hãy sáng tạo, đưa ra nhiều góc nhìn khác nhau” → giả lập temperature cao

Tuần 2: Học cách nói chuyện với AI (prompt là kỹ năng cốt lõi)

Nếu tuần 1 là “hiểu AI”, thì tuần 2 là “hiểu chính mình”.

AI giống một nhân viên rất nhanh nhưng không đoán được ý

Mình hay ví AI như một nhân viên mới, cực kỳ nhanh, nhưng không đọc được suy nghĩ. Nếu mình giao việc mơ hồ, kết quả sẽ mơ hồ.

Ví dụ prompt kém:

“Viết bài về AI”

Prompt tốt hơn rất nhiều:

“Viết một bài 800 chữ, giải thích AI cho người chưa từng học công nghệ, dùng ví dụ đời thường, giọng văn như đang chia sẻ kinh nghiệm cá nhân.”

Chỉ thay đổi cách nói, chất lượng khác hẳn.

cách viết prompt ai hiệu quả

Prompt không phải là “mẹo”, mà là tư duy

Rất nhiều người đi tìm prompt mẫu, nhưng mình nhận ra: prompt tốt không nằm ở câu chữ, mà nằm ở cách tư duy.

Mình đã viết rất kỹ về điều này trong bài “5 cấp độ viết prompt AI” trên blog Ngọc Đến Rồi. Nếu bạn muốn đi sâu hơn về kỹ năng prompt, mình khuyên bạn nên đọc bài đó song song, vì nó giúp bạn hiểu từ tư duy cơ bản đến cấp độ dùng AI như một cộng sự thực sự.

Bạn có thể xem thêm bài: 5 cấp độ viết prompt AI

System prompt – định vai cho AI ngay từ đầu

System prompt là gì?

System prompt (hay system instruction) là lệnh “thiết lập bản sắc” cho AI ngay từ đầu cuộc trò chuyện, trước khi bạn bắt đầu hỏi bất cứ điều gì.

Nó giống như việc bạn nói với một người mới gặp:

  • “Này, trong cuộc nói chuyện này, bạn đóng vai một chuyên gia tài chính nhé”
  • Hoặc: “Bạn là một người bạn thân, nói chuyện thoải mái, không cần trang trọng”

Ví dụ cụ thể:

Không có system prompt (mặc định):

Bạn hỏi: “Tôi nên đầu tư Bitcoin không?”

AI trả lời:

“Bitcoin là một loại tiền điện tử có tính biến động cao. Việc đầu tư phụ thuộc vào khẩu vị rủi ro của bạn. Bạn nên tham khảo chuyên gia tài chính…”

(Câu trả lời an toàn, trung lập, hơi… nhạt)

Có system prompt:

System prompt:

“Bạn là một cố vấn kinh doanh thẳng thắn, ưu tiên tính thực tế, không ngại chỉ ra rủi ro. Bạn nói chuyện như một người bạn có kinh nghiệm, không dùng ngôn ngữ sách vở.”

Bạn hỏi: “Tôi nên đầu tư Bitcoin không?”

AI trả lời:

“Thẳng thắn luôn nhé: Bitcoin không phải cho người mới. Nếu bạn chưa hiểu rõ về crypto, chưa có quỹ dự phòng ít nhất 6 tháng chi tiêu, đừng vội. Nó có thể tăng 50% trong 1 tháng, nhưng cũng có thể giảm 30% chỉ qua đêm. Bạn đã sẵn sàng chưa?”

(Câu trả lời cá nhân hóa, thẳng thắn, hữu ích hơn nhiều!)

Cách dùng system prompt trên các nền tảng:

  • ChatGPT (web): Không có tính năng riêng, nhưng bạn có thể viết ở đầu cuộc trò chuyện
  • ChatGPT (API): Có trường system để nhập
  • Claude (web): Vào Settings → Add custom instructions
  • Claude (API): Dùng system prompt trong request
  • Gemini: Viết vào đầu cuộc trò chuyện hoặc dùng “Customize responses”

Template system prompt mình hay dùng:

Bạn là [VAI TRÒ CỤ THỂ], chuyên về [LĨNH VỰC]. 
Khi trả lời, bạn luôn:
- [ĐẶC ĐIỂM 1: ví dụ "Dùng ví dụ thực tế"]
- [ĐẶC ĐIỂM 2: ví dụ "Tránh ngôn ngữ kỹ thuật phức tạp"]
- [ĐẶC ĐIỂM 3: ví dụ "Chỉ ra cả ưu và nhược điểm"]

Giọng văn: [PHONG CÁCH: ví dụ "thân thiện như người bạn"]

Ví dụ thực tế mình dùng hàng ngày:

Khi viết blog:

“Bạn là một content writer có 10 năm kinh nghiệm, chuyên viết blog cá nhân theo phong cách kể chuyện. Bạn luôn dùng câu chữ đời thường, tránh ngôn ngữ “bài báo”, thích dùng ví dụ thực tế hơn lý thuyết khô khan.”

Khi phân tích đầu tư:

“Bạn là một nhà phân tích tài chính độc lập, không thiên vị bất kỳ dự án nào. Bạn luôn chỉ ra cả rủi ro và cơ hội, ưu tiên dữ liệu thực tế hơn dự đoán.”

Từ lúc dùng system prompt, mình kiểm soát được giọng điệu và hành vi của AI tốt hơn rất nhiều.

Tuần 3: Dùng AI cho công việc thật (không còn chỉ để thử cho vui)

Đây là giai đoạn mà AI bắt đầu tiết kiệm thời gian thật sự cho mình.

Đừng để AI trả lời bừa: hãy cho nó dữ liệu

Khi mình có tài liệu riêng (ghi chú, bài viết cũ, tài liệu công ty), mình không muốn AI trả lời theo trí nhớ chung chung trên internet.

Giải pháp thực tế nhất là cho AI đọc tài liệu trước khi trả lời (thường được gọi là RAG – Retrieval Augmented Generation).

RAG là gì? (Giải thích đơn giản)

RAG = Retrieval (Lấy thông tin) + Augmented (Tăng cường) + Generation (Tạo nội dung)

Thay vì để AI “đoán” dựa trên kiến thức chung, bạn cho AI đọc tài liệu của bạn trước, sau đó mới trả lời dựa trên tài liệu đó.

RAG – Retrieval Augmented Generation 01

Ví dụ thực tế:

Mình có 20 bài blog cũ về chủ đề “làm việc online”.

Cách 1 (không dùng RAG): Mình hỏi: “Tóm tắt lại quan điểm của mình về làm việc online”

AI trả lời:

“Làm việc online mang lại sự linh hoạt, tiết kiệm thời gian di chuyển, nhưng cũng có thách thức về kỷ luật…”

(Câu trả lời chung chung, không phải của mình)

Cách 2 (dùng RAG): Mình:

  1. Upload 20 bài blog vào Claude/ChatGPT
  2. Hỏi: “Dựa trên các bài viết tôi vừa gửi, hãy tóm tắt quan điểm của tôi về làm việc online”

AI trả lời:

“Dựa trên 20 bài blog của bạn, bạn nhấn mạnh 3 điểm chính:

  1. Tự do tài chính quan trọng hơn thu nhập cao
  2. Xây dựng tài sản số (blog, khóa học) thay vì làm thuê
  3. Dùng “đòn bẩy 2.0” (AI, nội dung, internet) thay vì vốn và nhân lực

Bạn cũng thường chia sẻ kinh nghiệm cá nhân về việc…”

(Câu trả lời chính xác, sát với phong cách và quan điểm của mình!)

RAG – Retrieval Augmented Generation

Cách thực hiện RAG đơn giản nhất:

  • ChatGPT Plus: Upload file PDF/Word/Text lên cuộc trò chuyện
  • Claude Pro: Upload file (hỗ trợ đến 200K tokens)
  • Gemini: Copy-paste nội dung hoặc upload file
  • Google NotebookLM: Công cụ miễn phí chuyên về RAG, rất mạnh!

Kinh nghiệm thực tế của mình:

Với trải nghiệm của mình, 90% nhu cầu thực tế dừng ở mức này là đủ, không cần làm gì phức tạp hơn như fine-tuning hay xây dựng hệ thống RAG riêng.

API và AI agents – khi AI bắt đầu “làm việc”

Đây là phần nâng cao hơn, nhưng rất quan trọng nếu bạn muốn đưa AI vào quy trình công việc thực sự.

API là gì? (Giải thích cho người không biết lập trình)

API (Application Programming Interface) là cách để các phần mềm “nói chuyện” với nhau.

Hãy tưởng tượng đơn giản thế này:

  • ChatGPT trên web: Bạn gõ câu hỏi → Nhấn Enter → Nhận câu trả lời
  • ChatGPT qua API: Phần mềm khác (như Excel, Notion, website của bạn) gửi câu hỏi → Nhận câu trả lời tự động

Ví dụ thực tế khi dùng API:

  1. Tự động trả lời email:
    • Khi có email mới vào Gmail
    • API gửi nội dung email cho ChatGPT
    • ChatGPT tạo bản nháp trả lời
    • API gửi lại Gmail, email tự động được soạn sẵn
  2. Phân tích dữ liệu tự động:
    • Bạn có bảng Excel với 1000 dòng feedback khách hàng
    • API gửi từng dòng cho AI
    • AI phân loại: tích cực/tiêu cực/trung lập
    • Kết quả tự động ghi lại Excel
  3. Chatbot trên website:
    • Khách hàng hỏi trên website
    • API gửi câu hỏi

Khi gắn AI vào các công cụ quen thuộc như email, website, CRM, AI không chỉ trả lời, mà bắt đầu hỗ trợ quy trình công việc.

AI agent còn đi xa hơn:

  • Không chỉ nói cách làm

  • Mà thực hiện hành động: tạo lịch, gửi email, xử lý dữ liệu

Đây là lúc AI chuyển từ “trợ lý nói chuyện” sang “đồng nghiệp làm việc”. Đây cũng chính là lý do rất nhiều

Tuần 4: Biết dừng đúng lúc (và không chạy theo mọi thứ mới)

Tuần cuối cùng là tuần mình tìm hiể thêm về khái niệm fine-tuning

Fine-tuning là gì? (và vì sao rất nhiều người hiểu sai)

Nếu context giống như bộ nhớ RAM tạm thời của AI trong một cuộc trò chuyện, thì fine-tuning giống như việc huấn luyện lại não bộ của AI để nó quen với cách suy nghĩ của bạn.

Hãy tưởng tượng AI như một nhân viên đã được đào tạo rất bài bản, có kiến thức tổng quát về đủ mọi lĩnh vực. Khi bạn làm việc với nhân viên này, bạn có thể giao việc bằng cách nhắc rất kỹ từng yêu cầu mỗi lần. Đó chính là cách chúng ta đang dùng prompt và context. Mỗi cuộc trò chuyện, bạn lại phải nói rõ: giọng văn thế nào, mức độ chi tiết ra sao, ưu tiên điều gì, tránh điều gì.

Fine-tuning thì khác. Nó giống như việc bạn cho nhân viên đó đi học thêm, không phải để học kiến thức mới, mà để quen với cách làm việc riêng của bạn. Sau một thời gian, bạn không cần nói quá nhiều, họ vẫn hiểu bạn muốn gì và phản ứng theo đúng phong cách đã được “đào tạo” trước đó.

Một hiểu lầm rất phổ biến là nghĩ rằng fine-tuning sẽ giúp AI “nhớ lâu hơn”. Thực tế không phải vậy. Fine-tuning không mở rộng context window và cũng không giúp AI nhớ toàn bộ tài liệu của bạn. Nó không làm AI có trí nhớ dài hạn hơn. Thứ fine-tuning thay đổi là phản xạ trả lời của AI, chứ không phải dung lượng trí nhớ của nó.

Nếu bạn muốn AI trả lời chính xác dựa trên tài liệu cụ thể, ví dụ như tài liệu công ty, ghi chú nội bộ hay hệ thống kiến thức riêng, thì giải pháp phù hợp thường là cho AI tra lại dữ liệu trước khi trả lời, tức là RAG. Fine-tuning không được thiết kế cho mục tiêu đó.

Fine-tuning chỉ thực sự có ý nghĩa trong những tình huống rất cụ thể. Chẳng hạn khi bạn luôn muốn AI viết theo một giọng văn cố định, một cấu trúc quen thuộc, một bộ tiêu chí rõ ràng. Hoặc khi bạn nhận ra mình phải lặp đi lặp lại cùng một kiểu yêu cầu trong hàng chục, hàng trăm cuộc trò chuyện khác nhau. Lúc này, fine-tuning giúp AI phản ứng nhất quán hơn, giống như một cộng sự đã quen việc.

Tình huống KHÔNG nên fine-tuning

Ngược lại, fine-tuning không phù hợp khi:

– Bạn chỉ cần AI trả lời dựa trên tài liệu (nên dùng RAG)
– Nội dung thay đổi thường xuyên
– Bạn vẫn đang trong giai đoạn thử nghiệm, chưa ổn định cách làm
– Bạn nghĩ fine-tuning sẽ “làm AI thông minh hơn” một cách tổng quát

Fine-tuning không làm AI giỏi hơn, nó chỉ làm AI giống bạn hơn.

Nếu nói gọn lại, context là bộ nhớ tạm trong một cuộc trò chuyện. RAG là cách cho AI tra tài liệu bên ngoài để trả lời đúng thông tin. Còn fine-tuning là cách dạy AI phản xạ theo phong cách của bạn. Với phần lớn người dùng, chỉ cần prompt rõ ràng, quản lý context tốt và dùng RAG đúng chỗ đã giải quyết được phần lớn vấn đề, trước khi phải nghĩ đến fine-tuning.

Lời kết

Sau 30 ngày, mình không trở thành chuyên gia AI. Nhưng mình đủ hiểu để:

  • Biết khi nào nên dùng AI

  • Biết khi nào không nên dùng

  • Và quan trọng nhất: biết mình đang dùng AI để làm gì

Nếu bạn mới bắt đầu, mình chỉ muốn bạn nhớ một câu:

Đừng học AI bằng cách chạy theo tính năng.
Hãy học bằng cách hiểu nguyên tắc, rồi dùng nó cho công việc thật của mình.

Nếu bạn thấy bài này hữu ích, bạn có thể đọc thêm bài 5 cấp độ viết prompt AI mà mình đã chia sẻ trước đó, vì prompt chính là kỹ năng cốt lõi giúp bạn đi nhanh hơn rất nhiều trong hành trình này.

0 0 votes
Đánh giá bài viết

Nếu bạn thấy nội dung này có giá trị, hãy mời Ngọc một ly cà phê nhé!

Bạn thích nội dung này?

Ngọc thường xuyên gửi những thông tin như thế này cho bạn qua email mỗi tuần. Hơn 5000+ người đang nhận thông tin! (Mỗi tuần chỉ 2 email - Không SPAM)

Bạn cũng sẽ thích:

Theo dõi
Thông báo qua email khi
guest

0 Bình luận
Inline Feedbacks
View all comments
0
Ý kiến của bạn luôn tuyệt vời, hãy để lại bình luận!x

Tải miễn phí E-book

Bí mật giúp bạn xây dựng cỗ máy ATM tại nhà.