**Bài đăng: “Token là trí nhớ của ngôn ngữ – Bạn đang dùng bao nhiêu ‘ô nhớ’ mỗi ngày?”**
Năm 1956, George Miller công bố nghiên cứu kinh điển: bộ não người chỉ giữ được 7±2 “mảnh thông tin” cùng lúc. Gần 70 năm sau, AI cũng có giới hạn tương tự – token.
Token là đơn vị nhỏ nhất AI dùng để “nhớ” và xử lý ngôn ngữ. Mỗi từ, dấu câu đều chiếm 1 hoặc vài token. Nhưng khác con người:
• Token không phải kiến thức, chỉ là vật chứa
• AI “quên” ngay sau khi xử lý xong token đó
• Bạn càng dùng nhiều token, AI càng tốn “sức”
Hãy tưởng tượng token như những chiếc xe tải chở chữ. Dù xe to hay nhỏ, giá trị nằm ở hàng hóa bên trong. Prompt dài 100 token vô nghĩa còn tệ hơn câu 10 token sắc như dao.
Khi viết prompt hay giao tiếp, đừng hỏi “mình nói được bao nhiêu”. Hãy tự vấn “mình cần đúng bao nhiêu”.
Era Gen AI