Các động lực tiêu cực có phải là nguyên nhân dẫn đến hiện tượng ảo giác của AI không?

Trí tuệ nhân tạo (AI) đã và đang thay đổi cách chúng ta làm việc, học tập và giải trí, mang lại những tiện ích vượt trội mà trước đây chỉ có trong khoa học viễn tưởng. Tuy nhiên, bên cạnh những thành tựu đáng kinh ngạc, vẫn tồn tại một “góc khuất” khiến nhiều người dùng băn khoăn: hiện tượng “ảo giác” của AI. Bạn đã bao giờ hỏi ChatGPT về một thông tin nào đó và nhận được câu trả lời rất tự tin, trôi chảy nhưng lại hoàn toàn sai lệch chưa? Đó chính là ảo giác AI. Mới đây, một nghiên cứu từ OpenAI – “cha đẻ” của GPT-5 và ChatGPT – đã đào sâu vào câu hỏi này, tìm hiểu nguyên nhân và đề xuất các giải pháp nhằm giảm thiểu tình trạng “nói dối một cách thuyết phục” này.

Theo định nghĩa của OpenAI, ảo giác là “những tuyên bố có vẻ hợp lý nhưng thực chất là sai lệch do các mô hình ngôn ngữ tạo ra”. Họ thừa nhận rằng, dù đã có nhiều cải tiến, ảo giác vẫn là “một thách thức cơ bản đối với tất cả các mô hình ngôn ngữ lớn” và có lẽ sẽ không bao giờ bị loại bỏ hoàn toàn. Để minh họa, các nhà nghiên cứu đã hỏi một chatbot phổ biến về tên luận án tiến sĩ của Adam Tauman Kalai (một trong những tác giả của nghiên cứu), và nhận được ba câu trả lời khác nhau, tất cả đều sai. Khi hỏi về ngày sinh của ông, chatbot cũng đưa ra ba ngày khác nhau, và một lần nữa, tất cả đều không chính xác. Điều đáng nói là chatbot luôn tỏ ra vô cùng tự tin vào những thông tin sai lệch đó. Vậy, điều gì khiến một chatbot lại có thể sai sót đến mức ấy, và tại sao nó lại tự tin đến vậy?

Động lực đánh giá sai lệch: gốc rễ của sự tự tin ảo tưởng

Image for H2-1

Các nhà nghiên cứu của OpenAI gợi ý rằng ảo giác phát sinh, một phần, là do quá trình tiền huấn luyện (pretraining) tập trung vào việc giúp các mô hình dự đoán đúng từ tiếp theo, mà không có nhãn “đúng” hay “sai” gắn liền với các câu lệnh huấn luyện. Mô hình chỉ “thấy các ví dụ tích cực về ngôn ngữ trôi chảy và phải tự xấp xỉ phân phối tổng thể”. Điều này có nghĩa là, trong khi các quy tắc nhất quán như chính tả hay dấu câu sẽ dần được mô hình học và ít mắc lỗi khi quy mô dữ liệu lớn, thì những “sự kiện tùy ý, tần suất thấp, như ngày sinh nhật của thú cưng, không thể được dự đoán chỉ từ các mẫu ngôn ngữ và do đó dẫn đến ảo giác.”

Tuy nhiên, giải pháp được đề xuất trong nghiên cứu lại không tập trung nhiều vào quá trình tiền huấn luyện ban đầu, mà tập trung vào cách các mô hình ngôn ngữ lớn được đánh giá. Họ lập luận rằng các mô hình đánh giá hiện tại không trực tiếp gây ra ảo giác, nhưng chúng “đặt ra các động lực sai lệch”. Các nhà nghiên cứu so sánh những đánh giá này với các bài kiểm tra trắc nghiệm mà việc đoán mò có ý nghĩa, bởi vì “bạn có thể may mắn và đúng”, trong khi bỏ trống câu trả lời “đảm bảo điểm 0”. Tương tự, khi các mô hình chỉ được chấm điểm dựa trên độ chính xác – tỷ lệ câu hỏi chúng trả lời đúng hoàn toàn – chúng được khuyến khích đoán hơn là nói “tôi không biết”.

Giải pháp được đề xuất, do đó, tương tự như các bài kiểm tra (như SAT) có “điểm trừ cho câu trả lời sai hoặc điểm một phần cho việc bỏ trống câu hỏi để ngăn chặn việc đoán mò”. OpenAI cho rằng các đánh giá mô hình cần “phạt nặng hơn những lỗi sai tự tin so với sự không chắc chắn, và cho điểm một phần cho những biểu hiện không chắc chắn phù hợp”. Và các nhà nghiên cứu lập luận rằng không chỉ đủ để giới thiệu “một vài bài kiểm tra mới nhận biết sự không chắc chắn ở bên cạnh”. Thay vào đó, “các phương pháp đánh giá dựa trên độ chính xác đang được sử dụng rộng rãi cần được cập nhật để cách chấm điểm của chúng không khuyến khích việc đoán mò.” Nếu các bảng xếp hạng chính vẫn tiếp tục thưởng cho những lần đoán may mắn, các mô hình sẽ tiếp tục học cách đoán.

Hiện tượng ảo giác của AI là một thách thức cố hữu, không thể loại bỏ hoàn toàn, nhưng có thể được giảm thiểu đáng kể bằng cách thay đổi cách chúng ta đánh giá và “thưởng” cho AI. Việc áp dụng các “động lực tiêu cực” như trừ điểm cho câu trả lời sai hoặc khuyến khích sự không chắc chắn sẽ giúp AI trở nên trung thực hơn về những gì nó biết và không biết, từ đó cung cấp thông tin đáng tin cậy hơn cho người dùng. Đối với chúng ta, điều này cũng nhắc nhở rằng, dù AI có thông minh đến đâu, việc luôn giữ tinh thần phê phán và kiểm tra lại thông tin vẫn là điều cực kỳ quan trọng.

Share your love
Gọi ngay Chat