Vì sao chatbot AI hay "nói dối"? Cơ chế đằng sau xu hướng ảo giác của AI

- Chatbot SARAH của Tổ chức Y tế Thế giới, sử dụng GPT-3.5, đã đưa ra thông tin sai lệch như tên và địa chỉ giả của các phòng khám không tồn tại ở San Francisco.

- Đây không phải trường hợp đầu tiên chatbot gặp lỗi. Chatbot khoa học Galactica của Meta tạo ra các bài báo học thuật và bài viết wiki giả. Chatbot dịch vụ khách hàng của Air Canada bịa ra chính sách hoàn tiền. Một luật sư bị phạt vì nộp tài liệu tòa án chứa ý kiến ​​tư pháp và trích dẫn pháp lý giả do ChatGPT tạo ra.

- Vấn đề nằm ở xu hướng "ảo giác" (hallucination) của các mô hình ngôn ngữ lớn. Chúng được thiết kế để tạo ra văn bản mới dựa trên xác suất thống kê, thay vì truy xuất thông tin có sẵn. 

- Các mô hình này hoạt động bằng cách dự đoán từ tiếp theo trong chuỗi dựa trên hàng tỷ tham số được huấn luyện trên lượng lớn dữ liệu văn bản. Chúng tạo ra văn bản trông giống thật đến mức người dùng khó phát hiện khi có sai sót.

- Các nhà nghiên cứu đang tìm cách cải thiện độ chính xác bằng cách huấn luyện trên nhiều dữ liệu hơn, sử dụng kỹ thuật chain-of-thought prompting để chatbot tự kiểm tra đầu ra. Tuy nhiên, bản chất xác suất của các mô hình này khiến việc loại bỏ hoàn toàn ảo giác là bất khả thi.

- Giải pháp tốt nhất có lẽ là điều chỉnh kỳ vọng về công cụ này, thay vì coi chúng như công cụ tìm kiếm siêu việt, cần hiểu rõ khả năng bịa đặt thông tin của chúng.

📌 Xu hướng "ảo giác" của chatbot AI bắt nguồn từ cơ chế hoạt động dựa trên xác suất thống kê của các mô hình ngôn ngữ lớn. Mặc dù đang có những nỗ lực cải thiện độ chính xác, việc loại bỏ hoàn toàn ảo giác là bất khả thi. Giải pháp tốt nhất là điều chỉnh kỳ vọng, nhận thức rõ khả năng đưa ra thông tin sai lệch của công cụ này.

https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots/

#MIT

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo