Cựu nhà nghiên cứu Google: Ảo giác AI sẽ được giải quyết trong 1 năm

- Tại hội nghị Fortune Brainstorm AI ở London, các chuyên gia AI, bao gồm Raza Habib của Humanloop, đã thảo luận về vấn đề chatbot AI đưa ra câu trả lời không chính xác hoặc bịa đặt.

- Habib, người từng là thực tập sinh nghiên cứu AI tại Google trước khi thành lập Humanloop trong vòng chưa đầy 6 tháng, lạc quan rằng vấn đề này có thể được giải quyết trong vòng một năm.

- Các mô hình ngôn ngữ lớn trải qua 3 giai đoạn huấn luyện: tiền huấn luyện, tinh chỉnh và học tăng cường từ phản hồi của con người. Trước khi tinh chỉnh, các mô hình này thể hiện sự hiệu chỉnh đáng ngạc nhiên, với độ tự tin trong câu trả lời tương quan tốt với độ chính xác. Tuy nhiên, sau khi được tinh chỉnh theo sở thích của con người, sự hiệu chỉnh này thường bị mất.

- Thách thức nằm ở việc bảo toàn kiến thức này khi các mô hình trở nên dễ điều khiển hơn. Habib cho rằng chúng ta có thể không cần giải quyết hoàn toàn vấn đề này, vì đã quen với việc sử dụng công nghệ không hoàn hảo.

- Các công cụ tìm kiếm như Google trả về danh sách liên kết xếp hạng thay vì một câu trả lời, và người dùng đã quen với thiết kế chấp nhận lỗi này.

- Habib lập luận rằng một chút ảo giác có thể có lợi, thậm chí cần thiết, để AI giúp chúng ta suy nghĩ sáng tạo. Ông cho rằng chúng ta muốn các mô hình đề xuất ý tưởng mới lạ, ngay cả khi chúng nằm ngoài miền dữ liệu, và sau đó lọc các ý tưởng đó theo một cách nào đó.

- Hội thảo cũng thảo luận về sự cố chatbot của Air Canada, nơi AI thuyết phục khách hàng mua vé giá đầy đủ với giả định sai về hoàn tiền. Các chuyên gia đồng ý rằng tình huống này có thể tránh được, với Habib chỉ trích việc thiếu kiểm tra và các rào cản không đủ.

 

📌 Raza Habib của Humanloop lạc quan rằng vấn đề ảo giác của AI có thể được giải quyết trong vòng một năm. Tuy nhiên, ông cho rằng một chút ảo giác có thể có lợi để AI suy nghĩ sáng tạo. Các chuyên gia cũng thảo luận về sự cố chatbot Air Canada và nhấn mạnh tầm quan trọng của việc kiểm tra kỹ lưỡng trước khi đưa vào sử dụng thực tế.

 

Citations:

[1] AI hallucinations will be solvable within a year, ex-Google AI researcher says—but that may not be a good thing: ‘We want them to propose things that are weird and novel' https://fortune.com/2024/04/16/ai-hallucinations-solvable-year-ex-google-researcher/

 

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo