AI "mắc bệnh" giống con người: Nghiên cứu mới phát hiện ChatGPT có cùng thiên kiến và sai lầm như chúng ta

-  Một nghiên cứu mới đã phát hiện rằng ChatGPT, mặc dù xuất sắc trong logic và toán học, nhưng lại thể hiện nhiều thiên kiến nhận thức giống con người khi đưa ra các quyết định chủ quan.

-  Trong các bài kiểm tra về lỗi phán đoán phổ biến, AI cho thấy sự quá tự tin, né tránh rủi ro và thậm chí mắc phải sai lầm cổ điển của người cờ bạc, mặc dù nó tránh được một số lỗi điển hình khác của con người như bỏ qua tỷ lệ cơ sở.

-  Nghiên cứu có tên "A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?" đã đưa ChatGPT qua 18 bài kiểm tra thiên kiến khác nhau.

-  Kết quả cho thấy ChatGPT thể hiện thiên kiến trong gần một nửa các tình huống được kiểm tra, đặc biệt là trong các nhiệm vụ đòi hỏi lý luận chủ quan.

-  Đáng chú ý, các phiên bản mới hơn của AI (GPT-4) chính xác hơn về mặt phân tích nhưng lại thể hiện thiên kiến mạnh hơn trong một số trường hợp liên quan đến phán đoán.

-  ChatGPT có xu hướng: chơi an toàn (tránh rủi ro), đánh giá quá cao khả năng của mình, tìm kiếm xác nhận (ưu tiên thông tin hỗ trợ giả định hiện có) và tránh sự mơ hồ.

-  Yang Chen, tác giả chính và giáo sư tại Đại học Western, cho biết: "Khi AI học từ dữ liệu của con người, nó cũng có thể suy nghĩ như con người – bao gồm cả thiên kiến."

-  Những phát hiện này làm dấy lên lo ngại về việc phụ thuộc vào AI cho các quyết định quan trọng, vì nó có thể không loại bỏ lỗi của con người mà thay vào đó là tự động hóa chúng.

-  Samuel Kirshner từ Trường Kinh doanh UNSW cảnh báo: "AI không phải là trọng tài trung lập. Nếu không được kiểm soát, nó có thể không giải quyết được vấn đề ra quyết định – thực tế có thể làm cho chúng tồi tệ hơn."

-  Các nhà nghiên cứu khuyến nghị rằng doanh nghiệp và các nhà hoạch định chính sách nên giám sát các quyết định của AI chặt chẽ như họ sẽ làm với một người ra quyết định.

-  Meena Andiappan từ Đại học McMaster nhấn mạnh: "AI nên được đối xử như một nhân viên đưa ra quyết định quan trọng – nó cần sự giám sát và hướng dẫn đạo đức."

-  Các tác giả của nghiên cứu khuyến nghị kiểm toán thường xuyên các quyết định do AI điều khiển và tinh chỉnh hệ thống AI để giảm thiên kiến.

-  Tracy Jenkin từ Đại học Queen's lưu ý rằng sự phát triển từ GPT-3.5 đến 4.0 cho thấy các mô hình mới nhất đang trở nên giống con người hơn trong một số lĩnh vực, nhưng ít giống con người hơn và chính xác hơn trong các lĩnh vực khác.

📌 Nghiên cứu từ INFORMS phát hiện ChatGPT mắc thiên kiến giống con người trong gần 50% tình huống kiểm tra. Mặc dù xuất sắc trong logic, AI vẫn gặp khó khăn với quyết định chủ quan, thể hiện sự quá tự tin và né tránh rủi ro. Các chuyên gia khuyến nghị giám sát AI như một người ra quyết định để tránh tự động hóa tư duy sai lệch.

 

https://neurosciencenews.com/ai-human-thinking-28535/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo