AI cảm xúc đang phát triển mạnh mẽ: tiềm năng và rủi ro

- Trí tuệ nhân tạo cảm xúc (Emotional AI) đang phát triển mạnh mẽ, dự báo đạt giá trị hơn 50 tỷ USD trong năm nay. Các ứng dụng tiềm năng bao gồm trò chơi, tổng đài, giám sát và thao túng cảm xúc.

- Tuy nhiên, việc AI có thể chính xác đọc được cảm xúc con người vẫn còn nhiều tranh cãi. Các nhà tâm lý học chưa đồng thuận về định nghĩa cảm xúc và cách biểu hiện cảm xúc.

- Vấn đề thiên vị trong AI (AI bias) cũng đáng lo ngại. Thuật toán chỉ tốt bằng dữ liệu huấn luyện. Nếu dữ liệu bị thiên vị, thuật toán sẽ mang thiên vị đó.

- Đạo luật AI của Liên minh Châu Âu cấm sử dụng AI để thao túng hành vi con người và cấm công nghệ nhận diện cảm xúc tại nơi làm việc và trường học. Tuy nhiên, luật cho phép xác định biểu hiện cảm xúc, chỉ cấm suy luận trạng thái cảm xúc từ đó.

- Anh Quốc chưa có luật cụ thể, nhưng Văn phòng Ủy viên Thông tin đã cảnh báo các công ty tránh "phân tích cảm xúc", nếu không sẽ bị phạt.

- Một số nghiên cứu cho thấy AI cảm xúc có xu hướng gán cảm xúc tiêu cực cho khuôn mặt người da đen, gây lo ngại nếu áp dụng trong tuyển dụng, đánh giá hiệu suất, chẩn đoán y tế hoặc cảnh sát.

- Nếu AI cảm xúc hoạt động quá tốt, nó có thể bị lạm dụng để thao túng cá nhân vì lợi ích thương mại hoặc chính trị.

📌 Emotional AI đang phát triển nhanh chóng với tiềm năng ứng dụng rộng rãi, nhưng cũng đặt ra nhiều thách thức về độ chính xác, thiên vị thuật toán và nguy cơ lạm dụng. Các quy định pháp lý đang dần được hình thành để quản lý lĩnh vực này. Tuy nhiên, việc thiết kế các chiến lược bảo vệ đủ nhanh để theo kịp tốc độ phát triển của AI vẫn là một thử thách lớn.

https://www.theguardian.com/technology/article/2024/jun/23/emotional-artificial-intelligence-chatgpt-4o-hume-algorithmic-bias

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo