- Trí tuệ nhân tạo (AI) đã xuất hiện và chúng ta cần quy định nó. Tuy nhiên, việc quy định AI rất khó khăn vì bản chất của AI không phải tốt hay xấu, mà phụ thuộc vào cách sử dụng.
- Các quy định tốt nhất tập trung vào người dùng và cách sử dụng AI, chứ không phải công cụ AI. Chúng ta cần liên tục kiểm tra kết quả của AI.
- Quy định AI cần ít nhất 3 nguyên tắc: khả năng truy xuất (truy xuất được ứng dụng và tương tác của AI), khả năng kiểm tra (kiểm tra kết quả AI liên tục) và trách nhiệm pháp lý (đủ mạnh để người dùng quan tâm đến việc sử dụng và kết quả AI).
- Canada quy định thuật toán tốt hơn hầu hết các nước, mở rộng sang AI và tập trung vào tác động như quyền riêng tư, sức khỏe, lợi ích kinh tế.
- Các quy định sẽ không tránh được các vấn đề liên quan đến AI, vì vậy chúng ta cũng phải thiết kế hệ thống AI để xử lý các lỗi và người dân phải có quyền khiếu nại.
- Các công ty sử dụng AI cũng muốn được bảo vệ. Một khuôn khổ truyền thống là cung cấp cho các công ty công nghệ "bến bờ an toàn" cho các hoạt động được phép cụ thể.
- Các công ty sử dụng công cụ AI trong quy trình của họ nên chứng minh rằng chúng có thể tháo rời để có thể tắt hoặc thay thế các thành phần liên quan nếu có vi phạm mà không gây nguy hiểm cho toàn bộ hệ thống.
- Quy định AI phải liên tục phát triển và chúng ta phải chấp nhận sự cảnh giác vĩnh viễn.
📌 Quy định AI đòi hỏi tập trung vào người dùng, cách sử dụng và giám sát liên tục kết quả, dựa trên 3 nguyên tắc chính: khả năng truy xuất, kiểm tra và trách nhiệm pháp lý đủ mạnh. Các hệ thống AI cũng cần được thiết kế để xử lý lỗi và đảm bảo quyền của người dân. Quy định AI phải không ngừng phát triển cùng sự cảnh giác vĩnh viễn.
https://www.weforum.org/agenda/2024/05/why-regulating-ai-can-be-surprisingly-straightforward-providing-you-have-eternal-vigilance/