- Hội nghị thượng đỉnh AI Seoul tuần này nhằm chuyển từ thảo luận sang thực thi các quy định về AI. Thành tựu lớn là thành lập mạng lưới toàn cầu các viện an toàn AI.
- Bộ trưởng Công nghệ Anh, Michelle Donelan, cho rằng các viện mới là nhờ "hiệu ứng Bletchley". Bà công bố kế hoạch dẫn dắt hệ thống chia sẻ thông tin giữa các cơ quan quản lý.
- Jack Clark, đồng sáng lập Anthropic, cho biết các chính phủ giờ đây có năng lực phát triển bằng chứng riêng về AI. Các viện an toàn đã kiểm tra nhiều mô hình AI và phát hiện các lạm dụng.
- Tuy nhiên, các viện an toàn chỉ có quyền quan sát và báo cáo, có nguy cơ đứng nhìn các tác hại của AI lan rộng. Clark lập luận rằng việc "bêu xấu" các công ty cũng rất hiệu quả.
- Các viện an toàn EU và Mỹ đặt ngưỡng "tính toán" để xác định đối tượng giám sát. Điều này tạo ra ranh giới rõ ràng giữa các công ty.
- Christina Montgomery của IBM cho rằng ngưỡng tính toán sẽ thay đổi nhanh chóng. Các chính phủ sẽ tập trung vào các khía cạnh khác như số lượng người dùng tiếp xúc với mô hình AI.
- Hội nghị cũng bộc lộ sự chia rẽ: nên điều tiết AI hay chỉ tập trung vào ứng dụng của AI? Andrew Ng và Bộ trưởng Singapore Janil Puthucheary ủng hộ quan điểm sau.
- Tuy nhiên, điều này có nguy cơ bỏ qua vấn đề an toàn AI lớn nhất: khả năng một hệ thống AI siêu thông minh có thể dẫn đến sự diệt vong của nền văn minh.
- Bộ trưởng Donelan bảo vệ sự thay đổi trọng tâm, nhưng Clark lo ngại cách tiếp cận "bao gồm tất cả" sẽ làm suy yếu khả năng đạt được bất cứ điều gì.
📌 Hội nghị thượng đỉnh Seoul cho thấy những bất đồng trong cách tiếp cận điều tiết AI, từ việc hạn chế năng lực của AI, đến chỉ tập trung vào ứng dụng. Mạng lưới các viện an toàn AI toàn cầu mới thành lập có thể "bêu xấu" các công ty vi phạm, nhưng thiếu quyền can thiệp trực tiếp. Một số chuyên gia lo ngại cách tiếp cận bao quát sẽ khiến khó đạt được tiến bộ thực sự và bỏ qua rủi ro tồn vong từ AI siêu thông minh.
https://www.theguardian.com/technology/article/2024/may/27/trying-to-tame-ai-seoul-summit-flags-hurdles-to-regulation