25 chuyên gia AI hàng đầu thế giới từ Oxford, Mỹ, Trung Quốc, EU... đã đồng loạt lên tiếng cảnh báo rằng thế giới đang phản ứng quá chậm với rủi ro AI dù đã có cam kết tại Hội nghị Thượng đỉnh AI lần đầu ở Bletchley Park cách đây 6 tháng.
Trong bài báo đăng trên tạp chí Science, các nhà khoa học cho rằng nếu không thiết lập cơ chế kiểm soát ngay từ bây giờ, AI tổng quát có khả năng vượt trội con người có thể xuất hiện trong thập kỷ này.
Hiện chỉ khoảng 1–3% nghiên cứu AI tập trung vào vấn đề an toàn. Hầu hết nguồn lực đang bị dồn vào việc tăng khả năng AI mà bỏ qua nguy cơ về đạo đức, kiểm soát và mục tiêu sai lệch.
Các nhà khoa học yêu cầu chính phủ:
Thành lập các cơ quan chuyên trách AI mạnh và được tài trợ xứng đáng (ví dụ: Viện An toàn AI Mỹ hiện chỉ có ngân sách 10 triệu USD, trong khi FDA là 6,7 tỷ USD).
Áp dụng các đánh giá rủi ro có tính bắt buộc, không chỉ là hướng dẫn tự nguyện.
Yêu cầu các công ty AI chứng minh hệ thống của họ an toàn trước khi triển khai, theo mô hình “hồ sơ an toàn” như trong ngành hàng không.
Thiết lập cơ chế kích hoạt chính sách tự động khi AI đạt các cột mốc năng lực mới.
Cấm hoặc giới hạn AI tự hành trong các vai trò quan trọng như quân sự, chính phủ, và yêu cầu biện pháp bảo mật chống hacker cấp quốc gia.
AI hiện đã có khả năng đáng lo ngại về: xâm nhập hệ thống, thao túng xã hội, lập kế hoạch chiến lược và tự sao chép trên mạng toàn cầu để tránh bị tắt.
Trong tình huống xung đột, AI có thể tự động triển khai vũ khí – kể cả vũ khí sinh học. Nguy cơ mất kiểm soát hoàn toàn với hậu quả là thảm họa sinh thái hoặc tuyệt chủng nhân loại đang dần trở nên thực tế.
Tiến sĩ Jan Brauner cảnh báo rằng AI không khác gì vũ khí hạt nhân hay Internet – một công nghệ tưởng như viễn tưởng nhưng đã trở thành hiện thực nhanh chóng.
Ông nhấn mạnh: "Chúng ta đang tập trung quá nhiều vào khả năng của AI, mà coi nhẹ an toàn và đạo đức. Cần định hướng lại ngay lập tức."
📌 Trước Hội nghị Thượng đỉnh AI lần 2 tại Seoul, 25 chuyên gia AI hàng đầu cảnh báo AI có thể gây ra tuyệt chủng nếu không có hành động toàn cầu ngay. Với ngân sách kiểm soát chỉ bằng 0,1% các ngành khác và thiếu cơ chế bắt buộc, các hệ thống AI siêu năng lực có thể vượt khỏi tầm kiểm soát. Bài viết kêu gọi thế giới chuyển từ hứa hẹn mơ hồ sang cam kết chính sách cụ thể, nghiêm ngặt và có thể thực thi ngay lập tức.
https://www.ox.ac.uk/news/2024-05-21-world-leaders-still-need-wake-ai-risks-say-leading-experts-ahead-ai-safety-summit