• Trung tâm Khả năng Phục hồi Dài hạn (CLTR) kêu gọi chính phủ Anh xây dựng hệ thống ghi nhận sự cố và lạm dụng AI.
• Báo cáo cho rằng nếu không có hệ thống này, các bộ trưởng có thể không nhận thức được những sự cố đáng báo động liên quan đến công nghệ AI.
• CLTR đề xuất chính phủ tương lai nên tạo ra hệ thống ghi nhận sự cố AI trong dịch vụ công và xem xét xây dựng trung tâm tổng hợp các sự cố liên quan đến AI trên toàn quốc Anh.
• Báo cáo trích dẫn 10.000 "sự cố an toàn AI" được các hãng tin ghi nhận kể từ năm 2014, được liệt kê trong cơ sở dữ liệu của OECD.
• Định nghĩa của OECD về sự cố AI có hại bao gồm từ tổn hại vật lý đến tổn hại kinh tế, danh tiếng và tâm lý.
• Ví dụ về sự cố AI bao gồm deepfake của lãnh đạo Đảng Lao động Keir Starmer, mô hình Gemini của Google mô tả binh lính Đức trong Thế chiến II là người da màu, các sự cố liên quan đến xe tự lái.
• CLTR cho rằng việc báo cáo sự cố đã đóng vai trò quan trọng trong việc giảm thiểu và quản lý rủi ro trong các ngành công nghiệp quan trọng về an toàn như hàng không và y tế.
• Tổ chức này đề xuất Anh nên học hỏi từ các ngành công nghiệp này và đưa ra "chế độ báo cáo sự cố hoạt động tốt".
• Hệ thống này sẽ cung cấp thông tin nhanh chóng về cách AI gặp sự cố, giúp chính phủ dự đoán các sự cố tương tự trong tương lai.
• CLTR cảnh báo Bộ Khoa học, Đổi mới và Công nghệ (DSIT) có nguy cơ thiếu bức tranh cập nhật về việc lạm dụng các hệ thống AI như chiến dịch thông tin sai lệch, nỗ lực phát triển vũ khí sinh học, thiên vị trong hệ thống AI hoặc lạm dụng AI trong dịch vụ công.
• Báo cáo đề xuất 3 bước cụ thể: tạo hệ thống chính phủ báo cáo sự cố AI trong dịch vụ công; yêu cầu các cơ quan quản lý Anh tìm khoảng trống trong báo cáo sự cố AI; xem xét tạo cơ sở dữ liệu thí điểm về sự cố AI.
• Hệ thống báo cáo cho việc sử dụng AI trong dịch vụ công có thể dựa trên tiêu chuẩn báo cáo minh bạch thuật toán hiện có.
• Tháng 5/2024, 10 quốc gia bao gồm Anh và EU đã ký tuyên bố hợp tác về an toàn AI, bao gồm việc giám sát "tác hại và sự cố an toàn AI".
📌 Anh cần hệ thống ghi nhận sự cố AI để giảm rủi ro. CLTR đề xuất 3 bước: báo cáo trong dịch vụ công, tìm khoảng trống quy định, xây dựng cơ sở dữ liệu thí điểm. 10.000 sự cố AI đã được ghi nhận từ 2014, cho thấy tầm quan trọng của vấn đề này.
https://www.theguardian.com/technology/article/2024/jun/26/artificial-intelligence-misuse-malfunctions-reporting-uk