Australia đề xuất 10 biện pháp bảo vệ bắt buộc cho AI trong các lĩnh vực rủi ro cao

• Chính phủ Australia đề xuất 10 biện pháp bảo vệ bắt buộc cho AI trong các lĩnh vực rủi ro cao, nhằm giảm thiểu rủi ro và xây dựng niềm tin của công chúng vào công nghệ này.

https://consult.industry.gov.au/ai-mandatory-guardrails

Biện pháp 1 - Trách nhiệm giải trình: Doanh nghiệp phải thiết lập, thực hiện và công bố quy trình trách nhiệm giải trình để tuân thủ quy định, bao gồm chính sách quản lý dữ liệu và rủi ro.

• Biện pháp 2 - Quản lý rủi ro: Yêu cầu thiết lập và thực hiện quy trình quản lý rủi ro để xác định và giảm thiểu rủi ro của AI, xem xét tác động tiềm tàng đến con người và xã hội.

• Biện pháp 3 - Bảo vệ dữ liệu: Tổ chức cần bảo vệ hệ thống AI để đảm bảo quyền riêng tư với các biện pháp an ninh mạng, xây dựng quản trị dữ liệu mạnh mẽ.

• Biện pháp 4 - Kiểm tra: Hệ thống AI rủi ro cao phải được kiểm tra và đánh giá trước khi đưa ra thị trường, giám sát liên tục sau khi triển khai.

• Biện pháp 5 - Kiểm soát của con người: Yêu cầu giám sát hiệu quả của con người đối với hệ thống AI rủi ro cao, đảm bảo khả năng can thiệp khi cần thiết.

• Biện pháp 6 - Thông tin người dùng: Thông báo cho người dùng cuối khi họ là đối tượng của quyết định do AI đưa ra hoặc tương tác với nội dung do AI tạo ra.

• Biện pháp 7 - Quyền phản đối AI: Người bị ảnh hưởng tiêu cực bởi AI có quyền phản đối việc sử dụng hoặc kết quả của AI.

• Biện pháp 8 - Minh bạch: Doanh nghiệp phải minh bạch về dữ liệu, mô hình và hệ thống AI trong chuỗi cung ứng.

• Biện pháp 9 - Lưu trữ hồ sơ AI: Yêu cầu lưu trữ và duy trì hồ sơ về hệ thống AI trong suốt vòng đời của nó, bao gồm tài liệu kỹ thuật.

• Biện pháp 10 - Đánh giá AI: Các tổ chức sẽ phải trải qua đánh giá sự phù hợp để chứng minh tuân thủ các biện pháp bảo vệ.

Các biện pháp này đang được tham vấn công khai đến ngày 4/10/2024.

• Chính phủ có thể ban hành Đạo luật AI Australia mới hoặc điều chỉnh các khung pháp lý hiện có.

Australia đang theo cách tiếp cận dựa trên rủi ro của EU trong việc quản lý AI.

Chính phủ cũng đã công bố Tiêu chuẩn An toàn AI Tự nguyện để doanh nghiệp có thể áp dụng ngay.

📌 Australia đề xuất 10 biện pháp bảo vệ bắt buộc cho AI rủi ro cao, bao gồm trách nhiệm giải trình, quản lý rủi ro, bảo vệ dữ liệu, kiểm tra, kiểm soát của con người, thông tin người dùng, quyền phản đối AI, minh bạch, lưu trữ hồ sơ và đánh giá AI. Các biện pháp này nhằm cân bằng lợi ích và rủi ro của AI, đồng thời xây dựng niềm tin của công chúng.

https://www.techrepublic.com/article/australia-proposes-mandatory-guardrials-ai/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo