• Chính phủ Úc vừa công bố "Tiêu chuẩn An toàn Trí tuệ Nhân tạo (AI) Tự nguyện", bao gồm 10 hướng dẫn an toàn AI được đề xuất.
• Các chuyên gia AI từ Đại học RMIT cho rằng tiêu chuẩn này chưa đủ mạnh, mô tả nó là "một bước đi đúng hướng" nhưng còn "mơ hồ".
• Giáo sư Kok-Leong Ong từ RMIT nhận định cách tiếp cận tự nguyện có thể không hiệu quả, trong khi các biện pháp bắt buộc có thể tạo thêm thủ tục rườm rà.
• Một khảo sát của ABC cho thấy 1/3 doanh nghiệp sử dụng AI không thông báo cho nhân viên hoặc khách hàng, và một nửa chưa thực hiện đánh giá rủi ro về việc sử dụng AI.
• Chính phủ đang xem xét 3 phương án để áp dụng quy tắc AI mạnh mẽ hơn, từ điều chỉnh luật hiện hành đến tạo ra một đạo luật riêng biệt về AI cho toàn bộ nền kinh tế.
• Một số biện pháp đang được cân nhắc có thể yêu cầu các nhà phát triển và triển khai AI phải chủ động thông báo cho người dân Úc khi công cụ AI được sử dụng để đưa ra quyết định về họ.
• Giáo sư Lisa Given từ RMIT cho rằng cần có các rào cản bắt buộc để bảo vệ người tiêu dùng, nhân viên và những đối tượng khác, đồng thời giúp Úc phù hợp với các khu vực pháp lý khác như Liên minh Châu Âu.
• Một cuộc khảo sát của Đại học Queensland cho thấy người dân Úc còn chia rẽ về thái độ đối với AI - 40% ủng hộ phát triển công nghệ AI, 30% phản đối.
• 90% người được khảo sát tin rằng chính phủ nên thành lập một cơ quan quản lý mới để giám sát riêng AI.
• Bộ trưởng Công nghiệp Liên bang Ed Husic cho biết chính phủ đang nỗ lực giải quyết những lo ngại của công chúng và khuyến khích doanh nghiệp chủ động thực hiện các bước đi với cùng mục tiêu.
📌 Chính phủ Úc đang cân nhắc các biện pháp bắt buộc để quản lý AI sau khi tiêu chuẩn tự nguyện bị chỉ trích là thiếu hiệu quả. 90% người dân ủng hộ thành lập cơ quan quản lý AI riêng biệt. Các chuyên gia kêu gọi cần có quy định mạnh mẽ hơn để bảo vệ người tiêu dùng và nhân viên trước rủi ro từ AI.
https://au.investing.com/news/stock-market-news/tech-bytes-new-australian-ai-safety-standard-lacks-teeth-say-rmit-experts-3433414