• Liên minh châu Âu vừa công bố bản dự thảo đầu tiên về Quy tắc thực hành cho các nhà cung cấp AI đa mục đích, dài 36 trang[1].
• Quy định này sẽ ảnh hưởng trực tiếp đến các công ty lớn như OpenAI (GPT), Google (Gemini), Meta (Llama), Anthropic (Claude) và Mistral[1].
• Thời hạn tuân thủ các yêu cầu về tính minh bạch bắt đầu từ ngày 1/8/2025
• Đối với các mô hình AI có "rủi ro hệ thống", thời hạn đánh giá và giảm thiểu rủi ro là 1/8/2027
• Về bản quyền, các nhà cung cấp AI phải:
- Công khai tên của tất cả web crawler được sử dụng
- Thiết lập đầu mối liên hệ duy nhất để xử lý khiếu nại
- Cung cấp tài liệu về nguồn dữ liệu dùng để huấn luyện.
• Các rủi ro hệ thống được xác định bao gồm:
- Rủi ro an ninh mạng
- Rủi ro hóa học, sinh học, phóng xạ và hạt nhân
- Mất kiểm soát với AI tự chủ mạnh
- Thao túng và lan truyền thông tin sai lệch
- Phân biệt đối xử quy mô lớn.
• Nhà cung cấp AI phải:
- Xây dựng khung an toàn và bảo mật
- Dự báo các rủi ro tiềm ẩn
- Đánh giá năng lực và giới hạn của mô hình
- Thông báo ngay cho Văn phòng AI về các sự cố nghiêm trọng.
📌 EU đặt ra các quy định chặt chẽ cho AI đa mục đích, bắt đầu từ 1/8/2025 với yêu cầu minh bạch và 1/8/2027 với đánh giá rủi ro hệ thống. Các "ông lớn" công nghệ như OpenAI, Google, Meta phải tuân thủ nhiều biện pháp về bản quyền, an toàn và kiểm soát rủi ro.
https://techcrunch.com/2024/11/14/eu-ai-act-draft-guidance-for-general-purpose-ais-shows-first-steps-for-big-ai-to-comply/