• Luật AI của Liên minh Châu Âu (EU) chính thức có hiệu lực từ ngày 1/8/2024, bắt đầu áp dụng các hạn chót tuân thủ theo từng giai đoạn.
• Hầu hết các quy định sẽ được áp dụng đầy đủ vào giữa năm 2026. Tuy nhiên, lệnh cấm một số ứng dụng AI cụ thể như sử dụng sinh trắc học từ xa ở nơi công cộng sẽ có hiệu lực sau 6 tháng.
• Luật phân loại ứng dụng AI thành các mức độ rủi ro:
- Đa số ứng dụng được coi là rủi ro thấp/không có rủi ro và không thuộc phạm vi điều chỉnh.
- Một số ứng dụng được phân loại rủi ro cao như nhận dạng sinh trắc học, phần mềm y tế dựa trên AI, AI trong giáo dục và việc làm. Các nhà phát triển cần tuân thủ các nghĩa vụ quản lý rủi ro và chất lượng.
- Mức "rủi ro hạn chế" áp dụng cho chatbot hoặc công cụ tạo deepfake, yêu cầu minh bạch để không đánh lừa người dùng.
• Mức phạt được chia thành các cấp độ, cao nhất lên tới 7% doanh thu hàng năm toàn cầu cho vi phạm các ứng dụng AI bị cấm.
• Đối với AI mục đích chung (GPAI), hầu hết nhà phát triển chỉ phải đáp ứng yêu cầu minh bạch nhẹ. Chỉ một số mô hình mạnh nhất mới cần đánh giá và giảm thiểu rủi ro.
• OpenAI, công ty phát triển ChatGPT, dự kiến sẽ làm việc chặt chẽ với Văn phòng AI của EU để triển khai luật mới trong những tháng tới.
• Các yêu cầu cụ thể cho hệ thống AI rủi ro cao vẫn đang được các cơ quan tiêu chuẩn châu Âu xây dựng, dự kiến hoàn thành vào tháng 4/2025.
• Các doanh nghiệp cần xác định và phân loại các hệ thống AI họ sử dụng, xác định vai trò là nhà cung cấp hay triển khai, và tham khảo ý kiến pháp lý nếu có thắc mắc về việc tuân thủ.
📌 Luật AI của EU có hiệu lực từ 1/8/2024, áp dụng quy định theo mức độ rủi ro. Hầu hết quy định sẽ được thực thi đầy đủ vào giữa năm 2026. OpenAI và các công ty AI lớn cần chuẩn bị tuân thủ, với mức phạt có thể lên tới 7% doanh thu toàn cầu cho vi phạm nghiêm trọng.
https://techcrunch.com/2024/08/01/the-eus-ai-act-is-now-in-force/