- Ủy ban bảo vệ dữ liệu châu Âu (EDPB) đã công bố ý kiến về bảo vệ dữ liệu trong mô hình AI, đáp ứng yêu cầu từ Ủy ban bảo vệ dữ liệu Ireland.
- Hướng dẫn giải quyết 3 vấn đề chính: khi nào mô hình AI được coi là ẩn danh, khi nào công ty có thể xử lý dữ liệu cá nhân mà không cần sự đồng ý, và hậu quả của việc xử lý dữ liệu trái phép trong quá trình phát triển AI.
- Mô hình AI được coi là ẩn danh nếu khả năng truy nguyên dữ liệu cá nhân được sử dụng để đào tạo là "không đáng kể". Các biện pháp để chứng minh tính ẩn danh bao gồm: hạn chế thu thập dữ liệu cá nhân, áp dụng biện pháp kỹ thuật mạnh để ngăn tái nhận dạng, đảm bảo dữ liệu được ẩn danh đầy đủ.
- Công ty có thể xử lý dữ liệu cá nhân mà không cần sự đồng ý dựa trên cơ sở "lợi ích hợp pháp" nếu đáp ứng 3 tiêu chí: tính hợp pháp, tính cần thiết và cân bằng lợi ích. Các biện pháp giảm thiểu tác động bao gồm: biện pháp bảo vệ kỹ thuật, giả danh hóa, che giấu dữ liệu, cơ chế thực thi quyền của chủ thể dữ liệu.
- Hậu quả của việc xử lý dữ liệu trái phép trong phát triển AI sẽ ảnh hưởng đến cách mô hình được phép hoạt động. Cơ quan có thẩm quyền sẽ đánh giá từng trường hợp cụ thể.
- Hướng dẫn này rất quan trọng đối với các công ty công nghệ vì có thể ảnh hưởng đến cách thực thi luật bảo mật ở EU. Vi phạm GDPR có thể bị phạt tới 20 triệu euro hoặc 4% doanh thu hàng năm.
- Nhiều công ty AI đã gặp khó khăn trong việc tuân thủ GDPR do cần lượng lớn dữ liệu cá nhân để đào tạo mô hình. Các vụ việc gần đây liên quan đến OpenAI, Meta, Clearview AI và X cho thấy những thách thức này.
📌 EDPB đưa ra hướng dẫn mới về bảo vệ dữ liệu trong AI, giải quyết vấn đề ẩn danh, xử lý dữ liệu không cần đồng ý và hậu quả xử lý trái phép. Công ty có thể bị phạt tới 20 triệu euro nếu vi phạm. Nhiều doanh nghiệp lớn đã gặp khó khăn tuân thủ.
https://www.techrepublic.com/article/eu-guidance-ai-privacy-laws/