Cách tiếp cận khác nhau giữa Mỹ và EU về quyền riêng tư trong AI tạo sinh

Cơ quan quản lý quyền riêng tư Hamburg (Đức) kết luận rằng mô hình AI không lưu trữ thông tin cá nhân như tên và ngày sinh, gây tranh cãi quốc tế về số phận dữ liệu cá nhân khi được sử dụng bởi mô hình ngôn ngữ lớn.

Nếu kết luận này trở nên phổ biến ở châu Âu và Mỹ, cá nhân có thể không còn quyền truy cập, sửa hoặc xóa dữ liệu cá nhân sau khi đã được mô hình ngôn ngữ lớn tiếp nhận.

• Các nhà nghiên cứu từ Cornell, UC Berkeley và Google DeepMind đã chứng minh ChatGPT có thể tiết lộ 10.000 ví dụ về dữ liệu có thể nhận dạng chỉ với ngân sách 200 USD.

Tại Mỹ, các nhà lập pháp California đang đề xuất sửa đổi Đạo luật Bảo vệ Người tiêu dùng California (CCPA) để làm rõ rằng luật bảo vệ thông tin cá nhân áp dụng cho mọi định dạng kỹ thuật số, bao gồm cả "hệ thống AI có khả năng đưa ra thông tin cá nhân" như chatbot.

Sự khác biệt trong cách tiếp cận quy định xuất phát từ bản chất "hộp đen" của hầu hết các mô hình ngôn ngữ lớn, khiến các cơ quan giám sát quyền riêng tư ở cả hai bờ Đại Tây Dương phải vật lộn với việc xác định liệu mô hình AI có chứa dữ liệu cá nhân hay không.

• Nghiên cứu về máy học hiện tại chỉ ra rằng mô hình có thể ghi nhớ các phần của dữ liệu huấn luyện như thơ, đoạn mã, tên quốc gia hoặc họ tên đầy đủ.

Khả năng của mô hình AI trong việc lưu giữ một số loại thông tin cá nhân đã được chứng minh thông qua các quá trình tinh chỉnh và tấn công có mục tiêu có thể khiến chatbot tái tạo dữ liệu huấn luyện.

• Nghiên cứu về cách thức và lý do mô hình lưu giữ một số thông tin nhất định vẫn đang phát triển. Kiểm soát những gì mô hình lưu giữ và không lưu giữ vẫn là một vấn đề chưa được giải quyết.

• Theo GDPR, các cơ quan như Ủy viên Bảo vệ Dữ liệu Hamburg có trách nhiệm xác định liệu một tổ chức có đang xử lý dữ liệu cá nhân hay không.

Ủy ban Bảo vệ Dữ liệu Châu Âu, cơ quan giám sát thực thi GDPR trên toàn EU, chưa đưa ra ý kiến về vấn đề này.

• Cassandra L. Gaedt-Sheckter, đồng chủ tịch thực hành AI của Gibson, Dunn & Crutcher, cho rằng việc cơ quan quản lý cân nhắc những gì được coi là dữ liệu cá nhân có thể là tiền đề cho một câu hỏi kỹ thuật hơn về cách các công cụ AI và quyền riêng tư có thể cùng tồn tại.

📌 Tranh cãi về việc mô hình AI có lưu trữ dữ liệu cá nhân đang nóng lên giữa các nhà quản lý và chuyên gia công nghệ. Trong khi nghiên cứu chỉ ra khả năng ghi nhớ của mô hình, cơ quan quản lý Hamburg lại kết luận ngược lại, tạo ra sự phân chia trong cách tiếp cận giữa EU và Mỹ về quyền riêng tư trong AI tạo sinh.

 

https://news.bloomberglaw.com/privacy-and-data-security/personal-info-in-ai-models-threatens-split-in-us-eu-approach

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo