• Các kỹ thuật "gỡ bỏ học tập" được sử dụng để làm cho mô hình AI tạo sinh quên đi thông tin cụ thể và không mong muốn từ dữ liệu đào tạo, như dữ liệu riêng tư nhạy cảm hoặc tài liệu có bản quyền.
• Một nghiên cứu mới do các nhà nghiên cứu từ Đại học Washington, Princeton, Chicago, USC và Google thực hiện cho thấy các kỹ thuật gỡ bỏ học tập phổ biến nhất hiện nay có xu hướng làm suy giảm mô hình, thường đến mức không thể sử dụng được.
• Weijia Shi, một nhà nghiên cứu trong nghiên cứu này và là nghiên cứu sinh tiến sĩ khoa học máy tính tại UW, cho biết hiện tại không có phương pháp hiệu quả nào cho phép mô hình quên dữ liệu cụ thể mà không mất đi đáng kể tính hữu dụng.
• Các mô hình AI tạo sinh học cách dự đoán dữ liệu dựa trên các mẫu và ngữ cảnh từ một lượng lớn dữ liệu đào tạo. Hầu hết các mô hình được đào tạo trên dữ liệu từ các trang web và bộ dữ liệu công khai trên internet.
• Nhiều chủ sở hữu bản quyền không đồng ý với việc sử dụng dữ liệu của họ để đào tạo AI mà không được thông báo, bồi thường hoặc ghi nhận công lao. Điều này đã dẫn đến các vụ kiện chống lại các nhà cung cấp AI.
• Kỹ thuật gỡ bỏ học tập có thể cung cấp cách xóa thông tin nhạy cảm khỏi các mô hình hiện có, như hồ sơ y tế hoặc ảnh riêng tư, theo yêu cầu hoặc lệnh của chính phủ.
• Các kỹ thuật gỡ bỏ học tập hiện tại sử dụng các thuật toán được thiết kế để "điều hướng" mô hình tránh xa dữ liệu cần được gỡ bỏ, nhằm ảnh hưởng đến dự đoán của mô hình để nó không bao giờ hoặc rất hiếm khi đưa ra dữ liệu nhất định.
• Các nhà nghiên cứu đã phát triển một benchmark gọi là MUSE (Machine Unlearning Six-way Evaluation) để đánh giá hiệu quả của các thuật toán gỡ bỏ học tập. MUSE kiểm tra khả năng của thuật toán trong việc ngăn mô hình nhả ra dữ liệu đào tạo nguyên văn và loại bỏ kiến thức của mô hình về dữ liệu đó.
• Nghiên cứu cho thấy các thuật toán gỡ bỏ học tập đã thử nghiệm có thể làm cho mô hình quên thông tin nhất định, nhưng cũng làm tổn hại đến khả năng trả lời câu hỏi chung của mô hình, tạo ra sự đánh đổi.
• Hiện tại chưa có giải pháp cho vấn đề này, nhấn mạnh nhu cầu cần thêm nghiên cứu. Các nhà cung cấp đang đặt cược vào gỡ bỏ học tập như một giải pháp cho các vấn đề dữ liệu đào tạo của họ có vẻ như đang gặp khó khăn.
📌 Nghiên cứu mới cho thấy các kỹ thuật gỡ bỏ học tập AI hiện tại gây suy giảm nghiêm trọng hiệu suất mô hình, với sự đánh đổi giữa xóa dữ liệu không mong muốn và khả năng tổng quát. Cần thêm nghiên cứu để tìm giải pháp hiệu quả cho vấn đề bản quyền và quyền riêng tư trong đào tạo AI.
https://techcrunch.com/2024/07/29/making-ai-models-forget-undesirable-data-hurts-their-performance/