- Liên minh Châu Âu (EU) đặt ra dự thảo luật AI mới, yêu cầu OpenAI và các công ty khác cung cấp chi tiết về cách tạo ra sản phẩm AI của họ.
- Dự luật AI, dự kiến có hiệu lực vào năm 2025 sau khi được các quốc gia thành viên EU phê duyệt, buộc các nhà phát triển AI phải báo cáo tóm tắt chi tiết về dữ liệu đào tạo cho các cơ quan quản lý EU.
- Các công ty AI hàng đầu ở Châu Âu đã vận động hành lang để giảm bớt các yêu cầu về minh bạch, trong khi OpenAI đã trở nên kín đáo hơn về dữ liệu họ đã thu thập từ Internet.
- Dữ liệu đào tạo có định kiến là vấn đề dai dẳng trong AI, yêu cầu sự can thiệp của quy định. Một nghiên cứu của Đại học Stanford cho thấy ChatGPT và một mô hình AI khác đã tạo ra những bức thư tuyển dụng chứa đầy định kiến giới tính.
- Các công ty sẽ phải kiểm tra an ninh và năng lượng tiêu thụ của mô hình AI của họ một cách nghiêm ngặt và báo cáo lại cho Ủy ban Châu Âu.
- Dự luật cũng yêu cầu các tổng kết về dữ liệu đào tạo phải rộng rãi về phạm vi thay vì chi tiết kỹ thuật, nhưng điều này vẫn không đủ để trả lời nhiều câu hỏi về việc sử dụng dữ liệu cá nhân, nội dung bạo lực hoặc định kiến, và việc sử dụng các bộ lọc nội dung.
Kết luận: Dự thảo luật AI của EU là một bước tiến nhỏ nhưng đáng giá trong việc làm sáng tỏ "hộp đen AI", buộc các công ty như OpenAI phải tiết lộ cách thức xây dựng sản phẩm AI của họ. Luật mới sẽ tăng cường minh bạch và cho phép điều tra sâu hơn về dữ liệu đào tạo, mặc dù vẫn cần phải cụ thể hóa thêm để đạt hiệu quả tối ưu.