AI nguồn mở đặc biệt nguy hiểm
- AI ứng dụng hiện nay thường được biết đến là "AI mã nguồn đóng" như ChatGPT của OpenAI, với phần mềm được bảo mật bởi nhà sản xuất và một số đối tác đã được xác minh.
- Người dùng tương tác với các hệ thống này thông qua giao diện web như chatbot, và người dùng doanh nghiệp có thể truy cập API để tích hợp hệ thống AI vào ứng dụng hoặc quy trình làm việc của họ.
- Công chúng ít hiểu về việc phát hành nhanh chóng và không kiểm soát các hệ thống AI mã nguồn mở mạnh mẽ.
- OpenAI ban đầu được thành lập để sản xuất hệ thống AI mã nguồn mở, nhưng đã quyết định ngừng phát hành mã nguồn và trọng số mô hình GPT vào năm 2019 vì lo ngại rủi ro.
- Các công ty như Meta, Stability AI, Hugging Face, Mistral, EleutherAI, và Technology Innovation Institute đã chọn phát hành các hệ thống AI mã nguồn mở mạnh mẽ để dân chủ hóa việc truy cập AI.
- Các nhóm ủng hộ đã đạt được tiến bộ hạn chế trong việc nhận được miễn trừ cho một số mô hình AI không an toàn trong Đạo luật AI của Liên minh Châu Âu.
📌 AI mã nguồn mở đặt ra rủi ro lớn chưa thể kiểm soát được. Các mô hình không an toàn như Llama 2 của Meta có thể bị lạm dụng dễ dàng bởi các tác nhân đe dọa. Các hệ thống AI này có thể được sử dụng để phân phối thông tin sai lệch và lừa đảo trên quy mô lớn, gây ảnh hưởng nghiêm trọng đến hệ thống thông tin và bầu cử. AI không an toàn cũng có thể hỗ trợ sản xuất vật liệu nguy hiểm như vũ khí hóa học và sinh học. Cần có các biện pháp quản lý và kiểm soát chặt chẽ để giảm thiểu rủi ro từ AI mã nguồn mở.