- Dự luật SB 1047 của California được Thượng nghị sĩ Scott Weiner giới thiệu vào tháng 2 và đã được Thượng viện bang thông qua vào tháng trước, hiện đang được sửa đổi trong Hội đồng.
- Mục tiêu của SB 1047 là đảm bảo các nhà phát triển mô hình AI lớn phải chịu trách nhiệm pháp lý về việc đảm bảo rằng các mô hình của họ không có khả năng gây hại nghiêm trọng.
- Định nghĩa về "hại nghiêm trọng" trong dự luật bao gồm việc tạo ra vũ khí hóa học, sinh học, phóng xạ hoặc hạt nhân có thể gây ra thương vong hàng loạt; các cuộc tấn công mạng vào cơ sở hạ tầng quan trọng gây thiệt hại ít nhất 500.000.000 USD; hoặc hành động của mô hình AI tự động gây ra mức thiệt hại tương tự, gây hại cho con người, hoặc gây ra trộm cắp, thiệt hại tài sản, hoặc các mối đe dọa khác đối với an toàn công cộng.
- Dự luật yêu cầu các nhà phát triển phải thực hiện các bước hợp lý để ngăn chặn mô hình của họ gây ra thiệt hại xã hội, chẳng hạn như kiểm tra an toàn cơ bản và các thực hành tốt nhất trong ngành.
- Các nhà phát triển sẽ không bị trừng phạt vì các lỗi giấy tờ hoặc nếu mô hình gây ra thiệt hại, miễn là họ đã nỗ lực báo cáo rủi ro của nó cho Phòng Mô hình Tiên phong của Bộ Công nghệ California.
- Dự luật chủ yếu nhắm vào các nhà phát triển mô hình AI lớn như Anthropic, Google Deepmind, OpenAI, và Meta, với các mô hình được đào tạo sử dụng sức mạnh tính toán lớn hơn 10^26 FLOPS và chi phí vượt quá 100.000.000 USD.
- Các nhà phát triển phải nộp chứng nhận hàng năm về sự tuân thủ của mô hình và báo cáo các sự cố an toàn AI liên quan đến mô hình của họ.
- Dự luật đã gây ra sự phản đối từ các công ty công nghệ lớn và các tổ chức như TechNet, Phòng Thương mại California, và Hiệp hội Tư pháp Dân sự California, lo ngại rằng nó có thể làm giảm sự đổi mới.
- Một số người ủng hộ an toàn AI cho rằng dự luật không đủ để bảo vệ công chúng khỏi các rủi ro AI và chỉ là bước đầu tiên trong việc giảm thiểu rủi ro quy mô lớn.
- Các nhà phát triển lo ngại rằng dự luật có thể hạn chế sự phát triển của các mô hình nền tảng mở và tinh chỉnh, và rằng họ có thể bị chịu trách nhiệm pháp lý cho các điều chỉnh trọng số của mô hình bởi bên thứ ba gây ra thiệt hại.
- Dự luật SB 1047 có thể ảnh hưởng đến các cuộc tranh luận quy định rộng hơn ở cấp liên bang và các bang khác, với hơn 600 dự luật AI đang được xem xét tại Hoa Kỳ trong năm nay.
📌 Dự luật SB 1047 của California nhằm điều chỉnh các mô hình AI tiên tiến, gây tranh cãi giữa các nhà phát triển và những người ủng hộ an toàn AI. Dự luật yêu cầu các nhà phát triển phải chịu trách nhiệm pháp lý và thực hiện các biện pháp an toàn, nhưng có thể ảnh hưởng đến sự đổi mới và phát triển mô hình mở.
https://thebulletin.org/2024/06/california-ai-bill-becomes-a-lightning-rod-for-safety-advocates-and-developers-alike