AI trong quân sự: từ khóa thiếu sót trong các cuộc thảo luận về an toàn

- Các chính phủ phương Tây đang thiết lập các Viện An toàn AI, nhưng không quản lý việc sử dụng AI trong quân sự.
- Lực lượng Phòng vệ Israel (IDF) sử dụng chương trình AI có tên Lavender để đánh dấu mục tiêu cho các cuộc tấn công bằng drone, dẫn đến tổn thất lớn về người và tài sản ở Gaza.
- Các công ty công nghệ như Microsoft và Clearview AI đang thúc đẩy sử dụng AI trong chiến tranh, với các sản phẩm như Dalle-E và công nghệ nhận diện khuôn mặt.
- Luật AI của EU và Sắc lệnh của Nhà Trắng về AI đều có các điều khoản loại trừ cho các hệ thống AI chỉ dùng cho mục đích quân sự, bảo vệ hoặc an ninh quốc gia.
- Không có quy định ràng buộc mới nào về loại hệ thống AI nào mà quân đội và các dịch vụ tình báo có thể sử dụng, khiến các khối dân chủ chính không có thẩm quyền đạo đức để khuyến khích các quốc gia khác.
- Các cuộc thảo luận chính trị về an toàn AI có ý nghĩa như thế nào nếu chúng không bao gồm việc sử dụng công nghệ trong quân sự, trong khi vũ khí AI có thể không tuân thủ luật pháp quốc tế về sự phân biệt và tỷ lệ.
- Tổng thư ký Liên Hợp Quốc, António Guterres, đã kêu gọi cấm vũ khí tự động từ năm 2018 và hơn 100 quốc gia đã bày tỏ sự quan tâm đến việc thương lượng và áp dụng các luật pháp quốc tế mới để cấm và hạn chế hệ thống vũ khí tự động.
- Nếu các quốc gia không hành động để bảo vệ dân thường khỏi các ứng dụng quân sự của AI, hệ thống dựa trên quy tắc quốc tế phải nâng cao vai trò của mình.

📌 Các chính phủ phương Tây thiết lập các Viện An toàn AI nhưng không quản lý AI quân sự. IDF sử dụng AI để đánh dấu mục tiêu cho drone ở Gaza, gây thương vong lớn. Các công ty công nghệ như Microsoft và Clearview AI thúc đẩy AI trong chiến tranh. Không có quy định mới về AI quân sự, khiến các cuộc thảo luận về an toàn AI thiếu ý nghĩa nếu không bao gồm việc sử dụng công nghệ trong quân sự.

https://www.ft.com/content/da03f8e1-0ae4-452d-acd1-ec284b6acd78

 

#FT

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo