• Một bài báo mới từ Trường Luật Yale đề xuất cách tiếp cận mới để quy định trách nhiệm pháp lý cho AI, vốn không có ý định như con người. Nghiên cứu có tựa đề "Luật AI là Luật về Tác nhân Rủi ro không có Ý định".
• Vấn đề chính là các nguyên tắc pháp lý truyền thống thường dựa vào khái niệm mens rea (trạng thái tinh thần của chủ thể) để xác định trách nhiệm. Tuy nhiên, AI hiện tại không có ý định như con người, tạo ra khoảng trống pháp lý tiềm ẩn.
• Nghiên cứu đề xuất sử dụng các tiêu chuẩn khách quan để quy định AI, rút ra từ các lĩnh vực pháp luật gán ý định cho chủ thể hoặc áp dụng tiêu chuẩn khách quan về hành vi.
• Lập luận cốt lõi là nên xem AI như công cụ được sử dụng bởi con người và tổ chức, từ đó quy trách nhiệm cho họ về hành động của AI.
• Nghiên cứu so sánh mối quan hệ giữa AI và người sử dụng với mối quan hệ chủ-đại lý trong Luật Bồi thường thiệt hại. Theo đó, chủ thể phải chịu trách nhiệm về hành động của đại lý khi thực hiện công việc thay mặt họ.
• Các tiêu chuẩn khách quan được đề xuất bao gồm:
- Sơ suất: AI phải được thiết kế với sự cẩn trọng hợp lý
- Trách nhiệm nghiêm ngặt: Yêu cầu mức độ cẩn trọng cao nhất trong các ứng dụng rủi ro cao
- Không giảm nghĩa vụ cẩn trọng: Việc thay thế con người bằng AI không được dẫn đến giảm nghĩa vụ cẩn trọng
• Nghiên cứu đề xuất gán ý định cho AI bằng cách giả định chúng có ý định về hậu quả hợp lý và có thể dự đoán được của hành động.
• Hai ứng dụng thực tế được thảo luận là phỉ báng và vi phạm bản quyền. Đối với phỉ báng, AI nên được xem như sản phẩm có thiết kế khiếm khuyết. Với vi phạm bản quyền, các công ty AI cần thực hiện các bước hợp lý để giảm thiểu rủi ro.
📌 Nghiên cứu từ Yale đề xuất cách tiếp cận mới để quy định AI dựa trên tiêu chuẩn khách quan thay vì ý định chủ quan. Bằng cách xem AI như công cụ của con người/tổ chức và áp dụng nguyên tắc chủ-đại lý, nghiên cứu nhấn mạnh trách nhiệm của người sử dụng AI đối với hành động của nó.
https://www.marktechpost.com/2024/06/30/the-human-factor-in-artificial-intelligence-ai-regulation-ensuring-accountability/