- Nhà nghiên cứu Eliezer Yudkowsky cho rằng việc gộp tất cả các mối quan tâm về AI vào một nhóm là một ý tưởng tồi. Ông cho rằng cần phân biệt giữa "ngăn AI giết mọi người" và "AI được sử dụng bởi ngân hàng cho các khoản vay công bằng".
- Nhiều người trong ngành AI lo ngại rằng "an toàn" trong AI có thể trở nên chính trị hóa khi nó bao gồm các vấn đề xã hội nóng như thiên vị và đa dạng. Điều này có thể làm xói mòn ý nghĩa và sức mạnh của nó.
- Một số người ủng hộ việc mở rộng định nghĩa an toàn AI, bao gồm cả Alondra Nelson, người đứng đầu Bản thiết kế của Nhà Trắng về Quyền AI. Bà lập luận rằng việc làm cho AI tiên tiến an toàn đồng nghĩa với việc hiểu và giảm thiểu rủi ro đối với các giá trị như nhân quyền, công bằng xã hội và dân chủ.
- Tuy nhiên, việc gộp tất cả các tác động tiềm tàng của AI vào một thuật ngữ chung có thể khiến chúng tiếp xúc với diễn ngôn chính trị độc hại, làm giảm cơ hội thành công của chúng. Những người chịu trách nhiệm ngăn chặn thảm họa hạt nhân hoặc vũ khí sinh học có lẽ không nên là những người đảm bảo các công cụ tạo hình ảnh chatbot phản ánh sự đa dạng sắc tộc.
📌 Việc mở rộng định nghĩa "an toàn AI" để bao gồm mọi thứ từ nguy cơ tuyệt chủng đến thiên vị thuật toán và đa dạng đang gây ra nhiều tranh cãi. Một số người lo ngại điều này sẽ làm xói mòn ý nghĩa của thuật ngữ và khiến nó trở nên chính trị hóa. Tuy nhiên, những người ủng hộ lập luận rằng an toàn AI luôn bao gồm nhiều vấn đề và cần một định nghĩa rộng hơn để bảo vệ các giá trị như nhân quyền và công bằng xã hội.
Citations:
[1] https://www.semafor.com/article/03/08/2024/the-risks-of-expanding-the-definition-of-ai-safety