Nhân viên nói OpenAI và Google Deepmind đang che giấu công chúng về sự nguy hiểm của AI

- 13 nhân viên, trong đó 11 người là nhân viên hiện tại hoặc cựu nhân viên của OpenAI, công ty đứng sau ChatGPT, đã ký vào bức thư có tựa đề "Quyền cảnh báo về trí tuệ nhân tạo tiên tiến". 2 người ký tên khác là nhân viên hiện tại và cựu nhân viên của Google DeepMind. 6 cá nhân ẩn danh.

- Liên minh cảnh báo rằng các hệ thống AI đủ mạnh để gây ra tác hại nghiêm trọng nếu không có quy định thích hợp, từ việc củng cố bất bình đẳng hiện có, thao túng và thông tin sai lệch, đến việc mất kiểm soát các hệ thống AI tự trị có khả năng dẫn đến sự tuyệt chủng của con người.

- OpenAI tự hào về thành tích cung cấp các hệ thống AI an toàn và có khả năng nhất, tin tưởng vào cách tiếp cận khoa học để giải quyết rủi ro. Họ đồng ý rằng tranh luận nghiêm túc là rất quan trọng và sẽ tiếp tục tham gia với các chính phủ, xã hội dân sự và các cộng đồng khác trên toàn thế giới.

- Các lãnh đạo của cả 3 công ty AI hàng đầu - OpenAI, Google DeepMind và Anthropic - đều đã nói về rủi ro trong quá khứ. Anthropic cho rằng tiến bộ nhanh chóng của AI sẽ rất đáng lo ngại, thay đổi việc làm, kinh tế vĩ mô và cấu trúc quyền lực.

- Nhóm đứng sau bức thư cáo buộc các công ty AI có thông tin về rủi ro của công nghệ AI mà họ đang phát triển, nhưng vì họ không bắt buộc phải tiết lộ nhiều với chính phủ, nên khả năng thực sự của hệ thống vẫn là bí mật. Điều đó có nghĩa là nhân viên hiện tại và cựu nhân viên là những người duy nhất có thể buộc các công ty chịu trách nhiệm trước công chúng.

- 83% người Mỹ tin rằng AI có thể vô tình dẫn đến một sự kiện thảm khốc. 82% không tin tưởng các giám đốc điều hành công nghệ tự điều chỉnh ngành. Daniel Colson, giám đốc điều hành của Viện Chính sách AI, lưu ý rằng bức thư đã được đưa ra sau một loạt các vụ ra đi nổi tiếng từ OpenAI.

- Các tác giả thư đã đưa ra 4 yêu cầu đối với các công ty AI tiên tiến: ngừng ép buộc nhân viên ký các thỏa thuận ngăn họ chỉ trích chủ lao động, tạo quy trình ẩn danh để nhân viên nêu lên mối quan tâm, hỗ trợ "văn hóa chỉ trích cởi mở" và không trả đũa nhân viên cũ và hiện tại chia sẻ "thông tin bí mật liên quan đến rủi ro".

- Các chính phủ trên toàn thế giới đã chuyển sang quy định AI, mặc dù tiến độ chậm hơn tốc độ phát triển của AI. Liên minh Châu Âu đã thông qua luật AI toàn diện đầu tiên trên thế giới. Các nỗ lực hợp tác quốc tế đã được theo đuổi thông qua các Hội nghị thượng đỉnh về an toàn AI ở Vương quốc Anh và Hàn Quốc, và tại Liên hợp quốc vào tháng 10/2023.

📌 Một nhóm nhân viên và cựu nhân viên của OpenAI và Google DeepMind đã công bố một bức thư cảnh báo về những nguy hiểm của AI tiên tiến, cáo buộc các công ty đang ưu tiên lợi nhuận tài chính trong khi tránh giám sát. Họ kêu gọi các công ty AI tiên tiến ngừng ép buộc nhân viên ký các thỏa thuận ngăn chặn chỉ trích, tạo quy trình ẩn danh để nêu quan ngại, hỗ trợ văn hóa chỉ trích cởi mở và không trả đũa. Mặc dù các chính phủ đã bắt đầu quy định AI, nhưng tiến độ vẫn chậm hơn tốc độ phát triển của AI.

https://time.com/6985504/openai-google-deepmind-employees-letter/

#TIME

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo