- Google DeepMind vừa công bố một báo cáo dài 145 trang về phương pháp đảm bảo an toàn cho AGI (trí tuệ nhân tạo tổng quát), được định nghĩa là AI có thể thực hiện bất kỳ nhiệm vụ nào mà con người làm được.
- Báo cáo được đồng tác giả bởi đồng sáng lập DeepMind Shane Legg, dự đoán AGI có thể xuất hiện vào năm 2030 và có thể gây ra "tổn hại nghiêm trọng", thậm chí đề cập đến "rủi ro hiện sinh" có thể "hủy diệt nhân loại vĩnh viễn".
- DeepMind định nghĩa "Exceptional AGI" là hệ thống có khả năng tương đương ít nhất 99% người trưởng thành có kỹ năng trong nhiều nhiệm vụ phi vật lý, bao gồm các nhiệm vụ siêu nhận thức như học kỹ năng mới.
- Báo cáo so sánh cách tiếp cận của DeepMind với Anthropic và OpenAI, cho rằng Anthropic ít chú trọng đến "đào tạo mạnh mẽ, giám sát và bảo mật", trong khi OpenAI quá lạc quan về việc "tự động hóa" nghiên cứu an toàn AI.
- DeepMind nghi ngờ về khả năng xuất hiện siêu trí tuệ AI trong tương lai gần nếu không có "đổi mới kiến trúc đáng kể", trái ngược với mục tiêu gần đây của OpenAI.
- Tuy nhiên, báo cáo cho rằng các mô hình hiện tại có thể dẫn đến "cải tiến AI đệ quy": vòng phản hồi tích cực nơi AI tự nghiên cứu để tạo ra các hệ thống AI tinh vi hơn, điều này có thể cực kỳ nguy hiểm.
- Báo cáo đề xuất phát triển các kỹ thuật ngăn chặn tác nhân xấu tiếp cận AGI, cải thiện hiểu biết về hành động của hệ thống AI, và "củng cố" môi trường hoạt động của AI.
- Nhiều chuyên gia không đồng tình với tiền đề của báo cáo. Heidy Khlaaf từ AI Now Institute cho rằng khái niệm AGI quá mơ hồ để "đánh giá khoa học nghiêm túc". Matthew Guzdial từ Đại học Alberta không tin rằng cải tiến AI đệ quy là thực tế hiện nay.
- Sandra Wachter, nhà nghiên cứu tại Oxford, lập luận rằng mối quan tâm thực tế hơn là AI tự củng cố với "đầu ra không chính xác", dẫn đến nguy cơ lan truyền thông tin sai lệch.
- Mặc dù toàn diện, báo cáo của DeepMind dường như không giải quyết được các cuộc tranh luận về tính thực tế của AGI và các lĩnh vực an toàn AI cần được chú ý khẩn cấp nhất.
📌 DeepMind dự báo AGI có thể xuất hiện vào năm 2030 với khả năng gây hại nghiêm trọng. Báo cáo 145 trang đề xuất các biện pháp an toàn nhưng vẫn gây tranh cãi trong giới chuyên gia về tính khả thi của AGI và các ưu tiên an toàn AI.
https://techcrunch.com/2025/04/02/deepminds-145-page-paper-on-agi-safety-may-not-convince-skeptics/