• OpenAI vừa công bố các mô hình AI mới có tên o1, với khả năng lập luận, giải quyết các bài toán khó và trả lời các câu hỏi nghiên cứu khoa học. Đây được xem là bước đột phá quan trọng hướng tới trí tuệ nhân tạo tổng quát (AGI).
• Tuy nhiên, công ty cũng cảnh báo các mô hình mới này có nguy cơ cao bị lạm dụng để tạo ra vũ khí sinh học. Trong bảng đánh giá an toàn, OpenAI xếp o1 ở mức rủi ro "trung bình" đối với các vấn đề liên quan đến vũ khí hóa học, sinh học, phóng xạ và hạt nhân (CBRN).
• Đây là mức đánh giá rủi ro cao nhất mà OpenAI từng đưa ra cho các mô hình của mình. Nó có nghĩa là công nghệ này có thể "cải thiện đáng kể khả năng hỗ trợ các chuyên gia hiện có trong các lĩnh vực CBRN nâng cao để có thể tạo ra một mối đe dọa CBRN đã biết".
• Các chuyên gia cảnh báo phần mềm AI có khả năng nâng cao như lập luận từng bước sẽ làm tăng nguy cơ bị lạm dụng bởi những kẻ xấu.
• Cảnh báo này được đưa ra trong bối cảnh các công ty công nghệ lớn như Google, Meta và Anthropic đang chạy đua phát triển các hệ thống AI tiên tiến, với mục tiêu tạo ra phần mềm có thể đóng vai trò "agent" hỗ trợ con người hoàn thành nhiệm vụ.
• Tại California, một dự luật gây tranh cãi có tên SB 1047 sẽ yêu cầu các nhà sản xuất mô hình AI tốn kém nhất phải thực hiện các bước để giảm thiểu rủi ro mô hình của họ bị sử dụng để phát triển vũ khí sinh học.
• Một số nhà đầu tư mạo hiểm và nhóm công nghệ, bao gồm cả OpenAI, đã cảnh báo rằng luật đề xuất này có thể gây ảnh hưởng tiêu cực đến ngành công nghiệp AI. Thống đốc California Gavin Newsom phải quyết định trong những ngày tới liệu có ký hay phủ quyết luật này.
• Yoshua Bengio, giáo sư khoa học máy tính tại Đại học Montreal, cho rằng việc OpenAI vượt qua mức "rủi ro trung bình" đối với vũ khí CBRN chỉ củng cố tầm quan trọng và tính cấp bách của việc thông qua luật như SB 1047 để bảo vệ công chúng.
• Mira Murati, Giám đốc công nghệ của OpenAI, cho biết công ty đang đặc biệt "thận trọng" với cách họ đưa o1 ra công chúng do khả năng nâng cao của nó, mặc dù sản phẩm sẽ được truy cập rộng rãi thông qua các thuê bao trả phí của ChatGPT và cho các lập trình viên thông qua API.
• Bà nói thêm rằng mô hình đã được thử nghiệm bởi các chuyên gia trong nhiều lĩnh vực khoa học khác nhau để đánh giá giới hạn của nó. Murati cho biết các mô hình hiện tại hoạt động tốt hơn nhiều so với các mô hình trước đó về các chỉ số an toàn tổng thể.
📌 OpenAI công bố mô hình AI o1 mới với khả năng lập luận và giải quyết vấn đề nâng cao, nhưng cũng cảnh báo nguy cơ bị lạm dụng để tạo vũ khí sinh học. Dự luật SB 1047 tại California nhằm tăng cường quy định an toàn cho AI đang gây tranh cãi trong ngành công nghiệp.
https://www.ft.com/content/37ba7236-2a64-4807-b1e1-7e21ee7d0914
#FT