• Sam Altman, CEO OpenAI, tuyên bố mô hình AI tạo sinh tiếp theo của công ty sẽ được chính phủ Mỹ kiểm tra an toàn trước khi ra mắt.
• OpenAI đang làm việc với Viện An toàn AI Hoa Kỳ để cung cấp quyền truy cập sớm vào mô hình nền tảng tiếp theo và hợp tác thúc đẩy khoa học đánh giá AI.
• Công ty đã thay đổi chính sách không nói xấu, cho phép nhân viên hiện tại và cũ tự do nêu lên các mối quan ngại về công ty và công việc của họ.
• OpenAI cam kết phân bổ ít nhất 20% tài nguyên tính toán cho nghiên cứu an toàn AI.
• Gần đây, 5 thượng nghị sĩ Mỹ đã gửi thư cho Altman đặt câu hỏi về cam kết an toàn của OpenAI và các trường hợp có thể trả đũa nhân viên cũ.
• Jason Kwon, Giám đốc chiến lược OpenAI, đã phản hồi bằng thư khẳng định cam kết phát triển AI có lợi cho toàn nhân loại và thực hiện các quy trình an toàn nghiêm ngặt.
• Ngoài chính phủ Mỹ, OpenAI cũng có thỏa thuận tương tự với chính phủ Anh về kiểm tra an toàn mô hình.
• Mối quan ngại về an toàn của OpenAI bắt đầu tăng cao vào tháng 5 khi hai lãnh đạo nhóm siêu liên kết là Ilya Sutskever và Jan Leike từ chức.
• Leike đã công khai chỉ trích rằng "văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng".
• OpenAI vẫn tiếp tục ra mắt nhiều sản phẩm mới, đồng thời chia sẻ nghiên cứu nội bộ về tin cậy và an toàn.
• Công ty đã thành lập một ủy ban an toàn và bảo mật mới, do Bret Taylor, Adam D'Angelo, Nicole Seligman và Sam Altman lãnh đạo.
• Ủy ban này đang trong quá trình xem xét các quy trình và biện pháp bảo vệ của công ty.
📌 OpenAI cam kết tăng cường an toàn AI bằng cách hợp tác với chính phủ Mỹ và Anh kiểm tra mô hình mới, phân bổ 20% tài nguyên cho nghiên cứu an toàn, thay đổi chính sách nhân viên và thành lập ủy ban an toàn mới. Tuy nhiên, vẫn còn những lo ngại về cách tiếp cận phát triển AI nhanh chóng của công ty.
https://venturebeat.com/ai/sam-altman-next-openai-model-will-first-undergo-safety-checks-by-u-s-government/