Các mô hình AI tiên tiến đang giúp đẩy nhanh nghiên cứu sinh học như phát triển thuốc, thiết kế vắc-xin, tạo enzyme cho nhiên liệu bền vững và điều trị bệnh hiếm.
Tuy nhiên, AI cũng đặt ra rủi ro nghiêm trọng về lạm dụng kép (dual-use), khi công nghệ có thể bị lợi dụng để tạo ra mối đe dọa sinh học bởi người thiếu chuyên môn hoặc kẻ xấu có trình độ cao.
OpenAI dự báo các mô hình sắp tới sẽ đạt năng lực "Cao" trong lĩnh vực sinh học theo thang đo của Preparedness Framework, nên đã áp dụng loạt biện pháp phòng ngừa chủ động.
Các biện pháp bao gồm:
Hợp tác với chuyên gia sinh học, chính phủ và phòng thí nghiệm quốc gia như Los Alamos để xây dựng mô hình đánh giá rủi ro.
Huấn luyện mô hình từ chối các yêu cầu nguy hiểm hoặc chỉ phản hồi ở mức độ khái quát với các yêu cầu có thể bị lạm dụng.
Triển khai hệ thống giám sát liên tục, phát hiện hành vi bất thường và kích hoạt đánh giá thủ công nếu cần.
Tăng cường kiểm soát an ninh, bao gồm kiểm soát truy cập, kiểm soát xuất dữ liệu, và theo dõi nội bộ.
Red-teaming toàn diện, sử dụng nhóm chuyên gia sinh học và chuyên gia tấn công AI để kiểm tra kẽ hở trong hệ thống.
OpenAI sẽ tổ chức hội nghị phòng vệ sinh học vào tháng 7, quy tụ các nhà nghiên cứu chính phủ và NGO để chia sẻ tiến triển, rủi ro và cơ hội hợp tác.
Ngoài ra, đang phát triển cơ chế cấp quyền truy cập cho các tổ chức đáng tin cậy để phục vụ nghiên cứu chẩn đoán và đối phó sinh học.
Kêu gọi đầu tư vào hạ tầng sinh học như sàng lọc axit nucleic, hệ thống cảnh báo sớm, và tăng cường năng lực sinh học ngoài AI.
📌 OpenAI cảnh báo mô hình AI sinh học sắp đạt mức “nguy cơ cao” và đã triển khai biện pháp ngăn chặn rủi ro như huấn luyện từ chối yêu cầu nguy hiểm, giám sát liên tục, kiểm soát truy cập và tổ chức hội nghị phòng vệ sinh học vào tháng 7. Sự hợp tác với chính phủ và chuyên gia là trung tâm chiến lược để bảo đảm AI chỉ được dùng vào mục đích tích cực.
https://openai.com/index/preparing-for-future-ai-capabilities-in-biology/