- Hoa Kỳ cần phải quyết định mức độ công khai truy cập vào trí tuệ nhân tạo (AI), có thể ảnh hưởng đến chính sách bảo vệ dữ liệu tổng thể, sau khi Microsoft tiết lộ các tác nhân nhà nước từ các quốc gia đối thủ đã sử dụng công nghệ này để đào tạo nhân viên của họ.
- Phil Siegel, người sáng lập tổ chức phi lợi nhuận AI Center for Advanced Preparedness and Threat Response Simulation, đã phát biểu với Fox News Digital về việc cần phải quyết định giữa việc mở cửa và dễ dàng truy cập cho mọi người hay chọn một hướng đi khác.
- OpenAI, trong một bài đăng blog vào thứ Tư, đã xác định năm nhóm "ác ý" có liên kết với nhà nước: Charcoal Typhoon và Salmon Typhoon có liên kết với Trung Quốc, Crimson có liên kết với Iran, Sandstorm có liên kết với Bắc Triều Tiên và Emerald Sleet và Forest Blizzard có liên kết với Nga.
- Các nhóm này đã sử dụng dịch vụ của OpenAI để "truy vấn thông tin nguồn mở, dịch thuật, tìm lỗi mã hóa và thực hiện các nhiệm vụ mã hóa cơ bản".
- Đáp lại, OpenAI đã đề xuất một cách tiếp cận đa phương để chống lại việc sử dụng công cụ của công ty một cách xấu, bao gồm "giám sát và phá vỡ" hoạt động của các tác nhân độc hại thông qua công nghệ mới để xác định và cắt đứt hoạt động của họ, hợp tác nhiều hơn với các nền tảng AI khác để phát hiện hoạt động độc hại và cải thiện sự minh bạch công cộng.
- Microsoft và OpenAI, cùng với sự hỗ trợ từ MITRE, đã cam kết bảo vệ các hệ thống AI quý giá cùng với việc phát triển các biện pháp đối phó trong "bối cảnh phát triển của các hoạt động mạng được hỗ trợ bởi AI".
📌 Việc các tác nhân độc hại sử dụng công nghệ AI như OpenAI để đào tạo và thực hiện các hoạt động có thể gây hại đã đặt ra một thách thức lớn cho an ninh mạng và chính sách bảo vệ dữ liệu. Sự cần thiết của việc xây dựng hạ tầng bảo mật AI được nhấn mạnh bởi các chuyên gia và tổ chức như Microsoft, OpenAI và MITRE, những người đang nỗ lực phát triển công nghệ và chiến lược để giám sát, phá vỡ hoạt động của các tác nhân độc hại và tăng cường sự minh bạch công cộng.
Citations:
[1] https://www.foxnews.com/us/ai-security-infrastructure-needed-malicious-foreign-actors-use-openai-train-operatives-expert-says