- Naver, công ty điều hành cổng thông tin internet lớn nhất Hàn Quốc, đã công bố một kế hoạch chủ động để đánh giá và quản lý rủi ro liên quan đến trí tuệ nhân tạo (AI) nhằm phát triển và sử dụng công nghệ này một cách an toàn.
- Khung An Toàn AI (ASF) của Naver định nghĩa các rủi ro liên quan đến AI là sự suy giảm nghiêm trọng quyền lực của loài người và việc lạm dụng công nghệ.
- Theo khung này, Naver sẽ đánh giá định kỳ nguy cơ của các hệ thống AI của mình, với các đánh giá diễn ra mỗi ba tháng cho các công nghệ AI tiên tiến, được gọi là "frontier AIs."
- Công ty sẽ tiến hành các đánh giá bổ sung khi năng lực của hệ thống AI tăng hơn 6 lần trong một thời gian ngắn.
- Naver sẽ áp dụng ma trận đánh giá rủi ro AI của mình để kiểm tra khả năng lạm dụng công nghệ, xem xét mục đích và mức độ rủi ro của hệ thống trước khi phân phối.
- Naver cho biết sẽ tiếp tục cải thiện ASF của mình để phản ánh nhiều sự đa dạng văn hóa hơn, giúp các chính phủ và công ty trong và ngoài nước phát triển các AI chủ quyền.
- CEO Choi Soo-yeon nhấn mạnh rằng Naver sẽ tiếp tục phát triển các AI chủ quyền cho thị trường toàn cầu và nâng cao ASF của mình để đóng góp vào việc tạo ra một hệ sinh thái AI bền vững, nơi nhiều mô hình AI khác nhau phản ánh văn hóa và giá trị của các khu vực khác nhau có thể được sử dụng an toàn và cùng tồn tại.
📌 Naver đã ra mắt Khung An Toàn AI để đánh giá và quản lý rủi ro liên quan đến AI, với các đánh giá định kỳ mỗi ba tháng và khi năng lực AI tăng hơn sáu lần. Công ty sẽ tiếp tục cải thiện ASF để phản ánh sự đa dạng văn hóa và phát triển các AI chủ quyền cho thị trường toàn cầu.
https://telecom.economictimes.indiatimes.com/news/internet/naver-unveils-ai-safety-framework-to-respond-to-possible-risks/111056242