- Cơ quan Quản lý Không gian mạng Trung Quốc (CAC) đang buộc các công ty công nghệ lớn và các startup AI tham gia đánh giá bắt buộc của chính phủ về các mô hình AI của họ.
- Quá trình này liên quan đến việc kiểm tra hàng loạt phản hồi của LLM với nhiều câu hỏi, trong đó có nhiều câu liên quan đến các vấn đề chính trị nhạy cảm của Trung Quốc và Chủ tịch Tập Cận Bình.
- Trung Quốc đang xây dựng chế độ quản lý AI khắt khe nhất thế giới để quản lý nội dung do AI tạo ra.
- Các công ty AI Trung Quốc phải học cách kiểm duyệt các mô hình ngôn ngữ lớn, một nhiệm vụ khó khăn do cần huấn luyện LLM trên lượng lớn nội dung tiếng Anh.
- Quá trình lọc bắt đầu bằng việc loại bỏ thông tin có vấn đề khỏi dữ liệu huấn luyện và xây dựng cơ sở dữ liệu từ khóa nhạy cảm.
- Kết quả có thể thấy rõ ở các chatbot AI của Trung Quốc. Hầu hết từ chối trả lời các chủ đề nhạy cảm như thảm sát Thiên An Môn.
- Tuy nhiên, Bắc Kinh cũng tung ra chatbot AI dựa trên "Tư tưởng Tập Cận Bình về Chủ nghĩa xã hội đặc sắc Trung Quốc trong thời đại mới".
- CAC đã đặt giới hạn số câu hỏi mà LLM có thể từ chối trong quá trình kiểm tra an toàn, không quá 5%.
- ByteDance được cho là tiến xa nhất trong việc tạo ra LLM phản ánh khéo léo quan điểm của Bắc Kinh. Chatbot Doubao của họ đứng đầu với tỷ lệ "tuân thủ an toàn" 66,4% khi trả lời các câu hỏi khó về giá trị xã hội chủ nghĩa cốt lõi.
📌 Trung Quốc đang thắt chặt kiểm soát các mô hình ngôn ngữ AI lớn thông qua quá trình kiểm duyệt và đánh giá nghiêm ngặt của chính phủ, buộc các công ty phải lọc nội dung nhạy cảm và đưa ra câu trả lời phù hợp với giá trị xã hội chủ nghĩa. ByteDance dẫn đầu với chatbot Doubao tuân thủ 66,4% tiêu chuẩn an toàn, vượt xa GPT-4 của OpenAI chỉ đạt 7,1% trên cùng bài kiểm tra.
https://www.ft.com/content/10975044-f194-4513-857b-e17491d2a9e9
#FT