• Một nghiên cứu mới từ AWS cho thấy 57% nội dung văn bản trên internet hiện đã được tạo ra bởi AI.
• Phần lớn nội dung được xuất bản trên web là bản dịch được tạo bởi Dịch máy (Machine Translation), một loại AI tập trung vào việc dịch văn bản.
• Việc này không chỉ có hại cho người dùng và người sáng tạo nội dung, mà còn cản trở việc huấn luyện các mô hình AI tạo sinh.
• Các mô hình ngôn ngữ lớn (LLM) dựa vào nội dung do con người và chuyên gia tạo ra để cung cấp thông tin chính xác hơn. Việc sao chép văn bản bằng AI và chỉ thông qua dịch thuật ảnh hưởng đến hiệu suất của AI tạo sinh.
• Nghiên cứu của AWS nhấn mạnh rằng các bản dịch thường có lỗi vì chúng xuất phát từ các văn bản được viết kém chất lượng. Hậu quả là những nội dung dịch này sẽ cung cấp thông tin không chính xác hoặc kém chất lượng cho người dùng.
• Ngoài ra còn có vấn đề là LLM sẽ "tái chế" nội dung cho việc huấn luyện của chính nó - tức là AI đang huấn luyện AI, gần giống như một mô hình kim tự tháp.
• Nghiên cứu chỉ ra rằng chất lượng và độ chính xác của các phản hồi được tạo ra bởi LLM suy giảm theo thời gian.
• Đối với những người sử dụng ChatGPT, Gemini, Copilot hoặc các AI khác cho các tác vụ đơn giản hơn, sự suy giảm chất lượng này có thể không được nhận ra. Tuy nhiên, vào cuối năm 2023 và đầu năm 2024, đã có trường hợp ChatGPT bị "lười biếng". Một số độc giả đã phàn nàn về sự suy giảm chất lượng nhất định của các AI tạo sinh.
• Nghiên cứu của AWS đề xuất một giải pháp: sử dụng các công nghệ để phát hiện nội dung được tạo ra bởi Dịch máy (MT). Khác với các công cụ dịch thuật cơ bản chỉ dịch từng từ một, MT sử dụng AI để đánh giá ngữ cảnh của văn bản.
📌 Nghiên cứu của AWS tiết lộ 57% nội dung web do AI tạo ra, chủ yếu qua dịch máy. Điều này gây ra vòng luẩn quẩn khi AI huấn luyện AI, dẫn đến suy giảm chất lượng thông tin và hiệu suất của các mô hình ngôn ngữ lớn theo thời gian. Giải pháp đề xuất là phát triển công nghệ phát hiện nội dung do máy tạo.
https://betechwise.com/57-of-content-on-the-web-was-created-by-robots-study-shows/
Nội dung bài báo:
https://arxiv.org/pdf/2401.05749
• Nghiên cứu chỉ ra rằng một lượng lớn nội dung trên web được dịch sang nhiều ngôn ngữ, và chất lượng thấp của các bản dịch đa ngữ này cho thấy chúng có khả năng được tạo ra bằng dịch máy (MT).
• Nội dung được tạo bởi máy và song ngữ không chỉ chiếm ưu thế trong các bản dịch ở các ngôn ngữ ít tài nguyên, mà còn chiếm một phần lớn tổng số nội dung web ở những ngôn ngữ đó.
• Có bằng chứng về sự thiên vị trong việc lựa chọn loại nội dung được dịch sang nhiều ngôn ngữ, phù hợp với việc nội dung tiếng Anh chất lượng thấp được dịch hàng loạt sang nhiều ngôn ngữ ít tài nguyên thông qua MT.
• Nghiên cứu đặt ra những lo ngại nghiêm trọng về việc huấn luyện các mô hình như mô hình ngôn ngữ đa ngữ lớn trên cả dữ liệu đơn ngữ và song ngữ được thu thập từ web.
• Các tác giả đã tạo ra bộ dữ liệu đa ngữ lớn nhất từ trước đến nay, bao gồm 6,4 tỷ câu duy nhất trong 90 ngôn ngữ để phân tích.
• Phân tích cho thấy nội dung đa ngữ có xu hướng ngắn hơn và đơn giản hơn. Ví dụ, độ dài trung bình của câu tiếng Anh giảm từ 103,7 ký tự ở nội dung song ngữ xuống còn 59,9 ký tự ở nội dung đa ngữ (8+ ngôn ngữ).
• Chất lượng của các bản dịch đa ngữ thấp hơn đáng kể so với các bản dịch song ngữ. Điểm CometQE trung bình giảm 6,2 điểm từ nội dung song ngữ đến nội dung đa ngữ (8+ ngôn ngữ).
• Có sự thay đổi đáng kể trong phân bố chủ đề khi so sánh nội dung song ngữ với nội dung đa ngữ. Ví dụ, tỷ lệ nội dung thuộc chủ đề "Hội thoại & Ý kiến" tăng từ 22,5% ở nội dung song ngữ lên 40,1% ở nội dung đa ngữ (8+ ngôn ngữ).
• Nghiên cứu cũng chỉ ra rằng các công cụ như LASER có xu hướng ưu tiên đầu ra của MT hơn là bản dịch của con người, với điểm tương đồng cosine cao hơn khoảng 2,8% cho đầu ra MT.
• Các phát hiện này giải thích tại sao MT cho các ngôn ngữ ít tài nguyên lại khó khăn, và tại sao việc lọc nhiễu từ dữ liệu song ngữ thu thập từ web lại có lợi cho việc huấn luyện MT.
📌 Nghiên cứu phát hiện 57,1% câu trong bộ dữ liệu 6,4 tỷ câu/90 ngôn ngữ là đa ngữ, với chất lượng và độ phức tạp thấp hơn. Điều này gây lo ngại về chất lượng dữ liệu huấn luyện cho các mô hình ngôn ngữ đa ngữ và MT cho ngôn ngữ ít tài nguyên, đồng thời nhấn mạnh tầm quan trọng của việc lọc dữ liệu web.