- Nghiên cứu từ Đại học Stanford cho thấy 7-17% câu trong các bài bình duyệt ngành khoa học máy tính được viết bởi mô hình ngôn ngữ lớn (LLM) trong giai đoạn 2023-2024
- Các dấu hiệu nhận biết bài bình duyệt do AI viết:
+ Giọng văn trang trọng và dài dòng
+ Từ ngữ như "commendable" và "meticulous" xuất hiện nhiều gấp 10 lần so với trước 2022
+ Nội dung hời hợt, chung chung
+ Thiếu trích dẫn cụ thể các phần trong bài báo
+ Không có tài liệu tham khảo
- Nguyên nhân chính của việc sử dụng LLM là do thiếu thời gian, với tỷ lệ bài viết bằng AI cao hơn ở các bình duyệt nộp gần deadline
- Các đề xuất sử dụng AI có trách nhiệm:
+ Giới hạn LLM cho các tác vụ đơn giản như sửa ngữ pháp, trả lời câu hỏi cơ bản
+ Xây dựng nền tảng bình duyệt tương tác như OpenReview
+ Yêu cầu người bình duyệt công khai việc sử dụng AI
+ Thiết lập hướng dẫn rõ ràng từ các tạp chí và hội nghị
- Thách thức trong việc phát hiện văn bản AI:
+ Công cụ phát hiện có thể tạo cảnh báo sai
+ Người dùng có thể tránh bị phát hiện bằng cách điều chỉnh prompt
+ Khó phân biệt việc sử dụng AI hợp lý và không hợp lý
📌 Với 7-17% bài bình duyệt khoa học được viết bởi AI trong 2023-2024, cộng đồng khoa học cần khẩn trương thiết lập hướng dẫn sử dụng LLM có trách nhiệm, tập trung vào việc hỗ trợ các tác vụ đơn giản và duy trì tính minh bạch trong quy trình bình duyệt.
https://www.nature.com/articles/d41586-024-03588-8
#NATURE