• Các nhà nghiên cứu từ Đại học Oxford đã phát triển một phương pháp mới gọi là "entropy ngữ nghĩa" để đánh giá chất lượng và phát hiện dấu hiệu ảo giác trong các câu trả lời được tạo ra bởi AI.
• Ảo giác và lan truyền thông tin sai lệch là một trong những rào cản lớn nhất đối với sự phát triển của AI. Các chatbot AI như ChatGPT và Microsoft Copilot vẫn thường xuyên đưa ra thông tin sai lệch.
• Phương pháp entropy ngữ nghĩa phân tích các ý nghĩa khác nhau của các câu trả lời được tạo ra. Nếu phát hiện mức độ entropy ngữ nghĩa cao, điều đó có nghĩa là có sự khác biệt lớn về ý nghĩa giữa các câu trả lời.
• Nghiên cứu được thực hiện trên 6 mô hình AI, bao gồm cả GPT-4 của OpenAI. Kết quả cho thấy entropy ngữ nghĩa hiệu quả hơn trong việc phát hiện các câu hỏi từ Google Search, câu hỏi kỹ thuật y sinh học và các lĩnh vực khác so với các phương pháp khác.
• Tuy nhiên, nhược điểm của phương pháp này là đòi hỏi nhiều sức mạnh tính toán và tài nguyên hơn.
• Giáo sư Yarin Gal nhận định: "Việc lấy câu trả lời từ các mô hình ngôn ngữ lớn là rẻ, nhưng độ tin cậy là nút thắt cổ chai lớn nhất. Trong những tình huống mà độ tin cậy quan trọng, việc tính toán độ bất định ngữ nghĩa là một cái giá nhỏ phải trả."
• Jack Dorsey, cựu CEO Twitter cảnh báo rằng trong 5-10 năm tới, sẽ rất khó phân biệt được thông tin thật và giả do sự phát triển của deepfake và AI.
• Các nhà nghiên cứu cho biết phương pháp mới của họ có thể phân biệt được khi nào mô hình không chắc chắn về nội dung cần nói và khi nào mô hình không chắc chắn về cách diễn đạt.
• Nghiên cứu này có thể giúp nâng cao độ tin cậy của các câu trả lời AI, một vấn đề quan trọng khi công nghệ này ngày càng được ứng dụng rộng rãi.
📌 Nghiên cứu từ Oxford đã phát triển phương pháp "entropy ngữ nghĩa" để phát hiện ảo giác AI, giúp nâng cao độ tin cậy. Phương pháp này hiệu quả hơn các cách truyền thống nhưng đòi hỏi nhiều tài nguyên tính toán hơn. Đây có thể là bước tiến quan trọng trong việc giải quyết vấn đề ảo giác và thông tin sai lệch từ AI.
https://www.windowscentral.com/software-apps/oxford-researchers-seemingly-found-a-semantic-entropy-cure-for-ai-hallucination-episodes