• Công cụ phiên âm Whisper của OpenAI đang được sử dụng rộng rãi trong lĩnh vực y tế thông qua công ty Nabla
• Nabla ước tính đã phiên âm khoảng 7 triệu cuộc hội thoại y tế, với hơn 30.000 bác sĩ lâm sàng và 40 hệ thống y tế đang sử dụng
• Nghiên cứu từ Đại học Cornell và Đại học Washington phát hiện Whisper tạo ra nội dung sai lệch trong khoảng 1% các bản phiên âm
• Vấn đề nghiêm trọng nhất xảy ra khi xử lý các đoạn im lặng trong ghi âm, đặc biệt phổ biến ở bệnh nhân mắc chứng mất ngôn ngữ aphasia
• AI tự tạo ra những câu hoàn toàn không có thật, bao gồm:
- Các cảm xúc bạo lực
- Các cụm từ vô nghĩa
- Các tình trạng bệnh lý không tồn tại
- Các cụm từ phổ biến trên YouTube như "Cảm ơn đã xem!"
• OpenAI thừa nhận vấn đề và cam kết:
- Đang nỗ lực cải thiện để giảm thiểu tình trạng tạo nội dung sai lệch
- Cấm sử dụng API trong các ngữ cảnh ra quyết định quan trọng
- Khuyến cáo không sử dụng trong các lĩnh vực rủi ro cao
• Nabla cũng nhận thức được vấn đề và tuyên bố đang giải quyết
📌 Công cụ phiên âm AI Whisper đang gây lo ngại khi tạo ra nội dung sai lệch trong 1% bản ghi y tế, ảnh hưởng tới hơn 30.000 bác sĩ và 40 hệ thống y tế. OpenAI và Nabla đang phải đối mặt với thách thức về độ tin cậy và an toàn trong ứng dụng y tế.
https://www.theverge.com/2024/10/27/24281170/open-ai-whisper-hospitals-transcription-hallucinations-studies