• HyperWrite, một startup có trụ sở tại New York, đã phát triển một mô hình AI nguồn mở mới có tên Reflection 70B, dựa trên mô hình Llama của Meta.
• Điểm đặc biệt của Reflection 70B là khả năng tự kiểm tra và tránh "ảo giác" - một vấn đề phổ biến ở các chatbot AI hiện nay như ChatGPT hay Google Gemini.
• Reflection 70B sử dụng công nghệ "reflection-tuning", cho phép AI phân tích kết quả của chính mình, phát hiện lỗi và sửa chữa trước khi đưa ra câu trả lời cuối cùng.
• CEO Matt Shumer gọi Reflection 70B là "mô hình AI nguồn mở hàng đầu thế giới" nhờ khả năng này.
• Ý tưởng về AI tự cải thiện không hoàn toàn mới. Mark Zuckerberg của Meta đã đề xuất một hệ thống tương tự vào tháng 4, trong đó AI giải quyết vấn đề bằng nhiều cách khác nhau và học hỏi từ kết quả tốt nhất.
• Reflection 70B áp dụng cách tiếp cận trực tiếp hơn bằng cách sửa thông tin trước khi hiển thị cho người dùng, thay vì chỉ đưa dữ liệu đã sửa vào quá trình đào tạo.
• Một ví dụ về khả năng của Reflection 70B là sửa lỗi đếm số chữ "r" trong từ "strawberry" - một lỗi nổi tiếng gần đây của các mô hình AI hàng đầu.
• Độ chính xác của AI ngày càng quan trọng khi con người dựa vào chúng nhiều hơn để tìm kiếm thông tin và ý kiến về các vấn đề quan trọng.
• EU, Mỹ và Anh đã ký một hiệp ước mới để đảm bảo an toàn AI, nhằm giữ cho AI trong tương lai phù hợp với lợi ích tốt nhất của con người.
• California đang chuẩn bị luật AI yêu cầu công bố khi một mô hình AI được đào tạo trên máy tính có khả năng thực hiện 10^26 phép tính dấu phẩy động mỗi giây.
• Các nhà làm luật đang phải đối mặt với thách thức trong việc hiểu và quản lý các vấn đề phức tạp về toán học và logic nằm ở cốt lõi của các mô hình AI hiện đại.
📌 Reflection 70B, mô hình AI nguồn mở mới từ HyperWrite, có khả năng tự kiểm tra và sửa lỗi trước khi đưa ra câu trả lời, giải quyết vấn đề ảo giác phổ biến ở chatbot. Công nghệ "reflection-tuning" này hứa hẹn nâng cao độ chính xác của AI, một yếu tố ngày càng quan trọng khi con người phụ thuộc nhiều hơn vào AI để tìm kiếm thông tin.
https://www.inc.com/kit-eaton/new-open-source-ai-model-can-check-itself-avoid-hallucinations.html