- Meta AI vừa giới thiệu OpenEQA, một framework mã nguồn mở và tập dữ liệu để thúc đẩy nghiên cứu về trí thông minh thể hiện (embodied intelligence) trong các tác tử nhân tạo.
- OpenEQA cho phép các tác tử AI tương tác với môi trường 3D, trả lời các câu hỏi và thực hiện các tác vụ phức tạp dựa trên thông tin đa phương thức như thị giác, ngôn ngữ và hành động.
- Mục tiêu của OpenEQA là tạo ra các hệ thống AI có khả năng lập luận, học hỏi và thích ứng linh hoạt như con người trong thế giới thực.
- OpenEQA bao gồm hơn 1 triệu câu hỏi đa dạng trên 10.000 ngữ cảnh 3D khác nhau, giúp đánh giá khả năng của các tác tử AI trong việc trả lời câu hỏi và hoàn thành nhiệm vụ.
- Các tác tử AI trong OpenEQA có thể di chuyển, quan sát môi trường từ nhiều góc độ, tương tác với các vật thể và sử dụng ngôn ngữ tự nhiên để trả lời câu hỏi.
- OpenEQA tích hợp với nền tảng Habitat của Meta AI, cho phép mô phỏng các môi trường 3D thực tế và đào tạo các mô hình AI trên quy mô lớn.
- Bộ dữ liệu của OpenEQA được chia thành 3 loại câu hỏi: câu hỏi quan sát (chỉ cần quan sát môi trường), câu hỏi hành động (cần thực hiện hành động để trả lời) và câu hỏi dẫn đường (tìm đường đến đích).
- OpenEQA cũng cung cấp các công cụ để đánh giá và so sánh hiệu suất của các mô hình AI khác nhau trên tập dữ liệu.
- Theo Meta AI, OpenEQA sẽ thúc đẩy sự phát triển của các hệ thống AI đa phương thức, có khả năng học hỏi, lập luận và hoạt động hiệu quả trong thế giới thực, mở ra nhiều ứng dụng tiềm năng trong tương lai.
📌 OpenEQA của Meta AI là một bước tiến quan trọng trong nghiên cứu trí thông minh thể hiện cho các tác tử nhân tạo. Với hơn 1 triệu câu hỏi đa dạng trên 10.000 bối cảnh 3D, OpenEQA tạo điều kiện để phát triển các hệ thống AI đa phương thức, có khả năng tương tác, lập luận và thích ứng linh hoạt như con người, hứa hẹn nhiều ứng dụng thực tế trong tương lai.
Citations:
[1] https://venturebeat.com/ai/meta-ai-releases-openeqa-to-spur-embodied-intelligence-in-artificial-agents/