• Viện Allen for Artificial Intelligence (Ai2) công bố dòng mô hình ngôn ngữ đa phương thức nguồn mở Molmo, có hiệu suất ngang bằng các mô hình độc quyền hàng đầu của OpenAI, Google và Anthropic.
• Mô hình Molmo lớn nhất với 72 tỷ tham số vượt trội GPT-4o (ước tính trên 1 nghìn tỷ tham số) trong các bài kiểm tra về hiểu hình ảnh, biểu đồ và tài liệu.
• Mô hình Molmo nhỏ hơn với 7 tỷ tham số có hiệu suất gần bằng mô hình tiên tiến nhất của OpenAI.
• Molmo được huấn luyện trên tập dữ liệu nhỏ hơn và được tuyển chọn kỹ lưỡng hơn, chỉ gồm 600.000 hình ảnh, so với hàng tỷ mẫu dữ liệu của các mô hình lớn khác.
• Ai2 sử dụng phương pháp ghi chú hình ảnh chi tiết bằng cách yêu cầu người chú thích mô tả bằng lời nói, sau đó chuyển đổi thành dữ liệu bằng AI.
• Phương pháp này giúp giảm đáng kể yêu cầu về sức mạnh tính toán và thời gian huấn luyện.
• Molmo có khả năng "chỉ trỏ", có thể phân tích các phần tử trong hình ảnh bằng cách xác định các pixel trả lời truy vấn.
• Khả năng này rất hữu ích cho việc xây dựng các agent web tinh vi hơn có thể tương tác với thế giới thực.
• Ai2 cho rằng các mô hình nguồn mở như Molmo có thể mang lại lợi nhuận tốt hơn so với các mô hình độc quyền đắt tiền.
• Molmo sẽ được cung cấp cho các nhà phát triển trên trang web Hugging Face, mặc dù một số yếu tố của mô hình mạnh nhất vẫn được bảo vệ.
• Các chuyên gia như Percy Liang và Yacine Jernite đánh giá cao tiềm năng của phương pháp huấn luyện trên dữ liệu chất lượng cao để giảm chi phí tính toán.
• Việc phát triển Molmo thể hiện mức độ minh bạch cao hơn so với các công ty AI khác trong ngành.
• Ý nghĩa thực sự của Molmo sẽ nằm ở các ứng dụng mà các nhà phát triển xây dựng dựa trên nó và cách mọi người cải tiến nó.
📌 Molmo của Ai2 chứng minh tiềm năng của AI nguồn mở, đạt hiệu suất tương đương mô hình lớn với 72 tỷ tham số, sử dụng 600.000 hình ảnh chất lượng cao. Phương pháp huấn luyện hiệu quả giảm chi phí, mở ra cơ hội phát triển ứng dụng AI rộng rãi hơn.
https://www.technologyreview.com/2024/09/25/1104465/a-tiny-new-open-source-ai-model-performs-as-well-as-powerful-big-ones/
#MIT