Google đang sử dụng Claude của Anthropic để cải thiện AI Gemini

- Google đang thuê các nhà thầu để so sánh kết quả của Gemini với Claude của Anthropic, theo thông tin nội bộ mà TechCrunch tiếp cận được

- Các nhà thầu có tối đa 30 phút cho mỗi prompt để đánh giá câu trả lời của hai mô hình dựa trên nhiều tiêu chí như tính trung thực và độ chi tiết

- Điều khoản dịch vụ thương mại của Anthropic cấm khách hàng sử dụng Claude để xây dựng sản phẩm cạnh tranh hoặc huấn luyện các mô hình AI đối thủ mà không có sự chấp thuận

- Google là nhà đầu tư lớn vào Anthropic nhưng từ chối xác nhận liệu họ có được phép của Anthropic để sử dụng Claude hay không

- Các nhà thầu nhận thấy Claude có thiết lập an toàn nghiêm ngặt hơn Gemini:
  + Claude từ chối trả lời các prompt không an toàn như đóng vai trò một AI khác
  + Trong một trường hợp, Gemini bị đánh dấu là vi phạm nghiêm trọng vì đưa ra nội dung không phù hợp

- Shira McNamara, người phát ngôn của Google DeepMind khẳng định:
  + DeepMind có so sánh kết quả đầu ra của các mô hình để đánh giá
  + Không sử dụng mô hình của Anthropic để huấn luyện Gemini

- Tuần trước, TechCrunch cũng tiết lộ Google yêu cầu các nhà thầu đánh giá phản hồi của Gemini trong các lĩnh vực ngoài chuyên môn của họ, gây lo ngại về thông tin sai lệch trong các chủ đề nhạy cảm

📌 Google đang âm thầm sử dụng Claude của đối thủ Anthropic để đánh giá và cải thiện Gemini, dù điều khoản dịch vụ của Anthropic cấm việc này. Các nhà thầu có 30 phút để so sánh câu trả lời, với Claude thể hiện tính an toàn cao hơn trong nhiều trường hợp.

https://techcrunch.com/2024/12/24/google-is-using-anthropics-claude-to-improve-its-gemini-ai/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo