SEO contents:
• Anthropic vừa công bố chương trình tài trợ phát triển các loại tiêu chuẩn đánh giá mới để đánh giá hiệu suất và tác động của các mô hình AI, bao gồm cả mô hình AI tạo sinh như Claude của họ.
• Chương trình sẽ cấp kinh phí cho các tổ chức bên thứ ba có thể "đo lường hiệu quả các khả năng nâng cao trong các mô hình AI". Các đơn đăng ký sẽ được đánh giá liên tục.
• Anthropic nhấn mạnh mục tiêu nâng cao toàn bộ lĩnh vực an toàn AI, cung cấp công cụ hữu ích cho cả hệ sinh thái. Họ cho rằng việc phát triển các đánh giá chất lượng cao liên quan đến an toàn vẫn còn thách thức.
• Công ty kêu gọi các bài kiểm tra đánh giá khả năng của mô hình trong các nhiệm vụ như thực hiện tấn công mạng, "nâng cấp" vũ khí hủy diệt hàng loạt và thao túng hoặc lừa dối con người.
• Anthropic cam kết phát triển một "hệ thống cảnh báo sớm" để xác định và đánh giá rủi ro AI liên quan đến an ninh quốc gia và quốc phòng.
• Chương trình cũng hỗ trợ nghiên cứu về các tiêu chuẩn và nhiệm vụ "đầu cuối" để kiểm tra tiềm năng của AI trong hỗ trợ nghiên cứu khoa học, giao tiếp đa ngôn ngữ, giảm thiểu định kiến và tự kiểm duyệt độc hại.
• Anthropic dự kiến phát triển các nền tảng mới cho phép các chuyên gia phát triển đánh giá riêng và thử nghiệm quy mô lớn với "hàng nghìn" người dùng.
• Công ty cung cấp nhiều lựa chọn tài trợ phù hợp với nhu cầu và giai đoạn của từng dự án. Các nhóm sẽ có cơ hội tương tác trực tiếp với các chuyên gia của Anthropic.
• Nỗ lực của Anthropic nhằm hỗ trợ các tiêu chuẩn AI mới là đáng khen ngợi, nhưng có thể khó tin tưởng hoàn toàn do tham vọng thương mại của công ty trong cuộc đua AI.
• Một số chuyên gia có thể phản đối việc Anthropic đề cập đến các rủi ro AI "thảm khốc" và "lừa dối", cho rằng điều này chuyển sự chú ý khỏi các vấn đề quy định AI cấp bách hiện tại.
• Anthropic hy vọng chương trình sẽ thúc đẩy tiến bộ hướng tới tương lai nơi đánh giá AI toàn diện trở thành tiêu chuẩn ngành. Tuy nhiên, vẫn chưa rõ liệu các nỗ lực mở và độc lập với doanh nghiệp có sẵn sàng hợp tác với một nhà cung cấp AI hay không.
📌 Anthropic tài trợ phát triển tiêu chuẩn đánh giá AI mới, tập trung vào an toàn và tác động xã hội. Chương trình gây tranh cãi do mối quan tâm thương mại của công ty, nhưng có tiềm năng thúc đẩy tiến bộ trong lĩnh vực đánh giá AI toàn diện.
https://techcrunch.com/2024/07/01/anthropic-looks-to-fund-a-new-more-comprehensive-generation-of-ai-benchmarks/