Viện an toàn AI UK ra mắt công cụ kiểm tra độ an toàn của mô hình AI

- Viện An toàn AI của Anh Quốc đã phát hành nền tảng thử nghiệm mới mang tên Inspect để tăng cường đánh giá an toàn AI.

- Bộ công cụ này được thiết kế để đơn giản hóa quy trình triển khai các biện pháp an toàn AI cho ngành công nghiệp, tổ chức nghiên cứu và giới học thuật. 

- Inspect sẽ giúp nhiều nhóm khác nhau dễ dàng hơn trong việc phát triển các đánh giá AI, thúc đẩy sự hợp tác với các nhà nghiên cứu và nhà phát triển.
- Viện An toàn AI, Vườn ươm AI (i.AI) và Phòng Thủ tướng sẽ tập hợp các tài năng AI hàng đầu để nhanh chóng thử nghiệm và phát triển các công cụ an toàn AI nguồn mở mới.
- Việc phát hành nền tảng Inspect đến cộng đồng toàn cầu sẽ giúp đẩy nhanh công việc đánh giá an toàn AI trên khắp thế giới, dẫn đến việc kiểm tra an toàn tốt hơn và phát triển các mô hình an toàn hơn.
- Đây là lần đầu tiên một nền tảng kiểm tra an toàn AI do một cơ quan được chính phủ hậu thuẫn dẫn đầu được phát hành để sử dụng rộng rãi.
- Việc phát hành nền tảng diễn ra vào thời điểm quan trọng trong sự phát triển của AI, khi các mô hình mạnh mẽ hơn dự kiến sẽ ra mắt thị trường trong năm 2024.

📌 Nền tảng đánh giá an toàn AI Inspect do Viện An toàn AI Anh Quốc phát triển đã được phát hành rộng rãi, giúp tăng cường hợp tác toàn cầu trong việc đánh giá an toàn AI. Inspect sẽ cho phép tiếp cận nhất quán với đánh giá an toàn AI trên toàn thế giới, thúc đẩy phát triển AI an toàn và có trách nhiệm trong bối cảnh các mô hình mạnh mẽ hơn dự kiến ra mắt vào năm 2024.

Citations:
[1] https://techcrunch.com/2024/05/11/u-k-agency-releases-tools-to-test-ai-model-safety/

https://www.gov.uk/government/news/ai-safety-institute-releases-new-ai-safety-evaluations-platform

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo