- Các nhà nghiên cứu đã chứng minh rằng các tác nhân AI được thiết kế cẩn thận có thể tự do di chuyển trong một hệ thống bảo mật kỹ thuật số, phối hợp và hợp tác nỗ lực tấn công, từ đó tìm ra và khai thác các lỗ hổng bảo mật, với tỷ lệ thành công hơn 50%.
- Hệ thống này có thể tìm ra các lỗ hổng zero-day, đây là điều đáng lo ngại vì lỗ hổng zero-day là thuật ngữ để chỉ lỗ hổng bảo mật chưa được công khai, do đó không có biện pháp phòng thủ nào chống lại nó.
- Tin tức này sẽ khiến nhiều chuyên gia bảo mật lo lắng, đồng thời nhắc nhở mọi người cập nhật phần mềm bảo mật mới nhất, sử dụng tường lửa và đào tạo nhân viên nhận diện các cuộc tấn công tiềm ẩn.
- Mặt tích cực là các "white hat" hacker có thể sử dụng hệ thống tương tự để tìm và sửa lỗ hổng trước khi các hacker xấu lợi dụng chúng.
- Tại OpenAI, một số thành viên cấp cao đã rời đi do lo ngại về rủi ro tiềm ẩn của công nghệ AI mà công ty đang phát triển.
- Một nhà nghiên cứu OpenAI cho rằng trí tuệ nhân tạo tổng quát (AGI) sẽ xuất hiện vào năm 2027, nhanh chóng theo sau là AI siêu thông minh, tác động sâu sắc đến xã hội, thậm chí dẫn đến "chiến tranh toàn diện" về việc ai phát triển công nghệ AI tốt hơn.
- OpenAI cũng được cho là sử dụng nhân viên bảo vệ bí mật cho văn phòng ở San Francisco, khiến các doanh nghiệp lân cận cảm thấy kỳ lạ và bất an.
📌 Sự phát triển nhanh chóng của AI đang đặt ra nhiều thách thức về bảo mật và đạo đức. Các nhóm AI có khả năng tự tìm và khai thác lỗ hổng bảo mật với tỷ lệ thành công cao. Sự xuất hiện của AGI và AI siêu thông minh trong tương lai gần có thể gây ra những tác động sâu sắc đến xã hội. Trong khi đó, hoạt động bí mật của các công ty hàng đầu như OpenAI cũng gây lo ngại.
https://www.inc.com/kit-eaton/gpt4-ais-can-act-as-a-group-find-then-hack-previously-unknown-security-flaws.html