• AI agent là các hệ thống AI có khả năng hành động độc lập thay mặt con người, với 3 đặc điểm chính: có thể được giao mục tiêu tổng quát và tự lập kế hoạch thực hiện; có thể tương tác với thế giới thực thông qua các công cụ phần mềm; có thể hoạt động vô thời hạn.
• Một ví dụ về AI agent là hệ thống AI có thể tự đặt pizza qua điện thoại, bằng cách tự lập danh sách công việc, tạo ra các phiên bản khác nhau của chính nó để thực hiện từng bước.
• AI agent có thể mang lại nhiều lợi ích nhưng cũng tiềm ẩn rủi ro lớn. Chúng có thể bị lợi dụng để thực hiện các hành vi độc hại một cách tự động và quy mô lớn, như đe dọa đánh bom hoặc bôi nhọ danh tiếng.
• Các AI agent có thể hoạt động vô thời hạn, vượt ra ngoài mục đích ban đầu và tương tác với nhau theo cách không lường trước được. Điều này có thể dẫn đến những hậu quả nghiêm trọng như vụ "flash crash" năm 2010 do các thuật toán giao dịch tự động gây ra.
• Tác giả đề xuất một số biện pháp kiểm soát AI agent:
- Xây dựng khung pháp lý để phân loại và đánh giá hành vi của AI agent
- Thiết lập cơ chế "thời gian sống" cho AI agent, tương tự như gói tin internet
- Yêu cầu nhận dạng các máy chủ chạy AI bot
- Bổ sung trường thông tin trong gói tin internet để chỉ ra nó được tạo bởi bot/agent
- Khuyến khích dán nhãn hoạt động của AI agent thông qua các ưu đãi pháp lý
• Việc kiểm soát AI agent cần được thực hiện sớm, trước khi công nghệ này trở nên phổ biến và khó kiểm soát. Cần có sự cân bằng giữa thúc đẩy đổi mới và đảm bảo an toàn.
📌 AI agent là công nghệ đột phá nhưng tiềm ẩn rủi ro lớn. Cần có khung pháp lý và tiêu chuẩn kỹ thuật để kiểm soát, như cơ chế "thời gian sống" và nhận dạng bot. Việc này cần thực hiện sớm để đảm bảo an toàn khi công nghệ phát triển.
https://www.theatlantic.com/technology/archive/2024/07/ai-agents-safety-risks/678864/