- Sự tự chủ của đại lý (agent) AI mang lại nhiều thách thức cho các doanh nghiệp trong việc cân bằng giữa giám sát và tự do.
- Giám sát quá mức có thể làm giảm năng suất, trong khi tự do không kiểm soát có thể gây ra rủi ro cho thương hiệu và mối quan hệ với khách hàng.
- Cần hiểu rõ các rủi ro liên quan để quyết định mức độ tự chủ cần thiết cho các đại lý AI.
- Các đại lý AI đang tiến hóa từ chatbot cơ bản thành các hệ thống nhận thức có khả năng suy nghĩ chiến lược, lập kế hoạch và học hỏi từ kinh nghiệm.
- Kinh nghiệm từ các tình huống rủi ro trong quá khứ cho thấy sự cần thiết phải kết hợp dữ liệu và bối cảnh để các đại lý AI hoạt động hiệu quả hơn.
- 3 loại vấn đề cần xem xét khi xác định mức độ tự chủ cho đại lý AI bao gồm:
- Vấn đề phức tạp: Có thể kiểm soát được và thường thích hợp cho tự chủ cao, như trong trường hợp ngân hàng tự động điều chỉnh dữ liệu khi có thay đổi lãi suất.
- Vấn đề mơ hồ: Có nhiều biến số không xác định, cần thêm dữ liệu để đưa ra quyết định chính xác hơn, ví dụ như ô tô tự lái gặp trở ngại.
- Vấn đề không chắc chắn: Khó khăn nhất để xác định, cần sự can thiệp của con người, ví dụ như trong các tình huống khẩn cấp hoặc khủng hoảng.
- Việc tự động hóa các nhiệm vụ có thể giúp các doanh nghiệp tiết kiệm thời gian và giảm rủi ro, nhưng cần có sự giám sát hợp lý để tránh các quyết định sai lầm.
- Thị trường AI đang chứng kiến sự chuyển mình mạnh mẽ, với hàng tỷ đại lý AI sẽ tham gia vào lực lượng lao động trong tương lai gần.
📌 Các doanh nghiệp cần cân nhắc kỹ lưỡng trong việc phân chia quyền tự chủ cho đại lý AI. 3 loại vấn đề (phức tạp, mơ hồ, không chắc chắn) sẽ hướng dẫn quyết định giám sát và tự do, đảm bảo sự an toàn và hiệu suất cao trong hoạt động.
https://hbr.org/2025/01/how-much-supervision-should-companies-give-ai-agents?ab=HP-topics-text-2
#HBR
Công ty nên giám sát các tác nhân AI đến mức nào?
Tác giả: Mike Walsh
Ngày 15 tháng 1 năm 2025
Tóm tắt:
Tính tự chủ của các tác nhân AI là một vấn đề nan giải. Trong nhiều trường hợp, cần có sự giám sát, chẳng hạn như một con người trong chu trình ra quyết định, để tránh thảm họa. Tuy nhiên, nếu giám sát quá mức, năng suất sẽ bị giảm sút. Nếu trao quá ít quyền, khả năng của tác nhân AI bị giới hạn ở mức trả lời các câu hỏi cơ bản. Nhưng nếu để chúng có quá nhiều tự do, thương hiệu, uy tín, mối quan hệ khách hàng và thậm chí cả sự ổn định tài chính đều có nguy cơ bị tổn hại.
Chúng ta đang chứng kiến sự chuyển đổi mang tính cách mạng từ các chatbot cơ bản sang các tác nhân nhận thức thực sự — những hệ thống có thể tư duy chiến lược, lập kế hoạch và học hỏi từ thành công lẫn thất bại. Tuy nhiên, nếu luôn đưa con người vào chu trình, chúng ta khó có thể đạt được những lợi ích thực sự từ sự chuyển đổi AI. Vì vậy, mức độ tự do nào nên được trao cho các tác nhân AI? Câu trả lời không chỉ dựa trên mức độ rủi ro mà còn dựa trên khả năng hiểu rõ rủi ro đó.
Tác nhân AI là các hệ thống hành động. Khác với chatbot, chúng sử dụng các mô hình ngôn ngữ lớn để tổ chức các hoạt động giải quyết vấn đề phức tạp, bao gồm lập kế hoạch, lý luận và thậm chí tương tác với các tác nhân AI khác. Hãy nghĩ về chúng như những đồng nghiệp ảo hiệu quả cao hoặc một dạng lao động kỹ thuật số.
Hàng tỷ tác nhân AI sẽ sớm gia nhập lực lượng lao động và thay đổi đáng kể hiệu quả đầu ra của các công ty. Mục đích của một tác nhân AI là hoàn thành công việc — từ việc nhân viên xin nghỉ phép, trợ lý bán hàng đưa ra khuyến nghị cá nhân hóa cho khách hàng, đến giám đốc dược phẩm xác định các ứng viên phù hợp nhất cho một thử nghiệm lâm sàng.
Chúng có thể trở thành lớp kiểm soát bao quanh mọi giao dịch, thay thế các giao diện phức tạp và quy trình rườm rà của các nền tảng phần mềm doanh nghiệp. Tính đơn giản và hữu ích của chúng là một thách thức trực tiếp đối với các nhà cung cấp phần mềm như dịch vụ truyền thống (SaaS) cũng như các nhà lãnh đạo công nghệ không chuẩn bị cho sự lan rộng nhanh chóng của chúng.
Tính tự chủ của tác nhân AI là một bài toán khó. Giám sát quá nhiều sẽ làm mất đi lợi ích về năng suất. Tuy nhiên, trong nhiều trường hợp, giám sát lại cần thiết để tránh hậu quả nghiêm trọng.
Từ khi AI tạo sinh xuất hiện, đã có nhiều ví dụ cho thấy sự “hỗn loạn thuật toán” khiến các nhà lãnh đạo phải cảnh giác — từ một chatbot của đại lý ô tô đề nghị bán xe mới với giá 1 USD, đến một hãng hàng không bị kiện vì chatbot AI "bịa ra" chính sách không tồn tại.
Để giảm thiểu vấn đề này, các tổ chức đang phát triển các tác nhân AI kết nối trực tiếp với hệ thống và dữ liệu nội bộ. Điều này tạo ra một con dao hai lưỡi: tác nhân AI ít có khả năng "bịa đặt" nếu dựa vào dữ liệu nội bộ, nhưng mức độ tin cậy tăng lên cũng đồng nghĩa với việc chúng có thể đưa ra các quyết định quan trọng, như phê duyệt khoản vay mua nhà, phân bổ an sinh xã hội, bảo vệ cơ sở hạ tầng quan trọng khỏi tấn công mạng, tuyển dụng hoặc sa thải nhân viên, hay thậm chí kiểm soát các hệ thống vũ khí.
Một giải pháp rõ ràng cho vấn đề an toàn AI là đưa con người vào chu trình cho mọi quyết định có hậu quả nghiêm trọng. Tuy nhiên, cách tiếp cận này có thể dẫn đến kết quả ngược lại.
Hãy xem xét Waymo, dịch vụ taxi tự lái trước đây là dự án xe tự hành của Google. Rủi ro trong việc để một cỗ máy chở người ở tốc độ cao, đưa ra quyết định đột ngột, rõ ràng là cực kỳ lớn. Waymo có trung tâm vận hành công nghệ tên Fleet Response, giám sát các chuyến xe trong thời gian thực. Nhưng thay vì trực tiếp điều khiển xe từ xa khi gặp sự cố (do độ trễ nguy hiểm), các nhân viên của Waymo chỉ trả lời câu hỏi từ xe tự hành khi cần thiết.
Cách làm này giúp hệ thống AI của họ học hỏi, trở nên đáng tin cậy hơn và tăng cường khả năng vận hành dài hạn. Điều này cho thấy một cách tiếp cận khác biệt: không dựa vào mức độ rủi ro, mà dựa trên việc rủi ro đó có thể giảm thiểu bằng dữ liệu và ngữ cảnh hay không.
Vấn đề phức tạp
Các vấn đề này khó quản lý nhưng có thể xác định rõ và lập tài liệu, làm cho chúng phù hợp với tính tự chủ cao và giám sát tối thiểu. Ví dụ: khi Cục Dự trữ Liên bang thay đổi lãi suất, các hệ thống tự động có thể điều chỉnh dữ liệu trên nhiều nền tảng để cập nhật thông tin.
Vấn đề mơ hồ
Những vấn đề này có nhiều biến số không xác định rõ ràng, nhưng có thể cải thiện dự đoán bằng cách thu thập thêm dữ liệu. Ví dụ: một xe tự lái đối mặt với vật cản bất ngờ.
Vấn đề bất định
Đây là loại vấn đề khó khăn nhất vì chúng không thể định nghĩa rõ ràng, và thêm dữ liệu cũng không giúp ích nhiều. Ví dụ: đại dịch không có phác đồ điều trị rõ ràng, hoặc các vấn đề như đói nghèo và biến đổi khí hậu.
Tương lai thuộc về các tác nhân AI có khả năng suy luận dựa trên ngữ cảnh thực tế, chứ không chỉ dựa trên dữ liệu đào tạo. Nhưng để đạt được điều đó, chúng cần tự do học hỏi và phát triển trong các tình huống thực tế.
Như Jensen Huang, CEO của Nvidia, đã nói: "Bộ phận CNTT của mỗi công ty sẽ trở thành bộ phận nhân sự của các tác nhân AI trong tương lai."
Thiết kế các tác nhân AI hiệu quả không khác gì trở thành một nhà lãnh đạo tốt hơn. Điều quan trọng không phải là đưa ra các quyết định cá nhân chính xác, mà là cải thiện quy trình tổng thể để đánh giá và thực thi quyết định ở quy mô tổ chức.