- Khoảng cách lòng tin vào AI tồn tại do tổng hợp của 12 rủi ro dai dẳng (cả thực tế và nhận thức) liên quan đến AI. Tùy thuộc vào ứng dụng, một số rủi ro quan trọng hơn.
- Các rủi ro bao gồm: thông tin sai lệch, an toàn và bảo mật, vấn đề hộp đen, quan ngại về đạo đức, thiên vị, bất ổn, ảo giác trong LLM, ẩn số chưa biết, mất việc làm và bất bình đẳng xã hội, tác động môi trường, tập trung ngành và sự can thiệp quá mức của nhà nước.
- Các biện pháp giảm thiểu rủi ro từ ngành công nghiệp và quy định chỉ mang lại giải pháp một phần, cho phép rủi ro tồn tại dai dẳng.
- Khoảng cách lòng tin vào AI sẽ luôn tồn tại. Các công ty cần hiểu rõ các rủi ro gây ra khoảng cách lòng tin ảnh hưởng đến việc áp dụng ứng dụng của họ và nỗ lực giảm thiểu.
- Kết hợp con người với AI sẽ là công cụ quản lý rủi ro thiết yếu nhất. Con người cần được đào tạo phù hợp để định hướng vượt qua khoảng cách lòng tin.
Dưới đây là 12 rủi ro dai dẳng của AI đang thúc đẩy sự hoài nghi:
1. Thông tin sai lệch: Các công cụ AI đã làm gia tăng thông tin sai lệch trực tuyến. Các deepfake do AI hỗ trợ đã xuất hiện trong các cuộc bầu cử từ Bangladesh đến Moldova, khiến cử tri không tin tưởng vào thông tin cần thiết. Các công ty truyền thông xã hội phần lớn đang thất bại trong việc giải quyết mối đe dọa này.
2. An toàn và bảo mật: Triển vọng về rủi ro an toàn và bảo mật AI là đáng lo ngại. Trong cuộc khảo sát lớn nhất từ trước đến nay về các chuyên gia AI và machine learning, 37.8% đến 51.4% người được hỏi đặt xác suất ít nhất 10% cho các kịch bản nghiêm trọng như sự tuyệt chủng của loài người. Ngoài ra còn có các rủi ro ít thảm khốc hơn như các trường hợp sử dụng độc hại cho các công cụ AI trong các cuộc tấn công mạng.
3. Vấn đề hộp đen: Minh bạch là yếu tố cần thiết để xây dựng lòng tin. Với AI, điều đó có thể bao gồm thông báo cho người dùng khi họ tương tác với mô hình AI, có thể giải thích cách nó tạo ra đầu ra cụ thể. Tuy nhiên, thách thức luôn hiện hữu là các động lực của các công ty AI khuyến khích họ giảm thiểu tính minh bạch. Do đó, AI thường là một hộp đen - không rõ tại sao nó tạo ra kết quả như vậy.
4. Quan ngại về đạo đức: Hầu hết người dùng đồng ý rằng điều quan trọng là phải đảm bảo rằng các thuật toán vượt ra ngoài toán học và dữ liệu và được kết hợp với các nguyên tắc đạo đức. Tuy nhiên, các lý tưởng đạo đức không phải là phổ quát. Hai quốc gia AI chủ đạo là Mỹ và Trung Quốc diễn giải "tự do và quyền riêng tư" khác nhau. Ngay cả trong nội bộ Mỹ, với cuộc chiến văn hóa gay gắt và sự phân cực, các nhóm ủng hộ sự sống và ủng hộ quyền lựa chọn cũng khác nhau về "giá trị con người".
5. Quan ngại về thiên vị: Sự thiên vị trong AI bắt nguồn từ nhiều nguồn: dữ liệu huấn luyện thiên vị hoặc hạn chế, hạn chế của những người tham gia vào quá trình đào tạo và thậm chí cả bối cảnh sử dụng. Chúng có thể làm xói mòn lòng tin vào các mô hình AI khi chúng xuất hiện trong các ứng dụng quan trọng. Mặc dù có các biện pháp khắc phục, AI có thể không bao giờ đáng tin cậy và không thiên vị vì nhiều lý do.
6. Quan ngại về tính bất ổn: Trong một số bối cảnh, quyết định của AI có thể thay đổi đột ngột khi đầu vào được thay đổi một chút và không có ý nghĩa, dẫn đến sai lầm và sự khác biệt từ nhỏ đến thảm khốc trong kết quả. Nghiên cứu học thuật về "tính ổn định" của AI đã phát hiện ra rằng ngoài các vấn đề cơ bản, về mặt toán học, không thể phát triển các thuật toán AI ổn định phổ quát. Điều này có nghĩa là chúng ta không bao giờ có thể chắc chắn về việc AI đưa ra quyết định đúng đắn khi có một chút nhiễu trong dữ liệu đầu vào.
7. Ảo giác trong LLM: Ảo giác AI đã khiến các mô hình làm những điều kỳ quặc - từ tuyên bố yêu người dùng đến tuyên bố đã do thám nhân viên công ty. Nhiều nhà sản xuất AI đã phát triển một loạt các kỹ thuật giảm thiểu. Tuy nhiên, nghiên cứu cho thấy rằng luôn có một giới hạn thống kê dưới về tỷ lệ ảo giác, có nghĩa là luôn có khả năng xuất hiện ảo giác.
8. Ẩn số chưa biết: AI có thể hành động theo những cách mà con người không thể dự đoán. Các mô hình có thể có điểm mù, dữ liệu huấn luyện của chúng có thể không phù hợp với môi trường mà chúng đang được áp dụng và chúng có thể mắc lỗi mà các nhà phát triển không thể hiểu được. Các mô hình nhận dạng hình ảnh tự tin xác định các mục nhưng đôi khi có thể hoàn toàn sai một cách khó hiểu.
9. Mất việc làm và bất bình đẳng xã hội: Các doanh nghiệp cá nhân lạc quan hơn, điều này có thể dẫn đến mất việc làm khi AI đảm nhận các nhiệm vụ do con người thực hiện. Nhưng điều đó có nghĩa là AI sẽ làm tăng lương của những người có việc làm, đồng thời dẫn đến mất lương đối với những người bị mất việc, làm trầm trọng thêm bất bình đẳng xã hội. Lịch sử cho thấy bất bình đẳng sẽ gia tăng: bất bình đẳng tiền lương có xu hướng tăng nhiều nhất ở các quốc gia mà các công ty đã dựa vào tự động hóa.
10. Tác động môi trường: Tỷ trọng sử dụng điện của các trung tâm dữ liệu trên toàn thế giới dành cho AI dự kiến sẽ tăng lên 10% vào năm 2025. Đến năm 2027, với lượng nước cần thiết để làm mát, việc sử dụng các trung tâm dữ liệu của AI có thể loại bỏ lượng nước tương đương với một nửa lượng nước tiêu thụ ở Vương quốc Anh mỗi năm. Các chip mạnh mẽ hơn ngày càng cần thiết cho AI và chúng đang góp phần vào một trong những dòng chất thải phát triển nhanh nhất. Không có xu hướng nào trong số này cho thấy dấu hiệu chậm lại.
11. Tập trung ngành: Mặc dù được ưu tiên cao từ lãnh đạo chính trị, sự phát triển của AI do ngành công nghiệp dẫn dắt. Lý do là cấu trúc: Phát triển AI đòi hỏi một số yếu tố đầu vào quan trọng, chẳng hạn như tài năng, dữ liệu, sức mạnh tính toán và vốn - và khu vực tư nhân có vị thế tốt hơn để tiếp cận chúng. Hơn nữa, các nguồn lực này tập trung ở một số ít công ty. Sự tập trung quyền lực vào một số ít công ty làm xói mòn lòng tin vì người tiêu dùng cảm thấy bị khóa, họ lo lắng về việc trả quá nhiều tiền và có mối quan tâm về quyền riêng tư đối với dữ liệu của họ bị các công ty hùng mạnh khai thác ở các lĩnh vực khác.
12. Sự can thiệp quá mức của nhà nước: Xu hướng cho thấy việc sử dụng ngày càng tăng AI và các công cụ liên quan để kiểm soát công dân của các chính phủ trên toàn thế giới. Tỷ lệ dân số sống trong môi trường chính trị được Freedom House chỉ định là "tự do" đã giảm trong hơn một thập kỷ rưỡi qua. Tự do internet toàn cầu đã suy giảm trong 13 năm liên tiếp và AI đã tạo điều kiện cho sự suy giảm đó theo nhiều cách: lan truyền tuyên truyền của nhà nước, cho phép kiểm duyệt hiệu quả hơn, tạo hồ sơ hành vi của công dân và phát triển phân tích dự đoán và giám sát.
📌 Mặc dù AI đang tiến bộ vượt bậc, khoảng cách lòng tin vào AI vẫn tồn tại dai dẳng do 12 rủi ro chính bao gồm: thông tin sai lệch, an toàn và bảo mật, vấn đề hộp đen, quan ngại về đạo đức, thiên vị, bất ổn, ảo giác trong LLM, ẩn số chưa biết, mất việc làm và bất bình đẳng xã hội, tác động môi trường, tập trung ngành và sự can thiệp quá mức của nhà nước.
Citations:
[1] https://hbr.org/2024/05/ais-trust-problem
#HBR