• Khoảng 25% lực lượng lao động Mỹ đang sử dụng AI tạo sinh hàng tuần, con số này tăng lên gần 50% trong ngành phần mềm và tài chính[1].
• Matt, 27 tuổi, một nhà nghiên cứu dược phẩm đã bí mật sử dụng ChatGPT để viết code trong công việc mới từ tháng 9, do công ty không có hướng dẫn cụ thể về việc sử dụng AI[1].
• Theo khảo sát của công ty luật Littler (Mỹ), đến tháng 9/2023, chưa đến 50% các công ty có quy định về cách nhân viên sử dụng AI tạo sinh[1].
• Nhiều tập đoàn lớn như Apple, Samsung, Goldman Sachs và Bank of America đã cấm nhân viên sử dụng ChatGPT trong năm 2023 vì lo ngại về bảo mật dữ liệu[1].
• Walmart đã phát triển chatbot nội bộ "My Assistant" và cho phép nhân viên sử dụng nền tảng bên ngoài với điều kiện không chia sẻ thông tin riêng tư. Công ty cũng giám sát các yêu cầu nhân viên gửi đến chatbot bên ngoài[1].
• Các công ty lớn khác cũng đã phát triển chatbot riêng: McKinsey với Lilli, Linklaters với Laila, JPMorgan Chase với LLM Suite[1].
• Công ty truyền thông GingerMay đã nới lỏng chính sách cấm, cho phép nhân viên sử dụng AI tạo sinh cho mục đích nội bộ với điều kiện phải được sự đồng ý của ban lãnh đạo và chỉ được dùng tài khoản ChatGPT Pro của công ty[1].
• Theo báo cáo của Slack, gần 50% nhân viên văn phòng không thoải mái khi thông báo với quản lý về việc sử dụng AI tạo sinh, lo sợ bị coi là không đủ năng lực hoặc lười biếng[1].
• Nhiều công ty gặp khó khăn trong việc xây dựng chiến lược dài hạn về AI do khung pháp lý chưa rõ ràng về quyền sở hữu trí tuệ và quy định bảo mật dữ liệu[1].
📌 Trong khi 25% lao động Mỹ sử dụng AI tạo sinh hàng tuần, doanh nghiệp vẫn loay hoay với chính sách quản lý. Các công ty lớn chuyển từ cấm đoán sang xây dựng chatbot nội bộ, nhưng 50% nhân viên vẫn e ngại khai báo việc sử dụng AI với cấp trên.
https://www.ft.com/content/cd08b45d-12dc-447e-bd59-1c366a7e6396
#FT
Các quản lý gặp khó khăn trong việc kiểm soát nhân viên sử dụng AI
Nhân viên đang áp dụng các mô hình ngôn ngữ lớn nhanh hơn nhiều so với tốc độ công ty ban hành hướng dẫn về cách sử dụng chúng
Nhiều công ty đang phát triển chatbot nội bộ như một giải pháp thay thế cho các phiên bản của Big Tech, chẳng hạn như ChatGPT của OpenAI.
Matt có một "trợ thủ bí mật" khi bắt đầu công việc mới tại một công ty dược phẩm vào tháng 9. Nhà nghiên cứu 27 tuổi này, yêu cầu sử dụng bí danh, có thể theo kịp các đồng nghiệp giàu kinh nghiệm hơn nhờ vào ChatGPT của OpenAI để viết mã cần thiết cho công việc của mình.
“Phần nào là do lười biếng. Phần khác là vì tin rằng công cụ này có thể giúp công việc của tôi tốt và chính xác hơn,” anh nói.
Matt vẫn chưa chắc chắn liệu điều này có được cho phép hay không. Quản lý của anh không cấm anh sử dụng các công cụ AI tạo sinh như ChatGPT, nhưng cũng không khuyến khích hay đưa ra hướng dẫn cụ thể nào về việc sử dụng công nghệ này một cách phù hợp.
“Tôi không thấy lý do gì khiến việc này trở thành vấn đề, nhưng vẫn cảm thấy xấu hổ,” anh chia sẻ. “Tôi không muốn thừa nhận là mình đang dùng ‘lối tắt’.”
Các công ty đang phải gấp rút theo kịp tốc độ nhân viên áp dụng AI tạo sinh nhanh hơn nhiều so với tốc độ chính sách nội bộ được ban hành. Một khảo sát vào tháng 8 của Ngân hàng Dự trữ Liên bang St. Louis cho thấy gần 25% lực lượng lao động Mỹ đã sử dụng công nghệ này hàng tuần, con số này tăng lên gần 50% trong các ngành công nghiệp phần mềm và tài chính. Hầu hết người dùng sử dụng các công cụ như ChatGPT để viết và nghiên cứu, thường thay thế cho Google, cũng như dùng như công cụ dịch thuật hoặc hỗ trợ viết mã.
Tuy nhiên, các nhà nghiên cứu cảnh báo rằng phần lớn việc áp dụng này đang diễn ra âm thầm khi nhân viên tự tìm cách sử dụng công cụ mà không có hướng dẫn rõ ràng từ công ty, các khóa đào tạo đầy đủ hay bảo vệ an ninh mạng. Đến tháng 9, gần hai năm sau khi ChatGPT ra mắt, chưa đến một nửa các nhà điều hành được khảo sát bởi công ty luật lao động Mỹ Littler cho biết tổ chức của họ đã ban hành quy định về việc nhân viên nên sử dụng AI tạo sinh như thế nào.
Trong số ít các công ty đã triển khai chính sách, phản ứng ban đầu thường là cấm hoàn toàn. Các công ty như Apple, Samsung, Goldman Sachs và Bank of America đã cấm nhân viên sử dụng ChatGPT vào năm 2023, theo Fortune, chủ yếu do lo ngại về quyền riêng tư dữ liệu. Tuy nhiên, khi các mô hình AI ngày càng phổ biến và mạnh mẽ hơn, đồng thời được xem như chìa khóa để duy trì tính cạnh tranh trong các ngành công nghiệp đông đúc, các lãnh đạo doanh nghiệp ngày càng tin rằng các chính sách cấm đoán không phải là giải pháp bền vững.
Jerry Geisler, Giám đốc An ninh Thông tin của Walmart cho biết: “Chúng tôi khởi đầu bằng việc ‘cấm’ nhưng không muốn duy trì điều đó. Chúng tôi chỉ cần thời gian để xây dựng một môi trường nội bộ cung cấp giải pháp thay thế cho nhân viên.”
Walmart khuyến khích nhân viên sử dụng các hệ thống nội bộ của công ty — bao gồm chatbot AI tên ‘My Assistant’ để sử dụng nội bộ an toàn — nhưng không cấm sử dụng các nền tảng bên ngoài, miễn là không đưa thông tin riêng tư hoặc độc quyền vào trong lời nhắc. Công ty đã triển khai hệ thống giám sát các yêu cầu mà nhân viên gửi tới chatbot bên ngoài trên thiết bị công ty. Đội an ninh sẽ can thiệp vào các hành vi không chấp nhận được và trao đổi trực tiếp với nhân viên trong thời gian thực.
Geisler tin rằng việc xây dựng chính sách “không mang tính trừng phạt” là cách tốt nhất để theo kịp sự phát triển của AI. Ông nói: “Chúng tôi không muốn nhân viên cảm thấy họ đang gặp rắc rối khi đội an ninh liên hệ. Chúng tôi chỉ muốn nói: ‘Chúng tôi quan sát thấy hoạt động này. Hãy giúp chúng tôi hiểu bạn đang cố làm gì và chúng tôi có thể chỉ cho bạn tài nguyên tốt hơn, giảm rủi ro nhưng vẫn giúp bạn đạt được mục tiêu.’”
Walmart không phải là công ty duy nhất xây dựng “sân chơi nội bộ có kiểm soát” để nhân viên thử nghiệm AI tạo sinh. McKinsey đã ra mắt chatbot tên Lilli, Linklaters có Laila, và JPMorgan Chase triển khai công cụ “LLM Suite”.
Các công ty không có đủ nguồn lực phát triển công cụ riêng phải đối mặt với nhiều câu hỏi hơn — từ việc nên mua dịch vụ nào, nếu có, cho nhân viên đến rủi ro phụ thuộc vào nền tảng bên ngoài.
Victoria Usher, CEO công ty truyền thông GingerMay, chia sẻ rằng công ty duy trì cách tiếp cận thận trọng trong khi vượt qua “nỗi hoảng loạn ban đầu” khi ChatGPT xuất hiện vào tháng 11/2022. Ban đầu GingerMay cấm hoàn toàn, nhưng trong năm qua đã nới lỏng chính sách này. Nhân viên được phép sử dụng AI tạo sinh cho các mục đích nội bộ nhưng chỉ với sự cho phép của ban điều hành và phải sử dụng tài khoản ChatGPT Pro do công ty cung cấp.
Một báo cáo gần đây từ Slack cho thấy gần một nửa nhân viên văn phòng không thoải mái khi nói với quản lý rằng họ đã sử dụng AI tạo sinh, chủ yếu vì sợ bị xem là kém cỏi hoặc lười biếng. Họ cũng lo rằng việc này có thể dẫn đến sa thải hoặc tăng khối lượng công việc.
Geisler kỳ vọng Walmart sẽ liên tục cập nhật chính sách AI của mình để phù hợp với sự phát triển công nghệ. Ông nhấn mạnh rằng việc tạo ra các chính sách thống nhất cho một tổ chức toàn cầu lớn như Walmart là thách thức. “Chúng tôi sẽ phải truyền tải các thông điệp khác nhau cho từng nhóm nhân viên,” ông nói.
Bối cảnh pháp lý thay đổi liên tục cũng khiến các công ty gặp khó khăn trong việc triển khai chiến lược dài hạn. Các luật đang được xây dựng tại Mỹ, EU và Anh nhưng hiện tại vẫn còn nhiều câu hỏi về quyền sở hữu trí tuệ, quyền riêng tư và tính minh bạch của dữ liệu.
Rose Luckin, giáo sư tại University College London, cho rằng “rào cản đầu tiên” là xác định ai trong tổ chức phù hợp nhất để tìm hiểu và triển khai AI vào công việc. Bà nói rằng vai trò này có thể được giao cho từ CEO đến thực tập sinh, khi các công ty có đánh giá khác nhau về tầm quan trọng của AI.
Sarah, một trợ lý pháp lý tại một công ty luật boutique ở London, ngạc nhiên khi được giao nhiệm vụ nghiên cứu và xây dựng quy định về cách đồng nghiệp cấp cao nên sử dụng AI. “Thật kỳ lạ khi đó lại là việc của tôi,” cô nói. “Tôi là nhân viên trẻ nhất công ty.”