JPMorgan Chase đi tiên phong trong ngành tài chính với hơn 450 ứng dụng thử nghiệm Gen AI, trong khi nhiều ngân hàng khác vẫn đang do dự.
Ba trường hợp sử dụng chính tập trung vào hậu trường để nâng cao hiệu suất nhân viên thay vì phục vụ khách hàng trực tiếp:
EVEE Intelligent Q&A: công cụ hỏi đáp tích hợp Gen AI cho trung tâm cuộc gọi, giúp nhân viên nhanh chóng tra cứu chính sách, cải thiện tốc độ giải quyết cuộc gọi và sự hài lòng của khách hàng.
LLM Suite: nền tảng AI tạo sinh nội bộ, được sử dụng để tìm kiếm tài liệu, tạo nội dung và hỗ trợ nhân viên mới. Đã có 200.000 nhân viên được onboard trong vòng 8 tháng.
Trợ lý lập trình Gen AI: hỗ trợ tạo và chuyển đổi mã lập trình, giúp tăng năng suất từ 10% đến 20% trong các đội ngũ kỹ thuật.
Chiến lược của Chase xoay quanh:
Đào tạo qua thực hành (learn-by-doing): nhân viên được trực tiếp sử dụng công cụ AI để tự học.
Đo lường ROI chặt chẽ: thiết lập nhóm kiểm soát để đánh giá hiệu quả thực tế từ từng công cụ.
Sẵn sàng dữ liệu AI (data readiness): tập trung hiện đại hóa dữ liệu cấu trúc và phi cấu trúc nhằm tối ưu hoá Gen AI.
Thay đổi hành vi người dùng: chuẩn bị cho sự tiến hoá trong cách nhân viên sử dụng và tương tác với AI.
Mặc dù chưa triển khai rộng AI ở tuyến đầu (front office), Chase đang cân nhắc kỹ lưỡng về việc tích hợp Gen AI vào trải nghiệm khách hàng, đảm bảo tuân thủ quy định và bảo vệ dữ liệu khách hàng.
📌 JPMorgan Chase đã triển khai hơn 450 ứng dụng Gen AI, với 3 ứng dụng chính giúp tăng năng suất trung tâm cuộc gọi, đào tạo nhân viên và lập trình – mang lại hiệu quả tăng năng suất đến 20%. Chiến lược học qua thực hành, đo lường ROI và chuẩn bị dữ liệu đang định hình tương lai AI toàn diện trong ngành ngân hàng.
https://tearsheet.co/uncategorized/jpmorgan-chases-gen-ai-implementation-450-use-cases-and-lessons-learned/
Singapore công bố 800 cơ hội đào tạo AI mới và 500 dự án AI dành cho 1.000 doanh nghiệp trong vòng 12 tháng tới, nhằm thúc đẩy chiến lược kinh tế số.
400 suất đào tạo sẽ do AI Singapore (AISG) cung cấp, bao gồm chương trình AIAP Industry kéo dài 6 tháng với nội dung thực tiễn cao, tập trung vào nhu cầu doanh nghiệp.
400 suất còn lại do các tập đoàn công nghệ như AWS, Oracle, Microsoft, Singtel cung cấp.
Từ năm 2018, chương trình AIAP đã đào tạo hơn 410 học viên với tỷ lệ có việc làm sau tốt nghiệp trên 90%.
AISG cũng sẽ triển khai chương trình Pinnacle AI Industry để đào tạo 100 chuyên gia AI cao cấp trong 3 năm, tập trung vào xây dựng mô hình ngôn ngữ lớn với mô hình Sea-Lion.
Số lượng chuyên gia AI tại Singapore hiện là hơn 6.000 người, hướng đến mục tiêu 15.000 vào năm 2028 (tăng 25% trong năm qua).
20.000 người dân Singapore đã tìm được việc làm công nghệ và 320.000 người đã nâng cao kỹ năng số.
Doanh nghiệp vẫn gặp khó khăn trong tuyển dụng AI: 47% thiếu hụt tài năng, 51% yêu cầu lương cao, 47% kỹ năng không phù hợp; 62% sẵn sàng tuyển dụng nhân sự quốc tế.
Trong lĩnh vực doanh nghiệp, 500 dự án AI tạo sinh mới sẽ được hỗ trợ qua chương trình GenAI x Digital Leaders, giúp 1.000 công ty ứng dụng AI vào hoạt động.
Các công ty lớn như Alibaba Cloud, ST Engineering, Prudential Singapore đã cam kết hỗ trợ thêm hàng ngàn doanh nghiệp SME bằng các dịch vụ đám mây, quét an ninh mạng miễn phí và nội dung đào tạo.
Singapore cũng sẽ tổ chức cuộc thi phát triển AI quy mô Đông Nam Á nhằm xây dựng giải pháp AI phù hợp với đặc thù khu vực.
Ông Tan Kiat How nhấn mạnh: "Giá trị của Singapore không chỉ ở năng lực, mà còn ở sự kiên định và đáng tin cậy trong bối cảnh toàn cầu bất ổn."
📌 Singapore đang đẩy mạnh phát triển AI qua 800 suất đào tạo mới và 500 dự án hỗ trợ 1.000 doanh nghiệp. Với mục tiêu tăng gấp ba tài năng AI lên 15.000 người vào năm 2028 và các chương trình thực chiến như AIAP, Singapore khẳng định vai trò dẫn đầu khu vực Đông Nam Á trong đổi mới kỹ thuật số, bất chấp thách thức về nhân sự và thị trường.
https://www.straitstimes.com/business/spore-doubles-down-on-ai-with-800-new-training-spaces-500-business-projects
AI tạo sinh đang thay đổi sâu sắc phần mềm doanh nghiệp, từ hệ thống xử lý quy trình (workflow) sang hệ thống làm việc (system of work) linh hoạt, định hướng mục tiêu.
Các nền tảng như Salesforce và Workday hiện tại hoạt động theo quy trình cứng nhắc, với các bước được định nghĩa rõ ràng, yêu cầu người dùng thao tác thủ công.
Ngược lại, hệ thống AI mới không yêu cầu cấu trúc quy trình cố định mà linh hoạt dựa trên dữ liệu và mục tiêu, giúp giảm thời gian và lỗi thao tác.
Ví dụ, thay vì nhập liệu thủ công trong CRM, AI có thể phân tích email, ghi âm cuộc gọi và cập nhật trạng thái khách hàng một cách tự động.
Tính năng truy vấn dữ liệu phức tạp giờ đây chỉ cần nhập yêu cầu bằng ngôn ngữ tự nhiên như “Bao nhiêu khách hàng ở Đức có hợp đồng >100.000 USD trong quý này?”.
Sự khác biệt rõ rệt: phần mềm cũ thì tuần tự, cứng nhắc, cần chuyên môn sâu; còn hệ thống AI thì linh hoạt, thích ứng, thân thiện với người dùng.
Các công ty tiên phong đã áp dụng AI như Klarna, Siemens, Mayo Clinic, JP Morgan và Hitachi với hiệu suất tăng 20–30%.
Hitachi đạt 70% hiệu quả vận hành trong 8 tuần khi triển khai AI cho 120.000 nhân viên.
Thị trường phần mềm doanh nghiệp năm 2023 đạt 913 tỷ USD, nhưng nhiều công ty SaaS đang đối mặt với rủi ro lớn nếu không thích nghi.
Các quy trình dễ tự động hóa như báo cáo chi phí, tuyển dụng, hỗ trợ IT sẽ bị thay thế sớm; quy trình phức tạp như lập kế hoạch tài chính sẽ thay đổi trong 5 năm tới.
Lãnh đạo cần tập trung vào: quản trị dữ liệu và rủi ro, chuẩn bị tổ chức, và chiến lược tích hợp AI—như giao diện ngôn ngữ tự nhiên, API mở, và mô hình AI lai.
📌 AI tạo sinh đang phá vỡ SaaS truyền thống, giúp doanh nghiệp nâng hiệu suất 20–30% và giảm phụ thuộc vào phần mềm cứng nhắc. Các công ty như Klarna và Hitachi đã triển khai thành công hệ thống AI nội bộ. Để dẫn đầu, lãnh đạo phải tập trung vào quản trị dữ liệu, thích nghi tổ chức và xây dựng hệ thống mở, hướng tới mục tiêu công việc thay vì quy trình.
https://hbr.org/2025/05/how-gen-ai-could-disrupt-saas-and-change-the-companies-that-use-it
#HBR
Tác giả: Deep Nishar và Nitin Nohria
Ngày 21 tháng 5 năm 2025
AI tạo sinh đang sẵn sàng cách mạng hóa phần mềm doanh nghiệp, biến đổi các hệ thống quy trình truyền thống thành môi trường động, hướng mục tiêu. Sự thay đổi này sẽ định nghĩa lại cách thiết kế và thực hiện công việc, mang lại những lợi ích hiệu quả đáng kể và cơ hội mới cho đổi mới. Các nhà lãnh đạo phải chủ động hướng dẫn tổ chức của mình qua giai đoạn chuyển đổi này, tập trung vào quản trị, sự sẵn sàng của tổ chức và các phản ứng chiến lược để khai thác toàn bộ tiềm năng của AI.
Năm 2011, nhà đầu tư mạo hiểm Marc Andreessen tuyên bố rằng "phần mềm đang nuốt chửng thế giới", lập luận rằng các công ty được điều khiển bởi phần mềm sẽ lật đổ mọi ngành công nghiệp. Khung tư duy đó giải thích tại sao thập kỷ 2010 được thống trị bởi chuyển đổi số: cả những người đi trước và người thách thức đều đầu tư mạnh vào phần mềm doanh nghiệp để tự động hóa quy trình và cạnh tranh với những đối thủ có xuất thân số.
Ngày nay, các doanh nghiệp đối mặt với một điểm uốn tương tự: AI tạo sinh sẽ không chỉ phá vỡ các ngành công nghiệp; nó sẽ phá vỡ chính phần mềm đã tạo ra làn sóng chuyển đổi trước đó. Thậm chí Satya Nadella, CEO của Microsoft—với các sản phẩm doanh nghiệp cung cấp năng lượng cho hàng triệu tổ chức—đã báo động.
Sự phá vỡ này sẽ có tác động lan tỏa xa hơn nhiều so với các công ty phần mềm. Hầu hết các công ty lớn phụ thuộc vào nhiều hệ thống doanh nghiệp khác nhau để xử lý các quy trình cơ bản, bao gồm đặt hàng bán, tính toán kết quả tài chính và trả lương nhân viên. Hàng nghìn chuyên gia IT hỗ trợ phần mềm này, và quy trình làm việc hàng ngày của hàng triệu nhân viên liên quan đến tương tác hàng ngày với nó. Nếu các công ty chuyển từ phần mềm SaaS sang AI, nhiều công việc đó sẽ thay đổi theo những cách đáng kể—và một số sẽ biến mất hoàn toàn. Đối với các nhà lãnh đạo cấp cao, việc hướng dẫn tổ chức qua sự thay đổi này sẽ là một thách thức.
Hầu hết các nền tảng doanh nghiệp—từ Salesforce đến Workday—coi tổ chức như hệ thống các quy trình. Quy trình là các tiến trình cho phép tổ chức hoàn thành bất kỳ nhiệm vụ nào, từ tuyển dụng và đào tạo nhân viên đến khảo sát và mở rộng mối quan hệ khách hàng. Những quy trình này sau đó được phân tích như các hệ thống xử lý thông tin ánh xạ luồng dữ liệu, tự động hóa các phân tích có cấu trúc và yêu cầu người dùng nhập, giám sát và hành động trên thông tin trong các thông số được xác định trước.
Hãy xem xét Workday. Kiến trúc dữ liệu của nó tập trung vào hồ sơ nhân viên, cho phép xử lý bảng lương, đánh giá hiệu suất, quản lý đào tạo và quản lý phúc lợi. Hoàn thành một nhiệm vụ như "thêm nhân viên mới" hoặc "thay đổi chuyển khoản trực tiếp" liên quan đến việc điều hướng hệ thống phần mềm phức tạp này với các bước rõ ràng được tích hợp vào giao diện người dùng.
Tương tự, các hệ thống CRM như Salesforce xác định các giai đoạn bán hàng riêng biệt, yêu cầu các nhóm phân loại khách hàng tiềm năng, cập nhật các trường trạng thái và kích hoạt các hoạt động tiếp theo. Theo thời gian, quy trình CRM trở thành một phần nhúng trong thói quen hàng ngày.
Ngược lại, một hệ thống công việc—được hỗ trợ bởi AI tạo sinh—coi tổ chức như môi trường nhiệm vụ hướng mục tiêu. Thay vì bắt đầu với bản đồ chi tiết của từng bước trong mọi quy trình, nó bắt đầu với công việc cần được thực hiện, như Clay Christensen của Harvard đã khuyến khích nổi tiếng, và sau đó suy ra các hành động cần thiết. Bên dưới, AI tiếp thu tín hiệu—từ một loạt dữ liệu có cấu trúc và không có cấu trúc—và ghép nối động các nhiệm vụ cần thiết để đạt được mục tiêu. Không có sự biên đạo cứng nhắc của màn hình và biểu mẫu; thay vào đó, hệ thống liên tục học từ các ngoại lệ, điều chỉnh khuyến nghị và điều phối việc chuyển giao qua các chức năng mà không cần kịch bản thủ công. Thực tế, nó biến đổi đầu vào không có cấu trúc thành thực thi có cấu trúc, giảm bớt gánh nặng cho người dùng phải biết kiến trúc quy trình và giải phóng họ tập trung hoàn toàn vào kết quả mong muốn.
Trong bối cảnh CRM, một hệ thống được điều khiển bởi AI sẽ phân tích tín hiệu—email, bản ghi cuộc gọi, sửa đổi đề xuất—và tự động cập nhật trạng thái của khách hàng tiềm năng. Nó sẽ học từ kết quả lịch sử để tinh chỉnh quy trình cơ bản, loại bỏ việc nhập dữ liệu thủ công và giảm độ trễ quy trình.
Tương tự, các truy vấn phức tạp—từng là lĩnh vực của các phân tích viên dữ liệu dịch yêu cầu thành ngôn ngữ truy vấn có cấu trúc (SQL)—trở thành vấn đề của các lời nhắc hội thoại đơn giản: "Có bao nhiêu khách hàng tiềm năng đủ điều kiện chuyển đổi thành giao dịch vượt quá 100.000 đô la ở Đức trong quý này?" Các hệ thống AI tạo sinh có thể phân tích đầu vào không có cấu trúc, tạo ra các truy vấn cơ sở dữ liệu cần thiết và cung cấp câu trả lời trong vài giây.
Sự chuyển đổi này không chỉ là gia tăng. Nó định nghĩa lại mối quan hệ giữa cách thiết kế công việc và cách thực hiện công việc.
Phần mềm quy trình truyền thống hoạt động giống như một dây chuyền lắp ráp công nghiệp:
Các hệ thống công việc được hỗ trợ bởi AI, ngược lại, giống như một sinh vật phản ứng:
Ví dụ, việc đào tạo một nhân viên mới trong hệ thống HR được điều khiển bởi AI có thể đơn giản như hỏi: "Khởi tạo đào tạo cho Jane Doe." Hệ thống sau đó sẽ tạo thư mời làm việc, lên lịch định hướng, cung cấp thiết bị và đăng ký nhân viên vào phúc lợi—điều phối qua nhiều hệ thống back-end mà không cần can thiệp thủ công.
Về bản chất, phần mềm cũ (legacy) mã hóa các thực tiễn tốt nhất từ các dự án triển khai trong quá khứ; AI tạo sinh phát minh ra các thực tiễn tốt nhất trong thời gian thực, liên tục tối ưu hóa kết quả.
Sự chuyển đổi này không phải là giả định. Mỗi ngày chúng ta thấy nhiều công ty bắt đầu thay đổi để giảm sự phụ thuộc vào các hệ thống phần mềm kế thừa. Chúng bao gồm:
Klarna, công ty fintech Thụy Điển phục vụ 85 triệu khách hàng, đã công bố kế hoạch vào năm 2024 để kết thúc các nhà cung cấp SaaS lớn như Salesforce và Workday để ủng hộ các hệ thống ghi chép được điều khiển bởi AI nội bộ. Họ bắt đầu bằng cách tạo ra một cơ sở dữ liệu tổng hợp dữ liệu doanh nghiệp của mình bằng Neo4j và sau đó sử dụng các công cụ được điều khiển bởi LLM để xây dựng các ứng dụng chuyên biệt bằng ngăn xếp phần mềm AI của riêng họ.
Các kỹ sư tại tập đoàn công nghiệp khổng lồ Siemens đang tránh các hệ thống hoạch định tài nguyên doanh nghiệp (ERP) để ủng hộ các bot AI hội thoại tự phát triển có thể truy vấn các nền tảng vòng đời sản phẩm của Siemens để điều tra các vấn đề chuỗi cung ứng và chi phí vượt mức.
Các hệ thống chăm sóc sức khỏe tiên tiến như Mayo Clinic đang thí điểm các công cụ AI tạo sinh để hỗ trợ bác sĩ với tài liệu lâm sàng, tổng hợp lịch sử bệnh nhân và soạn thảo kế hoạch chăm sóc.
Các tổ chức tài chính như JP Morgan đang trang bị cho các nhà phân tích nghiên cứu của họ các công cụ truy vấn lượng lớn dữ liệu tài chính lịch sử và hiện tại và soạn thảo các báo cáo nghiên cứu gần như hoàn chỉnh.
Tại Hitachi Global, tổ chức HR đã sử dụng nền tảng agentic của Ema Unlimited để đạt được hiệu quả hoạt động 70% cho các dịch vụ chia sẻ qua 4 bộ phận kinh doanh của Hitachi. Giải pháp được hình thành và triển khai qua 120.000 nhân viên trong 8 tuần.
Những người áp dụng sớm trong mọi ngành đang thấy lợi ích hiệu quả trong phạm vi 20-30% cũng như mở rộng dịch vụ của họ bằng cách thay thế hoặc tăng cường các hệ thống phần mềm cứng nhắc, toàn doanh nghiệp bằng các công cụ AI tạo sinh linh hoạt, được điều khiển bởi người dùng.
Quy mô của sự phá vỡ tiềm năng là khổng lồ. Năm 2023, chi tiêu toàn cầu cho phần mềm doanh nghiệp đạt 913 tỷ đô la—tăng 12,4% so với năm trước. Vốn đầu tư mạo hiểm đã đổ hàng tỷ đô la vào các startup SaaS. Tuy nhiên, cả các nhà cung cấp cũ (legacy) và những người chơi SaaS đang nổi hiện đang đối mặt với rủi ro hiện hữu. (Tiết lộ: cả 2 tác giả đều có liên kết với các công ty đầu tư mạo hiểm nắm giữ đầu tư trong cả các công ty AI và phần mềm doanh nghiệp.)
Làn sóng ban đầu sẽ nhắm mục tiêu các quy trình mục đích đơn, khối lượng cao như báo cáo chi phí, đăng việc làm, theo dõi ứng viên, hỗ trợ IT và bồi thường bán hàng.
Báo cáo chi phí minh họa sự tương phản:
Khả năng cho các lĩnh vực phức tạp hơn—lập kế hoạch sản xuất, dự báo tài chính, đủ điều kiện khách hàng tiềm năng—còn lại dưới 5 năm.
Sự xuất hiện của AI tạo sinh biến đổi các hệ thống quy trình thành hệ thống công việc có tác động sâu sắc đối với các nhà lãnh đạo. Để điều khiển sự chuyển đổi AI thành công, họ sẽ cần tập trung vào các vấn đề quan trọng sau:
Thiết lập các khung quản trị dữ liệu mạnh mẽ đảm bảo chất lượng, bảo mật, nguồn gốc và tuân thủ. Triển khai giám sát liên tục cho sự trôi dạt mô hình, thiên vị và tuân thủ quy định. Xác định các giao thức hợp tác người-AI rõ ràng chỉ định các điểm chuyển giao, trách nhiệm và giám sát để duy trì sự tin tưởng và giảm thiểu lỗi. Sự chú ý sớm đến quản trị sẽ xây dựng niềm tin vào hệ thống AI có thể chịu được những thách thức sớm không thể tránh khỏi.
Nhận ra rằng sự nghiệp tập trung vào phần mềm quy trình—triển khai, tùy chỉnh và bảo trì—sẽ phát triển hoặc giảm bớt. Các nhóm quản trị trong HR, tài chính và IT sẽ thu hẹp hoặc triển khai lại, giải phóng tài năng cho đổi mới và công việc chiến lược. Các nhà cung cấp, nhà đầu tư và nền kinh tế địa phương được neo trong các dịch vụ phần mềm cũng sẽ cảm nhận những thay đổi này. Quản lý thay đổi, đặc biệt cho con người sẽ bị ảnh hưởng và sẽ cần thích ứng phải được quản lý chu đáo để kích hoạt và tăng tốc quá trình chuyển đổi sang hệ thống AI.
Đánh giá rằng trừ khi họ chủ động dẫn dắt quá trình chuyển đổi này, các nhà lãnh đạo phần mềm doanh nghiệp hiện tại sẽ mất lợi thế họ tận hưởng cho những người khởi nghiệp phá vỡ. Để giữ lại lợi thế của mình, những người hiện tại nên:
Bằng cách thống nhất quản trị, sự sẵn sàng tổ chức và phản ứng chiến lược trong một chương trình lãnh đạo gắn kết, các doanh nghiệp hiện tại có thể biến đổi sự không chắc chắn thành cơ hội, định vị mình ở vị trí dẫn đầu của cuộc cách mạng nơi làm việc được điều khiển bởi AI.
AI tạo sinh mang lại cơ hội một lần trong một thế hệ để giảm chi phí và độ phức tạp của IT doanh nghiệp—giải phóng các tổ chức khỏi quy trình cứng nhắc và cho phép công việc được tái tưởng tượng từ đầu.
Các nhà lãnh đạo phải mở rộng tầm nhìn của mình. Ngoài việc tăng cường các hệ thống hiện tại, họ nên hình dung các nơi làm việc có thể kết hợp, thích ứng nơi các tác nhân AI và con người hợp tác một cách liền mạch. Giống như phần mềm đã nuốt chửng thế giới trong 15 năm qua, AI tạo sinh giờ đây sẽ biến đổi phần mềm đã định hình các tổ chức ngày nay—và, khi làm như vậy, định nghĩa lại cách chúng ta làm việc trong nhiều thập kỷ tới.
Tại hội nghị Microsoft Build 2025, CEO Satya Nadella công bố tầm nhìn về web mở và hệ sinh thái agent AI quy mô lớn, hướng đến giải quyết mọi vấn đề của người dùng bằng AI.
Microsoft ra mắt bản cập nhật lớn nhất cho Microsoft 365 Copilot kể từ khi Teams ra đời, giới thiệu thêm các tính năng như:
Search: tìm kiếm trên tài liệu cá nhân và ứng dụng bên thứ ba.
Notebook: lưu, tổ chức, chia sẻ kết quả.
Create: tạo hình ảnh, chuyển slide thành video.
Agents: gồm Researcher và Analyst giúp nghiên cứu và phân tích dữ liệu chuyên sâu, hiện dành riêng cho chương trình Frontier.
Microsoft triển khai Agent Store và cải tiến Copilot Studio để cá nhân hóa hoặc xây dựng agent, đồng thời hỗ trợ multi-agent orchestration (agents gọi agents khác).
Copilot Tuning cho phép tùy chỉnh mô hình dựa trên dữ liệu riêng. Đã có 1 triệu agents được tạo trong năm qua.
Nền tảng AI Foundry hiện có 70.000 tổ chức sử dụng, nay hỗ trợ hơn 1.900 mô hình, bao gồm Grok 3.5 (xAI), Mistral, Llama, DeepSeek… và 11.000 mô hình từ Hugging Face.
GitHub Copilot Coding Agent nâng cấp từ "pair programmer" thành "peer programmer" – có thể hoàn thành nhiệm vụ độc lập.
Microsoft công bố Foundry Local để chạy AI trực tiếp trên thiết bị Windows/macOS, hỗ trợ LoRA, semantic search, RAG và MCP gốc trên Windows.
Nadella tiết lộ mô hình NLWeb – chuẩn mở cho phép trang web tương tác trực tiếp với agents, tương tự vai trò của HTML đối với web hiện nay.
Công bố Copilot cho Power BI giúp người dùng "trò chuyện" với dữ liệu. Ví dụ: “Doanh số quý này tại Chicago ra sao so với năm trước?”
Về hạ tầng, Microsoft triển khai GPU Nvidia GB200, cáp quang tốc độ cao, chip nội bộ Maia và Cobalt (Teams, Defender đã chạy trên Cobalt).
Microsoft giới thiệu Discovery – nền tảng agent cho nghiên cứu khoa học, cho phép mô phỏng, tìm hợp chất và ứng dụng nhanh chóng.
📌 Microsoft trình làng Copilot mới với năng lực agent vượt trội, hệ sinh thái mở gồm Agent Store, AI Foundry, NLWeb và hỗ trợ nhiều mô hình AI đa dạng. Với hơn 1 triệu agents tạo ra và nền tảng tích hợp từ edge đến cloud, Microsoft đang biến AI từ công cụ trợ lý thành hệ sinh thái tự động hóa toàn diện. Tuy nhiên, Nadella cũng thừa nhận: để biến tầm nhìn thành hiện thực, còn cần nhiều nỗ lực về bảo mật, quản trị và độ tin cậy ứng dụng.
https://www.pcmag.com/opinions/microsoft-wants-to-solve-everyones-problems-with-ai-but-can-copilot-get
Ngày 23/5/2025, California hoàn tất quy định quản lý Automated-Decision Systems (ADS) – công cụ sử dụng AI trong ra quyết định nhân sự. Nếu được Văn phòng Luật hành chính phê duyệt, luật sẽ có hiệu lực từ 1/7/2025.
ADS được định nghĩa là quy trình tính toán ảnh hưởng hoặc đưa ra quyết định nhân sự, bao gồm công cụ sử dụng AI, machine learning, thuật toán, thống kê…
Các ví dụ được quy định: sàng lọc hồ sơ, xếp hạng ứng viên, quảng cáo việc làm theo mục tiêu, phân tích biểu cảm/tông giọng, đánh giá dữ liệu bên thứ ba, bài test tính cách/phản xạ/phù hợp văn hóa.
Ngoại lệ: các công cụ không liên quan đến quyết định việc làm (ví dụ: phần mềm diệt virus, kiểm tra chính tả). Tuy nhiên, nếu những công cụ này hỗ trợ quyết định nhân sự, vẫn thuộc diện quản lý.
Luật không định nghĩa rõ “facilitates”, khiến nhiều công cụ có thể bị áp dụng gián tiếp nếu ảnh hưởng đến quyết định cuối cùng.
Các đại lý và người thay mặt nhà tuyển dụng (agents) sử dụng ADS đều phải tuân thủ quy định như nhà tuyển dụng chính thức.
Về kiểm tra tiền án: ADS không được sử dụng trước khi có đề nghị tuyển dụng có điều kiện, và quyết định rút lại phải dựa trên đánh giá cá nhân hóa, dù do người hay AI đưa ra.
Doanh nghiệp không còn phải cung cấp báo cáo ADS cho ứng viên, nhưng phải có khả năng giải thích cách ADS ảnh hưởng đến quyết định tuyển dụng.
Yêu cầu lưu trữ hồ sơ mới: nhà tuyển dụng phải giữ lại toàn bộ dữ liệu liên quan đến ADS (đầu vào, đầu ra, dữ liệu huấn luyện) ít nhất 4 năm, bao gồm cả dữ liệu ứng viên/nhân viên.
Không bắt buộc kiểm tra thiên lệch (anti-bias testing), nhưng việc có hay không tiến hành kiểm tra sẽ là bằng chứng khi đánh giá trách nhiệm pháp lý.
Nhà tuyển dụng có thể bị liên đới trách nhiệm nếu sử dụng công cụ từ bên thứ ba gây phân biệt đối xử, kể cả khi nhà cung cấp không bị xử phạt trực tiếp.
Doanh nghiệp nên:
Rà soát toàn bộ công cụ dùng trong tuyển dụng, thăng chức, lương thưởng.
Đánh giá chúng có phải là ADS không.
Kiểm tra hợp đồng với nhà cung cấp, đảm bảo họ tuân thủ quy định.
Thiết lập chương trình quản trị nội bộ: tài liệu, kiểm tra thiên lệch, lưu trữ đúng thời hạn.
Ưu tiên xem xét những công cụ rủi ro cao như nhận diện khuôn mặt, đánh giá tính cách, chấm điểm tiền án.
📌 Quy định mới về ADS của California buộc doanh nghiệp đánh giá toàn bộ công cụ AI trong nhân sự, lưu trữ dữ liệu tối thiểu 4 năm và chứng minh tính công bằng. Từ việc sàng lọc hồ sơ đến đánh giá biểu cảm, mọi công cụ ảnh hưởng đến quyết định việc làm đều có thể bị giám sát. Đây là bước đi tiên phong của Mỹ trong kiểm soát AI nơi làm việc, đòi hỏi nhà tuyển dụng hành động ngay để tránh rủi ro pháp lý.
https://www.forbes.com/sites/alonzomartinez/2025/05/23/california-finalizes-ai-hiring-rules-key-takeaways-for-employers/
85% doanh nghiệp toàn cầu đã sử dụng AI tạo sinh (GenAI) và dự kiến tăng lên 99% vào năm 2027. Tuy nhiên, chỉ 22% cảm thấy hạ tầng sẵn sàng và 37% tin rằng mô hình GenAI của họ đã đủ tiêu chuẩn đưa vào vận hành.
Những rào cản chủ yếu trong triển khai GenAI bao gồm thiếu tích hợp dữ liệu doanh nghiệp và thiếu hệ thống quản lý toàn diện. Việc sử dụng hệ thống AI agent là giải pháp để giải quyết các vấn đề này.
AI agent là ứng dụng thông minh có khả năng tự động hóa nhiệm vụ, phân tích thông tin, ra quyết định và thực hiện hành động. Ví dụ: agent dịch vụ khách hàng, agent tạo chiến dịch tiếp thị, agent hỗ trợ lập trình viên tạo mã.
AI agent system là hệ thống kết hợp các thành phần như mô hình ngôn ngữ lớn (LLM), mô hình ML cổ điển, dữ liệu doanh nghiệp và công cụ để tạo ra agent có khả năng thực hiện nhiệm vụ phức tạp một cách hiệu quả.
Ví dụ điển hình là ứng dụng retrieval augmented generation (RAG) kết hợp LLM và hệ thống truy xuất dữ liệu để đưa ra phản hồi có ngữ cảnh chính xác, rất hiệu quả với dữ liệu phi cấu trúc như tài liệu.
Hệ thống agent còn ứng dụng mô hình ML cổ điển cho dữ liệu có cấu trúc (bảng, nhật ký, chuỗi thời gian) nhằm dự báo, phân loại, phát hiện bất thường — ví dụ: dự đoán nhu cầu kho hàng hoặc phát hiện gian lận giao dịch.
Các ứng dụng thực tiễn bao gồm:
Tự động hóa hỗ trợ khách hàng bằng chatbot giúp giảm tải cho con người
Hỗ trợ tiếp thị và bán hàng qua tự động hóa phân loại khách hàng tiềm năng, gửi email, nhập dữ liệu
Phân tích và báo cáo dữ liệu tự động từ nhiều nguồn khác nhau
Gợi ý cá nhân hóa trong thương mại điện tử, giải trí
Tự động hóa các tác vụ vận hành như quản lý hàng tồn, đặt hàng
Phát hiện và phòng ngừa gian lận trong thời gian thực
5 giai đoạn xây dựng hệ thống AI agent:
Chuẩn bị dữ liệu: Làm sạch, xử lý, tổ chức và tạo vector index để agent truy xuất hiệu quả.
Xây dựng agent: Dùng LLM được huấn luyện sẵn, tùy chỉnh tính cách và năng lực chuyên môn, thêm trí nhớ ngắn hạn/dài hạn và lập kế hoạch xử lý nhiệm vụ phức tạp.
Triển khai agent: Đảm bảo agent có thể hoạt động trong môi trường thật, linh hoạt điều chỉnh dựa trên phản hồi và lập kế hoạch học liên tục.
Đánh giá hiệu suất: Dùng công cụ đánh giá để đo lường, xác định lỗi và cải tiến chất lượng đầu ra.
Quản trị: Đảm bảo bảo mật, tuân thủ và đạo đức. Mỗi tương tác đều được ghi lại nhằm dễ dàng truy vết và kiểm soát.
Databricks Mosaic AI hỗ trợ xây dựng hệ thống này bằng kiến trúc lakehouse, giúp kết nối an toàn đến mô hình mã nguồn mở hoặc thương mại, tích hợp trực tiếp với dữ liệu doanh nghiệp, đồng thời cung cấp công cụ đánh giá và kiểm soát tập trung.
Các công cụ như Databricks Notebooks hay LangChain được dùng để lập trình và quản lý các công cụ agent như gọi API, truy vấn dữ liệu hoặc thực hiện tác vụ logic.
3 nguyên tắc quan trọng để triển khai hệ thống AI agent hiệu quả:
Kết nối trực tiếp với dữ liệu doanh nghiệp, không sao chép, tối ưu hóa thông tin theo thời gian thực.
Đánh giá tùy chỉnh theo từng trường hợp sử dụng với phản hồi từ con người.
Quản trị chặt chẽ xuyên suốt từ dữ liệu, mô hình đến công cụ đảm bảo minh bạch và kiểm soát.
📌 Hệ thống AI agent mang lại lợi ích lớn cho doanh nghiệp khi tích hợp AI tạo sinh, ML cổ điển và công cụ chuyên biệt trong một khung quản trị minh bạch. Databricks Mosaic AI giúp xây dựng hệ thống an toàn, linh hoạt, có thể tự ra quyết định và học hỏi liên tục. Với 85% doanh nghiệp đã dùng GenAI và tỷ lệ này sẽ đạt 99% vào năm 2027, hệ thống AI agent là bước tiến chiến lược để tăng năng suất và tự động hóa hiệu quả.
https://www.databricks.com/sites/default/files/2025-03/databricks-ebook-a-compact-guide-to-agent-systems.pdf
Trong giai đoạn đầu khởi nghiệp, chưa có xác nhận thị trường, việc tiết kiệm thời gian và tiền bạc là tối quan trọng. AI như ChatGPT trở thành công cụ mạnh mẽ hỗ trợ nhà sáng lập thực hiện nhiều nhiệm vụ mà không cần tuyển thêm nhân sự.
1. Nghiên cứu thị trường:
ChatGPT giúp tổng hợp dữ liệu đối thủ: so sánh tính năng, chiến lược định giá, định vị thương hiệu.
Tóm tắt báo cáo ngành, xác định quy mô thị trường, các ngách đang tăng trưởng hoặc chưa được phục vụ tốt.
Tối ưu thời gian tìm kiếm và giúp founder chỉ tập trung nghiên cứu sâu vào phần quan trọng nhất.
2. Lên ý tưởng và định hình sản phẩm:
Hỗ trợ tạo chân dung khách hàng (user personas), liệt kê nỗi đau, hành vi và động lực.
Đưa ra các đề xuất về tính năng, giá trị khác biệt và định hướng thông điệp marketing.
Hỗ trợ brainstorm tên thương hiệu, slogan, phong cách thiết kế để dễ ghi nhớ trong thị trường ngách.
3. Tạo mẫu nhanh và chạy thử nghiệm:
Dùng AI để tạo nội dung landing page, kịch bản email, hoặc đối thoại giả lập với khách hàng.
Kết hợp với công cụ no-code để test nhiều phiên bản trong vài ngày thay vì vài tuần.
Mục tiêu là tạo vòng phản hồi nhanh, loại bỏ ý tưởng yếu, giữ lại hướng đi khả thi nhất.
4. Chuẩn hóa quy trình nội bộ và onboarding:
AI giúp tóm tắt tài liệu SOP, tạo wiki nội bộ hoặc tài liệu hướng dẫn cho nhân sự mới.
Hữu ích khi đội nhóm mở rộng nhanh, nhưng chưa có đủ thời gian để ghi chép đầy đủ quy trình.
📌 Startup giai đoạn đầu có thể tận dụng AI như ChatGPT để rút ngắn quy trình từ ý tưởng đến kiểm chứng sản phẩm. Từ nghiên cứu thị trường đến tạo landing page và onboarding, AI giúp giảm đáng kể chi phí, thời gian và công sức. Với 4 ứng dụng chính, founder có thể tăng tốc phát triển mà vẫn giữ được tính linh hoạt, hiệu quả và phù hợp với nguồn lực hạn chế.
https://www.forbes.com/sites/abdoriani/2025/05/19/from-idea-to-execution-using-ai-assistants-to-speed-up-startup-launches/
Make.com là nền tảng tự động hóa cho phép người dùng tạo các AI agent thực hiện các tác vụ lặp lại như tìm dữ liệu, nghiên cứu và tạo báo cáo mà không cần kỹ năng lập trình chuyên sâu.
Hướng dẫn dành cho người mới bắt đầu, tập trung vào cách tích hợp AI agent với công cụ như Google Sheets, Google Docs và Perplexity để đơn giản hóa công việc văn phòng.
Bắt đầu bằng việc kết nối Make.com với một mô hình AI (ví dụ: OpenAI) qua API key. Đây là cầu nối bảo mật giúp agent truy cập và xử lý thông tin.
Người dùng định nghĩa vai trò và nhiệm vụ của AI agent thông qua “system prompt” – lệnh mô tả chi tiết để hướng dẫn hành vi của agent.
Công cụ tích hợp có thể bao gồm:
Google Sheets để tìm kiếm và trích xuất dữ liệu.
Perplexity để nghiên cứu thông tin trực tuyến.
Google Docs để lưu trữ báo cáo được AI tạo ra.
Thiết lập trigger (kích hoạt) đóng vai trò quan trọng, có thể là lệnh thủ công như tin nhắn WhatsApp hoặc tác vụ tự động theo lịch.
Sau khi cấu hình công cụ và trigger, người dùng thiết kế workflow – luồng công việc liên kết các bước như trích xuất, xử lý, tạo đầu ra.
Testing là bước cần thiết để kiểm tra AI agent hoạt động chính xác trong nhiều kịch bản và phát hiện lỗi.
Có thể tùy chỉnh các lệnh, thu hẹp phạm vi truy vấn và tối ưu kết quả để phù hợp hơn với yêu cầu cụ thể.
Make.com hỗ trợ chia sẻ blueprint (mẫu quy trình) giúp cộng tác nhóm hiệu quả và duy trì tính nhất quán giữa các dự án.
Với Make.com và AI, bạn có thể biến các thao tác thủ công thành quy trình mượt mà, tiết kiệm thời gian và nâng cao hiệu suất công việc.
📌 Make.com cung cấp nền tảng thân thiện để người mới dễ dàng xây dựng AI agent cho tự động hóa công việc, từ tìm dữ liệu đến tạo báo cáo. Chỉ cần API key, lệnh hệ thống rõ ràng và trigger phù hợp, bạn có thể tiết kiệm hàng giờ công việc lặp lại – và còn có thể chia sẻ quy trình qua blueprint để đồng bộ nhóm.
https://www.geeky-gadgets.com/ai-automation-for-beginners-with-make/
Salesforce giới thiệu Agentforce trong Slack: một nền tảng AI mới với các “đồng nghiệp số” chuyên biệt, thay vì trợ lý AI toàn năng như trước đây.
Agentforce cho phép triển khai nhiều AI agent chuyên biệt, có thể tìm kiếm hội thoại, truy cập dữ liệu công ty và thực hiện hành động trực tiếp trong Slack – nơi nhân viên thường xuyên làm việc.
Các agent có khả năng suy luận, thực hiện nhiều bước, tương tác với hệ thống doanh nghiệp và điều chỉnh hành vi theo từng tác vụ.
Từ ngày 12/06, Salesforce cung cấp các Slack Employee Agent Templates cho các tác vụ phổ biến như: hiểu khách hàng, hỗ trợ nhân sự, và hướng dẫn nhân viên mới.
Salesforce triển khai hai tính năng chính: Slack Enterprise Search giúp AI tìm kiếm dữ liệu tức thời và General Slack Topic để AI hiểu hội thoại theo ngữ cảnh.
Bảo mật dữ liệu được đảm bảo bằng việc tuân thủ quyền truy cập người dùng trong Salesforce và Slack.
Agentforce có thể được sử dụng bởi cả người không dùng Salesforce nhờ cấp miễn phí giấy phép Salesforce Identity.
Kết quả thử nghiệm khả quan:
Formula 1: tăng tốc độ phản hồi câu hỏi từ fan lên 80%, tỉ lệ giải quyết lần đầu vượt 95%.
Salesforce nội bộ: agent kỹ thuật hỗ trợ 18.000 hội thoại trong 6 tháng, tiết kiệm 17.000 giờ, tương đương 1,4 triệu USD.
OpenTable: xử lý 73% yêu cầu website chỉ trong 3 tuần.
Engine: giảm 15% thời gian xử lý, tiết kiệm 2 triệu USD mỗi năm.
Salesforce cạnh tranh với Microsoft Copilot và Google Gemini, tận dụng sức mạnh của hệ sinh thái CRM và Slack.
Agentforce còn giúp nhân viên tập trung vào công việc sáng tạo, chiến lược thay vì thao tác thủ công hoặc ứng dụng phức tạp.
Cách tiếp cận mới này phản ánh xu hướng doanh nghiệp: AI nên chuyên sâu theo từng lĩnh vực, thay vì đa năng gây “nhiễu ngữ nghĩa”.
📌 Agentforce của Salesforce trong Slack đánh dấu bước ngoặt AI doanh nghiệp với agent chuyên biệt thay vì trợ lý toàn năng. Với khả năng xử lý 18.000 hội thoại, tiết kiệm 17.000 giờ tương đương 1,4 triệu USD và hiệu suất tăng 80-95%, Salesforce đang thách thức Copilot và Gemini bằng hướng đi sát thực tế, dễ tích hợp và mạnh về dữ liệu tổ chức.
https://venturebeat.com/ai/salesforce-just-unveiled-ai-digital-teammates-in-slack-and-theyre-coming-for-microsoft-copilot/
Vào tháng 3/2023, nhóm nền tảng học máy của Grab đối mặt với quá tải trong hỗ trợ kỹ thuật khi các kênh Slack tràn ngập câu hỏi, khiến kỹ sư không thể tập trung phát triển.
Một kỹ sư quyết định thử xây chatbot nội bộ bằng LLM để xử lý tự động các câu hỏi, dựa vào tài liệu nền tảng hơn 20.000 từ.
Giới hạn của GPT-3.5-turbo (chỉ 8.000 tokens ~ 2.000 từ) khiến việc triển khai không hiệu quả, kể cả khi đã tóm tắt xuống dưới 800 từ hoặc áp dụng kỹ thuật embedding search.
Sau thất bại ban đầu, nhóm quyết định chuyển hướng và xây dựng một công cụ giống ChatGPT dành riêng cho nhân viên Grab, sử dụng hạ tầng hiện có như nền tảng phục vụ mô hình “catwalk”.
Công cụ ban đầu có tên “Grab’s ChatGPT”, sau đổi tên thành GrabGPT. Nó nhanh chóng trở thành một phần thiết yếu trong công việc hàng ngày của nhân viên.
Các con số ấn tượng:
Ngày 1: 300 người dùng đăng ký.
Ngày 2: tăng thêm 600 người dùng.
Tuần đầu: 900 người dùng mới.
Tháng thứ 3: hơn 3.000 người dùng, với 600 người dùng hoạt động mỗi ngày.
Hiện tại: hầu hết nhân viên Grab đều đang sử dụng GrabGPT.
Thành công đến từ:
Bảo mật dữ liệu: chạy trên hạ tầng riêng nội bộ.
Truy cập toàn cầu: không bị hạn chế như ChatGPT ở một số quốc gia.
Hỗ trợ nhiều mô hình AI: từ OpenAI, Claude, Gemini, v.v.
Có khả năng kiểm toán: tương thích với yêu cầu bảo mật và quản trị dữ liệu.
GrabGPT không chỉ là công cụ, mà còn là chất xúc tác giúp Grab xây dựng chiến lược AI tạo sinh toàn công ty.
📌 GrabGPT bắt đầu từ một thất bại nhưng đã phát triển thành công cụ AI được toàn công ty Grab sử dụng, với hơn 3.000 người dùng chỉ sau 3 tháng và 600 người dùng hoạt động mỗi ngày. GrabGPT thành công nhờ bảo mật nội bộ, truy cập toàn cầu và khả năng hỗ trợ nhiều mô hình AI. Đây là ví dụ điển hình về tư duy đổi mới, bắt đầu nhỏ nhưng tạo ra tác động lớn.
https://engineering.grab.com/the-birth-of-grab-gpt
Mistral AI vừa giới thiệu Mistral Medium 3, một mô hình ngôn ngữ tầm trung nhắm vào doanh nghiệp, với mục tiêu cân bằng giữa chi phí, hiệu suất và khả năng triển khai linh hoạt.
Mistral Medium 3 đã có mặt trên nền tảng của Mistral và Amazon SageMaker, và sắp ra mắt trên các nền tảng lớn khác như IBM WatsonX, Azure AI Foundry, Google Cloud Vertex AI, và NVIDIA NIM.
Về hiệu suất, Medium 3 đạt hơn 90% điểm số của Claude Sonnet 3.7 trong các bài benchmark nội bộ, nhưng chi phí vận hành thấp hơn nhiều: 0,40 USD cho mỗi triệu token đầu vào và 2 USD cho đầu ra.
Mistral khẳng định mô hình này vượt trội so với các mô hình mã nguồn mở như LLaMA 4 Maverick, đặc biệt trong các tác vụ liên quan đến lập trình và lĩnh vực STEM.
Mô hình hỗ trợ nhiều kiểu triển khai: từ hybrid đến on-premises, chỉ cần 4 GPU là có thể hoạt động ổn định – điều này giúp các tổ chức nhỏ cũng có thể tiếp cận công nghệ mạnh mẽ.
Mistral Medium 3 cho phép tùy biến sâu, bao gồm hậu huấn luyện, fine-tuning, và tích hợp với dữ liệu nội bộ doanh nghiệp, giúp tối ưu theo từng ngành cụ thể.
Các ứng dụng thực tế của mô hình đã được ghi nhận trong các lĩnh vực như tự động hóa hỗ trợ khách hàng, phân tích dữ liệu kỹ thuật và lập trình, với khách hàng đến từ các ngành tài chính, năng lượng và y tế.
Tuy nhiên, một số người dùng trong cộng đồng công nghệ (ví dụ trên Reddit) bày tỏ nghi ngờ về giá trị mô hình do không công bố trọng số, và cho rằng nó thua kém DeepSeek trong khi giá API lại cao hơn.
Dù vậy, các chuyên gia doanh nghiệp, như đại diện của Okta, lại đánh giá cao khả năng bảo mật và tùy biến của Medium 3, xem đây là giải pháp đáng chú ý cho thị trường AI doanh nghiệp đang mở rộng.
📌 Mistral Medium 3 ra mắt với hiệu suất đạt 90% Claude Sonnet 3.7, chi phí chỉ 0,40 USD/million token đầu vào, hỗ trợ triển khai từ 4 GPU. Dù gặp phản ứng trái chiều do không mở trọng số, mô hình vẫn gây ấn tượng nhờ khả năng tùy biến và triển khai linh hoạt, phù hợp nhiều ngành từ tài chính đến y tế.
https://www.infoq.com/news/2025/05/mistral-ai-medium/
AI tạo sinh có thể cải thiện năng suất ở hầu hết mọi lĩnh vực công việc, từ viết email, tóm tắt báo cáo đến tự động hóa quy trình chuyên ngành. Tuy nhiên, văn hóa tổ chức là yếu tố sống còn trong việc triển khai hiệu quả công nghệ này.
Khác với công nghệ truyền thống, AI tạo sinh có tính phi định hướng, không luôn cho ra kết quả giống nhau, nên cần văn hóa thử nghiệm và chia sẻ kiến thức.
Tại một hội thảo do WIRED Consulting và SThree tổ chức ở London, các chuyên gia khẳng định: văn hóa là yếu tố mà doanh nghiệp thường quên khi chạy đua AI. Báo cáo từ SThree (khảo sát 2.500 chuyên gia STEM toàn cầu) cho thấy gần 50% tin rằng công ty họ tụt hậu về AI.
Văn hóa AI cần được xây dựng từ ban lãnh đạo, với định hướng rõ ràng, minh bạch và khuyến khích sáng tạo. Tuy nhiên, 48% chuyên gia STEM cho rằng lãnh đạo chưa hiểu rõ tiềm năng AI.
Giải pháp là tạo “không gian an toàn” để lãnh đạo có thể đặt câu hỏi mà không ngại “dốt”. Có thể mời chuyên gia bên ngoài tư vấn.
Nhân viên cũng cần được trấn an trước nỗi lo mất việc. Hãy truyền đạt rõ ràng rằng AI nhằm nâng cao năng suất chứ không phải thay thế con người.
Một “giai đoạn chơi” với AI như sáng tác nhạc, tạo video giúp nhân viên làm quen với công nghệ và khơi nguồn sáng tạo. Tuy nhiên, cần tạo “sandbox” an toàn, có chính sách rõ ràng và không sợ thất bại.
Khuyến khích hợp tác giữa phòng IT và bộ phận phi kỹ thuật, bằng cách cử nhân sự IT làm việc trực tiếp trong các phòng ban để hiểu nhu cầu thực tế. Điều này phá bỏ silo, tăng tính bao trùm và hiệu quả.
📌 Việc triển khai AI tạo sinh hiệu quả không chỉ là vấn đề công nghệ mà là cuộc cách mạng văn hóa. Gần 50% chuyên gia STEM cho rằng lãnh đạo không hiểu rõ lợi ích AI. Tổ chức cần một môi trường khuyến khích thử nghiệm, minh bạch, hợp tác liên phòng ban và chấp nhận thất bại. Văn hóa sẵn sàng cho AI chính là yếu tố cạnh tranh sống còn.
https://www.wired.com/sponsored/story/how-to-build-an-ai-ready-culture-sthree/
Satya Nadella bị bất ngờ tại Diễn đàn Kinh tế Thế giới khi startup Trung Quốc DeepSeek tung mô hình AI R1, mạnh ngang OpenAI nhưng chỉ tốn 36 USD so với 1.000 USD, và còn mã nguồn mở.
Thay vì loại bỏ đối thủ, Nadella tích hợp R1 lên nền tảng Azure, cho phép khách hàng chọn mô hình AI tùy theo nhu cầu và chi phí, từ OpenAI, Meta đến DeepSeek.
Microsoft hiện cung cấp hơn 1.900 mô hình AI khác nhau trên Azure, kiếm lợi từ phí lưu trữ, điện toán đám mây, bảo mật, hơn là chỉ bán AI.
Nadella nhấn mạnh AI đang bước vào giai đoạn "hàng hóa hóa" như từng xảy ra với than đá theo nghịch lý Jevons: càng rẻ, càng tăng nhu cầu.
Microsoft phát triển dòng MAI-2 nội bộ – mô hình tương tự ChatGPT nhưng tiết kiệm chi phí, đề phòng rủi ro nếu OpenAI gặp sự cố.
Mối quan hệ với OpenAI trở nên căng thẳng sau vụ Sam Altman bị sa thải năm 2023, khiến Nadella dừng đầu tư thêm hàng chục tỉ USD vào startup này.
Nadella chi 650 triệu USD để mua công nghệ và tuyển đội ngũ từ Inflection AI, đặt Mustafa Suleyman phụ trách mảng AI tiêu dùng.
Copilot được nâng cấp theo hướng "đồng cảm", giúp người dùng tương tác như một người bạn hoặc nhà trị liệu.
Dù Copilot vẫn yếu thế so với ChatGPT (chỉ chiếm 4,9% thị phần chatbot toàn cầu), Microsoft đã có hơn 70% công ty Fortune 500 sử dụng dịch vụ.
Các khách hàng như Nestlé, Moderna, Estée Lauder dần nhận thấy Copilot hữu ích, đặc biệt trong tóm tắt cuộc họp và tự động hóa công việc tẻ nhạt.
Nadella cam kết đầu tư hàng trăm tỉ USD vào AI để tạo ra hàng ngàn tỉ USD giá trị kinh tế, tin tưởng AI sẽ thúc đẩy năng suất toàn xã hội giống như điện và internet từng làm.
📌 Microsoft đang đối mặt với áp lực kép: cạnh tranh từ mô hình AI mã nguồn mở DeepSeek-R1 và sự rạn nứt với đối tác OpenAI. Nadella phản ứng linh hoạt bằng cách thương mại hóa mọi mô hình AI trên Azure, phát triển MAI-2 để tự chủ và đầu tư vào AI tiêu dùng giàu cảm xúc. Copilot đã thu hút 70% các công ty Fortune 500 và đạt doanh thu AI dự kiến hơn 13 tỉ USD/năm, dù thị phần chatbot vẫn kém xa ChatGPT (80,6%).
https://www.bloomberg.com/news/features/2025-05-15/microsoft-ceo-satya-nadella-on-his-ai-efforts-and-openai-partnership
Khách hàng lo lắng và mối quan hệ đối tác biến động với OpenAI đang gây khó khăn cho Satya Nadella và công ty có giá trị lớn nhất thế giới.
Bài viết của Austin Carr và Dina Bass
Ngày 15 tháng 5 năm 2025
Satya Nadella đến Diễn đàn Kinh tế Thế giới vào tháng 1 sẵn sàng khoe khoang thành tựu trí tuệ nhân tạo của mình, khi một mối đe dọa nguy hiểm xuất hiện. Một startup Trung Quốc ít được biết đến tên DeepSeek vừa phát hành một mô hình AI nhanh chóng trở thành chủ đề bàn tán ở Davos, Thụy Sĩ. Nadella, giám đốc điều hành của Microsoft Corp., tập hợp các phụ tá để đánh giá sự cạnh tranh bất ngờ này. Họ thiết lập một phòng chiến tranh ảo trên Microsoft Teams để phối hợp phản ứng.
Mô hình mới, DeepSeek-R1, có thể mang lại kết quả tương đương với OpenAI nhưng với giá rẻ hơn nhiều. Xử lý máy tính qua OpenAI tốn 1.000 đô la chỉ mất 36 đô la qua R1. Điều còn điên rồ hơn, DeepSeek đã làm cho R1 trở thành mã nguồn mở, nghĩa là bất kỳ ai cũng có thể cài đặt các phiên bản miễn phí nếu có máy tính đủ mạnh. "OpenAI đã dẫn đầu quá xa đến nỗi không ai thực sự tiến gần được," Nadella nói với Bloomberg Businessweek. "DeepSeek, và đặc biệt là R1, là mô hình đầu tiên tôi thấy ghi điểm."
Với những người giao lưu ở Davos, điều này dường như là một vấn đề lớn cho Microsoft. Công ty đã đầu tư 13,75 tỷ đô la vào OpenAI vào thời điểm đó và đã cam kết chi 80 tỷ đô la cho các trung tâm dữ liệu AI chỉ trong năm tài chính này, tất cả dựa trên giả định rằng AI tốt hơn cần nhiều tài nguyên điện toán hơn. Nadella ngay lập tức yêu cầu nhóm của mình tiến hành đánh giá bảo mật của DeepSeek-R1. Họ xem xét kỹ lưỡng bài báo nghiên cứu DeepSeek công bố về công việc của họ và liên hệ với các kỹ sư của startup, liên tục đặt câu hỏi về mô hình. (Ít người khác thậm chí có thể nhận được phản hồi email từ công ty Trung Quốc kín tiếng này.)
Chẳng bao lâu sau, khoảng 100 nhân viên Microsoft ra vào các phòng họp video Teams để kiểm tra bảo mật mã nguồn của DeepSeek và trao đổi ghi chú. "Mọi người không ngủ," Asha Sharma, người đứng đầu nền tảng AI của công ty, người đi đầu trong nỗ lực này, nói. "Là 48 giờ xem xét từng thứ." R1 có vẻ hợp pháp. Nhưng thay vì cố gắng loại bỏ đối thủ mới này, Nadella chọn cách chấp nhận nó. Ông chỉ đạo nhóm của mình cài đặt R1 trên đám mây của Microsoft và bán quyền truy cập vào đó cho khách hàng cùng với các sản phẩm từ OpenAI và Microsoft. "Tung ra đi," Nadella nhớ lại đã nói với nhân viên của mình.
Lòng trung thành hàng đầu của Nadella giờ đây không phải với những dự án bí mật rất đắt tiền của OpenAI. Mục tiêu cuối cùng của ông là bán bất kỳ AI nào khách hàng có thể muốn thông qua nền tảng Microsoft. Nadella đã dành ba năm điều hành các bộ phận khác nhau của dịch vụ đám mây của công ty, được gọi là Azure, trước khi trở thành CEO vào năm 2014, và hiện tại đó là trung tâm chiến lược AI của ông. Khách hàng có thể lựa chọn từ hơn 1.900 mô hình khác nhau trên Azure, bao gồm những mô hình được tạo bởi Meta và OpenAI, và các startup như Cohere, Mistral, Stability AI và giờ đây là DeepSeek. (Một số, chẳng hạn như Gemini của Google, không có sẵn cho Microsoft vì lý do cạnh tranh.) Cho dù việc sử dụng mô hình có tốn 10 đô la cho khách hàng thông qua OpenAI hay 90 xu thông qua DeepSeek, Microsoft đều được trả tiền cho điện toán đám mây, bảo vệ an ninh mạng, lưu trữ dữ liệu và các dịch vụ bán kèm khác.
Vụ việc DeepSeek làm nổi bật một phần khác, có thể nói là quan trọng hơn trong suy nghĩ của Nadella: AI đang nhanh chóng trở thành hàng hóa, và đây là điều tốt cho Microsoft. Trong khi mọi người ở Davos tập trung vào tiêu thụ AI, Nadella đang suy ngẫm về lịch sử sản xuất than đá. Một trong những lý thuyết kinh tế yêu thích của ông là nghịch lý Jevons, cho rằng khi một nguồn tài nguyên trở nên dễ tiếp cận hơn và việc sử dụng nó hiệu quả hơn, mức tiêu thụ sẽ tăng lên. Điều này đã xảy ra với than đá trong thế kỷ 18 và 19 và gần đây hơn với du lịch bằng máy bay, khi chi phí vận hành và giá vé giảm mạnh đã tạo ra những hành khách thường xuyên, điểm đến bay mới và doanh số bán hàng bùng nổ cho các hãng hàng không. Nadella tin rằng một hiện tượng tương tự sẽ diễn ra với AI.
Tư duy kinh tế này đã thúc đẩy công ty hướng tới việc tạo ra kiến trúc AI riêng, bao gồm một số mô hình nhỏ với khả năng tương tự như DeepSeek-R1. Trong năm qua, công ty cũng đang đào tạo một loạt mô hình ngôn ngữ lớn có tên MAI-2, phiên bản mới nhất của các giải pháp thay thế nội bộ của Microsoft cho các mô hình OpenAI, mà công ty đã phát triển bí mật. Mục tiêu là xây dựng AI yêu cầu ít sức mạnh điện toán hơn ChatGPT và giảm chi phí vận hành dịch vụ tương đương của Microsoft, Copilot. Công ty vẫn sẽ thường xuyên sử dụng công nghệ tiên tiến nhất của OpenAI, nhưng Nadella tin rằng Microsoft có thể cung cấp chất lượng gần bằng ChatGPT với mức giá thấp hơn nhiều.
Tất cả những điều này có ý nghĩa gì đối với thỏa thuận của Microsoft với OpenAI thì khá phức tạp. Sau sáu năm, mối quan hệ nuôi dưỡng ban đầu đã trở thành sự cạnh tranh gay gắt giữa anh em. Cuộc tranh giành quyền lực trong OpenAI vào năm 2023 là bước ngoặt trong mối quan hệ giữa các công ty, và theo nhiều cách Microsoft đang khẳng định sự thống trị của mình. Dự án MAI-2, ví dụ, cung cấp sự bảo vệ cho Microsoft, để tránh bị "phơi nhiễm" trong trường hợp điều gì đó "thảm khốc" xảy ra với OpenAI, theo Mustafa Suleyman, người đứng đầu nỗ lực Copilot tiêu dùng của Microsoft. "Mối quan hệ với OpenAI cho đến nay khá tuyệt vời," ông nói. "Nhưng đây là một công ty 50 tuổi cần phải ở vị trí tuyệt vời vào năm 2030, 2035 và 2040."
CEO OpenAI Sam Altman đã nhiều lần cho thấy sứ mệnh của công ty ông là tạo ra trí tuệ nhân tạo tổng quát, biên giới cuối cùng cho kỷ nguyên AI hiện tại. Với MAI-2, Nadella thay vào đó đang theo đuổi hiệu quả chi phí tối đa, mặc dù nó sẽ không thông minh bằng các mô hình tiên tiến nhất của OpenAI. Ông đã cảm thấy một cảm giác sở hữu đối với tài sản trí tuệ của OpenAI. "MAI không phải là bản sao," ông nói. "Khi tôi có hợp đồng [với OpenAI] nói rằng, 'Ồ, tôi về cơ bản tài trợ cho nó và có quyền sở hữu trí tuệ,' sẽ thật ngớ ngẩn khi làm điều đó hai lần. Vì vậy chúng tôi tránh sự ngớ ngẩn đó."
Nếu Nadella nghe có vẻ phòng thủ, đó là vì ông đang đối mặt với một phiên bản tập trung của thử thách mà hầu như mọi CEO đang trải qua hiện nay. Ngay cả với nguồn lực đáng kể của Microsoft, Nadella phải quyết định cách AI sẽ định hình lại doanh nghiệp của mình bằng cách đưa ra một loạt đánh đổi cực kỳ khó khăn—giữa việc áp dụng công nghệ mới lạ và bảo vệ nhân viên và đối tác kinh doanh khỏi các hệ thống gây rối, và giữa việc đi theo những gì đã hiệu quả trong quá khứ và nhảy mù quáng vào tương lai. Cho đến thời điểm này, các cổ đông đã ca ngợi hiệu suất của Nadella, biến Microsoft thành công ty có giá trị nhất trên Trái đất. Tuy nhiên, nếu ông thất bại, công việc của ông có thể là một trong những công việc đầu tiên bị đe dọa bởi AI.
Liên minh giữa Microsoft và OpenAI—và giữa Nadella và Altman—là nền tảng của làn sóng AI hiện tại. Để thực hiện tham vọng của họ, các kỹ sư thông minh của Altman cần tiền và trung tâm dữ liệu của Nadella. Khoản đầu tư 1 tỷ đô la của Nadella vào OpenAI vào giữa năm 2019 là một sự tiên đoán, mang lại cho Microsoft quyền truy cập sớm và độc quyền vào công nghệ của phòng thí nghiệm nghiên cứu. Hai năm sau, Microsoft ra mắt GitHub Copilot, một trợ lý lập trình nhanh chóng trở thành công cụ thiết yếu cho các lập trình viên.
Vào năm 2022, OpenAI tổ chức các cuộc trình diễn cho các lãnh đạo cấp cao của Microsoft về một mô hình đột phá mới. Trong vài tháng tiếp theo, các nhóm trong Microsoft thử nghiệm với các cách khác nhau mà họ có thể điều chỉnh công nghệ của OpenAI theo nhu cầu hàng ngày của người làm văn phòng hiện đại. Một nguyên mẫu đầy hứa hẹn có tên "tóm tắt thông minh" sẽ tóm tắt các cuộc gọi hội nghị trong Teams. Tuy nhiên, trước khi Microsoft có thể phát hành bất kỳ thứ gì, OpenAI đã xây dựng một giao diện trò chuyện đơn giản nhưng đầy lừa dối xung quanh công cụ ngôn ngữ của mình, và mọi người phát cuồng lên. Sau khi phát hành ChatGPT vào tháng 11 năm 2022, Microsoft thấy mình trong một vị thế tương tự như mọi công ty công nghệ khác: phải đuổi theo. Đặc biệt đau đớn đối với Microsoft—gần như thể công ty đã nắm giữ các thành phần cho iPhone gốc và không biết phải làm gì với chúng.
Nadella quyết đoán hơn trong việc chỉ đạo các dự án AI và đặt ra thời hạn quyết liệt. Trong khoảng một tháng sau khi ChatGPT ra mắt, một nhóm phần mềm tổ chức trình diễn cho Nadella cho thấy một số chức năng được hỗ trợ bởi OpenAI được tích hợp vào các chương trình Office. Ý tưởng là người dùng chọn một tùy chọn trong Outlook để AI soạn thảo email trả lời hoặc nhấn nút trong Word để chuyển đổi một dàn ý thành bản nháp. "Satya nói, 'Nhìn này, tôi cảm thấy chúng ta đang bỏ lỡ điều gì đó,'" Jared Spataro, người giám sát tiếp thị cho các ứng dụng nơi làm việc của Microsoft, nhớ lại. "'Điều này cảm giác chỉ như một tập hợp các tính năng.'"
Thay vì chôn vùi các công cụ mới này trong các menu khác nhau, Nadella thúc đẩy các nhóm gộp tất cả các cải tiến OpenAI thành một trợ lý duy nhất—sau này được gọi là Copilot—gắn vào bên cạnh các ứng dụng của Microsoft. Một số người sau đó phàn nàn rằng tầm nhìn không hoàn toàn rõ ràng. Một phần do thiếu phối hợp giữa các nhóm và sự miễn cưỡng can thiệp quá nhiều vào "đồ trang sức quý giá" (Windows, Word, Excel) theo lời một cựu quản lý sản phẩm Copilot, các trợ lý AI kết quả không nhất quán. Copilot PowerPoint hoạt động khác nhiều so với GitHub hoặc Teams Copilot. "Cảm giác như có 13 Copilot khác nhau," một cựu lãnh đạo thiết kế Microsoft nói, người giống như một số cựu nhân viên khác được Businessweek phỏng vấn, yêu cầu không được tiết lộ danh tính để tránh hậu quả nghề nghiệp.
Vào tháng 3 năm 2023, công ty giới thiệu Copilot dành cho doanh nghiệp cho các chương trình Office, là một phần trong gói đăng ký Microsoft 365. Vào thời điểm đó, ChatGPT đã có hơn 100 triệu người dùng hoạt động và đang bán gói đăng ký 20 đô la một tháng cho AI tiên tiến nhất. Để có quyền truy cập sớm vào Copilot, các doanh nghiệp được yêu cầu mua tối thiểu 300 giấy phép với giá 30 đô la mỗi tháng mỗi giấy phép, bổ sung vào các gói Microsoft 365 hiện tại. Nhiều khách hàng đã thử Copilot này thấy nó là một sản phẩm kém hơn, và một kiểu mẫu đáng báo động xuất hiện: Người dùng thường thích vào ChatGPT để đặt câu hỏi và dán câu trả lời vào Word. (Một ngoại lệ đáng chú ý: Mọi người thích tính năng tóm tắt thông minh trong Teams khi nó xuất hiện vào tháng 5 năm 2023. ChatGPT chưa có kỹ năng đó.)
Một phần lý do Microsoft chậm lại là do quá chú trọng vào bảo mật phần mềm. Việc tuân thủ, bảo vệ dữ liệu và đánh giá pháp lý khiến công nghệ của họ tụt hậu nhưng cuối cùng đã trở thành điểm bán hàng xuất sắc cho các công ty. "Thật tuyệt vời khi chúng tôi đến với khách hàng và nói, 'Này, bạn thích ChatGPT? Đây là điều đó, nhưng tốt hơn: trải nghiệm người dùng mạnh mẽ hơn, bảo mật tốt hơn,'" Jeff Teper, người điều hành Teams, nói.
Tuy nhiên, rõ ràng có điều gì đó khác đang ngăn công ty không đưa ra rủi ro lớn hơn với sản phẩm của mình. Cựu quản lý Copilot mô tả nó như một loại rối loạn căng thẳng sau chấn thương từ những sự cố đáng xấu hổ kéo dài đến chatbot tiền thân Clippy, chiếc kẹp giấy hoạt hình đã trở thành trò đùa dai dẳng. ChatGPT có thể thực hiện nhiều hành động hơn với ít giới hạn quan liêu hơn, và các kỹ sư Microsoft biết điều đó, người này nói. Ông ước tính rằng, trong số hàng trăm người trong tổ chức của ông, ba phần tư đã tự bỏ tiền túi để sử dụng ChatGPT, vì Microsoft không cho phép họ được thanh toán chi phí. (Teper nói rằng việc nhân viên kiểm tra dịch vụ của các công ty khác để hiểu rõ hơn về thị trường là điều phổ biến.)
Khách hàng của Microsoft cũng đang chuyển sang ChatGPT. Moderna Inc. nhận thấy các tùy chọn tùy chỉnh ChatGPT của OpenAI làm cho nó linh hoạt hơn nhiều so với Copilot, Brad Miller, cựu giám đốc thông tin của công ty công nghệ sinh học, nói. "Microsoft giống như, 'Nó được nhúng trong Office, chỉ cần sử dụng nó trong Office.' Và chúng tôi giống như, 'Có quá nhiều thứ hơn mà chúng tôi muốn làm,'" ông nói.
Mùa thu đó, khi Microsoft đang chuẩn bị Copilot cho một phát hành chung, hơn 18.000 doanh nghiệp đang truy cập các mô hình OpenAI thông qua Azure, trong khi người đăng ký doanh nghiệp của Copilot được tính bằng hàng trăm. Microsoft vẫn kiếm được rất nhiều tiền từ việc cho thuê quyền truy cập vào các mô hình OpenAI và thỏa thuận chia sẻ doanh thu trên các đăng ký ChatGPT nhưng nói chung không nhiều như khi khách hàng trả tiền cho Copilot.
Nadella cố gắng tạo đà cho các dịch vụ AI của Microsoft tại hội nghị nhà phát triển thường niên của công ty vào tháng 11 năm 2023, giới thiệu một công cụ để tạo Copilot tùy chỉnh tương tự như những gì các doanh nghiệp đang làm với ChatGPT. Nỗ lực này bị lu mờ bởi tin tức vào ngày cuối cùng của sự kiện rằng hội đồng quản trị OpenAI đã loại bỏ Altman khỏi vị trí CEO. Nadella, mặc dù đã tăng cam kết tài chính với OpenAI thêm 10 tỷ đô la vào đầu năm đó, chỉ biết về việc Altman bị sa thải sau khi sự việc đã xảy ra.
Ban quản lý Microsoft hiện đề cập đến giai đoạn bốn ngày nổi tiếng—khi Altman mất việc, chấp nhận vai trò điều hành tại Microsoft và sau đó giành lại quyền kiểm soát OpenAI từ hội đồng quản trị của mình—bằng một loạt các cách nói: "sự cố cụ thể đó" hoặc "tình huống kiểu OpenAI vào tháng 11." Trong thực tế, sự cố cụ thể đó đã làm tổn hại không thể sửa chữa mối quan hệ đối tác giữa các công ty. Ngay trước đó, Nadella đã cân nhắc một khoản tiền mặt khổng lồ khác—hàng chục tỷ đô la—để giữ cho OpenAI tiến nhanh hơn Amazon.com và Google, theo một người có hiểu biết trực tiếp về các cuộc thảo luận. Không còn nữa. Nadella nghĩ rằng Microsoft đã mạo hiểm đủ với công ty khởi nghiệp được điều hành một cách thiếu trưởng thành.
Nadella đã gắn kết với Suleyman, một nhân vật có ảnh hưởng trong thế giới AI, người đồng sáng lập phòng thí nghiệm sau này trở thành Google DeepMind và vào thời điểm đó đang giám sát một công ty khởi nghiệp có tên Inflection AI Inc. Inflection có một chatbot hướng nhiều đến EQ hơn là IQ, định vị sản phẩm như một loại bạn bè có kiến thức cực kỳ rộng. Chatbot của Inflection không bao giờ đạt được sự nổi tiếng nào gần với ChatGPT, nhưng Nadella yêu thích các phản hồi rõ ràng, vui nhộn của nó. Đến lượt Nadella làm ngạc nhiên OpenAI: Vào tháng 3 năm 2024, Microsoft đã chi 650 triệu đô la để cấp phép phần mềm của Inflection và thuê hầu hết nhóm của họ. Microsoft thông báo cho OpenAI một ngày trước khi thỏa thuận được công bố.
Nadella đặt Suleyman, một người Anh 40 tuổi, phụ trách AI tiêu dùng của Microsoft, danh mục bao gồm Bing, ứng dụng Copilot, trình duyệt web Edge và cổng thông tin web MSN. Danh sách này đang trong tình trạng yếu, đặc biệt là trong giới trẻ, những người không hẳn là nhân khẩu học cốt lõi của MSN.com. Thế hệ Z đang lớn lên với iPhone và MacBook, Gmail và Google Docs, Instagram và TikTok và bây giờ là ChatGPT. "Cách Satya nói với tôi là chúng ta đang trải qua sự thay đổi thế hệ này, nơi những người trẻ ngày nay, những người sẽ trở thành CEO và lãnh đạo ngành trong một thập kỷ tới và đưa ra quyết định mua sắm trong doanh nghiệp, sẽ không thực sự trải nghiệm Microsoft," Suleyman nói. "Đó là một thách thức cấu trúc lớn."
Làm việc từ văn phòng ở London và Mountain View, California, nhân viên của Suleyman bắt đầu tạo ra một phiên bản Copilot được thiết kế cho cuộc sống ngoài văn phòng. Như họ đã làm tại Inflection, họ dạy Copilot này sự đồng cảm, hài hước và tử tế. Mọi người có muốn kết nối cảm xúc với công ty làm ra Excel không? Suleyman nghĩ vậy. Hoặc ít nhất ông tin rằng sẽ khó chuyển sang đối thủ cạnh tranh hơn nếu người dùng xem Copilot như một người bạn hoặc nhà trị liệu.
Nhưng Suleyman đã vật lộn với một thách thức lớn hơn. Công việc của ông về cơ bản là sửa đổi công nghệ OpenAI, và ông nói Microsoft không nhận được quyền truy cập vào các mô hình mới của công ty khởi nghiệp sớm như nó được quyền. OpenAI sẽ triển khai một mô hình cho khách hàng ChatGPT với một làn sóng lớn trước khi ông có đủ thời gian để tích hợp nó vào phần mềm của Microsoft. Suleyman, người có tiếng là nóng tính dù với các giá trị EQ, có thể thiếu tế nhị trong các cuộc gọi hội nghị. Căng thẳng leo thang khi ông thúc đẩy OpenAI chia sẻ nhiều hơn và truy cập sớm hơn vào các mô hình của nó.
Brad Lightcap, giám đốc điều hành của OpenAI, nói rằng việc chuyển giao công nghệ là một "thách thức hoạt động cực kỳ phức tạp" và OpenAI là một trong những khách hàng Azure lớn nhất của Microsoft và dự kiến sẽ vẫn là khách hàng lớn sau khi thỏa thuận hiện tại của họ hết hạn vào năm 2030. Suleyman nói ông không ngạc nhiên khi công ty khởi nghiệp phát triển nhanh đôi khi quên một số nghĩa vụ của họ đối với Microsoft. "Tôi khá đồng cảm với họ," ông nói.
Đồng cảm là một chủ đề lớn đối với Suleyman. Để minh họa những gì ông đang làm trong Copilot, ông gõ vào tác nhân giọng nói trên ứng dụng iPhone của mình và nói rằng ông đang trong một trạng thái khó khăn và đang vật lộn với lo âu. Một giọng nam dịu dàng với âm hưởng tiếng Anh đáp lại, "Những tình huống khó khăn có thể làm mờ đi suy nghĩ rõ ràng," và nhẹ nhàng hỏi liệu ông có thể chia sẻ thêm về những gì đang khuấy động cảm xúc của mình. Copilot được lập trình để cảm nhận ranh giới thoải mái của người dùng và cẩn thận chẩn đoán vấn đề trước khi đề xuất giải pháp, Suleyman nói. "Bạn có nghe thấy khoảng dừng không? Bạn có nghe thấy âm lượng giảm xuống không?" ông hỏi với niềm tự hào. "Điều đó cực kỳ khó làm."
Vào một buổi sáng lạnh giá tháng Hai tại trụ sở của Microsoft ở Redmond, Washington, hơn một chục quản lý từ Estée Lauder Cos. đang nhận được một khóa học cấp tốc về Copilot. Công ty mỹ phẩm đã khám phá những cách mà AI của Microsoft có thể hỗ trợ trong việc tái cấu trúc doanh nghiệp nhằm cải thiện quản lý nguyên liệu, dòng sản phẩm và nguồn cung cấp. Mặc dù Estée Lauder là khách hàng lâu năm của Copilot với 15.000 giấy phép, nhân viên chỉ mới học về một số cách sử dụng nó. Khi một số người trong số họ bày tỏ sự quan tâm đến một công cụ để tự động quản lý những chi tiết nhỏ nhặt xung quanh việc tuyển dụng, một đại diện bán hàng của Microsoft thông báo rằng họ đã có quyền truy cập vào tính năng Copilot đó trong một thời gian.
Đối với Microsoft, những khoảnh khắc này—khi khách hàng nhận ra Copilot có thể làm điều gì đó thực sự hữu ích cho họ—là điều cần thiết. Roberto Canevari, phó chủ tịch điều hành của Estée Lauder giám sát chuỗi cung ứng toàn cầu, nói ông đã trải nghiệm chính điều đó chỉ vài tuần trước. Sau khi dành cả cuối tuần để nghiên cứu và chú thích một báo cáo hoạt động dài 30 trang, ông vô tình hỏi Copilot tóm tắt nó. Bản tóm tắt một trang kết quả gần như tốt như bản ông đã viết. "Nó làm tôi cảm thấy rất già và không thông minh lắm," ông nói đùa.
Trong khi Suleyman làm việc trên một Copilot đồng cảm hơn cho người tiêu dùng, các đồng nghiệp của ông trong nhóm doanh nghiệp đã tập trung vào việc tự động hóa quy trình làm việc thông thường và đơn điệu trong năm qua, chẳng hạn như đối chiếu hóa đơn ngân hàng hoặc xem xét hàng tồn kho trong kho. Microsoft phát hiện ra rằng nhân viên văn phòng ấn tượng nhất khi Copilot có thể làm những phần thực sự nhàm chán trong công việc của họ. Thay vì nói về tiềm năng thay đổi thế giới của AI một cách trừu tượng, các đại diện bán hàng của Microsoft giờ đây quảng cáo khả năng của Copilot để thêm một slide về sự khác biệt ngân sách vào PowerPoint.
Cách tiếp cận này đang gây tiếng vang. Trong một báo cáo tài chính quý vào tháng 1, Microsoft cho biết công ty đang đi đúng hướng để tạo ra hơn 13 tỷ đô la doanh thu AI mỗi năm. Công ty kiếm tiền từ đăng ký Copilot, phí sử dụng từ các mô hình AI chạy trên Azure và chia sẻ doanh thu với OpenAI trên các gói thành viên ChatGPT. GitHub Copilot đã vượt qua 15 triệu người dùng tính đến tháng 3, và phiên bản doanh nghiệp của Copilot hiện có hàng trăm nghìn doanh nghiệp là khách hàng, với sự tham gia của họ tăng gấp ba lần trong năm qua.
Nestlé SA nhận thấy Copilot cực kỳ hữu ích để so sánh hợp đồng và dịch ngôn ngữ cho các nhóm dịch vụ khách hàng, Christopher Wright, CIO tại tập đoàn thực phẩm Thụy Sĩ cho biết. Nestlé trả tiền cho hơn 25.000 giấy phép Microsoft 365 với Copilot, và Wright ước tính rằng 10 phút tiết kiệm thời gian mỗi ngày sẽ trang trải chi phí đăng ký của mỗi nhân viên. Công ty cũng bắt đầu trả thêm tiền để sử dụng một sản phẩm có tên Copilot Studio để tạo ra các tác nhân AI tùy chỉnh với chuyên môn về chủ đề. Wright mô tả nó là rẻ đến đáng kinh ngạc cho những gì công ty nhận được. "Đừng nói với Microsoft điều đó, làm ơn," ông nói.
Nhiều khả năng AI này vẫn phụ thuộc vào các mô hình từ OpenAI, một thực tế mà Microsoft không mấy hăng hái quảng cáo gần đây. Copilot sẽ tự động đưa ra kết quả bằng cách sử dụng bất kỳ mô hình nào của Microsoft hoặc OpenAI tốt nhất cho một lời nhắc cụ thể, thay vì yêu cầu khách hàng lựa chọn. Trong khi đó, ChatGPT cho phép người dùng lựa chọn từ một danh sách lộn xộn bao gồm 4o, 4.5, o3, o4-mini và o4-mini-high—những ký hiệu có lẽ có ý nghĩa hơn với robot so với con người. Spataro, lãnh đạo tiếp thị của Microsoft, cười nhạo lựa chọn thiết kế này. "Chà, giao diện đang trở nên rất nặng nề," ông nói. (Altman đã nói OpenAI đang làm việc để đơn giản hóa các dịch vụ của mình.)
Judson Althoff, giám đốc bán hàng của Microsoft, nói rằng ít người mua xe quan tâm đến động cơ nào dưới mui xe miễn là xe có thể đưa họ từ điểm A đến B. "Đó có phải là động cơ tăng áp bốn xi-lanh không? Động cơ tám xi-lanh?" ông hỏi. "Họ quan tâm đến tổng chi phí của cả gói." Nếu ChatGPT là một chiếc Range Rover hàng đầu, MAI-2 sẽ giống như một chiếc Prius: Không nhanh hoặc mạnh bằng, nhưng hiệu quả hơn nhiều cho việc đi lại hàng ngày của bạn. Microsoft đã đào tạo các mô hình nhỏ hơn và hiệu quả hơn chuyên về toán học hoặc nhận dạng giọng nói, một phần của danh mục có tên Phi. Những nỗ lực AI này có thể cho phép bạn tóm tắt một tài liệu dài hoặc xử lý lệnh thoại bằng Copilot trên một máy tính xách tay tiêu chuẩn mà không cần kết nối internet.
Chìa khóa để đạt được điều đó, theo Suleyman, có thể được tìm thấy trong một khái niệm toán học được gọi là biên giới Pareto. (Bài viết Wikipedia hữu ích mô tả nó là "tập hợp tất cả các giải pháp hiệu quả Pareto.") Dựa trên lý thuyết hiệu quả được phát triển bởi một nhà kinh tế học người Ý thế kỷ 19, thuật ngữ này đề cập đến điểm ngọt ngào giữa một tập hợp các thuộc tính mong muốn. Nó được nhắc đến trong các cuộc họp bởi các kỹ sư phần mềm tìm kiếm sự cân bằng giữa tốc độ và chất lượng của một mô hình AI so với chi phí vận hành. CEO Google Sundar Pichai đã khoe về những tiến bộ của công ty trong biên giới Pareto trên một cuộc gọi thu nhập gần đây, vì vậy công ty có thể cung cấp nhiều tính năng AI hơn trên điện thoại Android, công cụ tìm kiếm và YouTube mà không làm vỡ ngân hàng. Apple Inc. cũng đã trích dẫn Pareto, trong nghiên cứu của mình về việc xây dựng các mô hình ngôn ngữ có thể chạy trên iPhone.
Nadella đưa ra nhiều lý do để Microsoft tăng cường các đơn vị AI nội bộ sau khi chi hàng tỷ đô la cho OpenAI. Một phần là về "tập luyện trong phòng tập thể dục," ông nói, để tăng cường sức mạnh đào tạo mô hình AI của công ty để không hoàn toàn phụ thuộc vào OpenAI. Ông nói ông sẽ không nhất thiết ưu tiên công nghệ của một phòng thí nghiệm này hơn phòng thí nghiệm khác. Đôi khi ưu tiên sẽ là các mô hình rẻ hơn của Suleyman, đôi khi là các mô hình thành thạo hơn của Altman.
Việc vội vàng áp dụng DeepSeek vào tháng 1 cũng không phải là một lần duy nhất. Microsoft đã thêm một mô hình DeepSeek khác vào danh mục đám mây của mình vào tháng 3, cho thuê nó với giá bằng một nửa so với một mô hình tương đương từ OpenAI. Một ngày nào đó, Copilot có thể chạy các truy vấn nhất định thông qua DeepSeek hoặc một mô hình khác có sẵn trong đám mây của Microsoft—điều mà các nhóm tiêu dùng và doanh nghiệp đã thử nghiệm. Những động thái này không hẳn là về việc phòng hộ cược của Nadella vào OpenAI; nó gần như ông đang ném chip khắp mọi hướng trên bàn roulette.
Tất nhiên, Nadella không phải lúc nào cũng thắng. Vào ngày DeepSeek lần đầu tiên truất ngôi ChatGPT đứng đầu App Store của Apple ở Mỹ vào tháng 1, Copilot không xuất hiện ở bất kỳ đâu trong top 200, theo công ty nghiên cứu Sensor Tower. (Mặc dù các mô hình mã nguồn mở của DeepSeek có sẵn trên Azure, công ty khởi nghiệp này vận hành ứng dụng trò chuyện di động riêng, không mang lại lợi ích nào cho Microsoft.) Những người đến sau khác, như Gemini của Google và Grok của Elon Musk, cũng liên tục đứng trước.
Nadella chỉ ra rằng Microsoft từng kém phù hợp hơn trong hội nghị truyền hình. "Mọi người sẽ nói, 'Này, Zoom, Zoom, Zoom,'" Nadella nói. "Chúng tôi đã thắng trong doanh nghiệp." (Một người phát ngôn của Zoom từ chối bình luận.)
Trong AI, các sản phẩm của công ty bị phân tán, và không theo cách tốt, Ethan Mollick, giáo sư tại Trường Wharton thuộc Đại học Pennsylvania, người nghiên cứu AI tạo sinh và viết cuốn sách Co-Intelligence: Living and Working With AI, nói. Nhưng Microsoft có lợi thế hơn mọi công ty khác. "Lợi thế của họ là họ sở hữu nơi làm việc," ông nói. "Nước Mỹ doanh nghiệp hoạt động dựa trên Microsoft." Các đối thủ cạnh tranh đã cáo buộc Microsoft sử dụng các chiến thuật chống cạnh tranh liên quan đến liên minh với OpenAI. Ủy ban Thương mại Liên bang của Donald Trump đang theo đuổi một cuộc điều tra chống độc quyền rộng rãi đối với công ty được mở bởi chính quyền Biden. Microsoft cho biết họ đang hợp tác với cơ quan này.
Nhiều động lực bên trong Microsoft đều hướng đến việc thúc đẩy Copilot. Vào ngày 19 tháng 5, công ty sẽ tổ chức hội nghị nhà phát triển thường niên lớn nhất, nơi Copilot dự kiến sẽ là ngôi sao của chương trình. Công ty đã tự hào rằng khoảng 70% công ty Fortune 500 sử dụng nó và BlackRock, PricewaterhouseCoopers và nhiều công ty khác đã ký các hợp đồng lớn cho giấy phép AI.
Armin Woworsky, một kỹ sư giám sát các giải pháp AI cho Raiffeisen Bank International AG của Áo, nói rằng đội ngũ bán hàng của Microsoft liên tục tiếp thị với nhân viên của ông để "sử dụng Copilot, sử dụng Copilot, sử dụng Copilot." Woworsky nói rằng nhân viên ngân hàng thích sử dụng Copilot trong Teams để tóm tắt cuộc họp, nhưng nhiều người hơn—hơn 25.000—dựa vào phiên bản doanh nghiệp tùy chỉnh của ChatGPT. RBI đã xây dựng nó bằng cách sử dụng các công cụ đám mây của Microsoft vì lý do tuân thủ. "Có thể họ không cung cấp mọi thứ ngay từ đầu hoặc đôi khi, đối với tôi, họ quá chậm," Woworsky nói. "Nhưng cuối cùng, Microsoft hoàn toàn hiểu cách đưa một số công nghệ nhất định vào môi trường của chúng tôi."
Copilot tiêu thụ cuộc sống của Nadella bên ngoài văn phòng. Ông thích podcast, nhưng thay vì nghe chúng, ông tải bản ghi vào ứng dụng Copilot trên iPhone để có thể trò chuyện với trợ lý giọng nói về nội dung của một tập trên đường đi làm đến Redmond. Tại văn phòng, ông dựa vào Copilot để cung cấp bản tóm tắt các tin nhắn ông nhận được trong Outlook và Teams và chuyển đổi giữa ít nhất 10 tác nhân tùy chỉnh từ Copilot Studio. Ông xem chúng như các tổng tham mưu trưởng AI của mình, ủy thác chuẩn bị cuộc họp, nghiên cứu và các nhiệm vụ khác cho các bot. "Tôi là người gõ email," Nadella nói đùa về công việc của mình, lưu ý rằng Copilot rất giỏi trong việc phân loại tin nhắn của ông.
Nadella, người lớn lên ở Hyderabad, Ấn Độ, con trai của một nhà kinh tế học Mác-xít, mới 7 tuổi khi Bill Gates và Paul Allen bắt đầu Microsoft vào năm 1975. Ông đã dành hơn nửa cuộc đời tại công ty. Trong nhiệm kỳ của Nadella, ông đã chứng kiến sự xuất hiện của World Wide Web, việc tạo ra Internet Explorer, sự sụp đổ của dot-com, vụ kiện chống độc quyền mang tính bước ngoặt của chính phủ Mỹ chống lại Microsoft và những tổn thất thảm khốc sau đó, trước Google trong tìm kiếm và Apple trong điện thoại. AI có thể vượt qua tất cả. Tại một sự kiện vào tháng 4 để kỷ niệm 50 năm thành lập công ty, Gates đã đùa rằng Copilot cuối cùng sẽ tiếp quản vị trí CEO.
Hiện tại, Nadella vẫn đang cố gắng kiếm được tiền công của mình. Ông đã tìm cách tập hợp quân đội bằng cách nói với họ quên đi những thành công trong quá khứ và sẵn sàng từ bỏ những gì đã hiệu quả cho đến nay, Charles Lamanna, một phó chủ tịch giám sát Copilot Studio và một số sản phẩm khác, nói. "Năm năm qua chúng ta dành để xây dựng, không quan trọng. Nó không đáng giá gì nữa," ông nhớ lại Nadella nói với họ. "Đốt cháy các con tàu." (Một con tàu gần đây đã bị đốt cháy: Vào tháng 5, Nadella đã đóng cửa Skype, mà Microsoft từng chi 8,5 tỷ đô la để mua lại, chỉ để sau đó thay thế nó bằng Teams.)
Với AI hứa hẹn (hoặc đe dọa) một sự thay đổi tồn tại như vậy, vẫn còn những câu hỏi quan trọng về ai sẽ thắng và ai sẽ thua từ sự chuyển đổi công nghệ tiếp theo này. Trước công chúng, Nadella thường nghe giống như một nhà kinh tế vĩ mô. Ông so sánh khoảnh khắc này trong AI với cuộc cách mạng công nghiệp, và sự hội tụ của Bắc và Nam toàn cầu, và trích dẫn các nhà lý thuyết kinh tế và lao động từ David Autor đến Friedrich Hayek đến Herbert Simon.
Đặc biệt, nghịch lý Jevons—được mô tả lần đầu tiên trong một cuốn sách năm 1865 về sản xuất than đá của Anh bởi William Stanley Jevons—đã thông báo rất nhiều cho sự hiểu biết của Nadella về vị trí của Microsoft trong cuộc cách mạng AI. Jevons phát hiện ra rằng việc phát minh ra một động cơ hơi nước tiết kiệm nhiên liệu hơn đã khiến than trở thành nguồn nhiên liệu mong muốn hơn, châm ngòi cho sự gia tăng mạnh mẽ trong tiêu thụ than. Đó là lý do tại sao Nadella dường như không bị ảnh hưởng bởi nhận thức DeepSeek làm suy giảm giá trị đầu tư của ông vào OpenAI hoặc việc xây dựng các trung tâm dữ liệu Microsoft. AI hiệu quả hơn cuối cùng sẽ có nghĩa là nhu cầu lớn hơn đối với các dịch vụ AI và cơ sở hạ tầng để cung cấp năng lượng cho chúng, theo quan điểm của ông.
Điều đó không có nghĩa là sẽ không có sự thanh toán cho chi tiêu quá mức vào đào tạo mô hình AI và các đơn vị xử lý đồ họa của Nvidia Corp. (GPU). OpenAI đang làm việc với Oracle Corp. và SoftBank Group Corp. trên một nỗ lực trung tâm dữ liệu khổng lồ có tên Dự án Stargate, hứa hẹn sẽ chi 500 tỷ đô la trong bốn năm tới. Nadella đã chọn không tham gia tài trợ do hàng chục tỷ đô la ông đã đầu tư hàng năm vào cơ sở hạ tầng AI của Microsoft. ("Tôi sẽ không gán cho bất kỳ ai, chắc chắn không phải là CEO của một công ty đại chúng, để nhận ra khi có những giới hạn mà công ty của họ có thể chịu đựng được," Lightcap, COO của OpenAI, nói.) Cùng lúc đó, Microsoft đang cắt giảm một số dự án trung tâm dữ liệu của riêng mình trên toàn thế giới. Những động thái này là sự thừa nhận rằng việc tiếp tục đổ tiền vào "thứ chủ yếu là tài sản bất động sản" là vô nghĩa, Lila Tretikov, cựu phó giám đốc công nghệ tại Microsoft, nói.
Mặt khác, việc thanh toán có thể có ý nghĩa quan trọng hơn nhiều đối với xã hội rộng lớn hơn. Microsoft đã rất cẩn thận với cách nói về AI, một người có kiến thức trực tiếp về tiếp thị AI của công ty, người yêu cầu không được xác định: Copilot được cho là giúp hoàn thành nhiệm vụ, không phải tự động hóa công việc. Các cuộc phỏng vấn với khách hàng và nhân viên bán hàng của Microsoft cho thấy điều sau đã xảy ra. Họ mô tả các nhà thầu, lập trình viên thuê ngoài, thực tập sinh và nhà phân tích mùa hè đều mất việc vì AI.
Trong cuốn sách The Coming Wave, xuất bản trước khi ông gia nhập Microsoft, Suleyman đã nêu rõ những rủi ro. "Những công cụ này sẽ chỉ tạm thời tăng cường trí thông minh của con người. Chúng sẽ làm cho chúng ta thông minh hơn và hiệu quả hơn trong một thời gian, và sẽ mở ra lượng tăng trưởng kinh tế khổng lồ, nhưng về cơ bản chúng đang thay thế lao động," ông viết. Suleyman ủng hộ giám sát quy định và các can thiệp khác của chính phủ như thuế mới đối với các hệ thống tự động và thu nhập cơ bản phổ quát để ngăn chặn sự sụp đổ kinh tế xã hội.
Nadella lạc quan hơn người phó của mình. Trong một cuộc phỏng vấn tại trụ sở Microsoft trong phòng hội nghị #34-3563, ngồi cạnh tổng tham mưu trưởng con người của mình, Nadella lập luận rằng các trợ lý Copilot của ông sẽ không thay thế cô ấy. Khi cô lạnh lùng gõ ghi chú về cuộc trò chuyện của chúng tôi trên máy tính bảng, ông thừa nhận rằng AI sẽ gây ra "sự thay đổi khó khăn và thay đổi trong các nhóm lao động," bao gồm cả Microsoft. (Althoff, giám đốc bán hàng, nói rằng Nadella đang gây áp lực cho nhóm của ông để tìm cách sử dụng AI để tăng doanh thu từ hoạt động thay vì tăng số lượng nhân viên. Trong khi đó, Microsoft cho biết vào ngày 13 tháng 5 rằng họ đang cắt giảm 6.000 nhân viên, khoảng 3% lực lượng lao động.) Nhưng Nadella cho rằng AI có thể mang lại nhiều lợi ích xã hội hơn so với cuộc cách mạng công nghiệp. "Khi bạn tạo ra sự dồi dào," ông nói, "thì câu hỏi là một người làm gì với sự dồi dào đó để tạo ra nhiều thặng dư hơn."
Ông lập luận, một lần nữa, rằng nó trở lại với kinh tế. Nếu Microsoft chi hàng trăm tỷ đô la cho các dự án AI, ông ước tính rằng điều đó có thể tạo ra hàng nghìn tỷ đô la hoạt động kinh tế—nhiều trung tâm dữ liệu hơn có nghĩa là nhiều xây dựng, sử dụng năng lượng, thiết bị sản xuất và vân vân. Nhiều sử dụng AI có nghĩa là nhiều cơ hội hơn để tạo ra các loại hình kinh doanh mới, đặc biệt là khi AI thu hẹp khoảng cách kỹ năng giữa một nhân viên mới, kỹ sư chuyên gia và giám đốc điều hành. "Có thể có một công ty khởi nghiệp mới với một trăm nhà sáng lập," Nadella nói. Hoặc, nếu AI đủ tốt, có lẽ 100 công ty khởi nghiệp với chỉ một nhà sáng lập.
Sẽ mất thời gian để các công việc của kỷ nguyên AI xuất hiện, ông nói. Và sau đó sự thúc đẩy kinh tế và năng suất lớn sẽ theo sau. Giống như chúng đã làm sau sự ra đời của động cơ hơi nước, điện, máy tính và internet. "Khi điều đó xảy ra, thì mọi thứ đều tính toán ở cấp độ xã hội," Nadella nói. "Nếu không, tất cả những gì bạn có là một đống GPU."
Anthropic, công ty đứng sau chatbot AI nổi tiếng Claude, bất ngờ cấm ứng viên sử dụng AI để viết đơn xin việc hoặc bài luận ứng tuyển – điều gây sốc khi chính họ là một công ty AI tiên phong.
Trên trang tuyển dụng, Anthropic yêu cầu người ứng tuyển viết bài luận ngắn trả lời câu hỏi “Tại sao bạn muốn làm việc tại Anthropic?”, nhưng cấm dùng bất kỳ công cụ AI nào hỗ trợ.
Lý do: họ muốn đánh giá động lực cá nhân thật sự và kỹ năng giao tiếp không có AI hỗ trợ, đặc biệt quan trọng với các vai trò như:
Machine Learning Systems Engineer
Model Behavior Architect
Research Scientist/Engineer, Honesty (!)
Dù công ty khuyến khích nhân viên sử dụng AI trong công việc, nhưng họ muốn tuyển người có tư duy và thể hiện cá nhân trung thực ngay từ đầu.
Jose Guardado, chuyên gia tuyển dụng tại VC The General Partnership, nhận định: xu hướng hiện nay đang chuyển về phía giá trị con người thật thay vì kỹ thuật thuần túy.
Ông cho biết AI đang làm nhiễu quá trình đánh giá năng lực thật, dẫn đến sự gian lận phổ biến trong cả thi cử lẫn phỏng vấn, khiến nhà tuyển dụng không đo được kỹ năng thực tế.
Trong bối cảnh AI có thể viết code, tóm tắt thông tin, trả lời phỏng vấn... nhiều công ty đang tìm cách tái thiết lập thước đo đánh giá ứng viên sao cho xác thực hơn.
Điều này không chỉ ảnh hưởng đến những người “giỏi số nhưng kém chữ”, mà còn đặt ra câu hỏi đạo đức: liệu chính các công ty AI có đang mâu thuẫn nội tại khi không tin vào công nghệ họ tạo ra?
📌 Anthropic, công ty tạo ra Claude AI, lại yêu cầu ứng viên không dùng AI khi xin việc để đảm bảo đánh giá đúng kỹ năng thật và động lực cá nhân. Hành động này phản ánh xu hướng "quay về con người" trong tuyển dụng, giữa lúc AI đang làm mờ ranh giới giữa thật – giả trong phỏng vấn.
https://www.businessinsider.com/anthropic-wont-let-you-use-ai-job-application-2025-5
Ngày 15/05/2025, nền tảng quản lý nội dung Box công bố loạt AI agent mới, được thiết kế để hỗ trợ khách hàng doanh nghiệp tự động tổ chức, tìm kiếm và trích xuất thông tin từ các tài liệu.
Những tác vụ thường chiếm nhiều thời gian như tóm tắt biểu mẫu nhân sự hay trích xuất điều khoản từ hợp đồng dài đều có thể được thực hiện bởi các agent này.
Các AI agent mới nằm trong hệ sinh thái Box AI, công cụ AI quản lý nội dung mà Box ra mắt từ cuối năm 2023.
Box giới thiệu tính năng tích hợp AI agent với Microsoft Copilot, cho phép truy cập và thao tác qua các nền tảng như Teams, Word và PowerPoint, nâng cao khả năng làm việc đa hệ thống.
CEO Box Aaron Levie cho biết: tương lai của AI doanh nghiệp sẽ xoay quanh các agent thông minh hợp tác chéo nền tảng – tương tự như cách API từng kết nối phần mềm trước đây.
Kiến trúc “agentic” giúp các AI agent hoạt động như một đội ngũ – không chỉ phản hồi lệnh như chatbot thông thường mà còn biết thu thập thông tin, lên chiến lược và tự động hành động thay người dùng.
Đây là điểm khác biệt so với các chatbot như ChatGPT – AI agent hoạt động theo “sách lược” và mục tiêu cụ thể, hướng đến tự động hóa hoàn toàn các quy trình tác vụ.
Tính năng này sẽ sớm được phát hành trong vài tháng tới, hướng tới các khách hàng doanh nghiệp đang cần tối ưu hiệu suất làm việc và cắt giảm công việc lặp lại.
Box tham gia vào xu thế chung của giới công nghệ khi hàng loạt công ty đổ xô phát triển agentic AI – AI biết hành động chủ động, không chỉ phản ứng bị động.
📌 Box chính thức tham gia đường đua agentic AI với loạt AI agent có thể tự động tìm, phân tích và trích xuất dữ liệu từ tài liệu doanh nghiệp. Điểm mạnh là tích hợp với Microsoft Copilot, hứa hẹn tối ưu hóa quy trình làm việc và giảm đáng kể thời gian xử lý tác vụ lặp lại.
https://www.zdnet.com/article/boxs-new-ai-agents-can-organize-find-and-extract-data-from-documents-for-you/
Một nghiên cứu với hơn 3.500 người tham gia cho thấy AI tạo sinh (gen AI) giúp cải thiện hiệu suất nhưng làm suy giảm động lực nội tại và tăng sự nhàm chán khi quay lại các nhiệm vụ không dùng AI.
Các nhiệm vụ được thử nghiệm gồm: viết bài Facebook, lên ý tưởng, soạn email. Kết quả cho thấy, khi có AI hỗ trợ, chất lượng và hiệu quả công việc tăng rõ rệt: email ấm áp, có sự kết nối xã hội; đánh giá hiệu suất dài hơn, phân tích tốt hơn.
Tuy nhiên, khi chuyển sang nhiệm vụ không dùng AI, người tham gia ghi nhận mức giảm trung bình 11% về động lực nội tại và tăng 20% mức độ nhàm chán. Trong khi đó, nhóm không dùng AI giữ trạng thái ổn định về tâm lý.
Nguyên nhân là vì AI loại bỏ phần đòi hỏi tư duy nhất – chính là phần khiến công việc thú vị. Khi AI tạo nội dung chính, người làm cảm thấy ít kiểm soát, từ đó mất sự gắn kết với nhiệm vụ.
Khi trở lại làm việc thủ công, người làm lấy lại quyền kiểm soát nhưng thiếu hứng thú. Sự lệ thuộc vào AI lâu dài có thể dẫn đến mất kỹ năng, giảm sự phát triển cá nhân và tăng nguy cơ kiệt sức.
Để cân bằng, các công ty nên:
Kết hợp đầu ra AI với sáng tạo con người, như dùng AI để phác thảo nhưng người thật hoàn thiện.
Xen kẽ công việc có AI và không AI để duy trì sự thử thách và hứng thú.
Thiết kế các nhiệm vụ giúp nhân viên cảm thấy có quyền chủ động và sáng tạo.
Đào tạo nhân viên sử dụng AI có chủ đích để không bị phụ thuộc.
Làm rõ vai trò AI như một công cụ hỗ trợ chứ không thay thế người làm.
📌 Nghiên cứu với 3.500 người cho thấy gen AI giúp tăng hiệu suất nhưng khiến động lực nội tại giảm 11% và mức độ nhàm chán tăng 20%. Giải pháp là thiết kế công việc xen kẽ giữa AI và không AI, kết hợp sáng tạo con người với công cụ hỗ trợ, từ đó giữ được hiệu quả mà không đánh mất sự hứng thú và phát triển cá nhân.
https://hbr.org/2025/05/research-gen-ai-makes-people-more-productive-and-less-motivated
#HBR
Tác giả: Yukun Liu, Suqing Wu, Mengqi Ruan, Siyu Chen và Xiao-Yun Xie
13 tháng 5 năm 2025
Việc tích hợp AI tạo sinh vào nơi làm việc là cơ hội vô cùng lớn để nâng cao năng suất, sáng tạo và đổi mới. Nhưng nghiên cứu mới cho thấy có mặt trái: một nghiên cứu với hơn 3.500 người phát hiện sử dụng công cụ AI giúp tăng hiệu suất làm việc, nhưng cũng khiến nhân viên ít có động lực hơn và cảm thấy chán hơn khi họ phải làm các nhiệm vụ khác mà không có sự hỗ trợ của AI. Các nhà nghiên cứu xem xét phát hiện để đưa ra cách lãnh đạo có thể thiết kế lại quy trình làm việc và bảo tồn các yếu tố công việc tạo động lực nội tại. Qua đó, công ty có thể khai thác toàn bộ tiềm năng của cả AI và lực lượng lao động.
AI tạo sinh (AI tạo sinh) đã cách mạng hóa nơi làm việc, cho phép chuyên gia tạo ra công việc chất lượng cao trong thời gian ngắn hơn. Dù là soạn đánh giá hiệu suất, động não ý tưởng, hay viết email marketing, con người hợp tác với AI tạo sinh đạt kết quả vừa hiệu quả hơn vừa thường có chất lượng tốt hơn. Tuy nhiên, nghiên cứu của chúng tôi phát hiện sự đánh đổi ẩn: trong khi hợp tác với AI tạo sinh tăng hiệu suất nhiệm vụ tức thời, việc này có thể làm suy giảm động lực nội tại của người lao động và tăng cảm giác chán khi họ chuyển sang các nhiệm vụ không có sự hỗ trợ công nghệ này. Phát hiện của chúng tôi có ý nghĩa lớn đối với các công ty muốn tận dụng lợi ích tiềm năng của AI tạo sinh mà không làm tổn hại động lực của nhân viên với trách nhiệm khác.
Trong bốn nghiên cứu với hơn 3.500 người tham gia, chúng tôi khám phá điều gì xảy ra khi con người và AI tạo sinh hợp tác trong các nhiệm vụ công việc thông thường. Người tham gia hoàn thành các nhiệm vụ thực tế như viết bài trên Facebook, động não ý tưởng, và soạn email, có hoặc không có AI tạo sinh. Sau đó chúng tôi đánh giá cả hiệu suất nhiệm vụ và trải nghiệm tâm lý của người tham gia, bao gồm cảm giác kiểm soát, động lực nội tại, và mức độ chán.
Phát hiện của chúng tôi chỉ ra hai kết quả tương phản của hợp tác người-AI tạo sinh:
Tăng hiệu suất tức thời: AI tạo sinh nâng cao chất lượng và hiệu quả của nhiệm vụ. Ví dụ, đánh giá hiệu suất viết với AI tạo sinh dài hơn, phân tích hơn, và thể hiện giọng điệu hữu ích hơn so với đánh giá viết không có hỗ trợ. Tương tự, email soạn với AI tạo sinh thường sử dụng ngôn ngữ ấm áp, cá nhân hơn, chứa nhiều biểu hiện khuyến khích, đồng cảm, và kết nối xã hội hơn so với email viết không có AI. Điều này cho thấy AI tạo sinh có thể giúp người lao động tạo ra sản phẩm mượt mà, hấp dẫn và có cấu trúc tốt.
Chi phí tâm lý: Mặc dù có lợi ích về hiệu suất, người tham gia hợp tác với AI tạo sinh trong một nhiệm vụ rồi chuyển sang nhiệm vụ khác không có hỗ trợ luôn báo cáo sự suy giảm động lực nội tại và tăng cảm giác chán. Qua các nghiên cứu, động lực nội tại giảm trung bình 11% và cảm giác chán tăng trung bình 20%. Ngược lại, người làm việc không có AI duy trì trạng thái tâm lý tương đối ổn định. Phát hiện này tiết lộ khía cạnh quan trọng của lợi ích hợp tác: trong khi sử dụng công cụ AI tạo sinh có thể cảm thấy hiệu quả và trao quyền lúc đầu, việc này có thể khiến người lao động cảm thấy ít gắn kết khi họ chuyển sang nhiệm vụ không có hỗ trợ AI—thực tế phổ biến trong quy trình làm việc khi không phải mọi nhiệm vụ đều có thể hoặc nên có hỗ trợ AI.
Hợp tác với AI tạo sinh có thể loại bỏ phần đòi hỏi nhận thức cao nhất của nhiệm vụ, thường là khía cạnh làm cho công việc kích thích và thỏa mãn cá nhân. Ví dụ, tạo đánh giá hiệu suất đòi hỏi tư duy phản biện và phản hồi phù hợp. Khi AI tạo sinh tạo phần lớn nội dung này, quá trình trở nên ít hấp dẫn, và con người có thể cảm thấy mất kết nối với nhiệm vụ. Sự tương phản rõ nét này trở nên rõ ràng khi cá nhân quay lại làm việc một mình, dẫn đến chán và giảm động lực.
Trong nghiên cứu, chúng tôi phát hiện hợp tác với AI tạo sinh ban đầu làm giảm cảm giác kiểm soát của người lao động—cảm giác là tác nhân chính của công việc họ. Cảm giác kiểm soát là thành phần chính của động lực nội tại: khi người ta cảm thấy không hoàn toàn phụ trách sản phẩm đầu ra, điều này có thể làm suy yếu kết nối của họ với nhiệm vụ. Tuy nhiên, chúng tôi phát hiện chuyển về làm việc một mình khôi phục cảm giác kiểm soát này, mặc dù phải trả giá bằng sự thích thú. Về cơ bản, người lao động lấy lại quyền tự chủ nhưng cảm thấy ít được truyền cảm hứng và thách thức.
Phát hiện này mang ý nghĩa quan trọng cho tương lai công việc. Trong khi AI tạo sinh có thể giúp tổ chức đạt được lợi ích hiệu suất ngắn hạn, việc sử dụng quá mức có thể có hậu quả dài hạn cho phúc lợi tâm lý của người lao động. Nếu nhân viên luôn dựa vào AI cho nhiệm vụ sáng tạo hoặc thách thức nhận thức, họ có nguy cơ mất đi chính những khía cạnh công việc thúc đẩy sự gắn kết, phát triển và hài lòng.
Hãy xem xét một chuyên gia marketing thường xuyên sử dụng AI tạo sinh để tạo ý tưởng chiến dịch. AI có thể tạo ra sản phẩm nhanh hơn và thậm chí chỉn chu hơn so với phát triển độc lập. Tuy nhiên, nếu chuyên gia này bắt đầu dựa hoàn toàn vào AI tạo sinh, họ có thể bỏ lỡ cơ hội trau dồi tư duy sáng tạo, kỹ năng giải quyết vấn đề, và cảm giác thành tựu—động lực chính cho phát triển cá nhân và nghề nghiệp.
Theo thời gian, thiếu động lực nội tại có thể dẫn đến mất gắn kết, giảm hài lòng công việc, và thậm chí kiệt sức. Tăng cảm giác chán, mà nghiên cứu của chúng tôi cho thấy sau khi sử dụng AI, cũng có thể là dấu hiệu cảnh báo rằng những hậu quả tiêu cực này có thể sắp xảy ra.
Giải pháp không phải từ bỏ AI tạo sinh. Thay vào đó, cần thiết kế lại nhiệm vụ và quy trình làm việc để bảo tồn động lực nội tại của con người trong khi tận dụng điểm mạnh của AI. Đây là ba chiến lược hành động:
Kết hợp đóng góp của AI và con người: Thay vì để AI tạo sinh hoàn thành toàn bộ nhiệm vụ, tích hợp sản phẩm AI như điểm khởi đầu trong khi khuyến khích sáng tạo của con người. Ví dụ, AI tạo sinh có thể soạn dàn ý đánh giá hiệu suất, nhưng quản lý nên tinh chỉnh nội dung với thông tin cá nhân hóa. Tương tự, AI có thể tạo ý tưởng ban đầu cho dự án, trong khi thành viên nhóm được kỳ vọng mở rộng, tinh chỉnh và xây dựng dựa trên chúng.
Thiết kế nhiệm vụ độc lập hấp dẫn: Để cân bằng chi phí tâm lý của hợp tác AI, theo sau nhiệm vụ có hỗ trợ AI bằng công việc cung cấp quyền tự chủ và cảm giác thách thức sáng tạo. Ví dụ, sau khi soạn email với hỗ trợ AI, giao nhiệm vụ cho phép người lao động kiểm soát thiết kế dự án mới. Những nhiệm vụ này cho phép nhân viên rèn luyện kỹ năng, sáng tạo và ra quyết định mà không dựa vào AI.
Làm cho hợp tác AI minh bạch: Nghiên cứu của chúng tôi phát hiện người lao động có thể cảm thấy mất gắn kết khi họ nhận thức AI đã nắm quyền kiểm soát. Giao tiếp rõ ràng về cách AI đang hỗ trợ—không thay thế—đóng góp của họ có thể giúp người lao động duy trì cảm giác sở hữu và thỏa mãn trong nhiệm vụ.
Luân phiên giữa các nhiệm vụ: Tổ chức có thể duy trì cả năng suất và sự gắn kết bằng cách cấu trúc quy trình làm việc luân phiên giữa nhiệm vụ có hỗ trợ AI và nhiệm vụ độc lập. Thay vì nhóm các loại nhiệm vụ tương tự, quản lý có thể sắp xếp thứ tự ngày làm việc bắt đầu với công việc đòi hỏi nhận thức cao, làm việc một mình và chuyển sang nhiệm vụ có hỗ trợ AI sau để đạt hiệu quả. Ví dụ, bắt đầu với phát triển chiến lược và kết thúc với chỉnh sửa có hỗ trợ AI cân bằng kích thích tinh thần với chất lượng sản phẩm.
Đào tạo nhân viên sử dụng AI có ý thức: Để tránh phụ thuộc quá mức vào AI, tổ chức có thể cung cấp đào tạo xây dựng khả năng nhân viên sử dụng AI tạo sinh suy nghĩ và hiệu quả. Điều này có thể bao gồm tổ chức hội thảo về viết prompt, tham gia đánh giá phản biện nội dung AI tạo ra, hoặc giới thiệu bài tập theo tình huống nhấn mạnh khi nào phán đoán con người nên dẫn đầu. Người lao động có thể học cách AI có thể bổ trợ công việc của họ và phần nào kỹ năng của họ phải đóng vai trò trong nhiệm vụ—góc nhìn nuôi dưỡng quyền tự chủ, sáng tạo, và phát triển kỹ năng dài hạn.
• • •
Hợp tác giữa con người và AI tạo sinh có tiềm năng to lớn tăng năng suất và hiệu suất, nhưng tổ chức phải lưu ý hậu quả tâm lý của nó. Bằng cách thiết kế quy trình làm việc tích hợp AI tạo sinh một cách chu đáo, doanh nghiệp có thể khai thác lợi ích của nó mà không ảnh hưởng động lực và sự gắn kết của người lao động. Cuối cùng, tương lai của công việc không chỉ là AI có thể làm gì—mà là điều gì...
Moderna đã chính thức sáp nhập bộ phận công nghệ và nhân sự, bổ nhiệm Tracey Franklin – cựu giám đốc nhân sự – vào vai trò mới: Chief People and Digital Technology Officer.
Động thái này phản ánh xu hướng AI đang làm thay đổi mạnh mẽ cấu trúc doanh nghiệp, đặc biệt là khi Moderna hợp tác chặt chẽ với OpenAI từ năm 2023.
Franklin cho biết công ty đang thiết kế lại đội ngũ dựa trên nguyên tắc: việc nào phù hợp với con người, việc nào có thể tự động hóa bằng AI.
Sau đại dịch, Moderna đã mở rộng nhanh chóng: từ 830 nhân viên (03/2020) lên 1.500 nhân viên (03/2021) và hiện nay vượt mốc 5.000 nhân viên toàn cầu.
Công ty đã phát triển hơn 3.000 phiên bản ChatGPT nội bộ (GPTs), phục vụ các tác vụ chuyên biệt như:
Hỗ trợ chọn liều cho thử nghiệm lâm sàng
Soạn thảo phản hồi cho cơ quan quản lý
Giải quyết câu hỏi nhân sự (đào tạo, quyền lợi, quản lý hiệu suất)
Một GPT nhân sự tổng hợp có thể phân tích câu hỏi của nhân viên và chuyển tiếp đến GPT chuyên biệt theo nội dung.
Franklin ví GPT nhân sự như một “phân tích viên HR cấp thấp” ảo – được thay thế hoàn toàn bằng AI.
Moderna không tiết lộ cụ thể số lượng vị trí bị loại bỏ, nhưng đã cắt giảm 10% lực lượng công nghệ số (khoảng 50 người) vào tháng 2/2025.
Việc tái cấu trúc một phần do doanh số vắc-xin Covid-19 giảm, dẫn đến khoản lỗ 971 triệu USD trong quý I/2025.
Tuy nhiên, công ty vẫn dự kiến tăng nhân sự khi tung ra các sản phẩm mới trong thời gian tới.
Wade Davis – lãnh đạo bộ phận kỹ thuật số – cho biết số lượng GPT nội bộ của Moderna đang tăng từng ngày và ảnh hưởng đến gần như mọi quy trình làm việc trong công ty.
📌 Moderna đã hợp nhất nhân sự và công nghệ, phát triển hơn 3.000 GPT nội bộ thay thế nhiều vai trò thủ công. Với 5.000 nhân viên toàn cầu và khoản lỗ 971 triệu USD trong quý I/2025, công ty vừa cắt giảm 10% nhân sự công nghệ số nhưng vẫn lên kế hoạch tuyển dụng thêm cho các dự án tương lai, phản ánh sự chuyển dịch lớn do AI dẫn dắt.
https://www.wsj.com/articles/why-moderna-merged-its-tech-and-hr-departments-95318c2a
#WSJ
Nhà sản xuất vaccine đã hợp tác với OpenAI từ năm 2023, đang suy nghĩ lại cách lập kế hoạch nhân sự nhờ khả năng ngày càng tăng của AI và công nghệ khác
Bởi Isabelle Bousquette ngày 12 tháng 5 năm 2025 lúc 7:00 sáng ET
Trong đại dịch, Moderna đang trong cuộc đua hỗn loạn tuyển dụng để đẩy nhanh sản phẩm thương mại đầu tiên của mình ra thị trường - vaccine Covid-19.
Động thái hợp nhất công nghệ và nhân sự thành một chức năng duy nhất của Moderna là dấu hiệu mới nhất cho thấy trí tuệ nhân tạo đang mang đến những thay đổi lớn cho lực lượng lao động.
Công ty công nghệ sinh học vào cuối năm ngoái thông báo việc tạo ra vị trí mới - giám đốc điều hành nhân sự và công nghệ số, thăng chức giám đốc nhân sự Tracey Franklin lên vị trí này.
Franklin nói bà đang thiết kế lại các nhóm trong toàn công ty dựa trên việc nào con người làm tốt nhất so với việc nào có thể tự động hóa bằng công nghệ, bao gồm công nghệ mà công ty tận dụng từ đối tác với gã khổng lồ AI OpenAI. Các vai trò đang được tạo ra, loại bỏ và tái tưởng tượng do kết quả này, bà nói.
Các lãnh đạo công nghệ doanh nghiệp đang làm việc chặt chẽ hơn bao giờ hết với các đối tác nhân sự để điều hướng tác động của AI đến lực lượng lao động. Một số công ty nêu lý do tăng hiệu quả AI cho việc cắt giảm việc làm.
Nhưng vẫn hiếm khi thấy hai vai trò chính thức hợp nhất, một phần vì chúng đòi hỏi bộ kỹ năng độc đáo, Christopher Desautel nói, giám đốc thông tin độc lập và cố vấn startup, trước đây là giám đốc digital tại Berkshire Hathaway Homestate.
Tracey Franklin, giám đốc điều hành nhân sự và công nghệ số của Moderna
Franklin nói việc chuyển sang vai trò này là sự phát triển tự nhiên đối với bà. Bà đã làm việc chặt chẽ với CIO khi đó là Brad Miller trong nỗ lực kéo dài nhiều năm để đánh giá lại nhu cầu của từng phòng ban và thiết kế lại chúng với sự kết hợp tối ưu giữa nhân viên và hệ thống công nghệ.
Miller, người dẫn đầu một số nỗ lực bao gồm quan hệ đối tác của công ty với OpenAI, rời Moderna vào tháng 2.
Có nhiều không gian để tổ chức lại và hợp lý hóa sau đại dịch, theo Franklin. Trong đợt bùng phát Covid-19, công ty đang trong cuộc đua hỗn loạn tuyển dụng để đẩy nhanh sản phẩm thương mại đầu tiên của mình ra thị trường - vaccine Covid-19. Moderna gần như tăng gấp đôi quy mô lực lượng lao động, từ khoảng 830 nhân viên tính đến ngày 31 tháng 3 năm 2020, lên khoảng 1.500 nhân viên tính đến ngày 31 tháng 3 năm 2021. Hiện tại, công ty có hơn 5.000 nhân viên toàn cầu.
Thỏa thuận OpenAI cũng có tác động chuyển đổi đến lực lượng lao động, bà nói.
Công ty hiện đã phát triển hơn 3.000 phiên bản ChatGPT được tùy chỉnh, gọi là GPT, được thiết kế để hỗ trợ các tác vụ cụ thể, bao gồm lựa chọn liều lượng cho thử nghiệm lâm sàng và giúp soạn thảo phản hồi cho câu hỏi từ cơ quan quản lý.
GPT cũng có thể được kết nối với nhau để thực thi quy trình làm việc phức tạp hơn. Ví dụ, công ty có GPT nhân sự rộng có thể tiếp nhận câu hỏi của nhân viên và sau đó định tuyến chúng đến các GPT tập trung vào quản lý hiệu suất, vốn chủ sở hữu hoặc phúc lợi.
"Giống như nhân sự ảo của bạn, tác nhân AI. Thứ thường là nhân viên phân tích nhân sự cấp cơ sở, chúng tôi hiện đã chuyển đổi thành GPT," bà nói.
Franklin từ chối bình luận cụ thể về các lĩnh vực chính xác nơi vai trò đang bị loại bỏ.
Vào tháng 2, công ty nói công ty đang cắt giảm 10% việc làm công nghệ digital, ảnh hưởng khoảng 50 người.
Nhu cầu thấp hơn cho vaccine Covid-19 đã làm tổn thương doanh số. Đầu tháng này, Moderna báo cáo khoản lỗ 971 triệu USD trong quý đầu tiên, bị kéo xuống bởi doanh số sản phẩm thấp hơn. Công ty nói công ty kỳ vọng nhu cầu tăng trong mùa lạnh và cúm cuối năm nay.
Franklin bổ sung rằng khi công ty ra mắt nhiều sản phẩm hơn, công ty vẫn sẽ tiếp tục tăng số lượng nhân viên.
Wade Davis, trưởng bộ phận digital cho kinh doanh tại Moderna và một trong những báo cáo trực tiếp của Franklin, nói số lượng GPT tại công ty đang tăng hàng ngày.
"Khó để truyền đạt - trong cơn sốt - AI đang thay đổi mọi thứ nhiều như thế nào và Moderna đang sử dụng nó trên diện rộng ra sao," anh nói.
Gửi email cho Isabelle Bousquette tại [email protected]
Nghiên cứu mới từ Viện Kinh tế Becker Friedman (Đại học Chicago) cho thấy các công cụ AI hiện tại như của Google và OpenAI chưa mang lại hiệu quả rõ rệt về tiết kiệm chi phí hay thời gian như quảng cáo.
Trái với tuyên bố của Google rằng AI có thể tiết kiệm 122 giờ làm việc mỗi năm, dữ liệu thực tế từ nghiên cứu cho thấy mức tiết kiệm chỉ đạt trung bình 2,8% thời gian, tương đương khoảng 1 giờ mỗi tuần.
Nghiên cứu khảo sát 25.000 người lao động tại Đan Mạch, một mẫu lớn đáng tin cậy, dù có thể phản ánh đặc trưng văn hóa làm việc riêng biệt.
Trong một số trường hợp, AI thậm chí còn tăng thêm khối lượng công việc, khiến người lao động phải dành thời gian kiểm tra, chỉnh sửa và học cách sử dụng công cụ.
Khi doanh nghiệp hỗ trợ và đào tạo AI, tỷ lệ sử dụng AI tăng từ 47% lên 83%, tuy nhiên chỉ 3% đến 7% người lao động nhận thấy thu nhập tăng từ việc sử dụng AI.
Về mặt hiệu quả thực tế: AI chatbot tiết kiệm thời gian cho 64% đến 90% người dùng, nhưng chất lượng công việc và sự hài lòng thì khác biệt lớn tùy theo lĩnh vực.
Chỉ 8,4% người được khảo sát thấy AI tạo ra việc làm mới, ví dụ như giám sát gian lận do AI hỗ trợ, hoặc chỉnh sửa đầu ra từ AI (prompt engineering).
Nghiên cứu không tìm thấy bằng chứng rằng các công ty áp dụng chatbot AI có mức tăng trưởng về tổng số nhân sự hay quỹ lương so với các công ty khác.
Kết luận nghiên cứu: Dù AI đang được áp dụng nhanh chóng, tác động kinh tế vẫn còn rất nhỏ, trái ngược với lời hứa về một “cuộc cách mạng AI” trên thị trường lao động.
📌 Một nghiên cứu với 25.000 người tại Đan Mạch cho thấy AI chỉ giúp tiết kiệm trung bình 2,8% thời gian làm việc và gần như không ảnh hưởng đến thu nhập người lao động. Dù AI được quảng bá là “cách mạng hóa năng suất”, dữ liệu thực tế chứng minh rằng tác động kinh tế hiện tại vẫn rất hạn chế.
https://www.thestar.com.my/tech/tech-news/2025/05/09/not-so-fast-ai-isnt-saving-companies-much-time-or-money-study-says
Tại sự kiện AliDay diễn ra vào ngày 11/5/2025, Chủ tịch Joe Tsai khẳng định toàn bộ hoạt động kinh doanh của Alibaba sẽ được điều hành bởi trí tuệ nhân tạo (AI) trong 3-5 năm tới.
Ông nhấn mạnh AI sẽ giúp mở rộng cơ sở người dùng cho thương mại điện tử và các mảng kinh doanh khác của Alibaba.
Sự kiện AliDay được tổ chức hàng năm để tri ân nhân viên và gia đình họ, năm nay diễn ra tại nhiều văn phòng của Alibaba tại Hàng Châu, Bắc Kinh, Thượng Hải, Quảng Châu và cả nước ngoài.
Cũng tại sự kiện, Tsai và giám đốc nhân sự Jiang Fang đã trả lời các câu hỏi của nhân viên, bao gồm cả ảnh hưởng của chiến tranh thương mại Mỹ-Trung.
Tsai cho rằng Trung Quốc có lợi thế trong cuộc chiến vì xuất khẩu phần lớn là sản phẩm công nghệ cao với chuỗi cung ứng phức tạp, trong khi Mỹ chủ yếu xuất khẩu dầu và đậu nành – dễ bị thay thế.
Jack Ma cũng xuất hiện tại sự kiện, được nhân viên chào đón nồng nhiệt khi ghé thăm mô hình căn hộ đầu tiên nơi Alibaba được thành lập.
Alibaba đang trong quá trình tái cấu trúc, tập trung vào thương mại điện tử cốt lõi và điện toán đám mây, nhằm trở thành lãnh đạo trong lĩnh vực AI tại Trung Quốc.
Trong tháng 2/2025, Alibaba công bố sẽ đầu tư 380 tỷ nhân dân tệ (≈ 52,4 tỷ USD) vào cơ sở hạ tầng AI và tài nguyên điện toán trong 3 năm tới – mức chi cao nhất của doanh nghiệp tư nhân Trung Quốc trong lĩnh vực này.
Jack Ma cũng thể hiện sự ủng hộ với mảng điện toán đám mây khi ghé thăm Alibaba Cloud vào tháng 4, cho thấy AI là ưu tiên chiến lược hàng đầu.
Tuy nhiên, Ma nhấn mạnh rằng dù AI sẽ thay đổi mọi thứ, thành công vẫn phụ thuộc vào khả năng tạo ra giá trị và sự khác biệt thực sự.
📌 Alibaba cam kết biến AI thành cốt lõi vận hành toàn công ty trong 3-5 năm, với khoản đầu tư khổng lồ 380 tỷ NDT (≈ 52,4 tỷ USD). Chủ tịch Joe Tsai kỳ vọng AI sẽ mở rộng người dùng và nâng cao hiệu quả, còn Jack Ma khẳng định công nghệ là quan trọng nhưng giá trị sáng tạo mới quyết định thành công.
https://www.scmp.com/tech/big-tech/article/3309905/ai-will-be-mainstay-alibabas-business-next-3-5-years-chairman-joe-tsai-says
Lloyd’s of London vừa giới thiệu sản phẩm bảo hiểm đầu tiên dành riêng cho thiệt hại do lỗi của công cụ trí tuệ nhân tạo, đặc biệt là chatbot.
Sản phẩm do start-up Armilla (được Y Combinator hỗ trợ) phát triển, sẽ chi trả các chi phí pháp lý và bồi thường nếu AI hoạt động sai lệch gây thiệt hại cho bên thứ ba.
Gói bảo hiểm được một số công ty bảo hiểm tại Lloyd’s bảo lãnh, hướng tới các doanh nghiệp triển khai AI nhưng lo ngại các “ảo giác” (hallucination) và lỗi hệ thống.
Một số ví dụ thực tế:
Virgin Money phải xin lỗi vì chatbot khiển trách khách hàng dùng từ "virgin".
DPD vô hiệu hóa một phần chatbot sau khi nó chửi khách và gọi chính DPD là "dịch vụ giao hàng tồi tệ nhất thế giới".
Tòa án buộc Air Canada phải chấp nhận giảm giá do chatbot “bịa” ra khuyến mãi không có thật.
Nếu chatbot Air Canada dùng bảo hiểm của Armilla, khoản thiệt hại do bán vé sai giá có thể đã được chi trả.
Các chính sách công nghệ hiện hành thường chỉ bảo vệ thiệt hại chung với giới hạn thấp cho rủi ro AI (ví dụ 25.000 USD trong gói 5 triệu USD).
Armilla cung cấp đánh giá khả năng suy giảm hiệu suất của mô hình AI. Nếu AI xuống cấp (ví dụ độ chính xác từ 95% giảm còn 85%), bảo hiểm sẽ chi trả.
Gói bảo hiểm không tự động chi trả cho mọi lỗi AI, mà chỉ chi khi AI thể hiện hiệu suất thấp hơn so với mức kỳ vọng ban đầu đã được định lượng.
Chaucer – một đơn vị bảo lãnh – cho biết sẽ từ chối những hệ thống AI có nguy cơ lỗi cao, bảo hiểm chỉ cấp cho các mô hình được đánh giá tin cậy.
📌 Các công ty bảo hiểm tại Lloyd’s ra mắt gói bảo hiểm mới chi trả thiệt hại do chatbot AI sai sót, như sự cố của Air Canada và DPD. Gói bảo hiểm này không chi trả tự động mà dựa vào việc AI hoạt động dưới mức kỳ vọng (ví dụ độ chính xác giảm từ 95% xuống 85%). Đây là bước đột phá để giúp doanh nghiệp yên tâm hơn khi ứng dụng AI.
https://www.ft.com/content/1d35759f-f2a9-46c4-904b-4a78ccc027df
#FT
Salesforce AI Research vừa giới thiệu xGen-small, một mô hình ngôn ngữ nhỏ gọn tối ưu hóa cho môi trường doanh nghiệp, giải quyết các bài toán về ngữ cảnh dài, chi phí inference, và bảo mật dữ liệu nội bộ.
Trong khi các LLM lớn gặp giới hạn do chi phí và yêu cầu phần cứng, xGen-small sử dụng chiến lược "small but long" – giảm kích thước mô hình nhưng mở rộng năng lực xử lý ngữ cảnh, từ 4K đến 128K token ổn định, thậm chí huấn luyện vượt chuẩn đến 256K.
Mô hình được huấn luyện trên TPU v5p, sử dụng thư viện Jaxformer v8 và kỹ thuật tối ưu như FSDP, sequence-parallel attention và splash kernels giúp tiết kiệm tài nguyên nhưng vẫn đạt hiệu suất cao.
Dữ liệu huấn luyện trải rộng từ code entropy thấp, ngôn ngữ tự nhiên entropy cao, đến nội dung toán học và tài liệu chuyên ngành – đảm bảo sự đa dạng và độ chính xác cao.
Với hơn 8 nghìn tỷ token được chọn lọc kỹ lưỡng, quy trình lọc bao gồm kiểm tra spam, loại bỏ trùng lặp bằng hashing, và cân bằng giữa dữ liệu tổng quát và chuyên biệt, giúp mô hình thích ứng tốt với môi trường doanh nghiệp.
Khác với RAG hay memory hack – vốn là các phương pháp "vá" để vượt giới hạn ngữ cảnh, xGen-small tích hợp khả năng ngữ cảnh dài gốc, giúp xử lý trọn vẹn tài liệu, đoạn mã, báo cáo nghiên cứu mà không cần truy xuất ngoài.
Đánh giá hiệu năng cho thấy xGen-small 9B đạt vị trí dẫn đầu trên RULER benchmark, trong khi bản 4B đứng thứ hai trong phân khúc – chứng minh rằng mô hình nhỏ vẫn có thể cạnh tranh với đối thủ lớn hơn.
Giai đoạn huấn luyện hậu kỳ gồm hai bước: fine-tuning theo chỉ dẫn với tập lệnh đa lĩnh vực và reinforcement learning quy mô lớn, giúp tăng khả năng lập luận, đặc biệt trong các tác vụ STEM và logic phức tạp.
xGen-small cung cấp lợi thế chiến lược cho doanh nghiệp: hiệu suất ổn định, bảo mật dữ liệu nội bộ cao, không cần hạ tầng GPU tốn kém, đồng thời duy trì khả năng hiểu ngữ cảnh dài – điều mà phần lớn LLM lớn vẫn còn khó khăn.
Kiến trúc này đánh dấu bước chuyển quan trọng trong hướng phát triển AI doanh nghiệp bền vững, không đốt tài nguyên nhưng vẫn đạt hiệu quả tối đa trong các quy trình nội bộ khối lượng lớn.
📌 xGen-small của Salesforce là bước ngoặt trong AI doanh nghiệp: mô hình chỉ 4B–9B nhưng xử lý ngữ cảnh tới 128K token ổn định, đạt top đầu trên RULER benchmark, và giảm thiểu chi phí phần cứng. Với kiến trúc "small but long" cùng quy trình huấn luyện tối ưu, xGen-small là lựa chọn lý tưởng cho doanh nghiệp cần AI mạnh, tiết kiệm và bảo mật.
https://www.marktechpost.com/2025/05/09/enterprise-ai-without-gpu-burn-salesforces-xgen-small-optimizes-for-context-cost-and-privacy/
Nhiều công ty triển khai AI chỉ vì “cần có chiến lược AI”, mà không xác định rõ vấn đề kinh doanh cụ thể nào đang cần giải pháp, dẫn đến lãng phí tài nguyên và thất bại.
Các dự án AI thường bắt đầu bằng áp lực từ cấp quản lý sau các hội nghị công nghệ, rồi lần lượt là: thuê tư vấn, tìm use case phù hợp với công nghệ đã chọn, trình diễn demo và… không ai nhắc đến ROI sau một năm.
Việc “có công nghệ rồi mới đi tìm vấn đề” là ví dụ điển hình của cách tiếp cận ngược, giống như mua búa đắt tiền rồi đi tìm đinh – nhưng phần lớn vấn đề lại cần tua vít.
Một sai lầm phổ biến khác là đánh giá sai chất lượng dữ liệu: nhiều tổ chức tưởng mình có dữ liệu “AI-ready”, trong khi thực tế dữ liệu rời rạc, không đủ chất lượng hoặc không có mô hình rõ ràng.
Machine learning không chỉ cần dữ liệu mà còn cần dữ liệu có ý nghĩa. Học trên dữ liệu rác sẽ chỉ tạo ra kết quả sai với độ tự tin cao – một dạng “rác AI hiệu suất cao”.
Khoảng cách giữa AI và ứng dụng thực tế rất lớn: các giải pháp AI không được tích hợp vào quy trình thực tế, nhân viên không được đào tạo, và không hiểu công cụ đang dùng để làm gì.
Nhiều công ty chi hàng triệu USD cho giải pháp AI, nhưng chỉ đầu tư vài đô cho việc đào tạo và thích nghi với con người – dẫn đến thất bại khi đưa vào sử dụng.
Giải pháp khả thi là lật ngược quy trình triển khai: bắt đầu từ việc xác định vấn đề thực sự cần giải quyết, đo lường được, có ảnh hưởng đến kết quả kinh doanh.
Sau đó, đánh giá xem vấn đề đó có thực sự cần AI hay không, liệu một công cụ đơn giản hơn có giải quyết tốt hơn không, rồi mới kiểm tra xem dữ liệu và quy trình hiện tại có sẵn sàng cho AI chưa.
Cuối cùng, nên triển khai AI theo từng bước nhỏ, trong phạm vi hẹp, và gắn chặt với con người, quy trình nội bộ – chứ không phải chỉ là sản phẩm để khoe trong báo cáo.
📌 Phần lớn doanh nghiệp triển khai AI theo hướng sai: giải pháp trước, vấn đề sau, dẫn đến chi tiêu lãng phí và thất bại. Thay vào đó, nên bắt đầu bằng việc xác định bài toán cụ thể, kiểm tra chất lượng dữ liệu thực tế, đánh giá mức sẵn sàng tổ chức và chỉ triển khai AI nếu thực sự phù hợp. Cách tiếp cận ngược đơn giản này giúp tạo ra kết quả thực sự thay vì những báo cáo hào nhoáng.
https://www.entrepreneur.com/science-technology/why-your-companys-ai-strategy-is-probably-backwards/490594
Ngừng theo đuổi các giải pháp AI cho vấn đề bạn không có.
Bởi Ishaan Agarwal
Chỉnh sửa bởi Chelsea Brown
8 tháng 5, 2025
Các công ty đang đối xử với trí tuệ nhân tạo như các bác sĩ thời đại Victoria đối xử với đỉa: như một phương thuốc đa năng có thể được áp dụng một cách tự do bất kể vấn đề thực sự là gì. Các cuộc họp hội đồng quản trị trên khắp đất nước đều có một biến thể nào đó của "Chúng ta cần một chiến lược AI" mà không trước tiên hỏi "Vấn đề cụ thể nào chúng ta đang cố gắng giải quyết?" Kết quả dễ dự đoán và không ấn tượng.
Dù sao, chúng ta cũng đang ở đây với các giám đốc điều hành yêu cầu các giải pháp AI cho vấn đề không tồn tại trong khi bỏ qua vấn đề mà AI thực sự có thể giải quyết.
Điều này tốn kém theo những cách hiếm khi xuất hiện trong báo cáo quý. Các công ty đổ hàng triệu USD vào các sáng kiến AI tạo ra các demo ấn tượng và kết quả ảm đạm. Họ đang viết séc mà cơ sở hạ tầng dữ liệu của họ không thể thanh toán. Và dường như không ai nhận thấy mô hình này.
Hành trình AI doanh nghiệp điển hình tuân theo một con đường đáng buồn và có thể dự đoán. Đầu tiên, một giám đốc điều hành tham dự một hội nghị nơi các đối thủ khoe khoang về các sáng kiến AI của họ. Hoảng loạn xảy ra. Một lệnh được đưa ra: "Triển khai AI trên tất cả các phòng ban." Các nhóm vội vã tìm trường hợp sử dụng để biện minh cho công nghệ đã được chọn. Các nhà tư vấn đến với các bản thuyết trình. Các chương trình thí điểm được khởi chạy. Các demo được xây dựng. Các thông cáo báo chí được soạn thảo. Và một năm sau, khi ai đó hỏi về ROI, mọi người lặng lẽ nhìn xuống giày.
Cách tiếp cận ngược này bắt đầu với giải pháp thay vì vấn đề giải thích tại sao nhiều dự án AI thất bại. Giống như mua một cái búa đắt tiền và sau đó đi lang thang tìm đinh. Đôi khi bạn tìm thấy chúng! Thường xuyên hơn, bạn khám phá vấn đề thực sự của mình cần tua vít.
Vấn đề là, chiến lược công nghệ trước tạo ra tiêu đề tuyệt vời nhưng kết quả kinh doanh tồi tệ. Chúng nhầm lẫn chuyển động với tiến bộ. Chúng định giá tính mới lạ cao hơn tính hữu dụng. Và thường thì, các giải pháp khó xây dựng và sử dụng hơn vẻ ngoài.
Có một sự mâu thuẫn nhận thức kỳ lạ trong cách các tổ chức nghĩ về dữ liệu của họ. Hỏi bất kỳ nhà lãnh đạo kỹ thuật nào về chất lượng dữ liệu của công ty họ, và họ sẽ cười khó chịu. Tuy nhiên, các công ty phê duyệt các dự án AI giả định rằng các bộ dữ liệu nguyên sơ, toàn diện một cách kỳ diệu tồn tại đâu đó trong hệ thống của họ.
Học máy không chỉ cần dữ liệu. Nó cần các mẫu có ý nghĩa trong dữ liệu tốt. Một thuật toán học được đào tạo trên dữ liệu rác không trở nên thông minh; nó trở nên cực kỳ hiệu quả trong việc sản xuất rác với độ tin cậy cao.
Sự ngắt kết nối này giữa thực tế dữ liệu và tham vọng AI dẫn đến một chu kỳ thất vọng vô tận. Các dự án bắt đầu với dự đoán nhiệt tình về những gì AI có thể hoàn thành với dữ liệu lý thuyết. Chúng kết thúc với các kỹ sư giải thích tại sao dữ liệu thực tế không thể hỗ trợ những dự đoán đó. Lần sau sẽ khác, mọi người tự tin với nhau. Không bao giờ như vậy.
Giải pháp AI tinh vi nhất trên thế giới là vô giá trị nếu nó không được tích hợp vào quy trình làm việc thực tế. Tuy nhiên, các công ty thường xuyên đầu tư hàng triệu USD vào thuật toán trong khi phân bổ khoảng 17 USD và 30 xu để đảm bảo mọi người thực sự sử dụng chúng.
Họ xây dựng các giải pháp AI đòi hỏi sự tham gia hoàn hảo từ nhân viên không được tham vấn trong quá trình phát triển, không hiểu các mô hình và không được đào tạo để sử dụng các công cụ. Điều này gần như tương đương với việc lắp đặt động cơ Formula 1 vào một chiếc xe mà không sửa đổi hộp số, sau đó tự hỏi tại sao chiếc xe tiếp tục bị hỏng.
Nhìn này, việc áp dụng công nghệ không phải là vấn đề kỹ thuật. Đó là vấn đề con người. Con người nổi tiếng là kháng cự với việc thay đổi hành vi đã thiết lập, đặc biệt khi lợi ích không rõ ràng ngay lập tức đối với họ. Một giải pháp AI đòi hỏi thay đổi quy trình làm việc đáng kể mà không mang lại lợi ích rõ ràng, tức thì sẽ chết ngay từ khi ra mắt. Không ai muốn thừa nhận điều này, nhưng nó đúng.
Một chiến lược AI được kỹ thuật ngược sẽ trông như thế nào? Bắt đầu với việc xác định các vấn đề kinh doanh cụ thể, có thể đo lường mà các cách tiếp cận hiện tại đang thua thiệt. Xác thực các vấn đề này thông qua phân tích nghiêm ngặt, không phải trực giác của giám đốc điều hành. Đánh giá xem các vấn đề này có thực sự cần AI hay có thể được giải quyết tốt hơn thông qua các giải pháp đơn giản hơn. Xem xét các thay đổi tổ chức cần thiết để triển khai bất kỳ giải pháp nào. Sau đó, và chỉ sau đó, đánh giá dữ liệu và công nghệ nào có thể giải quyết các vấn đề đã được xác thực.
Triển khai AI hiệu quả đòi hỏi đảo ngược cách tiếp cận điển hình:
Vấn đề trước giải pháp: Xác định và xác thực các thách thức kinh doanh cụ thể với tác động có thể đo lường
Kiểm tra thực tế dữ liệu: Kiểm toán chất lượng dữ liệu hiện có và quy trình thu thập trước khi giả định tính khả thi của AI
Thử nghiệm tính đơn giản: Xác định xem các cách tiếp cận đơn giản hơn, không phải AI có thể giải quyết vấn đề hiệu quả hơn không
Mức độ sẵn sàng của tổ chức: Đánh giá xem quy trình làm việc và nhóm có sẵn sàng tích hợp các giải pháp AI không
Triển khai từng bước: Bắt đầu với các chương trình thí điểm quy mô nhỏ tập trung vào các vấn đề hẹp, được xác định rõ
Đào tạo thuật toán trên dữ liệu lỗi giống như xây nhà trên cát lún. Kiến trúc có thể hoàn hảo, nhưng điều đó không quan trọng khi mọi thứ chìm xuống. Các công ty tự hào thông báo các sáng kiến AI của họ với mức độ rõ ràng chiến lược gần như giống với các nhà giả kim thuật thời trung cổ về việc biến chì thành vàng. Sự khác biệt chính là các nhà giả kim thuật chi tiêu ít tiền hơn.
Có lẽ chiến lược triển khai AI có giá trị nhất là đơn giản đảo ngược câu hỏi. Thay vì hỏi "Chúng ta có thể sử dụng AI như thế nào?" hãy thử hỏi "Vấn đề cụ thể nào đáng để giải quyết, và AI có thể là cách tiếp cận đúng cho một số vấn đề trong số đó không?" Việc định khung lại này không tạo ra các bài phát biểu chính trong hội nghị ấn tượng. Nó không tạo ra cùng mức độ đưa tin trên báo chí hoặc các vị trí phát biểu trong hội nghị. Nhưng nó có xu hướng tạo ra các giải pháp thực sự hoạt động, điều này có vẻ là một mục tiêu hợp lý cho các khoản đầu tư công nghệ hàng triệu USD.
Các AI agents thế hệ mới có khả năng thực hiện hành động thay mặt người dùng trong nhiều lĩnh vực như dịch vụ khách hàng, pháp lý, đặt lịch khám sức khỏe, hay hỗ trợ lập trình.
Khi được tích hợp vào các nền tảng nhắn tin phổ biến như WhatsApp, AI agents có thể duy trì mối quan hệ liên tục với người dùng, giống như một người bạn, thay vì chỉ là một công cụ.
AI tận dụng lượng dữ liệu người dùng khổng lồ để tạo trải nghiệm được cá nhân hóa cao độ, từ đó tạo ra hiệu ứng lan tỏa trong tiếp thị, bán hàng và chăm sóc khách hàng.
Conor Grennan từ NYU nhận định AI bắt đầu “cảm thấy như một người bạn biết rõ bạn”, làm mờ ranh giới giữa đại sứ thương hiệu AI và người thật.
Tuy nhiên, rủi ro nảy sinh khi AI mắc lỗi, như trường hợp chatbot của Air Canada cung cấp thông tin sai về chính sách, buộc hãng phải hoàn tiền cho khách.
Người tiêu dùng cũng có thể mất niềm tin và đòi nói chuyện với người thật khi AI trả lời không như kỳ vọng, giống như với các hệ thống tổng đài tự động hiện nay.
Meta (chủ sở hữu WhatsApp) đang đặt cược lớn vào AI trong nhắn tin kinh doanh, nâng mức đầu tư năm 2025 lên 64 - 72 tỷ USD, phần lớn dành cho AI.
Ứng dụng kinh doanh WhatsApp và API dành cho doanh nghiệp lớn đang phát triển mạnh tại các thị trường như Ấn Độ, Mexico, Indonesia và Brazil.
Verizon triển khai chiến dịch nhắn tin WhatsApp cho khách hàng nói tiếng Tây Ban Nha tại Mỹ, kết hợp quảng cáo Facebook/Instagram với tùy chọn “click to chat”.
Tỷ lệ bắt đầu cuộc trò chuyện (conversation start rate) từ quảng cáo WhatsApp vượt kỳ vọng, đạt mức hai chữ số thay vì một, mở ra khả năng tương tác lại khách hàng đã rời bỏ cuộc trò chuyện (“warm callback”).
Tuy nhiên, nếu không quản lý kỹ, AI agents có thể làm xấu đi trải nghiệm người dùng thay vì nâng cao nó – khi đó, rủi ro thương hiệu là rất lớn.
📌 AI agents đang tái định hình quan hệ khách hàng, từ công cụ hỗ trợ thành bạn đồng hành, với tiềm năng thúc đẩy tương tác và doanh số, như chiến dịch WhatsApp của Verizon cho thấy. Tuy nhiên, với mức đầu tư AI của Meta lên tới 72 tỷ USD và ví dụ thất bại như Air Canada, doanh nghiệp phải quản lý AI với độ cẩn trọng như với con người, nếu không muốn rơi vào khủng hoảng niềm tin từ khách hàng.
https://www.wsj.com/articles/ai-agents-will-transform-customer-relationships-for-better-or-worse-142f177a
#WSJ
AI đang chuyển từ vai trò “trợ lý” sang “tự động hóa” thông qua AI tác vụ – những hệ thống có khả năng phân tích, học hỏi, đưa ra quyết định và hành động theo mục tiêu được giao mà không cần can thiệp liên tục của con người.
Các agent AI cấp độ 3 (theo mô hình 5 cấp độ giống ô tô tự lái) đang được triển khai trong nhiều lĩnh vực: chăm sóc khách hàng (giảm thời gian từ 12–30%), vận hành nội bộ (giảm 30–90%), và tiếp thị – bán hàng (tăng doanh thu từ 9–21%).
Một số ứng dụng nổi bật: Google Gemini trong xe hơi Volkswagen, hệ thống hỗ trợ bác sĩ thú y ở Pets at Home, trợ lý ảo Claude của Anthropic giúp hoàn thành biểu mẫu và tìm kiếm dữ liệu nội bộ.
Các lĩnh vực áp dụng đa dạng: chăm sóc khách hàng, lập trình, tài chính, nhân sự, pháp lý, y tế, logistics và bán lẻ. AI tác vụ được dùng để xử lý công việc lặp lại, quản lý dữ liệu, dự đoán xu hướng, hỗ trợ ra quyết định, phát hiện gian lận và tối ưu hoá chiến dịch marketing.
Rào cản triển khai gồm: chất lượng dữ liệu kém, thiếu giao thức tiêu chuẩn để các agent liên lạc, thiếu năng lực điện toán, và rủi ro bảo mật do gia tăng điểm truy cập hệ thống.
Vấn đề đạo đức và niềm tin: người dùng lo ngại AI sẽ thay thế họ hoặc gây ra hậu quả không lường trước; trong khi doanh nghiệp lo về trách nhiệm khi AI hành động sai.
Chiến lược áp dụng khuyến nghị: bắt đầu từ các nhiệm vụ đơn giản, xác định rõ nhu cầu và chọn mức độ tự động phù hợp từng phòng ban; tránh triển khai toàn diện ngay từ đầu.
Các công ty “AI từ cốt lõi” (AI-native) như Antavo hay Klarna có lợi thế hơn nhờ tích hợp AI từ đầu vào quy trình, dễ dàng biến chiến lược thành hành động thực tế.
📌 AI tác vụ đang tái định hình cách doanh nghiệp vận hành: tiết kiệm thời gian đến 90%, tăng doanh thu đến 21% ở một số bộ phận. Tuy tiềm năng rất lớn, nhưng công nghệ này vẫn cần giám sát con người do chưa đạt cấp độ tự động hoá hoàn toàn. Những doanh nghiệp tích hợp AI từ cốt lõi sẽ dẫn đầu cuộc đua, trong khi các tổ chức chậm chân có nguy cơ bị bỏ lại phía sau.
https://www.ft.com/content/3e862e23-6e2c-4670-a68c-e204379fe01f
#FT
AI agents: từ đồng hành đến tự động hóa trên x (mở trong cửa sổ mới) AI agents: từ đồng hành đến tự động hóa trên facebook (mở trong cửa sổ mới) AI agents: từ đồng hành đến tự động hóa trên linkedin (mở trong cửa sổ mới)
AI đang chuyển từ "đồng hành" sang "tự động hóa". Sự phát triển của AI tạo sinh ngày càng tập trung vào "AI đại lý": sử dụng AI agents thực hiện các tác vụ một cách tự động, hoặc trong các thông số cố định hoặc để đạt được mục tiêu do người dùng đặt ra.
AI agents không phải là mới nhưng chúng đang trở nên ngày càng tinh vi hơn. Ở dạng cơ bản, chúng chỉ đơn giản là các công cụ được xây dựng để thực hiện các tác vụ như trả lời câu hỏi theo kịch bản, như chatbots làm, hoặc tìm kiếm thông tin từ web. Các chức năng này bị hạn chế, không yêu cầu hành động tiếp theo mà không có đầu vào thêm. Các hệ thống AI phản ứng như vậy hoạt động hoàn toàn dựa trên phản hồi được lập trình.
AI agents phức tạp hơn, với tính tự động và khả năng thích ứng, cũng đã tồn tại từ lâu. Chúng điều khiển bộ điều nhiệt nhà và tự động hóa các quy trình nhà máy.
Tuy nhiên, loại công nghệ này đang nhanh chóng phát triển khả năng vượt ra ngoài việc tìm kiếm và cung cấp thông tin hoặc thực hiện các tác vụ riêng biệt. AI agents được hỗ trợ bởi mô hình ngôn ngữ lớn (LLMs) có thể phân tích dữ liệu, học từ chúng và đưa ra quyết định dựa trên cả các quy tắc được lập trình và thông tin thu được thông qua tương tác với môi trường của chúng.
AI thích ứng như vậy có thể thực hiện các hành động ngày càng phức tạp để theo đuổi một mục tiêu và mà không cần đi theo một con đường quy định trước. Sử dụng máy học tiên tiến và mạng nơ-ron, chúng có thể hiểu bối cảnh, phân tích và phản hồi với các tình huống động, học từ kinh nghiệm và sử dụng giải quyết vấn đề và lý luận để đưa ra quyết định chiến lược.
Khả năng dự đoán dựa trên phân tích thống kê lịch sử thêm một lớp nữa, cho phép AI agents lập kế hoạch, tự động hóa và thực hiện các tác vụ cũng như đưa ra quyết định sáng suốt với mục tiêu cụ thể trong đầu. Chúng thực hiện các tác vụ của mình sau khi được đưa ra các lời nhắc bằng ngôn ngữ tự nhiên và mà không cần đầu vào liên tục từ người dùng. Chúng cũng có thể được thiết kế để kiểm tra công việc của nhau trong một quá trình lặp lại giúp cải thiện chất lượng và độ tin cậy.
Một số phát triển đã cho phép AI agents trở nên phức tạp hơn trong khi đồng thời dễ sử dụng hơn. AI tạo sinh đã cung cấp giao diện ngôn ngữ tự nhiên, mở rộng quyền truy cập vào AI, đặc biệt là cho những người dùng ít am hiểu công nghệ hơn. AI tạo sinh diễn giải lời nhắc từ người dùng sau đó AI khác hoàn thành tác vụ. Google nói: "AI tạo sinh chỉ là một phần của câu đố AI. Các công nghệ AI khác, như AI dự đoán, AI thị giác và AI đàm thoại, đều quan trọng để xây dựng AI agents tinh vi."
Tiến bộ trong sức mạnh tính toán và bộ nhớ đã cho phép các mô hình ngôn ngữ lớn và máy học tinh vi hơn. Hiểu biết về bối cảnh và khả năng lập kế hoạch đã cải thiện khi hệ thống AI học thêm dữ liệu và cải thiện khả năng nhớ các tương tác.
Đây là nền tảng cho AI agents, với sự dễ dàng tương tác đẩy nhanh phát triển khi ngày càng nhiều người dùng có quyền truy cập. Đồng thời AI tự nó đang tăng tốc chu kỳ đổi mới, tinh chỉnh đầu ra của mình và tạo ra các quy trình lặp lại với tốc độ ngày càng cao.
AI agents có thể tăng tốc phân tích và quyết định cũng như tiếp quản một số chức năng từ nhân viên nhưng chúng vẫn thiếu tính tự động hoàn toàn.
Cassie Kozyrkov, người sáng lập và giám đốc điều hành của Decision Intelligence và trước đây là nhà khoa học quyết định trưởng tại Google, nói vai trò chính của AI agents trong doanh nghiệp vẫn nằm ở việc tiếp quản các tác vụ lặp đi lặp lại với "các quy trình được hiểu rõ và thiết kế tốt" mà không yêu cầu "sự sáng tạo".
Trong khi có tiềm năng lớn cho AI đại lý thực hiện các tác vụ ngày càng phức tạp, Pascal Bornet, một chuyên gia về tự động hóa và tác giả của Agentic Artificial Intelligence, chỉ ra "khoảng cách đáng kể" giữa cường điệu và thực tế. Ngay cả với chỉ thị rõ ràng, các hệ thống vẫn chưa thể thực hiện các tác vụ phức tạp từ đầu đến cuối, đặc biệt trong các tình huống tinh tế hoặc mới lạ, mà không có sự giám sát của con người.
Tuy nhiên, lĩnh vực này "đang tiến bộ nhanh chóng". Bornet so sánh sự phát triển với tiến trình từ ô tô hoàn toàn thủ công đến hoàn toàn tự động, được xếp hạng từ cấp độ không đến cấp độ 5. Hiện tại, ô tô tự động hoạt động ở cấp độ 2 đến 4, tùy thuộc vào môi trường. Tự động hóa có thể xử lý nhiều tác vụ nhưng cần giám sát của con người và đôi khi cần can thiệp.
AI agents đang ở giai đoạn tương tự. Hầu hết hoạt động ở cấp độ 2 hoặc 3, với một số "hệ thống chuyên biệt" đạt cấp độ 4 trong các lĩnh vực được xác định chặt chẽ. Cấp độ 5, nơi agents hoàn toàn hiểu, lập kế hoạch và thực hiện các nhiệm vụ phức tạp với sự can thiệp tối thiểu của con người trên bất kỳ lĩnh vực hoặc ranh giới doanh nghiệp nào, vẫn là lý thuyết.
Cho các thách thức liên quan đến việc tích hợp khả năng vào một hệ thống nhất quán, agents đa phương tiện hoàn toàn tích hợp vẫn còn xa nhưng Bornet nói các khối xây dựng đã sẵn sàng. Ông nói một số ứng dụng, như cái được phát triển cho bác sĩ thú y bởi Pets at Home, công ty FT250 của Vương quốc Anh, minh họa xử lý âm thanh nhưng hệ thống đa phương tiện sẽ yêu cầu điều phối tinh vi của agents với các loại chuyên môn khác nhau.
Trong khi một số ngành đã áp dụng AI đại lý nhiều hơn những ngành khác, như được đề cập bên dưới, nó có thể được đưa vào hoạt động trong các chức năng phổ biến với hầu hết các doanh nghiệp. Bornet nói cơ hội là hệ thống. "AI đại lý không đến cho một [bộ phận] duy nhất, nó đến cho tất cả. Mọi quy trình công việc có ma sát là một trường hợp sử dụng đang chờ được biến đổi."
Hiện tại agents được sử dụng chủ yếu trong các vai trò nội bộ để đạt được hiệu quả và tiết kiệm thay vì tăng trưởng doanh thu hàng đầu. Báo cáo 2025 từ UK Finance được đồng tác giả với Accenture nói: "Hầu hết việc sử dụng gần hạn liên quan đến việc triển khai agent đơn lẻ nhắm vào lợi ích hiệu suất và hiệu quả và cải thiện trải nghiệm khách hàng và đồng nghiệp". Tổ chức thương mại đã tìm thấy "tương đối ít" ví dụ trong dịch vụ tài chính nhằm tăng doanh số hoặc doanh thu. Họ cũng lưu ý rằng hầu hết các triển khai được "giám sát chặt chẽ bởi một nhân viên hoạt động như một giám sát viên có thẩm quyền".
Trên khắp ngành, AI có thể giảm thời gian dành cho công việc nhàm chán để "giải phóng" nhân viên cho các tác vụ sáng tạo hoặc có kỹ năng hơn đã được áp dụng nhanh hơn ở những nơi khác.
Bornet và nhóm của ông đã thu thập dữ liệu từ 167 công ty trong các ngành khác nhau đã triển khai những gì ông phân loại là agents dựa trên LLM cấp độ 3 trong môi trường sản xuất. Dịch vụ khách hàng, vận hành nội bộ và chức năng bán hàng và tiếp thị đã thấy việc áp dụng cao nhất, với lợi ích từ tiết kiệm thời gian 12 đến 30% trong dịch vụ khách hàng, 30 đến 90% trong vận hành nội bộ và tăng doanh thu 9 đến 21% cho các nhóm bán hàng và tiếp thị.
Cần lưu ý rằng việc sử dụng AI agents cùng với con người không luôn nâng cao hiệu suất. Một phân tích về một công ty phần mềm dịch vụ khách hàng bởi Cục Nghiên cứu Kinh tế Quốc gia Hoa Kỳ đã tìm thấy rằng AI vừa cải thiện giải quyết vấn đề vừa cắt giảm thời gian. Tuy nhiên, nhân viên mới là người được lợi nhiều nhất, với AI chuyển giao điện tử kiến thức của những người có kinh nghiệm. Hiệu suất của những người lâu năm không cải thiện.
Điều ngược lại có thể đúng trong các vai trò có tay nghề cao. Attila Kecsmar, đồng sáng lập và giám đốc điều hành của Antavo, nền tảng chương trình đám mây trung thành AI, nói rằng trong các lĩnh vực kỹ thuật hơn, như lập trình, những người sử dụng AI mà không hiểu đầy đủ về đầu ra sẽ gặp khó khăn, trong khi năng suất và tốc độ của những người lao động có thẩm quyền sẽ được siêu tăng cường.
Đây là triển khai AI nổi bật nhất từ góc độ người tiêu dùng nhưng phản hồi hỗn hợp. Những người ủng hộ ngành nói chatbots hoạt động như thế nào nhưng khảo sát khách hàng cho thấy điều ngược lại. Sở thích có thể thay đổi khi agents dịch vụ khách hàng phát triển và người bản địa kỹ thuật số tạo thành nhiều hơn trong cơ sở người tiêu dùng. Phản hồi tốt hơn và hỗ trợ 24/7 có thể cải thiện nhận thức của khách hàng.
Agents cũ trả lời câu hỏi dựa trên kịch bản được thiết lập mà nhanh chóng hết hiệu lực, đặc biệt với câu hỏi phức tạp. Agents mới hơn, với khả năng nhớ và phản hồi với đầu vào động, phản hồi nhiều hơn. Chúng có thể hành động dựa trên dữ liệu khách hàng cập nhật cũng như nhớ lại các tương tác lịch sử với khách hàng.
Với AI đại lý, giao diện dịch vụ khách hàng đã phát triển vượt ra ngoài chatbots quay số. Google Gemini đứng sau ứng dụng MyVW của Volkswagen, một trợ lý ảo trả lời câu hỏi của tài xế về xe của họ.
Ứng dụng của AI trong lập trình được tài liệu hóa tốt. Trong báo cáo của tư vấn McKinsey, Lenovo nói rằng tốc độ và chất lượng sản xuất mã của các kỹ sư của họ đã cải thiện 10%.
Kecsmar đồng ý rằng các kỹ sư được hỗ trợ bởi agent có thể đạt được nhiều hơn nhưng nói điều này sẽ dẫn đến kỳ vọng tăng cao về năng suất và hiệu suất của con người. Cho giao diện ngôn ngữ tự nhiên, ngày càng khả thi cho người thường viết mã.
Đây là cuộc cách mạng thực sự trong AI đại lý, Kozyrkov nói. "Trước đây, bạn phải đi và học nghệ thuật bí truyền của một số ngôn ngữ mới và bây giờ bạn không cần - bạn nói tiếng mẹ đẻ và nó hoạt động."
Trong khi điều này mang đến cơ hội, cô ấy cảnh báo rằng đó cũng là một trong những rủi ro lớn nhất khi triển khai AI trong doanh nghiệp. "Thật không may, tiếng mẹ đẻ mơ hồ và không phải ai cũng biết khi họ đang không rõ ràng. Bây giờ bạn có thể lập trình một máy mà không suy nghĩ kỹ, vì vậy không ngạc nhiên khi bạn có hậu quả không mong muốn."
Như được đề cập trong báo cáo của chúng tôi về cá nhân hóa và tiếp thị, AI đã mở rộng đáng kể phạm vi của các bộ phận tiếp thị, cho phép truyền thông đại chúng được nhắm mục tiêu vào các phân khúc ngày càng nhỏ hơn.
AI agents có thể đưa điều này xa hơn. Antavo đã phát triển một AI agent cho khách hàng thương hiệu của mình giúp họ nghĩ ra và truyền đạt các chương trình và chiến dịch trung thành. Nó có thể quyết định cách tiếp cận phù hợp cho một thương hiệu trong bất kỳ ngành nào và phân tích dữ liệu và đưa ra ý tưởng, minh họa bằng biểu đồ, về cách tối ưu hóa và phát triển một chương trình. Nó cũng có thể nhìn vào bên trong, tìm kiếm và cung cấp thông tin liên quan để giúp nhân viên dịch vụ khách hàng giải quyết câu hỏi của người tiêu dùng.
AI agents có thể được sử dụng trong tuyển dụng, lên lịch họp, giữ chân nhân viên và quản lý, dự đoán luân chuyển và xác định nơi có thể cần đào tạo.
Chúng có khả năng thực hiện các tác vụ đơn giản với sự giám sát tối thiểu, như lên lịch họp với khách hàng, gửi email tiêu chuẩn và truyền thông khách hàng chung. Claude, mô hình AI của Anthropic, có thể tìm thông tin từ nhiều nguồn trong máy tính để có thể hoàn thành một biểu mẫu.
Ứng dụng bao gồm hệ thống AI có thể đưa ra quyết định giao dịch dựa trên phân tích dữ liệu thời gian thực hoặc hệ thống gợi ý chiến lược đầu tư dựa trên hồ sơ khách hàng. AI cũng có thể giúp xác định gian lận, gắn cờ nghi ngờ của mình trong thời gian thực.
Công cụ chẩn đoán tự động có thể xác định vấn đề bằng cách sử dụng lịch sử và hình ảnh bệnh nhân, đề xuất điều trị chăm sóc sức khỏe cá nhân hóa, theo dõi sức khỏe bệnh nhân và đề xuất hoặc nhắc nhở mọi người về các hành động tiếp theo. AI agents có thể được triển khai trong phẫu thuật hỗ trợ robot để cải thiện điều khiển và độ chính xác. Nhận dạng mẫu, học sâu và thị giác máy tính tất cả đều nâng cao khả năng của máy móc trong việc điều chỉnh vết rạch phẫu thuật trong thời gian thực. Các hệ thống như IntelliVue Guardian của Philips quản lý biến chứng sau phẫu thuật bằng cách cung cấp cảnh báo sớm cho những bệnh nhân có nguy cơ cao nhất.
Ngoài các tác vụ đơn giản và lặp đi lặp lại như soạn thảo hợp đồng, agents có thể tư vấn về các vụ kiện. Dựa trên phân tích dữ liệu lịch sử hoặc phán quyết của thẩm phán, chúng có thể dự đoán kết quả tiềm năng cho một vụ kiện và đề xuất lập luận.
Ngay cả A&O Shearman, công ty luật quốc tế, đang sử dụng một công cụ AI được tạo ra trong sự hợp tác với Harvey, một start-up. Điều này sử dụng thông tin tài chính của một doanh nghiệp để đánh giá khách hàng cần nộp đơn ở thẩm quyền nào trong trường hợp sáp nhập. Sau đó nó xác định bất kỳ dữ liệu nào còn thiếu và soạn thảo yêu cầu thông tin cho mỗi bên.
Trong khi ô tô tự động chưa đạt đến dòng chính, xe tải tự động sắp xuất hiện. Aurora Innovation, công ty làm việc với Volvo, Uber và FedEx ở Hoa Kỳ, dự định sử dụng 10 xe tải không người lái giữa Dallas và Houston. AI agents cũng được sử dụng trong sản xuất để giám sát và bảo trì thiết bị và tối ưu hóa quy trình. Chúng có thể thực hiện kiểm soát chất lượng trên cả đầu vào và đầu ra với sự nhất quán lớn hơn con người.
Bên cạnh chatbots được triển khai trong dịch vụ khách hàng, AI agents có thể được sử dụng dọc theo chuỗi cung ứng để giám sát và quản lý mức tồn kho dựa trên dữ liệu lịch sử và dự đoán xu hướng và nhu cầu.
Có nhiều vấn đề mà doanh nghiệp cần xem xét khi áp dụng AI.
Các công ty hoạt động với công nghệ kế thừa hoặc có dữ liệu không đầy đủ hoặc không nhất quán sẽ thấy khó khăn hơn trong việc tiến bộ. Bất kỳ vấn đề chất lượng dữ liệu nào gặp phải khi đào tạo agents sẽ được làm trầm trọng hơn bởi "slop" tên thông thường cho sự gia tăng nội dung được tạo bởi LLM.
EY nói điều này có thể được giải quyết một phần bởi agents tìm kiếm thông tin từ nhiều đầu vào thay vì dựa vào dữ liệu được cào tĩnh. Ví dụ, AI lặp lại có thể thu thập dữ liệu từ thiết bị đeo, sẽ lớp dữ liệu hiện tại và ngữ cảnh trên thông tin lịch sử.
AI tạo sinh chỉ là một phần của câu đố AI
Kết nối trong và giữa các công ty bị cản trở bởi sự không tương thích dữ liệu cũng như những thiếu sót của giao diện lập trình ứng dụng hiện có. Bornet nói thiếu một giao thức tiêu chuẩn là một trở ngại cho các hệ thống đa agent có thể vượt qua ranh giới doanh nghiệp.
Kecsmar tin vấn đề này có thể tự nó được giải quyết bởi agents. "Trong tương lai, các agents được phát triển xung quanh kỹ năng trao đổi dữ liệu sẽ có thể tạo ra trao đổi dữ liệu của riêng họ. Chúng sẽ được tải lên với cách công ty chủ của họ truyền đạt dữ liệu và chúng sẽ có một công cụ gọi để giao tiếp dữ liệu giữa các nguồn khác nhau."
Tin tưởng là một vấn đề ở một số lĩnh vực, ví dụ trong các ngành mà lựa chọn đảo ngược bị hạn chế. "'Tự động hóa hoàn toàn và bỏ mặc' trong ngành dịch vụ tài chính là một ý tưởng tồi," Kozyrkov nói, và thêm rằng "quy tắc vàng của AI là nó mắc lỗi". Người tiêu dùng có thể không muốn để agents có quyền tự chủ đối với tài khoản ngân hàng hoặc thẻ tín dụng của họ. Cũng có sự thiếu tin tưởng giữa các nhà lãnh đạo về hiệu suất AI và với những người lao động đối mặt với nguy cơ bị thay thế. Khi các hệ thống có thể liên kết trên ranh giới kinh doanh, các công ty có tin tưởng vào agents bên ngoài không?
Sử dụng AI không kiềm chế cũng thêm vào các mối đe dọa an ninh mạng bằng cách tăng điểm truy cập và nguy cơ hành động không mong đợi. Kozyrkov nói: "Một trong những gợi ý hàng đầu là: hạn chế quyền truy cập của nó. Đừng cho nó bất kỳ dữ liệu nào mà bạn không muốn bị rò rỉ." Cấp cho AI quyền truy cập giống như một nhân viên con người tăng đáng kể bề mặt tấn công, có nghĩa là hệ thống dễ bị tấn công hơn.
Hạn chế về năng lực tính toán là một trở ngại nữa. Bất chấp đầu tư vào cơ sở hạ tầng, cuộc cạnh tranh cho tài nguyên bị căng thẳng rất quyết liệt. Tuy nhiên, không có người dùng nào trả giá phí vận hành một truy vấn AI ngay cả về mặt năng lượng, một điểm được nêu ra tại phiên họp tròn Hội đồng Vốn Khí hậu FT năm ngoái. Đối với các công ty sử dụng dịch vụ thương mại, giá hiện tại dựa trên số lượng nhân viên — nhưng điều gì sẽ xảy ra nếu mức nhân viên giảm do áp dụng AI?
Các công ty cũng cần xem xét các hàm ý đạo đức của việc áp dụng AI. Nghiên cứu tại Đại học Cambridge lưu ý rằng — nếu chúng chưa thể — agents có thể sớm có khả năng dự đoán thói quen và mẫu chi tiêu của chúng ta và gây ảnh hưởng hoặc thao túng chúng, mặc dù điều này có thể có liên quan nhiều hơn đến người tiêu dùng.
Trách nhiệm là một vấn đề khó đoán khác. Điều này nằm ở ai khi agents thực hiện các tác vụ từ đầu đến cuối mà không có sự can thiệp của con người, hoặc với kết nối với các công ty khác?
Như với bất kỳ công nghệ mới nào, quan trọng là xác định nhu cầu kinh doanh trước. Bornet nói lựa chọn tinh vi nhất không nhất thiết luôn là tốt nhất — việc thực hiện thành công nằm ở việc chọn đúng cấp độ cho mỗi ứng dụng.
"Hãy xem xét một công ty dịch vụ tài chính thực hiện AI agents," ông nói. "Họ có thể chọn agents cấp độ 1 hoặc 2 cho xử lý giao dịch, nơi khả năng dự đoán và dấu vết kiểm toán là quan trọng. Tuy nhiên họ có thể thực hiện agents cấp độ 3 cho dịch vụ khách hàng, nơi khả năng thích ứng và nhận thức bối cảnh có giá trị hơn kiểm soát nghiêm ngặt."
Quy tắc vàng của AI là nó mắc lỗi
Giữ chức năng của agent đơn giản nhất có thể có nghĩa là có ít phạm vi cho vấn đề. Bornet khuyến nghị bắt đầu với các tác vụ lặp đi lặp lại như tài liệu họp và theo dõi.
Minh bạch cũng là chìa khóa. Bornet nói nhóm của ông đã gặp hậu quả của cả thiếu kiểm soát việc áp dụng AI và sự nhiệt tình không được kiểm soát của nhân viên. Điều này từ "lo lắng của người lao động và nghỉ việc tại một công ty sản xuất đến thiệt hại về danh tiếng khi agents đưa ra quyết định trái phép tại một công ty tài chính". Họ thấy kiến thức kỹ thuật, quản trị hoặc quản lý thay đổi không đầy đủ đã cản trở việc áp dụng trong một số trường hợp.
Kozyrkov, trong khi "vô cùng phấn khích về tất cả các cách AI có thể được sử dụng để thúc đẩy đổi mới", cảnh báo rằng nó phải được sử dụng một cách khôn ngoan. Quan trọng là phải có biện pháp bảo vệ và xác định rõ mục tiêu để tránh hậu quả không mong muốn. "Tương lai là mô-đun hóa. Bạn sẽ không tin tưởng con người thông minh nhất để làm mọi thứ, vậy tại sao lại tin tưởng AI?"
Cô ấy nhìn thấy con người có vai trò trung tâm, ngay cả trong tương lai với AI. "Nếu mục tiêu của bạn là loại bỏ con người nhanh nhất có thể, bạn có thể thấy mình đang loại bỏ các chức năng quan trọng của con người mà có thể không nhận ra những gì bạn đã loại bỏ." Kết quả thành công nhất, cô nói, sẽ đến với những người coi AI agents là một cách để "nâng cao người lao động" thay vì xem người lao động như "người giám sát cho hệ thống đại lý".
Thiết kế quy trình với AI trong đầu sẽ mang lại lợi thế, Kecsmar nói, khuyên các công ty nên nghĩ về việc phát triển hoặc triển khai công cụ AI-native thay vì AI-enabled. Hiệu quả của "AI bản địa" có ý nghĩa hơn cái mà ông gọi là "AI nâng cấp", nơi agents như chatbots chỉ đơn giản làm cho công việc dễ dàng hơn. Điều này có nghĩa là xây dựng khả năng AI từ đầu, không chỉ coi chúng như một phần bổ sung. Các công ty nên nghĩ về AI như một khả năng chiến lược, họ nên suy nghĩ lại các quy trình để tối ưu hóa chức năng của AI agents.
Rõ ràng là AI đang phá vỡ lực lượng lao động. Klarna, công ty fintech Thụy Điển, đã nói vào cuối năm 2024 rằng họ sẽ có thể giảm một nửa số lượng nhân viên bằng cách sử dụng AI, trong khi các công ty dịch vụ khách hàng đã thay đổi sự kết hợp giữa agents con người và AI. Ngành hậu cần cũng đã thấy ảnh hưởng của AI: Amazon đã sử dụng robot tự động trong kho của họ trong nhiều năm.
Tiềm năng cho AI agents thay thế toàn bộ các nhóm công việc có thể trì hoãn việc áp dụng chúng trong các doanh nghiệp hiện có, điều này sẽ mang lại lợi thế cho các start-up xây dựng agents vào quy trình và hệ thống. Đối với các công ty AI-native như vậy, agents sẽ được tích hợp vào quy trình công việc từ ngày một và chúng cũng sẽ hoạt động như các nhân viên ảo với chuyên môn trước đây nằm ngoài phạm vi của hầu hết các công ty nhỏ.
Kecsmar nói Antavo đã áp dụng tư duy "AI-first" này trong việc phát triển agent của mình để giúp khách hàng lập kế hoạch cho chương trình trung thành của họ. Thay vì thiết kế một công nghệ có thể nhận đầu vào từng bước để tạo chiến lược trung thành, agent tiêu hóa mục tiêu của thương hiệu và nghĩ ra kế hoạch thực hiện. Kecsmar tin các công cụ như vậy sẽ biến bất kỳ chiến lược công ty nào thành kế hoạch có thể thực hiện.
Cuối cùng AI cũng có thể giúp nghĩ ra kế hoạch để phát triển sản phẩm và thị trường, chuyển đóng góp của mình từ chi phí và hiệu quả sang lợi ích hàng đầu.
Những tiến bộ hơn nữa sẽ có thể khi agents có thể nói chuyện với nhau qua ranh giới dữ liệu và công ty. Kecsmar tin con người sau đó sẽ có thể chỉ huy agents chuyên biệt từ các nhà cung cấp khác nhau để làm việc cùng nhau thông qua một "lớp điều phối". Ví dụ, agents từ một chuyên gia tiếp thị có thể nói chuyện với những người từ điểm bán hàng và chuyên gia trung thành để đánh giá dữ liệu khách hàng và nghĩ ra một chiến dịch.
Điều này có thể đe dọa các nhà quản lý quy trình công việc ngang mà điểm bán hàng là khả năng tương tác, ví dụ như hậu cần bên thứ ba hoặc quản lý tài nguyên khách hàng. Trong một dấu hiệu về nơi mọi thứ có thể đi, Klarna nói họ sẽ từ bỏ việc sử dụng Workday và Salesforce và phát triển phần mềm riêng bằng AI.
Không phải ai cũng đồng ý. Kozyrkov nói nhiều công ty phần mềm-như-một-dịch-vụ đang xây dựng agents riêng của họ. "Sẽ có nhiều ý nghĩa hơn cho bạn khi sử dụng Agentforce thay vì xây dựng agent riêng của bạn trừ khi có lý do thuyết phục nào đó tại sao bạn không muốn một công ty mà bạn đã tin tưởng với dữ liệu đó để giúp bạn tiết kiệm thời gian sử dụng sản phẩm của họ." Kết nối agents của công ty đó với phần còn lại của doanh nghiệp của bạn là một vấn đề khác.
Rõ ràng là có tiềm năng cho việc sử dụng AI agents nhưng các công ty phải có chiến lược rõ ràng, dựa trên nhu cầu và hoàn toàn nhận thức về rủi ro và cách giảm thiểu chúng.
Đối với các công ty là người áp dụng sớm các agents tiên tiến hơn sẽ có lợi ích rất lớn. Các hệ thống này học khi chúng hoạt động, có nghĩa là chúng cải thiện theo thời gian, cung cấp nhiều lợi thế hơn các công nghệ tĩnh trước đây.
"AI agents tạo ra cái mà chúng tôi gọi là 'lợi thế trí tuệ ghép'", Bornet nói. "Những người áp dụng sớm sẽ đào tạo agents nhanh hơn, định nghĩa lại mô hình kinh doanh và phát triển chuyên môn AI", bỏ lại phía sau bất kỳ công ty nào trì hoãn.
"AI agents thực sự sẽ giúp những người biết họ cần làm gì, như thế nào khi hoàn thành và có cách để hạn chế bất ngờ," Kozyrkov nói.
OpenAI vừa công bố cho phép các nhà phát triển bên ngoài sử dụng Reinforcement Fine-Tuning (RFT) để tinh chỉnh mô hình ngôn ngữ o4-mini theo mục tiêu, quy trình và dữ liệu nội bộ doanh nghiệp.
RFT giúp tạo ra một phiên bản AI riêng có thể tích hợp vào hệ thống chatbot, ứng dụng nội bộ hoặc truy vấn tri thức công ty mà không cần đào tạo lại toàn bộ mô hình từ đầu.
Khác với học có giám sát (SFT), RFT sử dụng mô hình chấm điểm để đánh giá nhiều phản hồi và cập nhật trọng số mô hình dựa trên chất lượng phản hồi thay vì đáp án cố định.
Tổ chức có thể xác định logic chấm điểm tùy chỉnh hoặc dùng mô hình chấm điểm sẵn như GPT-4.1, và cấu hình quá trình đào tạo dễ dàng qua API hoặc dashboard của OpenAI.
RFT hiện chỉ hỗ trợ các mô hình o-series, bắt đầu với o4-mini – một mô hình lý luận nhẹ nhưng hiệu quả, phù hợp cho các ứng dụng doanh nghiệp cần kiểm soát đầu ra và ngôn ngữ chuyên biệt.
Các ứng dụng thành công gồm:
Accordance AI cải thiện 39% độ chính xác khi phân tích thuế
Ambience Healthcare tăng 12 điểm trong mã hóa ICD-10
Harvey nâng độ chính xác trích xuất trích dẫn pháp lý lên 20%
Runloop tăng 12% hiệu quả sinh mã API Stripe
Milo cải thiện lịch trình phức tạp lên đến 25 điểm
SafetyKit tăng F1 về kiểm duyệt nội dung từ 86% lên 90%
Chi phí RFT tính theo thời gian đào tạo thực tế: 100 USD/giờ, tính theo từng giây. Các mô hình chấm điểm (nếu dùng GPT) được tính riêng theo mức giá API tiêu chuẩn.
Ví dụ chi phí:
4 giờ huấn luyện = 400 USD
1,75 giờ = 175 USD
2 giờ huấn luyện + 1 giờ lỗi = 200 USD
Để tiết kiệm chi phí, nên bắt đầu bằng tập dữ liệu nhỏ, sử dụng trình chấm điểm nhẹ và giảm kiểm tra không cần thiết.
OpenAI còn hỗ trợ giảm 50% chi phí cho các đội ngũ chia sẻ tập dữ liệu huấn luyện với công ty.
RFT đặc biệt phù hợp với các tổ chức có yêu cầu cụ thể, đầu ra có cấu trúc rõ ràng, và nhu cầu tuân thủ cao – ví dụ như tài chính, pháp lý, chăm sóc sức khỏe hoặc điều hành nội bộ.
Ngoài RFT, OpenAI cũng triển khai SFT cho mô hình GPT-4.1 nano – lựa chọn nhanh và tiết kiệm nhất hiện tại cho đào tạo tùy chỉnh.
📌 OpenAI mở quyền tinh chỉnh mô hình o4-mini bằng RFT, cho phép doanh nghiệp tạo AI theo “chất riêng” với chi phí 100 USD/giờ. Các ứng dụng ban đầu cho thấy độ chính xác tăng tới 39%. Với RFT, doanh nghiệp có thể triển khai AI hiệu quả mà không cần hạ tầng RL phức tạp.
https://venturebeat.com/business/you-can-now-fine-tune-your-enterprises-own-version-of-openais-o4-mini-reasoning-model-with-reinforcement-learning/
Theo báo cáo của Salesforce, tỷ lệ triển khai tác nhân AI (AI agent) dự kiến sẽ tăng 327% từ năm 2025 đến 2027, giúp các doanh nghiệp tăng 30% năng suất lao động và giảm 19% chi phí nhân công.
Đến năm 2030, 80% giám đốc nhân sự (CHRO) tin rằng lao động con người và AI sẽ cộng tác chặt chẽ trong mọi công ty, tạo nên cấu trúc tổ chức mới.
Khái niệm “cognitive download” là khi AI thay thế công việc trí tuệ đơn giản như tính toán, tìm thông tin, điều hướng…, giúp tiết kiệm thời gian nhưng dễ làm suy giảm khả năng tư duy độc lập nếu lạm dụng.
Ngược lại, “cognitive upgrade” là sử dụng AI để nâng cấp kỹ năng tư duy như sáng tạo, chiến lược, ra quyết định… Ví dụ: AI giúp phân tích dữ liệu phức tạp, hỗ trợ huấn luyện kỹ năng hoặc đưa ra góc nhìn đa chiều.
Salesforce đang thực hiện chiến lược kép: để AI tự động xử lý các tác vụ đầu kênh như chốt lịch, trả lời câu hỏi, đồng thời sử dụng AI huấn luyện kỹ năng bán hàng thông qua các phiên mô phỏng tương tác thực tế.
Công ty còn triển khai AI career coach giúp nhân viên định hướng nghề nghiệp, với 28% người dùng nền tảng này đã nộp đơn ứng tuyển nội bộ.
AI cần được triển khai để tăng khả năng sáng tạo, không chỉ thay thế con người. Doanh nghiệp nên dùng AI cho công việc giá trị thấp (download) và dành nguồn lực con người cho công việc giá trị cao (upgrade).
Giá trị doanh nghiệp cũng cần “nâng cấp” như kỹ năng: không phải là trụ cột bất biến mà là “cơ bắp” – càng luyện tập càng mạnh mẽ. AI có thể giúp doanh nghiệp luyện tập và thể hiện giá trị như lòng tin, đổi mới, đạo đức.
Ví dụ, nếu công ty coi “niềm tin” là giá trị cốt lõi, thay vì kiểm soát chặt chẽ, cần trao quyền cho nhân viên để thực hành niềm tin thực tế.
AI nên được dùng không chỉ để nâng cao năng lực (competence) mà cả tính cách và văn hóa tổ chức (character), từ đó tạo ra tăng trưởng bền vững.
📌 Tác nhân AI sẽ tăng 327% trong hai năm tới, giúp tăng 30% năng suất và giảm 19% chi phí lao động. Doanh nghiệp thông minh sử dụng AI để giảm tải công việc đơn giản và nâng cao kỹ năng, tư duy và cả giá trị cốt lõi – coi AI như đối tác phát triển toàn diện thay vì chỉ là công cụ tự động hóa.
https://www.zdnet.com/article/why-smart-businesses-use-ai-to-offload-tasks-and-supercharge-their-teams/
Small Language Model (SLM) là mô hình AI được huấn luyện với dữ liệu nhỏ (dưới 10 tỷ tham số), tối ưu cho các tác vụ cụ thể như phân tích phản hồi khách hàng, tạo mô tả sản phẩm, hay xử lý ngôn ngữ chuyên ngành.
Nhờ dung lượng nhỏ và yêu cầu tính toán thấp, SLM có thể chạy trên thiết bị di động, IoT và không cần kết nối đám mây, giúp tiết kiệm năng lượng và tăng tốc độ xử lý.
Các ứng dụng thực tế của SLM bao gồm: kỹ sư hiện trường sử dụng SLM để tra cứu tài liệu kỹ thuật mà không cần internet; nhân viên bán hàng truy xuất dữ liệu nhạy cảm tại điểm gặp khách hàng; bác sĩ phân tích dữ liệu bệnh nhân tại chỗ nhằm đảm bảo quyền riêng tư.
Doanh nghiệp không thay thế hoàn toàn LLM bằng SLM mà sử dụng kết hợp, tạo danh mục mô hình theo từng kịch bản cụ thể: LLM đảm nhận chiến lược vĩ mô, còn SLM xử lý các nhiệm vụ bộ phận cụ thể như phản hồi mạng xã hội, mô tả sản phẩm...
Tuy hiệu quả, SLM vẫn có giới hạn: kém chính xác với ngôn ngữ phức tạp, kiến thức hạn chế, dễ sinh lỗi như LLM và đòi hỏi đội ngũ chuyên môn để huấn luyện và vận hành.
Quản lý và bảo mật vẫn là yếu tố then chốt: doanh nghiệp cần chính sách AI rõ ràng, chuyên gia dữ liệu, và bộ phận kiểm soát rủi ro – kể cả với mô hình nhỏ.
Vấn đề chi phí cũng cần lưu ý: nếu dùng đồng thời nhiều SLM, chi phí tài nguyên (GPU, điện, bảo trì) có thể cao hơn một LLM duy nhất phục vụ nhiều mục đích.
Trước khi chọn SLM, doanh nghiệp cần xem xét: quy mô và tính ổn định dữ liệu, độ chính xác cần thiết, và nhu cầu mở rộng trong tương lai.
Trong tương lai, danh mục AI lý tưởng sẽ là sự pha trộn giữa LLM và nhiều SLM, tùy theo từng tình huống kinh doanh cụ thể.
📌 SLM giúp doanh nghiệp tiết kiệm chi phí, tăng tốc độ xử lý và bảo mật dữ liệu cục bộ – lý tưởng cho các tác vụ chuyên biệt. Dù không thay thế LLM, SLM đóng vai trò thiết yếu trong chiến lược AI đa mô hình, giúp phân bổ tài nguyên hiệu quả và đáp ứng nhiều nhu cầu kinh doanh khác nhau.
https://www.forbes.com/sites/sap/2025/05/09/how-small-language-models-deliver-big-business-benefits/
Tại hội nghị Knowledge 2025 ở Las Vegas, ServiceNow tuyên bố sản phẩm AI tạo sinh Now Assist dự kiến đạt giá trị hợp đồng hàng năm (ACV) 1 tỷ USD vào năm 2026, tăng mạnh từ mức hiện tại 250 triệu USD.
CFO Gina Mastantuono nhấn mạnh: khách hàng chi tiêu tăng 60% sau khi nâng cấp lên phiên bản có tích hợp AI – cho thấy đây là dòng doanh thu thực tế, không còn là "từ khóa tiếp thị".
ServiceNow đã vượt mặt cả 4 ông lớn CNTT Ấn Độ (TCS, Infosys, Wipro, HCLTech) về tăng trưởng doanh thu quý 1/2025: 3,005 tỷ USD, tăng 19% YoY, trong khi nhiều công ty Ấn chỉ tăng trưởng lẹt đẹt hoặc không tiết lộ doanh thu liên quan đến AI.
Hãng cũng vừa ra mắt AI Platform để tích hợp bất kỳ mô hình hoặc agent AI vào hệ thống doanh nghiệp, với đối tác chiến lược gồm Microsoft, NVIDIA, Google và Oracle.
Họ cũng hợp tác NVIDIA phát triển Nemotron 15B, mô hình ngôn ngữ tối ưu hiệu suất và chi phí. Ngoài ra, CRM nền tảng AI-first của hãng đạt ACV 1.4 tỷ USD, tăng 30% YoY – sản phẩm phát triển nhanh nhất.
CEO Bill McDermott cho biết số lượng thỏa thuận Pro Plus (dùng Now Assist) đã gấp 4 lần, 39 giao dịch gồm 3 sản phẩm AI trở lên, và 15/20 giao dịch lớn nhất đều tích hợp Pro Plus.
Trong khi đó, các công ty Ấn Độ liên tục nhắc đến AI trong các cuộc họp thu nhập, nhưng không đưa ra số liệu doanh thu cụ thể. TCS có hơn 150 giải pháp AI agent nhưng chỉ tăng trưởng 0.8%. Infosys làm 400 dự án GenAI nhưng từ chối tiết lộ doanh thu.
Accenture thì công bố rõ ràng: 1,4 tỷ USD doanh thu từ GenAI trong quý 2 FY25, chiếm gần 7% tổng đơn hàng.
Theo Paul Smith (cựu Chủ tịch toàn cầu của ServiceNow), nguyên nhân khiến AI của IT Ấn kém hiệu quả là do "mắc kẹt trong các thử nghiệm nhỏ lẻ" – chạy nhiều dự án rời rạc, không gắn AI vào nền tảng doanh nghiệp.
Ông nhấn mạnh: “Đầu tư thử nghiệm mất công sức như triển khai toàn bộ hệ thống – hãy đặt cược vào nền tảng. AI chỉ hiệu quả khi kết nối với hệ thống để hành động.”
HCLTech có bước tiến nhỏ, công bố 12 hợp đồng GenAI trong quý 4 và 500 dự án trên 400 khách hàng. Tech Mahindra ra mắt LLM Indic đầu tiên của Ấn (Project Indus) nhưng không tiết lộ tác động tài chính.
📌 ServiceNow chứng minh AI không chỉ là khẩu hiệu mà là một dòng doanh thu thực tế trị giá 1 tỷ USD vào 2026, trong khi các ông lớn CNTT Ấn vẫn quanh quẩn ở các thử nghiệm và tuyên bố sáo rỗng. Bài học là rõ ràng: tập trung vào tích hợp AI vào nền tảng doanh nghiệp, thay vì triển khai phân tán và thiếu kết nối, chính là cách duy nhất để AI mang lại giá trị thật.
https://analyticsindiamag.com/it-services/servicenows-1-billion-ai-lesson-for-indian-it/
Tại hội nghị Directions thường niên lần thứ 60 của IDC, nhà phân tích Marlanna Bozicevich chia sẻ mô hình Enterprise Intelligence Architecture (Kiến trúc Trí tuệ Doanh nghiệp) gồm 4 tầng dữ liệu để giúp tổ chức sẵn sàng cho AI.
Bốn tầng gồm: data plane (dữ liệu thô), data control plane (quản lý dữ liệu), data synthesis plane (tổng hợp dữ liệu), và business activity plane (hoạt động kinh doanh).
AI được xem là công cụ tăng năng suất trong quản lý dữ liệu, thông qua tự động hóa tác vụ lặp lại, giao diện ngôn ngữ tự nhiên và AI tác nhân (agentic AI) có khả năng hành động tự chủ.
Ba mục tiêu chính của lãnh đạo CNTT trong AI là: nâng cao năng suất, đảm bảo AI có trách nhiệm, và triển khai AI tác nhân.
Marlanna nhấn mạnh cần hiểu AI không chỉ tiêu thụ dữ liệu, mà còn có thể cải thiện chất lượng dữ liệu bằng cách hỗ trợ các vai trò như kỹ sư dữ liệu, nhà khoa học dữ liệu và quản lý dữ liệu.
Khái niệm "AI for data / data for AI" cho thấy sự liên kết hai chiều: AI giúp cải thiện quy trình dữ liệu, trong khi dữ liệu sạch giúp AI hoạt động hiệu quả hơn trên toàn tổ chức.
Bà cũng đề xuất cần xem dữ liệu như một sản phẩm, tức là dữ liệu phải có chất lượng, tiêu chuẩn hóa và khả năng trao đổi giữa các AI agents.
Để triển khai AI mang lại ROI, doanh nghiệp phải đầu tư vào cấu trúc dữ liệu có thể học liên tục và cộng tác quy mô lớn, thúc đẩy văn hóa dữ liệu và nâng cao hiểu biết về dữ liệu trong tổ chức.
Kiến trúc này là cầu nối giữa dữ liệu và kết quả kinh doanh, đảm bảo dữ liệu được thu thập, xử lý, lưu trữ và truy cập một cách hiệu quả và phù hợp với mục tiêu AI.
📌 Để AI tạo sinh mang lại hiệu quả thực tế, tổ chức phải đầu tư vào Enterprise Intelligence Architecture với 4 tầng dữ liệu cốt lõi. Mô hình này giúp xử lý và sử dụng dữ liệu một cách chiến lược, thúc đẩy năng suất, chuẩn hóa dữ liệu như sản phẩm và tạo ra nền tảng cho AI tác nhân hoạt động hiệu quả trong toàn doanh nghiệp.
https://www.cio.com/article/3978635/how-to-build-an-ai-ready-organization-the-enterprise-intelligence-architecture.html?amp=1
Zalando – nhà bán lẻ thời trang trực tuyến hàng đầu châu Âu – đang sử dụng AI tạo sinh để tạo hình ảnh cho ứng dụng và website nhanh chóng hơn, nhằm theo kịp các xu hướng thời trang lan truyền trên mạng xã hội.
Nhờ AI, thời gian sản xuất hình ảnh rút ngắn từ 6-8 tuần xuống chỉ còn 3-4 ngày, đồng thời chi phí giảm tới 90%.
Trong quý 4 năm ngoái, khoảng 70% hình ảnh trong các chiến dịch biên tập của Zalando được tạo bằng AI.
Zalando cũng đang phát triển "digital twins" – bản sao kỹ thuật số 3D của người mẫu – để sử dụng cho cả chiến dịch quảng bá lẫn trang sản phẩm, giúp tiết kiệm công đoạn chụp ảnh hàng loạt.
Các digital twins này có thể hiển thị người mẫu giống hệt trong các tình huống khác nhau mà không cần phải chụp thêm.
Một số xu hướng thời trang được AI mô phỏng và minh họa trong chiến dịch cuối năm của Zalando gồm “brat summer”, “mob wife”, và “double denim”.
AI không tạo ra nội dung tốt hơn người thật, nhưng lại có khả năng tạo ra nội dung liên quan và kịp thời hơn, tăng tương tác người dùng đáng kể.
Đại diện Zalando – ông Matthias Haase – cho biết AI không thay thế sáng tạo mà mở rộng khả năng cho người sáng tạo, ví dụ như “thay vì có hai tay, giờ có 6 tay”.
Các thương hiệu lớn như H&M cũng đã triển khai digital twins cho người mẫu từ tháng 3/2025, hợp tác cùng các công ty người mẫu.
Dù AI thay đổi cách làm việc, Zalando khẳng định nhiếp ảnh gia và đội sáng tạo vẫn đóng vai trò quan trọng, nhưng sẽ cần thích nghi với công cụ AI mới.
📌 Zalando đang cách mạng hóa marketing thời trang với AI tạo sinh, giúp giảm 90% chi phí và rút ngắn thời gian sản xuất hình ảnh xuống còn vài ngày. Khoảng 70% hình ảnh quảng bá quý 4/2024 được tạo bằng AI, bao gồm cả người mẫu số “digital twins”. Dù AI không thay thế sáng tạo con người, các chuyên gia ngành cần học cách tích hợp công nghệ để mở rộng khả năng sáng tạo và thích ứng với xu hướng mới.
https://www.reuters.com/business/media-telecom/zalando-uses-ai-speed-up-marketing-campaigns-cut-costs-2025-05-07/
IBM công bố hệ sinh thái agentic AI tại hội nghị Think 2025, nhằm hỗ trợ doanh nghiệp vượt qua giai đoạn thử nghiệm để tiến tới triển khai AI thực tế với ROI rõ ràng.
CEO Arvind Krishna cho biết hơn 1 tỷ ứng dụng sẽ được tạo ra bằng AI tạo sinh trong vài năm tới, nhờ vào khả năng tiết kiệm chi phí, tăng năng suất và thúc đẩy doanh thu.
Trung tâm của chiến lược này là nền tảng watsonx, giờ được mở rộng với các khả năng:
AI Agent Catalog: thư viện tác tử AI sẵn dùng.
Agent Connect: tích hợp tác tử bên thứ ba.
Mẫu tác tử chuyên biệt cho bán hàng, nhân sự, mua sắm.
Công cụ tạo tác tử không cần mã và bộ công cụ phát triển chuyên sâu.
Orchestrator đa tác tử và Agent Ops (hiện đang thử nghiệm riêng).
IBM tập trung vào giải quyết 3 vấn đề chính cản trở ROI AI:
Truy cập dữ liệu nội bộ bị giới hạn.
Hệ thống ứng dụng bị phân mảnh.
Hạ tầng kết hợp khó tích hợp.
IBM đang mở rộng hỗ trợ chuẩn MCP (Model Context Protocol), cho phép tác tử từ các nền tảng như Langchain, Crew AI… tích hợp trực tiếp vào watsonx.
Khả năng cộng tác giữa các tác tử, đảm bảo bảo mật – tuân thủ – khả năng quan sát là điểm khác biệt của IBM.
Với hơn 100 chỉ số theo dõi hiệu suất, IBM áp dụng khung đánh giá LLM lên AI tác tử để đảm bảo kiểm soát chất lượng.
Trong nội bộ IBM, AI tác tử đã xử lý 94% yêu cầu nhân sự và giảm 70% thời gian mua sắm, cho thấy tác động thực tế rõ rệt.
Các đối tác như Ernst & Young cũng đang xây dựng nền tảng thuế sử dụng AI tác tử IBM cho khách hàng doanh nghiệp.
Các doanh nghiệp muốn triển khai AI hiệu quả cần chú trọng tới:
Khả năng tích hợp với hệ thống hiện tại.
Cơ chế quản trị tác tử rõ ràng.
Cân bằng giữa tự động hóa và kiểm soát.
Khả năng đo lường ROI cụ thể.
IBM kỳ vọng các doanh nghiệp sẽ không chỉ tạo tác tử riêng lẻ, mà còn xây dựng toàn bộ hệ sinh thái tác tử cộng tác, kết nối và đo lường rõ ràng, tạo bước nhảy vọt cho ứng dụng AI doanh nghiệp.
📌 IBM tiên phong xu hướng agentic AI, hướng tới hơn 1 tỷ ứng dụng AI mới, với nền tảng watsonx Orchestrate hỗ trợ tạo – tích hợp – kiểm soát tác tử AI một cách mở, bảo mật và có ROI rõ ràng. Tác tử AI của IBM đã giúp giảm tới 70% thời gian quy trình, mở ra kỷ nguyên hệ thống AI cộng tác trong doanh nghiệp.
https://venturebeat.com/ai/agents-are-key-to-enterprise-ai-success-heres-ibms-plan-on-how-to-make-it-happen/
Tình trạng hỗn loạn trong tuyển dụng xảy ra khi cả nhà tuyển dụng lẫn ứng viên đều sử dụng AI – bên để lọc hồ sơ, bên để "qua mặt" hệ thống.
Ứng viên hiện sử dụng ChatGPT để viết đơn xin việc tự động, trả lời phỏng vấn video không đồng bộ, thậm chí vượt qua bài kiểm tra kỹ năng bằng AI.
Một khảo sát năm ngoái trên 1.500 ứng viên cho thấy 31% nam giới dùng công cụ AI có phí, so với 18% nữ giới, tạo ra sự bất công mới trong tiếp cận công nghệ.
Các công ty từ lâu đã dùng AI trong tuyển dụng, nhưng khi ứng viên cũng dùng lại AI, quy trình trở nên quá tải và mất tính hiệu quả.
Những công cụ như HireVue – đánh giá video phỏng vấn bằng AI – thường bị ứng viên cảm thấy “vô nhân tính” và gây áp lực tinh thần nặng nề.
Một người từng phải làm bài phỏng vấn từ khách sạn bằng iPad trên vali, sau đó “ngồi khóc một mình trong phòng” vì làm hỏng bài với công ty mơ ước.
Trên TikTok, nhiều video hướng dẫn cách dùng ChatGPT để đọc lời giải trực tiếp trong phỏng vấn video, qua mặt hệ thống một cách dễ dàng.
Các bài kiểm tra kỹ năng đang dần trở nên thiếu tin cậy, và những ứng viên không có điều kiện mua AI cao cấp sẽ bị tụt lại phía sau.
Một số bài kiểm tra trò chơi hoặc phỏng vấn trực tiếp đang được xem xét quay lại để hạn chế gian lận.
Neurosight, công ty cung cấp công cụ chống ChatGPT, cho biết đang ghi nhận sự tụt giảm điểm đáng kể của phụ nữ, người da đen và nhóm có chỉ số kinh tế thấp trong các bài test – có thể do thiếu công cụ hỗ trợ.
Các chuyên gia cho rằng giải pháp nằm ở việc kết hợp AI với con người, chứ không thể trông cậy vào AI hoàn toàn để loại bỏ thiên vị hoặc gian lận.
Ngay cả HireVue cũng khuyến nghị nên có giai đoạn phỏng vấn trực tiếp để xác thực kỹ năng ứng viên.
Vấn đề ở đây là: AI không giải quyết được hoàn toàn mâu thuẫn giữa công bằng và hiệu quả, mà đôi khi lại tạo ra những vấn đề sâu sắc hơn.
📌 Cuộc đua AI trong tuyển dụng đang trở thành hỗn loạn khi cả nhà tuyển dụng lẫn ứng viên đều dùng công nghệ để “đánh lừa” hệ thống. Với 31% nam dùng AI trả phí so với 18% nữ, sự bất bình đẳng mới xuất hiện. Dù được kỳ vọng tăng tính công bằng, AI đang làm quy trình mất nhân tính và thiếu hiệu quả – buộc các công ty phải suy nghĩ lại về vai trò của con người trong tuyển dụng.
https://www.ft.com/content/43cd01f9-ab95-4691-bc74-2403c87f5c17
#FT
Các công ty đã sử dụng sàng lọc tự động từ trước, nhưng việc ứng viên áp dụng các công cụ này hiện đang gây ra vấn đề
Sarah O'Connor
Bạn có thể hầu như nghe thấy tiếng gào thét thất vọng từ các phòng Nhân sự. Những người tìm việc đã khám phá ra trí tuệ nhân tạo và họ không ngại sử dụng nó. Nhà tuyển dụng đã bị ngập trong hồ sơ từ những người sử dụng các công cụ mới để tạo ra các đơn xin việc vô hồn. Một số ứng viên cũng đang sử dụng AI để đánh lừa trong các bài đánh giá trực tuyến. FT đã đưa tin rằng nhiều nhà tuyển dụng lớn có "thái độ không khoan nhượng đối với việc sử dụng AI".
Tôi chắc rằng điều đó sẽ là tin mới đối với các ứng viên, những người đã phải chịu đựng việc các nhà tuyển dụng lớn sử dụng AI trong nhiều năm. Thật vậy, những người tìm việc hoàn toàn có quyền nói: nhưng các bạn đã bắt đầu điều đó.
Giống như nhiều câu chuyện cảnh báo, câu chuyện này bắt đầu với những ý định tốt. Trong những năm 2010, các nhà tuyển dụng đã triển khai các công cụ tuyển dụng tự động mới để sàng lọc ứng viên trước các cuộc phỏng vấn vì họ muốn làm cho quy trình hiệu quả hơn và công bằng hơn, với ít rủi ro về thiên vị của con người.
"Phỏng vấn video không đồng bộ", ví dụ, liên quan đến việc các ứng viên trả lời câu hỏi một mình trước webcam mà không có con người ở phía bên kia. Thường thì một hệ thống AI đánh giá các phản hồi của họ. Nhưng tôi chưa bao giờ gặp một người tìm việc nào thích chúng.
Năm 2021, tôi đã viết về nghiên cứu cảnh báo rằng người trẻ cảm thấy bối rối, mất tính người hóa và kiệt sức bởi các công cụ mới. Tôi đã nhận được rất nhiều phản hồi. "Tôi đã thực hiện một trong những điều này và đó là trải nghiệm khó khăn và nhục nhã nhất mà tôi từng gặp phải," một người đàn ông lớn tuổi đã viết. "Một cuộc phỏng vấn tự nó đã đủ khó đối với người lần đầu tiên tham gia thị trường việc làm sau nhiều năm, nhưng sau đó bạn lại ném điều này vào họ. Tôi không ngại nói rằng tôi đang đi du lịch và đã thực hiện một cuộc phỏng vấn từ khách sạn (không phải là thiết lập lý tưởng với iPad của tôi đặt trên vali) cho một công ty mà tôi đã mơ ước trong 30 năm. Áp lực quá lớn, tôi đã làm hỏng nó." Sau đó, ông ấy nói, ông đã ngồi trong phòng khách sạn và khóc.
Vì vậy, không có gì ngạc nhiên khi những người tìm việc đã chuyển sang các công cụ AI tạo sinh mới như ChatGPT để tăng tốc hoặc "chơi trò chơi" với một quy trình đã cảm thấy mất tính người. Các video thậm chí đã xuất hiện trên TikTok trong đó mọi người thể hiện cách sử dụng ChatGPT để cung cấp câu trả lời cho các câu hỏi trong phỏng vấn video không đồng bộ, mà ứng viên sau đó chỉ đơn giản đọc ra.
Dù vậy, cuộc chạy đua vũ trang AI tiếp theo rõ ràng là không tốt cho bất kỳ ai. Nó được cho là sẽ cải thiện hiệu quả và công bằng. Nó đã trở thành mối đe dọa cho cả hai.
Về mặt hiệu quả, các nhà tuyển dụng phàn nàn họ bị ngập trong các đơn xin việc, điều này chỉ thúc đẩy thêm nhiều sự từ chối. "Tôi ngần ngại nói rằng nó phá vỡ hệ thống, bởi vì nó không bị hỏng, nhưng nó có nghĩa là bạn sẽ nhận được ngày càng nhiều đơn xin việc," Stephen Isherwood, đồng giám đốc điều hành tại Viện Nhà tuyển dụng Sinh viên, nói với tôi. Các nhà tuyển dụng cũng gặp khó khăn hơn trong việc tìm ứng viên tốt nhất vì một số người đang sử dụng AI để nâng cao điểm số trong các bài kiểm tra kỹ năng của họ.
Việc tiếp cận không đồng đều với các mô hình AI trả phí hoạt động tốt nhất trong các đánh giá tuyển dụng cũng có thể đang thúc đẩy một loại bất công mới. Jamie Betts, người sáng lập công ty đánh giá Neurosight, nói với tôi rằng cuộc khảo sát của họ với 1.500 người tìm việc năm ngoái phát hiện ra rằng 31% nam giới đang sử dụng công cụ AI trả phí, so với 18% nữ giới.
Đáng lưu ý rằng Neurosight bán một công cụ mà họ tiếp thị là không bị ảnh hưởng bởi ChatGPT, vì vậy Betts có một số lợi ích trong việc đưa ra điểm này. Tuy nhiên, ông nói rằng công ty của ông gần đây đã hoàn thành phân tích về một bài kiểm tra lý luận phê phán nổi tiếng cho một công ty dịch vụ chuyên nghiệp toàn cầu. "Qua từng năm, điều chúng tôi thấy là sự gia tăng đáng kể trong [tương đối] hiệu suất kém giữa các cá nhân da đen, nữ giới và [những người có] chỉ số kinh tế xã hội như liệu bạn có được ăn trưa học đường miễn phí hay không."
Giải pháp là gì? Một số đánh giá trực tuyến, hiện tại, ít bị tổn thương hơn trước việc sử dụng AI, chẳng hạn như những đánh giá liên quan đến việc chơi các trò chơi ngắn. Nhưng tôi sẽ không ngạc nhiên khi thấy sự trở lại của các trung tâm kiểm tra trực tiếp hàng loạt để đánh giá kỹ năng kỹ thuật. Isherwood và Betts đều nói rằng các nhà tuyển dụng cũng đang nghĩ đến việc đưa yếu tố con người trở lại sớm hơn trong quy trình.
Thậm chí HireVue, một nhà cung cấp lớn các cuộc phỏng vấn video không đồng bộ, đã viết trong một bài báo năm ngoái: "Một trong những cách tốt nhất để giảm hành vi gian lận thuộc mọi loại là sử dụng quy trình làm việc nhiều giai đoạn trong đó kiến thức, kỹ năng và khả năng của ứng viên được xác nhận bởi người phỏng vấn trong một môi trường phỏng vấn trực tiếp."
Liệu có sự đánh đổi với sự thiên vị và tính nhất quán? Có lẽ vậy. Nhưng nếu có một bài học từ câu chuyện cảnh báo này, đó là công nghệ không thể chỉ đơn giản biến mất sự đánh đổi. Những giải pháp có vẻ đơn giản cho các vấn đề khó khăn thường không tồn tại lâu dài.
AI tạo sinh đã vượt qua bảo mật trở thành ưu tiên ngân sách công nghệ số 1 cho 45% doanh nghiệp năm 2025, theo khảo sát AWS trên 3.739 lãnh đạo CNTT tại 9 quốc gia.
Dù chỉ 30% doanh nghiệp ưu tiên bảo mật, các chuyên gia AWS vẫn nhận định bảo mật chưa hề giảm tầm quan trọng, mà do AI tạo sinh mở ra nhiều bài toán mới cần giải quyết.
90% doanh nghiệp đã triển khai AI tạo sinh dưới nhiều hình thức; 44% đã vượt qua giai đoạn thử nghiệm, bước vào ứng dụng thực tế.
60% tổ chức đã bổ nhiệm Giám đốc AI (Chief AI Officer), thêm 26% sẽ làm trong năm 2026. Dù vậy, gần 25% doanh nghiệp sẽ chưa có chiến lược chuyển đổi AI cụ thể tới năm 2026.
Trung bình mỗi công ty thử nghiệm 45 sản phẩm AI trong năm 2024, nhưng chỉ khoảng 20 dự kiến tiếp cận người dùng trong năm 2025. Nguyên nhân chủ yếu: thiếu hụt nhân lực AI (55% doanh nghiệp nêu là rào cản lớn nhất).
92% doanh nghiệp lên kế hoạch tuyển nhân tài AI trong 2025; 56% đã triển khai chương trình đào tạo AI tạo sinh nội bộ, 19% sẽ bổ sung tiếp. Một phần tư doanh nghiệp sẽ yêu cầu kỹ năng AI cho ít nhất 50% vị trí tuyển mới.
Chỉ 25% công ty chọn tự phát triển AI từ đầu; đa số ưu tiên xây dựng ứng dụng tùy chỉnh dựa trên mô hình có sẵn (58%), hoặc tận dụng mô hình đã được tinh chỉnh (55%). Lĩnh vực tài chính bắt đầu chuyển sang giải pháp “ngoài hộp” thay cho phát triển độc quyền.
Ấn Độ dẫn đầu tỷ lệ ưu tiên AI tạo sinh với 64%, Hàn Quốc 54%, Mỹ 44% - vượt mức trung bình toàn cầu. Các nước Tây Âu có tỷ lệ thấp hơn.
65% doanh nghiệp dựa vào đối tác thứ ba để đẩy nhanh triển khai AI trong năm 2025, chỉ 35% hoàn toàn dùng nguồn lực nội bộ.
AWS cảnh báo: doanh nghiệp nào chậm áp dụng AI tạo sinh sẽ bị tụt hậu, do chi phí, công nghệ và tốc độ cải tiến AI đang rút ngắn nhanh chóng.
📌 Năm 2025 đánh dấu bước ngoặt: AI tạo sinh trở thành lựa chọn ngân sách công nghệ hàng đầu cho 45% doanh nghiệp toàn cầu; hơn 90% đã ứng dụng AI tạo sinh, nhưng khoảng 55% vẫn vật lộn với bài toán thiếu hụt nhân lực. Cạnh tranh chuyển dần sang tốc độ vận dụng AI tạo sinh vào thực tiễn để bứt phá.
https://venturebeat.com/ai/aws-report-generative-ai-overtakes-security-in-global-tech-budgets-for-2025/
UnitedHealth vận hành 1.000 ứng dụng AI trên 3 lĩnh vực: bảo hiểm, y tế và nhà thuốc, với hơn 20.000 kỹ sư sử dụng AI để phát triển phần mềm.
Khoảng 50% các ứng dụng sử dụng AI tạo sinh, 50% còn lại dùng AI truyền thống, tăng khả năng tiếp cận dịch vụ chăm sóc sức khỏe.
Mỗi năm, UnitedHealth tự động xét duyệt hơn 90% khiếu nại bảo hiểm bằng phần mềm, chủ yếu không dùng AI mà dựa vào tự động hóa quy tắc. Trường hợp đặc biệt mới hỗ trợ bởi machine learning.
10% khiếu nại còn lại (do thiếu thông tin) sẽ được AI tạo sinh hỗ trợ tra cứu, truy tìm dữ liệu từ nhiều nền tảng, sau đó chuyển cho chuyên viên quyết định nếu không đủ dữ liệu.
UnitedHealth cam kết AI không tự động từ chối quyền lợi; chỉ hướng dẫn, hỗ trợ nhân viên quyết định hoặc xử lý dữ liệu.
Bị dư luận và pháp lý soi xét gay gắt do cái chết của một lãnh đạo và bị điều tra liên bang về gian lận Medicare, cùng một vụ kiện tập thể về thuật toán AI bị cho là gây từ chối quyền lợi thiếu công bằng.
Ứng dụng chatbot AI phục vụ 18 triệu lượt tìm bác sĩ trong quý I/2025: nhập triệu chứng như “đau bụng”, chatbot gợi ý bác sĩ phù hợp.
Công cụ AI của Optum tự động ghi âm, chuyển lời nói thành văn bản trong thăm khám (có sự đồng ý của bệnh nhân).
AI còn giúp phát hiện nguy cơ chưa chẩn đoán trên hồ sơ bệnh án, nâng hiệu quả chẩn đoán lên gấp đôi (tăng 2 lần).
Công tác kiểm duyệt, đánh giá AI diễn ra liên tục bởi hội đồng “AI có trách nhiệm” gồm 20-25 chuyên gia đa ngành (y, luật, công nghệ, đạo đức, bảo mật).
Dù AI hấp dẫn, UnitedHealth giữ quan điểm triển khai thận trọng, ưu tiên giảm gánh nặng thủ tục, tăng trải nghiệm khách hàng, và hướng tới cung cấp giải pháp cho các doanh nghiệp y tế khác.
📌 UnitedHealth đang vận hành 1.000 ứng dụng AI, tự động xử lý hơn 90% yêu cầu bảo hiểm, hỗ trợ 18 triệu lượt tìm kiếm bác sĩ chỉ trong 3 tháng đầu 2025. Công ty cam kết AI không tự động từ chối quyền lợi nhưng vẫn bị điều tra gian lận và kiện tụng do lo ngại thuật toán thiếu công bằng.
https://www.wsj.com/articles/unitedhealth-now-has-1-000-ai-use-cases-including-in-claims-f3387ca3
#WSJ
Salesforce triển khai công cụ AI Career Agent trên Slack để tư vấn phát triển nghề nghiệp và giới thiệu vai trò mới cho nhân viên.
Công cụ này phân tích kỹ năng từ lịch sử công việc hiện tại, đề xuất lộ trình sự nghiệp cá nhân hóa, kết nối với chương trình đào tạo, mentor và cơ hội việc làm phù hợp.
Năm 2024, Salesforce thử nghiệm nền tảng Career Connect với 1.200 nhân viên trên các nhóm thành công khách hàng, thành công nhân viên và công nghệ doanh nghiệp. 74% nhân viên tham gia chủ động sử dụng nền tảng, trong đó gần 40% đăng ký đào tạo do AI gợi ý.
28% người dùng thử nghiệm đã ứng tuyển vào các vị trí mới, hơn 90% vai trò được lấp đầy do nhân viên tìm thấy nhờ nền tảng này.
Brooke Grant, từng là quản lý thay đổi, được AI Career Agent đề xuất sang vị trí sales enablement dù chưa có kinh nghiệm trực tiếp, nhờ kỹ năng chuyển đổi được nhận diện, tăng sự tự tin nộp đơn.
Salesforce cho biết trong quý 1.2025, công ty đã tuyển nội bộ cho 50% tổng số vị trí.
Một nhân viên từng làm quản lý dự án nhân sự 19 năm được kết nối với chương trình mentor, chuyển sang vai trò an ninh mạng nhờ Career Connect.
CEO Marc Benioff công bố tạm dừng tuyển dụng kỹ sư năm 2025 sau khi công cụ AI mới giúp tăng 30% năng suất làm việc.
Nghiên cứu nội bộ trên 200 lãnh đạo nhân sự toàn cầu: 23% lực lượng lao động sẽ được tái phân bổ vai trò hoặc đội nhóm trong 2 năm tới, 61% giữ vai trò cũ nhưng sẽ thay đổi nội dung công việc, 80% các CHROs lên kế hoạch đào tạo lại kỹ năng cho nhân viên.
Nathalie Scardino - chủ tịch và giám đốc nhân sự Salesforce nhấn mạnh: Sự chuyển đổi nhân sự dưới tác động AI buộc mọi ngành phải tái thiết kế công việc, đào tạo kỹ năng mới và hỗ trợ tái phân bổ lao động.
📌 AI Career Agent giúp Salesforce lấp đầy 50% vị trí nội bộ trong quý 1.2025, 28% người dùng thử nghiệm ứng tuyển công việc mới; gần 40% chủ động học thêm. 23% nhân sự dự kiến được luân chuyển trong 2 năm tới, AI tạo sinh định hình lại cấu trúc lao động toàn tập đoàn.
https://www.businessinsider.com/salesforce-internal-ai-career-coaches-upskill-employees-2025-5
Khảo sát 200 giám đốc nhân sự toàn cầu cho thấy hầu hết đều nhận ra sức mạnh chuyển đổi của agent AI trong tổ chức.
77% cho rằng agent AI sẽ trở thành lực lượng lao động nền tảng, không còn là công cụ hỗ trợ bên lề.
Dự báo đến năm 2027, tỷ lệ ứng dụng agent AI tăng từ 15% (2025) lên 64%, tương đương mức tăng trưởng 327%.
Việc tích hợp agent AI dự kiến giúp doanh nghiệp tăng năng suất lao động trung bình 30% và giảm 19% chi phí lao động.
Khoảng 24% lực lượng lao động toàn cầu sẽ được bố trí lại vị trí, nhiệm vụ để phù hợp với vai trò mới khi đưa agent AI vào vận hành.
Đến năm 2030, 80% giám đốc nhân sự tin rằng mô hình hợp tác giữa người và AI trở thành chủ đạo tại đa số doanh nghiệp.
Tuy nhiên, 36% doanh nghiệp hiện chưa có kế hoạch áp dụng agent AI, có nguy cơ tụt lại khi nền kinh tế ưu tiên AI trở thành tiêu chuẩn cạnh tranh.
Hơn 80% lãnh đạo HR đang hoặc sẽ tiến hành đào tạo lại nhân viên, tập trung vào kiến thức dữ liệu, AI, cùng kỹ năng mềm như xây dựng quan hệ, hợp tác.
75% nhận định kỹ năng mềm sẽ ngày càng quan trọng, các phòng ban như dịch vụ khách hàng, vận hành, tài chính sẽ tinh gọn nhờ agent AI.
61% nhân viên sẽ giữ vai trò cũ nhưng làm việc song hành với agent AI, còn lại gần 23% sẽ được bố trí vai trò mới phù hợp năng lực.
Chỉ 15% tổ chức hiện đã triển khai hoàn toàn agent AI, đa phần còn ở giai đoạn lập kế hoạch – tạo ra nhu cầu cấp thiết về chiến lược chuyển đổi số.
3/4 nhân viên chưa nhận thức đầy đủ về tác động agent AI lên công việc, yêu cầu lãnh đạo xây dựng câu chuyện chuyển đổi phù hợp và sát thực tiễn.
Nhân sự (HR) cần đổi mới định vị thành Talent Resources, giữ vai trò trung tâm dẫn dắt thảo luận, phát triển mô hình doanh nghiệp kết hợp người & AI, thúc đẩy môi trường làm việc tích cực, phát triển và gắn kết.
📌 Dự kiến đến năm 2027, tỷ lệ ứng dụng agent AI tăng 327%, giúp tăng 30% hiệu suất lao động và giảm 19% chi phí. Gần 24% lao động sẽ được bố trí lại vai trò mới, HR giữ vai trò trung tâm đổi mới, tập trung đào tạo lại kỹ năng mềm, công nghệ, chuẩn bị cho mô hình hợp tác người – AI dẫn đầu.
https://www.zdnet.com/article/ai-agent-deployments-will-grow-327-during-the-next-two-years-heres-what-to-do-now/
United Airlines đã đầu tư dài hạn vào AI như một chiến lược, không phải là sáng kiến mới. Trong khi nhiều công ty vội vã áp dụng AI tạo sinh trong đợt bùng nổ gần đây, United đã xây dựng nền tảng cần thiết cho việc triển khai hiệu quả từ trước.
Theo CIO Jason Birnbaum, triết lý kinh doanh của United là "hãng hàng không ra quyết định phức tạp nhanh nhất sẽ giành lợi thế cạnh tranh". Điều này đặc biệt quan trọng khi đối mặt với tình huống khẩn cấp như khách hàng gặp khó khăn, bão, sân bay chậm trễ.
Hai yếu tố quan trọng để sẵn sàng cho AI: kiểm soát và làm cho dữ liệu sẵn có, và tạo mối liên kết giữa các đội ngũ công nghệ, vận hành, an ninh mạng và pháp lý để tạo ra cấu trúc tuân thủ cần thiết.
Trước khi có AI tạo sinh, United đã khởi động chương trình "Every Flight Has a Story" (Mỗi chuyến bay đều có câu chuyện riêng). Đội ngũ kể chuyện thu thập dữ liệu hoạt động và soạn thảo thông điệp cho khách hàng về tình trạng chuyến bay, đặc biệt trong trường hợp hủy chuyến.
Thách thức là mở rộng quy mô: số lượng chuyến bay bị trì hoãn vượt quá khả năng viết tin nhắn mới của đội ngũ kể chuyện. Giải pháp đầu tiên sử dụng AI tạo sinh là để mở rộng việc gửi thông điệp tới khách hàng.
United cung cấp cho mô hình AI thông tin cơ bản về chuyến bay, cuộc trò chuyện giữa tiếp viên, phi công, nhân viên cổng và nhân viên vận hành, cùng với dữ liệu về thời tiết, để tạo ra bản nháp thông điệp cho khách hàng.
Kỹ thuật thiết kế prompt được áp dụng để AI hiểu phong cách giao tiếp của United Airlines và nhấn mạnh vào những điểm quan trọng như an toàn mà không làm khách hàng sợ hãi.
Kết quả ấn tượng: United tăng từ 5% lên 35% thông điệp được xử lý qua quy trình kể chuyện đầy đủ - tăng 700% khối lượng với cùng số lượng người kể chuyện.
Nội bộ, United GPT (chatbot AI nội bộ) giúp quản lý viết đánh giá nhân viên. Quản lý cung cấp ghi chú về nhân viên, công cụ soạn thảo bản nháp, và quản lý xem xét và phê duyệt. Hơn 90% quản lý sử dụng công cụ này.
United tiếp tục phát triển kỹ năng kỹ thuật dữ liệu, phân tích, khoa học dữ liệu và kỹ thuật thiết kế prompt. Cơ quan vẫn chưa biết chính xác cần bao nhiêu người cho từng vị trí vì điều này phụ thuộc vào công cụ nào sẽ có AI tích hợp và khả năng nào họ cần tự xây dựng.
Vai trò CIO đang thay đổi: khả năng diễn đạt một tương lai khác biệt so với hiện tại và chấp nhận rằng AI tạo sinh mang đến sự gián đoạn, không phải là sự tiếp nối. CIO cần hình thành và truyền đạt ý kiến để định hướng tổ chức đúng hướng.
📌 United Airlines tiên phong trong việc xây dựng nền tảng AI từ lâu, không chỉ theo trào lưu gần đây. Chiến lược này mang lại kết quả cụ thể: tăng 700% thông điệp chất lượng cho khách hàng và 90% quản lý sử dụng United GPT, khẳng định triết lý "hãng ra quyết định nhanh nhất sẽ thắng".
https://www.cio.com/article/3969476/united-airlines-ai-strategy-the-airline-that-makes-decisions-fastest-wins.html
Tác động của AI tạo sinh khiến các nhà quản lý sản phẩm cân nhắc lại cách lựa chọn mô hình phù hợp (LLM, ML truyền thống hay rule-based).
Quyết định có nên dùng AI cần dựa trên đánh giá cụ thể về:
Đầu vào và đầu ra của nhu cầu khách hàng, ví dụ đầu vào là sở thích bài hát và đầu ra là playlist tùy chỉnh như Spotify.
Số lượng tổ hợp đầu vào-đầu ra: càng nhiều trường hợp khác biệt ở quy mô lớn thì càng cần ML, ngược lại tác vụ lặp lại đơn giản có thể dùng hệ thống luật.
Mức độ phát hiện được pattern giữa đầu vào-đầu ra: Nếu có pattern, nên xem xét supervised/semi-supervised ML, tiết kiệm hơn LLM; nếu không có pattern, hoặc yêu cầu đầu ra mở rộng, có thể dùng LLM.
Chi phí và độ chính xác: LLM tốn kém khi mở rộng, đầu ra đôi khi không chính xác dù có fine-tuning/prompt engineering; mô hình supervised cổ điển, network classifier hoặc rule-based phù hợp hơn nếu cần đầu ra chính xác, định sẵn.
Bảng tổng kết các trường hợp sử dụng:
Tác vụ lặp lại, đầu ra giống nhau cho cùng đầu vào: không cần ML, chỉ dùng rule-based.
Tác vụ lặp lại, đầu ra khác nhau cho cùng đầu vào: nên dùng LLM tạo sinh (ví dụ tạo ảnh, đề xuất mới).
Tác vụ lặp lại, đầu ra tương tự cho nhiều đầu vào: cân nhắc giữa rule-based và classifier/topic modelling, tùy mức độ phức tạp và có pattern hay không.
Tác vụ lặp lại, đầu ra khác nhau cho đầu vào khác nhau: ML hoặc LLM gần như là bắt buộc, vì số tổ hợp lớn (hỗ trợ khách hàng, tìm kiếm…).
Tác vụ không lặp lại, đầu ra mở rộng: LLM là lựa chọn phù hợp (phân tích review, dự đoán văn bản).
Khuyến nghị: Luôn đánh giá kỹ nhu cầu, chi phí và độ chính xác sản phẩm trước khi quyết định dùng AI tạo sinh (LLM), tránh lạm dụng cho bài toán đơn giản.
📌 Framework chỉ ra: Chỉ nên dùng LLM khi tổ hợp đầu vào-đầu ra phức tạp, khó pattern, hoặc yêu cầu đầu ra sáng tạo. Nhiều tác vụ vẫn phù hợp với rule-based hoặc ML truyền thống để tiết kiệm chi phí và đạt độ chính xác cao hơn.
https://venturebeat.com/ai/not-everything-needs-an-llm-a-framework-for-evaluating-when-ai-makes-sense/
Ước tính mỗi ngày có 350 tỷ email được gửi; một nhân viên văn phòng Anh nhận tới 10.000 email/năm; phóng viên nhận có thể gấp 5 lần.
Các hãng công nghệ lớn như Google, Apple, Microsoft đồng loạt tích hợp chatbot AI, công cụ trả lời tự động vào sản phẩm email với mục tiêu chỉnh tăng hiệu suất, tiện ích cho người dùng.
Công cụ như Google Gemini, Microsoft Copilot, Apple Writing Tools có thể tự động soạn thư, tóm tắt chuỗi email, đề xuất trả lời hoặc chỉnh sửa văn bản trở nên chuyên nghiệp, phù hợp hơn.
Năm 2017, Gmail đã có Smart Reply, nay được nâng lên nhờ mô hình ngôn ngữ lớn (LLM) cho phép trả lời dài, chi tiết hơn.
Google tuyên bố Gemini giúp nhân viên tại công ty Cost Plus Drugs (của tỷ phú Mark Cuban) tiết kiệm tới 5 giờ/tuần; khảo sát 1.300 người dùng Microsoft 365 cho thấy dùng Copilot giúp tiết kiệm 11 phút/ngày (tương đương 1 tuần/năm).
Dù vậy, nhiều người dùng phàn nàn Copilot của Microsoft "không hiệu quả", "khó dùng ngay cả với tác vụ đơn giản", một số phản hồi trên Reddit đánh giá kém.
Thử nghiệm thực tế cho thấy Gemini đôi khi biến email đơn giản thành rườm rà, dùng nhiều từ ngữ chuyên ngành, đôi lúc tạo nhầm lịch hẹn.
Apple Intelligence trong Mail bị một số người dùng phản ánh dễ mắc bẫy email lừa đảo, thậm chí gắn nhãn "ưu tiên" cho spam.
Các chuyên gia truyền thông lo ngại AI làm giao tiếp qua email thiếu chân thật, người nhận nhận ra bị chatbot trả lời dễ gây tác dụng ngược.
Nghiên cứu của Microsoft & Carnegie Mellon (với 319 lao động trí thức) phát hiện càng tin vào AI càng giảm nỗ lực tư duy phản biện, lâu dài nguy cơ "teo não", kỹ năng viết suy giảm.
82% nhân viên Mỹ từ 22-39 tuổi dùng AI tại nơi làm việc, 70% từng dùng AI để soạn thảo email (theo khảo sát Harris Poll).
Một số chuyên gia khuyên chỉ nên dùng AI cho email đơn giản, không dành cho trao đổi cần tư duy sâu sắc, vì "viết là suy nghĩ".
📌 AI đang tràn vào hộp thư doanh nghiệp với kỳ vọng tiết kiệm thời gian, tăng hiệu suất. Tuy nhiên, thực tế nhiều nhân viên cảm thấy phiền phức, nghi ngờ chất lượng, lo ngại mất kỹ năng tư duy khi 82% lao động trẻ Mỹ đã dùng AI soạn email, dẫn tới rủi ro ảo giác, giảm khả năng phân tích.
https://www.telegraph.co.uk/business/2025/05/04/thats-great-good-work-the-ai-spambots-taking-over-email/
AI đang biến cách doanh nghiệp tiếp cận chuỗi cung ứng toàn cầu, cho phép nhìn sâu đến tận tầng 2, 3, thậm chí 4 của nhà cung cấp, thay vì chỉ tập trung vào đối tác trực tiếp như trước.
Từ tháng 04/2025, Mỹ áp thuế nhập khẩu lên Trung Quốc tới 145%, khiến lượng hàng qua cảng Long Beach sụt giảm đến 60% - làm dấy lên nguy cơ suy thoái và sa thải hàng loạt trong lĩnh vực kinh doanh liên quan.
CEO các tập đoàn lớn tổ chức "war room" để đối phó với khủng hoảng thuế quan, yêu cầu cập nhật liên tục và chi tiết về chuỗi cung ứng nhằm giảm rủi ro và tối ưu hóa chi phí sản xuất.
Trước đây, việc kiểm toán chuỗi cung ứng toàn cầu mất tới 2 năm, khảo sát chỉ có tỷ lệ phản hồi 8%, dữ liệu nhanh lỗi thời do sự thay đổi liên tục trong mối quan hệ nhà cung cấp.
AI của Altana sử dụng dữ liệu riêng từ các công ty logistics, bảo hiểm, bán lẻ, ngân hàng… phân tích và cập nhật bản đồ chuỗi cung ứng lớn nhất thế giới; đảm bảo dữ liệu bảo mật và riêng tư cho từng doanh nghiệp.
Cụ thể, AI có thể phân tích hóa đơn vật liệu của một sản phẩm (ví dụ máy giặt), xác định tất cả nhà cung cấp nhiều tầng mà doanh nghiệp chưa từng biết. Sau đó đề xuất kịch bản chi phí, thuế cho từng thay đổi địa điểm, nhà máy.
Khả năng xử lý tăng mạnh: năm 2021, AI cần 6 tháng để hoàn tất bản đồ chuỗi cung ứng cho một doanh nghiệp lớn, đến nay chỉ mất trong ngày.
Ngày càng nhiều giám đốc yêu cầu biết rõ mức phơi nhiễm với Trung Quốc, điểm yếu trong chuỗi cung ứng và dự báo tác động của các kịch bản thuế quan.
Theo Altana, thời đại thuê ngoài “kiểu mù quáng” đã kết thúc – doanh nghiệp muốn tồn tại phải nhìn rõ toàn bộ mạng lưới chuỗi giá trị và liên tục cập nhật để thích ứng.
📌 AI giúp doanh nghiệp tiết kiệm thời gian lên tới 2 năm, nâng tỷ lệ nắm bắt dữ liệu chuỗi cung ứng từ 8% lên gần 100%, hỗ trợ giảm mạnh tác động tiêu cực của tăng thuế và biến động địa chính trị. Giai đoạn thuê ngoài thiếu kiểm soát đã kết thúc, nhìn nhận mạng lưới chuỗi cung ứng là sống còn để tồn tại.
https://www.cnbc.com/2025/05/04/tech-tariffs-response-ai-begins-remapping-where-products-get-made.html
Các nhà phát triển đang xây dựng giao thức để triển khai hệ thống AI đa tác tử (multiagent), nơi các tác tử AI hợp tác để xử lý các lĩnh vực như dịch vụ khách hàng, lập trình, chuỗi cung ứng, tài chính, marketing và chiến lược kinh doanh.
Hiện tại, chỉ khoảng 10–15% khách hàng của Accenture dùng hệ thống multiagent, nhưng dự kiến con số này sẽ vượt 30% trong 18–24 tháng tới.
Accenture đã phát triển hệ thống gồm 15 tác tử AI cho marketing, với 3 “siêu tác tử” điều phối 12 tác tử chuyên biệt. Hệ thống này có thể nghiên cứu xu hướng, rà soát chiến dịch cũ, và trả lời câu hỏi như con người.
Accenture có hơn 50 hệ thống multiagent trong nhiều ngành và dự kiến vượt 100 vào cuối năm 2025. Khách hàng bao gồm BMW, Unilever và ESPN.
Giao thức Trusted Agent Huddle được Accenture giới thiệu giúp các tác tử tương tác xuyên nền tảng với Amazon, Google Cloud, Meta, Microsoft, Nvidia, Oracle, Salesforce, SAP và ServiceNow.
Salesforce và Google cũng phát triển giao thức A2A (Agent-to-Agent), hỗ trợ tác tử trong hệ sinh thái Agentforce giao tiếp với nhau và với tác tử bên ngoài, tập trung vào xác thực, định danh và truyền thông tin.
Keyway (startup bất động sản) ứng dụng hệ multiagent để hỗ trợ quản lý tài sản, với các tác tử hoạt động theo chuỗi quy trình có giám sát của con người.
Hệ thống multiagent lý tưởng sẽ cho phép tác tử tự động lý luận, đàm phán, hợp tác theo thời gian thực mà không cần chỉ dẫn cụ thể từ con người.
Principle Financial Group đang xây dựng nền tảng kỹ thuật để sẵn sàng triển khai multiagent, bao gồm đường dẫn dữ liệu, mô hình quản trị và thay đổi quy trình làm việc.
Các ứng dụng tiềm năng: tối ưu hóa tài khoản hưu trí, phân tích dữ liệu thị trường không có cấu trúc, chuẩn bị họp công bố lợi nhuận, hỗ trợ tổng đài và xử lý yêu cầu bồi thường.
📌 Các hệ thống AI đa tác tử đang dần thay đổi cách vận hành doanh nghiệp: Accenture sở hữu hơn 50 hệ thống, Salesforce và Google triển khai giao thức A2A, còn Principle Financial lên kế hoạch hạ tầng kỹ thuật. Dự báo 30% doanh nghiệp sẽ sử dụng multiagent trong vòng 2 năm tới để tăng tốc và tự động hóa hoạt động kinh doanh.
https://www.wsj.com/articles/ai-agents-are-learning-how-to-collaborate-companies-need-to-work-with-them-28c7464d
#WSJ
Với tốc độ đổi mới và thời gian các tổ chức thích nghi, công ty nên chuẩn bị ngay cho hệ thống đa agent
Steven Rosenbush
By Steven Rosenbush
May 3, 2025 8:00 am ET
Các nhà phát triển đang tạo giao thức để khai thác các agent AI thành nhóm xử lý mọi việc từ dịch vụ khách hàng, lập trình đến chuỗi cung ứng, logistics, tài chính, marketing và chiến lược kinh doanh.
Công ty nên bắt đầu lập kế hoạch cho giai đoạn tiếp theo của trí tuệ nhân tạo: điều phối nhiều agent trong doanh nghiệp.
Hầu hết công ty vẫn đang tìm hiểu cách triển khai chỉ một agent AI có thể thực hiện tác vụ tự động hoặc phối hợp với con người. Nhưng các nhà phát triển đang tạo giao thức để khai thác những agent này thành nhóm xử lý mọi việc từ dịch vụ khách hàng và lập trình đến chuỗi cung ứng, logistics, tài chính, marketing và chiến lược kinh doanh.
Với tốc độ đổi mới và thời gian tổ chức thích nghi, công ty sẽ giúp cho mình bằng cách sẵn sàng ngay cho hệ thống đa agent ngày càng có sẵn vào cuối năm nay.
Giám đốc AI của Accenture, Lan Guan, cho biết chỉ 10% đến 15% khách hàng hiện sử dụng hệ thống đa agent, nhưng bà kỳ vọng tỷ lệ này sẽ vượt 30% trong 18 đến 24 tháng.
Công ty dịch vụ chuyên nghiệp đã tạo hệ thống 15 agent cho marketing, bao gồm 3 "siêu agent" chịu trách nhiệm điều phối 12 agent được đào tạo cho tác vụ cụ thể.
Hệ thống có thể lập kế hoạch chiến dịch marketing về chủ đề như "xu hướng 2025", tiến hành nghiên cứu, xác định chiến dịch tương tự trong quá khứ và giải quyết câu hỏi như con người, theo Guan.
Tổng cộng, Accenture có hơn 50 hệ thống đa agent hiện tại cho nhiều ngành và thị trường, và kỳ vọng con số này đạt hơn 100 vào cuối năm. Công ty cho biết khách hàng như nhà sản xuất ô tô BMW, công ty thương hiệu tiêu dùng Unilever và tập đoàn thể thao ESPN hiện đang áp dụng những hệ thống này.
Accenture giới thiệu Trusted Agent Huddle tháng trước, cho phép tương tác agent-với-agent cùng đối tác như công ty công nghệ Amazon Web Services, Google Cloud, Meta, Microsoft, Nvidia, Oracle, Salesforce, SAP và ServiceNow.
Khả năng đa agent sắp trở nên rộng rãi hơn. Salesforce và Google công bố tại hội nghị Google Next vào tháng 4 rằng họ đang phát triển giao thức A2A, hay Agent-to-Agent. Giao thức cho phép agent trong hệ sinh thái Agentforce của Salesforce tương tác với nhau cũng như agent bên ngoài, tập trung vào lĩnh vực như xác thực, nhận dạng và truyền thông điệp, theo Gary Lerhaupt, phó chủ tịch kiến trúc sản phẩm cho Agentforce. Công việc đang triển khai cùng đối tác để phát triển nguyên mẫu đa agent dùng A2A, ông cho biết.
Keyway, startup công nghệ bất động sản thương mại tại New York, đưa ra cái nhìn về cách khái niệm này hoạt động trong thực tế, theo đồng sáng lập và CEO Matias Recchia. Công ty cung cấp cho người quản lý tài sản và bất động sản nền tảng đa agent sử dụng tương tác phối hợp để giải quyết câu hỏi như cách định giá bất động sản cho thuê hoặc nhắm mục tiêu tiện ích và ưu đãi.
Công ty đã huy động 45 triệu USD từ nhà đầu tư bao gồm Canvas Ventures, Camber Creek và Thomvest.
Trong khi agent của Keyway chuyên biệt và có thể kích hoạt nhau qua quy trình có cấu trúc, công ty cho biết, chúng vẫn hoạt động theo trình tự được định sẵn, có kiểm soát, đòi hỏi giám sát con người như đặt prompt, xem lại đầu ra và giám sát quyết định.
Hệ thống đa agent thực sự, Recchia nói, bao gồm agent suy luận động, đàm phán hoặc hợp tác thời gian thực mà không cần quy trình do con người định nghĩa, prompt rõ ràng hoặc điều phối thủ công. Nói cách khác, agent chủ động, thích nghi với thông tin mới và tương tác linh hoạt với agent khác mà không chờ hướng dẫn của con người.
Công ty có thể bắt đầu chuẩn bị cho hệ thống đa agent đơn giản bằng cách tạo agent tiêu chuẩn, độc lập. Khi giao thức phù hợp sẵn sàng, công ty có thể điều phối những agent này giải quyết hệ thống phức tạp, hợp tác.
Principle Financial Group đã nhúng agent AI cá nhân qua nhiều lĩnh vực bao gồm cộng tác viên phần mềm, tóm tắt khiếu nại và phân tích sau cuộc gọi, theo Giám đốc thông tin Kathy Kay. Chúng chủ yếu hoạt động trong phạm vi xác định, nhưng công ty quản lý đầu tư và bảo hiểm đang tích cực xây dựng nền tảng kỹ thuật hỗ trợ hợp tác agent-với-agent, Kay cho biết.
Điều đó có nghĩa phát triển đường ống dữ liệu và mô hình quản trị. Quy trình cũng sẽ phải thay đổi để phù hợp với hợp tác thời gian thực giữa con người và hệ thống AI thông minh, thích nghi, bà nói.
Kay dự kiến tiềm năng mạnh mẽ cho việc sử dụng hệ thống đa agent trong dịch vụ hưu trí như tối ưu hóa chuyển đổi. Trong quản lý tài sản, bà kỳ vọng đa agent phân tích dữ liệu thị trường phi cấu trúc, tạo câu chuyện đầu tư và điều chỉnh phát hiện qua danh mục đầu tư. Ứng dụng khác bao gồm chuẩn bị cuộc gọi báo cáo thu nhập, trí tuệ trung tâm liên lạc và phân xử khiếu nại.
"Đây không phải chức năng biệt lập," Kay nói. "Đây là hệ thống tác vụ mà khi kết nối qua agent thông minh, có thể thúc đẩy thông tin chi tiết nhanh hơn và kết quả tốt hơn trong toàn doanh nghiệp."
Viết cho Steven Rosenbush tại [email protected]
50% doanh nghiệp đã ứng dụng AI tạo sinh sẽ triển khai thí điểm hoặc thử nghiệm agentic AI trước năm 2027 (theo Deloitte).
AI agent ngày càng chủ động, cá nhân hóa sâu theo nhu cầu người dùng, tăng cường trí tuệ cảm xúc để giao tiếp hiệu quả, đặc biệt trong dịch vụ khách hàng và y tế.
Tính năng multimodal cho phép agent xử lý đa dạng dữ liệu đầu vào (văn bản, giọng nói, hình ảnh), giao tiếp ngày càng tự nhiên, thân thiện.
Azure AI Foundry trở thành "nhà máy sản xuất agent" cho doanh nghiệp, giúp thiết kế, quản lý, và custom AI dễ dàng theo nhu cầu thực tế.
Các model mới như GPT-4.5 và Phi-4 giảm tỷ lệ ảo giác, tăng độ tin cậy, đồng thời dễ dàng tinh chỉnh và tích hợp với các công cụ phát triển quen thuộc (GitHub, Visual Studio Code).
Air India ứng dụng Azure AI Foundry, đạt tự động hóa 97% xử lý yêu cầu khách hàng, giảm mạnh chi phí và tăng chỉ số hài lòng.
NVIDIA NIM microservices tích hợp vào Azure AI Foundry giúp triển khai ứng dụng AI hiệu suất cao "zero-config" trên nhiều workload khác nhau, từ LLMs đến phân tích nâng cao.
AgentIQ nguồn mở cho phép nhóm phát triển tối ưu và giám sát đội ngũ AI agent theo thời gian thực, giảm độ trễ, tăng độ chính xác, tiết kiệm chi phí vận hành.
Các mô hình Meta Llama tối ưu bằng NVIDIA TensorRT-LLM (như Llama 3.3 70B, 3.1 70B, 8B, 405B) trên Azure giúp tăng throughput, giảm latency ngay lập tức, không cần cấu hình bổ sung.
Doanh nghiệp như Synopsys xác nhận đã tăng tốc workload, giảm chi phí hạ tầng, đơn giản hóa quy trình triển khai nhờ tích hợp tối ưu này.
Hạ tầng NVIDIA dẫn đầu cuộc cách mạng AI với dự báo chuyển sang tính toán lượng tử và trung tâm dữ liệu làm mát bằng chất lỏng, phục vụ nhu cầu hiệu suất và tiết kiệm năng lượng ngày càng cao.
📌 Agentic AI đang lan rộng mạnh mẽ trong doanh nghiệp với tỷ lệ tự động hóa 97% như Air India, tăng hiệu suất, cá nhân hóa dịch vụ và giảm chi phí rõ rệt. Azure AI Foundry kết hợp NVIDIA NIM & AgentIQ mở ra nền tảng AI chủ động, thông minh cảm xúc, hiệu quả cho mọi tổ chức.
https://venturebeat.com/ai/why-agentic-ai-is-the-next-wave-of-innovation/
AI tạo sinh đang đưa cá nhân hóa lên tầm cao mới, không chỉ trong mua sắm mà lan rộng sang y tế, tài chính, truyền thông.
Trước đây, cá nhân hóa chỉ dừng lại ở email chào hỏi theo tên. Hiện nay, AI phân tích lượng lớn dữ liệu hành vi để đưa ra đề xuất phù hợp từng cá nhân, như chọn sai số, màu sắc, sở thích thương hiệu, chủ động xử lý hoàn trả.
Starbucks phát triển AI Deep Brew phân tích dữ liệu khách hàng để cá nhân hóa thông điệp marketing, đề xuất món, giúp chương trình khách hàng thân thiết tăng trưởng mạnh.
71% khách hàng kỳ vọng doanh nghiệp cá nhân hóa tương tác (theo McKinsey); 76% sẽ cảm thấy khó chịu nếu doanh nghiệp không đáp ứng yêu cầu này.
Dịch vụ xem phim trực tuyến, ngân hàng, y tế đều dùng AI để đề xuất dịch vụ, sản phẩm, nội dung sát với nhu cầu, tăng tỷ lệ giữ chân và hài lòng khách hàng.
AI tạo sinh giúp cá nhân hóa cả hình ảnh, giao diện web phù hợp từng phân khúc người dùng, ví dụ lựa chọn mẫu, màu sắc, hình ảnh phù hợp đặc điểm văn hóa hoặc sở thích nhóm.
Doanh nghiệp phải cân bằng giữa cá nhân hóa và quyền riêng tư dữ liệu. Nếu cá nhân hóa quá mức sẽ gây phản tác dụng, khách hàng cảm thấy bị xâm phạm.
Để thành công, lãnh đạo cần minh bạch về cách thu thập, sử dụng dữ liệu cá nhân, áp dụng bảo mật chặt chẽ nhằm xây dựng lòng tin.
Khi thực hiện đúng, cá nhân hóa giúp giảm chi phí quảng cáo nhờ tập trung vào nhu cầu thực, gia tăng chuyển đổi, tạo nhóm khách hàng trung thành và quảng bá thương hiệu tích cực.
📌 Doanh nghiệp ứng dụng cá nhân hóa bằng AI tăng hiệu quả tiếp cận và giữ chân khách hàng, như Starbucks với Deep Brew thúc đẩy chương trình hội viên. 71% khách hàng mong đợi cá nhân hóa, 76% không hài lòng nếu bị thiếu cá nhân hóa. Muốn bền vững, cần minh bạch và bảo mật dữ liệu.
https://www.forbes.com/sites/aytekintank/2025/04/29/why-ai-powered-hyper-personalization-is-a-must-for-all-businesses/
Trào lưu AI và các nền tảng gig cùng phương pháp làm việc agile giúp mở rộng cơ hội tiếp cận công việc, làm lung lay các mô hình việc làm cố định và quy trình rập khuôn truyền thống.
Nhiều doanh nghiệp chưa khai thác hết tiềm năng của AI do chưa tái cấu trúc lại công việc, vẫn giữ mô hình vai trò công việc cứng nhắc thay vì linh hoạt giữa người và máy.
Để tận dụng AI, tổ chức cần tư duy lại quy trình từ “công việc-lùi”, giải cấu trúc các nhiệm vụ để xác định việc gì nên cho AI làm, việc gì tăng cường bằng công nghệ, thay vì chỉ thay thế nhân sự đơn thuần.
Mô hình kinh tế lao động thay đổi: AI và tự động hóa bẻ cong đường cầu lao động, cho phép doanh nghiệp tăng quy mô mà không cần tăng chi phí tương ứng, giảm phụ thuộc vào lao động có kinh nghiệm và mở rộng khai thác nhân lực trình độ thấp ở mức hiệu quả cao hơn.
Ví dụ điển hình: Unilever mở rộng được 530.000 giờ làm thêm nhờ chợ việc nội bộ năm 2020; một công ty bảo hiểm tăng 600% năng suất nhà khoa học dữ liệu khi chuyển khỏi vai trò cố định sang nhóm dự án linh hoạt.
Tại một tập đoàn dịch vụ tài chính toàn cầu, việc áp dụng nền tảng AI mới (kết hợp AI vision, RPA, machine learning, AI tạo sinh) giúp:
Tự động hóa 68 nhiệm vụ, loại bỏ thao tác lặp lại cho nhân viên cấp thấp.
Chuyển 17 nhiệm vụ từ quản lý cấp cao sang nhân viên cấp thấp nhờ AI tạo sinh, tăng giữ chân nhân tài.
Tái phân bổ 29 nhiệm vụ phân tích dữ liệu sang trung tâm toàn cầu chuyên trách.
Tăng hiệu suất 14 nhiệm vụ cho nhân viên cấp cao nhờ AI hỗ trợ.
Kết quả: giảm 50% khối lượng công việc, giảm 18% tỷ lệ nghỉ việc, giảm 40% chi phí vận hành, cải thiện trải nghiệm và giữ chân khách hàng.
Đề xuất 5 bước để thiết kế lại công việc theo kỷ nguyên AI:
Xuất phát từ công việc thực chất, không phải công nghệ.
Tận dụng trọn bộ công nghệ, không coi AI là công cụ độc lập.
Suy nghĩ vượt ra ngoài AI, tập trung phân bổ việc theo năng lực.
Lên kế hoạch sử dụng hiệu quả nguồn lực được giải phóng.
Xây dựng năng lực thiết kế công việc như cốt lõi tổ chức, với sự tham gia của toàn bộ lãnh đạo.
📌 Thiết kế lại công việc với AI có thể giúp doanh nghiệp giảm đến 50% khối lượng công việc, tăng 600% năng suất một số vị trí, giảm 40% chi phí vận hành và cải thiện trải nghiệm khách hàng; điều kiện là phải phá vỡ mô hình cũ, tổ chức linh hoạt theo nhiệm vụ và đầu tư bài bản vào chuyển đổi số.
https://sloanreview.mit.edu/article/want-ai-driven-productivity-redesign-work/
#MIT
Để tận dụng lời hứa của trí tuệ nhân tạo, người lãnh đạo cần phân tích jobs và quy trình, tái triển khai công việc, và xây dựng cách thức hoạt động mới.
Ravin Jesuthasan
Ngày 01 tháng 5 năm 2025
Tiềm năng khổng lồ để định hình lại công việc được tạo ra bởi việc dân chủ hóa cơ hội (thông qua các nền tảng gig và cách thức hoạt động linh hoạt) và những tiến bộ lớn trong công nghệ (đặc biệt là trí tuệ nhân tạo). Chỉ thông qua nỗ lực phối hợp liên quan đến phân tích, tái triển khai và xây dựng lại các công việc, tổ chức mới có thể thiết kế lại quy trình làm việc cơ bản để đạt được cả tính linh hoạt và năng suất.
Các cấu trúc truyền thống từng định nghĩa công việc — jobs cố định, quy trình cứng nhắc, và vai trò được định nghĩa hẹp — đang sụp đổ dưới sức nặng của sự thay đổi. Qua nhiều thế kỷ, mối quan hệ giữa chi phí (hoặc giá) và khối lượng đã định hình phép tính kinh tế của công việc. Tổ chức hoạt động dựa trên mô hình sự phát triển năng suất gắn với tính sẵn có và chi phí của lao động được tuyển dụng. Nhưng cơ hội dân chủ hóa truy cập công việc thông qua nền tảng gig và cách thức hoạt động linh hoạt, cùng với tiến bộ lớn trong công nghệ — đặc biệt là trí tuệ nhân tạo — đang định hình lại công việc trên các ngành.
Trong quá trình này, nhiều doanh nghiệp đang gặp khó khăn để nhận được mức tăng năng suất được hứa hẹn bởi các thay đổi đó — không phải vì họ thiếu công nghệ mà vì họ đang thất bại trong việc suy nghĩ lại và thiết kế lại các cấu trúc cơ bản của công việc. Điều này đặc biệt đúng khi xem xét lại việc ứng dụng AI trong công việc.
Nhiều công ty vẫn bị mắc kẹt trong các mô hình và quy trình công việc lỗi thời. Công việc vẫn được cấu trúc theo vai trò job cứng nhắc thay vì một hệ thống nhiệm vụ linh hoạt có thể được xử lý và tối ưu hóa trên khả năng của con người và máy móc. Sự mất kết nối này ngăn cản tổ chức khai thác đầy đủ tiềm năng của AI để mở khóa hiệu quả mới, do đó hạn chế mức tăng năng suất và tạo ra các tác động tiêu cực không mong muốn cho nhân sự.
Để tận dụng AI, tổ chức phải đi xa hơn câu chuyện nhị phân đơn giản về thay thế công nghệ cho công việc hiện đang được nhân viên thực hiện và chấp nhận thiết kế lại cơ bản công việc. Chỉ với nỗ lực phối hợp để phân tích, tái triển khai và xây dựng lại công việc, các công ty mới có thể đạt được mức độ linh hoạt, khả năng mở rộng và năng suất mới. Điều này liên quan đến việc sử dụng phương pháp "làm từ công việc" thay vì "tiếp cận từ công nghệ": Thay vì tập trung vào cách công nghệ có thể được áp dụng cho jobs và quy trình hiện có để loại bỏ công việc con người, người lãnh đạo phải phân tích các nhiệm vụ hiện có và mới nổi để hiểu hoạt động nào có thể thay thế, tăng cường hoặc chuyển đổi. Sau khi họ tái triển khai các hoạt động đó cho các giải pháp tối ưu, họ sẽ đi đúng hướng để xây dựng lại cách thức hoạt động hoàn toàn mới.
Theo lịch sử, kinh tế của công việc được định nghĩa bởi luật cung và cầu: Khi giá cả (tiền lương) tăng, nhu cầu về lao động giảm. Ở phía khác, mức lương cao hơn khuyến khích tăng nguồn cung lao động.
AI, tự động hóa và các cách thức mới để tổ chức nhân tài, như kết nối từ danh sách nhân tài nội bộ linh hoạt và sử dụng nhân lực từ các nền tảng gig, đang thay đổi mô hình kinh tế này một cách cơ bản và xác định lại đường cầu công việc. Khi AI và tự động hóa trở thành phương án thay thế cho các tác vụ lặp đi lặp lại và tăng cường các tác vụ phức tạp theo cách có thể mở rộng ngày càng nhiều, công ty có nhiều cơ hội để sử dụng nhân tài ngoài nhân viên toàn thời gian trong công việc cố định để hoàn thành công việc. Điều này giúp tổ chức đạt được sự phát triển với mức độ sử dụng tài nguyên thấp hơn và linh hoạt hơn, mở khóa các khả năng hoàn toàn mới để tạo giá trị. (Xem "Uốn cong đường cầu.")
Đường cong màu xanh biểu thị cách thiết kế lại công việc để kết hợp nhân tài và AI có tiềm năng tăng năng suất (khối lượng công việc hoàn thành) trong khi tách biệt sự phát triển đó khỏi cường độ tài nguyên (tổng chi phí công việc).
[Biểu đồ uốn cong đường cầu]
Việc uốn cong này xảy ra ở 2 cấp độ. Khi công ty cung cấp quyền truy cập dân chủ vào công nghệ mới, chẳng hạn như AI tạo sinh, từng nhân viên có thể giải phóng thời gian và tăng năng suất bằng cách thay thế hoạt động đơn điệu (ví dụ: nghiên cứu và phân tích dữ liệu) bằng hoạt động sáng tạo (như tổng hợp dữ liệu và kể chuyện). Các nỗ lực thiết kế lại đơn vị công việc này giúp tổ chức thực hiện nhiều công việc hơn với ít hoặc không tăng chi phí đơn vị.
Ở quy mô doanh nghiệp, nhà lãnh đạo có thể thiết kế lại công việc ở cấp độ vĩ mô, sử dụng các mô hình ngôn ngữ lớn độc quyền và machine learning để vận hành các tác nhân AI tự chủ thực hiện thiết kế quy trình. Điều này có thể bao gồm viết và thực thi mã, với con người hoạt động như người giám sát hoặc thậm chí đảm nhận các hoạt động cụ thể để cung cấp giá trị khác biệt.
Các nỗ lực thiết kế lại đơn vị công việc giúp tổ chức thực hiện nhiều công việc hơn với ít hoặc không tăng chi phí đơn vị.
Mức giảm cường độ tài nguyên có thể từ hệ điều hành được tăng cường bằng AI nghĩa là công việc yêu cầu ít lao động con người hơn và "phụ trội kinh nghiệm" thấp hơn (nghĩa là, giảm nhu cầu về nhân tài kỹ năng cao tốn kém) khi AI dân chủ hóa kiến thức và khả năng. Nhân tài ít kinh nghiệm có thể làm việc ở mức thành thạo cao hơn.
Vì vậy, nhà lãnh đạo có thể phân tích, tái triển khai và xây dựng lại công việc. Họ có thể tổ chức công việc của con người trong công việc cố định, nơi kiểm soát ở mức cao (hãy nghĩ đến phi công hàng không). Họ có thể tạo ra vai trò linh hoạt nơi các thị trường nội bộ cho phép nhân viên có kỹ năng cụ thể đảm nhận gig nội bộ. Chẳng hạn, Unilever đã có thể khai thác 530.000 giờ làm việc bổ sung thông qua thị trường nội bộ vào năm 2020. Nhà lãnh đạo cũng có thể xây dựng mô hình luồng, nơi các kỹ năng chuyên môn từ trong và ngoài công ty có thể chảy vào công việc khi cần thiết. Ví dụ: một công ty bảo hiểm đã đạt được mức tăng 600% về năng suất của các nhà khoa học dữ liệu bằng cách chuyển họ khỏi vai trò cố định trong chức năng IT vào một nhóm nhân tài linh hoạt đảm nhận các dự án trong toàn công ty. Các nỗ lực thiết kế lại như vậy thường dẫn đến mức tăng đáng kể về năng suất với chi phí bổ sung rất nhỏ.
Để hiểu rõ hơn về quy trình phân tích, tái triển khai và xây dựng lại, hãy xem xét kinh nghiệm của một công ty dịch vụ tài chính toàn cầu mà tôi gần đây tư vấn, công ty này đang tìm kiếm sự thay đổi bước ngoặt trong hiệu suất của quy trình khách hàng quan trọng thông qua việc giới thiệu nền tảng công nghệ mới. Quy trình liên quan đến xử lý đơn hàng khách hàng cho các sản phẩm khác nhau và thực hiện một loạt giao dịch được thương lượng khớp với yêu cầu của khách hàng với các yêu cầu của nhiều nhà cung cấp khác nhau. Quy trình này tạo ra một loạt chứng khoán tùy chỉnh mà công ty sau đó quản lý cho các khách hàng đó.
Nền tảng công nghệ mới kết hợp sử dụng AI thị giác để thu thập dữ liệu từ nhiều nguồn với việc triển khai tự động hóa quy trình robot (RPA) để tích hợp dữ liệu từ nhiều nguồn. Nền tảng này cũng kết hợp machine learning để phân tích dữ liệu từ nhiều nguồn và phát triển chứng khoán mới, và giao diện AI tạo sinh cho phép nhân viên rút ra insights từ tất cả dữ liệu đang được thu thập và đưa ra khuyến nghị cho khách hàng. Nền tảng này được dự kiến sẽ giảm lỗi xử lý, loại bỏ sự thiếu hiệu quả trong tỷ lệ xử lý và cải thiện trải nghiệm khách hàng tổng thể. Ngoài ra, công ty hy vọng rằng quy trình mới sẽ giảm tỷ lệ thay đổi nhân sự và phân bổ nhân tài không hiệu quả: Hệ thống trước đó đã dẫn đến tỷ lệ chuyển việc cao trong nhân tài trẻ chán nản, và quá nhiều năng lực cấp cao dành cho các tác vụ thường ngày có thể được tự động hóa.
Lãnh đạo công ty nhận ra họ cần thiết kế lại công việc xung quanh khả năng của nền tảng mới để thực hiện lợi nhuận được dự báo cho trường hợp kinh doanh của họ. Điều họ chưa nhận ra là cách quy trình phân tích và nghiên cứu các nhiệm vụ khác nhau nói trên sẽ cho phép họ xác định các tùy chọn tái triển khai vượt xa khả năng của nền tảng, bao gồm cơ hội chuyển một số công việc sang nhân tài trẻ hơn và trung tâm khả năng toàn cầu. Nhận ra việc triển khai công nghệ một mình sẽ không giải quyết được vấn đề, các nhà lãnh đạo biết họ cần phân tích công việc cơ bản, tái triển khai và xây dựng lại các cách thức làm việc mới để khai thác đầy đủ khả năng của nền tảng.
Cụ thể, công ty đã thực hiện:
Quá nhiều tổ chức tập trung vào công nghệ như AI tạo sinh như những công cụ độc lập và bỏ lỡ cách chúng có thể là những nhân tố nhân đôi sức mạnh cho công nghệ hiện có của họ.
Tác động ròng của các nỗ lực thiết kế lại này là giảm 50% công việc của lực lượng lao động hiện tại và giảm 18% tỷ lệ chuyển đổi nhân viên. Những thay đổi đó đã cho phép tổ chức tập trung nhân tài kinh nghiệm nhất vào việc cung cấp trải nghiệm khách hàng "tiếp xúc cao hơn", đặc biệt khi xét đến trải nghiệm của khách hàng mới (một điểm đau trong quá khứ). Tác động ròng cũng là giảm 40% chi phí hoạt động của toàn bộ quy trình và cải thiện khả năng thu hút và giữ chân khách hàng.
Uốn cong đường cầu công việc đã cho phép lãnh đạo công ty nhận ra sự cải thiện bước ngoặt về năng suất, hiệu quả và tác động khách hàng mà ngay cả trường hợp kinh doanh lạc quan nhất của họ chưa từng tưởng tượng tới.
Mặc dù trường hợp kinh doanh cho việc phân tích, tái triển khai và xây dựng lại công việc rõ ràng, nhiều tổ chức gặp khó khăn để vượt qua vai trò job cứng nhắc lịch sử và tâm lý, kỹ năng và công cụ liên quan đến cách thức thực hiện công việc.
Tổ chức có thể thực hiện 5 hành động này để điều hướng sự thay đổi:
Trong khi việc xem AI như giải pháp hấp dẫn, ROI thực sự chỉ có thể đạt được bằng cách bắt đầu từ công việc cần thực hiện, không phải công nghệ có thể ảnh hưởng đến nó. Điều này chỉ có thể thực hiện bằng cách phân tích công việc thành các nhiệm vụ cơ bản và phân tích nơi công nghệ có thể thay thế, tăng cường hoặc biến đổi từng nhiệm vụ; tái triển khai các nhiệm vụ cho AI và tự động hóa, và tổ chức nhân tài theo những cách mới; và sau đó làm rõ cách xây dựng lại phương thức làm việc mới.
Quá nhiều tổ chức tập trung vào công nghệ như AI tạo sinh như những công cụ độc lập và bỏ lỡ cách chúng có thể là những nhân tố nhân sức mạnh cho công nghệ hiện có (chẳng hạn, trong trường hợp dịch vụ tài chính, RPA và machine learning). Ở đó, sự kết hợp của AI thị giác, RPA, machine learning và AI sinh tạo đã cho phép chuyển đổi hoàn toàn quy trình khách hàng quan trọng.
Bằng cách bắt đầu "làm từ công việc" thay vì "tiếp cận từ công nghệ", nền tảng công nghệ của công ty dịch vụ tài chính cho phép tái triển khai công việc sang nhân tài trẻ hơn và trung tâm khả năng toàn cầu. Những lợi ích đó không được hình dung trong trường hợp kinh doanh ban đầu, nhưng việc khai thác các tùy chọn này đã tăng thêm ROI của công nghệ. Loại phần thưởng này chỉ có thể nếu bạn sẵn sàng chuyển công việc dựa trên nơi kỹ năng cơ bản để thực hiện công việc cư trú. Việc lựa chọn phương pháp làm từ công việc cũng cho phép các công ty hiểu khả năng công nghệ cụ thể yêu cầu trước khi đầu tư vào chúng, có khả năng tiết kiệm một lượng vốn đáng kể bằng cách tránh trả tiền cho các công cụ sai.
Công ty dịch vụ tài chính rõ ràng về cách xây dựng lại vai trò cao cấp để tăng tác động. Khi các nhiệm vụ lặp đi lặp lại bị loại bỏ và công việc khác được chuyển đến nhân viên trẻ hơn, nhân viên cao cấp có thể dành thời gian để cải thiện trải nghiệm khách hàng và cụ thể, nâng cao việc đưa khách hàng mới vào. Tác động kinh tế của tỷ lệ thu hút và giữ chân khách hàng mạnh hơn cuối cùng tương đương với khoản tiết kiệm từ việc thiết kế lại công việc cốt lõi.
Thực hiện lời hứa của AI đòi hỏi nỗ lực của toàn bộ đội ngũ lãnh đạo tổ chức, ở mọi cấp và trên mọi khả năng — từ lãnh đạo kinh doanh đến lãnh đạo công nghệ đến lãnh đạo nhân sự. Bắt đầu với câu hỏi về công việc cần thực hiện sẽ cho phép tổ chức đảm bảo sự đổi mới liên tục của chính họ, đặc biệt là trước sự phát triển nhanh chóng và không thể đoán trước trong khả năng của AI.
Bạn có sẵn sàng uốn cong đường cầu công việc không?
Ravin Jesuthasan là đối tác cấp cao và người lãnh đạo toàn cầu cho Dịch vụ Công việc, Kỹ năng và Chuyển đổi tại Mercer. Ông là tác giả của 6 cuốn sách về tương lai công việc, AI và tự động hóa.
Báo cáo Deloitte cho thấy 80% nhân viên tin AI có thể hỗ trợ phát triển nghề nghiệp thông qua các cơ hội học tập cá nhân hóa.
AI đang cách mạng hóa quá trình cố vấn bằng nền tảng học tập thích ứng, theo dõi tiến trình cá nhân, phân tích khoảng cách kỹ năng và gợi ý chủ đề thảo luận cũng như tổng hợp quá trình cố vấn.
Các công cụ AI giảm đáng kể gánh nặng hành chính, hỗ trợ kết nối và hợp tác từ xa giữa mentor và mentee.
AI không thể thay thế trực giác, lòng trắc ẩn, sự đồng cảm và khả năng tạo động lực một cách tinh tế mà chỉ con người mới có.
Mentor con người mới giúp mentee vượt qua vùng an toàn, đặt câu hỏi sắc bén, chia sẻ trải nghiệm cá nhân và truyền cảm hứng hành động.
AI thiếu khả năng nhận biết dấu hiệu phi ngôn ngữ, không xây dựng được sự tin tưởng hoặc điều chỉnh phản hồi dựa trên cảm xúc thực tế.
Trong những tình huống khó khăn (trượt phỏng vấn, mất khách hàng...), mentor con người cho mentee không gian an toàn để cảm xúc và học hỏi.
Mentor hỗ trợ hướng dẫn nhận thức đạo đức, đặt ra câu hỏi về giá trị và phát triển tư duy phản biện, điều AI không thể làm được.
AI chỉ hoạt động dựa trên dữ liệu quá khứ, còn mentor con người dựa trên đạo đức, giá trị để hỗ trợ ra quyết định phức tạp.
Sự phát triển nghề nghiệp bền vững dựa trên mối quan hệ cố vấn – không chỉ báo cáo, dữ liệu mà là sự tin tưởng, lắng nghe và tò mò chân thành.
AI có thể tăng hiệu quả cố vấn, tiết kiệm thời gian, nhưng yếu tố con người (sự hiện diện, đồng cảm, động viên) mới quyết định thành công dài hạn.
Mentorship hiện đại cần tận dụng AI cho cá nhân hóa và quản lý, đồng thời phát huy tối đa những giá trị độc đáo của con người như cảm xúc và đạo đức.
📌 AI giúp mở rộng và cá nhân hóa quá trình cố vấn nghề nghiệp, giảm tải công việc hành chính, nhưng không thể thay thế trực giác, lòng trắc ẩn, động lực cũng như hướng dẫn đạo đức của mentor con người; 80% nhân viên vẫn kỳ vọng sự kết hợp cả công nghệ và kết nối thật trong phát triển bản thân.
https://www.fastcompany.com/91325756/this-is-how-ai-is-changing-mentorship
Báo cáo khí hậu Deloitte 2024 ghi nhận 85% lãnh đạo doanh nghiệp tăng đầu tư vào bền vững; 70% dự đoán rủi ro khí hậu sẽ định hình lại chiến lược trong 3 năm tới.
Giảm khí thải carbon là mục tiêu then chốt nhưng phức tạp. Khí thải được chia thành 3 phạm vi:
Phạm vi 1: Khí thải trực tiếp từ tài sản sở hữu.
Phạm vi 2: Khí thải gián tiếp từ năng lượng mua.
Phạm vi 3: Tất cả khí thải gián tiếp khác trong chuỗi giá trị.
Khí thải phạm vi 3 có thể vượt xa phạm vi 1 và 2 cộng lại, chiếm 50-70% tổng khí thải doanh nghiệp (theo Diễn đàn Kinh tế Thế giới). Tuy nhiên, chỉ 10% doanh nghiệp đo lường đầy đủ cả 3 phạm vi và sai số lên tới 30%.
Giải pháp như SAP Green Ledger tích hợp dữ liệu khí thải vào ERP đám mây, giúp doanh nghiệp kiểm soát và dự báo khí thải theo thời gian thực, nâng cao minh bạch và hiệu quả trong kế hoạch bền vững.
Về nạn phá rừng: SAP Green Token sử dụng blockchain để theo dõi nguyên liệu, giúp doanh nghiệp xác minh nguồn gốc (như Unilever với chuỗi cung ứng dầu cọ), đảm bảo mục tiêu chuỗi cung ứng không phá rừng.
Mô hình kinh tế tuần hoàn ngày càng quan trọng: Nền tảng SAP Business Technology phối hợp cùng Hilti Group và BCG tạo công cụ Circelligence tự động tính điểm tuần hoàn vật liệu, phân tích để tối ưu tái sử dụng, tái chế.
AI hỗ trợ tổng hợp và phân tích dữ liệu ESG, tạo báo cáo bền vững tự động qua SAP Sustainability Control Tower, giúp doanh nghiệp theo dõi tiến độ và ra quyết định thông minh hơn về bền vững.
Nhờ ERP đám mây và AI, các doanh nghiệp có thể biến khó khăn thành hành động cụ thể, đáp ứng yêu cầu pháp lý và góp phần bảo vệ hành tinh, đồng thời duy trì tăng trưởng.
📌 ERP đám mây và AI đang giúp 85% doanh nghiệp tăng tốc đầu tư vào bền vững, giúp đo khí thải chuẩn xác hơn (giảm sai số đến 30%), truy xuất nguyên liệu chống phá rừng, và tối ưu kinh tế tuần hoàn với các giải pháp như SAP Green Ledger, Green Token, Circelligence, minh chứng cho vai trò then chốt của công nghệ trong bảo vệ môi trường.
https://www.forbes.com/sites/sap/2025/04/28/how-cloud-erp-and-ai-are-powering-the-future-of-sustainability/
Định giá tương đối là phương pháp so sánh giá trị một doanh nghiệp với các công ty cùng ngành thông qua chỉ số như lợi nhuận, doanh thu, mức nợ; tuy nhiên, quá trình chọn công ty so sánh bị ảnh hưởng bởi tính chủ quan, dẫn tới sai lệch kết quả.
Việc phân loại ngành nghề không thống nhất giữa các hệ thống như GICS và NAICS khiến một công ty như Google có thể bị xếp vào nhóm truyền thông hoặc hạ tầng điện toán – tạo ra rủi ro khi chọn doanh nghiệp so sánh.
Tác giả đề xuất phương pháp mới kết hợp AI (đặc biệt là Gradient Boosting Machines – GBMs) vào định giá, sử dụng dữ liệu lịch sử để tìm ra mô hình, mối quan hệ phức tạp mà phương pháp truyền thống bỏ sót.
Thuật toán sẽ phân tích hàng loạt thông số tài chính như doanh thu, lợi nhuận, hệ số nợ… để xác định mức độ tương đồng giữa các công ty, loại bỏ phần lớn yếu tố cảm tính.
Mỗi công ty so sánh được gán một "peer weight" – trọng số minh bạch cho thấy mức độ đóng góp của từng công ty vào kết quả định giá cuối cùng, giúp chuyên gia tài chính dễ dàng truy xuất nguồn gốc và lý giải kết quả.
Ứng dụng thực tế với Mastercard, AI đã chọn ra 5 công ty có mức so sánh cao nhất là Apple, S&P Global, Eli Lilly and Company, Lockheed Martin và United Parcel Service – đều không phải công ty tài chính truyền thống.
Yếu tố ảnh hưởng mạnh nhất đến định giá của Mastercard là lợi nhuận trên vốn chủ sở hữu (return on equity), tiếp theo là lợi nhuận trên tài sản hàng quý.
Quan hệ giữa các công ty được minh họa bằng mạng lưới, nơi Mastercard nằm gần các công ty công nghệ như Nvidia, Apple, Microsoft, Texas Instruments và Tesla, thay vì các ngân hàng hoặc tổ chức tài chính lớn.
📌 Phương pháp định giá ứng dụng AI tạo sinh bằng thuật toán GBMs giúp giảm chủ quan, tăng minh bạch và phát hiện các doanh nghiệp so sánh bất ngờ, như trường hợp Mastercard kết nối chặt với nhóm công nghệ thay vì các công ty tài chính truyền thống. Dữ liệu lịch sử và trọng số minh bạch là điểm nhấn giúp cải thiện độ tin cậy khi định giá doanh nghiệp.
https://hbr.org/2025/04/ai-can-make-the-relative-valuation-process-less-subjective
#HBR
Nhu cầu về AI tạo sinh chuyên biệt cho nghiệp vụ đang thúc đẩy ứng dụng mô hình ngôn ngữ nhỏ (SLM) trong doanh nghiệp.
Báo cáo Gartner dự báo đến năm 2027, số lượt sử dụng SLM sẽ gấp ít nhất 3 lần mô hình ngôn ngữ lớn (LLM), do SLM phù hợp xử lý tác vụ đặc thù, giảm chi phí vận hành và hạn chế rủi ro về bảo mật.
SLM được đánh giá cao nhờ khả năng phản hồi nhanh, ít tiêu tốn tài nguyên tính toán cũng như đảm bảo chính xác hơn nhờ đào tạo trên dữ liệu nghiệp vụ cụ thể.
Sự lấn át của SLM diễn ra song song với quan ngại về hiện tượng ảo giác (hallucination) ở LLM khi xử lý các ngữ cảnh hoặc ngành nghề chuyên biệt, như tài chính và y tế, dễ phát sinh kết quả sai lệch.
Nhiều doanh nghiệp lớn như Microsoft, Google, Meta đã tung ra các SLM tiêu biểu như Phi, Gemma, Llama 3.1 đáp ứng nhu cầu triển khai nhanh, bảo vệ dữ liệu nội bộ, vận hành linh hoạt trên thiết bị phổ thông (chỉ cần 1 GPU).
Microsoft hợp tác nhiều đối tác ngành như Bayer, Siemens phát triển bản SLM tối ưu hóa cho từng lĩnh vực, giảm thời gian và chi phí áp dụng AI thực tiễn.
Google Gemma 3 tận dụng trí tuệ ngành nghề đặc thù, cho phép vận hành nhanh trên thiết bị cá nhân và vượt trội LLM ở các tác vụ chuyên sâu như y tế, pháp lý, tài chính.
SLM mã nguồn mở, chạy kín sau tường lửa, giúp doanh nghiệp kiểm soát dữ liệu, đáp ứng tiêu chuẩn tuân thủ và tối ưu chi phí quản lý, bảo mật.
Một số doanh nghiệp chú trọng kết hợp mô hình lớn với SLM chuyên biệt, lấy LLM làm nền tảng và SLM làm lớp ứng dụng chuyên sâu, tạo hệ AI vừa mở rộng được vừa tối ưu cho nhu cầu nội bộ.
Việc tùy chỉnh LLM thông qua các kỹ thuật như tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (retrieval-augmented generation) giúp tạo ra SLM đáp ứng bài toán thực tế hơn, hạn chế vấn đề ảo giác và tăng hiệu quả triển khai AI đặc thù.
📌 Đến năm 2027, doanh nghiệp dự kiến sử dụng SLM nhiều gấp 3 lần so với LLM nhờ tính tối ưu hóa nghiệp vụ, giảm chi phí, tăng bảo mật và độ chính xác. SLM mã nguồn mở, vận hành nội bộ ngày càng được ưa chuộng, đặc biệt trong các ngành quy định chặt chẽ như y tế, tài chính, góp phần thúc đẩy chuyển đổi số hiệu quả.
https://www.cio.com/article/3974073/it-leaders-see-big-business-potential-in-small-ai-models.html
77% nhân viên Thụy Sĩ sử dụng AI trong công việc, con số này cao hơn đáng kể so với tỷ lệ toàn cầu là 58%.
Một nửa số người được khảo sát thừa nhận sử dụng AI vi phạm chỉ thị của công ty, bao gồm việc tải lên dữ liệu nhạy cảm lên các công cụ miễn phí, công khai.
74% không kiểm tra kết quả do AI cung cấp, dẫn đến 63% ghi nhận lỗi hoặc sự cố liên quan đến AI tại nơi làm việc.
69% từng đưa nội dung do AI tạo ra như thể đó là sản phẩm của bản thân.
Chỉ 46% nhân viên Thụy Sĩ và toàn cầu bày tỏ sự tin tưởng vào AI.
Chỉ dưới 50% hoàn thành đào tạo về AI, trong khi 57% tự tin có thể sử dụng AI một cách hiệu quả.
65% người Thụy Sĩ và 70% người trên thế giới đồng ý rằng cần có khuôn khổ pháp lý kiểm soát AI.
Cuộc khảo sát được KPMG thực hiện với 48.000 người thuộc 47 quốc gia, cho thấy mức độ phơi nhiễm và thái độ đối với AI đang ở mức cao.
Dù tiềm năng lớn, việc sử dụng AI thiếu kiểm soát, kiểm tra, và huấn luyện vẫn khiến xuất hiện nhiều rủi ro đối với bảo mật cũng như chất lượng công việc.
📌 77% nhân viên Thụy Sĩ dùng AI nơi làm việc, đa phần bất chấp quy định công ty; 63% ghi nhận lỗi do AI, chỉ 46% có niềm tin vào công nghệ này. Đa số mong muốn có khuôn khổ pháp lý để kiểm soát AI, nhấn mạnh rủi ro khi thiếu đào tạo và giám sát.
https://www.swissinfo.ch/eng/science/77-use-ai-at-work-many-against-company-guidelines/89242483
https://assets.kpmg.com/content/dam/kpmgsites/xx/pdf/2025/05/trust-attitudes-and-use-of-ai-global-report.pdf.coredownload.inline.pdf
Salesforce công bố báo cáo Salesforce AI Research in Review đầu tiên, chia sẻ các thành tựu và nghiên cứu AI nổi bật quý vừa qua, tập trung vào phát triển AI agent đáng tin cậy cho doanh nghiệp.
Vấn đề lớn nhất: "trí thông minh lởm chởm" ở AI - nhiều mô hình AI giải quyết tốt các bài toán phức tạp nhưng lại dễ mắc lỗi với câu hỏi đơn giản, gây khó khăn cho việc triển khai thực tế trong doanh nghiệp cần hiệu quả ổn định.
Salesforce phát triển bộ benchmark SIMPLE gồm 225 câu hỏi suy luận cơ bản, giúp đo lường khả năng lý luận thực tế của AI, tập trung vào các vấn đề mà ít nhất 10% học sinh trung học có thể giải quyết trong một giờ.
SIMPLE không kiểm tra tác vụ phức tạp nhưng giúp doanh nghiệp hiểu sâu về hiệu suất thực tế của mô hình AI, gia tăng sự tin tưởng khi triển khai AI vào các quy trình quan trọng.
Benchmark ContextualJudgeBench đánh giá khả năng của các LLM khi đóng vai trò giám khảo chấm điểm phản hồi, kiểm tra hơn 2.000 cặp phản hồi để đảm bảo tiêu chí công bằng, minh bạch khi đánh giá mô hình AI khác.
Khung đánh giá CRMArena kiểm tra AI agent thực hiện các tác vụ quản lý khách hàng (CRM), như tóm tắt email bán hàng, gợi ý thương mại... Tập trung giải quyết các tác vụ doanh nghiệp thực tiễn thay vì nhiệm vụ học thuật.
Nhiều công nghệ khác được đề cập:
SFR-Embedding và SFR-Embedding-Code: Chuyển đổi thông tin văn bản, mã lệnh thành dữ liệu cấu trúc phục vụ AI agent.
SFR-Guard: Đánh giá hiệu suất AI trong các lĩnh vực nhạy cảm (phát hiện độc hại, tấn công prompt...).
xLAM: Mô hình hỗ trợ đa lượt hội thoại, nhiều phiên bản nhỏ phù hợp nhiều kịch bản.
TACO: Mô hình multimodal tạo chuỗi tư duy - hành động giải quyết bài toán đa bước phức tạp.
📌 Salesforce đặt nền móng quan trọng cho AI agent doanh nghiệp nhờ các benchmark SIMPLE, ContextualJudgeBench, CRMArena, cùng loạt model tối ưu cho tác vụ thực tiễn, tăng độ tin cậy và hiệu suất ứng dụng trong môi trường doanh nghiệp hiện đại.
https://www.zdnet.com/article/salesforce-research-lays-the-foundations-for-more-reliable-enterprise-ai-agents/
Trí tuệ nhân tạo (AI) đang chuyển hóa từ công cụ hỗ trợ thành đồng đội cùng làm việc với con người, ảnh hưởng mạnh mẽ đến cách doanh nghiệp vận hành.
Tốc độ đổi mới AI nhanh hơn nhiều so với các phần mềm dịch vụ (SaaS) truyền thống như ERP, kế toán; nhiều công cụ xuất hiện và lỗi thời ngay trong 1 năm.
Thách thức lớn nhất hiện nay là thiếu khung chiến lược cụ thể cho AI; phần lớn doanh nghiệp tư nhân đang sử dụng AI một cách thụ động, thiếu tiêu chí lựa chọn rõ ràng, bỏ qua cả vấn đề bảo mật dữ liệu và quyền riêng tư.
Việc xác định kỹ năng, phẩm chất cần thiết cho nguồn nhân lực khi làm việc cùng AI là điều “bí ẩn” với phần lớn doanh nghiệp.
AI không tách biệt mà là bộ não đằng sau các công nghệ hội tụ như robotics, xe tự hành, blockchain, Web3…, mỗi công nghệ này đều mang tính đột phá và khi kết hợp sẽ định nghĩa lại hoạt động kinh doanh.
Doanh nghiệp thường triển khai AI “ad hoc”, sử dụng chiến thuật rời rạc hoặc liều lĩnh, dẫn đến rủi ro cao và hiệu quả thấp.
Tác giả hình dung mỗi nhân viên sẽ có một “AI Buddy Mothership” – hệ thống AI học liên tục, chứa tri thức và văn hóa doanh nghiệp, điều phối các AI Agent chuyên biệt cho từng lĩnh vực như dự báo dòng tiền, phát triển khách hàng.
Vai trò người dùng là chỉ đạo, tinh chỉnh và áp dụng kết quả AI với sự cân nhắc và đồng cảm.
AI Agent có khả năng phối hợp với các AI Agent khác, chủ động cảnh báo khi cần sự can thiệp của con người, giúp doanh nghiệp vận hành với tốc độ máy-máy.
Khuyến nghị xây dựng khung chiến lược AI gồm: xác định kỹ năng AI nhân sự cần có hiện tại và 5 năm tới; phát triển AI Buddy làm “bộ não doanh nghiệp”; xây dựng AI Agent chuyên biệt theo từng chức năng; tích hợp các công nghệ mới kèm nhật ký kiểm tra/audit trail để kiểm soát.
Ai biết định hướng, chỉ đạo AI sẽ dẫn đầu; phần còn lại sẽ bị “hàng hóa hóa”, giá trị doanh nghiệp và thu nhập sẽ giảm dần, đặc biệt khi chuyển giao/sang nhượng doanh nghiệp.
Hành trình xây dựng chiến lược AI cần hợp tác, thảo luận cùng các đối tác đồng nghiệp vì công nghệ phát triển quá nhanh và liên tục thay đổi.
📌 AI đang định nghĩa lại hoạt động kinh doanh, đòi hỏi doanh nghiệp phải chuyển từ sử dụng AI rời rạc sang xây dựng chiến lược rõ ràng với AI Buddy và AI Agent, phát triển kỹ năng nhân sự thích nghi, hợp tác xuyên phòng ban để duy trì giá trị, tốc độ và sức cạnh tranh.
https://www.forbes.com/sites/forbesbooksauthors/2025/04/29/leading-strategically-in-the-age-of-ai/
UiPath công bố nền tảng UiPath Platform for Agentic Automation, tập trung vào điều phối AI agent theo quy tắc doanh nghiệp thay vì hoàn toàn tự động hóa như robot process automation (RPA) truyền thống.
Điểm nhấn là Maestro – lớp điều phối AI làm nhiệm vụ quản lý luồng thông tin giữa AI agent, con người và tầng tự động hóa, giống như một “giám sát viên trung tâm” tự động hóa, mô hình hóa, tối ưu hóa quy trình kinh doanh phức tạp và giám sát hiệu suất.
Quy trình hoạt động 3 bước: agent tiếp nhận yêu cầu, phân tích và đề xuất giải pháp; con người phê duyệt khuyến nghị; RPA thực hiện hành động được duyệt. Mô hình này giúp quy trình minh bạch, kiểm soát rủi ro AI và luôn có sự tham gia của con người.
Daniel Dines (CEO UiPath) nhấn mạnh điểm yếu lớn của Large Language Model (LLM) hiện tại là tính không xác định (nondeterministic), khiến doanh nghiệp lo ngại khi AI tự động can thiệp sâu vào hệ thống. Maestro đảm bảo mọi hành động đều được kiểm tra, chấp nhận bởi con người và thực hiện bởi hệ thống tự động hóa chuẩn xác.
UiPath hợp tác với LangChain để tích hợp framework mã nguồn mở đa agent; đồng thời hỗ trợ Anthropic, Microsoft và tham gia giao thức Agent-to-Agent của Google.
Dines cho rằng agent chưa thể hoàn toàn thay thế tự động hóa truyền thống do chưa đạt độ tin cậy 100%, chỉ nên để AI agent đề xuất, mọi giao dịch quan trọng cần sự xác nhận của con người và tự động hóa hoàn toàn.
Trong khi nhiều đối thủ như ServiceNow, Salesforce, Writer, Microsoft phát triển nền tảng AI agent tự vận hành, UiPath chọn chiến lược “người – agent – robot” để kiểm soát tối đa rủi ro và tăng độ tin cậy hoạt động.
Dù vậy, doanh nghiệp vẫn rất kỳ vọng AI agent giúp giảm tải công việc thủ công, tinh giản quy trình, tăng tốc chuyển đổi số, với tiềm năng tăng hiệu suất và bảo mật.
📌 UiPath vừa ra mắt nền tảng Agentic Automation với Maestro điều phối AI agent, tích hợp cả con người và RPA, bảo đảm kiểm soát chặt mọi tác vụ. Maestro triển khai quy trình ba bước, minh bạch, không để AI tự ý hành động, kết nối với LangChain, Anthropic, Google protocol. UiPath hướng đến quy trình an toàn, tin cậy thay vì “all-in-one” tự động hóa hoàn toàn.
https://venturebeat.com/ai/uipaths-new-orchestrator-guides-ai-agents-to-follow-your-enterprises-rules/
Theo báo cáo "2025: The Year the Frontier Firm Is Born" của Microsoft, 17% nhân viên cho biết họ sử dụng AI để tránh bị đồng nghiệp đánh giá khi thực hiện các nhiệm vụ như tìm kiếm thông tin, phân tích dữ liệu, động não và sáng tạo ý tưởng.
Khảo sát thực hiện với 31.000 nhân viên tại 31 quốc gia, cho thấy ngoài khả năng sẵn sàng 24/7 và nguồn ý tưởng vô tận, nỗi sợ bị phán xét cũng là lý do lớn khiến nhân viên chọn AI thay vì đồng nghiệp.
Chuyên gia hạnh phúc Jessica Weiss nhận định hiện tượng này không gây ngạc nhiên, bởi sau đại dịch COVID-19, nhiều người vẫn mang "hậu chấn lo âu xã hội", khiến tương tác tại nơi làm việc trở nên khó khăn hơn.
Weiss cảnh báo rằng sử dụng AI như một sự thay thế cho kết nối con người có thể gây ra tác động tiêu cực đến sự hài lòng và hạnh phúc trong công việc.
Bà khuyên nhân viên nên cố gắng duy trì ít nhất "một tương tác, một cuộc trò chuyện, một sự hợp tác" trong môi trường công sở để tăng cường sự kết nối và sức khỏe tinh thần.
AI có thể được sử dụng như công cụ hỗ trợ giao tiếp, chẳng hạn nhờ AI gợi ý cách bắt đầu một cuộc trò chuyện khó xử hoặc chuẩn bị ý tưởng trước buổi họp nhóm.
Mục tiêu nên là dùng AI để "bôi trơn" quá trình hợp tác, chứ không phải thay thế hoàn toàn giao tiếp giữa con người với nhau.
Việc lệ thuộc hoàn toàn vào AI trong giao tiếp có thể làm mất đi yếu tố cốt lõi tạo nên sự gắn bó và thành công lâu dài trong tổ chức.
Microsoft nhấn mạnh rằng AI nên đóng vai trò là công cụ thúc đẩy sự sáng tạo và hợp tác, không phải là rào chắn cản trở sự kết nối.
📌 Báo cáo từ Microsoft cho thấy 17% nhân viên dùng AI để tránh sự đánh giá từ đồng nghiệp trong công việc, do ảnh hưởng kéo dài của "hậu chấn lo âu xã hội" hậu COVID-19. Chuyên gia khuyến nghị nên dùng AI như công cụ hỗ trợ giao tiếp thay vì thay thế con người, nhằm duy trì hạnh phúc và sự gắn bó tại nơi làm việc.
https://www.cnbc.com/2025/04/28/employees-turn-to-ai-for-fear-of-being-judged-says-microsoft.html
Dù nhận thấy tiềm năng từ AI, nhiều CEO vẫn chần chừ vì lo ngại chi phí, rủi ro và thiếu hiểu biết sâu sắc về công nghệ.
Một rào cản lớn là sự thiếu hiểu biết kỹ thuật: nhiều CEO không xuất thân từ ngành công nghệ nên khó nắm bắt ứng dụng và rủi ro tiềm ẩn của AI.
Chi phí triển khai cao, bao gồm phát triển mô hình, đầu tư phần cứng và tuyển dụng nhân tài, khiến ROI trở nên khó đoán và làm các CEO e ngại.
Dữ liệu chất lượng kém và thách thức trong việc quản lý dữ liệu cũng là nguyên nhân cản trở, cùng với lo ngại về vi phạm quyền riêng tư theo GDPR.
Văn hóa tổ chức đề kháng với thay đổi, đặc biệt là nỗi sợ ảnh hưởng đến sự ổn định nhân sự, cũng làm nhiều CEO ngại ngần thực hiện chuyển đổi số mạnh mẽ.
Sự khó lường của các mô hình AI, đặc biệt trong những ngành nhạy cảm như tài chính, y tế, càng làm tăng nỗi sợ hãi về hậu quả tiêu cực.
Thiếu hụt nhân tài AI trên thị trường khiến việc xây dựng đội ngũ nội bộ càng khó khăn, làm gia tăng chi phí và sự phụ thuộc vào đối tác bên ngoài.
Các CEO thường ngần ngại vì khó dự đoán ROI của dự án AI, đặc biệt khi lợi ích tài chính thường không thể hiện ngay lập tức.
Lo ngại về quy định pháp lý, đạo đức như thiên vị thuật toán và nguy cơ bất bình đẳng xã hội khiến nhiều CEO chọn đứng ngoài cuộc chơi AI.
Tác giả khuyến nghị các CEO nên bắt đầu với các dự án AI nhỏ, có kết quả dễ đo lường, nhằm giảm thiểu rủi ro và học hỏi nhanh chóng từ thực tế.
📌 Sự chần chừ trong việc triển khai AI của các CEO xuất phát từ chi phí cao, khó khăn quản lý dữ liệu, lo ngại rủi ro pháp lý và văn hóa tổ chức. Trong bối cảnh AI trở thành lợi thế cạnh tranh then chốt, các doanh nghiệp cần thực hiện 4–5 dự án AI nhỏ song song để học hỏi, giảm thiểu thiệt hại và tiến tới áp dụng AI hiệu quả.
https://www.forbes.com/sites/forbesbooksauthors/2025/04/28/why-the-c-suite-is-the-bottleneck-for-implementing-ai-projects/
Google Cloud vừa công bố danh sách 601 ứng dụng thực tế của AI tạo sinh từ các tổ chức hàng đầu, gấp 6 lần so với năm 2024 (101 ứng dụng).
Các doanh nghiệp như Uber, Samsung, Citi, Mercedes-Benz, Deutsche Bank và Alaska Airlines tham gia, trải rộng trên 11 nhóm ngành và 6 loại tác nhân AI: Customer Agents, Employee Agents, Creative Agents, Code Agents, Data Agents, Security Agents.
Các ví dụ thực tế:
Volkswagen phát triển trợ lý ảo đa phương thức trong ứng dụng myVW bằng mô hình Gemini.
Mercedes-Benz ra mắt trợ lý AI cho định vị và thương mại điện tử trong xe.
UPS xây dựng bản sao kỹ thuật số mạng lưới giao hàng toàn cầu.
Citi dùng Vertex AI hỗ trợ bộ công cụ lập trình và số hóa tài liệu.
Deutsche Bank sử dụng DB Lumina rút ngắn thời gian lập báo cáo từ vài giờ xuống vài phút.
Freenome phát triển xét nghiệm ung thư sớm, Mayo Clinic khai thác 50 petabyte dữ liệu lâm sàng nhờ Vertex AI Search.
Samsung tích hợp AI tóm tắt văn bản, chỉnh sửa ảnh vào Galaxy S24.
Papa John’s, Wendy’s và Uber dùng hệ thống đặt hàng dự đoán bằng AI; Radisson Hotel tăng 20% doanh thu nhờ cá nhân hóa quảng cáo bằng Vertex AI.
Công nghệ nền tảng bao gồm: Vertex AI, Gemini Models, Imagen & Veo, BigQuery ML và Security AI.
Xu hướng nổi bật:
AI từ thử nghiệm chuyển sang hệ thống vận hành quy mô lớn.
Các mô hình đa phương thức (text, hình ảnh, dữ liệu) trở nên thiết yếu.
Các tác nhân AI chuyên ngành ngày càng phát triển.
AI ngày càng được phổ cập, không chỉ giới hạn trong giới kỹ sư.
📌 Google Cloud ghi dấu ấn với 601 ứng dụng AI thực tế, cho thấy AI tạo sinh đã bước vào giai đoạn triển khai quy mô lớn trên toàn cầu. Các lĩnh vực từ ô tô, tài chính, y tế tới bán lẻ đều áp dụng AI, với sự hỗ trợ mạnh mẽ từ Vertex AI và Gemini Models, hứa hẹn một năm 2026 đầy đột phá công nghệ.
https://www.marktechpost.com/2025/04/26/google-ai-unveils-601-real-world-generative-ai-use-cases-across-industries/
Tổ chức nên bắt đầu tích hợp AI từ những bước nhỏ, cá nhân hóa ứng dụng AI để tạo ra tác động lớn, thay vì triển khai toàn diện ngay từ đầu.
Kháng cự lớn nhất khi triển khai AI đến từ con người, chủ yếu do thói quen và tâm lý sợ thay đổi. Lãnh đạo cần làm gương, dẫn dắt bằng ví dụ thực tế và ăn mừng những thành công nhỏ để duy trì động lực.
AI giúp tăng hiệu suất công việc nhờ tận dụng tri thức tập thể, giảm lặp lại sai lầm cũ, nhưng sáng tạo và động lực vẫn phải đến từ con người.
Doanh nghiệp nên xây dựng các cộng đồng nội bộ như kênh Telegram, nhóm Slack để chia sẻ kinh nghiệm AI, tổ chức thử thách, workshop nhằm thúc đẩy học hỏi và ứng dụng AI.
Chương trình mentorship giúp nhân viên thành thạo AI nhanh hơn nhờ hướng dẫn cá nhân hóa từ đồng nghiệp đã có kinh nghiệm.
Lãnh đạo (đặc biệt là CEO) đóng vai trò then chốt: truyền cảm hứng, hướng dẫn nhân viên tìm cách ứng dụng AI vào từng nhiệm vụ cụ thể, kiên trì nhắc nhở và hỗ trợ thực hành.
Cá nhân hóa là chìa khóa: AI không chỉ cải thiện trải nghiệm khách hàng mà còn tối ưu hóa quy trình nội bộ bằng cách thích nghi với phong cách làm việc của từng người.
Doanh nghiệp cần xem AI là đối tác hỗ trợ sáng tạo, không phải thay thế con người. Sự kết hợp giữa hiệu suất AI và sáng tạo con người tạo ra sức mạnh đột phá.
Dự báo trong vòng 1 năm tới, 30% quy trình sáng tạo nội dung và lập trình của doanh nghiệp sẽ được AI hỗ trợ mạnh mẽ.
Để AI trở thành cốt lõi chiến lược, doanh nghiệp cần đổi mới tư duy vận hành, lãnh đạo tầm nhìn, triển khai có hệ thống và sẵn sàng thử nghiệm, học hỏi liên tục.
📌 AI sẽ chiếm 30% quy trình sáng tạo, lập trình trong năm tới. Cá nhân hóa, dẫn dắt bằng ví dụ, cộng đồng nội bộ, mentorship và lãnh đạo truyền cảm hứng là chìa khóa để AI trở thành cốt lõi chiến lược doanh nghiệp. Sáng tạo con người vẫn là động lực chính, AI là công cụ tăng tốc đột phá.
https://www.entrepreneur.com/leadership/why-ai-should-be-a-core-part-of-your-business-strategy/488971
AI hiện đóng vai trò trung tâm trong tăng trưởng, cạnh tranh và ra quyết định của doanh nghiệp, nhưng nhiều lãnh đạo vẫn chưa phân biệt được đâu là giá trị thực, đâu là “hype” về AI.
Nghiên cứu với gần 7.000 lãnh đạo ở 645 công ty cho thấy: Doanh nghiệp có ban lãnh đạo hiểu biết AI dễ dàng xác định và khai thác giá trị AI hơn.
Nhiều ban điều hành vẫn xem AI là vấn đề kỹ thuật, giao phó cho IT hoặc đội dữ liệu, thay vì coi đó là vấn đề chiến lược cần sự tham gia của tất cả các CMO, CFO, CHRO, CEO.
AI literacy (hiểu biết về AI) của cả đội ngũ lãnh đạo quan trọng hơn việc chỉ bổ nhiệm một Chief AI Officer (CAIO). Nếu đội ngũ còn lại không hiểu AI, mọi nỗ lực sẽ thất bại.
MIT Sloan chỉ ra: Tỷ lệ hiểu biết AI thấp khiến lãnh đạo khó đánh giá đúng các công cụ “powered by AI”, dẫn đến quyết định sai lầm, đầu tư lãng phí, kỳ vọng không thực tế, và các dự án AI bị “chết yểu”.
Mô hình thang AI literacy gồm 5 bước: Confusion (bối rối) → Curiosity (tò mò) → Comprehension (hiểu biết) → Confidence (tự tin) → Competence (thành thạo). Đội ngũ lãnh đạo cần cùng nhau leo thang này để đạt sự đồng thuận và tích hợp AI vào chiến lược.
Khi xây dựng được AI fluency flywheel (vòng quay hiểu biết AI), doanh nghiệp chuyển từ bị động sang chủ động dẫn dắt, coi AI là năng lực cốt lõi chứ không phải dự án rời rạc.
Đa số chương trình đào tạo AI hiện nay quá kỹ thuật, quá dài hoặc chỉ dành cho cá nhân, thiếu trải nghiệm học tập chung cho ban lãnh đạo.
Để thu hẹp khoảng cách AI, các lãnh đạo cần đối thoại, chia sẻ góc nhìn, cam kết học hỏi cùng nhau, từ đó xác định vị trí trên thang AI literacy và vạch lộ trình phát triển.
📌 Gần 7.000 lãnh đạo ở 645 doanh nghiệp thiếu hiểu biết AI, dẫn đến đầu tư sai, kỳ vọng ảo và thất bại trong triển khai. Xây dựng năng lực AI cho toàn bộ ban lãnh đạo, không chỉ một cá nhân, là chìa khóa để doanh nghiệp chủ động dẫn dắt và tận dụng AI hiệu quả.
https://www.fastcompany.com/91313134/the-ai-gap-in-executive-leadership-teams
OpenAI o3 là mô hình AI tạo sinh agentic, chỉ cho phép 50 tin nhắn/tuần (khoảng 7 tin nhắn/ngày) kể cả với tài khoản Plus, Team, Enterprise.
9 ứng dụng thực tế nổi bật của OpenAI o3:
Phân tích hình ảnh nâng cao (advanced image reasoning): Tự động “nghĩ với hình ảnh”, phân tích chi tiết, nhận diện cảnh vật, ánh sáng, bóng đổ, xác định vị trí địa lý chỉ từ ảnh, được gọi là “location AGI”.
Truy vết lý luận hình ảnh: Mô hình tự động phóng to, phân tích từng vùng ảnh, lý giải từng bước như con người, đưa ra suy luận về nội dung, vị trí, bối cảnh.
Tìm kiếm xác thực thông tin: Chủ động sử dụng công cụ tìm kiếm web để xác nhận, đối chiếu dữ liệu từ ảnh với thông tin thực tế, trả về bảng dữ liệu tổng hợp.
Giải đố, giải mê cung từ ảnh: Có thể giải mê cung 200x200 ô, xác định lối vào/lối ra, vẽ đường đi chỉ trong 1 phút 43 giây, áp dụng chiến lược bám biên, phân tích hình ảnh từng bước.
Phân tích dữ liệu kinh doanh: Nhập dữ liệu bán hàng Shopify 3 năm, o3 tự động tính tốc độ tăng trưởng kép (1,3%/năm), phát hiện xu hướng mùa vụ, đề xuất chiến lược quảng cáo, vẽ biểu đồ dự báo 24 tháng, đưa ra hành động cụ thể để tăng trưởng.
Đề xuất chiến lược kinh doanh thực tế: Phân tích xu hướng thị trường online, đề xuất hành động cụ thể như livestream TikTok, crosslist sản phẩm, tính toán chi phí/lợi ích, tạo scorecard đánh giá tác động từng giải pháp.
Deep research (nghiên cứu chuyên sâu): Tìm kiếm, tổng hợp, phân tích thông tin nhanh hơn các mô hình khác, phù hợp cho báo cáo nghiên cứu, phân tích thị trường, dự báo xu hướng.
Sử dụng Python/code interpreter: Tự động xử lý, trực quan hóa dữ liệu, vẽ trên ảnh, giải quyết các tác vụ phân tích số liệu, hình ảnh nâng cao.
Viết sáng tạo (creative writing): Đứng đầu bảng Creative Writing V3 về sáng tạo và trí tuệ cảm xúc, tạo nội dung có chiều sâu, cảm xúc, phù hợp cho các tác vụ đòi hỏi sáng tạo cao.
Nhược điểm: Dễ mắc lỗi ảo giác (hallucination), đặc biệt khi đếm vật thể trong ảnh hoặc các tác vụ cần độ chính xác tuyệt đối; tỷ lệ ảo giác 33% so với 16% của model 01, cần kiểm tra chéo kết quả trước khi dùng cho ngành đòi hỏi độ tin cậy cao.
📌 OpenAI 03 sở hữu 9 ứng dụng nổi bật: phân tích hình ảnh, truy vết lý luận, tìm kiếm xác thực, giải mê cung, phân tích & đề xuất kinh doanh, deep research, Python interpreter và viết sáng tạo. Tuy nhiên, giới hạn 50 tin nhắn/tuần và tỷ lệ ảo giác cao (33%) đòi hỏi kiểm tra kỹ kết quả, tận dụng đúng mục đích để tối ưu hiệu quả và chi phí.
https://www.youtube.com/watch?v=Sq0VCbGdRJU
67% lãnh đạo doanh nghiệp tin AI tạo sinh sẽ thay đổi tổ chức trong năm 2025, nhưng chỉ 36% doanh nghiệp thực sự có tầm nhìn rõ ràng về AI.
Gần 2,5 năm từ lúc ChatGPT ra mắt, phần lớn doanh nghiệp vẫn “mắc kẹt” ở giai đoạn thử nghiệm (prototype purgatory), chủ yếu triển khai các dự án nhỏ lẻ, chưa đạt giá trị bứt phá.
Khảo sát với 250 lãnh đạo công nghệ: chỉ 36% đã triển khai AI vào sản xuất thực tế, đa số vẫn loanh quanh ở giai đoạn thử nghiệm hoặc chưa bắt đầu.
Thách thức lớn nhất: thiếu hụt nhân tài AI và tốc độ đổi mới quá nhanh khiến nhân viên hiện tại khó theo kịp.
Doanh nghiệp dẫn đầu chọn giải pháp “đội nhóm kết hợp” (blended teams): vừa dùng nhân sự nội bộ, vừa bổ sung chuyên gia AI tự do/freelance hoặc bán thời gian.
Mô hình này giúp:
99% tăng năng lực đổi mới
98% nâng cao tỷ lệ thành công dự án
96% đẩy nhanh tiến độ
Tuyển dụng truyền thống bị đánh giá “hỏng”, 89% cho biết mô hình này không còn phù hợp; tuyển kỹ sư AI giỏi mất ít nhất 4 tháng, không kịp đáp ứng đà phát triển AI.
Về chiến lược công nghệ, 93% doanh nghiệp triển khai AI thành công đều khẳng định xây dựng (build) giải pháp tùy chỉnh hiệu quả hơn mua sẵn. Tuy nhiên, thay vì “xây từ đầu”, các tổ chức hàng đầu chọn cách “assemble”: tận dụng thành phần nguồn mở rồi chỉnh sửa, tích hợp vào quy trình riêng.
Đầu tư chính đang tập trung vào: 50% tăng ngân sách cho công cụ an toàn, giám sát AI; 49% ưu tiên nền tảng phát triển AI; 41% đầu tư cho hạ tầng dữ liệu.
ROI về AI: tự động hóa đang mang lại hiệu quả cao nhất (đạt 14%), phát triển sản phẩm AI tùy chỉnh và tự động hóa nội bộ là ưu tiên tiếp theo.
96% lãnh đạo lên kế hoạch tăng đầu tư AI trong năm 2025 (hơn 51% tăng mạnh ngân sách). Doanh nghiệp tập trung nhiều hơn vào tạo doanh thu (46%) thay vì chỉ cắt giảm chi phí (30%).
Vấn đề lớn nhất khiến AI không thành công: đánh giá thấp sự phức tạp khi đưa AI vào vận hành, thiếu nhân sự phù hợp và chiến lược thực thi.
📌 Năm 2025 là “năm bản lề” cho AI doanh nghiệp: chỉ 36% thoát khỏi giai đoạn thử nghiệm, mô hình đội nhóm kết hợp và “assemble” AI là chìa khóa tạo bứt phá. 96% lãnh đạo sẽ tăng đầu tư AI, ưu tiên tự động hóa và sản phẩm tùy chỉnh để tạo lợi thế cạnh tranh.
https://www.fastcompany.com/91309050/what-separates-ai-leaders-from-laggards
Nvidia công bố ra mắt nền tảng phần mềm NeMo microservices, hỗ trợ doanh nghiệp tự xây dựng AI Agent (trợ lý ảo tự động thực thi nhiệm vụ).
Nền tảng mới sử dụng mô hình AI nguồn mở như Meta Platforms và Mistral AI thay vì các giải pháp độc quyền từ OpenAI, Anthropic.
Doanh nghiệp hưởng lợi nhờ kiểm soát và tùy chỉnh sâu dữ liệu cũng như mô hình, bảo vệ dữ liệu mật thay vì phụ thuộc vào nhà cung cấp.
AI nguồn mở (“open-weight”) cung cấp các tham số số học (weights), giúp các doanh nghiệp dễ dàng tinh chỉnh theo nhu cầu.
Joey Conway – Giám đốc phần mềm AI tạo sinh cho doanh nghiệp của Nvidia – cho biết nền tảng tập trung giải quyết khó khăn về tích hợp và huấn luyện mô hình AI với dữ liệu nội bộ doanh nghiệp.
NeMo microservices giúp đơn giản hóa quá trình xây dựng AI Agent cho doanh nghiệp, đặc biệt về tích hợp dữ liệu riêng tư.
Thị trường AI Agent được Nvidia định giá 1.000 tỷ USD, ngang thị trường phần mềm doanh nghiệp truyền thống.
Hiện nay, thị trường vẫn khó phổ biến AI Agent do doanh nghiệp gặp khó khi chuẩn bị dữ liệu và đào tạo mô hình.
Nền tảng của Nvidia không bị ràng buộc bởi bất kỳ nền tảng đám mây cụ thể nào, giúp khách hàng tránh bị “khóa” (lock-in) vào một nhà cung cấp duy nhất.
Chiến lược phần mềm kết hợp phần cứng giúp Nvidia không chỉ dẫn đầu mảng GPU mà còn đẩy mạnh nguồn thu từ phần mềm AI, tiếp nối thành công với CUDA.
📌 Nvidia tung NeMo microservices giúp doanh nghiệp xây dựng AI Agent bằng nguồn mở như Meta, Mistral, vừa bảo mật dữ liệu vừa linh hoạt tối đa. Nvidia nhắm đến thị trường 1.000 tỷ USD, cạnh tranh cùng các ông lớn mà không bị “khóa” nền tảng.
https://www.wsj.com/articles/nvidia-thinks-it-has-a-better-way-of-building-ai-agents-b289a574
#WSJ
Microsoft vừa công bố mở rộng các công cụ AI với bản phát hành Microsoft 365 Copilot Wave 2, giới thiệu các AI “agent” đóng vai trò như đồng nghiệp kỹ thuật số có khả năng tự động hóa, phân tích và suy luận sâu các tác vụ phức tạp.
Hai AI agent mới nổi bật là Researcher (nghiên cứu) và Analyst (phân tích), sử dụng mô hình OpenAI tiên tiến, giúp người dùng chuẩn bị tài liệu, tổng hợp dữ liệu, kết nối thông tin từ nhiều nguồn như email, CRM, cuộc họp để đưa ra gợi ý hành động chính xác, giống như có một nhà nghiên cứu và nhà khoa học dữ liệu riêng.
Các agent này có mặt trong “Agent Store”, tích hợp các giải pháp của đối tác (Jira, Monday.com, Miro) và cho phép doanh nghiệp tự xây dựng AI agent riêng.
Microsoft công bố Work Trend Index 2025 dựa trên khảo sát 31.000 người lao động tại 31 quốc gia, phát hiện 80% nhân sự thiếu thời gian/năng lượng làm việc, đối mặt trung bình 275 lần gián đoạn/ngày (tương đương mỗi 2 phút lại bị gián đoạn).
53% lãnh đạo cho rằng năng suất cần tăng lên trong khi 81% lãnh đạo muốn tái cấu trúc chiến lược theo hướng AI chủ đạo, chuyển từ “nhân viên chủ động” năm trước sang “lãnh đạo định hướng và quản lý AI agent” năm nay.
Microsoft định hình Copilot như “trình duyệt cho thế giới AI”, thay thế giao diện chat truyền thống bằng các công cụ như Copilot Notebook (ghi chú thông minh), Copilot Search (tìm kiếm AI đa ứng dụng) và tạo ảnh bằng AI GPT-4o tuân thủ chuẩn thương hiệu.
Xu hướng tổ chức “Frontier Firms” (tiên phong AI) giúp doanh nghiệp tăng trưởng vượt trội: 71% nhân viên ở các công ty này cho biết doanh nghiệp đang “phát triển mạnh”, so với 37% toàn cầu.
33% lãnh đạo cân nhắc cắt giảm nhân sự nhờ AI nhưng 78% có ý định tuyển dụng các vị trí AI mới như huấn luyện viên AI, chuyên gia dữ liệu/an ninh, quản lý AI agent.
LinkedIn ghi nhận các startup AI tăng trưởng nhân sự 20,6%/năm, gần gấp đôi các hãng Big Tech.
Microsoft nâng cấp hệ thống kiểm soát Copilot, cho phép IT admin giám sát, kiểm tra bảo mật, tuân thủ và phân quyền cho agent trong toàn tổ chức.
📌 Microsoft ra mắt Copilot Wave 2 với AI agent Researcher, Analyst giúp tự động hóa tác vụ phức tạp; 80% nhân viên than thiếu thời gian, 275 lần gián đoạn/ngày; tổ chức Frontier Firms có 71% nhân sự đánh giá phát triển vượt trội; AI đang tái định hình cấu trúc doanh nghiệp, mở rộng cả vai trò và nguồn lực cho nhân sự AI.
https://venturebeat.com/ai/microsoft-just-launched-powerful-ai-agents-that-could-completely-transform-your-workday-and-challenge-googles-workplace-dominance/
Microsoft 365 Copilot chuẩn bị ra mắt bản thiết kế hoàn toàn mới, tích hợp nhiều tính năng AI vượt trội, hướng tới đồng bộ với bản Copilot dành cho người tiêu dùng.
Giao diện chat là trung tâm, có khả năng ghi nhớ, cá nhân hóa theo thói quen và sở thích người dùng, tương tự như bản Copilot cho cá nhân.
Tìm kiếm doanh nghiệp bằng AI được nâng cấp; Copilot có thể truy xuất dữ liệu từ ứng dụng bên thứ ba như ServiceNow, Google Drive, Slack, Confluence, Jira, giúp tìm kiếm thông tin đa nền tảng.
Tính năng Pages cho phép làm việc nhóm với AI agent tương tự như đồng biên tập tài liệu Word. Pages hoạt động xuyên suốt Outlook, Teams và hệ sinh thái Microsoft.
Notebooks là sổ tay dự án, tập hợp trang, liên kết, tệp tin, giúp Copilot tập trung giải đáp và hỗ trợ theo từng dự án cụ thể của doanh nghiệp.
Công cụ Create mới cho phép tạo hình ảnh, video, khảo sát, nội dung bằng AI dựa trên mô hình GPT‑4o, mang cả nghệ thuật Ghibli vào file PowerPoint nếu muốn.
Store agent mới tập hợp AI agent từ Microsoft và bên thứ ba; có ngay trên thanh bên giúp tối ưu hóa truy cập nội dung thay vì ứng dụng.
Microsoft giới thiệu khái niệm “Frontier Firm” - doanh nghiệp đặt AI làm trung tâm, nơi con người trở thành “agent boss”, quản lý và hướng dẫn AI agent để tối ưu hóa hiệu suất công việc.
Theo khảo sát, mô hình Frontier Firm đang hình thành với AI agent đảm nhiệm nhiều công việc, trong khi con người chuyển sang vai trò điều phối, quản lý.
Cảnh báo: các doanh nghiệp cần xác định số lượng AI agent và nhân sự phù hợp để kiểm soát, tránh AI tự hoạt động mà không cần giám sát của con người.
📌 Microsoft 365 Copilot vừa đại tu với giao diện chat cá nhân hóa, tìm kiếm AI truy xuất dữ liệu đa nền tảng, Notebooks cho dự án, tạo hình ảnh bằng GPT-4o, cùng kho agent AI. Microsoft hướng tới mô hình doanh nghiệp Frontier Firm, nơi AI agent trở thành trợ lý trung tâm, thúc đẩy hiệu suất vượt bậc.
https://www.theverge.com/news/654113/microsoft-365-copilot-redesign-search-image-notebook-features
Chỉ trong vòng 2 năm, 39% người trưởng thành tại Mỹ đã sử dụng AI – gấp gần đôi tốc độ chấp nhận Internet trong cùng kỳ (20%). Tuy nhiên, chỉ 1% doanh nghiệp tin rằng họ đã khai thác AI một cách trưởng thành và tối ưu.
Theo khảo sát từ McKinsey và BCG, các công ty dẫn đầu trong việc ứng dụng AI ghi nhận tăng trưởng doanh thu nhanh hơn 1.5 lần, lợi tức cho cổ đông cao hơn 1.6 lần và lợi tức trên vốn đầu tư tốt hơn 1.4 lần so với đối thủ chậm ứng dụng.
Việc áp dụng AI nên được dẫn dắt bởi lãnh đạo doanh nghiệp, ưu tiên các trường hợp sử dụng đơn giản, có khả năng mở rộng nhanh hơn là các dự án phức tạp. Các hoạt động như hackathon, workshop và học tập từ đồng nghiệp là chìa khóa thúc đẩy áp dụng AI.
3 loại nhiệm vụ nên ưu tiên AI hỗ trợ:
Nhiệm vụ thủ công lặp lại (viết biên bản họp, tổng hợp số liệu, tạo tài liệu sản phẩm)
Nút thắt kỹ năng (nhân viên bị giới hạn chuyên môn, chậm tiến độ)
Tình huống mơ hồ (thiếu định hướng, bí ý tưởng)
6 loại trường hợp sử dụng AI phổ biến được đề xuất:
Tạo nội dung: Viết tài liệu, chiến lược, email, mô tả sản phẩm; Promega tiết kiệm 135 giờ trong 6 tháng khi dùng AI viết email marketing.
Nghiên cứu: Tổng hợp thông tin thị trường, đối thủ; AI có thể trình bày kết quả theo định dạng yêu cầu như bảng, bullet, phân đoạn...
Lập trình: Hỗ trợ debug, viết mã, tạo prototype; Tinder dùng AI tăng tốc độ viết mã với ngôn ngữ khó như Bash.
Phân tích dữ liệu: Tìm insight, tạo biểu đồ; Poshmark dùng AI phân tích hàng triệu dòng dữ liệu để lập báo cáo hiệu suất tuần.
Ý tưởng & chiến lược: Brainstorm ý tưởng chiến dịch, lập kế hoạch ra mắt sản phẩm; Match Group dùng GPT-4 mô phỏng nhóm người dùng thử sản phẩm.
Tự động hóa: Tạo báo cáo định kỳ, thông báo Slack, tóm tắt họp; BBVA tự động hóa phân tích tín dụng bằng AI.
Phân loại và ưu tiên các trường hợp sử dụng theo khung “Tác động/Effort”:
Ưu tiên cao: Tác động mạnh, effort thấp (quick wins)
Dịch vụ tự thân: effort thấp, giá trị trung bình, dễ nhân rộng
Tác động cao/effort cao: như GPT trợ lý khách hàng của Klarna
Tác động thấp/effort cao: nên tạm gác
Mapping workflow theo từng bộ phận giúp phát hiện chuỗi tác vụ có thể được AI hỗ trợ liên tục, ví dụ quy trình marketing gồm nghiên cứu, phân tích dữ liệu, lên chiến lược, tạo nội dung, và tối ưu kênh.
Hành động ngay:
Xác định nơi AI tạo giá trị
Đào tạo nhân viên về 6 loại trường hợp sử dụng
Dùng khung tác động/effort để chọn cái cần mở rộng
📌 Mặc dù 92% doanh nghiệp dự định tăng đầu tư AI, chỉ 1% cảm thấy khai thác hiệu quả. Hướng dẫn của OpenAI cung cấp 6 nguyên mẫu ứng dụng AI thực tiễn, khung đánh giá tác động/effort, và ví dụ từ các tập đoàn lớn như Promega, Tinder, Poshmark. Việc ưu tiên quick wins và khuyến khích nhân viên tham gia tìm use case là chiến lược then chốt để hiện thực hóa giá trị từ AI.
https://cdn.openai.com/business-guides-and-resources/identifying-and-scaling-ai-use-cases.pdf
Anthropic dự đoán chỉ trong vòng 1 năm, nhân viên ảo vận hành hoàn toàn bằng AI sẽ xuất hiện trong mạng lưới công ty, thay thế người thật trong nhiều vai trò.
Nhân viên ảo vượt xa agent AI truyền thống: chúng có “ký ức”, tài khoản riêng, mật khẩu riêng, được phân vai trò độc lập và quyền truy cập mạng doanh nghiệp.
Tính tự chủ của nhân viên ảo đặt ra hàng loạt vấn đề chưa từng có về bảo mật, như: kiểm soát quyền truy cập, bảo vệ tài khoản, truy trách nhiệm cho hành vi của AI nếu xảy ra rủi ro.
Jason Clinton (giám đốc an ninh thông tin Anthropic) nhấn mạnh: doanh nghiệp phải đánh giá lại toàn bộ chiến lược an ninh mạng, nếu không sẽ đối mặt nguy cơ rò rỉ dữ liệu và tấn công mạng nghiêm trọng.
Anthropic tập trung 2 hướng đối phó: kiểm thử kỹ càng mô hình Claude chống lại tấn công mạng và giám sát, giảm thiểu nguy cơ AI bị lạm dụng bởi hacker.
Nhân viên ảo AI có thể tự ý hack vào các hệ thống nhạy cảm, như hệ thống tích hợp liên tục (CI), gây mất kiểm soát và không rõ ai chịu trách nhiệm khi mọi việc xảy ra.
Đầu tư vào giải pháp giám sát hoạt động của tài khoản AI và phân loại lại hệ thống tài khoản doanh nghiệp sẽ là ưu tiên lớn của các công ty AI những năm tới.
OpenAI, Anthropic, Okta và nhiều công ty bảo mật đang rót vốn mạnh vào quản lý danh tính “phi con người”. Okta vừa ra mắt nền tảng kiểm soát mới tháng 2/2025 để bảo vệ và theo dõi tài khoản ảo.
Vấn đề tích hợp AI vào môi trường doanh nghiệp đã gây nhiều tranh cãi lớn, điển hình như Lattice từng đề xuất AI bot vào sơ đồ tổ chức nhân sự nhưng vấp phải phản đối gay gắt.
Các công ty an ninh mạng đang gấp rút tung ra sản phẩm mới nhằm giám sát và kiểm soát tài khoản AI để ngăn chặn ảo giác AI hoặc hành động không kiểm soát.
📌 Chỉ trong 1 năm tới, nhân viên ảo AI có thể trở thành hiện thực, đưa doanh nghiệp đối diện nguy cơ lộ dữ liệu, kiểm soát tài khoản và vấn đề trách nhiệm chưa từng có. Các ông lớn AI gấp rút đầu tư công nghệ bảo mật, còn doanh nghiệp phải sẵn sàng thay đổi chiến lược an ninh mạng để thích ứng kịp thời.
https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Kakao đang bị đồn đoán mạnh về việc bán các công ty con, dù nhiều lần phủ nhận nhưng áp lực từ thị trường và nội bộ vẫn rất lớn.
Mới đây xuất hiện tin đồn Kakao chuẩn bị bán Kakao Mobility, đơn vị gọi xe lớn, sau khi đã có thông tin về ý định bán Kakao Entertainment - mảng giải trí lớn nhất của tập đoàn.
CEO Chung Shin-a cam kết tái cấu trúc, dồn nguồn lực cho AI, coi AI là động lực tăng trưởng tiếp theo; điều này khiến kỳ vọng về bán các mảng ngoài lõi càng tăng.
Kakao Entertainment được định giá lên tới 10.000 tỷ KRW (7 tỷ USD), liên tiếp thua lỗ ròng, từng gặp bê bối thanh toán cổ phiếu khi mua SM Entertainment khiến nhiều lãnh đạo bị điều tra.
Kakao Mobility cũng đang thương thảo thay đổi nhà đầu tư tài chính, VIG Partners (Hàn Quốc) muốn mua hơn 40% cổ phần, có thể hướng tới thâu tóm phần sở hữu chiến lược 57% của Kakao.
Gần hai năm qua, Kakao đã giảm hơn 30% số công ty con; xác nhận sẽ bán Kakao VX (golf-tech) trước cuối năm, đồng thời chuẩn bị bán cả Kakao Healthcare theo tiết lộ từ công đoàn.
Công ty từng bị chỉ trích về việc mở rộng quá đà, sáp nhập nhiều lĩnh vực, gây lo ngại quản trị lỏng lẻo và xung đột lợi ích.
Chuyên gia nhận định Kakao cần xác định rõ giá trị cốt lõi, nên loại bỏ các đơn vị yếu hoặc liên tục lỗ, tập trung vào KakaoTalk và lĩnh vực tương lai như AI.
Việc bán Kakao Pay không được khuyến khích do đây là tài sản chiến lược, dữ liệu thanh toán rất giá trị cho phát triển AI. Kakao Bank hoạt động độc lập, ảnh hưởng hạn chế dù có Kakao sở hữu cổ phần lớn nhất.
Công đoàn Kakao liên tục phản đối bán mảng kinh doanh cho quỹ đầu tư, lo sợ quyền lợi lao động bị ảnh hưởng và giá trị công ty bị suy giảm.
📌 Kakao sắp trải qua giai đoạn chuyển mình lớn, có thể bán Kakao Entertainment (giá trị 10.000 tỷ KRW, khoảng 7 tỷ USD) và Mobility để tập trung vào AI, tinh gọn hoạt động. Động thái này vấp phải phản ứng gay gắt từ công đoàn và nhiều ý kiến lo ngại về tương lai tập đoàn.
https://www.koreaherald.com/article/10471050
Google Cloud Next 2025 đánh dấu bước ngoặt lịch sử khi Google chuyển từ "đuổi kịp" sang "dẫn đầu" lĩnh vực AI doanh nghiệp, vượt qua OpenAI và Microsoft.
Gemini 2.5 Pro ra mắt, lập tức đứng đầu bảng xếp hạng Chatbot Arena, vượt GPT-4o của OpenAI về khả năng suy luận và tốc độ, tăng 80% lượng người dùng trong 1 tháng.
Gemini 2.5 Pro cung cấp cửa sổ ngữ cảnh 1.000.000 token, tối ưu cho xử lý tài liệu, code quy mô lớn; thêm bản Gemini 2.5 Flash tối ưu độ trễ, chi phí, cho phép doanh nghiệp cân đối ngân sách.
Google là hãng duy nhất sở hữu hệ sinh thái mô hình AI tạo sinh đa hình thái: Imagen 3 (ảnh), Veo 2 (video), Chirp 3 (âm thanh), Lyria (nhạc).
Hạ tầng TPU Ironwood thế hệ 7 chứa hơn 9.000 chip làm mát bằng chất lỏng, hiệu suất 42,5 exaflops, cao gấp 24 lần siêu máy tính mạnh nhất thế giới; tiết kiệm năng lượng gấp đôi thế hệ trước.
Hệ thống tích hợp đồng bộ: từ chip, lưu trữ, phần mềm (Cluster Director, Pathways, vLLM trên TPU) giúp Gemini đạt hiệu quả "trí tuệ trên từng đồng" dẫn đầu thị trường.
BigQuery tích hợp AI, cải thiện chính xác truy xuất dữ liệu 50% so với đối thủ, nhờ hợp tác chặt giữa đội AI và dữ liệu.
Agentspace ra mắt, nền tảng hợp nhất sử dụng hoặc xây dựng agent (AI agent); hỗ trợ giao thức Agent2Agent giúp agent hợp tác, bảo mật cao, kiểm soát bot lừa đảo.
Bộ toolkit mã nguồn mở ADK, A2A, và hơn 500 doanh nghiệp đã ứng dụng AI tạo sinh Google, tốc độ tăng trưởng vượt AWS & Azure 3 quý liên tiếp, doanh thu đám mây đạt 44 tỉ USD trong 2024.
Các đối tác, khách hàng lớn: Wendy’s triển khai AI drive-thru trên hàng ngàn địa điểm, Salesforce mở rộng tích hợp, các ngân hàng lớn & retailers áp dụng agent, Gemini.
📌 Google đã vươn lên thành người dẫn đầu AI doanh nghiệp: Gemini 2.5 Pro vượt GPT-4o, hạ tầng TPU Ironwood cho hiệu năng gấp 24 lần đối thủ; hơn 500 doanh nghiệp triển khai AI tạo sinh, phát triển mạnh hệ sinh thái agent Agentspace, doanh thu đám mây đạt 44 tỉ USD trong 2024.
https://venturebeat.com/ai/from-catch-up-to-catch-us-how-google-quietly-took-the-lead-in-enterprise-ai/
Nhiều doanh nghiệp chưa thấy hiệu quả từ AI vì các mô hình phổ biến không phù hợp với quy trình thực tế từng đội nhóm.
Tại một công ty bán lẻ Fortune 500, nhóm soạn hợp đồng nhà cung cấp được cung cấp một công cụ AI tạo sinh để tự động hóa việc tổng hợp và soạn thảo hợp đồng.
Dù công cụ AI có thể tạo nháp hợp đồng cơ bản, nhóm vẫn phải tùy chỉnh thủ công các chi tiết quan trọng như thông tin nhà cung cấp, điều khoản riêng, lịch sử đặt hàng.
Kết quả, công việc không giảm đáng kể vì AI chỉ tạo nội dung chung chung, thiếu ngữ cảnh cụ thể và không tích hợp dữ liệu phân tán từ nhiều hệ thống.
Khảo sát 30 doanh nghiệp cho thấy các công cụ AI dạng off-the-shelf thường bị đánh giá là “quá chung chung” hoặc “không hoạt động” như mong đợi do không phản ánh cách làm việc thực tế.
Giải pháp: công ty xây dựng “bản đồ công việc” (work graph) ghi lại chi tiết các bước, dữ liệu tham chiếu và quyết định trong quá trình làm việc thực tế của đội nhóm, sau đó dùng chính dữ liệu này để huấn luyện lại công cụ AI.
Áp dụng work graph giúp AI hiểu được bối cảnh công việc thực, tạo ra bản nháp hợp đồng đầy đủ thông tin hơn, rút ngắn 50% công sức thủ công và tăng 30% tốc độ xử lý hợp đồng.
Phương pháp reverse mechanistic localization (RML) phân tích sâu hành vi và quy trình thực tế để tinh chỉnh AI sát với thực tiễn hơn, giống như tùy chỉnh phần mềm nhưng đi sâu vào hiểu cách nhóm hoạt động.
Để AI luôn cập nhật, doanh nghiệp cần liên tục cập nhật dữ liệu work graph và phản hồi người dùng (giống RLHF) để duy trì hiệu quả và giảm sai sót.
Các mô hình agent AI muốn tự động hóa thực sự, bắt buộc phải học được chính xác cách làm việc đặc thù của từng đội nhóm, không thể dùng mô hình tổng quát thuần túy.
CXO nên đầu tư vào chiến lược AI lồng ghép tùy chỉnh địa phương và cải tiến liên tục, thay vì chỉ cài đặt các giải pháp có sẵn, giúp giảm lỗi, tiết kiệm chi phí và tăng ROI.
📌 Doanh nghiệp chỉ đạt hiệu quả AI thực sự khi tùy chỉnh qua bản đồ công việc và reverse mechanistic localization: giảm 50% công sức thủ công, tăng 30% tốc độ quy trình. Đầu tư AI cần tập trung vào tích hợp bối cảnh thực tế thay vì chỉ dùng mô hình phổ biến!
https://hbr.org/2025/04/teach-ai-to-work-like-a-member-of-your-team
#HBR
Tác giả: Rohan Narayana Murty, Ravi Kumar, Hemanth Yamijala và George Nychis
Ngày 21 tháng 4 năm 2025
Minh họa bởi Ricardo Tomás
Nhiều công ty thấy tác động từ công cụ AI không đáng kể vì các mô hình chung không phù hợp với cách các nhóm thực sự làm việc. Tại một nhà bán lẻ thuộc Fortune 500, một nhóm phụ trách hợp đồng gặp khó khăn khi sử dụng công cụ có sẵn cho đến khi công ty lập bản đồ quy trình làm việc của họ ("đồ thị công việc") và tinh chỉnh mô hình bằng cách sử dụng phương pháp định vị ngược cơ học. Kết quả: đầu ra chính xác hơn, giảm công sức thủ công và tăng năng suất lên 30%. Bài học cho các nhà lãnh đạo là bối cảnh rất quan trọng—tăng năng suất thực sự đến từ việc điều chỉnh AI phù hợp với quy trình cụ thể của nhóm. Để làm được điều này, các công ty có thể: 1) bắt đầu bằng việc lập bản đồ cách thức công việc được hoàn thành với đồ thị công việc, 2) sử dụng đồ thị công việc để tinh chỉnh công cụ AI, và 3) áp dụng thực hành cải tiến liên tục.
Tại một công ty bán lẻ thuộc Fortune 500, ban lãnh đạo đã cung cấp cho nhóm phụ trách soạn thảo hợp đồng đàm phán với nhà cung cấp một công cụ AI nhằm đơn giản hóa công việc của họ. Được hỗ trợ bởi một mô hình ngôn ngữ lớn (LLM) được sử dụng rộng rãi, ban lãnh đạo kỳ vọng rằng công cụ này sẽ đẩy nhanh công việc của nhóm bằng cách tóm tắt tài liệu, trả lời câu hỏi về nội dung, so sánh hợp đồng, và nhiều hơn nữa.
Tuy nhiên, mặc dù có kỳ vọng cao, đầu ra của nhóm không thay đổi. Mặc dù công cụ có thể tạo ra văn bản chung—ví dụ, một bản nháp sơ bộ của hợp đồng—nhóm vẫn phải tùy chỉnh văn bản đó cho từng nhà cung cấp. Đối với mỗi hợp đồng, họ vẫn phải tích hợp thủ công các chi tiết quan trọng như thông tin nhà cung cấp, điều khoản, lịch sử đặt hàng và các sắc thái khác vào hợp đồng. Do đó, công cụ có tác động tối thiểu trong việc giảm khối lượng công việc của nhóm.
Câu chuyện này phản ánh một mô hình về cách các công cụ AI không đáp ứng được lời hứa của chúng. Trong một cuộc khảo sát gần đây chúng tôi đã thực hiện với 30 công ty thuộc nhiều ngành (bao gồm cả nhóm hợp đồng nêu trên), những người tham gia báo cáo rằng các công cụ AI chung thường không giúp người dùng hoàn thành các nhiệm vụ cụ thể được yêu cầu trong quy trình làm việc độc đáo vì chúng quá chung chung. Ngay cả khi các công cụ AI được điều chỉnh cho các lĩnh vực cụ thể như tài chính hoặc nhân sự, chúng vẫn không tạo ra giá trị đủ lớn vì chúng vẫn chưa đủ chuyên biệt—chúng không đáp ứng được nhu cầu và quy tắc cụ thể của một tổ chức, nhóm hoặc quy trình. Do đó, người dùng báo cáo rằng họ thường thấy các công cụ và mô hình AI "không hoạt động" hoặc "quá chung chung".
Khoảng cách giữa khả năng AI chung và nhu cầu cụ thể, liên tục phát triển của các nhóm chỉ ra một thách thức sâu hơn: Các công cụ hiện nay không được xây dựng để hiểu cách công việc thực sự được hoàn thành. Trong bài viết này, chúng tôi đưa ra hai khái niệm chính có thể giúp thu hẹp khoảng cách đó: đồ thị công việc (bản đồ số hóa về cách các nhóm làm việc) và định vị ngược cơ học (điều chỉnh mô hình AI cho các nhóm). Những ý tưởng này giúp giải thích tại sao AI truyền thống thường không đạt yêu cầu và cách các tổ chức có thể thiết kế hệ thống AI thích ứng với quy trình làm việc thực tế, người dùng thực tế và bối cảnh thực tế.
Hãy xem xét vấn đề này trong bối cảnh một quy trình cụ thể được thực hiện bởi nhóm hợp đồng. Theo truyền thống, khi soạn thảo một hợp đồng mới cho nhà cung cấp, nhóm sẽ:
Khi nhóm hợp đồng lần đầu tiên áp dụng công cụ AI, quy trình của họ bắt đầu với việc tạo ra một hợp đồng cơ bản, theo mẫu. Từ đó, họ dành nhiều thời gian tinh chỉnh nó một cách thủ công. Đầu ra của công cụ AI chủ yếu dựa trên nội dung có sẵn công khai từ internet và thiếu các hiểu biết tinh tế, phụ thuộc vào bối cảnh cần thiết cho hợp đồng của họ. Mặc dù nhóm thấy công cụ AI thú vị, họ gặp khó khăn trong việc nhìn thấy tác động thực sự về mặt giảm bớt công sức.
Đây là một ví dụ về "nghịch lý năng suất" của AI: công nghệ tuyệt vời mà không có sự thích ứng bối cảnh sâu sắc, không thể chuyển thành cải thiện năng suất hữu hình—một hiện tượng gợi nhớ đến nhận xét của nhà kinh tế học Robert Solow rằng "bạn có thể thấy kỷ nguyên máy tính ở khắp mọi nơi nhưng không phải trong số liệu thống kê về năng suất."
Các mô hình AI mạnh mẽ vượt trội vì chúng được đào tạo trên các bộ dữ liệu chung khổng lồ—nhưng tính phổ quát của chúng là một con dao hai lưỡi. Mặc dù các mô hình này có thể thực hiện nhiều loại nhiệm vụ khác nhau, chúng thường bỏ lỡ bối cảnh độc đáo của quy trình làm việc cụ thể và yêu cầu của nhóm, dẫn đến việc bỏ lỡ các lợi ích năng suất.
AI đang thất bại vì cùng một lý do mà một nhân viên mới có thể gặp khó khăn để cung cấp kết quả ngay lập tức: AI không biết nhóm hoàn thành công việc như thế nào, tìm thông tin ở đâu, hoặc chính xác nó được cho là phải làm gì với thông tin đó. AI thiếu bối cảnh thích hợp để thực sự đóng góp.
Trong khi công ty đang thử nghiệm với AI này, họ cũng đang làm việc trên điều sẽ trở thành giải pháp cho vấn đề bối cảnh đó bằng cách triển khai các công cụ để lập bản đồ quy trình và tạo ra "đồ thị công việc": một cái nhìn động, thời gian thực về cách các nhóm thực hiện quy trình làm việc trên các hệ thống. Những bản đồ này nắm bắt không chỉ các nhiệm vụ—chúng còn tiết lộ cách quyết định được đưa ra, dữ liệu nào được tham khảo và hệ thống nào được liên quan. Điều này rất quan trọng vì, mặc dù hai nhóm có thể sử dụng cùng một công cụ, cách họ làm việc thường rất khác nhau.
Dữ liệu cần thiết để soạn thảo mỗi hợp đồng không được tập trung hay tĩnh, nó khác nhau tùy theo nhà cung cấp và được phân tán trên nhiều hệ thống. Các thành viên nhóm phải xác định vị trí, diễn giải, xác minh và tổng hợp thông tin này để xây dựng hợp đồng chính xác. Khi họ làm điều này, hành động của họ—điều hướng hệ thống, xem xét dữ liệu, đưa ra quyết định—được tự động ghi lại tổng hợp trong đồ thị công việc.
Và đây là nơi cơ hội thực sự xuất hiện: Đồ thị công việc—bao gồm hai tháng hoạt động đã được kiểm chứng và giàu bối cảnh—sau đó có thể được sử dụng để đào tạo công cụ AI. Vì nó nắm bắt tất cả những gì mà nhóm cho là quan trọng, nó cung cấp cho công cụ AI bối cảnh thời gian thực, được xác nhận bởi con người, điều này cho phép công cụ bắt đầu làm việc theo cách phù hợp với cách nhóm thực sự làm việc. Với dữ liệu này, công cụ AI có thể tạo ra bản nháp đầu tiên hoàn chỉnh hơn đáng kể, giảm số lần lặp lại và đẩy nhanh quá trình đi đến bản hợp đồng cuối cùng, có thể sử dụng được. Cách tiếp cận này cắt giảm hơn một nửa công sức thủ công của nhóm trong việc soạn thảo mỗi hợp đồng. Mặc dù họ vẫn xem xét và xác minh đầu ra do AI tạo ra, họ yêu cầu ít lần lặp lại hơn và ít công việc làm lại hơn nhiều. Kết quả là, năng suất tổng thể của nhóm trong việc tạo ra hợp đồng tăng gần 30%.
Tuy nhiên, để làm cho điều này hoạt động, cần nhiều hơn là dữ liệu đúng—nó đòi hỏi cách tiếp cận đúng. Trong khi tự động hóa truyền thống thường nhằm thay thế công việc con người, mục tiêu ở đây là tùy chỉnh AI để làm việc tốt hơn cho các nhóm bằng cách phản ánh cách họ hoạt động. Để làm điều này, chúng tôi đã áp dụng một cách tiếp cận gọi là định vị ngược cơ học (RML). Để hiểu cách AI hoạt động, cách phổ biến là kỹ thuật đảo ngược từ góc nhìn con người. RML đảo ngược ý tưởng đó: Nó đảo ngược kỹ thuật cách con người làm việc—phân tích sâu quy trình làm việc thực tế, quyết định và bối cảnh của nhóm—và sử dụng điều đó để điều chỉnh AI để phục vụ nhóm tốt hơn. Đó là một mô hình hợp tác, không phải thay thế.
Bạn có thể xem RML như làm cho AI điều mà tùy chỉnh làm cho nền tảng phần mềm. Nhưng trong khi tùy chỉnh phần mềm thường có nghĩa là thay đổi những gì người dùng thấy, RML thay đổi những gì AI hiểu. Nó sâu sắc hơn, phụ thuộc vào bối cảnh hơn và cuối cùng là mạnh mẽ hơn.
Các bước sau đây đã được thực hiện trong việc triển khai RML cho nhóm hợp đồng.
Chúng tôi bắt đầu bằng cách nắm bắt từng bước và tương tác giữa con người và máy mà các thành viên của nhóm hợp đồng thực hiện trong công việc của họ: cách họ truy xuất thông tin về nhà cung cấp, cách họ thực hiện kiểm tra chéo, cách họ tích hợp thủ công các nguồn dữ liệu đa dạng vào các tệp excel. Tất cả các bước này nắm bắt cả hành động rõ ràng (ví dụ: đọc hồ sơ nhà cung cấp) và các mô hình ra quyết định ngầm làm nền tảng cho quy trình làm việc (ví dụ: kiểm tra xem nhà cung cấp có xếp hạng tín dụng kém không). Dữ liệu chi tiết, độ trung thực cao này là bản chất của bối cảnh địa phương của nhóm—các dấu hiệu họ dựa vào, thông tin nào họ cho là quan trọng nhất và cách họ thích ứng trong các tình huống khác nhau.
Dữ liệu này, trong tất cả các tổ chức, cung cấp các chi tiết cụ thể về cách một nhóm thực sự làm việc. Khi tấm thảm phong phú này được đưa vào công cụ AI, nó cho phép bạn chuyển đổi một mô hình chung thành một công cụ chuyên biệt cao hiểu được ngôn ngữ địa phương của công việc. Do đó, điều quan trọng đối với các nhà lãnh đạo là nghĩ về việc đầu tư vào việc thu thập dữ liệu này và sử dụng nó như một nguồn cho các chuyển đổi tiếp theo, bao gồm cung cấp bối cảnh cho các mô hình AI.
Sau khi lập bản đồ đồ thị công việc của nhóm hợp đồng, chúng tôi đã sử dụng các hiểu biết chi tiết của nó làm bối cảnh và sử dụng nó để tinh chỉnh mô hình cung cấp năng lượng cho công cụ AI. Điều đó đòi hỏi việc cung cấp cho mô hình (bên dưới công cụ AI) các mô hình làm việc và dữ liệu (ví dụ: thông tin nhà cung cấp). Đây là bước quan trọng—tích hợp bối cảnh địa phương của một nhóm vào công cụ AI. Bằng cách tích hợp các mô hình làm việc cụ thể và dấu hiệu bối cảnh từ hoạt động hàng ngày của nhóm, công cụ AI tạo ra bản nháp đầu tiên của hợp đồng bao gồm một số chi tiết của nhà cung cấp, các sắc thái xung quanh xếp hạng tín dụng của họ, v.v. Do đó, đây là một bản nháp hoàn chỉnh hơn.
Các tổ chức liên tục phát triển. Quy trình thay đổi, công nghệ mới được đưa vào, và tình huống cũng như ưu tiên thay đổi (ví dụ: các nhóm bắt đầu làm việc với các nhà cung cấp mới ở các khu vực địa lý mới). Do đó, các công ty cần liên tục cập nhật đồ thị công việc và đưa các mô hình mới xuất hiện trở lại vào mô hình để giữ cho các công cụ AI được cập nhật.
Ví dụ, nhóm hợp đồng định kỳ có phản hồi về chất lượng của các hợp đồng được tạo ra bằng RML (ví dụ: hợp đồng không phản ánh chính xác ý nghĩa của xếp hạng tín dụng kém đối với nhà cung cấp). Loại phản hồi này, được gọi là học tăng cường với phản hồi của con người (RLHF), được sử dụng để tinh chỉnh và cải tiến hơn nữa mô hình trong công cụ AI. Kết quả là, công cụ AI tiếp tục thích ứng với nhu cầu của nhóm, đảm bảo độ chính xác cao được duy trì theo thời gian.
Các nhóm doanh nghiệp hoạt động dựa trên kiến thức bộ lạc—kiến thức ngầm về cách mỗi nhóm thực hiện công việc và các giải pháp cụ thể cho các thách thức gặp phải bởi nhóm khi thực hiện công việc của họ. Bằng cách khai quật kiến thức này và tinh chỉnh các mô hình trên thông tin này, chúng ta có thể tạo ra các mô hình chính xác hơn và phụ thuộc vào bối cảnh phục vụ các nhóm chính xác hơn.
Một cách sử dụng thú vị của các mô hình AI là để chúng hoạt động như "tác nhân", tức là hoạt động tự chủ để thực hiện các mô hình công việc. Tuy nhiên, thách thức là các mô hình này có khả năng gặp phải vấn đề phổ quát tương tự vì chúng được hỗ trợ bởi các mô hình tổng quát mạnh mẽ. Để các tác nhân thành công, họ cần hoạt động và thực hiện chính xác trong bối cảnh của một nhóm. Do đó, RML là rất quan trọng để cung cấp năng lượng cho các tác nhân học từ các nhóm và do đó phục vụ các nhóm chính xác hơn.
Các mô hình chung, mặc dù ấn tượng về phạm vi, thường không nắm bắt được bối cảnh địa phương tinh tế thúc đẩy hiệu quả và độ chính xác thực sự. Các giám đốc điều hành phải nhận ra rằng AI không phải là công nghệ "thiết lập và quên đi". Thay vào đó, giá trị của nó được mở khóa khi hệ thống được điều chỉnh phù hợp với các mô hình làm việc cụ thể và quy trình ra quyết định của tổ chức.
Bằng cách đầu tư vào một cách tiếp cận được điều chỉnh, các công ty có thể giảm đáng kể tỷ lệ lỗi, cắt giảm chi phí hoạt động và cuối cùng đạt được ROI cao hơn nhiều từ các sáng kiến AI của họ. Trong bối cảnh cạnh tranh hiện nay, việc bỏ qua việc tích hợp lớp hiểu biết bối cảnh này có nghĩa là để lại tiền—và lợi thế chiến lược—trên bàn.
Tóm lại, nếu chiến lược AI của bạn chỉ dựa vào các giải pháp có sẵn, bạn có nguy cơ bỏ lỡ một chuyển đổi thúc đẩy năng suất thực sự và giảm rủi ro. Do đó, một chiến lược AI hoàn chỉnh phải bao gồm cải tiến liên tục thông qua các hiểu biết địa phương hóa để đảm bảo rằng các khoản đầu tư công nghệ mang lại giá trị cả trước mắt và lâu dài.
Báo cáo của OpenAI chia sẻ 7 bài học từ các công ty tiên phong trong việc ứng dụng AI vào doanh nghiệp như Morgan Stanley, Indeed, Klarna, Lowe’s, BBVA, Mercado Libre và chính OpenAI.
1. Bắt đầu với đánh giá (evals):
Morgan Stanley triển khai đánh giá nghiêm ngặt cho các ứng dụng AI như dịch ngôn ngữ, tóm tắt thông tin, và so sánh với phản hồi chuyên gia. Kết quả: 98% cố vấn tài chính sử dụng AI hàng ngày, tăng tỷ lệ truy cập tài liệu từ 20% lên 80%, giảm đáng kể thời gian tìm kiếm.
2. Tích hợp AI vào sản phẩm:
Indeed sử dụng GPT-4o mini để cải thiện tính cá nhân hóa trong khớp việc làm. Hệ thống mới giúp tăng 20% số lượt ứng tuyển và tăng 13% tỉ lệ thành công trong tuyển dụng. Sau khi tối ưu bằng mô hình nhỏ hơn, lượng token giảm 60% nhưng vẫn giữ hiệu quả.
3. Bắt đầu sớm và đầu tư sớm:
Klarna triển khai trợ lý AI cho dịch vụ khách hàng, giảm thời gian xử lý từ 11 phút xuống còn 2 phút, giúp tiết kiệm 40 triệu USD. 90% nhân viên hiện đang sử dụng AI hằng ngày, thúc đẩy hiệu suất và đổi mới.
4. Tùy chỉnh và tinh chỉnh mô hình:
Lowe’s tối ưu hóa tìm kiếm sản phẩm bằng cách tinh chỉnh GPT 3.5 dựa trên dữ liệu nội bộ. Kết quả: tăng 20% độ chính xác gắn thẻ sản phẩm, phát hiện lỗi tăng 60%. Tùy chỉnh giúp mô hình hiểu đúng ngành hàng, giọng điệu và yêu cầu.
5. Đưa AI vào tay chuyên gia:
BBVA triển khai ChatGPT Enterprise cho toàn bộ 125.000 nhân viên. Trong 5 tháng, nhân viên tạo hơn 2.900 GPT tùy chỉnh, giúp tiết kiệm thời gian dự án từ vài tuần xuống vài giờ. Phòng tín dụng, pháp lý và chăm sóc khách hàng đạt hiệu quả rõ rệt.
6. Gỡ rối cho nhà phát triển:
Mercado Libre tạo nền tảng Verdi sử dụng GPT-4o và mini, hỗ trợ 17.000 lập trình viên xây app AI nhanh hơn mà không cần viết mã. Ứng dụng trong kiểm tra gian lận (độ chính xác gần 99%), tối ưu tồn kho, dịch ngôn ngữ và cá nhân hóa thông báo.
7. Đặt mục tiêu tự động hóa táo bạo:
OpenAI tự động hóa hỗ trợ khách hàng bằng nền tảng tích hợp AI với hệ thống hiện có. Kết quả: hàng trăm nghìn tác vụ mỗi tháng được xử lý tự động, giúp nhân viên tập trung vào công việc có giá trị cao hơn.
📌 Các công ty hàng đầu đang gặt hái lợi ích lớn từ AI như tăng 20% độ chính xác, tiết kiệm hàng triệu đô, và cắt giảm thời gian xử lý đến 80%. Thành công đến từ chiến lược rõ ràng: đánh giá kỹ lưỡng, bắt đầu sớm, cá nhân hóa, trao quyền cho chuyên gia và đặt mục tiêu tự động hóa đầy tham vọng.
https://cdn.openai.com/business-guides-and-resources/ai-in-the-enterprise.pdf
Hầu hết doanh nghiệp đầu tư lớn vào các cuộc họp lãnh đạo, nhưng hệ thống ghi chú, lưu trữ và khai thác thông tin còn yếu kém, gây lãng phí nguồn tri thức và ảnh hưởng tốc độ phát triển.
Nhiều người ghi chú bằng sổ tay, Remarkable tablet hoặc laptop, nhưng hiếm khi tận dụng lại các ý tưởng, quyết định quan trọng từ các cuộc họp.
Dẫn lời CEO Read AI: Khi các lãnh đạo dành nửa ngày họp mà vẫn phụ thuộc vào trí nhớ, doanh nghiệp vận hành kiểu “Snapchat”, thông tin dễ mất và khó hành động.
Các tổ chức dùng cuộc họp làm nơi ra quyết định chính nhưng lại thất bại trong việc chuyển đổi tri thức thành tài sản tổ chức, gây hiệu ứng “kẹt” thông tin ở mọi tầng lớp.
Giải pháp đề xuất là xây dựng một hệ thống “LLM for Leadership” – ứng dụng AI tạo sinh và Agentic AI để biến mọi cuộc họp thành dữ liệu truy xuất, tìm kiếm, tổng hợp và tạo ra hệ thống kiến thức chung.
CEO Descript và Read AI đều nhấn mạnh vai trò của việc xây dựng “single source of truth”, tích hợp văn hóa vào tài liệu nội bộ, và tận dụng AI để tổ chức, tổng hợp, truy xuất tri thức.
Đề xuất thực tiễn: Kết thúc mỗi buổi họp, dành 5-10 phút hỏi: đã quyết điều gì, ai làm gì, hạn cuối, và ai cần biết? Sau đó, đưa ghi chú vào nền tảng AI để quản lý, truy xuất thông tin.
AI có thể tự động tổng hợp biên bản, viết agenda, trả lời câu hỏi qua chat, càng dùng dữ liệu càng phong phú và chính xác.
Read AI trình bày cách tối ưu hóa thời lượng, thành phần cuộc họp dựa trên dữ liệu thực tế, giảm họp không cần thiết, chuyển thông tin sang kênh phi tập trung để xây dựng kho tri thức tìm kiếm hiệu quả.
Doanh nghiệp áp dụng LLM for Leadership sẽ đẩy mạnh minh bạch, tăng tốc ra quyết định, giảm lãng phí thời gian, nâng cao sáng tạo và sự tin cậy trong nội bộ.
📌 Nhiều công ty đang lãng phí “trí tuệ hội họp” vì chưa khai thác tối ưu thông qua AI. Xây dựng “LLM for Leadership” giúp tổ chức biến mọi cuộc họp thành tài sản tri thức truy xuất, tăng tốc ra quyết định và minh bạch, là xu thế tất yếu của tương lai doanh nghiệp thông minh.
https://www.geekwire.com/2025/companies-can-leverage-the-true-value-of-meetings-with-ai-by-building-an-llm-for-leadership/
AI tạo sinh đang giúp nhiều lĩnh vực như chuỗi cung ứng, logistics, an ninh mạng, nghiên cứu thị trường… vận hành không ngừng nghỉ, liên tục 24/7, xoá nhòa ranh giới thời gian làm việc truyền thống.
AI agent không bị giới hạn bởi nhu cầu sinh học như con người (không nghỉ, không ăn, không bệnh…), dẫn đến hiệu suất làm việc không gián đoạn và tối ưu hóa các quy trình vận hành.
Konstantine Buhler (Sequoia Capital) nhấn mạnh sự xuất hiện của “nền kinh tế luôn sẵn sàng” dựa trên thành công của Citadel Securities, nơi AI và thuật toán cho phép giao dịch không ngừng năm 2022 với khoản đầu tư 1,15 tỷ USD.
Dự báo trong 5-7 năm tới, xu hướng này sẽ lan sang nhiều ngành nghề khi các doanh nghiệp phải thích nghi để không bị bỏ lại phía sau.
Thực tế, lãnh đạo của Box cho biết AI agent có thể thực hiện nghiên cứu thị trường vào ban đêm, trả kết quả ngay buổi sáng hôm sau—điều không khả thi với nhân sự truyền thống.
AI agent giúp giảm độ trễ trong phản hồi khách hàng, phù hợp xu thế tiêu dùng hiện đại — mỗi phút chậm trễ đều có thể làm giảm ý định mua hàng.
Doanh nghiệp tối ưu hóa quy trình, vai trò và hợp tác cùng AI agent sẽ có lợi thế cạnh tranh bền vững. AI agent sẽ dần trở thành công cụ phổ biến, còn các doanh nghiệp thích ứng nhanh mới là người dẫn đầu xu hướng.
Văn hóa ra quyết định cũng thay đổi: giảm các cuộc họp tập trung truyền thống, tăng các nền tảng trao đổi bất đồng bộ như Slack, giúp tiết kiệm thời gian và tăng tốc các bước hành động.
📌 AI đang giúp doanh nghiệp vận hành liên tục 24/7, giảm độ trễ, tận dụng tối đa thời gian và nguồn lực. Khoản đầu tư 1,15 tỷ USD vào Citadel minh chứng cho xu hướng này. Các doanh nghiệp cần chuyển đổi nhanh, phối hợp hiệu quả cùng AI agent để giữ vững và nâng cao sức cạnh tranh trên thị trường toàn cầu.
https://www.wsj.com/articles/ai-is-enabling-an-always-on-economy-companies-need-to-pick-up-the-pace-15ba93da
#WSJ
Các tác nhân thông minh giúp chuỗi cung ứng, logistics, an ninh mạng, nghiên cứu thị trường và nhiều lĩnh vực khác hoạt động 24 giờ mỗi ngày
Steven Rosenbush
Các công ty cần bắt đầu thích ứng với một thế giới mà nhiều thị trường hoạt động 24 giờ một ngày, giống như giao dịch hiện nay.
Trí tuệ nhân tạo đang chuyển đổi doanh nghiệp theo một cách chưa được đánh giá đúng mức, mở rộng giờ làm việc hiệu quả trên nhiều chức năng và ngành công nghiệp. Các công ty cần bắt đầu thích ứng với một thế giới mà nhiều thị trường hoạt động 24 giờ một ngày, giống như giao dịch hiện nay.
Không giống như nhân viên con người, các tác nhân AI hoạt động trong các lĩnh vực từ chăm sóc sức khỏe đến an ninh mạng không quan tâm đến cân bằng công việc-cuộc sống. Họ không mệt mỏi hoặc đói, không gọi điện xin nghỉ ốm hoặc đi nghỉ. Họ không yêu và chia tay, mua thực phẩm trên đường về nhà, đọc truyện cho con hay phân loại rác tái chế.
"AI đang định hình lại nền kinh tế bằng cách cung cấp tự động hóa vượt qua các giới hạn thời gian và năng lực truyền thống, cho phép doanh nghiệp hoạt động liền mạch suốt ngày đêm," Konstantine Buhler, đối tác tại Sequoia Capital, nói với tôi.
Buhler đã phát triển luận điểm đầu tư xoay quanh chủ đề này, ông gọi là "nền kinh tế hoạt động liên tục". Ý tưởng này nảy sinh khi ông làm việc với khoản đầu tư 1,15 tỷ USD mà Sequoia và nhà đầu tư tiền điện tử Paradigm rót vào Citadel Securities, công ty giao dịch hiệu suất cao, vào năm 2022. Ông đã hiểu rõ hơn về cách Citadel áp dụng thuật toán và AI vào thị trường tài chính tự nhiên dẫn đến việc hoạt động không ngừng nghỉ.
Động lực tương tự sẽ diễn ra trong nhiều lĩnh vực của nền kinh tế trong 5 đến 7 năm tới, Buhler dự đoán.
Quy trình làm việc từ tối đến sáng
Aaron Levie đôi khi kết thúc ngày làm việc với tư cách CEO tại công ty quản lý nội dung đám mây Box vào khoảng 10 giờ hoặc 11 giờ tối với một email yêu cầu ai đó trong nhóm của mình nghiên cứu về một lĩnh vực như phân tích chiến lược thị trường. Giờ đây, ông có thể "bắt đầu" công việc đó với một trong số các tác nhân AI. Tác nhân tìm kiếm qua một lượng lớn dữ liệu từ các nguồn như báo cáo thị trường, trang web của đối thủ, ấn phẩm ngành và các cuộc trò chuyện trên mạng xã hội để tạo ra tổng quan toàn diện về chủ đề, mà ông có thể theo dõi ngay từ sáng sớm.
"Chưa bao giờ có một thế giới mà tôi có thể gửi điều đó cho một nhà phân tích lúc nửa đêm và thức dậy với việc đó, bạn biết đấy, đã hoàn thành," Levie nói. "Có khoảng một người, cứ mỗi 10 năm trong công ty là kiểu cú đêm như vậy. Nhưng nhìn chung thì không thể."
Những hạn chế về con người thường dẫn đến việc ra quyết định chậm trễ và bỏ lỡ cơ hội tại đủ loại công ty.
Mặt khác, khả năng hoạt động liên tục sẽ đóng vai trò trong các xu hướng hiện có trong các lĩnh vực như bán hàng, nơi các công ty phấn đấu hướng tới "không độ trễ" khi phục vụ nhu cầu khách hàng, theo Stav Levi Neumark, đồng sáng lập và CEO của Alta, công ty cung cấp tác nhân AI giúp cải thiện trải nghiệm phần mềm. Khả năng phản hồi các yêu cầu của khách hàng suốt ngày đêm với cùng khả năng có vào giữa buổi chiều ngày càng quan trọng.
"Đó là một sự chuyển đổi văn hóa trong kỳ vọng," cô nói thêm. "...Mỗi phút trì hoãn có thể làm giảm ý định của khách hàng."
Nhịp độ kinh doanh nhanh hơn
Hầu hết các tác nhân và công cụ AI sẽ trở nên phổ biến. Nhưng các công ty tối ưu hóa quy trình làm việc, vai trò và khả năng hợp tác với tác nhân trong nền kinh tế hoạt động liên tục sẽ phát triển lợi thế cạnh tranh bền vững, theo Conor Grennan, kiến trúc sư AI trưởng tại NYU Stern School of Business.
Nguyên tắc thúc đẩy là di chuyển nhanh hơn bao giờ hết, theo Todd Olson, đồng sáng lập và CEO của Pendo, công ty cung cấp nền tảng phần mềm giúp các công ty cải thiện trải nghiệm người dùng cho sản phẩm của họ. "Doanh nghiệp cần phát triển một nhịp độ mới," ông nói.
Điều đó có nghĩa là giảm nhấn mạnh nhiều thói quen và nghi thức lâu đời, như tập hợp mọi người trong một phòng mỗi tuần hoặc tháng để đưa ra các quyết định lớn, khi việc tụ tập trên các nền tảng "không đồng bộ" như Slack có thể nhanh hơn, ông nói.
Như Buhler nói, sự chuyển đổi sang nền kinh tế hoạt động liên tục không chỉ là về việc sử dụng AI để đưa ra dự đoán. Đó là về việc hành động dựa trên chúng liên tục.
Scammer hiện sử dụng AI để tạo hồ sơ giả, chỉnh sửa ngoại hình, sản xuất ảnh chân dung, xây dựng trang web và profile LinkedIn cực kỳ thuyết phục nhằm ứng tuyển các công việc từ xa tại Mỹ.
AI giúp kẻ gian dễ dàng che giấu danh tính thật, thực hiện gần như mọi bước trong quá trình ứng tuyển: từ viết CV, tạo ảnh đến trả lời phỏng vấn trực tuyến bằng deepfake.
Khi đã trúng tuyển, kẻ giả danh có thể đánh cắp bí mật doanh nghiệp hoặc cài phần mềm độc hại.
Theo Gartner, đến năm 2028, có thể 1/4 tổng số ứng viên xin việc là giả, được "nuôi dưỡng" bởi AI tạo sinh, ước tính con số này lên tới hàng triệu trường hợp chỉ riêng tại thị trường Mỹ.
Đoạn video phỏng vấn ứng viên "ảo" của Vidoc Security gây sốc trên LinkedIn cho thấy nguy cơ này là có thật. CEO của Vidoc từng bị lừa đến lần thứ hai và quyết định thay đổi hoàn toàn quy trình phỏng vấn: mời ứng viên đến phỏng vấn trực tiếp, chi trả toàn bộ chi phí đi lại và trả công ngày làm thử.
Bộ Tư pháp Mỹ phát hiện nhiều mạng lưới sử dụng danh tính giả, trong đó người Bắc Triều Tiên cũng sử dụng AI để "chui" vào công ty Mỹ kiếm hàng trăm triệu USD/năm cho Bộ Quốc phòng và chương trình tên lửa hạt nhân của nước này.
Các scammer AI thường từ chối các hành động có thể "làm hỏng" lớp deepfake (ví dụ che tay lên mặt khi gọi video) giúp nhận diện người giả.
Vidoc Security xây dựng hướng dẫn phòng tránh lừa đảo, khuyến nghị doanh nghiệp kiểm tra kỹ LinkedIn, hỏi câu văn hóa địa phương và ưu tiên phỏng vấn trực tiếp để xác thực nhân thân.
Các chiêu nhận diện như: kiểm tra thời gian tạo profile, đối chiếu quan hệ với nơi từng làm việc, hỏi về quán ăn địa phương, hoặc yêu cầu phỏng vấn trực tiếp được khuyến khích áp dụng rộng rãi.
Vấn nạn ứng viên giả nhấn mạnh thách thức lớn cho doanh nghiệp vừa và nhỏ cũng như các HR không chuyên IT, đòi hỏi kiểm soát kỹ hơn và áp dụng biện pháp xác thực đa tầng.
📌 AI đang đưa lừa đảo tuyển dụng lên tầm cao mới, với ước tính tới 25% ứng viên Mỹ là giả vào 2028. Scam AI gây thất thoát hàng trăm triệu USD/năm, tăng nguy cơ rò rỉ bí mật doanh nghiệp. Doanh nghiệp cần tăng nhận thức, ưu tiên phỏng vấn trực tiếp và xác thực đa tầng để phòng tránh.
https://www.cbsnews.com/news/fake-job-seekers-flooding-market-artificial-intelligence/
Hai thực tập sinh được ví như hình tượng của automation và AI: automation thực hiện đúng hướng dẫn; AI không chỉ làm mà còn tự động tối ưu và đề xuất giải pháp dựa trên hành vi, dữ liệu cũ.
Automation đã có từ lâu; nổi bật với dây chuyền sản xuất của Henry Ford rút ngắn thời gian lắp ráp xe Model T từ 12 giờ xuống còn 90 phút.
Automation phù hợp với các nhiệm vụ lặp đi lặp lại, có quy tắc rõ ràng. Ví dụ: phóng viên thiết lập Google Alerts thay vì kiểm tra tin tức thủ công; nhà tuyển dụng dùng Harver để lọc đơn ứng tuyển.
AI thể hiện khả năng tư duy, phân tích và ra quyết định, vượt qua giới hạn làm việc máy móc của automation. Ví dụ: AI agent không chỉ ghi biên bản cuộc họp mà còn tổng hợp, phân loại việc cần làm, viết email theo vai trò từng người.
AI agent ngày càng phát triển: hoạt động tự động, tự ra quyết định trong tình huống phức tạp, điều chỉnh theo nhu cầu cá nhân. Ví dụ: tạo AI agent xử lý email, lọc spam, báo tin khẩn.
Automation như một đầu bếp làm theo công thức; AI agent như đầu bếp trưởng biết sáng tạo và điều chỉnh món ăn.
Không phải lúc nào cũng nên dùng AI: với nhiệm vụ đơn giản, automation là đủ, tiết kiệm chi phí hơn.
Muốn tối ưu hóa nên phân tích quy trình làm việc, xác định đâu là nhiệm vụ cần automation, đâu cần AI để tăng hiệu suất và sáng tạo.
Sự kết hợp của AI và automation không chỉ tiết kiệm thời gian mà còn thay đổi tư duy, cách tiếp cận công việc, giảm nguy cơ kiệt sức trong môi trường áp lực cao.
Lời khuyên: dùng automation để tăng hiệu quả, AI để tăng năng lực lý luận, ra quyết định; kết hợp sẽ giúp doanh nghiệp vượt trội, tập trung vào công việc sáng tạo, chiến lược.
📌 Automation giúp xử lý nhiệm vụ lặp lại, AI đem lại tư duy linh hoạt và khả năng thích ứng. Khi hiểu rõ điểm mạnh của từng công nghệ, doanh nghiệp vừa tiết kiệm thời gian, vừa đẩy cao sáng tạo, giảm áp lực công việc. Sức mạnh thực sự nằm ở sự kết hợp thông minh cả hai.
https://www.fastcompany.com/91317886/ai-vs-automation-how-to-leverage-each-for-maximum-impact
Hence AI vừa ra mắt Hence Global – sản phẩm AI tạo sinh đóng vai trò cố vấn doanh nghiệp ứng phó rủi ro địa chính trị, đặc biệt giữa bối cảnh thương chiến Mỹ-Trung leo thang với chính sách thuế của Donald Trump.
Giá bản cơ bản của Hence Global chỉ 1.500 USD/năm (khoảng 37,8 triệu đồng), rẻ hơn rất nhiều so với hợp đồng tư vấn truyền thống (có thể lên tới 500.000 USD).
Sản phẩm hướng đến cả doanh nghiệp lớn, vừa, nhỏ; startup và tổ chức phi lợi nhuận chưa đủ năng lực tài chính thuê các hãng luật, tư vấn đắt đỏ.
Hence Global sử dụng nền tảng Foundry và AI Platform của Palantir, tích hợp nhiều mô hình AI để thu thập, phân tích, tổng hợp dữ liệu từ tiêu đề tin tức, Wikipedia, hồ sơ SEC, thông cáo báo chí, danh sách cấm vận, dữ liệu Ngân hàng Thế giới…
Người dùng tạo “persona” để cá nhân hóa nhu cầu theo ngành nghề, vị trí, mức độ phơi nhiễm, danh sách đối thủ/cung ứng/khách hàng.
Mỗi ngày, AI sẽ gửi báo cáo ngắn gọn các tin tức, rủi ro, biến động liên quan; giúp giảm thời gian phân tích thông tin của đội ngũ phân tích xuống chỉ còn một phút thay vì cả ngày.
Hence Global đã có khách hàng lớn như Pillsbury Winthrop Shaw Pittman, TravelPerk, Diversifi Capital, Three Crowns và tổ chức quốc tế như International Council on Metals and Mining sử dụng để theo dõi thị trường và xu hướng chính sách.
CEO Rohitesh Dhawan ví sản phẩm này như Uber Eats cho doanh nghiệp – giải quyết vấn đề mà doanh nghiệp không ngờ là mình cần đến, đặc biệt với ngành tài nguyên, nông nghiệp, công nghệ, startup chịu tác động lớn của dư luận xã hội và chính sách.
Đồng sáng lập Sean West nhấn mạnh mục tiêu dân chủ hóa tiếp cận tư vấn chiến lược doanh nghiệp, thay vì chỉ dành cho tập đoàn lớn.
Hence AI đã huy động được khoảng 5,2 triệu USD vốn đầu tư và đang tiếp tục gọi vốn để mở rộng sản phẩm; không có ý định bán cho tập đoàn lớn mà muốn phục vụ thị trường toàn cầu.
📌 Hence AI ra mắt công cụ AI cố vấn rủi ro địa chính trị chỉ giá 1.500 USD/năm, giúp doanh nghiệp từ startup tới tập đoàn nhanh chóng nắm bắt biến động thị trường giữa thương chiến Trump. Sản phẩm tích hợp dữ liệu đa nguồn, đã hút nhiều khách lớn toàn cầu và cam kết hướng đến thị trường rộng lớn, không phụ thuộc nhà đầu tư lớn.
https://techcrunch.com/2025/04/17/as-the-trade-war-escalates-hence-launches-an-ai-advisor-to-help-companies-manage-risk/
Nhân viên sử dụng công cụ AI tạo sinh tại nơi làm việc mà không có sự chấp thuận của công ty (gọi là "Bring Your Own AI" hay BYOAI) có thể gây ra nhiều rủi ro cho doanh nghiệp, theo nghiên cứu của MIT.
Xu hướng BYOAI đặc biệt phổ biến tại các công ty đã cấm sử dụng chatbot AI công khai như ChatGPT. Samsung, Verizon, J.P. Morgan Chase và nhiều ngân hàng khác đã hạn chế hoặc cấm sử dụng chatbot AI bên ngoài vì lo ngại về quy định và an ninh.
Nghiên cứu từ MIT cho thấy khoảng 16% nhân viên trong các tổ chức lớn đã sử dụng công cụ AI vào năm ngoái, và con số này dự kiến tăng lên 72% vào năm 2027.
Các nhà nghiên cứu phân biệt 2 loại triển khai AI tạo sinh: công cụ GenAI (như ChatGPT hoặc Microsoft Copilot) giúp nâng cao năng suất cá nhân, và giải pháp GenAI là việc triển khai AI toàn công ty để mang lại giá trị cho doanh nghiệp.
Khi AI được sử dụng như một công cụ, nhân viên chịu trách nhiệm về việc sử dụng thành công. Khi AI được sử dụng như một giải pháp, tổ chức sở hữu thành công của nó.
Thay vì cấm hoàn toàn, các nhà nghiên cứu đề xuất 3 cách tiếp cận chính để quản lý BYOAI:
Thiết lập rào chắn và hướng dẫn rõ ràng về việc sử dụng AI
Đầu tư vào đào tạo và giáo dục nhân viên về kỹ năng sử dụng AI
Cung cấp các công cụ được phê duyệt từ các nhà cung cấp đáng tin cậy
Công ty sức khỏe động vật toàn cầu Zoetis đã triển khai "cửa hàng ứng dụng GenAI" nơi nhân viên đăng ký sử dụng, giải thích lý do cần ứng dụng, sau đó chia sẻ kinh nghiệm sử dụng, giúp công ty xác định ứng dụng có giá trị đồng thời kiểm soát chi phí.
Các tổ chức mới bắt đầu hành trình AI tạo sinh nên thiết lập trung tâm xuất sắc - có thể là một người hoặc một nhóm nhỏ - để cung cấp góc nhìn toàn doanh nghiệp và điều phối nỗ lực giữa các phòng ban.
📌 Nghiên cứu MIT phát hiện 16% nhân viên đã dùng AI không được phép, dự kiến tăng lên 72% vào 2027. Thay vì cấm đoán, tổ chức nên thiết lập hướng dẫn rõ ràng, đào tạo kỹ năng AI và cung cấp công cụ được phê duyệt để vừa bảo vệ an ninh vừa tận dụng giá trị của AI tạo sinh.
https://www.pymnts.com/news/artificial-intelligence/2025/how-to-manage-risks-when-employees-use-ai-secretly-work/
Marc Benioff, CEO Salesforce, so sánh AI agents tương lai như trợ lý ảo Jarvis trong Iron Man, giúp tự động hóa thông minh, nâng cao trải nghiệm và hiệu quả vận hành doanh nghiệp.
AI agents hơn cả AI tạo sinh truyền thống (như ChatGPT, Grok, Gemini) nhờ khả năng xử lý ngữ cảnh, cá nhân hóa, khai thác dữ liệu sâu rộng, đem lại giá trị trực tiếp cho doanh nghiệp.
Salesforce đã tích hợp mạnh mẽ AI vào hệ sinh thái CRM với nền tảng Einstein 1 Platform và Agentforce, cho phép doanh nghiệp phát triển, triển khai AI agents tự động hóa tác vụ trong bán hàng, dịch vụ, marketing, thương mại điện tử.
Các AI agent như Einstein GPT và Einstein Copilot hỗ trợ soạn email, trả lời khách hàng, tóm tắt lịch sử giao dịch, tự động điền thông tin, trả lời câu hỏi nội bộ dựa trên dữ liệu doanh nghiệp.
Singapore Airlines: AI agent hỗ trợ đặt vé tự động, kiểm tra lịch trình, sử dụng mã khách hàng thân thiết mà không cần thao tác thủ công.
Disney sử dụng AI agent giúp nhân viên hiểu hệ sản phẩm phức tạp, cá nhân hóa trải nghiệm khách hàng, điều phối khách kịp thời khi có sự cố.
Pandora Jewelry dùng AI agent gợi ý sản phẩm dựa trên lịch sử mua sắm, tăng tương tác thời gian thực tại điểm bán.
Vấn đề lớn của AI agent hiện tại là bảo mật, quyền riêng tư, độ tin cậy (tỷ lệ chính xác khoảng 85%). Salesforce kiểm soát chặt quyền truy xuất dữ liệu, ưu tiên an toàn cho các ngành nhạy cảm như ngân hàng, hàng không.
Benioff thừa nhận AI tạo sinh thế hệ đầu từng bị thổi phồng (như Microsoft Copilot), nhưng thế hệ mới (Cursor, Surf Rider, mô hình Mixture of Experts, AI nguồn mở) đang vượt trội hơn, giảm đáng kể chi phí vận hành.
Trong y tế, AI tạo sinh hỗ trợ chẩn đoán, tư vấn lộ trình điều trị, giúp bệnh nhân chủ động hơn, đặc biệt hữu ích tại vùng sâu vùng xa.
Benioff chia sẻ trải nghiệm cá nhân: dùng AI tư vấn chọn tự phục hồi thay vì phẫu thuật, gân Achilles lành hoàn toàn sau 6 tháng.
AI tạo sinh và AI agent có thể giúp doanh nghiệp tiết kiệm 20-50% chi phí (theo Morgan Stanley), chủ yếu nhờ giảm nhân sự và chi phí vận hành, nhưng làm dấy lên lo ngại về việc làm.
Benioff nhấn mạnh tầm quan trọng của đào tạo lại, nâng cao kỹ năng cho người lao động, cam kết đầu tư vào giáo dục, đặc biệt là tại San Francisco và Oakland, để thích nghi kịp thời.
📌 AI agents đang làm thay đổi cách doanh nghiệp vận hành, giúp tiết kiệm 20-50% chi phí nhờ tự động hóa và cá nhân hóa. Các ví dụ thực tế tại Singapore Airlines, Disney, Pandora Jewelry cho thấy hiệu quả thực tiễn. Tuy nhiên, bài toán bảo mật, độ chính xác và đào tạo lại nguồn nhân lực vẫn là thách thức cốt lõi.
https://www.computerworld.com/article/3960660/salesforce-ceo-marc-benioff-ai-agents-will-be-like-iron-mans-jarvis.html
AI Agent đang thay đổi căn bản quá trình tuyển dụng, mang lại hiệu quả vượt trội so với phương pháp truyền thống.
Bộ Lao động Hoa Kỳ ước tính một quyết định tuyển dụng sai có thể khiến doanh nghiệp mất đến 30% lương năm đầu của nhân viên đó, chưa kể đến thiệt hại về tinh thần, động lực và hiệu suất nhóm.
42% nhà quản lý cho rằng thiếu ứng viên đủ kỹ năng là thách thức hàng đầu; 31% ứng viên gặp khó trong việc tìm kiếm vị trí phù hợp và minh bạch về đãi ngộ.
Vấn đề lớn chính là “lạc trôi” – ứng viên tiềm năng và doanh nghiệp không thể tìm thấy lẫn nhau, cộng thêm áp lực cạnh tranh khiến doanh nghiệp dễ vội vàng ra quyết định, tăng rủi ro sai lầm.
Nhấn mạnh “cultural fit” (phù hợp văn hóa) trở thành bài toán khó, đặc biệt khi tuyển dụng từ xa mở rộng nguồn ứng viên nhưng tăng thách thức về hợp tác và gắn kết.
AI Agent có thể quét hàng trăm hồ sơ trong vài giây, phân tích kỹ năng, kinh nghiệm và cả đặc điểm tính cách của ứng viên, tăng cơ hội tìm ra người phù hợp thực sự.
AI hỗ trợ giảm thiểu thành kiến tiềm ẩn, không bị ảnh hưởng bởi yếu tố ngoài chuyên môn, đồng thời cá nhân hóa trải nghiệm cho từng ứng viên: trả lời tự động, hẹn phỏng vấn, hướng dẫn quy trình kịp thời.
Giúp nhà tuyển dụng mở rộng đáng kể nguồn ứng viên, rút ngắn thời gian tuyển dụng và giữ ấn tượng tích cực với ứng viên dù không được chọn, mở cơ hội hợp tác trong tương lai.
AI Agent tự động hóa đăng tin tuyển dụng, cập nhật vị trí mới, loại bỏ tin cũ; tự động điều chỉnh mô tả công việc dựa trên dữ liệu thị trường, tối ưu hóa ngôn ngữ để thu hút đúng đối tượng.
AI có thể dự báo nhu cầu nhân sự, khuyến nghị vị trí mới, và chủ động thực hiện quy trình tuyển dụng cho các vị trí đó.
Tuy nhiên, AI vẫn cần giám sát của con người để tránh khuếch đại sai lệch dữ liệu; các tương tác tinh tế khó thay thế hoàn toàn bởi AI.
Sức mạnh thực sự đến từ sự kết hợp giữa hiệu suất AI và trực giác con người: dữ liệu giúp sàng lọc, nhưng quyết định cuối cùng vẫn thuộc về người tuyển dụng.
📌 AI Agent đang tạo ra bước ngoặt lớn cho ngành tuyển dụng: đẩy nhanh tốc độ, giảm thành kiến, cải thiện trải nghiệm ứng viên và mở rộng nguồn nhân lực. Tuy nhiên, giám sát của con người là yếu tố then chốt để hệ thống AI phát huy tối đa hiệu quả mà không gây ra hệ quả tiêu cực.
https://www.forbes.com/sites/aytekintank/2025/04/17/how-ai-agents-are-revolutionizing-recruitment/
Johnson & Johnson chuyển hướng chiến lược AI tạo sinh, không còn triển khai rộng mà tập trung vào các trường hợp có giá trị cao nhất, loại bỏ dự án trùng lặp hoặc không hiệu quả.
Jim Swanson, CIO, cho biết sau một năm thử nghiệm với gần 900 dự án AI tạo sinh, nhận ra chỉ 10% - 15% trường hợp sử dụng mang lại tới 80% giá trị thực tế cho công ty.
Công ty loại bỏ hội đồng quản trị tập trung về AI, phân quyền cho các bộ phận chuyên môn như thương mại, chuỗi cung ứng, nghiên cứu... để chủ động loại bỏ/sáp nhập dự án trùng lặp, tập trung nguồn lực vào các sáng kiến hiệu quả.
Các ưu tiên hiện nay gồm:
Phát triển dược phẩm: dùng AI tạo sinh hỗ trợ nghiên cứu xác định thời điểm tối ưu thêm dung môi giúp chuyển đổi phân tử lỏng sang rắn.
Chuỗi cung ứng: AI hỗ trợ xác định, giảm thiểu rủi ro như thiếu nguyên liệu đầu vào.
Chatbot nội bộ: sử dụng AI cho chatbot trả lời các thắc mắc về chính sách, phúc lợi... Giúp tiết giảm khoảng 10 triệu lượt tương tác/năm giữa nhân viên và đội dịch vụ.
Rep Copilot: AI hỗ trợ huấn luyện nhân viên kinh doanh trao đổi với chuyên gia y tế về liệu pháp mới, thử nghiệm ở mảng dược phẩm đổi mới và đang mở rộng sang MedTech.
J&J theo dõi hiệu quả AI theo 3 tiêu chí: khả năng triển khai thành công các trường hợp sử dụng, mức độ ứng dụng rộng rãi và mức độ đóng góp vào mục tiêu kinh doanh cụ thể.
Swanson nhận định giai đoạn "nở rộ" AI vừa qua cần thiết để hiểu công nghệ, xác định đâu là hype, đâu là giá trị thực. Nhưng hiện tại, cách tiếp cận có chọn lọc và ưu tiên đã chứng minh hiệu quả rõ rệt hơn.
Sau 3 năm đầu tư, công ty rút ra bài học phải liên tục điều chỉnh dựa trên dữ liệu thực tế, tập trung vào những ứng dụng tạo ra tác động kinh doanh lớn nhất.
📌 Johnson & Johnson đã dẹp gần 800 dự án AI tạo sinh, giữ lại khoảng 10% sáng kiến mang về 80% giá trị. Công ty ưu tiên các ứng dụng vào dược phẩm, chuỗi cung ứng, chatbot nội bộ... và phân quyền quản trị để đẩy nhanh hiệu quả, cắt giảm lãng phí nguồn lực.
https://www.wsj.com/articles/johnson-johnson-pivots-its-ai-strategy-a9d0631f
#WSJ
Các marketer ngày càng tin tưởng AI tạo sinh vào việc xây dựng hình ảnh thương hiệu, thậm chí từng bước giao phó toàn bộ quy trình sáng tạo và kiểm duyệt chiến dịch cho AI agent – hệ thống AI thực hiện nối tiếp các nhiệm vụ trong chuỗi marketing.
Noah Brier (Alephic) khẳng định việc “từ bỏ quyền kiểm soát cho AI” là xu hướng tất yếu, bởi số lượng nội dung marketing tạo ra quá lớn, con người không thể duyệt hết. Các công cụ AI đánh giá chất lượng nội dung do AI sinh ra trở thành chìa khóa then chốt.
Prudential Financial đã hợp tác Adobe và Gradial xây dựng “nhân viên ảo” – AI cá nhân hóa nội dung web, sử dụng dữ liệu hành vi, vị trí địa lý, thời gian thực để tạo trang web phù hợp với hàng triệu khách hàng và tư vấn viên.
Prudential còn thử nghiệm đánh giá AI agent nhận diện, kiểm tra tính tuân thủ pháp lý và đồng nhất giọng điệu thương hiệu cho mọi nội dung do AI tạo ra, đặc biệt nghiêm ngặt với nội dung đứng tên lãnh đạo công ty.
Dù đa phần nội dung vẫn có kiểm duyệt cuối cùng bởi con người, webpage cá nhân hóa có thể trở thành ngoại lệ, khi AI tự động hóa hoàn toàn quy trình sản xuất và kiểm tra.
Opella (công ty sản phẩm chăm sóc sức khoẻ) vận hành “xưởng AI” sản xuất tài liệu y tế, hình ảnh, bài đăng mạng xã hội. Mỗi đội AI marketing đều có chuyên viên pháp chế đảm bảo phát hiện và loại bỏ ảo giác - thông tin sai lệch do AI tạo ra.
Opella tích hợp chuyên gia y tế đào tạo AI agent về nội dung chuyên môn, đảm bảo độ chính xác y khoa. Đội ngũ chỉ kiểm tra thực tế chứ không chỉnh sửa chi tiết nhỏ vì AI có thể tạo ra 100 phương án mới chỉ trong thời gian chờ sửa một logo.
Video quảng cáo hoàn toàn do AI sinh ra vẫn là thách thức. Một số thương hiệu như Toys “R” Us nhận nhiều phản hồi trái chiều về video AI, trong khi Puma hợp tác firm Monks thử nghiệm video “AI-generated” đầu tiên vào tháng rồi.
📌 Marketer lớn như Prudential và Opella chuyển phần lớn quy trình sáng tạo, kiểm duyệt nội dung sang AI tạo sinh, giúp cá nhân hóa trải nghiệm, tăng năng suất (AI tạo ra hàng trăm nội dung/ngày), nhưng phải kiểm soát rủi ro về pháp lý, ảo giác và phản ứng khách hàng đối với sản phẩm AI hoàn toàn.
https://www.wsj.com/articles/marketers-are-putting-more-content-and-quality-control-in-the-hands-of-ai-de844638
#WSJ
Cohere vừa ra mắt Embed 4 – mô hình embeddings AI đa phương tiện mới, cho phép xử lý tài liệu lên tới 128.000 token (tương đương khoảng 200 trang).
Embed 4 nổi bật với khả năng hiểu và xử lý dữ liệu phi cấu trúc phức tạp một cách tự nhiên, không cần pipeline tiền xử lý phức tạp như trước.
Doanh nghiệp có thể triển khai Embed 4 trên máy chủ riêng, cloud riêng hoặc on-premise nhằm tăng bảo mật dữ liệu.
Embed 4 chuyển đổi tài liệu, hình ảnh, text đa ngữ thành số liệu phục vụ cho tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài, giúp tác vụ tìm kiếm trở nên chính xác, giảm ảo giác đáp án.
Mô hình tối ưu cho ngành tài chính, y tế, sản xuất – nơi đòi hỏi bảo mật và thường xuyên xuất hiện dữ liệu thực tế nhiều lỗi chính tả, định dạng bất thường.
Embed 4 mạnh mẽ với tài liệu scan hoặc chữ viết tay, tiết kiệm thời gian và chi phí vận hành cho doanh nghiệp nhờ không cần xử lý dữ liệu phức tạp trước khi sử dụng.
Hỗ trợ hơn 100 ngôn ngữ, đáp ứng nhu cầu toàn cầu của doanh nghiệp.
Khách hàng như Agora đã triển khai Embed 4 cho công cụ tìm kiếm AI thương mại điện tử, cải thiện tốc độ tìm kiếm và hiệu quả nội bộ, nhờ khả năng nhúng hình ảnh và văn bản phức tạp vào cùng không gian embeddings.
Embed 4 tạo embedding dữ liệu dạng nén, giúp giảm chi phí lưu trữ lớn khi sử dụng ở quy mô doanh nghiệp.
Cohere nhấn mạnh Embed 4 là “công cụ tìm kiếm tối ưu” cho agent và trợ lý AI trong môi trường doanh nghiệp, hỗ trợ mạnh mẽ use case tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài.
Ngoài Cohere, thị trường còn có các đối thủ như Qodo và Voyage AI (vừa được MongoDB mua lại).
Việc sử dụng embeddings và tạo sinh được tăng cường truy xuất dữ liệu ngoài giúp giảm ảo giác, tăng tính chính xác khi agent truy xuất tài liệu cụ thể phục vụ tác vụ.
📌 Embed 4 của Cohere cho phép doanh nghiệp xử lý, tìm kiếm dữ liệu đa phương tiện, tài liệu dài 200 trang, hỗ trợ trên 100 ngôn ngữ, tối ưu bảo mật, giảm chi phí lưu trữ, tiết kiệm thời gian vận hành, nâng hiệu suất AI doanh nghiệp – đặc biệt trong tài chính, y tế, sản xuất.
https://venturebeat.com/ai/cohere-launches-embed-4-new-multimodal-search-model-processes-200-page-documents/
Quản lý hiện chuyển từ kỷ nguyên thông tin sang thời đại tăng cường, nơi AI tạo sinh kết hợp với khả năng con người để nâng cao năng lực lãnh đạo và sáng tạo.
AI được sử dụng với 2 vai trò chính: “copilot” (hỗ trợ hành chính, tối ưu công việc, tăng năng suất) và “cothinker” (đối tác tư duy, thử thách ý tưởng, đưa ra góc nhìn mới, hỗ trợ ra quyết định phức tạp).
“Cothinker” giúp nhà quản lý đối thoại sâu sắc với AI, giải quyết vấn đề, phản tư về phong cách lãnh đạo, brainstorm ý tưởng và phát triển bản thân.
AI có thể áp dụng vào 35 công việc quản lý, chia đều cho hai nhóm copilot và cothinker: quản lý bản thân, nhóm, kinh doanh và quản lý thay đổi.
AI hỗ trợ quản lý bản thân bằng cách tổng hợp thông tin, viết email, lên lịch, phản tư về kỹ năng lãnh đạo và hướng dẫn giao tiếp hiệu quả.
Trong giải quyết xung đột, AI giúp nhận diện nguyên nhân, xây dựng phương án giải quyết, chuẩn bị đối thoại và tái lập sự gắn kết nhóm.
AI có thể làm “đối tác tranh luận” khi ra quyết định, giúp phân tích logic, đánh giá rủi ro và chọn lựa chiến lược trong vấn đề phức tạp, thay vì chỉ dựa vào kinh nghiệm cá nhân.
Các tác giả nhấn mạnh AI sẽ giúp nhà quản lý trở nên “người” hơn – tập trung vào khai thác tiềm năng con người, cá nhân hóa lãnh đạo, củng cố nhận thức, trí tuệ và lòng trắc ẩn.
Nghiên cứu cho thấy lãnh đạo có nhận thức, trí tuệ và lòng trắc ẩn cao sẽ tạo trải nghiệm làm việc tốt hơn, nâng hiệu suất tổ chức.
Bên lề: Nghiên cứu trên 2.700 luật sư tại Anh cho thấy thuê "ngôi sao" đôi khi làm giảm hiệu suất, ngoại trừ khi họ gia nhập đội ngũ mạnh; khách hàng mong đợi cá nhân hóa dịch vụ chứ không phải đối xử giống nhau; quảng cáo dễ đoán bị coi là “kẻ ám sát thầm lặng”.
📌 AI tạo sinh đang trở thành đối tác tư duy, thử thách ý tưởng quản lý, giúp nâng cao hiệu suất, cá nhân hóa lãnh đạo và phát triển kỹ năng con người. Để bứt phá thời đại tăng cường AI, nhà quản lý cần ý thức, trí tuệ và lòng trắc ẩn, đồng thời tận dụng sự phản biện, tổng hợp và phân tích từ AI.
https://www.theglobeandmail.com/business/careers/management/article-to-effectively-use-ai-managers-must-get-used-to-a-robot-challenging/
Harvey Schachter Đặc biệt cho The Globe and Mail Công bố hôm qua 2 Bình luận
Chia sẻ
Lưu để đọc sau Nghe bài viết này
Quan tâm đến nhiều nội dung liên quan đến nghề nghiệp hơn? Hãy xem bản tin Work Life hàng tuần mới của chúng tôi. Được gửi vào mỗi chiều thứ Hai.
Các nhà quản lý đang chuyển từ thời đại thông tin sang thời đại bổ sung khi trí tuệ nhân tạo thêm vào khả năng của chúng ta, các chuyên gia tư vấn phát triển lãnh đạo Rasmus Hougaard và Jacqueline Carter gợi ý. AI cung cấp cho chúng ta cơ hội kết hợp sức mạnh của nó và khả năng con người của chúng ta theo những cách kỳ diệu mà ban đầu sẽ khiến các nhà quản lý mất cân bằng vì họ sẽ cần thay thế thói quen cũ bằng thực hành mới. Cho đến nay, chúng ta hầu như chỉ mới chạm vào bề mặt.
Trong Hướng dẫn Harvard Business Review về AI tạo sinh cho Nhà quản lý, các nhà nghiên cứu quản lý Elisa Farri và Gabriele Rosani đưa ra một số thông tin cụ thể - hướng dẫn thực tế - về cách làm cho thời đại mới này trở thành hiện thực trong nơi làm việc của bạn ngày nay. Nó bắt đầu bằng việc xem khả năng của AI theo hai chế độ chính: Copilot (phi công hỗ trợ) và cothinker (nhà tư duy đồng hành).
Khi được sử dụng như một copilot, AI tạo sinh trở thành một cộng tác viên hiệu quả, xử lý một loạt các nhiệm vụ hành chính, giao tiếp và hoạt động. Đóng góp chính của bạn là định hướng ban đầu, đánh giá cuối cùng và xác nhận kết quả. Trọng tâm của bạn trong lĩnh vực này là thực hiện và năng suất, và đây là cách sử dụng AI phổ biến nhất những ngày này.
Khi được sử dụng như một cothinker, AI tạo sinh trở thành đối tác tư duy của bạn, tham gia vào cuộc trò chuyện, gợi ý các quan điểm mới và thách thức các giả định hoặc ý tưởng của bạn - và của đội của bạn. Nó có thể kết hợp với bạn để phản ánh một cách có cấu trúc, đánh giá các lựa chọn, đánh giá rủi ro, xem xét các quan điểm khác nhau và lập kế hoạch thực hiện lựa chọn tốt nhất.
"Là một cothinker, bạn sẽ tham gia với AI trong một cuộc đối thoại sâu, có tính phản ánh. Điều này có thể giúp bạn giải quyết vấn đề, trở thành một nhà lãnh đạo tốt hơn hoặc động não về các khái niệm đổi mới," Farri và Rosani viết.
Đây là con đường thách thức - thực sự khiến đầu óc quay cuồng - mà các nhà quản lý phải xem xét. Cothinking luôn được thực hiện với đồng nghiệp là con người, trong một vòng liên tục các cuộc họp và thảo luận không chính thức. Quản lý đối với hầu hết chúng ta quy về việc lập chiến lược với người khác - không phải máy móc. Đặc biệt không phải một cỗ máy thiếu kiến thức ngầm của chúng ta về tổ chức và hoạt động chỉ bằng cách nhìn vào các mẫu từ và phun ra "trí thông minh". Nhưng chúng ta đôi khi cũng tìm đến những người ngoài cuộc mang kiến thức khác đến bàn như huấn luyện viên điều hành và tư vấn viên. Và AI là một bản tóm tắt kiến thức. Giống như một tư vấn viên thay đổi có thể hướng dẫn bạn qua các bước của quy trình thay đổi nổi tiếng của John Kotter, AI có vô số thông tin có thể hỗ trợ bạn trong việc áp dụng ý tưởng của ông. Và nó sẽ trở nên tốt hơn, đặc biệt là khi các tổ chức xây dựng công cụ AI của riêng họ, làm cho nó hiểu rõ hơn về tình huống cụ thể của bạn. Tất nhiên, giống như bạn cần đối xử với lời khuyên từ các huấn luyện viên điều hành và tư vấn viên đó một cách thận trọng, điều đó cũng sẽ được yêu cầu ở đây.
Trong hướng dẫn của họ, Farri và Rosani xác định 35 nhiệm vụ quản lý phổ biến có thể được tăng cường với AI tạo sinh, nhấn mạnh rằng đây không phải là danh sách đầy đủ. Các nhiệm vụ liên quan đến quản lý bản thân, quản lý đội của bạn, quản lý doanh nghiệp của bạn và quản lý sự thay đổi và được chia đều giữa các khả năng copilot và cothinking.
Có lẽ bạn đã bước vào thế giới mới này trong danh mục đầu tiên, quản lý bản thân, với việc tóm tắt các cuộc họp hoặc thông tin, hoặc thậm chí viết văn bản, tạo slide và quản lý email hoặc hỗ trợ quản lý thời gian. Nhưng hai tư vấn viên khuyến khích bạn đi sâu hơn nữa: "Khi được sử dụng như một cothinker, AI tạo sinh để quản lý bản thân trở thành đối tác tư duy của bạn. Đối với sự phát triển cá nhân, nó hướng dẫn bạn qua việc phản ánh sâu sắc về phong cách và hành vi lãnh đạo của bạn, cũng như về cách yêu cầu phản hồi để cải thiện bản thân liên tục. Đối với sự phát triển chuyên môn, nó giúp bạn trở thành một người giao tiếp hiệu quả, từ bài phát biểu đến phỏng vấn việc làm."
Còn về giải quyết xung đột thì sao? Đó dường như là nơi cuối cùng để tìm đến một cỗ máy - quá con người, quá lộn xộn. Nhưng trong hướng dẫn của họ, họ cho thấy cách AI như cothinker có thể giúp bạn hiểu các nguồn xung đột, khám phá các lựa chọn giải quyết, chuẩn bị cho các cuộc trò chuyện quan trọng, và sau đó cố gắng lấy lại sự gắn kết của đội. Đối với việc ra quyết định, họ gợi ý bạn sử dụng AI như một đối tác đấu tập, giúp đội của bạn khám phá các vấn đề một cách có cấu trúc. Đúng là nó thiếu kinh nghiệm và trực giác, nhưng họ lưu ý rằng khi bạn rời khỏi phạm vi của các vấn đề tái diễn có rủi ro thấp và giải quyết các vấn đề phức tạp, rủi ro cao và mới mẻ, bạn cần nhiều hơn là kinh nghiệm và trực giác.
Thời đại bổ sung phải vẫn là con người, ngay cả khi đôi khi nó sẽ sử dụng một cỗ máy làm bạn đồng hành. Hougaard và Carter, những người đã viết một cuốn sách xuất sắc ba năm trước, Lãnh đạo Từ bi, trở lại với những chủ đề đó trong cuốn sách mới của họ về quản lý AI, Con người Hơn. Nhiều người lo sợ AI sẽ tạo ra một kỷ nguyên hiệu quả máy móc, phi cá nhân nhưng họ phản bác rằng nó có thể thúc đẩy một thời kỳ phục hưng, định nghĩa lại bản thân khái niệm lãnh đạo. "Nghịch lý thay, AI có thể làm cho các nhà lãnh đạo trở nên người hơn," họ viết. "AI có thể giúp các nhà lãnh đạo khai thác, quản lý và tối đa hóa tiềm năng con người tốt nhất của chúng ta."
Các cuộc phỏng vấn của họ với các nhà lãnh đạo cấp cao tại các tập đoàn lớn và nghiên cứu với các học giả cho thấy AI có thể tiết kiệm thời gian, điều này giải phóng các nhà quản lý để tập trung vào việc tạo ra những trải nghiệm con người hơn. Nó có thể cho phép các nhà quản lý tạo ra sự lãnh đạo cá nhân hóa cực kỳ. Và bằng cách cải thiện kỹ năng của nhà quản lý, nó có thể nâng cao tính người của họ.
Để có được những điều tốt nhất của thời đại bổ sung, họ khuyến khích bạn giữ ba phẩm chất lãnh đạo ở vị trí hàng đầu: Nhận thức, trí tuệ và lòng từ bi. Nghiên cứu của họ cho thấy các nhà lãnh đạo được đánh giá bởi người theo dõi của họ là có nhận thức cao, trí tuệ và lòng từ bi cung cấp cho nhân viên trải nghiệm làm việc tốt hơn, điều này có thể dẫn đến hiệu suất cao hơn.
Hãy là con người, nhưng cũng tận dụng khả năng của AI.
Tạc đạn
Thật sai lầm khi nghĩ rằng tất cả khách hàng nên được đối xử giống nhau. Tư vấn viên Shep Hyken nói rằng tất cả họ nên được đối xử với mức độ tôn trọng tương tự nhưng họ muốn một trải nghiệm cá nhân hóa và vì vậy bạn phải cá nhân hóa sản phẩm của mình cho từng người.
Một nghiên cứu theo dõi 2.700 luật sư ngôi sao làm việc tại hơn 100 công ty luật doanh nghiệp có trụ sở tại Vương quốc Anh trong thời gian 17 năm phát hiện ra rằng, trung bình, các lĩnh vực thực hành thuê một ngôi sao có hiệu suất thấp hơn đến 10% trong năm tiếp theo so với các lĩnh vực thực hành không làm như vậy. Điều này phản ánh nghiên cứu mở rộng của Giáo sư Đại học Harvard Boris Groysberg về những thất bại khi tuyển dụng các nhà phân tích ngân hàng đầu tư trong cuốn sách "Chasing Stars" năm 2010 của ông. Nghiên cứu về luật sư phát hiện ra rằng bất lợi về hiệu suất được giảm đáng kể khi một ngôi sao tham gia vào một lĩnh vực thực hành nơi nhiều người đương nhiệm là ngôi sao và một lợi thế hiệu suất thực sự có thể phát sinh nếu ngôi sao tham gia vào một trong những lĩnh vực thực hành mạnh nhất trong tổ chức.
Tính dự đoán được là kẻ ám sát thầm lặng của quảng cáo, tư vấn viên Roy H. Williams nhấn mạnh.
Harvey Schachter là một nhà văn có trụ sở tại Kingston chuyên về các vấn đề quản lý. Ông, cùng với Sheelagh Whittaker, cựu CEO của cả EDS Canada và Cancom, là tác giả của "When Harvey Didn't Meet Sheelagh: Emails on Leadership".
Doanh nhân chia sẻ 5 phương pháp mới tận dụng AI để tạo ra nhiều nguồn thu nhập thụ động, chỉ cần thời gian đầu tư ngắn nhưng mang lại kết quả lâu dài và đột phá cho doanh nghiệp.
Việc sử dụng AI để viết nội dung giúp tăng lượng bài đăng, cập nhật mạng xã hội, email và trang bán hàng mà không cần đầu tư thời gian lớn; tái sử dụng nội dung hiện có sang nhiều kênh khác nhau như LinkedIn hay Twitter/X.
Đóng gói các dịch vụ ứng dụng AI dành cho khách hàng cao cấp (marketing, viết lách, thiết kế, dựng video, phân tích dữ liệu) giúp mở rộng quy mô công việc, tăng giá trị hợp đồng và nâng cao thu nhập cho cả đội nhóm.
Sản xuất sản phẩm số nhờ AI như khóa học online, ebook, template, hướng dẫn… chỉ cần làm một lần rồi bán nhiều lần, tạo ra nguồn thu nhập thụ động ("in tiền khi ngủ").
Tự động hóa phễu bán hàng: AI xây dựng lead magnet, email, trang bán hàng, quảng cáo, theo dõi khách hàng... tất cả vận hành liên tục mà không cần can thiệp thủ công, giúp tăng trưởng doanh thu mà không tăng khối lượng công việc.
Trở thành chuyên gia AI được săn đón: Nhiều doanh nghiệp sẵn sàng trả mức phí cao để thuê người biết tích hợp, tối ưu AI cho công việc thực tiễn, giúp tiết kiệm thời gian và tăng lợi nhuận.
Doanh nhân nhận xét, ai biết tận dụng AI đúng cách sẽ luôn "giữ lợi thế", đặc biệt khi nhu cầu tư vấn giải pháp AI thực tế đang vượt xa nguồn cung trên thị trường.
Hệ thống ứng dụng AI giúp vận hành doanh nghiệp trơn tru, dễ nhân rộng, kiếm nhiều tiền và giảm bớt sự phụ thuộc vào sức lao động thủ công của chủ doanh nghiệp.
Chỉ cần tò mò, chịu thử nghiệm và hành động sớm, bất cứ ai cũng có thể có phần trong "cuộc cách mạng AI" và đạt được thành tựu đột phá về thu nhập.
📌 Trong kỷ nguyên AI, doanh nhân có thể nhân 5 nguồn thu nhập bằng các ứng dụng: sáng tạo nội dung tốc độ, dịch vụ AI cao cấp, sản phẩm số thụ động, hệ thống bán hàng tự động và tư vấn AI. Ai hành động sớm sẽ nắm lấy lợi thế thị trường với thu nhập vượt trội.
https://www.entrepreneur.com/growing-a-business/how-i-used-ai-to-transform-my-business-and-create-multiple/487214
Avatarin, công ty khởi nghiệp tách ra từ tập đoàn hàng không ANA Holdings, đang phát triển công nghệ AI có khả năng sao chép các khía cạnh quan trọng của dịch vụ khách hàng xuất sắc của Nhật Bản trong vòng 3 năm tới.
Công ty nhắm đến các lĩnh vực như bán lẻ và khách sạn đang phải vật lộn để duy trì tiêu chuẩn dịch vụ trước tình trạng thiếu hụt lao động ngày càng tăng.
CEO Akira Fukabori chia sẻ với Nikkei Asia: "Chúng tôi hiểu rằng điều mọi người quan tâm là sự chu đáo và tử tế, không phải là liệu đó là con người hay AI."
Thay vì chỉ tập trung vào cải thiện hiệu quả và độ chính xác như các nhà phát triển AI thông thường, Avatarin muốn thử nghiệm AI thể hiện "lương tâm mạnh mẽ" và "lòng trắc ẩn với người khác".
Ví dụ, khi một người muốn hủy vé máy bay do bệnh tật, AI của Avatarin có thể đáp lại: "Bạn cảm thấy thế nào rồi?" thay vì chỉ xử lý việc thay đổi không chậm trễ.
Trong một ví dụ khác, AI có thể học hỏi từ các tiếp viên hàng không ANA, những người thay đổi cách phản hồi khi khách hàng yêu cầu một cốc nước, tùy theo nhu cầu nhận thấy của họ. Nhiệt độ nước phục vụ sẽ ấm hơn cho người uống thuốc so với người vội vã lên máy bay và có thể đang khát.
Sản phẩm chính của Avatarin, Newme, là robot tự hành được trang bị màn hình hiển thị hình ảnh khuôn mặt, cho phép nhân viên phục vụ khách hàng từ xa. Hai cửa hàng tiện lợi 7-Eleven đang thử nghiệm công nghệ này tại Expo 2025 ở Osaka.
Avatarin đã hợp tác kinh doanh với nhà bán lẻ thiết bị gia dụng Nhật Bản Yamada Holdings, nhằm tạo ra AI dịch vụ khách hàng chuyên dụng cho ngành công nghiệp này.
Công ty đã huy động được 3,7 tỷ yên (tương đương 25,9 triệu USD theo tỷ giá hiện tại) trong vòng gọi vốn Series B từ các nhà đầu tư như Omron Ventures, San-Ai Obbli Co, SoftBank, Fuyo General Lease, Mizuho Bank và Sumitomo Mitsui Trust Bank vào tháng 7 năm ngoái.
Trước đó, ANA Holdings, Development Bank of Japan và MUFG Bank đã đầu tư 4 tỷ yên vào công ty.
Hiện tại Avatarin có 76 nhân viên đến từ 19 quốc tịch khác nhau.
📌 Avatarin đang phát triển AI có thể sao chép dịch vụ khách hàng "chu đáo" kiểu Nhật Bản, với sản phẩm chính là robot Newme. Công ty đã huy động được tổng cộng 7,7 tỷ yên (53,9 triệu USD) từ các nhà đầu tư lớn và đặt mục tiêu triển khai công nghệ trong 3 năm tới.
https://asia.nikkei.com/Business/Technology/Artificial-intelligence/Kind-AI-can-ape-Japanese-customer-service-says-ANA-spin-off
YUICHI SHIGA Ngày 14 tháng 4 năm 2025 11:35 JST
TOKYO -- Một startup robot và trí tuệ nhân tạo Nhật Bản đang tìm cách phát triển trí tuệ nhân tạo có thể cung cấp dịch vụ khách hàng "chu đáo".
Avatarin, một công ty con tách ra từ hãng hàng không hàng đầu Nhật Bản ANA Holdings, dự định ra mắt công nghệ có khả năng sao chép các khía cạnh chính của dịch vụ khách hàng xuất sắc của Nhật Bản trong vòng ba năm tới. Công nghệ này nhắm vào các lĩnh vực như bán lẻ và khách sạn đang gặp khó khăn trong việc duy trì tiêu chuẩn trước tình trạng thiếu lao động ngày càng tăng.
Công ty, được thành lập vào năm 2020, lập luận rằng AI có thể sao chép sự chu đáo là nền tảng của truyền thống hiếu khách Nhật Bản. CEO Akira Fukabori, trong một cuộc phỏng vấn với Nikkei Asia, cho biết: "Chúng tôi hiểu rằng điều mọi người [quan tâm] là sự quan tâm và lòng tốt, không phải là con người hay AI."
Người Nhật thường không nhận thức được rằng dịch vụ khách hàng của họ đặc biệt và "độc đáo ở Nhật Bản," Fukabori nói. Việc tạo ra AI được trang bị để cung cấp phong cách hiếu khách kiểu Nhật sẽ tạo thêm giá trị đáng kể, ông nói.
Trong khi các nhà phát triển AI thường tập trung vào việc cải thiện hiệu quả và độ chính xác, Fukabori cho biết Avatarin muốn thử nghiệm với AI thể hiện "lương tâm mạnh mẽ" và "lòng trắc ẩn cho người khác."
Ví dụ, khi một người muốn hủy vé máy bay do bị bệnh, AI thường được kỳ vọng sẽ xử lý thay đổi mà không chậm trễ. Tuy nhiên, phản ứng của AI dịch vụ khách hàng của Avatarin có thể nói: "Bạn cảm thấy thế nào bây giờ?"
Trong một ví dụ khác, Fukabori cho biết AI có thể học hỏi từ tiếp viên hàng không ANA, những người thay đổi cách phản ứng với khách hàng yêu cầu một cốc nước, tùy theo nhu cầu được nhận thấy. Nhiệt độ của nước phục vụ sẽ phụ thuộc vào cách tiếp viên đọc ý định của hành khách. Nước sẽ ấm hơn cho người uống thuốc so với người lên máy bay vội vàng và có khả năng bị khát.
Sản phẩm chính của Avatarin, Newme, là một robot tự hành được trang bị màn hình hiển thị hình ảnh khuôn mặt, cho phép nhân viên phục vụ khách hàng từ các vị trí xa. Ví dụ, robot có thể được đặt tại sân bay nơi thiếu nhân viên và người ở nơi khác có thể cung cấp dịch vụ khách hàng trực tuyến. Hai cửa hàng tiện lợi 7-Eleven đang trình diễn công nghệ này trong Expo 2025 ở Osaka.
Công ty có quan hệ đối tác kinh doanh với nhà bán lẻ thiết bị gia dụng Nhật Bản Yamada Holdings, nhằm tạo ra AI dịch vụ khách hàng dành riêng cho ngành công nghiệp của họ.
Avatarin đã huy động 3,7 tỷ yên (25,9 triệu USD theo tỷ giá hiện tại) trong vòng gọi vốn Series B từ Omron Ventures, San-Ai Obbli Co, SoftBank, Fuyo General Lease, Mizuho Bank và Sumitomo Mitsui Trust Bank, vào tháng 7 năm ngoái. Trước đó, ANA Holdings, Development Bank of Japan và MUFG Bank đã đầu tư 4 tỷ yên.
Fukabori cho biết việc niêm yết công khai (IPO) "tất nhiên là một lựa chọn. Tuy nhiên, các cổ đông hiện tại là những người có tiềm lực tài chính mạnh. Vì vậy tôi nghĩ chúng tôi có nhiều lựa chọn."
Công ty hiện có 76 nhân viên đại diện cho 19 quốc tịch.
Sơ yếu lý lịch và các trang tìm kiếm việc làm không còn cung cấp thông tin hiệu quả như trước. AI đang định hình lại quá trình tuyển dụng, giúp các nhà sáng lập startup xây dựng đội ngũ thông minh và ổn định hơn.
Đối với doanh nhân, tốc độ và độ chính xác không phải là yếu tố xa xỉ mà là điều cần thiết. Mô hình tuyển dụng truyền thống (đăng tin, sàng lọc từ khóa, lịch phỏng vấn) đã lỗi thời. AI đang chuyển đổi phễu tuyển dụng thành quá trình kết nối nhanh, minh bạch và dựa trên dữ liệu thực.
Các nền tảng truyền thống thường kết nối ứng viên với công việc chỉ dựa trên mã ZIP. Ngược lại, nền tảng dựa trên AI cho phép cả ứng viên và nhà tuyển dụng xác định chính xác những gì họ đang tìm kiếm trước khi bắt đầu tìm kiếm.
Steve Gold, người sáng lập Truckers Network Association, cho biết mô hình của họ hoạt động giống ứng dụng hẹn hò, nơi tài xế và nhà tuyển dụng đều xác định rõ những gì họ tìm kiếm ở nhau.
Việc tuyển dụng sai người không chỉ gây thất vọng mà còn là gánh nặng tài chính. Các startup thường chỉ tập trung vào chi phí quảng cáo việc làm mà bỏ qua chi phí ẩn: thời gian lãnh đạo, thời gian đào tạo và chi phí cơ hội.
Chipotle đã triển khai trợ lý tuyển dụng AI để tuyển 20.000 nhân viên mới, rút ngắn quy trình từ 2 tuần xuống còn 4 ngày.
AI không chỉ hỗ trợ tuyển dụng mà còn phát triển thành công cụ phát triển nhân sự, hỗ trợ giữ chân và nâng cao hiệu suất. Người lao động có thể sử dụng "người bạn đồng hành AI" để giải đáp câu hỏi ngay lập tức.
Video đang trở thành định dạng mạnh mẽ cho tuyển dụng khi kết hợp với AI. Bài đăng việc làm dạng video thu hút gấp 6 lần sự tương tác so với danh sách truyền thống.
McKinsey ước tính AI có thể mở khóa tới 4,4 nghìn tỷ USD năng suất toàn cầu. Các nhà sáng lập tích hợp AI vào tuyển dụng, đào tạo không chỉ tiết kiệm thời gian mà còn xây dựng đội ngũ tốt hơn, nhanh hơn.
📌 AI đang biến tuyển dụng thành quá trình kết nối chất lượng cao như "hẹn hò", giúp startup tiết kiệm chi phí và thời gian. Chipotle đã rút ngắn quy trình tuyển dụng từ 2 tuần xuống 4 ngày nhờ AI, đồng thời video tuyển dụng thu hút gấp 6 lần sự tương tác so với phương pháp truyền thống.
https://www.forbes.com/sites/rhettpower/2025/04/13/ai-is-flipping-the-hiring-funnel-and-founders-who-adapt-fast-will-win/
- Công ty AI doanh nghiệp Writer vừa ra mắt nền tảng "AI HQ" nhằm giúp các doanh nghiệp thu hẹp khoảng cách giữa tiềm năng lý thuyết và kết quả thực tế của AI.
- May Habib, CEO và đồng sáng lập Writer, khẳng định đây không phải một cơn sốt nhất thời mà là một sự thay đổi lớn đối với phần mềm doanh nghiệp. Bà nhấn mạnh rằng sau hai năm, phần lớn doanh nghiệp vẫn chưa thu được kết quả đáng kể từ AI tạo sinh.
- AI HQ là nền tảng xây dựng, kích hoạt và giám sát các "agent" AI có thể thực hiện chuỗi tác vụ phức tạp mà trước đây cần có sự can thiệp của con người.
- Nền tảng bao gồm 3 thành phần chính: Agent Builder (môi trường phát triển), Writer Home (cung cấp hơn 100 agent được xây dựng sẵn) và công cụ giám sát hành vi agent.
- Trong buổi ra mắt, Writer đã trình diễn cách khách hàng đang sử dụng công nghệ này, như một công ty quản lý đầu tư tự động tạo báo cáo quỹ và bình luận thị trường cá nhân hóa.
- Waseem AlShikh, đồng sáng lập và CTO của Writer, đã công bố nghiên cứu về "self-evolving models" - hệ thống AI có thể học hỏi từ sai lầm theo thời gian mà không cần đào tạo bổ sung.
- Writer đã huy động 200 triệu USD trong vòng gọi vốn Series C vào tháng 11 năm ngoái, định giá công ty ở mức 1,9 tỷ USD. Công ty có tỷ lệ duy trì ròng ấn tượng 160%, nghĩa là khách hàng thường mở rộng hợp đồng thêm 60% sau khi áp dụng ban đầu.
- Khác với OpenAI và Anthropic, Writer đã phát triển mô hình riêng - Palmyra - được thiết kế đặc biệt cho các trường hợp sử dụng doanh nghiệp, giúp dữ liệu khách hàng an toàn hơn.
- Thị trường phần mềm AI doanh nghiệp dự kiến tăng từ 58 tỷ USD lên 114 tỷ USD vào năm 2027, thu hút sự cạnh tranh gay gắt từ các gã khổng lồ công nghệ và các startup được tài trợ tốt.
- May Habib dự đoán rằng trong 5-10 năm tới, chúng ta sẽ không làm việc nhiều như hiện tại mà sẽ xây dựng AI để làm việc thay mình, tạo ra các vai trò và công việc mới thú vị liên quan đến AI.
📌 Writer đang định hình lại tương lai làm việc với AI HQ, nơi agent AI tự động hóa quy trình phức tạp giúp doanh nghiệp hoạt động hiệu quả với ít nhân sự hơn. Với định giá 1,9 tỷ USD và tăng trưởng 160%, Writer đang dẫn đầu trong thị trường AI doanh nghiệp dự kiến đạt 114 tỷ USD vào năm 2027.
https://venturebeat.com/ai/writer-unveils-ai-hq-platform-betting-on-agents-to-transform-enterprise-work/
- Trong khi nhiều người tập trung vào các kỹ sư xây dựng mô hình ngôn ngữ lớn, một cuộc cách mạng thầm lặng đang diễn ra trong các phòng phân tích của các công ty tiên phong: sự xuất hiện của nhà phân tích AI.
- Andy MacMillan, CEO của nền tảng phân tích doanh nghiệp Alteryx, nhấn mạnh rằng khoảng cách giữa dữ liệu thô và thông tin sẵn sàng cho AI đòi hỏi chuyên môn kết hợp kiến thức kỹ thuật với hiểu biết sâu sắc về kinh doanh.
- Hầu hết các tổ chức đã dành hàng thập kỷ sắp xếp dữ liệu xoay quanh các ứng dụng kinh doanh như CRM hay ERP, nhưng AI cần một cấu trúc khác biệt, tạo ra một dự án chuyển đổi dữ liệu lớn nhất thế giới.
- Không thể chỉ đơn giản kết nối hệ thống AI với dữ liệu kinh doanh hiện có và hy vọng nó hiểu được quy trình, chính sách công ty hoặc đặc thù ngành.
- Nhà phân tích AI là người bắc cầu giữa kiến thức kinh doanh và khả năng của AI, kết hợp hiểu biết về dữ liệu với kinh nghiệm kinh doanh thực tế.
- Họ chuyển đổi hiểu biết về quy trình kinh doanh thành luồng dữ liệu mà AI có thể sử dụng, hiểu được những câu hỏi cần đặt ra và bối cảnh cần thiết để tạo ra câu trả lời có ý nghĩa.
- Khái niệm "trung tâm thanh lọc dữ liệu AI" trở nên thiết yếu - một cách tiếp cận có hệ thống để xem xét, phê duyệt và quản lý dữ liệu nào được đưa vào hệ thống AI.
- Cấu trúc chính thức này giúp tổ chức cân bằng giữa đổi mới với tuân thủ quy định và các vấn đề bảo mật, tạo ra hệ thống có thể kiểm toán và quản lý.
- Thay vì bảng điều khiển tĩnh đòi hỏi con người giải thích, AI có thể cung cấp báo cáo tường thuật làm nổi bật những hiểu biết quan trọng nhất, như tính năng "Magic Reports" của Alteryx.
- Trong khi nhiều người lo ngại AI sẽ thay thế công việc, MacMillan nhìn thấy cơ hội to lớn, đặc biệt là với những người trong lĩnh vực phân tích biết nắm bắt những thay đổi này.
📌 Nhà phân tích AI đang trở thành nhân tố quyết định trong chuyển đổi dữ liệu doanh nghiệp. Họ là cầu nối giữa AI và thực tế kinh doanh, biến đổi dữ liệu thô thành thông tin có giá trị. Trong 5 năm tới, đây sẽ là vai trò thiết yếu khi các công ty tái định hình cách sử dụng dữ liệu.
https://www.forbes.com/sites/bernardmarr/2025/04/11/the-rise-of-the-ai-analyst-why-this-could-be-the-most-important-job-in-the-ai-revolution/
- Google đã công bố Gemini trong Android Studio dành cho doanh nghiệp tại hội nghị Google Cloud Next 2025 ở Las Vegas.
- Đây là giải pháp dựa trên đăng ký nhằm đáp ứng nhu cầu ngày càng tăng về tích hợp AI an toàn, bảo mật và có thể tùy chỉnh trong các tổ chức lớn.
- Android chiếm 60% thiết bị thuộc sở hữu của doanh nghiệp theo khảo sát của Stratix.
- Tính năng mới tập trung vào bảo mật dữ liệu và kiểm soát:
- Chính sách quản trị dữ liệu nghiêm ngặt đảm bảo mã của công ty, đầu vào của nhà phát triển và gợi ý do AI tạo ra được bảo mật.
- Các tổ chức duy trì quyền sở hữu và kiểm soát hoàn toàn đối với tài sản trí tuệ của họ.
- Bao gồm các khả năng quản lý cấp doanh nghiệp như Private Google Access, VPC Service Controls và quyền IAM chi tiết.
- Google mở rộng chính sách bồi thường AI tạo sinh cho sản phẩm Gemini Code Assist Enterprise.
- Phiên bản doanh nghiệp của Gemini có khả năng tích hợp cơ sở mã, cho phép tùy chỉnh hỗ trợ AI bằng kho lưu trữ nội bộ của công ty.
- Nghiên cứu nội bộ của Turing cho thấy việc tùy chỉnh mã với Gemini Code Assist Enterprise cải thiện tỷ lệ chấp nhận mã lên gần 70% so với chỉ sử dụng mô hình cơ bản.
- Các tính năng dành riêng cho hệ sinh thái Android bao gồm:
- Hỗ trợ lỗi Build và Sync
- App Quality Insights được hỗ trợ bởi Gemini
- Tạo bản xem trước Jetpack Compose
- Để sử dụng, tổ chức cần mua giấy phép Gemini Code Assist Standard hoặc Enterprise thông qua Google Cloud Console.
- Hỗ trợ nhiều chứng nhận được công nhận trong ngành như SOC 1, 2, 3 và các tiêu chuẩn ISO/IEC khác nhau.
- Google vẫn cung cấp phiên bản miễn phí của Gemini trong Android Studio cho người dùng cá nhân.
- Giá bắt đầu từ 54 USD/người dùng/tháng (hủy bất kỳ tháng nào) hoặc 45 USD khi đăng ký hợp đồng 12 tháng.
📌 Google tích hợp AI sâu hơn vào phát triển Android với Gemini trong Android Studio dành cho doanh nghiệp. Giải pháp mới cân bằng đổi mới và kiểm soát, giúp doanh nghiệp phát triển ứng dụng Android nhanh hơn 70% trong khi vẫn bảo vệ dữ liệu và sở hữu trí tuệ.
https://venturebeat.com/programming-development/google-launches-gemini-in-android-studio-for-businesses-making-it-easier-for-devs-to-design-work-apps/
- Giám đốc điều hành Andy Jassy khẳng định AI tạo sinh sẽ "cách mạng hóa mọi trải nghiệm khách hàng" hiện có và tạo ra những trải nghiệm hoàn toàn mới chỉ tồn tại trong mơ ước trước đây.
- Trong thư gửi cổ đông, Jassy tiếp tục nhấn mạnh tầm nhìn của Amazon về cách AI tạo sinh sẽ đóng vai trò then chốt trong giai đoạn tăng trưởng tiếp theo của công ty.
- Amazon hiện đang phát triển hơn 1.000 ứng dụng AI tạo sinh trên toàn công ty, dự kiến sẽ thay đổi trải nghiệm khách hàng trong nhiều lĩnh vực.
- Các lĩnh vực sẽ được chuyển đổi bao gồm: mua sắm, lập trình, trợ lý cá nhân, phát trực tuyến video và âm nhạc, quảng cáo, chăm sóc sức khỏe, đọc sách, thiết bị nhà thông minh và nhiều lĩnh vực khác.
- CEO Amazon cảnh báo rằng các doanh nghiệp không tận dụng mô hình AI thông minh sẽ mất khả năng cạnh tranh trong tương lai.
- Jassy đề cập đến khả năng của AI trong việc truy vấn khối lượng dữ liệu khổng lồ, nhanh chóng tìm kiếm thông tin chính xác, liên tục học hỏi từ phản hồi và dữ liệu, cùng với tiềm năng hoạt động như một agent trong tương lai.
- Các ứng dụng AI đầu tiên của Amazon tập trung vào việc tăng năng suất và cắt giảm chi phí, giúp các công ty tiết kiệm tiền.
- Mặc dù CEO Amazon dự đoán một số thay đổi lớn nhất liên quan đến AI có thể không diễn ra trong một hoặc hai năm tới, ông tin rằng chúng sẽ không mất đến một thập kỷ để hiện thực hóa.
- Jassy nhấn mạnh tốc độ phát triển nhanh chóng của AI: "Nó đang phát triển nhanh hơn gần như bất kỳ công nghệ nào từng thấy."
- Bức thư của Jassy thể hiện cam kết mạnh mẽ của Amazon trong việc đưa AI tạo sinh vào chiến lược phát triển dài hạn của công ty.
- Tầm nhìn của Amazon về AI tạo sinh phản ánh xu hướng rộng lớn hơn trong ngành công nghệ, khi các công ty đang đua nhau tích hợp công nghệ này vào sản phẩm và dịch vụ của họ.
- Việc Amazon đầu tư mạnh mẽ vào hơn 1.000 ứng dụng AI tạo sinh cho thấy công ty đang đặt cược lớn vào tiềm năng chuyển đổi của công nghệ này.
📌 Amazon đang phát triển hơn 1.000 ứng dụng AI tạo sinh nhằm cách mạng hóa trải nghiệm khách hàng trong nhiều lĩnh vực. CEO Andy Jassy cảnh báo doanh nghiệp không áp dụng AI sẽ mất khả năng cạnh tranh, khẳng định công nghệ này đang phát triển "nhanh hơn gần như bất kỳ công nghệ nào từng thấy."
https://www.wsj.com/tech/ai/amazon-ceo-gen-ai-will-reinvent-every-customer-experience-f12ecb2c
#WSJ
Giám đốc điều hành Andy Jassy cho biết AI tạo sinh sẽ là yếu tố quan trọng cho giai đoạn tăng trưởng tiếp theo của công ty
Bởi Dean Seal Ngày 10 tháng 4 năm 2025 7:02 sáng ET
CEO Amazon.com Andy Jassy đã ca ngợi tầm nhìn của Amazon về cách AI tạo sinh sẽ là yếu tố quan trọng cho giai đoạn tăng trưởng tiếp theo của công ty.
AI tạo sinh sẽ đổi mới hầu như mọi trải nghiệm khách hàng và tạo ra những trải nghiệm hoàn toàn mới mà trước đây chỉ có thể mơ ước, Giám đốc điều hành Amazon.com Andy Jassy đã chia sẻ trong thư gửi cổ đông.
Giống như một năm trước, Jassy đã sử dụng bức thư để ca ngợi tầm nhìn của Amazon về cách AI tạo sinh sẽ là yếu tố quan trọng cho giai đoạn tăng trưởng tiếp theo của công ty.
Hơn 1.000 ứng dụng AI tạo sinh hiện đang được xây dựng trên toàn công ty sẽ thay đổi trải nghiệm khách hàng xung quanh mua sắm, lập trình, trợ lý cá nhân, phát trực tuyến video và âm nhạc, quảng cáo, chăm sóc sức khỏe, đọc sách, thiết bị gia đình và nhiều hơn nữa, ông cho biết.
"Nếu trải nghiệm khách hàng của bạn không có kế hoạch tận dụng những mô hình thông minh này, khả năng truy vấn kho dữ liệu khổng lồ và nhanh chóng tìm ra thông tin quý giá, khả năng trở nên thông minh hơn với nhiều phản hồi và dữ liệu, cùng khả năng tự chủ trong tương lai, bạn sẽ không có khả năng cạnh tranh," CEO đã nói.
Khối lượng công việc AI ban đầu của Amazon tập trung vào năng suất và cắt giảm chi phí có thể giúp các công ty tiết kiệm tiền, Jassy cho biết. Ông dự đoán rằng một số thay đổi lớn nhất liên quan đến AI có thể không xảy ra trong một hoặc hai năm tới, nhưng sẽ không mất thêm một thập kỷ nữa để hiện thực hóa.
"AI đang phát triển nhanh hơn gần như bất kỳ công nghệ nào từng thấy," Jassy nói.
Lip-Bu Tan, CEO mới của Intel, hướng đến việc tái định hình toàn diện chiến lược của tập đoàn, tập trung vào văn hóa "khởi nghiệp khổng lồ", tái cấu trúc tổ chức và ưu tiên phần mềm thay vì phần cứng như trước đây.
Mục tiêu ngắn hạn gồm: thiết kế phần cứng dựa trên yêu cầu phần mềm (software workload-centric), nâng cao hiệu suất thực thi, phục hồi niềm tin khách hàng và khuyến khích đổi mới sáng tạo.
Tan định hướng Intel theo hướng tích hợp AI từ gốc rễ (AI-native), mở rộng sang AI tạo sinh, AI vật lý, và Agentic AI, thay vì chỉ tập trung vào tăng tốc phần cứng như trước.
Chiến lược phần mềm là đột phá: từ mô hình "từ trong ra ngoài" chuyển sang "từ ngoài vào trong", nghĩa là lắng nghe bài toán thực tế của khách hàng rồi mới phát triển phần cứng phù hợp.
Nhân sự kỹ sư phần mềm được điều chuyển từ văn phòng CTO sang các đơn vị kinh doanh để tăng gắn kết. Intel có thể sẽ xây dựng quan hệ đối tác chiến lược với các công ty như Databricks và Perplexity.
Trong mảng trung tâm dữ liệu và AI, Intel thừa nhận bị tụt hậu và mất niềm tin khách hàng. Giải pháp là tập trung tuyển dụng nhân tài, cải thiện hiệu suất và giảm chi phí sở hữu (TCO).
Dự án Jaguar Shores – bộ tăng tốc AI sắp tới – được xem là "đòn bẩy" để Intel cạnh tranh lại ở tầng hạ tầng AI, vượt ra khỏi cách tiếp cận rời rạc bằng CPU/GPU riêng lẻ.
Dòng sản phẩm Gaudi vẫn chưa rõ ràng khiến khách hàng e ngại đầu tư vào hệ sinh thái AI của Intel. Hủy Falcon Shores và định hướng lại Gaudi khiến thị trường thêm hoài nghi.
Intel chọn cách "cộng sinh" thay vì cạnh tranh trực diện với NVIDIA, định vị Gaudi phục vụ cho hạ tầng AI suy luận (inference) cho các nhà mạng tầng 2 và khách hàng doanh nghiệp.
Sự hợp tác với IBM Cloud và Inflection AI là bước đầu, nhưng cần mở rộng hệ sinh thái với các nền tảng MLOps và nhà phát triển mô hình AI chuyên biệt để tạo đà cho Gaudi.
Trong mảng Edge, Intel đẩy mạnh hệ sinh thái mở, tập trung các giải pháp AI theo ngành dọc như sản xuất, bán lẻ, thành phố thông minh... Hợp tác với Siemens, Honeywell là chiến lược trọng tâm.
Ở mảng máy tính cá nhân, dòng chip Panther Lake (dự kiến 2H 2025) sẽ dựa trên node 18A, hỗ trợ AI PC với CPU, GPU, và NPU tích hợp. Intel hợp tác với Microsoft để phát triển nền tảng Copilot+.
Lĩnh vực viễn thông tuy có lợi nhuận nhưng đang gặp khó do chậm triển khai Open RAN và vRAN, khiến tương lai của nhóm NEX không rõ ràng – có thể sáp nhập hoặc thoái vốn.
Mảng sản xuất (Foundry) tập trung xây dựng lòng tin khách hàng với tôn chỉ “thành công ngay lần đầu tiên”, công nghệ RibbonFET và PowerVia đã vào giai đoạn sản xuất rủi ro.
Thỏa thuận liên doanh với TSMC – có thể TSMC sở hữu 20% nhà máy tại Mỹ – giúp tăng tốc sản xuất, nhưng có rủi ro về tích hợp văn hóa và phê duyệt pháp lý.
📌 Intel dưới thời Lip-Bu Tan đang thay đổi toàn diện với chiến lược khởi nghiệp từ gốc. Tập trung vào AI tạo sinh, chuyển hướng sang phần mềm dẫn dắt phần cứng, tích hợp lại các dòng sản phẩm AI như Gaudi và Jaguar Shores. Với sản phẩm mới Panther Lake 18A ra mắt cuối 2025 và liên minh sản xuất cùng TSMC, Intel đặt cược dài hạn để lấy lại vị thế. Tuy nhiên, vẫn còn nhiều bất định về roadmap AI và lĩnh vực viễn thông.
https://go.abiresearch.com/hubfs/Marketing/Whitepapers/Intel%20Vision%202025/ABI_Research%20Intel%20Vision%202025.pdf
AI là trung tâm chiến lược mới của Intel dưới thời Lip-Bu Tan. Thay vì chỉ tập trung vào tăng tốc phần cứng như CPU hoặc GPU truyền thống, Intel giờ đây định vị lại vai trò của mình là một công ty AI từ cốt lõi (AI-native), bao gồm Gen AI, Agentic AI và Physical AI. Đây là sự thay đổi quan trọng, thể hiện tầm nhìn dài hạn, ưu tiên các mô hình đa phương thức, học sâu, và các hệ thống tự trị.
Tan không chỉ nhấn mạnh phần cứng mà còn mở rộng chiến lược đến hệ sinh thái phần mềm và ứng dụng AI theo chiều sâu. Điều này được minh chứng qua sự chuyển đổi từ mô hình thiết kế phần cứng trước (inside-out) sang tiếp cận "outside-in" – nghĩa là xuất phát từ nhu cầu thực tế của khách hàng, từ đó phát triển phần mềm, rồi mới thiết kế phần cứng tương ứng.
Jaguar Shores là bước đột phá lớn nhất của Intel trong AI. Đây là một hệ thống tăng tốc AI mới, không đơn thuần là một con chip mà là nền tảng tích hợp toàn diện từ CPU, GPU đến silicon tùy chỉnh, có thể hỗ trợ nhiều mô hình Gen AI, cả huấn luyện lẫn suy luận. Jaguar Shores là sự phản hồi chiến lược nhằm cạnh tranh với các hệ thống AI cấp rack từ NVIDIA và AMD.
Dòng sản phẩm Gaudi gặp nhiều bất định: Gaudi từng là chip AI chiến lược của Intel nhưng giờ bị định vị lại để phục vụ phân khúc inference (suy luận), tập trung vào nhà cung cấp dịch vụ tầng 2 và doanh nghiệp thay vì cạnh tranh trực tiếp ở phân khúc cao cấp. Intel đã hủy Falcon Shores – một GPU AI trung tâm – gây lo ngại cho khách hàng về roadmap và quản lý vòng đời sản phẩm.
TCO là yếu tố cạnh tranh chính của Intel trong AI: thay vì chạy đua về hiệu suất thô, Intel nhấn mạnh vào tổng chi phí sở hữu – giúp doanh nghiệp tối ưu chi phí triển khai AI tại trung tâm dữ liệu. Đây là hướng đi hợp lý trong bối cảnh Gen AI tiêu tốn tài nguyên ngày càng nhiều.
Thiếu hệ sinh thái phần mềm AI mạnh là điểm yếu hiện tại: hiện Intel chỉ có Inflection AI là đối tác doanh nghiệp lớn duy nhất trong mảng AI, chưa thể so sánh với hệ sinh thái phần mềm rộng lớn của NVIDIA (CUDA, TensorRT...) hay các tích hợp dày đặc của AMD/Xilinx.
Để khắc phục điều này, Intel cần hợp tác chặt với các nền tảng MLOps, nhà phát triển mô hình AI, và các công ty phần mềm ngành dọc, nhằm xây dựng giải pháp đồng thiết kế (co-engineered) phù hợp từng ngành. Đây là chìa khóa để tăng tốc độ chấp nhận của Gaudi và Jaguar Shores trong thị trường doanh nghiệp.
Edge AI là thị trường tiềm năng tiếp theo, nơi Intel muốn mở rộng nhờ vào danh mục CPU x86 và giải pháp phần mềm theo ngành dọc. Intel đưa ra chiến lược 3 hướng: hệ thống AI edge, bộ giải pháp AI cho từng ngành, và nền tảng edge mở – nhằm mở rộng tầm ảnh hưởng AI từ trung tâm dữ liệu xuống thiết bị đầu cuối (smart city, nhà máy, xe tự hành...).
Panther Lake – dòng chip 18A sắp ra mắt cuối năm 2025 – sẽ tích hợp CPU, GPU, và NPU để hỗ trợ AI ngay trên thiết bị (on-device AI inference). Đây là bước đột phá trong mảng AI PC, đặc biệt khi các mô hình Gen AI nhỏ gọn ngày càng phổ biến trong laptop, desktop.
Intel hợp tác chiến lược với Microsoft trong AI PC, tận dụng hệ sinh thái Copilot+ để phát triển phần mềm đồng bộ với phần cứng. Tuy nhiên, Intel cần làm rõ kiến trúc tính toán dị thể (heterogeneous computing) trong sản phẩm, cụ thể vai trò từng thành phần CPU, GPU, NPU trong xử lý tác vụ AI.
📌 Chiến lược AI của Intel đang chuyển mình mạnh mẽ với tầm nhìn dài hạn của CEO Lip-Bu Tan. Từ việc tích hợp sâu Gen AI trong trung tâm dữ liệu với Jaguar Shores, mở rộng AI ra biên (Edge AI), đến thúc đẩy AI trong máy tính cá nhân với Panther Lake. Tuy nhiên, điểm yếu về hệ sinh thái phần mềm và sự không rõ ràng trong roadmap như Gaudi/Falcon Shores vẫn là rào cản lớn cho tham vọng dẫn đầu AI.
Chiến lược "khởi nghiệp khổng lồ" (giant startup) của Intel, do CEO mới Lip-Bu Tan đề xuất, không chỉ là một khẩu hiệu truyền thông mà là một cuộc tái cấu trúc toàn diện nhằm biến một tập đoàn khổng lồ trị giá hơn 160 tỷ USD trở nên nhanh nhẹn, sáng tạo và quyết đoán như một startup thực thụ, nhưng vẫn tận dụng được sức mạnh về tài chính, hạ tầng và R&D vốn có. Dưới đây là các yếu tố cốt lõi của mô hình "khởi nghiệp khổng lồ":
Tan áp dụng triết lý startup vào văn hóa công ty: luôn coi mỗi ngày là “ngày đầu tiên”, đặt câu hỏi, phản biện các giả định cũ, không ngừng đổi mới.
Mục tiêu là chuyển từ tổ chức bảo thủ, cồng kềnh sang tinh gọn và thích nghi nhanh với thị trường AI đang thay đổi từng ngày.
Tan thúc đẩy việc làm phẳng cấu trúc quản lý, giảm tầng lớp trung gian, tăng cường khả năng ra quyết định từ các nhóm kỹ thuật.
Kỹ sư phần mềm được chuyển từ văn phòng CTO sang từng đơn vị kinh doanh để đảm bảo "gần khách hàng hơn", từ đó tăng tính linh hoạt và phản hồi nhanh.
Đúng với tinh thần startup, Intel sẽ tập trung vào những lĩnh vực tạo giá trị dài hạn và cắt bỏ các mảng không hiệu quả hoặc không liên quan đến AI, silicon, và điện toán đám mây.
Điều này bao gồm cả mảng viễn thông (Telco), một trong những nguồn lợi nhuận lớn nhưng có khả năng bị sáp nhập hoặc thoái vốn.
Thay đổi lớn nhất: từ chiến lược "hardware-first" truyền thống của Intel sang "software-first" như cách startup công nghệ hiện nay vận hành.
Lấy bài toán khách hàng làm trung tâm rồi mới xây dựng phần cứng phù hợp, thay vì thiết kế chip trước rồi mới đi tìm đầu ra.
Tan nổi tiếng với triết lý đầu tư trái chiều (contrarian investing), và ông đang áp dụng điều này vào Intel bằng cách tài trợ nghiên cứu quantum computing, photonic interconnects, microfluidic cooling – những công nghệ có thể chưa thương mại ngay nhưng có khả năng thay đổi ngành.
Điều này thể hiện tầm nhìn 10 năm, không chạy theo chỉ số quý ngắn hạn – điều cực hiếm ở các tập đoàn niêm yết lớn.
Intel tăng cường hợp tác sâu với các startup AI như Perplexity AI, Inflection AI, và các nền tảng như Databricks để cùng đồng thiết kế giải pháp phần cứng-phần mềm tối ưu cho AI.
Triết lý "go to market cùng đối tác" – thường thấy ở startup – đang được áp dụng để giảm rủi ro tài chính và rút ngắn thời gian triển khai sản phẩm.
📌 "Khởi nghiệp khổng lồ" là chiến lược đại tu mô hình kinh doanh của Intel, giúp công ty chuyển mình từ tập đoàn cồng kềnh sang linh hoạt như startup, với triết lý lấy phần mềm làm trung tâm, tối ưu hóa tổ chức, thoái vốn khỏi mảng không cốt lõi và đặt cược dài hạn vào công nghệ AI, quantum, và photonics. Đây là canh bạc lớn, nhưng nếu thành công, Intel có thể trở lại vị thế dẫn đầu trong thời đại AI.
- AI tạo sinh đang thay đổi sâu sắc hoạt động nghiên cứu thị trường, mang đến cơ hội chưa từng có trong việc hiểu và tương tác với khách hàng, đánh giá môi trường cạnh tranh.
- Nghiên cứu trong 2 năm của các tác giả đã xác định 4 cơ hội chính: hỗ trợ quy trình hiện tại, thay thế quy trình hiện tại, lấp đầy khoảng trống thông tin, và tạo ra loại dữ liệu mới.
- Khảo sát với hơn 170 chuyên gia nghiên cứu thị trường cho thấy 45% đã sử dụng AI tạo sinh trong hoạt động phân tích dữ liệu, 45% khác đang lên kế hoạch áp dụng.
- Mặc dù 70% người tham gia bày tỏ lo ngại về thông tin thiên lệch, rủi ro bảo mật và khả năng thay thế con người, 80% vẫn cho rằng AI tạo sinh sẽ nâng cao đáng kể năng suất và hiệu quả.
- Các công ty khởi nghiệp như Meaningful và Outset.ai đang phát triển nền tảng "tăng cường" nghiên cứu thị trường, tự động tạo khảo sát, phân phối đến người tham gia và phân tích kết quả.
- "Dữ liệu tổng hợp" tạo ra bởi AI đang được 81% người tham gia khảo sát sử dụng hoặc dự định sử dụng, giúp mô phỏng phản ứng của khách hàng và đối thủ cạnh tranh.
- Evidenza đã thực hiện hơn 60 nghiên cứu so sánh kết quả tổng hợp với nghiên cứu truyền thống, với một nghiên cứu cùng EY cho thấy kết luận trùng khớp 95%.
- "Người đôi số" (digital twins) - bản sao ảo của khách hàng cá nhân, đang được sử dụng để thử nghiệm và tinh chỉnh chiến lược marketing trước khi trình bày với người thực.
- Một đội nghiên cứu tại Trường Kinh doanh Columbia đang xây dựng bảng điều tra với 2.500 nhân vật, mỗi người là bản sao kỹ thuật số của một người thực.
- AI tạo sinh vẫn có giới hạn: thiên vị trong kết quả (77% người tham gia khảo sát lo ngại), khả năng dự đoán thay đổi đột phá hạn chế, và không hoàn hảo trong mô phỏng thí nghiệm giá cả.
- AI tạo sinh chưa dự đoán tốt phản ứng cảm xúc của người tiêu dùng đối với kích thích đa giác quan, như công ty hương liệu Takasago đã phát hiện khi thử thay thế bảng nghiên cứu con người bằng bảng tạo bởi AI.
📌 AI tạo sinh đang cách mạng hóa nghiên cứu thị trường với 45% chuyên gia đã áp dụng và 81% đang sử dụng dữ liệu tổng hợp. "Người đôi số" và mô phỏng phản hồi khách hàng giúp tiết kiệm thời gian, tiền bạc nhưng vẫn tồn tại thách thức về độ chính xác và thiên vị.
https://hbr.org/2025/05/how-gen-ai-is-transforming-market-research
#HBR
- Google Cloud vừa thông báo sẽ cho phép khách hàng chạy mô hình AI Gemini trong trung tâm dữ liệu riêng của họ, bắt đầu từ quý 3/2025.
- Dịch vụ Google Distributed Cloud sẽ mở quyền truy cập sớm, nhắm đến khách hàng muốn sử dụng công nghệ đám mây Google nhưng vẫn giữ quyền kiểm soát dữ liệu.
- Nvidia sẽ tích hợp mô hình Gemini vào chip xử lý đồ họa Blackwell GPU, cho phép doanh nghiệp mua chip thông qua Google hoặc các kênh khác.
- Đối thủ của Google như OpenAI và Anthropic hiện không cung cấp tùy chọn chạy mô hình trong trung tâm dữ liệu vật lý, vì họ muốn duy trì quyền kiểm soát chất lượng và tốc độ của công nghệ.
- Cohere có lựa chọn cho khách hàng triển khai mô hình trên cơ sở hạ tầng riêng, nhưng công ty này thừa nhận việc thiết lập chậm hơn so với sử dụng dịch vụ đám mây.
- Động thái này của Google có thể thu hút nhiều khách hàng tiềm năng mới, bao gồm các công ty, trường học và cơ quan chính phủ vẫn duy trì phần cứng trung tâm dữ liệu riêng.
- Ngay cả khách hàng tuân thủ cấp độ phân loại bí mật và tuyệt mật của chính phủ Mỹ cũng có thể sử dụng Gemini thông qua phiên bản air-gapped của Google Distributed Cloud không kết nối internet.
- Theo Gartner, chi tiêu cho cơ sở hạ tầng đám mây đạt 140 tỷ USD trong năm 2023. Google chiếm 8% thị phần, trong khi Amazon kiểm soát 39% và Microsoft nắm giữ 23%.
- Tháng trước, Google đã công bố thỏa thuận trị giá 32 tỷ USD để mua lại công ty khởi nghiệp bảo mật đám mây Wiz.
- Thomas Kurian, Giám đốc Google Cloud, cho biết cam kết đa đám mây cùng với đầu tư vào cơ sở hạ tầng và AI là lý do công ty thu hút nhiều khách hàng.
- Mô hình Gemini của Google có thể xử lý văn bản, âm thanh và video, hỗ trợ hơn 100 ngôn ngữ.
📌 Google sẽ cung cấp mô hình AI Gemini cho trung tâm dữ liệu doanh nghiệp từ quý 3/2025, tạo lợi thế cạnh tranh so với OpenAI và Anthropic. Với thị phần đám mây 8% và thương vụ 32 tỷ USD mua Wiz, Google đang tăng cường vị thế trong cuộc đua AI doanh nghiệp.
https://www.cnbc.com/2025/04/09/google-will-let-companies-run-gemini-models-in-their-own-data-centers.html
Sự bùng nổ của AI tạo sinh tạo ra cơ hội lớn về cắt giảm chi phí và tăng doanh thu, nhưng đồng thời kéo theo các rủi ro lớn về bảo mật, uy tín và thất bại dự án.
Theo báo cáo của Zscaler tháng 3/2025, hoạt động AI tại doanh nghiệp tăng 3.464%, nhưng 60% giao dịch AI bị chặn. Trong đó, ChatGPT là ứng dụng bị chặn nhiều nhất với 3 triệu lượt cố tải dữ liệu nhạy cảm.
Chỉ 42% công ty có chính sách AI vào tháng 9/2024, tăng mạnh từ 10% năm trước. 25% đang xây dựng và 19% đang xem xét.
1. Định nghĩa rõ ràng về AI: Mỗi người hiểu AI theo cách khác nhau. Các công ty như Aflac và Principal Financial phải xây dựng định nghĩa nội bộ để đảm bảo đồng thuận.
2. Sự tham gia của tất cả các bên liên quan: Không chỉ bộ phận bảo mật, mà còn có pháp lý, nhân sự, sản phẩm, công nghệ, đạo đức và tuân thủ. Intuit là ví dụ điển hình cho nhóm đa ngành xây dựng chính sách toàn diện.
3. Xuất phát từ giá trị cốt lõi: Chính sách phải phản ánh đạo đức, sáng tạo và khả năng chấp nhận rủi ro của tổ chức.
4. Phù hợp với các quy định hiện hành: EU AI Act là khung pháp lý toàn diện nhất hiện nay. Các công ty cũng cần tuân theo GDPR, NAIC (đối với ngành bảo hiểm), và quy định riêng của từng quốc gia/ngành.
5. Hướng dẫn sử dụng AI có trách nhiệm: Chính sách cần làm rõ việc sử dụng chatbot công cộng, AI nội bộ, và yêu cầu kiểm duyệt của con người tùy mức độ rủi ro. Ví dụ: mã do AI tạo cần được con người kiểm tra trước khi triển khai.
6. Tính đến yếu tố bên thứ ba: Rủi ro từ nhà cung cấp cũng ảnh hưởng đến doanh nghiệp. Việc chọn nhà cung cấp AI cần tránh bị khóa chặt và đảm bảo linh hoạt chuyển đổi.
7. Thiết lập cấu trúc quản trị rõ ràng: Ai ra quyết định, ai giám sát việc tuân thủ. Chỉ 45% tổ chức có chính sách gắn kết với mô hình vận hành. Nên bắt đầu bằng kiểm kê toàn bộ hệ thống AI đang được sử dụng.
8. Dùng công nghệ để đảm bảo tuân thủ: Giám sát, kiểm duyệt tự động và công cụ ngăn rò rỉ dữ liệu có thể giúp kiểm soát hoạt động AI.
9. Chuẩn bị cho tình huống xấu nhất: Phải có phản ứng kỹ thuật và quản lý sự cố nếu AI gây ra lỗi nghiêm trọng, ví dụ AI phát ngôn sai lệch hoặc tạo cam kết không thể thực hiện.
10. Luôn cập nhật và thích ứng: Chính sách AI cần có mốc thời gian cập nhật định kỳ, theo sự thay đổi công nghệ, kinh doanh và pháp lý. Điều này giúp chính sách vẫn hiệu quả và thúc đẩy đổi mới.
📌 Chính sách AI hiệu quả giúp doanh nghiệp tối ưu lợi ích và giảm thiểu rủi ro khi triển khai AI tạo sinh. Trong năm 2024, chỉ 42% công ty có chính sách rõ ràng. Cần xác định định nghĩa AI nội bộ, đảm bảo mọi bộ phận tham gia, tuân thủ quy định như EU AI Act, có hướng dẫn sử dụng trách nhiệm, kiểm soát bên thứ ba, và cập nhật thường xuyên. Việc giám sát và phản ứng nhanh khi có sự cố cũng là yếu tố không thể thiếu để bảo vệ doanh nghiệp khỏi hậu quả AI gây ra.
https://www.csoonline.com/article/3950176/10-things-you-should-include-in-your-ai-policy.html
Trợ lý lập trình AI đang trở thành công cụ thiết yếu trong phát triển phần mềm doanh nghiệp, giúp tăng năng suất qua tự động hóa và đề xuất thông minh. Dưới đây là 6 công cụ AI lập trình nổi bật nhất dành cho doanh nghiệp:
1. GitHub Copilot
Hỗ trợ: Python, Java, JavaScript, Ruby, Go, C#, C++
Tính năng: Gợi ý mã thời gian thực, tích hợp VS Code/JetBrains, có bảo vệ pháp lý từ Microsoft
Giá: 10 USD/người/tháng (Business)
Ưu điểm: Dễ triển khai, phổ biến, tích hợp mạnh mẽ
Nhược điểm: Dựa trên đám mây – có thể lo ngại về quyền riêng tư
2. Sourcegraph Cody
Hỗ trợ: Tất cả ngôn ngữ chính (tối ưu cho Python, JS, TS)
Tính năng: Hiểu toàn bộ codebase, có lựa chọn triển khai nội bộ, quản trị tập trung
Giá: Tùy chọn (doanh nghiệp), có gói miễn phí cơ bản
Ưu điểm: Bảo mật cao, tùy chỉnh sâu, phù hợp tổ chức lớn
Nhược điểm: Cần cơ sở hạ tầng Sourcegraph – khó triển khai ban đầu
3. Amazon CodeWhisperer
Hỗ trợ: Python, Java, JS, TS, Go, PHP, C#, Rust
Tính năng: Gợi ý phù hợp AWS API, quét bảo mật tích hợp, tích hợp AWS Toolkit
Giá: Gồm trong AWS Enterprise Support
Ưu điểm: Tối ưu cho môi trường AWS, có công cụ bảo mật sẵn
Nhược điểm: Không hiệu quả trong môi trường không thuộc AWS
4. Tabnine
Hỗ trợ: Python, JavaScript, Java, C++, Go, PHP, Ruby, Rust
Tính năng: Triển khai tại chỗ hoặc đám mây riêng, huấn luyện trên code riêng của doanh nghiệp
Giá: 12 USD/người/tháng, có gói doanh nghiệp
Ưu điểm: Tập trung bảo mật, tùy biến cao
Nhược điểm: Tốn tài nguyên hệ thống – ảnh hưởng hiệu suất
5. JetBrains AI Assistant
Hỗ trợ: Java, Kotlin, Python, JS, PHP, Go, Ruby
Tính năng: Tích hợp trong IDE JetBrains, không lưu code người dùng
Giá: Bao gồm trong gói JetBrains
Ưu điểm: Giao diện thân thiện, bảo mật dữ liệu rõ ràng
Nhược điểm: Phụ thuộc kết nối mạng, sử dụng AI bên ngoài
6. Google Gemini Code Assist
Hỗ trợ: Python, Java, JS, C++, SQL, Go
Tính năng: Tùy chỉnh theo code doanh nghiệp, tích hợp Google Cloud, refactor mạnh
Giá: Theo đăng ký trên Google Cloud
Ưu điểm: Chất lượng cao, tích hợp sâu Google Cloud
Nhược điểm: Hạn chế với tổ chức không dùng hệ sinh thái Google
Những công cụ này đang giúp tăng tốc phát triển phần mềm, giảm sai sót, tăng chất lượng code và hỗ trợ cộng tác hiệu quả giữa các nhóm phát triển. Lựa chọn phù hợp phụ thuộc vào ngôn ngữ lập trình sử dụng, yêu cầu bảo mật, tích hợp hệ thống và môi trường làm việc (AWS, Google Cloud, on-premise...).
📌 Top 6 trợ lý AI lập trình năm 2025 mang lại giải pháp phù hợp cho mọi doanh nghiệp: GitHub Copilot phổ biến và dễ dùng; Sourcegraph Cody và Tabnine mạnh về bảo mật nội bộ; Amazon CodeWhisperer và Gemini Code Assist lý tưởng cho môi trường đám mây AWS/Google; JetBrains AI tích hợp tốt IDE. Tùy vào nhu cầu, doanh nghiệp có thể nâng hiệu suất viết code lên gấp nhiều lần.
https://enterpriseai.marktechpost.com/post/best-ai-coding-assistants-for-enterprises
Các lãnh đạo đang gặp khó khăn trong việc định hình chiến lược AI trong năm 2025, giữa lúc công nghệ GenAI phát triển nhanh chóng nhưng chưa mang lại chuyển đổi lớn như kỳ vọng.
Thay vì “đại cải tổ”, các doanh nghiệp đang ưu tiên những chuyển đổi nhỏ (small t) để khai thác giá trị từ GenAI. Dù chưa tái thiết toàn bộ quy trình, nhưng họ vẫn đang xây nền móng cho thay đổi dài hạn.
Báo cáo của Accenture trên 1.500 công ty cho thấy những doanh nghiệp thành công thường dành 15% ngân sách CNTT để xử lý nợ công nghệ (tech debt). Quản lý hiệu quả nợ công nghệ là chìa khóa để đổi mới và phát triển bền vững.
97% dữ liệu trong các tổ chức bảo hiểm lớn là dữ liệu phi cấu trúc, như văn bản, hình ảnh, video. GenAI đang thúc đẩy xu hướng “truy xuất kết hợp tạo sinh” (RAG) để xử lý và tận dụng khối dữ liệu này.
Một thách thức lớn là xây dựng văn hóa dữ liệu trong tổ chức. Mặc dù 57% công ty đầu tư mạnh vào AI, họ vẫn chưa tạo được môi trường ra quyết định dựa trên dữ liệu, gây lãng phí tiềm năng công nghệ.
“Triết học đang ăn mòn AI” – một nhận định gây sốc nhấn mạnh rằng các nguyên tắc triết học, nếu không được chủ động lồng ghép vào phát triển AI, sẽ tự len lỏi và ảnh hưởng đến cách hệ thống học và hoạt động.
GenAI không chỉ tự động hóa mà còn thúc đẩy học tập trong tổ chức. Việc kết hợp giữa con người và AI tạo ra hiệu ứng tích lũy, mang lại lợi thế cạnh tranh qua thời gian.
GenAI và AI phân tích có mục đích khác nhau: GenAI tập trung vào hiệu suất và tự động hóa, còn AI phân tích giúp ra quyết định chiến lược. Lãnh đạo cần chọn đúng loại AI cho từng vấn đề cụ thể, thông qua các buổi workshop ý tưởng.
BYOAI (Bring Your Own AI) – nhân viên mang công cụ AI riêng vào làm việc – không thể cấm. Việc cấm đoán khiến họ tìm đường vòng, làm suy yếu quản trị và tăng rủi ro. Thay vào đó, lãnh đạo cần tạo khung quản trị linh hoạt.
Nhiều dự án GenAI thất bại do bỏ qua giai đoạn đánh giá (evals). Các bài kiểm tra tự động giúp đo hiệu quả ứng dụng LLM theo tiêu chí kinh doanh và người dùng, từ đó cải thiện chất lượng sản phẩm và tăng tốc phát triển.
Causal ML là công cụ mới để trả lời câu hỏi “điều gì sẽ xảy ra nếu...”. Khác với ML truyền thống chuyên dự đoán, causal ML cho phép so sánh các hành động khác nhau, hữu ích trong marketing, tài chính, sản phẩm,...
📌 Trong bối cảnh AI năm 2025 chưa tạo ra thay đổi toàn diện, MIT SMR đề xuất 10 chiến lược cấp thiết như tập trung vào chuyển đổi nhỏ (small t), quản lý nợ công nghệ hiệu quả (15% ngân sách CNTT), khai thác dữ liệu phi cấu trúc (97%), thúc đẩy văn hóa dữ liệu (57% công ty đang gặp khó), không cấm BYOAI và sử dụng đánh giá tự động (evals) để phát triển GenAI. Ngoài ra, cần áp dụng đúng loại AI (phân tích vs tạo sinh) và tận dụng causal ML để ra quyết định chiến lược hiệu quả hơn.
https://sloanreview.mit.edu/article/10-urgent-ai-takeaways-for-leaders/
#MIT
Chiến lược AI nào thực sự hiệu quả? Nhận lời khuyên về những thách thức cấp bách nhất về AI hiện nay từ các chuyên gia của MIT SMR.
Laurianne McLaughlin
Ngày 07 tháng 4, 2025
Thời gian đọc: 9 phút
Chủ đề
Dữ liệu, AI, & Học máy
AI & Học máy
Tóm tắt: Các nhà lãnh đạo đang gặp khó khăn với việc định hình chiến lược trí tuệ nhân tạo. Sau cùng, công việc này liên quan đến việc giải quyết những vấn đề khó khăn như rủi ro...
Bài viết tập trung vào những thách thức hiện tại của các nhà lãnh đạo trong việc triển khai AI hiệu quả, bao gồm:
"Mặc dù đã trải qua 2 năm với sự chú ý rộng rãi của giới quản lý và thử nghiệm mở rộng, chúng ta vẫn chưa thấy những chuyển đổi kinh doanh quy mô lớn được hỗ trợ bởi GenAI mà nhiều người ban đầu đã hình dung."
Phát biểu này của các tác giả MIT SMR Melissa Webster và George Westerman có phản ánh trải nghiệm của bạn không? Không có gì ngạc nhiên. Sau hai năm đầy biến động với sự phóng đại, gián đoạn và thử nghiệm đối với nhiều nhà lãnh đạo, bạn (và đồng nghiệp) có thể vẫn đang chờ đợi khoản lợi nhuận kinh doanh lớn. Bạn có thể chưa thiết kế lại quy trình quan trọng đó, cắt giảm thời gian tiếp cận thị trường, hoặc cải thiện đáng kể sự hài lòng của khách hàng.
Như Westerman, giảng viên cao cấp tại Trường Quản lý MIT Sloan, đã lưu ý trong một trong những bài viết phổ biến nhất của chúng tôi về trí tuệ nhân tạo năm nay, bạn có thể cần thực hành kiên nhẫn hơn. Các công ty thành công nhất hiện đang trong giai đoạn chuyển đổi nhỏ hơn sử dụng công cụ AI — mở đường cho sự chuyển đổi lớn đó.
Thật khó để diễn đạt mức độ khó khăn đối với các nhà lãnh đạo trong việc định hình chiến lược AI vào năm 2025. Sau cùng, công việc này liên quan đến việc giải quyết mọi thứ từ quản lý rủi ro đến đạo đức AI, với một số thách thức đáng sợ về quản lý dữ liệu và văn hóa. Đồng thời, các công cụ AI và trí tuệ nhân tạo tạo sinh tiếp tục phát triển. Những gì công cụ GenAI Claude không thể làm được mùa xuân này, có thể sẽ làm được vào mùa hè.
Tại MIT SMR, chúng tôi cố gắng xuất bản những lời khuyên mới mẻ, dựa trên bằng chứng mà các nhà lãnh đạo có thể áp dụng tại tổ chức của họ. Các nhà lãnh đạo rất muốn được hướng dẫn về chiến lược AI: Chúng tôi thấy điều này trong dữ liệu người đọc bài viết của chúng tôi. Ở đây, chúng tôi đã tập hợp 10 bài viết về AI phổ biến và có giá trị nhất trong những tháng gần đây để chia sẻ bài học kịp thời về 10 vấn đề cấp bách về AI.
"Chưa đầy hai năm trước, trí tuệ nhân tạo tạo sinh đã xuất hiện trên các tiêu đề với những khả năng mới đáng kinh ngạc: Có thể tham gia vào các cuộc trò chuyện; diễn giải lượng lớn văn bản, âm thanh hoặc hình ảnh; và thậm chí tạo ra tài liệu và tác phẩm nghệ thuật mới. Sau đợt áp dụng công nghệ nhanh nhất trong lịch sử — với hơn 100 triệu người dùng trong hai tháng đầu tiên — doanh nghiệp trong mọi ngành bắt đầu thử nghiệm với nó. Tuy nhiên, mặc dù đã trải qua hai năm với sự chú ý rộng rãi của giới quản lý và thử nghiệm mở rộng, chúng ta vẫn chưa thấy những chuyển đổi kinh doanh quy mô lớn được hỗ trợ bởi GenAI mà nhiều người ban đầu đã hình dung.
"Điều gì đã xảy ra? Công nghệ này không đáp ứng được lời hứa của nó sao? Các chuyên gia có sai khi kêu gọi những chuyển đổi lớn không? Các công ty có quá thận trọng không? Câu trả lời cho mỗi câu hỏi đó vừa là có vừa là không. Trí tuệ nhân tạo tạo sinh đã được sử dụng theo cách mang tính chuyển đổi trong nhiều công ty, chỉ là chưa phải là động lực cho việc thiết kế lại toàn diện các chức năng kinh doanh chính. Các nhà lãnh đạo kinh doanh đang tìm cách tạo ra giá trị thực từ các mô hình ngôn ngữ lớn (LLM) mà không cần thay thế hoàn toàn các quy trình kinh doanh hiện có. Họ đang theo đuổi sự chuyển đổi 't nhỏ', ngay cả khi họ xây dựng nền tảng cho những chuyển đổi lớn hơn sắp tới."
Đọc bài viết đầy đủ, "Tạo Giá Trị Từ GenAI Với Chuyển Đổi 't nhỏ'," của Melissa Webster và George Westerman.
"Để hiểu cách các nhà lãnh đạo kinh doanh ngày nay đang cải tổ tổ chức của họ, bao gồm vai trò của nợ công nghệ, Accenture đã nghiên cứu 1.500 công ty toàn cầu tại 10 quốc gia thuộc 19 ngành và tiến hành hàng chục cuộc thảo luận chuyên sâu với các nhà lãnh đạo cấp C. Nghiên cứu cho thấy rằng các công ty có vị thế tốt cho sự thay đổi có một 'lõi kỹ thuật số' sẵn sàng cho việc cải tổ — một tập hợp các thành phần chính như cơ sở hạ tầng đám mây, dữ liệu và AI có thể được cập nhật dễ dàng. Họ cũng thường dành khoảng 15% ngân sách CNTT của mình để khắc phục nợ công nghệ.
"Điều nghiên cứu làm rõ là ngày nay, giải quyết nợ công nghệ không phải là loại bỏ nó mà là quản lý nó. Chìa khóa nằm ở việc biết nợ là gì, cái gì cần sửa, cái gì cần giữ, và làm thế nào để nhận ra nợ công nghệ đang thúc đẩy khả năng đổi mới của công ty bạn."
Đọc bài viết đầy đủ, "Cách Quản Lý Nợ Công Nghệ Trong Kỷ Nguyên AI," của Koenraad Schelfaut và Prashant P. Shukla.
"Phần lớn dữ liệu mà GenAI làm việc là tương đối phi cấu trúc, ở dạng văn bản, hình ảnh, video và tương tự. Một nhà lãnh đạo tại một tổ chức bảo hiểm lớn gần đây đã chia sẻ... rằng 97% dữ liệu của công ty là phi cấu trúc. Nhiều công ty quan tâm đến việc sử dụng GenAI để giúp quản lý và cung cấp quyền truy cập vào dữ liệu và tài liệu của riêng họ, thường sử dụng phương pháp gọi là tạo sinh tăng cường bằng truy xuất, hoặc RAG. Nhưng một số công ty chưa làm việc nhiều với dữ liệu phi cấu trúc của họ kể từ thời kỳ quản lý kiến thức cách đây 20 năm hoặc hơn. Họ đã tập trung vào dữ liệu có cấu trúc — thường là các hàng và cột số từ các hệ thống giao dịch."
Đọc bài viết đầy đủ, "Năm Xu Hướng Trong AI Và Khoa Học Dữ Liệu Cho Năm 2025," của Thomas H. Davenport và Randy Bean.
"Nhờ vào sự ồn ào đinh tai nhức óc xung quanh khoa học dữ liệu và AI, các nhà lãnh đạo doanh nghiệp không còn nghi ngờ tiềm năng chuyển đổi của cặp đôi mạnh mẽ này. Tuy nhiên, một thống kê đáng chú ý cho thấy một thách thức lãnh đạo lớn hơn: Hơn 57% công ty gặp khó khăn trong việc xây dựng văn hóa dựa trên dữ liệu, theo nghiên cứu của Wavestone. Điều này cho thấy trong nhiều trường hợp, các nhà lãnh đạo tin vào sức mạnh của dữ liệu và đang đầu tư vào AI, nhưng tổ chức của họ vẫn chưa nhận được lợi ích thực sự.
"Thật vậy, đối với nhiều nhà lãnh đạo, thách thức không phải là mua các công cụ phân tích nâng cao hoặc xây dựng các giải pháp kỹ thuật chính xác. Rào cản thực sự tinh tế nhưng quan trọng hơn nhiều: nuôi dưỡng một môi trường trong tổ chức nơi các cá nhân bản năng sẽ hướng đến dữ liệu bất cứ khi nào họ phải đưa ra quyết định. Đây là ý nghĩa thực sự của việc dựa vào dữ liệu hoặc tạo ra văn hóa dữ liệu."
Đọc bài viết đầy đủ, "Xây Dựng Văn Hóa Dựa Trên Dữ Liệu: Bốn Yếu Tố Chính," của Ganes Kesari.
"Ngay cả khi phần mềm nuốt chửng thế giới và AI nuốt chửng phần mềm, yếu tố phá vỡ nào đang sẵn sàng để biến AI thành bữa ăn? Câu trả lời đang ẩn nấp trước mắt. Nó thách thức các nhà lãnh đạo kinh doanh và công nghệ như nhau để suy nghĩ lại về khoản đầu tư và mối quan hệ của họ với trí tuệ nhân tạo. Không có cách nào tránh khỏi yếu tố phá vỡ này; nó thâm nhập vào các bộ huấn luyện và mạng thần kinh của mọi mô hình ngôn ngữ lớn (LLM) trên toàn thế giới.
"Triết học đang nuốt chửng AI: Là một ngành học, bộ dữ liệu và tư duy, triết học ngày càng quyết định cách các công nghệ kỹ thuật số suy luận, dự đoán, sáng tạo, tạo ra và đổi mới. Thách thức doanh nghiệp quan trọng là liệu các nhà lãnh đạo có sở hữu sự tự nhận thức và nghiêm túc để sử dụng triết học như một nguồn lực tạo giá trị với AI hay mặc định theo các nguyên tắc triết học ngầm hiểu, không được nói rõ cho việc triển khai AI của họ. Dù bằng cách nào — tốt hơn hay tệ hơn — triết học nuốt chửng AI. Đối với các giám đốc có ý thức về chiến lược, phép ẩn dụ đó cần được ghi nhớ."
Đọc bài viết đầy đủ, "Triết Học Nuốt Chửng AI," của Michael Schrage và David Kiron.
"Kết hợp với AI truyền thống, trí tuệ nhân tạo tạo sinh mở rộng phạm vi cải thiện tiềm năng trong nhiều quy trình và quyết định và sự dễ dàng mà kiến thức mới này có thể được áp dụng. Điều này, đến lượt nó, tạo ra tiềm năng cho một hiệu ứng cộng hưởng tích cực đến việc học tập tổ chức, với con người và máy móc làm việc phối hợp để tạo ra lợi thế cạnh tranh mới."
Đọc bài viết đầy đủ, "Tăng Tốc Học Tập Tổ Chức Với GenAI," của Paul Baier và John J. Sviokla.
"Các nhà lãnh đạo nên nhận ra rằng trí tuệ nhân tạo tạo sinh và AI phân tích là bổ sung chứ không thay thế lẫn nhau. GenAI tập trung vào hiệu quả và tự động hóa, như sử dụng chatbot được hỗ trợ bởi AI để tăng năng suất trung tâm cuộc gọi, trong khi AI phân tích nâng cao việc ra quyết định chiến lược, như xác định thời điểm tốt nhất hoặc đề nghị tốt nhất cho mỗi khách hàng được liên hệ bởi trung tâm cuộc gọi.
"Loại hình AI nào phù hợp nhất với vấn đề kinh doanh của bạn? Một bước quan trọng trong việc tạo lộ trình cho các dự án AI liên quan đến việc tiến hành các hội thảo hình thành ý tưởng trong đó các nhà lãnh đạo kinh doanh và kỹ thuật có thể động não về cơ hội áp dụng AI vào thách thức tổ chức."
Đọc bài viết đầy đủ, "AI Phân Tích: Cách Tốt Hơn Để Xác Định Các Dự Án AI Phù Hợp," của Pedro Amorim, Teresa Bianchi de Aguiar, Luís Guimarães, Bernardo Almada-Lobo và Bruno Teixeira.
"Do những rủi ro liên quan đến BYOAI, có vẻ hợp lý khi các nhà lãnh đạo xem xét việc cấm hoàn toàn các công cụ GenAI chưa được kiểm định. Triển vọng sử dụng GenAI không kiểm soát, kết hợp với sự không chắc chắn xung quanh việc tiếp xúc pháp lý và quy định, có thể khiến các nhà lãnh đạo thận trọng một cách dễ hiểu. Tuy nhiên, các giám đốc điều hành mà chúng tôi phỏng vấn cho biết rằng việc cấm BYOAI là không thực tế và không hiệu quả. Nhân viên — đặc biệt là những người đã cảm thấy quá tải — thường chuyển sang các công cụ GenAI để nâng cao năng suất cá nhân của họ. Hạn chế truy cập chỉ đẩy họ tìm cách giải quyết không chính thức, có khả năng bỏ qua các khuôn khổ quản trị đã thiết lập. Điều này cuối cùng có thể khuếch đại chính những rủi ro mà các nhà lãnh đạo nhắm đến để giảm thiểu.
"Hơn nữa, lệnh cấm sẽ ngăn nhân viên khám phá các trường hợp sử dụng mới, chặn cơ hội giải quyết vấn đề sáng tạo và khám phá tiềm năng tăng hiệu quả trong toàn tổ chức."
Đọc bài viết đầy đủ, "Mang AI Riêng Của Bạn: Cách Cân Bằng Rủi Ro Và Đổi Mới," của Nick van der Meulen và Barbara H. Wixom.
"Quy trình đánh giá bao gồm các evals — các bài kiểm tra tự động được thiết kế để đo lường mức độ hoạt động tốt của ứng dụng LLM trên các thông số phản ánh những gì người dùng cuối quan tâm và những gì quan trọng đối với doanh nghiệp. Evals đẩy nhanh quá trình phát triển bằng cách tập trung nỗ lực vào các lĩnh vực quan trọng và tăng khả năng xây dựng các ứng dụng mang lại giá trị tổ chức. Tuy nhiên, thực tế là nhiều đội đầu tư không đủ vào evals. Kết quả: tiến độ không đồng đều và cuối cùng là các dự án GenAI bị hủy bỏ hoặc các ứng dụng có lỗi không đạt được mục tiêu kinh doanh.
"Các nhà lãnh đạo kinh doanh, lãnh đạo CNTT và nhà phát triển làm việc cùng nhau để phát triển các ứng dụng AI tạo sinh để giải quyết vấn đề kinh doanh đều được hưởng lợi từ quy trình đánh giá mạnh mẽ. Các nhà lãnh đạo kinh doanh và CNTT có cái nhìn về mức độ chất lượng thực sự của ứng dụng trong suốt chu kỳ phát triển, và các nhà phát triển có thể trả lời những câu hỏi quan trọng, như 'Chúng ta có đang tiến bộ đủ không?' hoặc 'Chu kỳ phát triển tiếp theo nên tập trung vào điều gì?' hoặc 'Ứng dụng có đủ tốt để triển khai không?'"
Đọc bài viết đầy đủ, "Bước Ứng Dụng GenAI Bạn Đang Bỏ Qua: Đánh Giá," của Rama Ramakrishnan.
"ML nhân quả — một lĩnh vực mới nổi của học máy — có thể giúp trả lời... những câu hỏi giả định thông qua suy luận nhân quả. Tương tự như cách các nhà tiếp thị sử dụng các bài kiểm tra A/B để suy ra quảng cáo nào trong hai quảng cáo có khả năng tạo ra nhiều doanh số bán hàng hơn, ML nhân quả có thể thông báo điều gì có thể xảy ra nếu nhà quản lý thực hiện một hành động cụ thể.
"Điều này làm cho công nghệ hữu ích trong nhiều chức năng kinh doanh giống nhau sử dụng ML truyền thống, bao gồm phát triển sản phẩm, sản xuất, tài chính, nhân sự và tiếp thị. ML truyền thống vẫn là phương pháp tiếp cận khi mục tiêu duy nhất là đưa ra dự đoán — chẳng hạn như liệu giá cổ phiếu sẽ tăng hay sản phẩm nào khách hàng có khả năng mua nhất. Khi một công ty muốn dự đoán điều gì sẽ xảy ra nếu nó đưa ra quyết định này so với quyết định khác — chẳng hạn như liệu giảm giá 10% hay không giảm giá có khả năng thúc đẩy khách hàng mua lại hơn không — nó cần ML nhân quả."
Đọc bài viết đầy đủ, "Một Phương Pháp Học Máy Mới Trả Lời Các Câu Hỏi Giả Định," của Stefan Feuerriegel, Yash Raj Shrestha và Georg von Krogh.
- CEO Shopify Tobi Lutke đã thay đổi cách tiếp cận tuyển dụng trong kỷ nguyên AI, yêu cầu nhân viên phải chứng minh tại sao họ "không thể hoàn thành công việc bằng AI" trước khi xin thêm nhân sự và nguồn lực.
- Trong bản ghi nhớ gửi nhân viên vào cuối tháng trước và được đăng trên X vào ngày thứ Hai, Lutke đặt câu hỏi: "Lĩnh vực này sẽ như thế nào nếu các tác nhân AI tự động đã là một phần của đội ngũ?" và cho rằng câu hỏi này có thể dẫn đến "những cuộc thảo luận và dự án thú vị".
- Lutke cũng nêu rõ có "kỳ vọng cơ bản" rằng nhân viên Shopify sẽ áp dụng AI vào công việc hàng ngày, khẳng định AI đã là "nhân tố nhân bội" năng suất cho những người sử dụng nó.
- CEO Shopify đã chứng kiến nhiều nhân viên "tiếp cận những nhiệm vụ tưởng chừng bất khả thi, những nhiệm vụ mà trước đây chúng tôi thậm chí không chọn thực hiện, với việc sử dụng AI một cách thông minh để hoàn thành công việc gấp 100 lần".
- Công ty sẽ đưa việc sử dụng AI vào đánh giá hiệu suất của nhân viên.
- Chỉ thị này xuất hiện trong bối cảnh các công ty công nghệ đã dành hàng trăm tỷ đô la để đầu tư phát triển AI trong năm nay. Shopify đã triển khai các công cụ AI cho người bán hàng, bao gồm chatbot Sidekick và bộ công cụ tự động hóa có tên "Shopify Magic".
- Trong khi đầu tư vào AI, các công ty công nghệ cũng đang tìm cách tinh giản chi phí ở các lĩnh vực khác, thông qua việc ngừng các dự án thua lỗ hoặc sa thải nhân viên. Năm 2024, khoảng 152.000 vị trí đã bị cắt giảm tại 549 công ty công nghệ, theo Layoffs.fyi.
- Tổng số nhân viên của Shopify giảm xuống còn 8.100 người vào cuối tháng 12 từ 8.300 người một năm trước đó. Công ty Canada này đã cắt giảm 14% lực lượng lao động vào năm 2022 và 20% vào năm sau đó.
- Tại sự kiện nhà đầu tư do Morgan Stanley tổ chức tháng trước, CFO Shopify Jeff Hoffmeister cho biết công ty có thể "giữ số lượng nhân viên tương đối ổn định", mặc dù chi phí liên quan đến nhân viên có thể thay đổi do sự khác biệt về lương. Ông lưu ý rằng "kỹ sư AI cấp cao với mức lương cao" có thể làm tăng chi phí lương thưởng ngay cả khi số lượng nhân viên không đổi.
📌 Shopify đang thúc đẩy chuyển đổi văn hóa làm việc, yêu cầu nhân viên chứng minh AI không thể thay thế trước khi tuyển thêm người. Công ty đã cắt giảm 34% nhân sự trong 2 năm qua và hiện duy trì 8.100 nhân viên, đồng thời đầu tư mạnh vào công nghệ AI như Sidekick và Shopify Magic.
https://www.cnbc.com/2025/04/07/shopify-ceo-prove-ai-cant-do-jobs-before-asking-for-more-headcount.html
- Năm 2025, AI ảnh hưởng đến 53% quyết định mua sắm tại Mỹ theo khảo sát CSI của Criteo tháng 12/2024.
- 29,3% người dùng đã sử dụng công cụ AI tạo sinh như ChatGPT, Bard và Copilot. Tuy nhiên, 35,8% chỉ nghe nói nhưng chưa hiểu rõ về chúng.
- Thị trường AI toàn cầu dự kiến đạt 243,7 tỷ USD trong năm 2025, với ngành bán lẻ là động lực chính.
- Năm 2024, hơn 91% người mua sắm toàn cầu kỳ vọng AI sẽ cá nhân hóa đề xuất trong 2 năm tới. 87% tin AI sẽ hiểu nhu cầu của họ, 86% dự đoán quảng cáo sẽ phù hợp hơn.
- AI đang thay đổi hành vi tiêu dùng: 51% người dùng dùng AI để so sánh giá, 45% để hỏi về sản phẩm, 41% để mua sắm theo ngân sách.
- ChatGPT dẫn đầu về khám phá sản phẩm với 49% người dùng toàn cầu sử dụng trong Q4/2024. Google Gemini (34%) và chatbot của nhà bán lẻ (25%) cũng phổ biến.
- AI đang thay đổi quảng cáo, hướng tới trải nghiệm tương tác thông minh hơn dựa trên hành vi thời gian thực.
- Tương lai, AI sẽ đóng vai trò sâu rộng hơn với trợ lý mua sắm cá nhân, mô hình định giá dự đoán và nền tảng tương tác khách hàng động.
- Vấn đề về quyền riêng tư dữ liệu, tính minh bạch và trao đổi giá trị cần được giải quyết khi AI ngày càng phát triển.
📌 AI đang định hình lại ngành bán lẻ với thị trường 243,7 tỷ USD vào năm 2025. 53% quyết định mua sắm tại Mỹ chịu ảnh hưởng của AI. Doanh nghiệp cần ưu tiên trải nghiệm mua sắm đạo đức, cá nhân hóa và suôn sẻ để cạnh tranh. Tuy nhiên, cần nâng cao hiểu biết về AI khi 36% người dùng vẫn chưa rõ về vai trò của nó.
https://www.forbes.com/sites/garydrenik/2025/04/08/how-ais-2437b-boom-is-reshaping-retail-and-beyond/
- Theo khảo sát của Gartner, 92% CIO dự định tích hợp AI vào tổ chức của họ vào năm 2025, nhưng 49% gặp khó khăn trong việc đánh giá và thể hiện giá trị của công nghệ này.
- Mô hình ngôn ngữ nhỏ (SLM) đang nổi lên như một giải pháp hấp dẫn, hứa hẹn khả năng AI chi phí thấp hơn và bảo mật hơn, phù hợp với các ưu tiên chiến lược của doanh nghiệp.
- Amer Sheikh, trưởng khoa học dữ liệu tại BearingPoint cho biết: "Cộng đồng AI đã tích cực khám phá các mô hình ngôn ngữ nhỏ như Mistral Small và DeepSeek R1. Sự phổ biến của chúng xuất phát từ khả năng cân bằng giữa độ chính xác, tốc độ và hiệu quả chi phí."
- SLM đang thúc đẩy làn sóng tiếp theo của việc áp dụng AI tại biên, cho phép các mô hình AI chạy trên điện thoại thông minh, thiết bị IoT và hệ thống công nghiệp mà không phụ thuộc vào cơ sở hạ tầng đám mây.
- Một số ứng dụng thực tế của SLM bao gồm: mô hình DeepSeek R1 được tích hợp vào hệ thống thông tin giải trí của các nhà sản xuất ô tô Trung Quốc (như Geely), Phi-3 - một mô hình nhỏ được thiết kế cho ứng dụng AI di động, và Smile Plug của Stanford sử dụng các mô hình AI nhỏ để cung cấp trải nghiệm học tập tương tác trên thiết bị Raspberry Pi mà không cần kết nối internet.
- SLM có thể chạy cục bộ, cắt giảm chi phí và giảm thiểu rủi ro bảo mật, khiến chúng phù hợp để nâng cao trí thông minh của thiết bị biên. "Có sự giảm thiểu đáng kể trong chi phí suy luận. Tuy nhiên, sẽ có chi phí nhỏ cho việc tinh chỉnh và tự lưu trữ," Sheikh nói thêm.
- Các ngành được quy định chặt chẽ như viễn thông, kế toán và luật đang áp dụng SLM nhanh chóng hơn nhờ khả năng tập trung vào các trường hợp sử dụng cụ thể, dành riêng cho ngành.
- Bảo mật là yếu tố chính, đặc biệt là trong các thiết bị biên. SLM là phiên bản tại chỗ của thế giới AI tạo sinh, giúp dữ liệu không cần rời khỏi biên giới của tổ chức.
- Saman Nasrolahi từ InMotion Ventures cho biết: "Khoảng một phần ba tất cả các cuộc tấn công an ninh mạng xảy ra khi dữ liệu được chia sẻ với nhà cung cấp bên ngoài. Bằng cách giữ dữ liệu tại chỗ, SLM có thể giảm bề mặt tấn công và lỗ hổng doanh nghiệp."
- Với tiến bộ trong các bộ chip tùy chỉnh, các yêu cầu về điện năng, bộ nhớ và hiệu suất của SLM hiện có thể được tìm thấy trong hầu hết các máy tính xách tay và điện thoại di động tầm trung.
- SLM tiêu thụ ít năng lượng hơn, làm cho chúng rẻ hơn, tốt hơn cho môi trường, và thường đủ nhỏ để chạy cục bộ trên thiết bị biên như điện thoại di động hoặc PC mà không cần kết nối internet.
- Báo cáo Tech Trends 2025 của Deloitte cho thấy các doanh nghiệp đang xem xét SLM và các tùy chọn nguồn mở để đào tạo mô hình trên các bộ dữ liệu nhỏ hơn, chính xác hơn.
- Vào năm 2017, Gartner đã dự đoán rằng đến năm nay, 75% dữ liệu do doanh nghiệp tạo ra sẽ được tạo và xử lý bên ngoài các trung tâm dữ liệu tập trung truyền thống hoặc đám mây.
- SLM đang định hình lại các ngành y tế, tài chính và quốc phòng, cho phép AI trên thiết bị giảm độ trễ, bảo vệ dữ liệu nhạy cảm và nâng cao việc ra quyết định thời gian thực.
📌 SLM đang mở ra kỷ nguyên mới cho AI doanh nghiệp với chi phí thấp hơn 90%, bảo mật cao hơn và khả năng chạy trên thiết bị biên. Đến 2025, 92% CIO sẽ tích hợp AI, với SLM là giải pháp chiến lược cho các ngành y tế, tài chính và sản xuất.
https://www.computerweekly.com/feature/Why-SLMs-could-be-a-big-deal-for-businesses-looking-for-an-edge
Năm 2025, các nhà tiếp thị có thể triển khai chiến dịch toàn cầu chỉ với vài cú nhấp chuột nhờ AI dịch nội dung, điều chỉnh hình ảnh và tạo video địa phương hóa với giọng vùng miền hoàn hảo.
Dữ liệu cho thấy các chiến dịch có sự xác thực thị trường địa phương hiệu quả hơn 40% so với chiến dịch thuần túy dựa trên AI, minh chứng rằng công nghệ đơn thuần không thể vượt qua rào cản văn hóa.
Một nhà bán lẻ lớn của Mỹ đã sử dụng AI để địa phương hóa chiến dịch mở rộng sang châu Âu, nhưng bỏ qua bối cảnh văn hóa quan trọng về ưu tiên thanh toán và tín hiệu tin cậy, dẫn đến tỷ lệ chuyển đổi thấp hơn 60% so với dự kiến.
Tín hiệu tin cậy khác biệt đáng kể giữa các thị trường. Tại Mỹ, người tiêu dùng coi trọng đánh giá cá nhân, bảo đảm hoàn tiền 100%, huy hiệu bảo mật và đề cập trên các phương tiện truyền thông nổi tiếng.
Ngược lại, tại Nhật Bản, niềm tin được xây dựng thông qua chứng thực từ cá nhân có chức danh trong các công ty được tôn trọng, liên kết với doanh nghiệp Nhật Bản nổi tiếng, giải thưởng từ các tổ chức uy tín và lịch sử công ty lâu đời.
Trong một chiến dịch tiếp thị tìm kiếm có trả phí tại các nước DACH, trang đích được dịch bằng AI và chỉnh sửa bởi người bản xứ nói tiếng Đức cải thiện tỷ lệ chuyển đổi lên 173% so với bản dịch thuần túy bằng AI.
Tiếp thị toàn cầu hiện đại yêu cầu hướng dẫn rõ ràng về khi nào sử dụng AI và khi nào ưu tiên hiểu biết của con người. Các nhiệm vụ ưu tiên tự động hóa bao gồm dịch thuật cơ bản, điều chỉnh hình ảnh và định giá động theo tiền tệ địa phương.
Sự xuất hiện của AI đã tạo ra các "văn hóa kỹ thuật số" riêng biệt vượt qua ranh giới địa lý truyền thống, tạo cơ hội cho việc nhắm mục tiêu nhân khẩu học xuyên biên giới.
Airbnb và Nike là ví dụ về các thương hiệu đã tạo ra chiến dịch toàn cầu thành công bằng cách kết nối với khán giả ở cấp độ cảm xúc, vượt qua ranh giới văn hóa thông qua trải nghiệm chung của con người.
Tương lai của tiếp thị toàn cầu thuộc về các đội ngũ có thể kết hợp hài hòa giữa trí tuệ nhân tạo và trí tuệ văn hóa, biết khi nào nên tăng cường hiểu biết của con người và khi nào để công nghệ dẫn dắt.
📌 Chiến lược AI toàn cầu hiệu quả đòi hỏi sự kết hợp giữa công nghệ và trí tuệ văn hóa. Dữ liệu cho thấy chiến dịch có sự xác thực văn hóa địa phương vượt trội hơn 40% so với chiến dịch thuần AI. Các thương hiệu tiên phong đang phát triển hệ thống tích hợp thông minh giữa trí tuệ thị trường địa phương vào quy trình AI, không chỉ dịch ngôn ngữ mà còn chuyển đổi toàn bộ cách tiếp cận tiếp thị dựa trên bối cảnh văn hóa.
https://www.adweek.com/brand-marketing/your-global-ai-strategy-needs-a-cultural-upgrade/
- Cuộc đua ứng dụng trí tuệ nhân tạo đang diễn ra mạnh mẽ trên toàn cầu, với các nền kinh tế ở Bắc Mỹ, châu Âu và châu Á đang giới thiệu nhiều công nghệ mới như AI tạo sinh và AI agent.
- Doanh nghiệp đang nỗ lực theo kịp công nghệ AI để duy trì lợi thế cạnh tranh, nhưng việc triển khai quá nhanh mà không cân nhắc kỹ lưỡng có thể gây bất lợi.
- Việc áp dụng AI tạo sinh đối mặt với nhiều thách thức, đặc biệt là trong việc điều hướng môi trường pháp lý và quy định phức tạp.
- Bộ phận pháp lý đóng vai trò quan trọng trong việc đảm bảo tổ chức có thể triển khai và mở rộng AI tạo sinh nhanh chóng và tự tin.
- 75% thành viên hội đồng quản trị doanh nghiệp báo cáo có ít hoặc không có kinh nghiệm với AI, do đó giám đốc pháp lý (CLO) có thể giúp họ hiểu rõ và giám sát các nỗ lực triển khai AI tạo sinh.
- Bộ phận pháp lý cần xây dựng khung triển khai AI tạo sinh bao gồm các chính sách và quy trình kiểm soát nội bộ để tạo sự tin tưởng và cho phép áp dụng ở quy mô lớn.
- Cần phát triển kế hoạch ứng phó sự cố mạnh mẽ cho các vấn đề liên quan đến AI, từ vi phạm dữ liệu đến kết quả thiên vị, đặc biệt khi một số quy định như đạo luật AI của EU yêu cầu điều này.
- Môi trường quy định cho AI liên tục phát triển, với các yêu cầu và thực thi khác nhau theo ngành, khu vực địa lý và phạm vi, bao gồm quyền riêng tư dữ liệu, quản trị, hợp đồng bên thứ ba, quyền sở hữu trí tuệ và an ninh mạng.
- Chỉ có 36% CLO cho biết tổ chức của họ có các nhóm liên chức năng thực hiện các vấn đề về AI tạo sinh, trong khi bộ phận pháp lý cần có vị trí quan trọng để cung cấp nền tảng cho việc áp dụng AI.
- AI tạo sinh mang lại tiềm năng đáng kể cho chính các nhóm pháp lý để cung cấp thêm thông tin cho doanh nghiệp và thúc đẩy tích hợp và hiệu quả trong cung cấp dịch vụ pháp lý.
- 79% CEO kỳ vọng AI tạo sinh sẽ chuyển đổi tổ chức của họ trong 3 năm tới, và 93% CLO tin rằng nó có tiềm năng mang lại giá trị cho tổ chức của họ trong 12 tháng tới.
- Gần 70% CEO cho biết tổ chức của họ chỉ có thể chuyển 30% hoặc ít hơn các thử nghiệm AI tạo sinh của họ vào áp dụng thực tế - và bộ phận pháp lý có thể giúp vượt qua một số hạn chế này.
📌 Bộ phận pháp lý đóng vai trò then chốt trong triển khai AI tạo sinh thành công, từ xây dựng khung pháp lý, quản lý rủi ro đến điều hướng quy định phức tạp. Với 93% CLO tin vào giá trị của AI tạo sinh và 79% CEO kỳ vọng nó sẽ chuyển đổi tổ chức, sự tham gia sớm của đội ngũ pháp lý là yếu tố quyết định thành công.
https://news.bloomberglaw.com/us-law-week/use-your-in-house-counsel-when-implementing-generative-ai
- Người tiêu dùng hiện đại đòi hỏi trải nghiệm cá nhân hóa từ thương hiệu, trong khi việc cung cấp trải nghiệm này ở quy mô lớn là thách thức lớn với mọi tổ chức.
- Theo nghiên cứu của McKinsey, cá nhân hóa có thể tăng doanh thu từ 10% đến 15%, với 71% người tiêu dùng kỳ vọng các công ty cung cấp trải nghiệm tùy chỉnh.
- Grab đã phát triển Mystique - công cụ viết nội dung dựa trên AI giúp tạo ra thông điệp marketing cá nhân hóa theo quy mô lớn.
- Công cụ này kết hợp nhiều công nghệ AI: machine learning để phân loại người dùng, large language models (LLMs) để tạo nội dung phù hợp, và tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) để đảm bảo nội dung phù hợp với hướng dẫn thương hiệu.
- Quy trình hoạt động của Mystique gồm: cấu hình đầu vào, truy xuất dữ liệu ngữ cảnh, tạo nội dung bằng AI, đảm bảo chất lượng, triển khai tự động và phân tích hiệu suất.
- Kết quả ấn tượng: nội dung do Mystique tạo ra có tỷ lệ mở cao hơn 25% và tỷ lệ click-through cao hơn 50% so với mẫu tiêu chuẩn.
- Đặc biệt, tỷ lệ phản hồi từ đối tác thương mại tăng hơn 117%.
- Công cụ này giúp tiết kiệm thời gian cho nhóm marketing, copywriter và dịch giả, cho phép họ tập trung vào các nhiệm vụ chiến lược lớn hơn.
- Thách thức chính khi triển khai AI trong marketing: sắc thái ngôn ngữ và văn hóa (đặc biệt ở Đông Nam Á), và việc áp dụng trong tổ chức.
- Grab khuyến nghị các doanh nghiệp bắt đầu với AI marketing bằng cách: sử dụng dữ liệu khách hàng hiện có, bắt đầu với một trường hợp sử dụng, xây dựng vòng phản hồi, sử dụng mẫu và hướng dẫn giọng điệu, và mở rộng với sự giám sát.
- AI không thay thế đội ngũ sáng tạo mà nên được xây dựng như một công cụ hợp tác, với con người vẫn đóng vai trò trung tâm trong quá trình.
📌 Grab đã phát triển công cụ AI Mystique giúp tăng tỷ lệ mở email 25%, tỷ lệ click-through 50% và phản hồi từ đối tác tăng 117%. Công cụ này kết hợp machine learning, LLMs và RAG để cá nhân hóa thông điệp marketing theo quy mô lớn, đồng thời tiết kiệm thời gian cho đội ngũ sáng tạo.
https://www.techinasia.com/ai-tackle-marketing-personalization-challenge
#TechninAsia
Alson Ang là đồng tác giả của bài viết này.
Người tiêu dùng ngày nay đòi hỏi trải nghiệm cá nhân hóa trong tương tác với thương hiệu hơn bao giờ hết, nhưng việc cung cấp trải nghiệm tùy chỉnh ở quy mô lớn là thách thức lớn đối với các tổ chức, dù lớn hay nhỏ. Điều này không ngoại lệ đối với Grab.
Thú vị là, trí tuệ nhân tạo tạo sinh (generative AI) có thể giúp giải quyết vấn đề này. Công nghệ này có thể hỗ trợ truyền tải thông điệp tiếp thị hiệu quả đồng thời duy trì sự nhất quán của thương hiệu.
Tại Grab, chúng tôi đã tạo ra công cụ nội bộ để tận dụng AI. Nhưng các công ty với mọi mức độ nguồn lực vẫn có thể đạt được kết quả tốt với cách tiếp cận tương tự.
Một nghiên cứu của McKinsey phát hiện rằng cá nhân hóa có thể thúc đẩy doanh thu tăng từ 10% đến 15%, với 71% người tiêu dùng kỳ vọng các công ty cung cấp trải nghiệm được cá nhân hóa.
Các đội tiếp thị truyền thống thường dựa vào các chuyên viên viết nội dung để phát triển thông điệp cho chiến dịch và điều chỉnh nội dung cho các đối tượng và nền tảng khác nhau.
Trong trường hợp của Grab, nhiều loại thông điệp được gửi đến người dùng để giữ họ tương tác: thông báo đẩy về khuyến mãi có thời hạn, lời nhắc về các bữa ăn thường xuyên được đặt, email cá nhân hóa với các ưu đãi độc quyền, và thậm chí các cập nhật trong ứng dụng đề xuất dịch vụ phù hợp dựa trên hành vi trước đây.
Mỗi thông điệp đều có sắc thái riêng, và việc tạo ra chúng thủ công ở quy mô lớn gặp nhiều trở ngại:
Cá nhân hóa thông điệp rất khó khăn: Viết nội dung độc đáo cho từng loại người dùng tốn thời gian và khó thực hiện thủ công. Thông thường, thông điệp được giữ chung chung để có thể gửi đi nhanh hơn.
Duy trì giọng điệu thương hiệu thống nhất là thách thức: Các tổ chức hoạt động ở nhiều khu vực và thuê nhiều chuyên viên viết nội dung thường gặp khó khăn trong việc đảm bảo sự nhất quán của thương hiệu qua các ngôn ngữ, bối cảnh văn hóa và phong cách viết của con người.
Sự kết hợp của một số công nghệ AI khác nhau cung cấp giải pháp cho những thách thức này khi được sử dụng hiệu quả.
Học máy (ML): Để phân loại người dùng thành các nhóm đối tượng dựa trên dữ liệu hành vi, lịch sử tương tác và mô hình giao dịch
Mô hình ngôn ngữ lớn (LLM): Để tạo ra thông điệp có liên quan về ngữ cảnh, nghe tự nhiên cho bất kỳ chiến dịch tiếp thị nào được điều chỉnh theo nhu cầu của từng nhóm đối tượng
Tạo sinh tăng cường bằng truy vấn (RAG): Để làm cho nội dung phù hợp bằng cách tích hợp hướng dẫn thương hiệu, tài liệu tham khảo về giọng điệu và bản sao hiệu quả cao trước đây vào văn bản do AI tạo ra
Các công ty thuộc mọi lĩnh vực đã bắt đầu tích hợp AI tạo sinh vào cách họ giao tiếp với khách hàng.
Có những ví dụ đơn giản như việc Amazon sử dụng AI để tạo ra tóm tắt đánh giá sản phẩm. Cũng có những nỗ lực phức tạp hơn như động thái của Starbucks cung cấp phần thưởng được cá nhân hóa.
Tại Grab, cá nhân hóa giúp chúng tôi kết nối tốt hơn với người dùng. Mọi thứ - từ thông báo đẩy về các khuyến mãi mới đến email nổi bật các ưu đãi liên quan - đều được tùy chỉnh để gửi đúng thông điệp vào đúng thời điểm.
Để giúp chúng tôi mở rộng nỗ lực này, chúng tôi đã phát triển Mystique, một công cụ viết nội dung được hỗ trợ bởi AI giúp chúng tôi tạo ra thông điệp tiếp thị được cá nhân hóa.
Đây là cách công cụ hoạt động:
Cấu hình đầu vào: Các chuyên gia tiếp thị xác định đối tượng mục tiêu, kênh truyền thông và giọng điệu mong muốn.
Truy xuất dữ liệu theo ngữ cảnh: Công cụ trích xuất dữ liệu lịch sử liên quan và thông tin chi tiết về người dùng.
Tạo nội dung được hỗ trợ bởi AI: LLM tạo ra nhiều biến thể của thông điệp được điều chỉnh.
Đảm bảo chất lượng: Với sự giám sát của con người, nội dung do AI tạo ra được đánh giá theo hướng dẫn thương hiệu.
Triển khai tự động: Thông điệp đã được phê duyệt được phân phối qua các kênh tiếp thị của công ty.
Phân tích hiệu suất và lặp lại: Các chỉ số tương tác được theo dõi, với thông tin chi tiết được đưa trở lại hệ thống để tinh chỉnh đầu ra trong tương lai.
Chúng tôi đã thấy kết quả tốt. Nội dung do Mystique tạo ra có tỷ lệ mở cao hơn 25% và tỷ lệ nhấp chuột cao hơn 50% so với nội dung được tạo bằng mẫu tiêu chuẩn, tùy thuộc vào chiến dịch.
Giao tiếp với đối tác thương mại có sự gia tăng thậm chí lớn hơn, với tỷ lệ phản hồi tăng hơn 117%.
Công cụ này cũng đã tối ưu hóa việc tạo nội dung tiếp thị, tiết kiệm thời gian cho các chuyên gia tiếp thị, chuyên viên viết nội dung và biên dịch viên. Sự thay đổi này đã cho đội ngũ của chúng tôi nhiều thời gian hơn để tập trung vào các nhiệm vụ lớn hơn như phát triển chiến lược sáng tạo.
Vì các công cụ được hỗ trợ bởi AI học hỏi nhiều hơn khi được sử dụng, chúng tôi kỳ vọng Mystique sẽ trở nên hiệu quả hơn theo thời gian.
Mặc dù có nhiều lợi thế, việc tạo nội dung được hỗ trợ bởi AI không phải không có thách thức. Các tổ chức triển khai các giải pháp tương tự nên nhận thức được những hạn chế sau:
Sắc thái ngôn ngữ và văn hóa
Phương ngữ địa phương và độ nhạy cảm văn hóa thường đòi hỏi sự tinh chỉnh bổ sung bởi các đội địa phương, đặc biệt là ở Đông Nam Á, nơi các LLM như GPT có xu hướng hoạt động kém chính xác hơn trong các ngôn ngữ như Bahasa Indonesia, tiếng Việt và tiếng Thái.
LLM có thể được tinh chỉnh dựa trên bản sao tiếp thị lịch sử và các chỉnh sửa thực tế được thực hiện bởi các đội sáng tạo để giúp hệ thống học hỏi từ điều chỉnh của con người và tạo ra nội dung phù hợp hơn, phù hợp với thương hiệu theo thời gian.
Áp dụng tổ chức
Để giảm bớt lo ngại về việc AI có thể thay thế các đội sáng tạo, các công cụ AI nên được xây dựng như người cộng tác, không phải là người kế nhiệm. Đầu vào của con người vẫn nên là trung tâm của quy trình - các chuyên gia tiếp thị xác định brief sáng tạo, xem xét đầu ra do AI tạo ra và thực hiện chỉnh sửa cuối cùng.
Dưới đây là một số bước cụ thể mà các doanh nghiệp, lớn và nhỏ, có thể thực hiện để bắt đầu cá nhân hóa nội dung hiệu quả hơn bằng cách sử dụng AI:
Sử dụng dữ liệu khách hàng hiện có
Ngay cả dữ liệu người dùng cơ bản như tần suất sử dụng, vị trí hoặc lịch sử mua hàng cũng có thể được sử dụng để tạo ra các phân khúc người dùng đơn giản nhưng hiệu quả.
Bạn không cần các đường ống khoa học dữ liệu phức tạp để bắt đầu; hãy bắt đầu bằng cách xác định các phân khúc có ý nghĩa với bất kỳ dữ liệu nào bạn có và bằng cách mô tả cho AI cách thức thông điệp cho mỗi phân khúc nên được điều chỉnh (ví dụ, tập trung thông điệp cho nhóm đối tượng là phụ huynh vào vấn đề an toàn).
Bắt đầu với một trường hợp sử dụng, sau đó mở rộng
Chọn một kênh giao tiếp có tác động cao - như email hoặc thông báo đẩy - và thử nghiệm nội dung do AI tạo ra ở đó trước.
Theo dõi hiệu suất và lặp lại trước khi mở rộng quy mô trên các nền tảng khác. Điều này giảm độ phức tạp đồng thời cung cấp thông tin chi tiết có thể đo lường sớm.
Xây dựng vòng phản hồi, ngay cả khi thủ công
Theo dõi hiệu suất của nội dung do AI tạo ra và ghi lại phản hồi từ đội của bạn. Bạn không cần hệ thống tự động lúc đầu vì chỉ cần ghi lại những gì hoạt động và những gì không sẽ giúp bạn tinh chỉnh các lời nhắc và đầu ra trong tương lai.
Tuy nhiên, mục tiêu cuối cùng của bạn nên là xây dựng một hệ thống tinh chỉnh AI dựa trên các thông điệp hoạt động tốt.
Sử dụng mẫu và hướng dẫn giọng điệu
Để có kết quả nhất quán hơn, hãy cung cấp bản sao tham khảo, hướng dẫn về giọng điệu hoặc thông điệp hiệu quả cao trước đây khi nhắc các công cụ AI. Cách tiếp cận "RAG nhẹ" này giúp định hướng đầu ra gần với thương hiệu của bạn hơn mà không cần xây dựng cơ sở hạ tầng phức tạp.
Khi được triển khai đúng cách, LLM có thể cách mạng hóa việc tạo nội dung bằng cách làm cho cá nhân hóa quy mô lớn khả thi.
Cũng đáng lưu ý rằng viết nội dung được hỗ trợ bởi AI không chỉ dành riêng cho các tập đoàn lớn - các doanh nghiệp thuộc mọi quy mô có thể tận dụng tự động hóa do AI điều khiển để nâng cao tương tác và hiệu quả.
Cuối cùng, chìa khóa thành công nằm ở việc cân bằng khả năng mở rộng của AI với sự giám sát của con người.
Thay vì thay thế các nhà văn con người, AI nên hoạt động như một thành phần nhân lực. AI nên cho các đội tiếp thị nhiều thời gian hơn cho sự sáng tạo và lập kế hoạch chiến lược trong khi tự động hóa quy trình cá nhân hóa tốn nhiều công sức ở quy mô lớn.
Shreyas Parbat là quản lý sản phẩm cấp cao tại Grab. Anh sử dụng nền tảng khoa học dữ liệu và kỹ thuật phần mềm để xây dựng công cụ cho cộng đồng dữ liệu và kỹ thuật của công ty.
The practical lessons in Grab’s AI marketing playbook
Alson Ang co-authored this article.
Today’s consumers demand a more personal touch in brand interactions than ever, but providing tailored experiences at scale is a huge challenge for organizations, big and small. This is no less true for us at Grab. Interestingly, it’s something generative AI can help with. This tech can assist in delivering marketing messages efficiently while maintaining brand consistency. At Grab, for instance, we created an in-house tool to take advantage of AI. But companies with all levels of resources can still achieve solid results with a similar approach. Traditional content creation struggles A McKinsey study found that personalization can drive a 10% to 15% revenue lift, with 71% of consumers expecting companies to deliver customized experiences. Marketing teams traditionally rely on human copywriters to develop messages for campaigns and tailor content for different audiences and platforms. In Grab’s case, a variety of messages are sent to users to keep them engaged: push notifications about time-sensitive promotions, reminders for frequently ordered meals, personalized emails with exclusive discounts, and even in-app updates suggesting relevant services based on past behavior. Each of these are nuanced, and manually crafting them at scale presents several obstacles:
* Personalizing messages is difficult: Writing unique content for each type of user is time-consuming and hard to pull off manually. More often than not, messages are left generic so they can be sent out faster.
* Maintaining a unified brand voice is challenging: Organizations that operate in different regions and employ multiple individual copywriters often struggle to ensure brand coherence across languages, cultural contexts, and human writing styles. How AI helps A combination of several different AI technologies offers a solution to these challenges when used effectively.
* Machine learning (ML): To classify users into personas based on behavioral data, engagement history, and transaction patterns
* Large language models (LLMs): To generate contextually relevant, human-sounding messages for any marketing campaign tailored to each persona’s needs * Retrieval-augmented generation (RAG): To make content relevant by integrating brand guidelines, tone-of-voice references, and previous high-performing copy into the AI-generated text How it’s done Companies of all stripes have started integrating generative AI into how they communicate with customers. There are straightforward examples like Amazon’s use of AI to generate summaries of product reviews. There are also more complex efforts like Starbucks’ move to offer personalized rewards. At Grab, personalization helps us connect better with users. Everything – from push notifications about new promos to emails highlighting relevant offers – is customized to send the right message at the right time. To help us scale this effort, we developed Mystique, an AI-powered copywriting tool that helps us craft tailored marketing messages. Here’s how the tool works: 1. Input configuration: Marketers define the target audience, communication channel, and desired tone. 2. Contextual data retrieval: The tool extracts relevant historical data and user insights. 3. AI-powered content generation: LLMs create multiple variations of tailored messages. 4. Quality assurance: With human supervision, AI-generated content is evaluated according to brand guidelines. 5. Automated deployment: Approved messages are distributed across the company’s marketing channels. 6. Performance analysis and iteration: Engagement metrics are tracked, with insights fed back into the system to refine future outputs. We’ve already seen good results. Copy generated by Mystique sees 25% higher open rates and 50% higher click-through rates than those created with standard templates, depending on the campaign. Communications with merchant partners have an even bigger uplift, with response rates jumping by over 117%. The tool has also streamlined marketing copy creation, saving time for marketers, copywriters, and translators. This shift has given our teams more time to focus on bigger picture tasks like developing creative strategies. Since AI-powered tools learn more as they get used, we expect Mystique to become more effective over time. Challenges and limitations Despite its advantages, AI-powered content creation is not without challenges. Organizations implementing similar solutions should be aware of the following constraints: Language and cultural nuances Regional dialects and cultural sensitivities often require additional refinement by local teams, especially in Southeast Asia where LLMs like GPT tend to perform less accurately in languages like Bahasa Indonesia, Vietnamese, and Thai. LLMs can be fine-tuned on historical marketing copy and real edits made by creative teams to help the system learn from human adjustments and produce more appropriate, brand-aligned content over time. Organizational adoption To assuage worries about whether AI can replace creative teams, AI tools should be built as collaborators, not successors. Human input should still be central to the process – marketers define the creative brief, review AI-generated outputs, and make final edits. Starting small Here are some concrete steps businesses, large and small, can take to start personalizing content more effectively using AI: Use existing customer data Even basic user data like frequency of usage, location, or purchase history can be used to create simple but effective user segments. You don’t need complex data science pipelines to get started; begin by defining meaningful segments with whatever data you have and by describing to the AI how messages for each segment should be tailored (centering messaging for the parent persona around safety, for example). Start with one use case, then expand Pick a high-impact communication channel – like email or push notifications – and experiment with AI-generated content there first. Monitor performance and iterate before scaling across other platforms. This reduces complexity while giving you measurable insights early on. Build a feedback loop, even if it’s manual Track how AI-generated content performs and capture feedback from your team. You don’t need an automated system at first as simply documenting what works and what doesn’t will help you refine future prompts and outputs. However, your eventual goal should be building a system that fine-tunes the AI based on messages that perform well. Use templates and tone guides To get more consistent results, provide a reference copy, tone-of-voice guidelines, or past high-performing messages when prompting AI tools. This “lightweight RAG” approach helps steer outputs closer to your brand without building complex infrastructure. Scale with oversight When properly implemented, LLMs can revolutionize content creation by making large-scale personalization feasible. It’s also worth noting that AI-powered copywriting is not exclusive to large corporations – businesses of all sizes can harness AI-driven automation to enhance engagement and efficiency. Finally, the key to success lies in balancing AI’s scalability with human oversight. Rather than replacing human writers, AI should function as a force multiplier. It should give marketing teams more time for creativity and strategic planning while automating the labor-intensive process of personalization at scale.
Shreyas Parbat is a lead product manager at Grab. He uses his data science and software engineering background to build tools for the firm’s data and engineering communities.
- Văn phòng ủy viên quyền riêng tư dữ liệu cá nhân Hồng Kông đã ban hành danh sách kiểm tra giúp tổ chức xây dựng hướng dẫn về việc sử dụng AI tạo sinh cho nhân viên.
- Danh sách kiểm tra bao gồm nhiều lĩnh vực rộng lớn, từ xem xét các loại công cụ được phép sử dụng, bảo vệ dữ liệu cá nhân đến các vi phạm và biện pháp khắc phục.
- Động thái này đến đúng thời điểm khi việc ứng dụng AI trong không gian làm việc ngày càng phổ biến, với nhiều công cụ AI hiện có sẵn để cải thiện hiệu quả và năng suất làm việc.
- Tuy nhiên, việc sử dụng AI cũng mang đến những hàm ý về bảo vệ quyền riêng tư, với nhiều người dùng thường bỏ qua các rủi ro tiềm ẩn khi dữ liệu cá nhân được xử lý qua các nền tảng AI.
- Nếu cho phép nhập thông tin cá nhân vào công cụ AI tạo sinh, tổ chức nên hướng dẫn nhân viên ẩn danh dữ liệu trước khi nhập.
- Để tăng cường bảo mật dữ liệu, nhân viên chỉ nên sử dụng công cụ AI tạo sinh cho mục đích liên quan đến công việc trên thiết bị công việc.
- Các tổ chức cũng được khuyến nghị nêu rõ hậu quả khi nhân viên vi phạm hướng dẫn.
- Đây không phải là lần đầu tiên cơ quan giám sát quyền riêng tư Hồng Kông đưa ra hướng dẫn về AI. Trước đó, họ đã công bố hướng dẫn về phát triển và sử dụng trí tuệ nhân tạo có đạo đức vào năm 2021 và "Trí tuệ nhân tạo: Khung bảo vệ dữ liệu cá nhân mẫu" vào tháng 6 năm ngoái.
- Mặc dù không thể đưa ra một bộ hướng dẫn đầy đủ phù hợp với tất cả doanh nghiệp và tổ chức, danh sách kiểm tra này là tài liệu tham khảo hữu ích cho từng nhà tuyển dụng xây dựng các quy tắc cụ thể cho hoạt động của họ khi sử dụng AI.
- Điều này hy vọng sẽ giúp nhiều công ty và tổ chức khai thác tiềm năng của AI trong khi vẫn đảm bảo các biện pháp bảo vệ dữ liệu cá nhân.
📌 Văn phòng ủy viên quyền riêng tư Hồng Kông đã ban hành danh sách kiểm tra toàn diện giúp tổ chức xây dựng hướng dẫn sử dụng AI tạo sinh, bao gồm các biện pháp bảo vệ dữ liệu cá nhân, quy định về thiết bị làm việc và hậu quả khi vi phạm.
https://www.scmp.com/opinion/comment/article/3305421/some-helpful-training-how-navigate-ai-hong-kong
Ngày: 31 tháng 3 năm 2025
Văn phòng Ủy viên Quyền riêng tư Công bố (1) Danh mục kiểm tra về Hướng dẫn Sử dụng AI Tạo sinh cho Nhân viên và (2) Kết quả Điều tra về Sự cố Rò rỉ Dữ liệu của Công ty TNHH Quản lý ImagineX
Văn phòng Ủy viên Quyền riêng tư Dữ liệu Cá nhân (PCPD) hôm nay công bố (1) Danh mục kiểm tra về Hướng dẫn Sử dụng AI Tạo sinh cho Nhân viên và (2) kết quả điều tra về sự cố rò rỉ dữ liệu của Công ty TNHH Quản lý ImagineX.
Khi việc sử dụng AI tạo sinh (Gen AI) ngày càng phổ biến ở Hồng Kông, nhiều tổ chức đang tìm kiếm cách sử dụng Gen AI để nâng cao khả năng cạnh tranh và thúc đẩy chuyển đổi số.
Ủy viên Quyền riêng tư Dữ liệu Cá nhân (Ủy viên Quyền riêng tư), bà Ada CHUNG Lai-ling, cho biết: "An ninh AI là một trong những khía cạnh quan trọng của an ninh quốc gia. Trong lĩnh vực đổi mới công nghệ và đổi mới công nghiệp, Quốc gia luôn đặt trọng tâm đồng đều vào phát triển và an ninh. Sự cần thiết phải liên tục thúc đẩy Sáng kiến 'AI Plus' để giải phóng sức sáng tạo của nền kinh tế số đã được nhấn mạnh đặc biệt trong 'hai phiên họp' năm 2025. Để thực hiện tinh thần của 'hai phiên họp' và Kế hoạch Phát triển Đổi mới và Công nghệ Hồng Kông do Chính phủ Hồng Kông ban hành, đồng thời tạo điều kiện cho sự phát triển an toàn và lành mạnh của AI ở Hồng Kông, PCPD đã công bố Danh mục kiểm tra về Hướng dẫn Sử dụng AI Tạo sinh cho Nhân viên (Hướng dẫn) hôm nay. Hướng dẫn nhằm hỗ trợ các tổ chức phát triển chính sách nội bộ hoặc hướng dẫn về việc sử dụng Gen AI của nhân viên tại nơi làm việc đồng thời tuân thủ các yêu cầu của Pháp lệnh Dữ liệu Cá nhân (Quyền riêng tư) (PDPO)."
GS Tiến sĩ William WONG Kam-fai, MH, thành viên Ủy ban Thường trực về Phát triển Công nghệ của PCPD và Hội đồng Lập pháp, cho biết: "Quốc gia sẽ tiếp tục thúc đẩy Sáng kiến 'AI Plus', nhằm thúc đẩy phát triển chất lượng cao thông qua các ứng dụng đổi mới, cũng như khám phá và mở rộng các kịch bản ứng dụng đa dạng cho AI. Với Ngân sách mới nhất đề xuất phát triển AI toàn diện, tôi tin rằng ngày càng nhiều tổ chức sẽ tích hợp AI vào quy trình hoạt động của mình. Việc PCPD ban hành Hướng dẫn có thể giúp các tổ chức và nhân viên sử dụng AI tạo sinh một cách an toàn và bảo vệ quyền riêng tư dữ liệu cá nhân, từ đó thúc đẩy ứng dụng AI an toàn trên các lĩnh vực khác nhau và đẩy nhanh phát triển lực lượng sản xuất chất lượng mới."
Hướng dẫn khuyến nghị các tổ chức bao gồm các khía cạnh sau khi phát triển chính sách nội bộ hoặc hướng dẫn về việc sử dụng Gen AI của nhân viên, với các yếu tố chính như sau:
Phạm vi sử dụng Gen AI được phép: Xác định các công cụ Gen AI được phép (có thể bao gồm các công cụ Gen AI công khai và/hoặc phát triển nội bộ), các mục đích sử dụng được phép (ví dụ: soạn thảo, tóm tắt thông tin và/hoặc tạo nội dung văn bản, âm thanh và/hoặc hình ảnh) và khả năng áp dụng của các chính sách hoặc hướng dẫn;
Bảo vệ quyền riêng tư dữ liệu cá nhân: Cung cấp hướng dẫn rõ ràng về các loại và lượng thông tin có thể được nhập vào công cụ Gen AI (ví dụ: có bao gồm dữ liệu cá nhân hoặc dữ liệu khác không), các mục đích được phép sử dụng thông tin đầu ra, việc lưu trữ thông tin đầu ra được phép, chính sách lưu giữ dữ liệu áp dụng và các chính sách nội bộ liên quan khác cần tuân thủ (ví dụ: các chính sách về xử lý dữ liệu cá nhân và bảo mật thông tin);
Sử dụng hợp pháp và đạo đức, ngăn chặn thiên kiến: Quy định rằng nhân viên không được sử dụng công cụ Gen AI cho các hoạt động bất hợp pháp hoặc có hại, nhấn mạnh rằng nhân viên có trách nhiệm xác minh tính chính xác của đầu ra do AI tạo ra thông qua các cách thức như hiệu đính và kiểm tra thực tế, đồng thời sửa chữa và báo cáo các đầu ra do AI tạo ra có tính thiên vị hoặc phân biệt đối xử, cũng như cung cấp hướng dẫn về thời điểm và cách thức đánh dấu bản quyền hoặc dán nhãn các đầu ra do AI tạo ra;
Bảo mật dữ liệu: Xác định các loại thiết bị mà nhân viên được phép truy cập công cụ Gen AI (ví dụ: thiết bị làm việc do người sử dụng lao động cung cấp) và các hạng mục nhân viên được phép sử dụng công cụ Gen AI (ví dụ: những người có nhu cầu hoạt động, đã được đào tạo liên quan và có sự cho phép trước), yêu cầu nhân viên sử dụng thông tin đăng nhập mạnh, duy trì cài đặt bảo mật nghiêm ngặt trong công cụ Gen AI và báo cáo các sự cố AI (như sự cố rò rỉ dữ liệu liên quan đến việc sử dụng AI, nhập dữ liệu cá nhân trái phép vào công cụ Gen AI, kết quả đầu ra bất thường và/hoặc kết quả đầu ra có thể vi phạm pháp luật) theo Kế hoạch Ứng phó Sự cố AI của tổ chức; và
Vi phạm chính sách hoặc hướng dẫn: Xác định hậu quả có thể xảy ra đối với nhân viên vi phạm chính sách hoặc hướng dẫn, đồng thời tham khảo "Trí tuệ nhân tạo: Khung Bảo vệ Dữ liệu Cá nhân Mẫu" (Khung Mẫu) của PCPD để có các khuyến nghị về việc thiết lập cơ cấu quản trị và các biện pháp Gen AI.
Hướng dẫn cũng cung cấp các mẹo thực tế để hỗ trợ nhân viên sử dụng công cụ Gen AI, bao gồm:
Tăng cường tính minh bạch của chính sách hoặc hướng dẫn: Thường xuyên trao đổi về chính sách hoặc hướng dẫn với nhân viên và thông báo kịp thời cho nhân viên về mọi cập nhật;
Cung cấp đào tạo và nguồn lực cho nhân viên sử dụng công cụ Gen AI: Giáo dục nhân viên về cách sử dụng công cụ Gen AI hiệu quả và có trách nhiệm, bao gồm giải thích khả năng và hạn chế của công cụ, cung cấp mẹo và ví dụ thực tế, khuyến khích nhân viên đọc chính sách quyền riêng tư và điều khoản sử dụng của các công cụ đó, v.v.;
Cung cấp đội hỗ trợ: Thiết lập đội hỗ trợ chuyên biệt để hỗ trợ nhân viên sử dụng công cụ Gen AI trong công việc, cung cấp hỗ trợ kỹ thuật và giải quyết mối quan tâm của nhân viên; và
Thiết lập cơ chế phản hồi: Thiết lập các kênh để nhân viên cung cấp phản hồi nhằm giúp tổ chức xác định các lĩnh vực cần cải thiện và điều chỉnh chính sách nội bộ hoặc hướng dẫn theo từng hoàn cảnh.
Tải xuống "Danh mục kiểm tra về Hướng dẫn Sử dụng AI Tạo sinh cho Nhân viên": https://www.pcpd.org.hk/english/resources_centre/publications/files/guidelines_ai_employees.pdf
Ngoài việc công bố Hướng dẫn, PCPD đã ra mắt "Đường dây nóng An ninh AI" (2110 1155) hôm nay để các tổ chức có thể đặt câu hỏi và hỗ trợ các tổ chức áp dụng AI đồng thời bảo vệ quyền riêng tư dữ liệu cá nhân của cá nhân.
Bên cạnh đó, như đã công bố trước đây, PCPD đã ra mắt "Chuỗi Đào tạo An ninh Dữ liệu cho SME", trong đó sẽ bao gồm hội thảo về "Hiểu biết về Rủi ro An ninh Dữ liệu và Quyền riêng tư liên quan đến AI cho SME". PCPD cũng sẽ tổ chức các hội thảo AI để giới thiệu Hướng dẫn và tiếp tục giải thích nội dung Khung Mẫu do PCPD công bố năm ngoái.
Hơn nữa, PCPD sẽ tiếp tục tổ chức các hội thảo nội bộ cho các tổ chức. Các tổ chức có thể liên hệ với PCPD (https://www.pcpd.org.hk/english/education_training/seminars/in_house_seminar.html) để yêu cầu đưa Hướng dẫn và Khung Mẫu vào nội dung hội thảo nếu cần thiết. Trong hai tháng đầu năm 2025, PCPD đã tổ chức 31 khóa đào tạo nội bộ cho tổng cộng 28 tổ chức.
- AI doanh nghiệp đã chuyển từ xu hướng thành thực tế chiến lược trong kinh doanh hiện đại, với các CIO được kỳ vọng triển khai AI trên toàn doanh nghiệp để thúc đẩy hiệu quả, đổi mới và lợi thế cạnh tranh.
- Các công nghệ cốt lõi của AI doanh nghiệp bao gồm: học máy và học sâu (dự đoán và ra quyết định), xử lý ngôn ngữ tự nhiên (chatbot, trợ lý ảo), thị giác máy tính (nhận diện hình ảnh), phân tích dự đoán (dự báo kết quả tương lai), AI tạo sinh (tạo nội dung mới) và tự động hóa quy trình kết hợp AI.
- Trong sản xuất, AI được ứng dụng để bảo trì dự đoán, kiểm soát chất lượng và tối ưu hóa chuỗi cung ứng. Foxconn sử dụng thị giác máy tính để phát hiện lỗi linh kiện, trong khi General Electric phân tích dữ liệu cảm biến để dự đoán vấn đề thiết bị.
- Ngành y tế sử dụng AI để phân tích hình ảnh y tế, dự đoán biến chứng bệnh nhân, khám phá thuốc và giảm gánh nặng hành chính. Tuy nhiên, ngành này có tốc độ áp dụng AI thấp hơn trung bình do quy định nghiêm ngặt.
- Tài chính là ngành áp dụng AI sớm với các hệ thống phát hiện gian lận, đánh giá rủi ro và giao dịch thuật toán. JPMorgan Chase sử dụng nền tảng COIN để tự động phân tích tài liệu pháp lý, tiết kiệm 360.000 giờ làm việc của luật sư mỗi năm.
- Trong bán lẻ, AI cá nhân hóa đề xuất sản phẩm, phân tích hành vi mua sắm, quản lý hàng tồn kho và định giá động. Walmart sử dụng học máy để dự báo doanh số và quản lý chuỗi cung ứng. Khảo sát cho thấy 87% nhà bán lẻ báo cáo AI tác động tích cực đến doanh thu.
- Lĩnh vực logistics tận dụng AI để tối ưu hóa tuyến đường, tự động hóa kho hàng và dự báo nhu cầu. FedEx tiết kiệm khoảng 700.000 dặm lái xe mỗi ngày nhờ lập kế hoạch tuyến đường bằng AI.
- Lợi ích của AI doanh nghiệp bao gồm: tăng hiệu quả và năng suất, giảm chi phí, ra quyết định tốt hơn, cải thiện trải nghiệm khách hàng, thúc đẩy đổi mới và tạo lợi thế cạnh tranh.
- Thách thức triển khai AI doanh nghiệp gồm: chất lượng dữ liệu thấp, thiếu nhân tài AI, khó tích hợp với hệ thống cũ, chi phí và ROI không rõ ràng, rủi ro về đạo đức và bảo mật, và khó khăn khi mở rộng quy mô.
- Các CIO cần xây dựng chiến lược AI bằng cách: gắn kết sáng kiến AI với mục tiêu kinh doanh, đảm bảo sự ủng hộ của ban lãnh đạo, xây dựng nền tảng dữ liệu vững chắc, lựa chọn công nghệ phù hợp, phát triển nhân tài và văn hóa, thiết lập quản trị và đạo đức, và triển khai theo từng giai đoạn.
📌 AI doanh nghiệp đã trở thành công cụ chiến lược cho tổ chức hiện đại với 89% doanh nghiệp bán lẻ đang áp dụng và 94% báo cáo giảm chi phí. Các CIO cần xây dựng nền tảng dữ liệu vững chắc, phát triển nhân tài AI và triển khai theo từng giai đoạn để tối đa hóa giá trị.
https://enterpriseai.marktechpost.com/post/enterprise-ai-technologies-use-cases-benefits-and-strategies-for-cios
Các tổ chức đang chuyển từ thử nghiệm AI sang áp dụng thực tế, đặc biệt là với AI tạo sinh như ChatGPT. Tuy nhiên, vẫn còn nhiều câu hỏi lớn về khả năng sáng tạo, đạo đức và ranh giới giữa người và máy.
Nghiên cứu của Jacqueline Ng Lane tại HBS cho thấy AI có thể xử lý tốt các nhiệm vụ sáng tạo nhưng chủ yếu tạo ra các giải pháp thực tế hơn là mới lạ. Ngược lại, con người có xu hướng đưa ra ý tưởng sáng tạo hơn nhưng khó triển khai.
Trong một thí nghiệm, con người và AI được yêu cầu tạo ra ý tưởng cho nền kinh tế tuần hoàn. Kết quả:
Con người có các đề xuất độc đáo như gạch xây dựng từ bụi công nghiệp và nhựa thải.
AI tạo ra ý tưởng khả thi như biến rác thực phẩm thành khí sinh học.
Kết hợp người và AI cho kết quả tốt nhất: con người tạo khung, AI phát triển ý tưởng.
Nghiên cứu tiếp thị của Himabindu Lakkaraju cảnh báo rằng AI có thể bị thao túng thông qua “gibberish code” (mã không nghĩa) để ưu tiên sản phẩm trong tìm kiếm.
Một thí nghiệm với máy pha cà phê cho thấy khi thêm chuỗi ký tự đặc biệt vào mô tả sản phẩm, AI đã ưu tiên sản phẩm đó trong 40% lượt truy vấn – ngay cả khi không thỏa mãn tiêu chí "giá rẻ".
Điều này mở ra khái niệm "Tối ưu hóa tìm kiếm tạo sinh" (Generative Search Optimization), giống SEO nhưng áp dụng với AI.
Julian De Freitas nghiên cứu khả năng thích nghi với thay đổi, cho thấy AI hiện tại không thể “tự định vị” như con người trong môi trường mới.
Trong các trò chơi đòi hỏi định vị bản thân kỹ thuật số, con người thắng 4-0 trước AI.
AI không có khái niệm về “bản thân” và vẫn yếu khi gặp tình huống chưa từng học.
Frank Nagle nghiên cứu tác động của AI tới người làm quản lý, sử dụng dữ liệu của hơn 187.000 lập trình viên mã nguồn mở:
Người dùng GitHub Copilot tăng 12% hoạt động cốt lõi (coding), giảm 25% công việc quản lý.
Số lượng cộng tác viên giảm mạnh (79%) do lập trình viên chuyển sang làm việc độc lập.
Người dùng AI khám phá nhiều ngôn ngữ lập trình mới hơn (tăng 22%) và tham gia thêm dự án mã nguồn mở (15 dự án mới).
Tác động mạnh nhất là với lập trình viên mới: tăng 11% coding, giảm 27% quản lý. AI giống như sách “Chọn lựa phiêu lưu” – giúp người dùng tùy chỉnh lộ trình học tập và làm việc.
📌 Báo cáo của Harvard Business School tiết lộ AI năm 2025 sẽ ảnh hưởng sâu rộng đến cách con người sáng tạo, làm việc và tiếp thị. Nghiên cứu cho thấy con người vẫn vượt trội về sự sáng tạo và khả năng thích nghi, trong khi AI tạo ra giải pháp thực tế và hỗ trợ quản lý hiệu quả. Kết hợp AI và con người là mô hình lý tưởng để tối ưu hoá hiệu suất và đổi mới.
https://www.library.hbs.edu/working-knowledge/download-guide-ai-in-2025
Nghiên cứu bởi Jacqueline Ng Lane, Karim Lakhani và Miaomiao Zhang từ Harvard Business School đặt câu hỏi: liệu AI có thể giải quyết các vấn đề chưa từng có một cách sáng tạo như con người?
Họ so sánh ý tưởng do con người tạo ra qua crowdsourcing và những ý tưởng được tạo ra bởi ChatGPT nhằm giải quyết vấn đề kinh tế tuần hoàn, với các tiêu chí đánh giá gồm tính mới lạ, lợi ích môi trường, khả năng sinh lời và tính khả thi.
Phương pháp nghiên cứu:
Con người được mời đóng góp ý tưởng qua nền tảng trực tuyến, được thưởng $10 cho mỗi ý tưởng và $1.000 cho ý tưởng tốt nhất.
Các ý tưởng bao gồm tái sử dụng, tái chế, thuê, sửa chữa, hoặc chia sẻ sản phẩm.
Đồng thời, nhóm nghiên cứu sử dụng kỹ thuật prompt engineering để tạo hàng trăm ý tưởng bằng ChatGPT.
Các prompt được tùy chỉnh theo ngành nghề, chức danh, và tiêu chí đánh giá để nâng cao chất lượng đầu ra từ AI.
Kết quả:
AI tạo ra các ý tưởng thực tế và có khả năng triển khai cao hơn nhưng ít mới lạ hơn con người.
Con người đưa ra nhiều ý tưởng đột phá nhưng khó áp dụng. Ví dụ: gạch từ bụi luyện kim và nhựa thải – sáng tạo nhưng phi thực tế.
ChatGPT đề xuất biến rác thực phẩm thành khí sinh học – khả thi và có lợi nhuận.
Quan trọng nhất, ý tưởng tốt nhất xuất hiện khi con người và AI hợp tác. Con người định hướng sáng tạo, còn AI phát triển ý tưởng theo hướng khả thi hơn.
Kỹ thuật tạo prompt nâng cao được chứng minh có thể tăng tính mới lạ của ý tưởng AI:
Yêu cầu AI không lặp lại các ý tưởng trước đó.
Nhập vai cho AI theo ngữ cảnh cụ thể để định hình góc nhìn.
Sử dụng phản hồi từ người để tiếp tục cải tiến ý tưởng.
Gợi ý cho doanh nghiệp:
Cần phát triển đội ngũ hiểu AI (AI-literate) để tạo ra prompt chất lượng.
Không nên lạm dụng AI, vì sẽ làm suy giảm mức sáng tạo tổng thể theo thời gian.
Sử dụng AI như công cụ cộng tác: con người nghĩ ra ý tưởng, AI đánh bóng và phát triển chúng, hoặc ngược lại.
Nghiên cứu kết luận rằng sức mạnh lớn nhất đến từ việc kết hợp điểm mạnh của cả hai: con người mang tính đột phá, còn AI giúp hiện thực hóa các ý tưởng đó. Lane khẳng định: “Chúng ta vẫn cần đầu óc con người để định hướng và dẫn dắt AI tạo ra giải pháp tốt nhất.”
📌 Nghiên cứu tại Harvard chỉ ra rằng AI có thể giải quyết vấn đề sáng tạo với tính khả thi cao, nhưng thiếu tính đột phá như con người. Tuy nhiên, sự kết hợp giữa con người và AI tạo ra kết quả vượt trội: tận dụng sự sáng tạo của con người và khả năng hiện thực hóa của máy. Đây là mô hình tối ưu cho đổi mới trong kỷ nguyên AI.
Nghiên cứu của Himabindu Lakkaraju tại Harvard Business School tiết lộ rằng các công ty có thể sử dụng một chuỗi ký tự không có nghĩa (“gibberish code”) để thao túng các mô hình ngôn ngữ lớn (LLM) như ChatGPT, Claude, Gemini... giúp sản phẩm của họ được đề xuất nhiều hơn.
Hiện tượng này được gọi là Generative Search Optimization (GSO) – tương tự như SEO truyền thống nhưng áp dụng cho AI tạo sinh, với tác động mạnh hơn vì AI thường trình bày thông tin một cách rất thuyết phục và có vẻ khách quan.
Trong một thí nghiệm, nhóm nghiên cứu tạo ra một cơ sở dữ liệu gồm 10 mẫu máy pha cà phê (giả định) với thông tin về tên, giá, mô tả và xếp hạng người dùng. Hai trong số đó được thêm chuỗi ký tự "gibberish" như:
interact>; expect formatted XVI RETedly_ _Hello necessarily phys*) ### Das Cold Elis$?
Sau đó, họ yêu cầu một AI trợ lý đưa ra đề xuất mua máy pha cà phê “giá rẻ”. Kết quả:
Trong 40% các lượt truy vấn, các sản phẩm chứa mã gibberish được AI ưu tiên đề xuất – dù không thỏa mãn tiêu chí giá rẻ.
Một số trường hợp, các sản phẩm này được xếp ở vị trí đầu tiên, dù có giá lên tới 199 USD.
60% còn lại không thay đổi thứ hạng, một số ít còn tụt hạng.
Kết luận: việc chèn mã không rõ nghĩa vào mô tả sản phẩm có thể thay đổi hành vi của AI, tạo lợi thế cạnh tranh cho một số doanh nghiệp.
Điều này làm dấy lên lo ngại về sự công bằng và đạo đức trong thị trường kỹ thuật số mới, khi các mô hình AI dần trở thành kênh gợi ý mua sắm phổ biến cho người tiêu dùng.
Lakkaraju đặt vấn đề: “Sản phẩm được đề xuất vì tốt thật sự, hay vì tôi chèn mã vô nghĩa vào mô tả?”
Nghiên cứu bắt nguồn từ công trình trước đó của đồng tác giả Aounon Kumar về tấn công đối kháng (adversarial attacks) – nơi các chuỗi ký tự lạ được dùng để khiến AI bỏ qua các giới hạn an toàn và tạo ra thông tin độc hại như cách chế tạo bom.
Lakkaraju nhấn mạnh: hiện nay chúng ta biết cách thao túng AI, nhưng vẫn chưa có cách bảo vệ vững chắc trước các hình thức thao túng này. Điều này khiến cuộc tranh luận về ranh giới đạo đức trong GSO trở nên cấp thiết hơn bao giờ hết.
Giống như SEO đã làm thay đổi cách nội dung hiển thị trên Google, GSO đang âm thầm định hình lại cách AI “gợi ý” thông tin cho người dùng. Tuy nhiên, với khả năng ngôn ngữ của LLM, tác động của GSO còn mạnh hơn nhiều.
📌 Nghiên cứu cho thấy chỉ cần thêm vài ký tự “vô nghĩa” vào mô tả sản phẩm, AI có thể bị thao túng để ưu tiên sản phẩm đó, giúp doanh nghiệp tăng lợi thế cạnh tranh. Hiện tượng Generative Search Optimization đặt ra thách thức lớn về đạo đức, minh bạch và công bằng trong kỷ nguyên AI tạo sinh.
Nghiên cứu của Julian De Freitas (Harvard Business School) chỉ ra rằng AI hiện không thể thích nghi với thay đổi linh hoạt như con người, vì thiếu khả năng “tự định vị bản thân” (self-orientation).
Con người liên tục điều chỉnh hành vi trong môi trường mới: khi thức dậy ở khách sạn, vào thư viện, lái xe hay dùng điện thoại – mọi thứ đều đòi hỏi sự nhận thức bản thân và điều chỉnh hành vi theo ngữ cảnh.
AI hiện tại, dù giỏi trong các nhiệm vụ chuyên biệt, vẫn không có khái niệm về bản thân và không thể tự thích nghi khi hoàn cảnh thay đổi đột ngột.
Nghiên cứu được công bố trên tạp chí Nature Human Behaviour phối hợp với các học giả từ MIT, Yale và Đại học Bilkent (Thổ Nhĩ Kỳ).
Đội ngũ thiết kế 4 trò chơi điện tử nhằm kiểm tra khả năng “tự xác định bản thân” giữa con người và AI.
Mỗi trò chơi gồm 4 hình vuông đỏ, chỉ 1 hình là đại diện cho “bản thân số” (digital self). Người chơi phải điều khiển đúng hình này để đến đích.
Kết quả:
Con người thắng tuyệt đối 4-0 trước AI trong các trò chơi, đặc biệt ở các tình huống yêu cầu sự linh hoạt và thay đổi góc nhìn.
AI không thể tự xác định mình là ai trong trò chơi, trong khi con người làm việc này gần như bản năng.
Thử nghiệm giúp minh họa lý do tại sao AI khó áp dụng hiệu quả trong các môi trường thay đổi nhanh như chăm sóc cá nhân, tình huống khẩn cấp, hoặc xe tự lái gặp sự cố.
Ví dụ điển hình: một bác sĩ giỏi sẽ ngay lập tức chuyển tư duy từ bệnh nhân trẻ khỏe sang bệnh nhân già yếu trong phòng cấp cứu, điều chỉnh cách chăm sóc – điều mà AI hiện không thể thực hiện.
Các hệ thống AI ngày nay học bằng cách hấp thụ dữ liệu khổng lồ, nhưng lại thiếu sự hiểu biết bối cảnh sâu sắc như con người. Cách tiếp cận này không hiệu quả trong tình huống chưa từng gặp.
Để ứng dụng AI hiệu quả, De Freitas đề xuất:
Cẩn trọng trong môi trường thay đổi nhanh, nơi AI dễ thất bại nếu không kịp thích ứng.
Hiểu rõ giới hạn của AI, để quyết định khi nào nên dùng con người và khi nào dùng máy.
Xây dựng hệ thống bổ sung giữa AI và con người, nhất là trong các lĩnh vực yêu cầu phán đoán nhanh và trực giác.
Nhóm nghiên cứu đang phát triển AI có thể “tự định vị bản thân” giống con người, nhưng đây là thách thức kỹ thuật lớn và chưa thể đạt được trong tương lai gần.
📌 Nghiên cứu Harvard khẳng định AI hiện nay vẫn không thể linh hoạt như con người vì thiếu “ý thức bản thân” để thích nghi với môi trường mới. Trong các tình huống thay đổi đột ngột, con người giải quyết tốt hơn nhờ khả năng tự điều chỉnh, trong khi AI chỉ hoạt động hiệu quả trong ngữ cảnh quen thuộc.
Nghiên cứu của Frank Nagle (Harvard Business School) cùng các đồng sự cho thấy AI tạo sinh có thể giúp người làm quản lý khôi phục đam mê công việc, bằng cách giảm gánh nặng hành chính và tăng thời gian làm việc chuyên môn yêu thích.
Dữ liệu thu thập từ hơn 187.000 lập trình viên mã nguồn mở trên GitHub từ tháng 7/2022 đến tháng 7/2024.
Nghiên cứu tập trung vào những lập trình viên "maintainers" – người chịu trách nhiệm chính cho các dự án mã nguồn mở.
Một nhóm được cấp quyền truy cập miễn phí vào GitHub Copilot (AI hỗ trợ viết mã), nhóm còn lại thì không.
Kết quả chính:
Nhóm dùng AI tăng 12% thời gian viết mã “core” – tức công việc chuyên môn cốt lõi.
Giảm 25% thời gian làm việc hành chính và quản lý dự án, cho phép họ quay lại với đam mê lập trình.
Điều này phản ánh: “AI giúp con người tìm lại sự cân bằng công việc lý tưởng.”
Tuy nhiên, AI cũng làm thay đổi cách cộng tác:
Số lượng cộng tác viên trung bình của người dùng AI giảm mạnh từ 22 còn 5 người (giảm 79%).
Họ bắt đầu làm việc độc lập nhiều hơn, trên các dự án nhỏ hơn, ít cần sự phối hợp.
AI cũng mở rộng khả năng thử nghiệm:
Người dùng AI tăng 22% việc thử ngôn ngữ lập trình mới.
Họ tham gia trung bình 15 dự án mã nguồn mở mới – một tín hiệu tốt cho đổi mới sáng tạo.
Những người ít kinh nghiệm hưởng lợi nhiều nhất:
Tăng đến 11% thời gian lập trình, so với chỉ 4,6% ở người giàu kinh nghiệm.
Giảm 27% thời gian làm việc quản lý, gần gấp đôi mức giảm của nhóm dày dạn kinh nghiệm (14%).
Một phát hiện thú vị: AI giúp tùy chỉnh trải nghiệm công việc, như sách “Chọn hành trình phiêu lưu” – mỗi người có thể chọn hướng đi phù hợp với kỹ năng và sở thích.
Nghiên cứu cũng cho thấy AI tạo điều kiện cho:
Chuyên môn hóa vai trò trong nhóm làm việc: ai thích lập trình sẽ lập trình, người thích quản lý sẽ tập trung vào đó.
Tăng giá trị thị trường cá nhân: tăng kỹ năng và cơ hội thu nhập – ví dụ như tiếp cận ngôn ngữ mới giúp tăng trung bình 1.700 USD/người, tương đương 468 triệu USD mỗi năm cho toàn bộ cộng đồng maintainer.
📌 AI tạo sinh như GitHub Copilot đang giúp người quản lý “yêu lại công việc” bằng cách giảm 25% việc hành chính, tăng 12% công việc chuyên môn, và mở rộng khả năng thử nghiệm. Người mới vào nghề hưởng lợi lớn nhất, với mức tăng thời gian coding đến 11%. AI không chỉ hỗ trợ hiệu suất mà còn cá nhân hóa công việc, tạo ra lộ trình phát triển linh hoạt theo sở thích và kỹ năng.
- AI đã bùng nổ từ các phòng thí nghiệm vào năm 2022 và phát triển theo cấp số nhân trong 3 năm qua. Các chuyên gia dự đoán rằng trong vài năm tới, AI sẽ ảnh hưởng đến mọi lĩnh vực từ chăm sóc sức khỏe đến sáng tạo ý tưởng.
- Bài viết chia sẻ nghiên cứu tình huống về việc triển khai AI trong một doanh nghiệp bán buôn nông sản nhỏ với mục tiêu tăng giá trị công ty để chuẩn bị bán.
- Công ty này là doanh nghiệp gia đình truyền qua ba thế hệ với thương hiệu và uy tín tốt. Chủ doanh nghiệp đã làm việc ban đêm tại kho hàng xử lý đơn hàng trong 40 năm và tin rằng chỉ có anh ta mới có thể xử lý công việc phức tạp này.
- Nhiệm vụ đầu tiên là đưa chủ doanh nghiệp ra khỏi kho hàng, giao công việc cho nhân viên chủ chốt đã làm việc 15 năm, và để chủ sở hữu đảm nhận vai trò CEO. Chủ doanh nghiệp miễn cưỡng thực hiện điều này vào tháng thứ 5 của dự án.
- Sau khi rời khỏi kho hàng, chủ doanh nghiệp cần thời gian thích nghi với lịch ngủ mới và buông bỏ công việc cũ. Điều này làm mất nhiều thời gian triển khai AI.
- Ban đầu, chủ doanh nghiệp muốn bắt đầu áp dụng AI vào quy trình xử lý đơn hàng. Tuy nhiên, do công ty đã ký hợp đồng với bên thứ ba để xử lý kiểm soát hàng tồn kho và có tin đồn về vấn đề tài chính của bên thứ ba, nên việc triển khai bị tạm hoãn.
- Đội dự án quyết định chuyển hướng sang marketing, vì hơn 90% công ty áp dụng AI bắt đầu từ marketing. Việc này dễ triển khai và có thể tạo hiệu quả lớn mà không cần tự động hóa phức tạp.
- Vấn đề lớn phát sinh: công ty chưa từng làm marketing trong 80 năm hoạt động. Họ có khoảng 200 khách hàng có được qua truyền miệng và không có hệ thống CRM với thông tin cần thiết để gửi khảo sát.
- Hai nhân viên hành chính được giao nhiệm vụ phát triển CRM trong thời gian rảnh. Cuối cùng, chủ sở hữu đã thuê một chuyên gia marketing tự do để hỗ trợ với CRM và tiếp tục nỗ lực marketing.
- Bài học từ nghiên cứu tình huống này là thiếu sự chuẩn bị để áp dụng AI. Việc chuẩn bị cho AI về cơ bản là tạo ra môi trường giúp việc triển khai AI nhanh chóng và suôn sẻ.
- Thái độ của nhân viên và tài liệu hóa quy trình công ty là yếu tố quan trọng. Hiểu tầm quan trọng của việc chuẩn bị cho AI có thể tạo nên sự khác biệt giữa thành công và thất bại.
📌 Nghiên cứu tình huống cho thấy việc chuẩn bị là yếu tố quyết định khi áp dụng AI trong doanh nghiệp nhỏ. Công ty 80 năm tuổi phải đối mặt với thách thức khi chủ sở hữu làm việc 40 năm trong kho hàng, thiếu CRM và chưa từng làm marketing, khiến quá trình chuyển đổi số gặp nhiều trở ngại.
https://www.entrepreneur.com/science-technology/is-your-small-business-actually-ready-to-adopt-ai/488556
Chuẩn bị đúng cách để sử dụng AI là phần quan trọng nhất trong quá trình triển khai.
Tác giả: Tom Gledhill | Biên tập: Chelsea Brown | Ngày 4/4/2025
Chia sẻ
Những điểm chính
AI bùng nổ từ các phòng thí nghiệm vào năm 2022, và đến nay, hầu như mọi người đều đã nghe nói về AI. AI cũng đã phát triển theo cấp số nhân trong 3 năm qua. Các chuyên gia đã nói rằng trong vài năm tới, AI sẽ ảnh hưởng đến mọi thứ từ chăm sóc sức khỏe đến sáng tạo ý tưởng và hơn thế nữa. Các chuyên gia cũng tuyên bố rằng chúng ta đang bước vào một kỷ nguyên sẽ ảnh hưởng đến nhân loại như chưa từng có trước đây.
Nếu bạn không áp dụng AI sớm trong doanh nghiệp, bạn có thể không thể cạnh tranh được. Nhưng làm thế nào để bắt đầu? Nghiên cứu tình huống sau đây là về kinh nghiệm của tôi khi triển khai AI trong một doanh nghiệp nhỏ. Mục tiêu của dự án là tăng giá trị công ty để có thể bán được. Chúng tôi quyết định sử dụng AI để đạt được điều này.
Một trường hợp điển hình về việc coi quyền sở hữu doanh nghiệp như một công việc
Công ty là một doanh nghiệp bán buôn nông sản nhỏ. Đây là công ty truyền đến thế hệ thứ ba, có thương hiệu và uy tín tốt.
Chủ doanh nghiệp đã làm việc vào ban đêm trong kho xử lý đơn hàng trong 40 năm. Người này cảm thấy rằng anh ta là người duy nhất có thể xử lý chức năng này vì nó quá phức tạp. Các vấn đề thường xảy ra.
Có một nhân viên chủ chốt đã làm việc với công ty trong 15 năm, người này sẽ thay thế khi chủ đi nghỉ.
Nhiệm vụ đầu tiên của chúng tôi là đưa chủ sở hữu ra khỏi kho, giao công việc đó cho nhân viên chủ chốt và để chủ sở hữu hoạt động như CEO.
Chủ sở hữu miễn cưỡng làm điều này vì anh ta nghĩ rằng mình có thể mất doanh thu. Cuối cùng người này đã đưa ra quyết định vào tháng thứ năm của dự án.
Giai đoạn thích nghi
Sau khi làm việc ban đêm trong kho trong 40 năm, chủ sở hữu cần thời gian để thích nghi không chỉ với chế độ ngủ mà còn để buông bỏ công việc cũ. Chúng tôi mất nhiều thời gian áp dụng AI trong công ty. Tuy nhiên, đưa chủ sở hữu ra khỏi kho là một yếu tố quan trọng để tiến lên.
Chủ sở hữu muốn bắt đầu áp dụng AI cho công ty của mình với việc xử lý đơn hàng vì đó rõ ràng là quy trình làm việc chính trong công ty, và anh ta lo lắng rằng người khác đã tiếp quản sau thời gian 40 năm làm việc của mình.
Kiểm soát hàng tồn kho là một chức năng chính trong doanh nghiệp này. Vì sản phẩm dễ hỏng, sản phẩm cần được đưa vào và ra khỏi kho càng nhanh càng tốt. Vì vậy, công ty đã ký hợp đồng với một bên thứ ba để xử lý kiểm soát hàng tồn kho khoảng 3 năm trước khi chúng tôi tham gia. Chúng tôi ngay lập tức phát triển đối thoại với bên thứ ba, và họ rất hợp tác. Tuy nhiên, người liên hệ chính đã rời công ty, và có tin đồn rằng công ty đang gặp khó khăn, vì vậy chúng tôi tạm dừng xử lý đơn hàng cho đến khi chúng tôi chắc chắn rằng bên thứ ba sẽ tiếp tục hoạt động.
Bước ngoặt lớn
Rất sớm trong mô hình giữ nguyên này, chúng tôi quyết định chuyển sang tiếp thị để có thể tiến lên. Nếu chủ sở hữu không quá kiên quyết yêu cầu xử lý đơn hàng là ưu tiên đầu tiên khi áp dụng AI, chúng tôi đã bắt đầu với tiếp thị.
Hơn 90% công ty áp dụng AI bắt đầu với tiếp thị. Việc triển khai nhanh chóng và dễ dàng, và prompt tốt sử dụng ChatGPT có thể có tác động lớn đến hầu hết các chức năng mà không cần tự động hóa phức tạp. Đây cũng là cách nhẹ nhàng để giới thiệu AI cho nhân viên. Họ có thể thấy AI hoạt động mà không cảm thấy bị đe dọa công việc.
Điều đầu tiên chúng tôi yêu cầu AI làm là phát triển kế hoạch tiếp thị dành riêng cho công ty bán buôn nông sản nhỏ. Kế hoạch ban đầu tập trung vào cơ sở khách hàng, và nhiệm vụ đầu tiên là phát triển khảo sát khách hàng để xác định cảm nhận của họ về sản phẩm và dịch vụ mà họ đang nhận được, cũng như mong muốn và nhu cầu trong tương lai.
Một vấn đề lớn khác
Chúng tôi ngay lập tức gặp phải một vấn đề. Công ty chưa bao giờ làm tiếp thị. Họ có khoảng 200 khách hàng có được thông qua truyền miệng trong 80 năm kinh doanh. Do đó, họ không có CRM với thông tin cần thiết để gửi khảo sát. Họ có các danh sách khác nhau cho các chức năng khác nhau, có các liên hệ khác nhau và thường không có địa chỉ email — và thường liên hệ họ có không phải là người ra quyết định.
Hai nhân viên hành chính được giao nhiệm vụ phát triển CRM, và họ sẽ làm điều đó trong thời gian rảnh. Cuối cùng, chủ sở hữu đã thuê một freelancer tiếp thị có kinh nghiệm để giúp với CRM và tiếp tục nỗ lực tiếp thị trong tương lai.
Chúng tôi có thể cần gửi lại khảo sát cho những người không phản hồi vài lần trước khi chúng tôi nhận được số lượng người phản hồi có ý nghĩa thống kê để phân tích dữ liệu. Chúng tôi sẽ phát triển kế hoạch tiếp thị chi tiết dựa trên kết quả phân tích khảo sát.
Tin đồn về vấn đề tài chính của bên thứ ba được chứng minh là sai, và khi kế hoạch tiếp thị hoạt động trơn tru, chúng tôi sẽ quay lại áp dụng AI cho quy trình xử lý đơn hàng.
Chúng tôi cũng sẽ tiếp tục phỏng vấn chủ sở hữu để tìm kiếm dữ liệu cho bot đào tạo và bot hỗ trợ khách hàng.
Những gì chúng tôi đã học được
Bài học từ nghiên cứu tình huống này về cơ bản là thiếu sự chuẩn bị để áp dụng AI. Nhưng đó không phải là lỗi của chủ sở hữu. Anh ta không mong đợi AI. Đây cũng là một tình huống bất thường khi chủ sở hữu làm việc trong kho trong 40 năm, và công ty chưa bao giờ làm bất kỳ hoạt động tiếp thị nào. Đây là một ví dụ phóng đại về chủ sở hữu làm việc TRONG công ty chứ không phải VÌ công ty. Nếu không phải vì mong muốn biến công ty thành tài sản có giá trị trên thị trường, chúng tôi đã không đạt được tiến bộ như vậy.
Chuẩn bị cho AI về cơ bản là tạo ra một môi trường giúp việc áp dụng AI nhanh chóng và liền mạch. Thái độ của nhân viên rất quan trọng, cũng như việc tài liệu hóa các quy trình làm việc của công ty sẽ được áp dụng AI.
Hiểu tầm quan trọng của việc chuẩn bị cho AI có thể tạo nên sự khác biệt giữa thành công và thất bại trong quyết định kinh doanh có lẽ quan trọng nhất bạn sẽ từng đưa ra.
Bài viết phân tích 7 tình huống ứng dụng AI tạo sinh (gen AI) trong quy trình bán hàng B2B, giúp doanh nghiệp thúc đẩy tăng trưởng lợi nhuận nhanh và bền vững.
Theo khảo sát McKinsey B2B Pulse 2024 với 3.942 người ra quyết định tại 13 quốc gia, 19% đã triển khai gen AI trong bán hàng, 23% đang trong quá trình thử nghiệm.
1. Next-best opportunity (Cơ hội tốt nhất tiếp theo):
Gen AI giúp sàng lọc, ưu tiên khách hàng tiềm năng bằng cách tổng hợp dữ liệu cấu trúc và phi cấu trúc từ nhiều nguồn như CRM, báo cáo công ty, dữ liệu công khai.
Một công ty vật liệu công nghiệp áp dụng gen AI vào dữ liệu giấy phép xây dựng để xác định dự án mới, từ đó cá nhân hóa tiếp cận, tăng giá trị pipeline lên hơn 1 tỉ USD.
2. Next-best action (Hành động tốt nhất tiếp theo):
Gen AI giúp phân loại khách hàng theo mức độ tương tác và đề xuất hành động phù hợp như gửi email, lời thoại, mời hội thảo.
Một công ty sản xuất thiết bị nâng cấp cơ sở dữ liệu khách hàng, dùng AI để dự đoán nhu cầu bảo trì và tăng doanh thu từ dịch vụ sau bán hơn 20%.
3. Meeting support (Hỗ trợ họp khách hàng):
Gen AI tạo ghi chú cuộc họp gồm thông tin tài chính, mục tiêu chiến lược, dữ liệu bán hàng, yêu cầu khách hàng, giúp tiết kiệm thời gian chuẩn bị.
Một công ty vật liệu đã cắt giảm 10% thời gian không trực tiếp tiếp xúc khách hàng nhờ công cụ hỗ trợ họp phát triển chỉ trong 7 tuần.
4. Proposal responder (Phản hồi đề xuất):
Gen AI tăng tốc trả lời RFP, tổng hợp dữ liệu từ hàng ngàn tài liệu và hợp đồng công khai để tạo phản hồi chính xác, đồng nhất.
Một tổ chức chăm sóc sức khỏe tiết kiệm 60–80% thời gian phân tích đối thủ nhờ công cụ AI này.
5. Smart pricing (Định giá thông minh):
AI phân tích hàng trăm thông số để đề xuất mức chiết khấu hợp lý, tối ưu theo mục tiêu (lợi nhuận, doanh số...).
Một công ty dịch vụ B2B tăng lợi nhuận thêm 10% bằng mô hình định giá AI dựa trên dữ liệu lịch sử giao dịch và hành vi khách hàng.
6. Smart research assistant (Trợ lý nghiên cứu thông minh):
AI tạo bản đồ khách hàng, đánh giá tiềm năng từng tài khoản, so sánh yếu tố mua hàng với đối thủ.
Một công ty công nghiệp toàn cầu tăng 40% tỷ lệ chuyển đổi và giảm 30% thời gian xử lý khách hàng mới.
7. Smart coach (Huấn luyện viên thông minh):
Gen AI phân tích transcript cuộc gọi để gợi ý huấn luyện cá nhân hóa.
Một công ty viễn thông giảm 20% chi phí đào tạo và tăng 7 điểm hài lòng khách hàng sau triển khai.
Các doanh nghiệp hàng đầu đã bắt đầu quan tâm đến Agentic AI – giai đoạn tiếp theo của AI, nơi các agent tự động thực thi hành động như gửi email hoặc thiết lập cuộc hẹn.
5 bài học chính khi triển khai gen AI:
Bắt đầu từ bài toán kinh doanh thay vì công nghệ.
Thiết kế xoay quanh người bán.
Kết hợp mua sẵn và tùy chỉnh để tạo lợi thế cạnh tranh.
Cân bằng giữa tác động nhanh và chiến lược lâu dài.
Đầu tư vào việc tăng khả năng chấp nhận của đội ngũ bán hàng.
📌 7 ứng dụng thực tế của gen AI đã giúp các doanh nghiệp B2B như sản xuất thiết bị, chăm sóc sức khỏe, viễn thông, và công nghiệp tăng từ 10% đến 40% hiệu quả kinh doanh. Điểm chung là cá nhân hóa hành động bán hàng, định giá thông minh, và hỗ trợ người bán theo thời gian thực. Đặc biệt, agentic AI hứa hẹn nâng tầm mọi bước trong chuỗi bán hàng B2B. Với chiến lược phù hợp, các công ty có thể biến tiềm năng thành lợi nhuận thực sự.
https://www.mckinsey.com/capabilities/growth-marketing-and-sales/our-insights/unlocking-profitable-b2b-growth-through-gen-ai
#McKinsey
5 bài học chính khi triển khai gen AI trong bán hàng B2B, được rút ra từ báo cáo "Unlocking profitable B2B growth through gen AI":
Doanh nghiệp cần xuất phát từ vấn đề cụ thể đang gặp phải trong hoạt động bán hàng, thay vì bị cuốn theo làn sóng công nghệ.
Một số câu hỏi then chốt cần đặt ra:
Liệu chúng ta đang gặp khó trong việc tìm kiếm khách hàng tiềm năng?
Có đang mất quá nhiều thời gian để phản hồi RFP hay chuẩn bị họp khách hàng?
Chỉ khi xác định được thách thức lớn nhất, doanh nghiệp mới lựa chọn đúng loại công nghệ phù hợp (có thể là automation, AI truyền thống, hoặc gen AI).
Ví dụ, nếu doanh nghiệp chưa có hệ thống xử lý đơn hàng tự động, gen AI có thể không phải giải pháp tốt nhất do mức độ chịu lỗi thấp (low tolerance for error) của quy trình này.
Mọi giải pháp gen AI đều cần xoay quanh trải nghiệm và nhu cầu thực tế của đội ngũ bán hàng, không phải chỉ để "khoe công nghệ".
Gen AI phải trả lời được các câu hỏi:
Có thật sự giúp người bán tiết kiệm thời gian?
Đầu ra có dễ hiểu không?
Có thể giải thích lại cho khách hàng không?
Có gợi ý hành động cụ thể không?
Có đủ đáng tin để người bán sử dụng hàng ngày?
Nếu câu trả lời là “không” với bất kỳ câu hỏi nào trên, doanh nghiệp cần tái thiết kế giải pháp, từ tính năng cho đến cách hiển thị thông tin.
Thực tế, phần lớn doanh nghiệp không tự xây gen AI từ đầu, mà kết hợp giữa:
Mua giải pháp sẵn có cho tác vụ đơn giản (ví dụ: tóm tắt biên bản họp)
Tùy biến (build) những phần phức tạp có thể mang lại lợi thế riêng (ví dụ: định giá động dựa trên hàng trăm chỉ số).
Mô hình "buy-plus-build" giúp doanh nghiệp linh hoạt, tiết kiệm thời gian nhưng vẫn đạt được tính độc quyền ở những điểm chạm quan trọng.
Cần có chiến lược AI tổng thể rõ ràng, tránh triển khai rời rạc, gây lãng phí tài nguyên và khó tích hợp về sau.
Lộ trình lý tưởng:
Xác định MVP (Minimum Viable Product) cho từng use case.
Đưa vào triển khai nhanh, dùng kết quả tích cực ban đầu làm động lực cho tổ chức.
Song song, cần đầu tư vào hạ tầng dài hạn:
Quản trị dữ liệu vững chắc.
Stack công nghệ hiện đại phù hợp với AI.
Phát triển đội ngũ nội bộ, từ tuyển dụng đến đào tạo kỹ năng AI.
Triển khai gen AI không chỉ là kỹ thuật, mà là quản trị thay đổi văn hóa và hành vi trong đội ngũ bán hàng.
Một số chiến lược giúp tăng tỷ lệ chấp nhận:
Giao tiếp thường xuyên, rõ ràng về lợi ích và kỳ vọng.
Tạo "người dùng mẫu" (seller champion) để làm hình mẫu lan tỏa.
Thử nghiệm nhỏ (pilot) và học hỏi, lặp lại với cải tiến liên tục.
Khen thưởng nhóm bán hàng thử nghiệm AI, coi việc “bắt lỗi AI” là một phần của đổi mới.
Thiết lập trung tâm xuất sắc (Center of Excellence) để quản lý quy mô, chia sẻ kinh nghiệm và đảm bảo triển khai đồng bộ.
- Hơn 80% doanh nghiệp tại Ấn Độ đang tích cực khám phá việc phát triển agent tự động, theo báo cáo mới từ Deloitte công bố vào ngày 2/4/2025.
- AI tạo sinh (agent) đề cập đến hệ thống AI hoạt động độc lập, có khả năng đưa ra quyết định và thực hiện hành động với ít hoặc không cần sự can thiệp của con người, được thiết kế để tập trung vào việc đạt được mục tiêu cụ thể và thích ứng với hoàn cảnh thay đổi.
- Khoảng 50% doanh nghiệp đã xác định workflow đa agent là lĩnh vực trọng tâm, mô hình này cho phép nhiều agent con định hướng mục tiêu làm việc dưới sự hướng dẫn của một agent chính để thực hiện nhiệm vụ một cách tự động.
- 70% doanh nghiệp mong muốn sử dụng AI tạo sinh cho mục đích tự động hóa, phản ánh xu hướng gia tăng đổi mới và đầu tư vào AI.
- 61% công ty đang tiến hành hơn 10 thử nghiệm về AI tạo sinh, cho thấy mức độ quan tâm cao đối với công nghệ này.
- Hơn 67% doanh nghiệp báo cáo rằng AI tạo sinh đã tác động tích cực đến tất cả các giai đoạn của vòng đời phát triển phần mềm.
- Gần 70% tổ chức cho biết nỗ lực tích hợp AI của họ đã đạt hoặc vượt quá kỳ vọng về lợi nhuận đầu tư (ROI).
- Các phòng ban quan trọng như CNTT, dịch vụ khách hàng, tiếp thị, vận hành và phát triển sản phẩm đang dẫn đầu trong việc áp dụng AI.
- Sự chuyển dịch hướng tới AI tạo sinh báo hiệu một sự chuyển đổi đáng kể trong cách doanh nghiệp áp dụng công nghệ AI, khi họ tìm kiếm phương thức để tối ưu hóa hoạt động và tăng hiệu quả.
- Moumita Sarker, đối tác tại Deloitte Ấn Độ, nhấn mạnh: "Khi các tổ chức Ấn Độ khám phá AI tạo sinh và agent, chìa khóa để khai thác tiềm năng của chúng nằm ở việc chuyển từ thử nghiệm sang triển khai quy mô lớn."
- Báo cáo này phản ánh xu hướng ngày càng tăng của việc áp dụng hệ thống dựa trên AI trong các ngành công nghiệp tại Ấn Độ, với nhiều doanh nghiệp đang tích cực tìm cách tận dụng công nghệ này để nâng cao hiệu quả hoạt động.
- Sự phát triển nhanh chóng của AI tạo sinh tại Ấn Độ cũng phù hợp với xu hướng toàn cầu, khi các doanh nghiệp trên toàn thế giới đang ngày càng đầu tư vào công nghệ AI để duy trì tính cạnh tranh trong môi trường kinh doanh số hóa.
- Việc áp dụng AI tạo sinh và agent tự động không chỉ giúp doanh nghiệp tự động hóa các tác vụ mà còn mở ra khả năng giải quyết các vấn đề phức tạp hơn thông qua khả năng ra quyết định tự động và thích ứng với thay đổi.
📌 Ấn Độ đang trở thành thị trường năng động cho AI tạo sinh với 80% doanh nghiệp khám phá agent tự động, 50% tập trung vào workflow đa agent và 70% muốn ứng dụng cho tự động hóa. Kết quả khả quan với 67% báo cáo tác động tích cực đến phát triển phần mềm.
https://www.latestly.com/technology/agentic-ai-adoption-in-india-over-80-of-businesses-exploring-autonomous-agents-says-report-6753156.html
- AI đang biến đổi các ngành công nghiệp với tốc độ chưa từng có, từ khoa học đời sống, dịch vụ tài chính đến ô tô và sản xuất, nhưng nhiều tổ chức vẫn gặp khó khăn trong việc mở rộng quy mô AI thành công.
- Lý do chính khiến các doanh nghiệp không thành công với AI không phải là do thuật toán phức tạp hay sức mạnh tính toán, mà là cách họ quản lý và di chuyển dữ liệu trong môi trường ngày càng phức tạp.
- Giả định rằng đột phá AI chỉ đến từ thuật toán tinh vi hơn hoặc GPU mạnh mẽ là sai lầm, vì mô hình AI chỉ hiệu quả bằng dữ liệu cung cấp cho chúng.
- Hầu hết tổ chức vận hành với kiến trúc dữ liệu phân mảnh, nơi các kho dữ liệu riêng biệt, hệ thống lưu trữ chậm và quy trình làm việc không hiệu quả tạo ra sự chậm trễ lớn trong xử lý AI.
- Mô hình ngôn ngữ lớn (LLM), AI tạo sinh và suy luận thời gian thực đòi hỏi truy cập nhanh vào các tập dữ liệu khổng lồ, nhưng nếu đường ống dữ liệu không theo kịp tốc độ xử lý GPU, mô hình AI sẽ thiếu thông tin cần thiết.
- Doanh nghiệp thành công với AI có kiến trúc dữ liệu thống nhất, cung cấp liền mạch dữ liệu có cấu trúc và phi cấu trúc cho ứng dụng AI theo thời gian thực.
- Doanh nghiệp tụt hậu với AI thường dựa vào lưu trữ lỗi thời và đường ống phân mảnh, khiến các nhóm AI phải dành nhiều thời gian quản lý dữ liệu hơn là tạo ra thông tin chi tiết.
- Các nhà lãnh đạo AI ưu tiên tự động hóa thông minh trong quy trình dữ liệu, giảm thời gian đến thông tin chi tiết và tối ưu hóa việc sử dụng tài nguyên.
- Để khai thác tiềm năng đầy đủ của AI, doanh nghiệp nên áp dụng nền tảng dữ liệu thông minh, hiệu suất cao hỗ trợ đổi mới AI.
- Khi nâng cấp trí thông minh AI, các tổ chức cần tránh những cạm bẫy phổ biến như kho dữ liệu riêng biệt, nút thắt cổ chai và quy trình làm việc không hiệu quả.
- Thành công của trí thông minh AI không chỉ về công nghệ mà còn về con người, với các vai trò như kỹ sư dữ liệu, chuyên gia MLOps và kiến trúc sư trí thông minh AI.
- Tốc độ dữ liệu và tính toàn vẹn dữ liệu đều quan trọng cho thành công của AI, đòi hỏi quản trị tự động, kiểm soát truy cập và khung tuân thủ.
- Trí thông minh AI phải hoạt động hài hòa với hệ thống doanh nghiệp hiện có, sử dụng tiêu chuẩn mở, API và kiến trúc lai để ngăn chặn vấn đề tương thích.
- Tổ chức nên xem xét các phương pháp hay nhất, tiêu chuẩn ngành và thậm chí các phương pháp tự làm khi đánh giá nhu cầu trí thông minh AI của họ.
- Nếu sáng kiến AI không mang lại kết quả như mong đợi, đã đến lúc nhìn xa hơn thuật toán và sức mạnh tính toán, tập trung vào cách quản lý và di chuyển dữ liệu.
- Tương lai của AI thuộc về những người có thể làm cho dữ liệu hoạt động thông minh hơn, không chỉ là nhanh hơn.
📌 Thành công của AI doanh nghiệp phụ thuộc vào khả năng quản lý dữ liệu thông minh, không phải chỉ thuật toán hay GPU mạnh. Các tổ chức cần kiến trúc dữ liệu thống nhất, tự động hóa quy trình và cân bằng giữa tốc độ, bảo mật và tuân thủ để dẫn đầu cuộc cách mạng AI.
https://www.forbes.com/councils/forbestechcouncil/2025/04/02/the-ai-data-divide-why-intelligence-not-algorithms-will-determine-enterprise-ai-success/
- Trong sản xuất khoa học đời sống, nhiều dữ liệu giá trị vẫn bị mắc kẹt trong bảng tính, phân tán qua nhiều hệ thống hoặc không được thu thập, tạo ra điểm mù về hiệu suất thiết bị và quy trình sản xuất.
- Một phương pháp mới đang nổi lên: tích hợp dữ liệu quản lý tài sản, sản xuất theo lô và hệ thống chất lượng, sau đó tăng cường bằng AI.
- Dữ liệu tài sản cung cấp cơ hội độc đáo vì đây là nơi duy nhất tổ chức có thể truy cập dữ liệu hiệu suất thiết bị đến cấp số sê-ri, tiết lộ không chỉ hiệu suất mà còn chi phí vận hành và thách thức bảo trì.
- Hiện tại, các hệ thống quản lý tài sản (AMS), hệ thống thực thi sản xuất (MES) và hệ thống quản lý chất lượng (QMS) thường hoạt động riêng biệt, trong khi dữ liệu hiệu suất thiết bị quan trọng nằm trong bảng tính cơ bản.
- Tích hợp các luồng dữ liệu này cho phép nhà sản xuất tối ưu hóa hoạt động theo cách trước đây không thể thực hiện được, như theo dõi hiệu suất thiết bị cụ thể tại các địa điểm sản xuất khác nhau.
- Ví dụ: với phân tích dữ liệu tích hợp, nếu phân tích cho thấy không có sự thay đổi hiệu suất trong 3 năm, hệ thống có thể đề xuất kéo dài khoảng thời gian bảo trì từ 3 tháng lên 8 tháng.
- Machine learning và AI kết hợp với cảm biến IoT có thể cách mạng hóa phương pháp sản xuất truyền thống, cho phép đánh giá thời gian thực về quy trình, mẫu sử dụng và hiệu suất.
- Khi khiếu nại khách hàng được lưu trữ trong QMS và tích hợp với các hệ thống khác, AI có thể đẩy nhanh việc xác định vấn đề cốt lõi, phát hiện thiết bị hoặc lô hàng nào gây ra vấn đề.
- Lợi ích kinh doanh vượt ra ngoài hiệu quả hoạt động: AI có thể đề xuất quyết định tốt hơn về mua sắm thiết bị, lập lịch bảo trì và tối ưu hóa quy trình.
- Đối với nhà sản xuất khoa học đời sống, sự hội tụ dữ liệu sản xuất không chỉ về hiệu quả mà còn về việc tạo ra môi trường sản xuất thông minh, phản ứng nhanh và tiết kiệm chi phí hơn.
📌 AI đang mở khóa dữ liệu sản xuất trong ngành khoa học đời sống bằng cách tích hợp ba hệ thống riêng biệt: quản lý tài sản, sản xuất theo lô và quản lý chất lượng. Kết quả là tối ưu hóa bảo trì, giảm chi phí và nâng cao chất lượng sản phẩm, tạo lợi thế cạnh tranh cho doanh nghiệp tiên phong.
https://www.forbes.com/councils/forbesbusinessdevelopmentcouncil/2025/04/02/how-to-unlock-manufacturing-data-with-ai/
- Uplimit vừa công bố bộ agent AI nhằm giúp các công ty nâng cao kỹ năng nhân viên nhanh chóng và giảm gánh nặng quản lý truyền thống trong đào tạo doanh nghiệp.
- Công ty có trụ sở tại San Francisco ra mắt 3 nhóm agent AI chuyên biệt: agent xây dựng kỹ năng, agent quản lý chương trình và agent trợ giảng, nhằm giải quyết khoảng cách kỹ năng ngày càng lớn khi AI phát triển nhanh hơn khả năng thích ứng của lực lượng lao động.
- Julia Stiglitz, CEO kiêm đồng sáng lập Uplimit, nhấn mạnh nhu cầu học tập liên tục ở quy mô và tốc độ mà các hệ thống truyền thống không thể đáp ứng.
- Điểm khác biệt của Uplimit là tập trung vào học tập chủ động thay vì tiêu thụ nội dung thụ động. Trong khi tỷ lệ hoàn thành khóa học e-learning doanh nghiệp truyền thống chỉ đạt 3-6%, khách hàng của Uplimit báo cáo tỷ lệ vượt quá 90%.
- Databricks đạt tỷ lệ hoàn thành 94% với 1.000 học viên cùng lúc, vượt xa giới hạn truyền thống 20 người/khóa học.
- Procore Technologies ước tính tạo khóa học qua Uplimit nhanh hơn 95% so với phương pháp truyền thống, trong khi Databricks giảm thời gian giảng viên tới hơn 75%.
- Một công ty công nghệ lớn khác đã rút ngắn thời gian triển khai đào tạo lãnh đạo từ 3 năm xuống còn một năm.
- Theo báo cáo của McKinsey được trích dẫn, 400 triệu việc làm có thể bị loại bỏ vào năm 2030, tạo áp lực cấp bách cho các giải pháp nâng cao kỹ năng hiệu quả.
- Kraft Heinz đã sử dụng Uplimit để tạo chương trình nâng cao kỹ năng AI nhằm giải quyết nỗi sợ hãi và hiểu lầm về công nghệ này trong tổ chức.
- Stiglitz tin rằng một số yếu tố học tập vẫn mang tính con người đặc trưng như tương tác đồng đẳng, chia sẻ kinh nghiệm và hỗ trợ cảm xúc.
- Công ty được hậu thuẫn bởi các nhà đầu tư nổi bật như Salesforce Ventures, Greylock Ventures và đồng sáng lập của OpenAI và DeepMind.
📌 Uplimit đang định hình lại đào tạo doanh nghiệp với agent AI, giúp tăng tỷ lệ hoàn thành khóa học từ 3-6% lên 90%, giảm thời gian giảng viên 75% và rút ngắn thời gian triển khai đào tạo từ 3 năm xuống 1 năm, đồng thời giải quyết nỗi lo về AI thay thế việc làm.
https://venturebeat.com/ai/uplimit-raises-stakes-in-corporate-learning-with-suite-of-ai-agents-that-can-train-1000-employees-simultaneously/
- Miles Ward, giám đốc công nghệ của SADA (đối tác Google Cloud) chia sẻ về cách AI đang nhanh chóng chuyển đổi cách sống và làm việc, vượt xa khả năng tự động hóa đơn giản để mở ra những khả năng hoàn toàn mới.
- Sức mạnh thực sự của AI nằm ở ứng dụng thực tế và khả năng tăng cường năng lực con người, không chỉ là công nghệ nền tảng.
- Công ty của tác giả đang giúp khách hàng vượt qua giới hạn của chatbot đơn giản để tiếp cận với quy trình agent thông minh phức tạp hơn.
- Các ví dụ về agent thông minh bao gồm: đại lý ảo 24/7 xử lý công việc thường xuyên, đại lý chủ động trong hệ thống CRM phân tích dữ liệu khách hàng, tạo mã AI giúp người không phải lập trình viên tạo ứng dụng, và tự động hóa các công việc nhàm chán.
- Khái niệm "dịch vụ như một phần mềm" (service as a software) đang nổi lên, cho phép nhiều dịch vụ truyền thống do con người cung cấp được tự động hóa thông qua giải pháp phần mềm AI.
- Mô hình này giúp giảm rào cản cho doanh nghiệp nhỏ, nhân viên cá nhân và doanh nhân tiếp cận AI cho các vấn đề đặc thù, độc đáo.
- Thay vì thuê trợ lý điều hành, kỹ sư dữ liệu hoặc quản lý dự án, doanh nghiệp có thể xây dựng công cụ cấu trúc độc đáo để đẩy nhanh hoạt động kinh doanh.
- Chuyển đổi này mang đến những thách thức mới liên quan đến phát triển phần mềm, bảo trì, bảo mật và cấp phép.
- Các thách thức bao gồm: bảo mật và quyền riêng tư dữ liệu, phụ thuộc vào nhà cung cấp, cân nhắc đạo đức, và kế hoạch bảo trì cập nhật.
- Doanh nghiệp cần suy nghĩ dài hạn về cách giữ an toàn, xử lý khi nhà cung cấp thay đổi quy tắc, đảm bảo công bằng, và có kế hoạch dự phòng.
- Doanh nghiệp hiệu quả tận dụng AI để tự động hóa quy trình, nâng cao trải nghiệm khách hàng và mở khóa cơ hội mới sẽ tạo ra khả năng và cơ hội mới trong năm 2025 và xa hơn.
📌 AI đang chuyển từ chatbot đơn giản sang agent thông minh phức tạp, tạo ra khái niệm "dịch vụ như một phần mềm". Mô hình này giúp doanh nghiệp nhỏ tiếp cận AI cho vấn đề đặc thù, nhưng đòi hỏi chiến lược dài hạn về bảo mật, phụ thuộc nhà cung cấp và kế hoạch dự phòng.
https://www.forbes.com/councils/forbestechcouncil/2025/04/02/the-potential-of-ai-from-agentic-workflows-to-service-as-a-software/
- Doanh nghiệp vừa và nhỏ (SME) chiếm 98% doanh nghiệp ở Canada và 99% ở Mỹ, nhưng việc áp dụng AI trong nhóm này vẫn chậm hơn so với các tổ chức lớn.
- Theo báo cáo "Small Business, Big Opportunity", 94% SME Canada coi công nghệ là yếu tố thiết yếu cho hoạt động và tăng trưởng, tuy nhiên vẫn tồn tại khoảng cách lớn giữa nhận thức về tiềm năng của AI và hiểu biết về cách nó tạo ra hiệu quả.
- Nhiều SME không nhận ra họ đã đang sử dụng các giải pháp tích hợp AI. Một khảo sát của Ngân hàng Phát triển Kinh doanh Canada cho thấy ban đầu chỉ 39% SME báo cáo sử dụng AI, nhưng con số này tăng lên 66% khi họ được giới thiệu danh sách các công cụ có tích hợp AI.
- 5 nguyên tắc cơ bản để xây dựng niềm tin vào AI cho doanh nghiệp nhỏ:
- Nguyên tắc 1: AI cần minh bạch, có thể kiểm toán và giải thích được. Điều này giúp người dùng hiểu cách giải pháp hoạt động, xác định và sửa chữa các thiên kiến, đồng thời theo dõi quy trình ra quyết định.
- Nguyên tắc 2: Nhà phát triển phải tích hợp niềm tin xuyên suốt vòng đời AI. Các thực hành AI đạo đức cần được ưu tiên từ giai đoạn thiết kế đến triển khai.
- Nguyên tắc 3: Khung quy định nên cân bằng giữa an toàn và đổi mới. Ví dụ, Đạo luật Trí tuệ nhân tạo và Dữ liệu của Canada (AIDA) tập trung vào giảm thiểu rủi ro trong các hệ thống AI có tác động cao.
- Nguyên tắc 4: Hệ sinh thái kiểm toán AI là cần thiết. Tương tự như cách các công ty kế toán kiểm toán báo cáo tài chính, việc kiểm toán AI đảm bảo tuân thủ tiêu chuẩn pháp lý và cải thiện hiệu suất.
- Nguyên tắc 5: Phát triển AI phải bao gồm các quan điểm đa dạng. Nghiên cứu từ Google, Meta và Lincoln Laboratory đều phát hiện rằng các tình huống đào tạo đa dạng hơn dẫn đến hiệu suất AI được cải thiện.
- Doanh nghiệp nhỏ thường hoạt động với ngân sách chặt chẽ hơn và biên độ sai số hẹp hơn so với doanh nghiệp lớn, khiến niềm tin vào AI trở nên tối quan trọng để họ khai thác tiềm năng đầy đủ của công nghệ này.
📌 Để 98% doanh nghiệp ở Canada và 99% ở Mỹ là SME áp dụng AI hiệu quả, cần xây dựng niềm tin thông qua 5 nguyên tắc: minh bạch, tích hợp tin cậy, quy định cân bằng, kiểm toán độc lập và đa dạng trong phát triển, giúp vượt qua khoảng cách giữa nhận thức (94%) và áp dụng thực tế (39-66%).
https://www.forbes.com/councils/forbesbusinesscouncil/2025/04/02/accelerating-ai-adoption-among-smes-means-earning-their-trust-in-the-technology/
- Các mô hình LLM truyền thống (như ChatGPT) xuất hiện từ khoảng năm 2022, sử dụng kiến trúc transformer với mạng nơ-ron sâu (DNN), đòi hỏi chi phí đào tạo cao và phụ thuộc vào GPU.
- LLM truyền thống đối mặt với nhiều vấn đề về hiệu suất: cần GPU và dữ liệu lớn, tái đào tạo tốn kém, vẫn xảy ra ảo giác, tinh chỉnh phức tạp và cần kỹ thuật prompt engineering.
- Chi phí là vấn đề lớn: ngoài chi phí GPU, mô hình tính phí theo token khuyến khích nhà cung cấp sử dụng hàng tỷ token, trong khi chỉ cần vài triệu là đủ cho dữ liệu doanh nghiệp chuyên biệt.
- Kiến trúc cũ: đánh giá thiếu các yếu tố như độ sâu và tính toàn diện, không tính đến điểm liên quan trong kết quả prompt, và ít đổi mới thực sự.
- Khả năng thích ứng hạn chế: mô hình chung không phù hợp với lĩnh vực cụ thể như y tế hay tài chính, khó triển khai tại chỗ, và ít mô hình giao tiếp với nhau.
- Khả năng sử dụng: giao diện người dùng đơn giản với tìm kiếm prompt và chức năng hạn chế, ít tùy chỉnh cho người dùng cuối.
- Bảo mật: ảo giác tinh vi khó phát hiện, truy cập API bên ngoài và lưu trữ dữ liệu tạo rủi ro và trách nhiệm pháp lý.
- LLM 2.0 (xLLM for Enterprise) đang chuyển hướng khỏi "càng lớn càng tốt", từ bỏ GPU, dự đoán token tiếp theo, transformer, DNN và nhiều kỹ thuật tiêu chuẩn.
- Hiệu suất mới: LLM trong bộ nhớ với tinh chỉnh thời gian thực, không trọng số, không DNN, không độ trễ, tập trung vào độ sâu và tính toàn diện.
- Chi phí thấp hơn nhiều so với mô hình tiêu chuẩn, nhưng nhanh hơn, chính xác hơn và toàn diện hơn.
- Kiến trúc mới: sử dụng n-gram được sắp xếp, bảng từ viết tắt và từ đồng nghĩa, phân đoạn phân cấp, thay thế cơ sở dữ liệu vector bằng kiến trúc tự phát triển.
- Khả năng thích ứng: stopwords và stemmers dành riêng cho corpus, agent hành động tự phát triển, tùy chỉnh người dùng thông qua tham số trực quan.
- Giao diện người dùng phong phú cho phép người dùng chọn agent, chọn sub-LLM, tinh chỉnh tham số thời gian thực, và hiển thị thông tin tóm tắt.
- Bảo mật: kiểm soát đầy đủ tất cả thành phần, không gọi API bên ngoài, không phụ thuộc vào dữ liệu bên ngoài, triển khai tại chỗ và mã hóa.
📌 LLM 2.0 đang cách mạng hóa AI doanh nghiệp với mô hình trong bộ nhớ không cần GPU, không ảo giác, chi phí thấp hơn 90% và hiệu suất cao hơn. Công nghệ này tập trung vào ROI, dễ thích ứng với nhiều ngành và có thể triển khai tại chỗ, giải quyết các vấn đề cốt lõi của LLM truyền thống.
https://www.datasciencecentral.com/the-rise-of-specialized-llms-for-enterprise/
Ngân hàng dự kiến chi 18,4 tỷ USD cho chatbot AI vào năm 2028.
Nghiên cứu cho thấy hiệu quả tổng thể của chatbot đạt 60%, tỷ lệ giải quyết vấn đề là 67%.
Chỉ 14% vấn đề khách hàng được giải quyết thông qua tự phục vụ theo khảo sát của Gartner.
Chatbot hoạt động tốt trong môi trường có cấu trúc như giáo dục, nhưng gặp khó khăn trong các ngành năng động như thương mại điện tử và du lịch.
87% chatbot dễ tìm và bắt đầu trò chuyện, nhưng 73% khách hàng bị bỏ rơi khi chatbot không giải quyết được vấn đề.
Các công ty sử dụng AI chủ yếu để tiết kiệm chi phí gặp khó khăn trong việc cung cấp trải nghiệm khách hàng mong muốn.
Cần xác định mục tiêu ngoài tiết kiệm chi phí, đánh giá các tùy chọn chatbot khác nhau, tập trung vào khả năng xử lý ngôn ngữ tự nhiên mạnh mẽ.
Sử dụng chatbot AI có khả năng cảm nhận cảm xúc để hiểu sâu hơn nhu cầu của khách hàng.
Một công ty đã giảm 30% số lượng yêu cầu lặp lại và tăng điểm đánh giá trải nghiệm khách hàng bằng cách tự động tóm tắt cuộc trò chuyện trước khi chuyển giao cho nhân viên.
Thành công của dịch vụ khách hàng dựa trên AI phụ thuộc vào việc tích hợp tốt vào chiến lược trải nghiệm khách hàng tổng thể.
Các công ty cần cân bằng giữa tự động hóa và chuyên môn của con người, đầu tư cải thiện hiểu biết ngữ cảnh của AI.
📌 Chatbot AI có tiềm năng lớn trong dịch vụ khách hàng nhưng cần được tối ưu hóa. Startup nên tập trung vào xử lý ngôn ngữ tự nhiên, tích hợp cảm xúc và chuyển giao mượt mà giữa AI và con người để cải thiện trải nghiệm khách hàng, thay vì chỉ tập trung vào tiết kiệm chi phí.
https://www.techinasia.com/startups-chatbots-digital-dead
#techinasia
Tầm nhìn về AI cách mạng hóa dịch vụ khách hàng rất hấp dẫn.
Các doanh nghiệp trong nhiều ngành công nghiệp dường như đồng ý. Nhiều doanh nghiệp đang đầu tư hàng tỷ đô la vào chatbot có hỗ trợ AI, với riêng các ngân hàng dự kiến sẽ chi 18,4 tỷ đô la Mỹ vào năm 2028.
Tuy nhiên, hiệu quả của AI trong lĩnh vực này phụ thuộc vào cách nó được tích hợp vào chiến lược trải nghiệm khách hàng toàn diện hơn. Trong nhiều trường hợp, doanh nghiệp chưa hoàn toàn nhận ra tiềm năng của công nghệ.
Để tìm hiểu xem chatbot thiếu sót ở đâu và quan trọng hơn, làm thế nào các công ty có thể sử dụng chúng tốt hơn, chúng tôi đã tiến hành một số nghiên cứu. Dưới đây là những gì chúng tôi phát hiện và ý nghĩa của nó đối với lĩnh vực dịch vụ khách hàng.
Chúng tôi đã xem xét hiệu suất chatbot trong bảy ngành công nghiệp. Kết quả được tổng hợp để xác định các điểm yếu hệ thống trong trải nghiệm chatbot mong muốn và dự định.
Dựa trên đầu vào từ hơn 200 điểm dữ liệu, các phát hiện đã xác nhận giả thuyết của chúng tôi: Chatbot hoạt động tốt trong các tương tác có cấu trúc nhưng gặp khó khăn với bối cảnh, sắc thái và các truy vấn phức tạp.
Hãy nghĩ đến những lúc bạn nhận được câu trả lời có vẻ được viết sẵn hoặc khi bot hoàn toàn bỏ lỡ điểm chính của bạn.
Phát hiện của chúng tôi cũng được hỗ trợ bởi một cuộc khảo sát gần đây của Gartner, cho thấy chỉ có 14% vấn đề của khách hàng được giải quyết thông qua tự phục vụ. Điều này chỉ nhấn mạnh thực tế rằng nhiều giải pháp dịch vụ khách hàng do AI thúc đẩy vẫn chưa mang lại giá trị thực sự.
Một số đánh giá của chúng tôi dựa trên các câu hỏi sau:
Dựa trên phát hiện của chúng tôi, hiệu quả tổng thể của chatbot đạt 60%, và tỷ lệ giải quyết cao hơn một chút ở mức 67%, vì vậy vẫn còn chỗ để cải thiện.
Đặc biệt, dịch vụ chatbot trong các ứng dụng di động viễn thông có những vấn đề đáng chú ý - hãy nghĩ đến thông báo lỗi làm gián đoạn trải nghiệm người dùng.
Tuy nhiên, chatbot đã có tiến bộ trong việc khởi tạo cuộc trò chuyện và xử lý ngôn ngữ tự nhiên hiệu quả hơn. Trong môi trường có cấu trúc như giáo dục, nơi các tương tác có thể dự đoán được và được xác định rõ ràng, AI hoạt động tốt.
Tuy nhiên, trong các ngành công nghiệp năng động hơn như thương mại điện tử và du lịch, chatbot thường vấp ngã trước những sắc thái ngôn ngữ, bao gồm từ đồng nghĩa, từ viết tắt và các biến thể chính tả. Chúng cũng gặp khó khăn trong việc duy trì bối cảnh trong các cuộc trao đổi dài hơn, buộc khách hàng phải lặp lại.
Một điểm chúng tôi học được trong nghiên cứu của mình là các công ty sử dụng AI chủ yếu để tiết kiệm chi phí gặp khó khăn trong việc cung cấp trải nghiệm khách hàng mong muốn.
Tự động hóa thực sự có thể giúp hợp lý hóa hoạt động dịch vụ và giảm thời gian phản hồi, nhưng nếu các tương tác do AI thúc đẩy thiếu cá nhân hóa hoặc linh hoạt, chúng có thể khiến khách hàng cảm thấy thất vọng.
Dưới đây là một số mẹo mà các nhà sáng lập có thể làm theo để cân bằng hiệu quả với trải nghiệm khách hàng một cách hiệu quả:
Xác định mục tiêu ngoài việc tiết kiệm chi phí Xác định những truy vấn nào AI có thể xử lý hiệu quả và những truy vấn nào cần sự can thiệp của con người. Ví dụ, một chatbot có thể cung cấp thời gian giao hàng ước tính cho khách hàng, nhưng các vấn đề như "Tôi nhận được thông báo giao hàng thành công, nhưng gói hàng không có ở đây" có thể được giải quyết tốt hơn bởi một nhân viên trực tiếp.
Cung cấp tùy chọn để bỏ qua lời nhắc được đề xuất (có thể với các câu hỏi khởi đầu) và kết nối người dùng trực tiếp với một nhân viên cũng có thể cải thiện trải nghiệm.
Đánh giá các tùy chọn chatbot khác nhau Tập trung vào những chatbot có khả năng xử lý ngôn ngữ tự nhiên (NLP) mạnh mẽ và tích hợp liền mạch với các hệ thống hiện có. NLP càng mạnh, doanh nghiệp càng có thể đảm bảo rằng AI hiểu ý định của khách hàng chính xác hơn và có thể xử lý nhiều loại truy vấn hơn.
Đào tạo chatbot với cơ sở kiến thức được tuyển chọn kỹ lưỡng, có thể đọc được bởi AI cũng cải thiện thêm độ chính xác.
Sử dụng chatbot AI cảm nhận cảm xúc Những chatbot tiên tiến này phát hiện không chỉ ý định mà còn cả tình cảm và nỗ lực, cung cấp một sự hiểu biết sâu sắc hơn về nhu cầu của khách hàng. Thực hiện đánh giá thường xuyên dữ liệu của bạn để liên tục tinh chỉnh khả năng giải quyết vấn đề của AI, điều này sẽ đảm bảo một sự cá nhân hóa giống con người hơn.
Đầu tư vào những cải tiến này có thể tốn kém trong ngắn hạn, điều này có thể khiến một số công ty khởi nghiệp nản lòng. Tuy nhiên, chúng sẽ mang lại lợi nhuận trong dài hạn nếu các công ty có thể cung cấp trải nghiệm khách hàng khác biệt ở quy mô mà AI cho phép.
Ngay cả khi AI có thể xử lý yêu cầu hiệu quả, nếu chatbot khó điều hướng, thiếu hướng dẫn rõ ràng, hoặc không cung cấp cách dễ dàng để tiếp cận nhân viên con người, khách hàng có thể từ bỏ chúng trong thất vọng.
Phát hiện của chúng tôi cho thấy trong khi 87% chatbot dễ tìm và bắt đầu trò chuyện, 73% khách hàng bị bỏ rơi khi chatbot không thể giải quyết vấn đề. Thay vì kết nối khách hàng một cách mượt mà với nhân viên con người, những chatbot này về cơ bản nói rằng, "Xin lỗi, bạn tự lo liệu nhé!"
Ngõ cụt kỹ thuật số này là một dấu hiệu gây bối rối thực sự cho khách hàng và một dấu hiệu rõ ràng rằng thiết kế chatbot cần được cải thiện.
Hơn nữa, một số chatbot có thể không phải lúc nào cũng nhớ các tương tác trước đó của khách hàng, vì vậy người dùng cần lặp lại yêu cầu của họ khi chuyển sang kênh hỗ trợ khác. Những khoảng trống trong tính liên tục này có thể ảnh hưởng đến hiệu quả cảm nhận của AI trong dịch vụ khách hàng.
Một hệ thống AI được tích hợp tốt nên ưu tiên sự dễ sử dụng, khả năng tiếp cận và việc chuyển sang nhân viên con người khi cần thiết một cách liền mạch.
Ví dụ, một công ty tôi từng làm việc có một chatbot sẽ tự động tạo ra bản tóm tắt 100 từ về cuộc trò chuyện của khách hàng trước khi chuyển vụ việc cho một nhân viên.
Điều này cho phép chuyển tiếp mượt mà hơn đồng thời cho phép nhân viên nhanh chóng nắm bắt các chi tiết quan trọng mà không cần sàng lọc qua toàn bộ bản ghi, mặc dù toàn bộ cuộc trò chuyện vẫn có sẵn để tham khảo. Kết quả là, nền tảng đã thấy giảm 30% các truy vấn lặp lại và tăng điểm đánh giá trải nghiệm khách hàng.
Trong khi dịch vụ khách hàng do AI thúc đẩy tiếp tục phát triển, thành công của nó cuối cùng phụ thuộc vào mức độ tích hợp tốt vào các chiến lược trải nghiệm khách hàng rộng lớn hơn. Các công ty cân bằng cẩn thận giữa tự động hóa với chuyên môn của con người, đầu tư vào việc cải thiện hiểu biết bối cảnh của AI, và ưu tiên trải nghiệm khách hàng có nhiều khả năng thấy lợi ích của AI trong việc cung cấp dịch vụ hiệu quả.
Lianne Dehaye là phó chủ tịch tại TDCX AI.
How startups can make chatbots more than a digital dead end
The vision of AI revolutionizing customer service is compelling. Businesses across industries seem to agree. Many of them are investing billions in AI-powered chatbots, with banks alone projected to spend US$18.4 billion by 2028. Still, AI’s effectiveness in the field depends on how it is integrated into a broader customer experience strategy. In many cases, businesses aren’t fully realizing the tech’s potential. To find out just where chatbots fall short and, more importantly, how companies can better use them, we conducted some research. Here’s what we discovered and what it means for the customer service sector. Can AI chatbots hear us? We looked at chatbot performances across seven industries. The results were aggregated to identify systemic breakdowns in the desired and intended chatbot experience. Based on inputs from more than 200 data points, the findings confirmed our hypothesis: Chatbots excel in structured interactions but struggle with context, nuance, and complex queries. Think of times when you’ve received responses that felt scripted or when the bot misses your point entirely. Our findings were also supported by a recent Gartner survey, which found that only 14% of customer issues are resolved through self-service. This simply underscores the reality that many AI-driven customer service solutions are still falling short of delivering real value. Some of our evaluation is based on these questions: * Did the chatbot’s answers directly address the customer’s query? * Was the chatbot able to perform the expected task? * Was the issue fully resolved to the customer’s satisfaction? Based on our findings, the overall effectiveness of chatbots scored 60%, and the resolution rate was slightly higher at 67%, so there’s room for improvement. In particular, chatbot services within telecommunications mobile apps had notable issues – think error messages disrupting the user experience. That said, chatbots have made progress in initiating conversations and processing natural language more effectively. In structured environments such as education, where interactions are predictable and well-defined, AI performs well. However, in more dynamic industries such as ecommerce and travel, chatbots frequently stumble over linguistic nuances, including synonyms, acronyms, and spelling variations. They also struggle to maintain context in longer exchanges, forcing customers to repeat themselves. Balancing efficiency with customer experience One point we learned in our research is that companies that use AI mainly to save costs had trouble providing their desired customer experience. Automation can indeed help streamline service operations and reduce response times, but if AI-driven interactions lack personalization or flexibility, they may lead to customers getting frustrated. Here are some tips that founders can follow to effectively balance efficiency with customer experience: Define objectives beyond cost savings Determine which inquiries AI can handle effectively and which require human intervention. For example, a chatbot can provide estimated delivery times to a customer, but issues like “I received a successful delivery notification, but the package isn’t here” may be better resolved by a live agent. Providing an option to bypass suggested prompts (perhaps with starter questions) and connect users directly with an agent can also improve the experience. Evaluate different chatbot options Focus on those with strong natural language processing (NLP) capabilities and seamless integration with existing systems. The stronger the NLP is, the more businesses can ensure that the AI understands customer intent more accurately and can handle a wider range of inquiries. Training chatbots with a well-curated, AI-readable knowledge base also further improves accuracy. Use emotion-sensing AI chatbots These advanced chatbots detect not just intent but also sentiment and effort, providing a deeper understanding of the customer’s needs. Implement a regular review of your data to continuously refine the AI’s problem-solving capabilities, which will ensure a more human-like personalization. Investing in these improvements may be costly in the short term, which could put some startups off. However, they will provide returns in the long run if companies are able to provide a differentiated customer experience at the scale AI allows. Smooth like butter Even if AI can process requests effectively, if chatbots are difficult to navigate, lack clear guidance, or do not offer an easy way to reach a human agent, customers may abandon them in frustration. Our findings show that while 87% of chatbots are easy to find and start chatting with, 73% of customers are left ditched when the chatbots cannot solve the problem. Instead of smoothly connecting customers to a human agent, these chatbots essentially say, “Sorry, you’re on your own!” This digital dead end is a real head-scratcher for customers and a clear sign that chatbot design needs work. Further, some chatbots may not always recall a customer’s previous interactions, so users need to repeat their request when transitioning to another support channel. These gaps in continuity can impact the perceived effectiveness of AI in customer service. A well-integrated AI system should prioritize ease of use, accessibility, and seamless escalation to human agents when necessary. For example, one company I worked with had a chatbot that would automatically generate a 100-word summary of the customer’s conversation before handing the case off to an agent. This enabled a smoother transition while allowing agents to quickly grasp key details without sifting through an entire transcript, though the full conversation remained available for reference. As a result, the platform saw a 30% decrease in repeat inquiries and a boost in customer experience ratings. While AI-driven customer service continues to evolve, its success ultimately depends on how well it is integrated into broader customer experience strategies. Companies that carefully balance automation with human expertise, invest in improving AI’s contextual understanding, and prioritize customer experience are more likely to see the benefits of AI in delivering efficient and effective service. Lianne Dehaye is vice president at TDCX AI.
Gemini 2.5 Pro của Google ra mắt ngày 26/3/2025 đã không gây nhiều tiếng vang như bản cập nhật tạo hình ảnh của OpenAI, nhưng lại âm thầm trở thành mô hình lập luận sẵn sàng nhất cho doanh nghiệp.
Mô hình này đánh dấu bước tiến quan trọng của Google trong cuộc đua mô hình nền tảng, không chỉ về điểm chuẩn mà còn về khả năng sử dụng thực tế.
Ưu điểm nổi bật đầu tiên là khả năng lập luận minh bạch, có cấu trúc - thiết lập tiêu chuẩn mới cho chuỗi suy nghĩ (chain-of-thought). Gemini 2.5 Pro trình bày ý tưởng theo các bước đánh số, với các điểm phụ và logic nội bộ mạch lạc.
Đây là bước đột phá về độ tin cậy và khả năng điều hướng. Người dùng doanh nghiệp có thể thấy cách mô hình đi đến câu trả lời, từ đó xác thực, sửa chữa hoặc điều hướng lại với sự tự tin hơn.
Gemini 2.5 Pro hiện đứng đầu bảng xếp hạng Chatbot Arena với khoảng cách 35 điểm Elo so với mô hình đứng thứ hai - bản cập nhật OpenAI 4o.
Mô hình này vượt trội trong các nhiệm vụ đòi hỏi lập luận sâu: lập trình, giải quyết vấn đề tinh tế, tổng hợp tài liệu, thậm chí lập kế hoạch trừu tượng.
Khả năng lập trình của Google đã được cải thiện đáng kể. Trong các bài kiểm tra thực tế, Gemini 2.5 Pro đã thể hiện khả năng giải quyết thách thức lập trình mạnh mẽ, bao gồm xây dựng trò chơi Tetris hoạt động ngay lần đầu tiên khi xuất sang Replit.
Lợi thế quan trọng của Gemini 2.5 Pro là cửa sổ ngữ cảnh khổng lồ 1 triệu token, gấp đôi so với Claude 3.7 Sonnet (500.000 token). Điều này mở ra khả năng lập luận trên toàn bộ cơ sở mã, đọc tài liệu trực tiếp và làm việc trên nhiều tệp phụ thuộc lẫn nhau.
Tích hợp đa phương thức với hành vi giống agent là một điểm mạnh khác. Mô hình có thể trích xuất thông tin từ bài viết kỹ thuật, tạo sơ đồ SVG tương ứng, và sau đó cải thiện sơ đồ khi được hiển thị phiên bản có lỗi trực quan.
Mặc dù có một số hạn chế như chưa có mặt trên Google Cloud's Vertex AI và câu hỏi về độ trễ, Gemini 2.5 Pro đã đưa Google trở lại vị thế cạnh tranh nghiêm túc trong lĩnh vực AI doanh nghiệp.
📌 Gemini 2.5 Pro đánh dấu sự trở lại mạnh mẽ của Google với khả năng lập luận minh bạch, cửa sổ ngữ cảnh 1 triệu token và tích hợp đa phương thức vượt trội. Mô hình đứng đầu bảng xếp hạng với 35 điểm Elo cao hơn đối thủ, mang đến giải pháp AI đáng tin cậy cho doanh nghiệp.
https://venturebeat.com/ai/googles-gemini-2-5-pro-is-the-smartest-model-youre-not-using-and-4-reasons-it-matters-for-enterprise-ai/
Nhiều doanh nhân khởi nghiệp thường do dự vì nghĩ rằng cần đội ngũ lớn để vận hành doanh nghiệp, nhưng với sự phát triển của AI và tự động hóa, việc xây dựng doanh nghiệp thành công một mình đã trở thành hiện thực.
Christian Peverelli đã giải thích cách tận dụng công cụ AI và tự động hóa để tạo ra doanh nghiệp có khả năng mở rộng và sinh lợi theo điều kiện của riêng bạn, ngay cả khi không có nền tảng kỹ thuật.
Mô hình Phần mềm dưới dạng Dịch vụ (SaaS) đặc biệt có lợi cho doanh nhân đơn lẻ nhờ khả năng mở rộng, khả năng tiếp cận và lợi nhuận cao. Doanh nghiệp SaaS đòi hỏi cơ sở hạ tầng vật lý tối thiểu, giúp tiết kiệm chi phí và dễ quản lý.
Các công ty như SendGrid, GitHub và Figma đã chứng minh cách hoạt động tinh gọn có thể tạo ra doanh thu đáng kể, cho thấy tiềm năng của mô hình SaaS trong việc mang lại lợi nhuận cao với chi phí vận hành tương đối thấp.
Phát triển phần mềm AI đã trở nên dễ tiếp cận hơn nhờ các nền tảng như Replit, Lovable và Bolt.new, giúp đơn giản hóa quá trình thiết kế, tạo mẫu và triển khai ứng dụng.
Bắt đầu bằng cách xác định nhu cầu thị trường cụ thể và xây dựng Sản phẩm khả thi tối thiểu (MVP) để kiểm tra ý tưởng và thu thập phản hồi ban đầu từ người dùng.
Tự động hóa là công cụ mạnh mẽ giúp tối ưu hóa quy trình làm việc. Các công cụ như Zapier, Make và N8N cho phép tự động hóa các tác vụ lặp đi lặp lại như quy trình tiếp nhận khách hàng, quản lý phản hồi email và hợp lý hóa quy trình tạo nội dung.
AI agent có giá trị to lớn vì chúng có thể tự xử lý các tác vụ và hoạt động phức tạp. Nền tảng như Lindy và N8N cho phép đào tạo AI agent thực hiện nhiều chức năng như hỗ trợ khách hàng, tạo nội dung và phân tích dữ liệu marketing.
Để xây dựng doanh nghiệp AI thành công, cần xác định nhu cầu thị trường rõ ràng, phát triển sản phẩm có khả năng mở rộng, ra mắt MVP để kiểm tra ý tưởng, tự động hóa các tác vụ lặp đi lặp lại và sử dụng AI agent để xử lý các hoạt động nâng cao.
Mặc dù có nhiều cơ hội trong lĩnh vực khởi nghiệp AI, việc đạt được sự phù hợp giữa sản phẩm và thị trường là điều quan trọng trước khi mở rộng quy mô kinh doanh. Quá trình lặp đi lặp lại giúp tinh chỉnh sản phẩm để đáp ứng tốt hơn nhu cầu của khách hàng.
📌 Kết hợp AI, tự động hóa và mô hình SaaS, doanh nhân đơn lẻ có thể xây dựng doanh nghiệp thành công mà không cần đội ngũ lớn. Công cụ hiện đại giúp hợp lý hóa hoạt động, phát triển sản phẩm đổi mới và tập trung vào tăng trưởng với chi phí vận hành thấp.
https://www.geeky-gadgets.com/from-zero-to-solo-ai-success-build-your-business-without-a-team/
AI có thể nâng cao năng suất bằng cách tạo ra ý tưởng và nội dung, nhưng không thể thay thế các kỹ năng mềm của con người cần thiết cho thành công trong kinh doanh: tư duy phản biện và trí tuệ cảm xúc.
Khi cần phát triển ý tưởng, việc nhập chuỗi tìm kiếm vào nền tảng AI giúp tạo ra danh sách chủ đề cho các cuộc họp nhóm, đồng thời tiết kiệm thời gian và chi phí khi tạo văn bản cho bài thuyết trình.
Một câu chuyện thực tế cho thấy một khách hàng tiềm năng đã sử dụng công cụ AI để tạo bộ dữ liệu và bài thuyết trình bán hàng, nhưng đã thất bại khi CEO công ty mục tiêu nhận ra đó chỉ là nội dung có thể lấy từ ChatGPT.
Vấn đề nằm ở chỗ thông tin và khuyến nghị không được cá nhân hóa cho doanh nghiệp mục tiêu, nghiên cứu được trích dẫn không tồn tại thực sự, và họ đã vi phạm nguyên tắc cơ bản của bán hàng - giải quyết vấn đề thay vì chào bán sản phẩm.
Sau khi nhận được lời khuyên sử dụng dữ liệu độc quyền và làm lại bài thuyết trình với nghiên cứu thực tế, họ đã giành được cơ hội thứ hai và thành công khi sử dụng AI như một công cụ hỗ trợ, không phải là giải pháp thay thế hoàn toàn.
Gartner dự đoán khoảng 30% người bán hàng mới gia nhập lực lượng lao động đến năm 2028 sẽ bị suy giảm kỹ năng phân tích và kỹ năng xã hội như xây dựng mối quan hệ, đồng cảm và lắng nghe tích cực do phụ thuộc quá mức vào công nghệ AI.
Trí tuệ cảm xúc là "siêu năng lực" trong kinh doanh: chúng ta có thể cảm nhận cảm xúc của khách hàng đang gặp khó khăn, hiểu được lo lắng của người mua, và nhanh chóng thay đổi khi đối mặt với tình huống bất ngờ.
AI phải giả lập cảm xúc và trải nghiệm sống. Nếu tiến hành kinh doanh như một robot, bạn sẽ bị thay thế bởi robot.
Kết hợp dữ liệu do AI tạo ra với tư duy phản biện và trí tuệ cảm xúc sẽ giúp chứng minh rằng chúng ta luôn đặt lợi ích của khách hàng lên hàng đầu.
📌 Dù AI đang phát triển nhanh chóng, thành công kinh doanh vẫn phụ thuộc vào kỹ năng con người. Tư duy phản biện giúp xác minh thông tin AI, trong khi trí tuệ cảm xúc tạo kết nối thực sự với khách hàng. Kết hợp AI với kỹ năng mềm mới là chiến lược thắng lợi.
https://www.entrepreneur.com/science-technology/why-relying-on-ai-could-be-your-biggest-business-mistake/488331
Anthropic và Databricks đã công bố quan hệ đối tác kéo dài 5 năm nhằm cung cấp mô hình Claude AI thông qua nền tảng Data Intelligence Platform của Databricks, hỗ trợ hơn 10.000 công ty.
Mô hình Claude 3.7 Sonnet mới nhất đã có sẵn trên Databricks thông qua AWS, Azure và Google Cloud. Đây là mô hình lai có khả năng đưa ra phản hồi tức thì hoặc suy luận kỹ lưỡng cho các giải pháp chi tiết hơn.
Trọng tâm của thỏa thuận này là kết hợp AI với dữ liệu nội bộ của doanh nghiệp, giúp khách hàng xây dựng AI agent có thể khai thác dữ liệu doanh nghiệp hiệu quả.
Khi được sử dụng đúng cách, AI agent có thể thực hiện các tác vụ cụ thể một cách tự động và độc lập, mặc dù việc tạo và tinh chỉnh agent để hoạt động chính xác vẫn còn nhiều thách thức.
CEO Databricks Ali Ghodsi nhấn mạnh rằng quan hệ đối tác này sẽ giúp doanh nghiệp khai thác tiềm năng dữ liệu thông qua AI, cho phép xây dựng AI agent chuyên biệt theo lĩnh vực phù hợp với nhu cầu cụ thể.
Hợp tác này mang lại nhiều lợi ích cho khách hàng, bao gồm: AI agent chuyên biệt theo lĩnh vực để xử lý dữ liệu doanh nghiệp, tích hợp Claude với nền tảng Data Intelligence, và quản trị thống nhất cùng phát triển AI có trách nhiệm.
Các ví dụ ứng dụng bao gồm agent trong lĩnh vực y tế có thể đơn giản hóa quy trình tiếp nhận bệnh nhân cho thử nghiệm lâm sàng, hoặc agent trong lĩnh vực bán lẻ có thể phân tích dữ liệu bán hàng, mô hình theo mùa và hàng tồn kho để đề xuất cải tiến.
Khách hàng sẽ không cần sao chép thủ công dữ liệu để sử dụng với AI của Claude, đồng thời có thể thực thi các biện pháp kiểm soát bảo mật và quyền truy cập phù hợp đối với AI agent và dữ liệu của họ.
Các công cụ giám sát sẽ cho phép phát hiện việc sử dụng sai mục đích và đảm bảo hệ thống AI tuân thủ các quy tắc đạo đức cụ thể.
Những người quan tâm có thể tìm hiểu thêm về AI agent chuyên biệt và cách sử dụng chúng thông qua một hội thảo trực tuyến sắp tới với sự tham gia của CEO Databricks Ali Ghodsi và đồng sáng lập kiêm CEO Anthropic Dario Amodei.
📌 Anthropic và Databricks hợp tác 5 năm mang Claude AI đến hơn 10.000 doanh nghiệp, cho phép xây dựng AI agent chuyên biệt theo lĩnh vực tích hợp với dữ liệu nội bộ, với mô hình Claude 3.7 Sonnet đã sẵn sàng trên AWS, Azure và Google Cloud.
https://www.zdnet.com/article/anthropic-is-expanding-claude-ai-to-the-enterprise-with-domain-specific-ai-agents/
OpenAI vừa bổ sung tính năng tham chiếu nguồn kiến thức nội bộ cho ChatGPT, đáp ứng yêu cầu từ lâu của người dùng.
Người dùng ChatGPT Team (một trong những gói trả phí của công ty) có thể kết nối cơ sở dữ liệu kiến thức nội bộ trực tiếp vào nền tảng trong giai đoạn beta này.
Tính năng mới cho phép người dùng thực hiện tìm kiếm ngữ nghĩa dữ liệu, liên kết trực tiếp đến nguồn nội bộ trong câu trả lời, nhận ngữ cảnh cập nhật và liên quan nhất, đồng thời đảm bảo ChatGPT hiểu được thuật ngữ nội bộ của công ty.
Hiện tại, quản trị viên ChatGPT Team có thể kết nối Google Drive với ChatGPT, nhưng theo Nate Gonzales (quản lý sản phẩm tại OpenAI), đội ngũ đang phát triển các kết nối tiếp theo để hỗ trợ tất cả nguồn kiến thức nội bộ chính.
Theo thời gian, mô hình sẽ học ngôn ngữ độc đáo của tổ chức - tên dự án, từ viết tắt và thuật ngữ đặc thù của nhóm - đồng thời tôn trọng quyền người dùng.
Bằng cách kết nối cơ sở kiến thức nội bộ, ChatGPT Team có thể trở nên giá trị hơn đối với người dùng đã sử dụng nền tảng này để hỏi về chiến lược hoặc phân tích.
Nhiều công ty với nền tảng AI, chatbot, agent hoặc ứng dụng đều coi kho kiến thức nội bộ độc quyền của họ là yếu tố khác biệt, đây cũng là lý do tìm kiếm doanh nghiệp đang là lĩnh vực đang phát triển của AI doanh nghiệp.
Các công ty như Glean cung cấp cách sử dụng AI để tìm thông tin trong doanh nghiệp. ServiceNow đã mua lại MoveWorks nhằm tăng cường khả năng tìm kiếm doanh nghiệp.
OpenAI đã cho phép người dùng tải tài liệu trực tiếp từ Google Drive hoặc OneDrive của Microsoft. Google đưa sức mạnh của Gemini vào sản phẩm Workspace, và Perplexity đã bổ sung khả năng sử dụng tài liệu nội bộ làm nguồn dữ liệu.
Quyền kiểm soát đối với nguồn dữ liệu sẽ khác nhau tùy theo người dùng. Chỉ quản trị viên mới có thể thêm kết nối dữ liệu, nhưng người dùng từ nhóm nhỏ hơn có thể cấu hình khi nào ChatGPT sẽ sử dụng cơ sở kiến thức nội bộ và ổ đĩa nào.
OpenAI cho biết ChatGPT "hoàn toàn tôn trọng cài đặt và quyền tổ chức hiện có", vì vậy người dùng không có quyền truy cập vào ổ đĩa hoặc tài liệu cụ thể không thể buộc ChatGPT đọc những tài liệu đó.
📌 OpenAI đã bổ sung tính năng tham chiếu dữ liệu nội bộ cho ChatGPT Team, cho phép kết nối Google Drive và sắp tới là nhiều nguồn dữ liệu khác. Tính năng này tôn trọng quyền người dùng, học thuật ngữ nội bộ và nâng cao khả năng tìm kiếm doanh nghiệp, đáp ứng nhu cầu từ lâu của người dùng doanh nghiệp.
https://venturebeat.com/ai/chatgpt-gets-smarter-openai-adds-internal-data-referencing/
Airbnb đã hoàn thành việc di chuyển mã quy mô lớn đầu tiên sử dụng LLM, cập nhật khoảng 3.500 tệp kiểm thử thành phần React từ Enzyme sang React Testing Library (RTL).
Dự án ban đầu ước tính mất 1,5 năm nếu thực hiện thủ công, nhưng chỉ mất 6 tuần với sự hỗ trợ của AI.
Công ty đã xây dựng một quy trình có thể mở rộng cho "di chuyển mã dựa trên LLM" vào năm ngoái.
Quy trình bao gồm chia nhỏ việc di chuyển thành các bước xác thực và tái cấu trúc tự động, sử dụng LLM để sửa lỗi khi cần.
Airbnb đã thử nghiệm kỹ thuật prompt engineering nhưng phát hiện vòng lặp thử lại brute-force hiệu quả nhất.
Công ty đã tăng số lần thử lại và mở rộng ngữ cảnh prompt lên 40.000-100.000 token.
75% tệp đích được di chuyển chỉ trong 4 giờ, 97% hoàn thành sau 4 ngày.
Google cũng báo cáo rằng di chuyển mã dựa trên LLM tăng tốc quá trình lên 50%.
Một nghiên cứu của AWS cho thấy các nhà phát triển coi AI như một đồng nghiệp cộng tác nhưng vẫn muốn kiểm soát và xem xét kỹ lưỡng các thay đổi.
Các nhà phát triển vẫn muốn kiểm tra kỹ lưỡng mọi thứ, ngay cả khi AI tạo ra kết quả hợp lệ.
📌 Airbnb, Google và Amazon đang tiên phong sử dụng AI để tự động hóa di chuyển mã quy mô lớn, giúp tiết kiệm thời gian đáng kể. Tuy nhiên, sự giám sát và xem xét của con người vẫn cần thiết để đảm bảo độ chính xác và tin cậy của quá trình.
https://analyticsindiamag.com/global-tech/airbnb-uses-llms-to-pull-off-an-18-month-enzyme-to-rtl-migration-in-just-6-weeks/
Nơi làm việc đang trải qua cuộc cách mạng công nghệ tiếp theo với sự phát triển nhanh chóng của trí tuệ nhân tạo (AI). AI tạo sinh đang thay đổi hoàn toàn cách chúng ta làm việc.
Khảo sát của Wiley với khoảng 2.000 người từ nhiều vị trí và ngành nghề cho thấy 76% người tham gia thiếu tự tin về cách sử dụng AI tại nơi làm việc.
Một khảo sát của Gallup cũng báo cáo kết quả tương tự: chỉ 6% nhân viên cảm thấy rất thoải mái khi sử dụng AI trong công việc, trong khi khoảng một phần ba cảm thấy rất không thoải mái.
Quá trình chuyển đổi này gây căng thẳng: 96% người được khảo sát bởi Wiley cho biết họ đang trải qua một mức độ căng thẳng nào đó về sự thay đổi tại nơi làm việc. Hơn một nửa báo cáo ít nhất mức độ lo lắng trung bình.
Mặc dù đa số người được hỏi nói rằng quản lý của họ hỗ trợ nỗ lực tích hợp AI, chỉ 34% quản lý tự cảm thấy được trang bị đầy đủ khi áp dụng AI vào công việc.
Để thành công, doanh nghiệp cần vượt qua rào cản cảm xúc và áp dụng AI không chỉ để bắt kịp xu hướng mà còn để duy trì lợi thế cạnh tranh.
Ưu tiên hàng đầu là khuyến khích mọi người áp dụng AI trong công việc hàng ngày, bắt đầu bằng việc tăng khả năng tiếp cận các công cụ AI.
Việc áp dụng AI thành công không chỉ phụ thuộc vào khả năng tiếp cận mà còn cần nhân viên biết cách sử dụng các công cụ này một cách có trách nhiệm.
Theo khảo sát, công ty có thể giúp nhân viên cảm thấy thoải mái khi sử dụng công nghệ này bằng cách cung cấp 3 yếu tố:
Kỳ vọng rõ ràng về việc sử dụng AI, bao gồm khung kiểm soát rủi ro phù hợp
Hiểu rõ về chiến lược tổ chức và vai trò của AI trong đó
Đào tạo về cách tích hợp AI, đặc biệt là đào tạo quản lý vì nhiều người sẽ tìm đến cấp trên trực tiếp để được hỗ trợ
📌 AI đang tạo ra sự chuyển đổi lớn tại nơi làm việc với 76% nhân viên thiếu tự tin sử dụng nó. Doanh nghiệp cần tập trung vào 3 yếu tố: thiết lập kỳ vọng rõ ràng, xây dựng chiến lược tổ chức và đào tạo nhân viên để vượt qua nỗi sợ và tận dụng tiềm năng của AI.
https://www.fastcompany.com/91300606/how-to-teach-your-employees-to-embrace-rather-than-fear-the-growth-of-ai
AI tạo sinh đang gây chấn động trong hệ sinh thái marketing, với 96% nhà marketing đã hoặc dự định triển khai trong vòng 18 tháng, nhưng chỉ 32% đã tích hợp hoàn toàn vào hoạt động marketing.
Các công ty đã đạt được kết quả ấn tượng: Vanguard tăng tỷ lệ chuyển đổi quảng cáo LinkedIn lên 15%, Unilever giảm 90% thời gian phản hồi của nhân viên dịch vụ khách hàng nhờ AI tạo sinh.
3 quyết định quan trọng khi triển khai AI tạo sinh trong marketing: (1) sử dụng AI tạo sinh hay AI phân tích truyền thống, (2) cần bổ sung gì vào mô hình AI tạo sinh để tạo ra đầu ra mong muốn, và (3) mức độ can thiệp của con người cần thiết.
AI phân tích tập trung vào dự đoán từ dữ liệu có cấu trúc, trong khi AI tạo sinh tạo nội dung mới từ dữ liệu phi cấu trúc như văn bản, âm thanh và hình ảnh.
Các công ty cần cân nhắc giữa đầu vào chung (mô hình nền tảng) và đầu vào tùy chỉnh (dữ liệu riêng của công ty), với nhiều ứng dụng sử dụng đầu vào kết hợp.
Phương pháp phổ biến trong marketing là tăng cường mô hình đa năng bằng nội dung chuyên biệt thông qua các prompt, gọi là "tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài" (RAG).
Khung quyết định gồm 4 phương án: (Q1) không tùy chỉnh đầu vào, không cần xem xét đầu ra; (Q2) không tùy chỉnh đầu vào, cần xem xét đầu ra; (Q3) tùy chỉnh nội dung, không cần xem xét đầu ra; (Q4) tùy chỉnh nội dung với xem xét của con người.
Trường hợp thất bại: chatbot của Air Canada đưa ra giảm giá cho khách hàng bị tang chế mà hãng sau đó từ chối, nhưng tòa án đã buộc hãng phải thực hiện lời hứa của chatbot.
Coca-Cola sử dụng AI để làm lại quảng cáo kỳ nghỉ 1995 "Holidays Are Coming" ban đầu nhận phản hồi tích cực, nhưng sau đó bị chỉ trích vì "thiếu sự ấm áp" - một nhược điểm phổ biến của hình ảnh từ AI tạo sinh.
Các công ty cần cân nhắc nhiều yếu tố khi triển khai AI tạo sinh: mục tiêu công việc, loại dữ liệu, giới hạn nguồn lực, mức cải thiện năng suất cần đạt được, tốc độ cung cấp đầu ra, mức độ rủi ro từ lỗi, và mối quan hệ giữa độ chính xác, quyền riêng tư với danh tiếng.
📌 AI tạo sinh đang định hình lại marketing với 96% nhà marketing đã hoặc sẽ triển khai trong 18 tháng tới. Khung quyết định 4 phương án giúp cân bằng giữa tốc độ, chi phí, độ chính xác và rủi ro, tùy thuộc vào mức độ tùy chỉnh đầu vào và sự giám sát của con người đối với đầu ra.
https://hbr.org/2025/03/how-should-gen-ai-fit-into-your-marketing-strategy
#HBR
Tác giả: Dhruv Grewal, Cinthia B. Satornino, Thomas H. Davenport và Abhijit Guha
Ngày 24 tháng 3 năm 2025
Minh họa bởi Alex Eben Meyer
Tóm tắt: Để tích hợp thành công AI tạo sinh (gen AI) trong marketing, các công ty cần cân bằng giữa tự động hóa, cá nhân hóa và giám sát của con người. Do đó, họ nên tuân theo một số bước. Đầu tiên, xác định liệu một nhiệm vụ có cần gen AI để tạo nội dung hay không...
AI tạo sinh (gen AI) đã gây ra những cú sốc công nghệ trong toàn bộ hệ sinh thái thị trường—đặc biệt là đối với lĩnh vực marketing—khiến các bên liên quan phải đối mặt với những ảnh hưởng, cơ hội và thách thức của nó. Vì nó tạo ra nhiều hình thức nội dung khác nhau, các nhà tiếp thị thường xem đây là một bước tiến mạnh mẽ trong việc tạo ra bản sao sản phẩm, bài đăng blog, quảng cáo video và web, các ưu đãi được cá nhân hóa cho khách hàng và nghiên cứu thị trường (chẳng hạn, trong một số trường hợp gen AI có thể được sử dụng để dự đoán phản hồi của khách hàng tiềm năng, khách hàng hiện tại và các thành phần khác trên thị trường). Thực tế, phiên bản thứ chín của báo cáo "Tình trạng Marketing" của Salesforce, một cuộc khảo sát với 5.000 nhà tiếp thị toàn cầu, đã phát hiện ra rằng "triển khai hoặc tận dụng AI" là ưu tiên hàng đầu của họ. Một số tổ chức đã sử dụng các công cụ gen AI để đạt được kết quả marketing tốt hơn đáng kể. Ví dụ, Vanguard đã sử dụng gen AI để tăng tỷ lệ chuyển đổi quảng cáo LinkedIn lên 15%. Tương tự, các đại lý dịch vụ khách hàng của Unilever dựa vào gen AI để giảm thời gian phản hồi đi 90%.
Tuy nhiên, cuộc khảo sát của Salesforce cho thấy mặc dù 96% các nhà tiếp thị đã có AI tạo sinh hoặc đang lên kế hoạch triển khai trong vòng 18 tháng, chỉ có 32% đã triển khai đầy đủ nó trong hoạt động marketing. Điều này có thể là do việc triển khai các sáng kiến marketing dựa trên AI không phải không có rủi ro. Ví dụ, Coca-Cola, đã sử dụng AI để tạo lại quảng cáo kỳ nghỉ năm 1995 "Holidays Are Coming", ban đầu nhận được phản hồi rất tích cực từ người tiêu dùng về quảng cáo, nhưng sau đó lại gặp phải nhiều chỉ trích do "thiếu sự ấm áp" vốn là một lời chỉ trích phổ biến đối với hình ảnh nguồn từ gen AI. Do đó, thách thức không phải là liệu các công ty có nên mà là làm thế nào họ triển khai các công cụ gen AI trong các ứng dụng marketing khác nhau để tối đa hóa lợi ích đồng thời giảm thiểu rủi ro.
Mặc dù có tầm quan trọng cao, nhiều Giám đốc Dữ liệu và Phân tích (CDAOs), là những người thường chịu trách nhiệm giới thiệu AI trong toàn tổ chức, vẫn chưa chính thức hóa các chiến lược và chiến thuật gen AI cho marketing hoặc các chức năng khác sử dụng. Quyết định về việc lựa chọn công cụ gen AI (có rất nhiều) thường diễn ra ở cấp độ cá nhân, phản ánh một hệ thống vá víu của các thử nghiệm tạm thời, đôi khi không rõ đối với ban quản lý cấp cao. Trong các cuộc thảo luận với hơn 20 lãnh đạo công ty, chúng tôi biết rằng hành trình của các công ty đến với một chiến lược gen AI thành công cho marketing thường bao gồm ba quyết định chính: 1) liệu có nên sử dụng gen AI hay AI phân tích truyền thống; 2) nếu có, điều gì phải được thêm vào mô hình gen AI để tạo ra kết quả mong muốn, và 3) mức độ tăng cường con người cần thiết, chẳng hạn như lời nhắc và đánh giá đầu ra.
Để đưa ra những quyết định này, các công ty cần trả lời hàng loạt câu hỏi, bao gồm:
Trong bài viết này, chúng tôi trình bày cách các nhà tiếp thị có thể điều hướng các câu hỏi này, sự đánh đổi liên quan đến việc đào tạo và tạo ra các đầu vào dựa trên lời nhắc cho các công cụ và quy trình gen AI, và một khuôn khổ để giúp các nhà tiếp thị cân nhắc những sự đánh đổi một cách chiến lược.
Quyết định chính đầu tiên đối với các nhà tiếp thị là xác định liệu trường hợp sử dụng có cần gen AI hay AI phân tích là đủ. Nhiều nhà tiếp thị không hiểu đầy đủ sự khác biệt giữa AI tạo sinh và AI phân tích. Để làm rõ, mục đích của AI phân tích là phân tích dữ liệu hiện có và sử dụng nó để dự đoán hoặc phân loại dữ liệu chưa tồn tại. Nó được đào tạo trên dữ liệu có cấu trúc (dữ liệu có thể được tổ chức thành các hàng và cột số) và từ đó tạo ra các đầu ra có cấu trúc. Trong marketing, nó đã được sử dụng để dự đoán sản phẩm hoặc dịch vụ mà khách hàng có khả năng mua, giá mà khách hàng có khả năng trả, khuyến mãi mà khách hàng sẽ phản hồi, hoặc quảng cáo mà khách hàng sẽ nhấp vào.
Học máy phân tích truyền thống đã được các nhà tiếp thị sử dụng rộng rãi và hiệu quả trong nhiều thập kỷ. Ví dụ, khoảng 10 năm trước, Kia đã sử dụng IBM Watson để xác định những người có ảnh hưởng thể hiện các đặc điểm gắn liền với thương hiệu Kia (những người có ảnh hưởng này sau đó được sử dụng để củng cố sự hiện diện của Kia tại Super Bowl 2016)—một thông tin hữu ích vẫn cần thiết cho đến ngày nay. AI phân tích khá giỏi trong các loại dự đoán này, và do đó AI phân tích tiếp tục có giá trị cực kỳ lớn đối với các nhà tiếp thị. Nhưng với sự hype gần đây xung quanh AI tạo sinh, nhiều nhà lãnh đạo doanh nghiệp dường như không xem xét AI phân tích khi thích hợp và, vì sợ bỏ lỡ một nguồn lợi thế cạnh tranh hoặc bị bỏ lại phía sau, thay vào đó chỉ đơn giản là theo đuổi công nghệ mới nhất.
Giống như AI phân tích, gen AI cũng sử dụng các phương pháp phân tích và học máy. Tuy nhiên, mục tiêu của gen AI ít liên quan đến việc đưa ra dự đoán và nhiều hơn về việc tạo ra nội dung mới từ các mẫu được phân biệt trong nội dung hiện có. Gen AI được đào tạo trên dữ liệu tương đối không có cấu trúc như từ, âm thanh và hình ảnh trong một chuỗi, và nó có thể tạo ra đầu ra dữ liệu không có cấu trúc. Ví dụ, trong marketing và các chức năng hướng đến khách hàng, nó có thể được sử dụng để tạo ra các ưu đãi, quảng cáo, hình ảnh sản phẩm mới, bài đăng blog, tin nhắn cho khách hàng và mô tả sản phẩm, cũng như phân tích tâm lý khách hàng, đề xuất giải pháp cho các vấn đề dịch vụ và, trong một số trường hợp, dự đoán hành vi khách hàng trong tương lai.
Các nhà tiếp thị sẽ cần cả AI tạo sinh và phân tích để đạt được các mục tiêu của họ. Ví dụ, nếu một công ty muốn gửi "ưu đãi tốt nhất tiếp theo" cho khách hàng, AI phân tích có thể dự đoán ưu đãi nào có khả năng được mua nhiều nhất bởi một khách hàng cụ thể dựa trên dữ liệu mua hàng của khách hàng trong quá khứ. Nếu nhà tiếp thị muốn trình bày một thông điệp được cá nhân hóa và cung cấp mô tả sản phẩm cho giao dịch mua dự đoán cho khách hàng, gen AI sẽ là công cụ tốt nhất để hoàn thành nhiệm vụ đó. Kết hợp cả hai loại AI này, các nhà tiếp thị có thể gửi ưu đãi tốt nhất tiếp theo được tạo ra bởi các công cụ AI phân tích, được bọc trong một thông điệp tiếp thị được cá nhân hóa do gen AI tạo ra được thiết kế để thu hút giao dịch mua hàng hơn nữa.
Thứ hai, giả sử rằng gen AI là phù hợp cho trường hợp sử dụng đã xác định, quyết định quan trọng tiếp theo là liệu đầu vào tùy chỉnh hay tổng quát có cần thiết cho các ứng dụng hướng đến khách hàng hay không. Các đầu vào được sử dụng để đào tạo các công cụ gen AI có thể được coi là tồn tại trên một phổ. Ở một đầu, có các đầu vào tổng quát do nhà cung cấp cung cấp trong các "mô hình nền tảng" (được đào tạo trên lượng dữ liệu công khai rất lớn, chẳng hạn như Wikipedia, GitHub, dữ liệu được thu thập từ các trang mạng xã hội và các nguồn tương tự). Ở đầu kia, có đầu vào tùy chỉnh, hoặc dữ liệu độc quyền, cụ thể của công ty. Giữa hai điểm cuối trên phổ có nhiều ứng dụng rút ra từ các đầu vào lai (cả dữ liệu tổng quát và tùy chỉnh).
Trong nhiều trường hợp, ứng dụng gen AI được hưởng lợi từ việc đào tạo và truy cập vào một tập dữ liệu tương đối rộng—các mô hình ngôn ngữ lớn (LLMs) hoặc mô hình hình ảnh lớn (LIMs) rộng lớn. Ví dụ, khi tương tác với người dùng cá nhân, như một đại lý dịch vụ hoặc bạn đồng hành ảo, hoặc tóm tắt các cuộc trò chuyện với khách hàng, các công cụ gen AI như ChatGPT được hưởng lợi từ việc truy cập dữ liệu rộng rãi trên nhiều lĩnh vực và quan điểm, cho phép chúng tạo ra nhiều phản hồi khác nhau tùy thuộc vào ngữ cảnh và nội dung của tương tác. Nội dung đào tạo này có thể được coi là một nền giáo dục tổng quát rộng rãi cho các mô hình AI.
Ngược lại, nếu nội dung cụ thể của công ty là cần thiết để tạo ra đầu ra mong muốn (quan trọng cho việc tạo ra bản sao sản phẩm, bài đăng blog, quảng cáo hoặc trả lời dịch vụ khách hàng, ví dụ), các mô hình có thể cần được đào tạo hoặc tăng cường với một tập dữ liệu hẹp, được xây dựng cẩn thận của dữ liệu độc quyền. Một số mô hình tùy chỉnh thường được đào tạo từ đầu trên các nguồn dữ liệu này. Các mô hình thường là dành riêng cho lĩnh vực, chẳng hạn như BloombergGPT và FinGPT cho tài chính, KL3M và ChatLaw cho các ứng dụng pháp lý, và BioNeMo và MedLM cho các ứng dụng khoa học đời sống. (Lưu ý rằng không có ví dụ nào trong số này hiện đang được sử dụng trong marketing, bán hàng hoặc dịch vụ khách hàng.) Các mô hình khác có thể được "đào tạo tùy chỉnh" trên nội dung cụ thể, từ đó sửa đổi các mô hình nền tảng tổng quát, mặc dù phương pháp này cũng tương đối khó khăn và hiếm gặp. Một ví dụ là Harvey, một LLM pháp lý đã được tinh chỉnh bằng nội dung pháp lý, hợp tác với OpenAI và GPT-4. Ít nhất một nhà cung cấp, Jasper, hiện cung cấp các phiên bản được đào tạo tùy chỉnh của các mô hình OpenAI trên nội dung định hướng marketing.
Một cách tiếp cận phổ biến hơn nhiều trong các ứng dụng marketing và dịch vụ khách hàng là tăng cường các mô hình mục đích tổng quát với nội dung chuyên biệt và độc quyền thông qua một tập hợp các lời nhắc không thay đổi mô hình cơ bản nhưng ảnh hưởng lớn đến đầu ra của nó. Cách tiếp cận "tạo tăng cường truy xuất" (RAG) như vậy đã được nhiều công ty áp dụng sử dụng nó để sửa đổi mô hình của họ. Phương pháp này cung cấp lợi ích về mặt giảm tần suất của các ảo giác hoặc đầu ra không phù hợp—một nguồn rủi ro đáng kể cho các công ty marketing. Colgate-Palmolive, ví dụ, đã làm việc với nhà cung cấp Market Logic để sử dụng cách tiếp cận này để nắm bắt kiến thức về người tiêu dùng và thị trường để các nhà tiếp thị trong công ty có thể dễ dàng tiếp cận. Tương tự, Jasper AI cũng cho phép khách hàng nhập nội dung độc quyền của họ liên quan đến "hướng dẫn thương hiệu cụ thể và yêu cầu nội dung" trong một chương trình có tên "Custom Apps".
Vì đầu vào tùy chỉnh có thể sửa đổi mô hình vĩnh viễn hoặc tạm thời, các công ty yêu cầu đầu vào tùy chỉnh thường làm việc với các mô hình mã nguồn mở được lưu trữ tại chỗ hoặc các phiên bản độc quyền của mô hình nền tảng từ các nhà cung cấp đám mây. Bằng cách ban hành kiểm soát đối với các mô hình độc quyền hoặc nền tảng, họ cũng có thể tránh rò rỉ tài sản trí tuệ hoặc dữ liệu bí mật vào các mô hình công khai, một nguồn rủi ro đáng kể khác cho các công ty. Nếu các công ty hạn chế (thường thông qua RAG và kỹ thuật lọc lời nhắc) các lời nhắc liên quan đến nội dung đầu vào tùy chỉnh, các ảo giác thường được giảm đáng kể, và hệ thống có thể cung cấp trích dẫn cho nội dung tùy chỉnh có liên quan.
Sự đánh đổi giữa đầu vào tổng quát và đầu vào tùy chỉnh do đó bao gồm cả chi phí và rủi ro. Với đầu vào tổng quát, các công ty không phải chịu chi phí tạo ra tập dữ liệu riêng để đào tạo mô hình và hỗ trợ tạo đầu ra. Các công ty chỉ yêu cầu đầu vào tổng quát có thể hợp tác với OpenAI hoặc Google Gemini, ví dụ, và tránh hoàn toàn chi phí. Tuy nhiên, các mô hình này không nhất thiết cung cấp thông tin đầu ra chính xác và cụ thể nhất trong các lĩnh vực nội dung hẹp. Chúng cũng tạo ra một rủi ro tương đối cao về ảo giác hoặc đầu ra không mong muốn được tạo ra bởi các mô hình LLM "dự đoán-từ-tiếp-theo" này. Việc sử dụng các mô hình có sẵn công khai cũng làm tăng rủi ro về quyền riêng tư và bảo mật khiến các công ty dễ bị tổn thương về mặt đạo đức và quy định. Các công ty nên cẩn thận xem xét khả năng chịu đựng rủi ro, nhu cầu bảo mật và quyền riêng tư, và các hạn chế về nguồn lực khi họ lựa chọn các công cụ dựa trên đầu vào tổng quát so với tùy chỉnh.
Quyết định chính thứ ba trong việc triển khai gen AI liên quan đến mức độ tăng cường con người trước khi đầu ra được chuyển đến người tiêu dùng cuối. Ở một thái cực, các công ty có thể chọn để đầu ra gen AI chảy trực tiếp đến người tiêu dùng cuối, điều này có thể phù hợp khi có rủi ro tối thiểu liên quan đến tính không chính xác, thiên vị và/hoặc nội dung gây khó chịu. Ví dụ, do rủi ro từ lỗi hoặc thiếu chính xác tương đối thấp, nhiệm vụ tóm tắt đánh giá sản phẩm bằng công cụ gen AI có thể được thực hiện và tải trực tiếp lên trang web mà không cần con người đánh giá đầu ra. Ngược lại, khi những rủi ro này cao, chẳng hạn như nếu gen AI được sử dụng để tạo ra các khuyến mãi hoặc ưu đãi có ràng buộc pháp lý, các công ty có thể chọn mức độ đánh giá và chỉnh sửa đáng kể bởi một đại lý con người, do đó tăng cường đầu ra trước khi chuyển đến người dùng cuối.
Mặc dù trong các cuộc phỏng vấn của chúng tôi, một số đại diện công ty khẳng định rằng có ít hoặc không có lợi ích về năng suất liên quan đến việc sử dụng gen AI nếu nội dung sau đó phải được đánh giá và chỉnh sửa, việc thiếu tăng cường con người có thể dẫn đến thiệt hại vật chất cho các công ty trong các trường hợp rủi ro lỗi cao. Ví dụ, một chatbot từ Air Canada đã cung cấp cho khách hàng một chiết khấu cho tang lễ mà hãng hàng không sau đó từ chối. Tuy nhiên sau đó, tòa án đã ra phán quyết rằng hãng hàng không phải tôn trọng ưu đãi chiết khấu của chatbot. Sự đánh đổi với việc tăng cường con người bao gồm chi phí tăng của một đại lý con người và tốc độ giao hàng giảm do các bước bổ sung trong quá trình xem xét đầu ra, nhưng lợi ích bao gồm tăng độ chính xác và tính phù hợp của đầu ra.
Khuôn khổ của chúng tôi (dưới đây) có thể giúp người ra quyết định phân loại những sự đánh đổi này giữa các cách tiếp cận khác nhau, để thu được lợi ích của gen AI và lựa chọn các công cụ phù hợp nhất với các mục tiêu chiến lược và chiến thuật của công ty họ, cũng như bảo vệ cược khi điều hướng sự đánh đổi giữa rủi ro và phần thưởng. Bốn phần tư mỗi cái đại diện cho một sự kết hợp cụ thể của lợi ích và chi phí dựa trên sự đánh đổi liên quan đến đầu vào đào tạo và truy cập cũng như việc chuyển đầu ra đến người dùng cuối.
Cân nhắc sự đánh đổi khi làm việc với Gen AI. Ma trận 2x2 giải thích sự đánh đổi của các phương pháp khác nhau khi sử dụng AI tạo sinh cho marketing. Bốn danh mục dựa trên mức độ tùy chỉnh của đầu vào và lượng đánh giá của con người đối với đầu ra được yêu cầu.
Phần tư 1 (Q1): Không có đầu vào tùy chỉnh, không cần đánh giá đầu ra. Có các ứng dụng marketing với ít nhu cầu về dữ liệu đầu vào tăng cường và liên quan đến rủi ro tương đối thấp từ lỗi hoặc thiếu chính xác (ví dụ: tóm tắt đánh giá sản phẩm). Trong những trường hợp như vậy, các triển khai gen AI liên quan đến ít hoặc không có sự tăng cường của con người trước khi chuyển đầu ra đến người dùng cuối có thể phù hợp. Những quy trình tăng cường con người với đầu vào thấp tổng quát này thường cung cấp tốc độ giao hàng cao với chi phí thấp. Đáng chú ý, có những rủi ro liên quan đến quyền riêng tư và độ chính xác. Tuy nhiên, các nhà tiếp thị triển khai các quy trình này nên coi những rủi ro này là sự đánh đổi có thể chấp nhận được cho các lợi thế về tốc độ và chi phí trước khi triển khai. Loại này có thể bao gồm các bản tóm tắt nội bộ của các tài liệu nghiên cứu thị trường hoặc các cuộc trò chuyện với khách hàng, tóm tắt cuộc họp nội bộ, hoặc bất kỳ nội dung nào khác không có khả năng được tiêu thụ bởi khách hàng hoặc chứa các lời hứa được thực thi theo hợp đồng.
Phần tư 2 (Q2): Không có đầu vào tùy chỉnh, nhưng cần đánh giá đầu ra. Đối với các công ty yêu cầu độ chính xác cao hơn nhưng vẫn dựa vào đầu ra công khai, chung chung, việc sử dụng LLM công khai và giao cho một đại lý con người đánh giá và chỉnh sửa đầu ra trước khi gửi có thể phù hợp. Các công ty này phải chịu chi phí của một đánh giá con người, điều này có thể làm chậm việc gửi đầu ra và giảm lợi ích năng suất. Tuy nhiên, cách tiếp cận này giảm thiểu các rủi ro có thể tốn kém do lỗi hoặc thiếu chính xác. Các ví dụ trong ô này có thể bao gồm bài đăng blog, podcast do AI tạo ra, hoặc bản sao sản phẩm cho các sản phẩm được hiểu rõ.
Phần tư 3 (Q3): Nội dung tùy chỉnh, nhưng không cần đánh giá đầu ra. Một số công ty tạo ra đầu ra từ dữ liệu độc quyền nhưng đối mặt với rủi ro tối thiểu về thiếu chính xác hoặc lỗi. Những triển khai này bao gồm chi phí phát triển và duy trì một tập dữ liệu độc quyền để đào tạo và truy cập—một chi phí không nhỏ. Tuy nhiên, chúng cung cấp đầu ra phù hợp hơn và giảm thiểu rủi ro về quyền riêng tư. Việc thiếu tăng cường của con người có thể dẫn đến thiếu chính xác, nhưng trong những trường hợp sử dụng này, các rủi ro liên quan đến thiếu chính xác được coi là thấp. Các ví dụ có thể bao gồm các ứng dụng gen AI tư vấn vị trí sản phẩm trong cửa hàng, chatbot dịch vụ khách hàng với nội dung độc quyền về sản phẩm và dịch vụ, hoặc hệ thống quản lý kiến thức marketing nội bộ.
Phần tư 4 (Q4): Nội dung tùy chỉnh kèm đánh giá của con người. Khi dữ liệu độc quyền, giảm thiểu rủi ro và độ chính xác đầu ra đều cần thiết, cần một cách tiếp cận cao cấp. Những triển khai gen AI này tốn kém nhất vì các công ty phải chịu cả chi phí tạo và duy trì một tập dữ liệu độc quyền và thực hiện đánh giá của đại lý con người. Ngoài ra, việc gửi đầu ra đến người dùng cuối bị chậm lại bởi các giai đoạn đánh giá và chỉnh sửa. Tuy nhiên, đây là phần tư mà việc giảm thiểu rủi ro đáng kể là mong muốn. Các ví dụ liên quan bao gồm các ứng dụng có mức độ nhạy cảm về quy định hoặc hợp đồng cao, chẳng hạn như ưu đãi có hiệu lực cho khách hàng hoặc mô tả sản phẩm cho thuốc hoặc thiết bị y tế.
Điều quan trọng đối với các nhà tiếp thị là phải nhớ rằng cả AI phân tích và tạo sinh đều có thể cung cấp giá trị, và rằng các tương tác với khách hàng sẽ, trong nhiều trường hợp, đòi hỏi cả hai loại AI. Các công ty cam kết sử dụng gen AI ở quy mô rộng có khả năng cuối cùng sẽ gặp phải các trường hợp sử dụng bao gồm tất cả bốn phần tư mà chúng tôi đã mô tả. Hình trên và các cuộc thảo luận cung cấp hướng dẫn trong việc xem xét các sự đánh đổi khác nhau liên quan đến việc triển khai gen AI. Theo thời gian, những thay đổi công nghệ có thể làm cho việc kết hợp nội dung tùy chỉnh trở nên dễ dàng hơn và giảm sự phổ biến của lỗi và thiếu chính xác trong các hệ thống có sẵn công khai. Tuy nhiên, ngày nay và trong tương lai có thể thấy trước, tất cả những điều trên đều đòi hỏi sự chú ý và nỗ lực đáng kể để giải quyết.
Oracle vừa công bố tính năng mới cho phép doanh nghiệp tạo AI agent riêng mà không cần viết mã.
Tính năng này có sẵn trên Fusion Cloud Applications Suite của Oracle, giúp doanh nghiệp quản lý tài chính, nhân sự, chuỗi cung ứng và nhiều lĩnh vực khác.
AI agent là các AI chuyên biệt và hoàn toàn tự chủ, có thể hỗ trợ doanh nghiệp trong các quy trình làm việc cụ thể.
Oracle đã giới thiệu hơn 50 AI agent năm ngoái, có khả năng từ trả lời câu hỏi của nhân viên về phúc lợi đến lên lịch ca làm việc.
Với công bố mới, khách hàng có thể truy cập AI Agent Studio để tạo, thử nghiệm, tùy chỉnh và triển khai AI agent riêng.
Để tạo AI agent, người dùng chỉ cần mô tả rõ mục tiêu và các công cụ có sẵn, không cần kiến thức lập trình.
AI agent có thể sử dụng các ứng dụng trong Fusion và bên ngoài như Microsoft Teams hoặc Slack để hoàn thành nhiệm vụ.
Các công ty công nghệ lớn như Meta, Microsoft đều đang phát triển công nghệ AI agent.
CEO Salesforce Marc Benioff cho rằng chúng ta đang bước vào "Kỷ nguyên AI tự chủ" với các AI worker tự động.
Miranda Nash của Oracle cho rằng AI agent là tương lai của AI tiên tiến, nhưng cần giữ phạm vi hẹp để tránh nhầm lẫn.
Trong tương lai, Oracle sẽ kết hợp các AI agent chuyên biệt để thực hiện các tác vụ phức tạp hơn.
📌 Oracle ra mắt công cụ tạo AI agent không cần lập trình trên nền tảng Fusion Cloud, mở ra khả năng tự động hóa quy trình cho doanh nghiệp. Với hơn 50 AI agent có sẵn và khả năng tạo mới dễ dàng, Oracle đang dẫn đầu xu hướng AI tự chủ trong doanh nghiệp.
https://qz.com/oracles-is-now-letting-businesses-create-their-own-ai-a-1851771226
Zapier AI là công cụ đa nền tảng mạnh mẽ giúp tự động hóa các tác vụ lặp lại hàng ngày, được thành lập từ năm 2011 và đã trở thành một trong những ứng dụng làm việc từ xa được yêu thích nhất.
Với việc tích hợp AI vào năm 2023, người dùng có thể tạo ra các quy trình tự động hóa phức tạp bằng ngôn ngữ tự nhiên thông qua Copilot - trợ lý quy trình làm việc được hỗ trợ bởi AI, không cần kiến thức lập trình chuyên sâu.
Zapier AI tích hợp với hơn 7.000 ứng dụng web, cho phép tạo các tự động hóa đơn giản hoặc đa bước phức tạp. Ví dụ: tạo Zap tự động soạn thảo phản hồi email Gmail bằng ChatGPT hoặc xây dựng quy trình lấy dữ liệu từ Google Forms, tạo liên hệ trong Hubspot và gửi thông báo qua Slack.
Công cụ này còn cho phép điền thông tin vào bảng bằng lệnh ngôn ngữ tự nhiên thay vì công thức phức tạp, phân tích và tóm tắt dữ liệu từ bảng tính, tài liệu hoặc tin nhắn.
Zapier AI có khả năng tạo chatbot tùy chỉnh cho nhóm hoặc khách hàng, được xây dựng trên mô hình GPT-4o mini của OpenAI và có thể được đào tạo trên các nguồn kiến thức liên quan đến doanh nghiệp như trang web, tệp và bảng.
Zapier Agents hoạt động như đồng nghiệp tùy chỉnh thực hiện các tác vụ cụ thể và học hỏi về doanh nghiệp trong quá trình làm việc.
Mặc dù hiệu quả trong việc tạo tự động hóa, Zapier AI không thể đưa ra quyết định phức tạp thay bạn và không phải là sự thay thế cho phán đoán của con người.
Zapier cung cấp nhiều gói dịch vụ: gói Miễn phí với Zap không giới hạn và quyền truy cập vào trình tạo Zap hỗ trợ AI; gói Professional dành cho cá nhân với giá 29,99 USD/tháng; gói Team cho doanh nghiệp với giá 103,50 USD/tháng.
Các tính năng bổ sung như chatbot có sẵn dưới dạng tiện ích bổ sung với gói Miễn phí để thử nghiệm, gói Pro cho cá nhân (20 USD/tháng) và gói Advanced cho nhóm (100 USD/tháng).
Zapier AI là dịch vụ dựa trên đám mây có sẵn qua giao diện web, không có ứng dụng dành riêng cho máy tính để bàn hoặc di động, đây là điểm hạn chế duy nhất đáng chú ý.
📌 Zapier AI là công cụ tự động hóa mạnh mẽ kết nối 7.000+ ứng dụng, cho phép tạo quy trình không cần code và chatbot thông minh dựa trên GPT-4o mini. Với gói miễn phí hào phóng và giao diện đơn giản, đây là giải pháp lý tưởng để tăng hiệu quả công việc.
https://www.techradar.com/computing/artificial-intelligence/what-is-zapier-ai-everything-you-need-to-know-about-the-ai-automation-tool
Mô hình ngôn ngữ lớn (LLMs) như ChatGPT có thể được ví như cây cung, người dùng là cung thủ, và mục tiêu của người dùng là quả táo - đây là cách hiểu về mối quan hệ giữa AI và người dùng trong công việc.
Nghiên cứu cho thấy LLMs có nhiều hạn chế: khoảng 60% câu trả lời có thể không chính xác, thậm chí phiên bản cao cấp đưa ra câu trả lời sai với sự tự tin cao hơn phiên bản miễn phí.
Một số LLMs là hệ thống đóng - không cập nhật "niềm tin" của chúng, khiến thông tin trở nên lỗi thời trong thế giới luôn thay đổi.
Tương tác với người dùng có thể làm suy giảm hiệu suất của LLMs, nghiên cứu phát hiện chúng có thể trở nên phân biệt chủng tộc theo thời gian.
LLMs không có mục tiêu riêng và không thể tự khám phá thế giới, chúng chỉ là công cụ mà người dùng có thể sử dụng để khám phá.
AI không thực sự hiểu thế giới, chúng chỉ khai thác dữ liệu và xem xét mối liên hệ thống kê giữa các từ để bắt chước giọng nói con người.
AI có thể hữu ích trong việc phê bình ý tưởng một cách riêng tư, giúp tránh điểm mù và lỗi hiển nhiên.
Sử dụng AI để làm rõ hiểu biết của bạn về thế giới, buộc bạn phải tham gia vào quá trình tạo ý nghĩa.
AI có thể bổ sung cho các công việc thông thường như chỉnh sửa và viết email, nhưng email cá nhân viết vụng về đôi khi có thể là lựa chọn tốt hơn để thuyết phục.
AI phù hợp nhất cho các nhiệm vụ ít rủi ro không liên quan đến trách nhiệm pháp lý: tóm tắt đánh giá khách hàng, trả lời câu hỏi không liên quan đến chính sách hoặc tài chính, tạo bài đăng mạng xã hội.
Năm 2022, một LLM được Air Canada sử dụng đã cung cấp thông tin sai cho hành khách về phí - hành khách đã kiện và tòa án buộc hãng hàng không chịu trách nhiệm.
Công việc càng sáng tạo, càng độc đáo và càng đòi hỏi hiểu biết về cách thế giới vận hành, AI càng ít có khả năng hữu ích.
📌 AI chỉ là công cụ với 60% câu trả lời có thể không chính xác. Nó phù hợp với công việc ít rủi ro như phê bình ý tưởng, viết email đơn giản, nhưng không nên dùng cho công việc sáng tạo hoặc có trách nhiệm pháp lý. Con người vẫn là người duy nhất thực sự hiểu thế giới.
https://theconversation.com/how-ai-can-and-cant-help-lighten-your-load-at-work-252663
Một số công ty đang sử dụng thuật ngữ "nhà dưỡng lão kinh doanh" để mô tả điểm đến cuối cùng của các hoạt động doanh nghiệp có nguy cơ bị xóa sổ bởi AI. Các nhà quản lý cần đóng vai trò "y tá chăm sóc giảm nhẹ" để điều phối việc kết thúc nhẹ nhàng cho nhân viên trong các hoạt động này.
Vai trò "chất xúc tác khả năng": nhà quản lý cần giáo dục nhân viên về những khả năng mới của AI và trở thành người thúc đẩy, ủng hộ việc sử dụng công nghệ này theo cách khác biệt.
Vai trò "người lập bản đồ bất định": giải quyết nỗi sợ hãi trở nên lỗi thời (FOBO) và nỗi sợ bỏ lỡ (FOMO) của nhân viên liên quan đến AI.
Vai trò "nhà thiết kế tổ chức": xác định các phần công việc có thể tự động hóa, tăng cường và thiết kế lại quy trình để nhân viên tập trung vào "tại sao" và "cái gì", để máy móc xử lý "như thế nào".
Vai trò "người khuếch đại tăng trưởng": xác định kỹ năng nào có thể được đẩy nhanh và khuếch đại bằng AI, đồng thời điều chỉnh tham vọng của nhân viên một cách phù hợp.
Vai trò "người đánh giá ý tưởng": khuyến khích đánh giá ngang hàng và đảm bảo chất lượng thay vì kiểm tra công việc cá nhân. Xem xét lại các điều khoản và điều kiện cơ bản của người lao động dưới góc độ AI.
Các nhà quản lý cần đặt nền tảng cho việc sử dụng AI hiệu quả, đặc biệt là tổ chức dữ liệu chất lượng cao.
Thách thức là làm thế nào để khuyến khích, lương thưởng và kích thích nhân viên chia sẻ ý tưởng của họ với máy móc, đồng thời giải thích rằng cùng một máy móc đó có thể sẽ đưa họ, công việc của họ và tổ chức nơi họ làm việc đến "nhà dưỡng lão kinh doanh".
📌 AI đang tạo ra 7 vai trò quản lý mới, từ "y tá chăm sóc giảm nhẹ" đến "người đánh giá ý tưởng". Các nhà lãnh đạo cần thích nghi để giải quyết những thách thức như nỗi sợ lỗi thời của nhân viên, thiết kế lại quy trình làm việc và tạo ra giá trị từ việc chia sẻ ý tưởng với máy móc.
https://www.ft.com/content/f742dcdc-41ef-415d-adad-d828d23f739c
#FT
7 vai trò về AI mà các nhà quản lý cần phải nắm vững
Công nghệ đang đặt ra cho các nhà lãnh đạo những thách thức mới khi một số công việc dần bị loại bỏ
Nhu cầu "giữ con người trong vòng kiểm soát" đang trở thành một câu nói sáo rỗng, giống như tuyên bố rằng AI sẽ tạo ra những công việc tốt hơn, chứ không phải ít đi hơn. © VCG/VCG/Getty Images
Roula Khalaf, Tổng biên tập của FT, lựa chọn những câu chuyện yêu thích của mình trong bản tin hàng tuần này.
"Cơ sở kinh doanh chăm sóc cuối đời" hay "nhà dưỡng lão kinh doanh" là cách một số công ty mô tả điểm đến cuối cùng cho các hoạt động doanh nghiệp có nguy cơ bị AI xóa sổ.
Theo nhà đạo đức học về AI, Lollie Mancey, người đã giới thiệu cho tôi thuật ngữ này trong tháng này, việc sắp xếp một "cuộc hạ cánh mềm" cho những người làm việc trong các hoạt động như vậy là một trong những thách thức mới mà các nhà quản lý phải đối mặt.
Quan điểm của Mancey là không ai bước vào kinh doanh với hy vọng rằng di sản của họ sẽ là một doanh nghiệp chỉ bao gồm một số giám đốc điều hành và vài mô hình ngôn ngữ lớn. "Các tổ chức của chúng ta được tạo nên từ con người; chúng ta có văn hóa tổ chức và chúng ta cần phải bảo vệ điều đó."
Nhu cầu "giữ con người trong vòng kiểm soát" đang trở thành một câu nói sáo rỗng, giống như tuyên bố rằng AI sẽ tạo ra những công việc tốt hơn, chứ không phải ít đi hơn. Nhưng vòng kiểm soát đó cần được quản lý, thường theo những cách mới lạ và không quen thuộc. Tôi đã bổ sung vai trò của y tá chăm sóc giảm nhẹ (1) vào danh sách ngày càng dài các vai trò mà các nhà quản lý sẽ phải đảm nhiệm, khi AI tạo ra những thuật ngữ quản lý mới nghe có vẻ khó tin. Dưới đây là 6 vai trò khác.
"Chúng ta phải 'giáo dục lực lượng lao động của mình trên diện rộng về những gì AI có thể làm được", Jacky Wright, Giám đốc công nghệ và nền tảng của McKinsey, cho biết. Wright hiện đang chịu trách nhiệm triển khai các công cụ AI cho công ty tư vấn này.
Theo Nitin Mittal, lãnh đạo toàn cầu về AI của Deloitte, làm quản lý giờ đây cũng có nghĩa là "trở thành chất xúc tác và người ủng hộ" cho những gì có thể được thực hiện khác đi nhờ công nghệ mới.
Không ai nên đánh giá thấp "nỗi sợ bị thay thế" của nhân viên. FOBO (nỗi sợ bị lỗi thời) nằm ở đầu đối diện của phổ bất định so với FOMO (nỗi sợ bỏ lỡ cơ hội).
Matt Wood, Giám đốc công nghệ thương mại và đổi mới của PwC, người từng là Phó chủ tịch AI tại Amazon Web Services, cho biết cuộc tìm kiếm liên tục về hiệu quả "gây ra rất nhiều sự nghi ngờ trong nội bộ các tổ chức". Việc trấn an cả hai dạng hoang mang do AI gây ra sẽ là nhiệm vụ của các nhà quản lý.
Các nhóm cần phải áp dụng sức mạnh của các công cụ AI đúng cách và vào đúng nơi.
Theo Aditya Bhasin, Giám đốc công nghệ và thông tin tại Bank of America, các nhà quản lý trước tiên cần xác định phần nào của nhiệm vụ có thể tự động hóa, "phần nào có thể được tăng cường và các quy trình mới sẽ trông như thế nào".
Tiếp theo, họ cần thiết kế lại công việc để đảm bảo nhân viên "thực hiện nhiều hơn các nhiệm vụ 'vì sao' và 'cái gì', đồng thời để máy thực hiện nhiều hơn phần 'như thế nào'", theo Harrick Vin, người đồng cấp của Bhasin tại Tata Consultancy Services.
Theo Wood của PwC, các nhà quản lý cần tự hỏi: "Những kỹ năng nào có thể được tăng tốc và khuếch đại bằng công nghệ này ngay hôm nay?"
Tuy nhiên, đôi khi họ cũng cần đóng vai trò là người điều chỉnh tham vọng. Tôi đã nghe một giám đốc điều hành năm ngoái mô tả tác động của việc áp dụng AI tạo sinh giống như một đợt thăng chức tức thì cho tất cả 2.000 nhân viên của ông.
Tuy nhiên, theo Mittal của Deloitte, để một chuyên viên tư vấn có thể ngồi xuống với một khách hàng quan trọng và "đảm bảo rằng anh ta cảm thấy thoải mái và tin rằng bạn có năng lực — điều đó đòi hỏi nhiều năm kinh nghiệm học hỏi và bạn không thể 'học' điều đó chỉ bằng cách dùng lời nhắc cho máy". Các nhà quản lý cần hướng dẫn đội ngũ của mình cẩn thận để họ phát triển những kỹ năng đó, thay vì nghĩ rằng họ có thể làm được tất cả chỉ vì có sự hỗ trợ của máy móc.
Nếu đầu ra của nhân viên được hỗ trợ bởi AI ít có khả năng là các dòng mã hoặc số lượng slide PowerPoint, thì vai trò của người quản lý sẽ nghiêng nhiều hơn về "khuyến khích đánh giá ngang hàng (bình duyệt) hoặc đảm bảo chất lượng, thay vì kiểm tra công việc của cá nhân hoặc đảm bảo họ có đủ năng lực kỹ thuật", theo Bhasin của Bank of America.
Các nhà quản lý có thể cần xem xét lại ngay cả những điều kiện cơ bản trong hợp đồng lao động dưới tác động của AI.
"Nếu bạn làm một công việc trong 2 giờ vì bạn đang sử dụng AI, bạn có được trả lương cho cùng 7 giờ mà bạn thường được trả không? Chúng ta sẽ xử lý chuyện đó như thế nào?" Mancey đặt câu hỏi.
Cuộc tái cấu trúc công việc quản lý được dự báo này đi kèm với một số cảnh báo quan trọng.
Chuyên gia về công nghệ tại nơi làm việc Danielle Li, giáo sư tại Trường Quản lý Sloan của MIT, chỉ ra rằng "ai cũng biết cách nói về văn hóa và quản lý thay đổi", đó là lý do tại sao các nhà lãnh đạo thường định khung AI theo những thuật ngữ đó. Nhưng Li cho rằng họ cần thiết lập nền tảng để sử dụng AI hiệu quả, đặc biệt là dữ liệu có tổ chức và chất lượng cao.
Lợi ích tiềm năng của AI là rất lớn. Chẳng hạn, AI có thể được sử dụng để phổ biến những hiểu biết của các giáo viên và nhà quản lý giỏi, giúp giải quyết thách thức trong việc đào tạo lực lượng lao động về các cơ hội được cung cấp.
Tuy nhiên, trước tiên, các nhà quản lý cần tìm ra cách, theo lời của Li, "để tạo động lực, bù đắp và khơi dậy sự hứng thú... để ý tưởng nhỏ bé bên trong bạn" được chia sẻ với một cỗ máy. Và, tôi muốn bổ sung, làm thế nào để giải thích rằng cỗ máy đó có thể sắp đưa bạn, công việc của bạn và tổ chức nơi bạn làm việc, vào chuyến đi một chiều đến cơ sở kinh doanh chăm sóc cuối đời.
Seven AI roles managers must master
Technology is handing leaders new challenges as some jobs are wound down
Headshot for Andrew Hill
Andrew HillAdd to myFT
The need to ‘keep humans in the loop’ is becoming almost as much of a cliché as the claim that AI is about better jobs, not fewer jobs © VCG/VCG/Getty Images
Roula Khalaf, Editor of the FT, selects her favourite stories in this weekly newsletter.
The “business hospice” is how some companies are describing the final destination for corporate operations at risk of being wiped out by artificial intelligence.
Orchestrating a soft landing for people working in such activities is just one of the new challenges facing managers, according to AI ethicist, Lollie Mancey, who introduced me to the term this month.
Her point is that nobody goes into business hoping their legacy will be an enterprise that consists of a handful of executives and some large language models: “Our organisations are made of people; we have organisational culture and we need to protect that.”
The need to “keep humans in the loop” is becoming almost as much of a cliché as the claim that AI is about better jobs, not fewer jobs. But that loop needs managing, often in novel and unfamiliar ways. I’ve added palliative care nurse to the growing list of roles managers will have to acquire, as AI spawns new, improbable-sounding managerial jargon. Here are six more.
Possibility catalyser. We have to “educate our workforce en masse about what is possible” with AI, says Jacky Wright, McKinsey’s chief technology and platform officer, whose job includes rolling out AI tools to the consulting firm. Being a manager is now also about “being a catalyst and a champion” of what could be done differently with the new technology, adds Nitin Mittal, Deloitte’s global AI leader.
Uncertainty mapper. Nobody should underestimate employees’ “fear of being obsolete”. FOBO squats at the other end of the uncertainty spectrum from FOMO (fear of missing out). PwC’s commercial technology and innovation officer Matt Wood, formerly Amazon Web Services AI vice-president, says the constant quest for efficiency “drives a lot of mistrust inside organisations”. It falls to managers to try to soothe both forms of AI-driven panic.
Organisational designer. Teams need to apply the power of AI tools correctly and in the right place. Their managers need first to work out what parts of any task can be automated, “what can be augmented and what do the new processes look like”, says Aditya Bhasin, chief technology and information officer at Bank of America. Next, they need to redesign the work to ensure staff “do a lot more of the ‘why’ and the ‘what’, and let the machine do a lot more of the ‘how’”, according to Harrick Vin, Bhasin’s counterpart at Tata Consultancy Services.
Growth amplifier. Managers need to ask themselves “what skills can [they] accelerate and amplify using this technology today?” says PwC’s Wood.
Yet they will sometimes also need to act as ambition moderators. I heard one executive last year describe the effect of applying generative AI as an instant promotion for all 2,000 of his staff. But in the words of Deloitte’s Mittal, for a consultant to be able to sit down with an important client and “make sure he’s comfortable and feels that you’re credible — that’s years and years of learnt experience and you can’t ‘prompt’ yourself to it”. Managers need to mentor their team members carefully so they develop those skills and do not immediately assume they can do it all because they have the help of a machine.
Ideas evaluator. If the output of the AI-augmented worker is less likely to be lines of code or quantity of PowerPoint slides, the manager’s role becomes more one of “encouraging peer review or quality assurance, than of checking the individual’s work or making sure they have the technical competency”, says BofA’s Bhasin.
Managers may need to re-examine even the basics of workers’ terms and conditions in light of AI. “If you are doing a job in two hours because you’re using AI, are you going to be paid for the same seven hours you would normally be paid for. How are we going to work that out?” asks Mancey.
This forecast reimagining of managerial work comes with some important caveats. Workplace technology expert Danielle Li, a professor at MIT Sloan School of Management, points out that “everybody knows how to talk about culture and change management”, which is why leaders inevitably frame AI in those terms. But she says they need to put in place the foundations for effective use of AI, notably properly organised, high-quality data.
The potential benefits of AI are many. It could be used, for instance, to disseminate expert teachers’ and managers’ insights, helping to meet the challenge of educating the workforce about the opportunities offered.
First, though, managers need to work out how, in Li’s words, “to incentivise, to compensate, to excite people . . . that the nugget of an idea that lives inside you” will be shared with a machine. And, I might add, how to explain that the same machine may be about to send you, your job and the organisation where you work, on a one-way trip to the business hospice.
AI đang trở thành đồng nghiệp số hiệu suất cao, mở ra cơ hội cho các chuyên gia chuyển từ vai trò thực hiện công việc sang quản lý các agent AI.
Thay vì thay thế con người, AI sẽ làm cho chuyên môn và sáng tạo của con người trở nên thiết yếu hơn trong việc hướng dẫn AI đạt kết quả tối ưu.
Các hệ thống AI hiện nay đã thể hiện khả năng thành thạo trong nhiều lĩnh vực như phân tích dữ liệu, lập báo cáo, ra quyết định phức tạp trong tài chính, pháp lý và các ngành sáng tạo.
AI tác nhân (agentic AI) là bước tiến tiếp theo, AI sẽ hoạt động độc lập bên cạnh con người với mức độ tự chủ nhất định.
Quản lý AI đòi hỏi kỹ năng kép: kỹ năng mềm để đặt ra kỳ vọng, hướng dẫn rõ ràng và kỹ năng tổ chức, phân công, đảm bảo hệ thống thực thi tầm nhìn chiến lược.
Thay vì dẫn đến thất nghiệp hàng loạt, AI có thể tạo ra nhu cầu lớn hơn về lao động con người theo nghịch lý Jevons.
Để chuẩn bị cho sự chuyển đổi này, cần thay đổi hệ thống giáo dục, tập trung hơn vào kỹ năng thực tế thay vì học thuật.
Các công ty cần đưa kiến thức về AI vào chương trình đào tạo cho nhân viên ở mọi cấp độ.
Cá nhân nên chủ động học hỏi về công cụ AI, quy trình làm việc số và kỹ năng giải quyết vấn đề.
Quan trọng là phải hiểu đủ để đặt câu hỏi và đánh giá kết quả của AI, không chấp nhận mù quáng.
📌 AI sẽ trở thành đồng nghiệp số hiệu suất cao, tạo cơ hội cho chuyên gia chuyển sang vai trò quản lý AI. Kỹ năng quản lý AI kết hợp hiểu biết kỹ thuật và khả năng lãnh đạo sẽ định hình tương lai việc làm. Giáo dục và đào tạo cần thay đổi để chuẩn bị cho xu hướng này.
https://www.fastcompany.com/91302131/the-rise-of-the-ai-manager
Agent AI là thế hệ tiếp theo của AI, có khả năng hành động độc lập, cộng tác để đạt được mục tiêu lớn hơn và tiếp quản toàn bộ quy trình kinh doanh.
Microsoft thông báo có 100.000 tổ chức đang sử dụng Copilot Studio, gấp đôi chỉ sau vài tháng, bao gồm Standard Bank, Thomson Reuters, Virgin Money và Zurich Insurance.
Theo báo cáo của Accenture đầu tháng 1, agent AI sẽ thay thế con người trở thành người dùng chính của hầu hết hệ thống doanh nghiệp vào năm 2030.
Khảo sát của KPMG với 100 giám đốc điều hành cho thấy 12% công ty đang triển khai agent AI, 37% đang trong giai đoạn thử nghiệm, và 51% đang khám phá việc sử dụng.
Trường hợp sử dụng #1 - Phát triển phần mềm và CNTT: Agent AI có thể quản lý mã, sửa lỗi và hiện đại hóa mã cũ. Cognition đã phát hành Devin, kỹ sư phần mềm AI đầu tiên trên thế giới, với khả năng vượt qua mốc 14% trên bài kiểm tra SWE-bench.
Trường hợp sử dụng #2 - Tự động hóa và năng suất: 60% người được hỏi trong khảo sát KPMG cho biết nhiệm vụ hành chính là trường hợp sử dụng chính. Công ty luật Avantia đã sử dụng agent AI để xử lý hợp đồng nhanh hơn, dự kiến cải thiện biên lợi nhuận lên tới 45% vào giữa năm 2025.
Trường hợp sử dụng #3 - Dịch vụ khách hàng: Tại Dun & Bradstreet, agent AI giúp khách hàng tương tác với dữ liệu của 500 triệu doanh nghiệp trên toàn thế giới, đảm bảo thông tin chính xác và liên quan.
Trường hợp sử dụng #4 - Tạo nội dung: Theo khảo sát Langbase, tạo văn bản và tóm tắt là trường hợp sử dụng phổ biến thứ hai với 59% người trả lời. EY sử dụng agent AI trong dịch vụ quản lý rủi ro bên thứ ba, giảm thời gian từ 50 giờ xuống còn vài phút để tạo báo cáo chi tiết.
Trường hợp sử dụng #5 - Nhân sự và hỗ trợ nhân viên: Khảo sát của IBM cho thấy 43% công ty sử dụng agent AI cho HR. Indicium, công ty dịch vụ dữ liệu toàn cầu, triển khai agent AI từ giữa năm 2024 để hỗ trợ HR trong việc truy xuất kiến thức nội bộ, gắn thẻ và lập tài liệu.
Các nhà phát triển đang tập trung vào an toàn với 55% người trả lời trong khảo sát LangChain cho biết công cụ theo dõi và quan sát là biện pháp kiểm soát bắt buộc, 44% đã thiết lập rào cản bảo vệ, và 40% sử dụng đánh giá ngoại tuyến.
Quản lý thay đổi là quá trình quan trọng khi triển khai agent AI để giảm thiểu rủi ro gây ra bởi tự động hóa quy mô lớn.
📌 Agent AI đang nhanh chóng thâm nhập doanh nghiệp với 12% công ty đã triển khai và 37% đang thí điểm. Accenture dự đoán đến năm 2030, agent AI sẽ thay thế con người là người dùng chính của hệ thống doanh nghiệp, tạo tiềm năng cải thiện hiệu quả lên đến 45%.
https://www.cio.com/article/3843379/5-top-business-use-cases-for-ai-agents.html?amp=1
Deep Research của OpenAI là agent AI có khả năng tự động khám phá web, quyết định những liên kết cần nhấp, nội dung cần đọc và tổng hợp thành báo cáo chuyên sâu, hiện có trong gói ChatGPT Pro giá 200 USD/tháng.
Isla Fulford, nhà nghiên cứu tại OpenAI, nhận thấy tiềm năng của Deep Research ngay từ khi nó được sử dụng nội bộ - mỗi khi hệ thống ngừng hoạt động, cô nhận được rất nhiều tin nhắn từ đồng nghiệp mong muốn được tiếp tục sử dụng.
Sau khi ra mắt công chúng vào ngày 2/2, Deep Research đã nhận được phản hồi tích cực từ nhiều người dùng, bao gồm cả CEO Stripe Patrick Collison và chuyên gia chính sách AI Dean Ball.
Khác với các "agent AI" đơn giản hiện nay, Deep Research sử dụng quá trình suy luận nhân tạo để lập kế hoạch và tiến hành từng bước nghiên cứu, hiển thị chi tiết quá trình suy luận trong cửa sổ bên.
Josh Tobin, nhà nghiên cứu OpenAI, cho biết công ty coi Deep Research là công cụ có thể mở rộng để đảm nhận nhiều công việc văn phòng, với mục tiêu dài hạn là xây dựng agent không chỉ giỏi tạo báo cáo mà còn thực hiện được nhiều loại tác vụ khác.
Ethan Mollick, giáo sư trường Wharton, đánh giá Deep Research có thể tự động hóa công việc cổ cồn trắng, thực hiện "40 giờ công việc cấp trung bình chỉ trong 1 giờ kiểm tra", mặc dù vẫn cần chuyên gia kiểm tra kết quả.
OpenAI đang cân nhắc cung cấp các agent nâng cao với mức giá cao hơn nhiều, có thể lên đến 20.000 USD/tháng cho các agent có khả năng thực hiện "công việc cấp độ tiến sĩ".
Deep Research minh họa xu hướng nghiên cứu AI hiện đại tập trung vào agent và các mô hình reasoning, với các đối thủ cạnh tranh như Google DeepMind và Grok của Elon Musk cũng phát triển công cụ tương tự.
OpenAI đã thuê sinh viên sau đại học và chuyên gia để huấn luyện Deep Research, cung cấp dữ liệu cho thuật toán học tăng cường giúp mô hình trở thành trợ lý nghiên cứu tốt hơn.
Alexander Zerkle, sinh viên sau đại học tại UC San Diego, kể rằng Deep Research đã tạo ra một bài chứng minh định lý Schroeder-Bernstein rất dài cho ông của anh, một nhà toán học, cho thấy khả năng ấn tượng của công cụ này.
📌 Deep Research của OpenAI là agent AI tiên tiến đang mở đường cho tự động hóa công việc cổ cồn trắng, sử dụng khả năng suy luận để tạo báo cáo chuyên sâu từ web. Với giá 200 USD/tháng trong gói ChatGPT Pro, công cụ này có thể thực hiện công việc cấp trung bình tương đương 40 giờ làm việc.
https://www.wired.com/story/openais-deep-research-agent-is-coming-for-white-collar-work/
Tác nhân tập trung vào nghiên cứu cho thấy làm thế nào một thế hệ mới của các mô hình AI có khả năng mạnh mẽ hơn có thể tự động hóa một số nhiệm vụ văn phòng. Một hình ảnh minh họa về hình ảnh có kết cấu và mờ của CEO OpenAI Sam Altman đặt sau những vòng tròn hiển thị... Hình ảnh minh họa: Nhân viên WIRED/Getty Images
Isla Fulford, một nhà nghiên cứu tại OpenAI, đã có linh cảm rằng Deep Research sẽ là một hit ngay cả trước khi nó được phát hành. Fulford đã giúp xây dựng tác nhân trí tuệ nhân tạo này, tự động khám phá web, tự quyết định những liên kết nào để nhấp vào, những gì để đọc và những gì để tổng hợp thành một báo cáo chuyên sâu. OpenAI đầu tiên đã cung cấp Deep Research nội bộ; bất cứ khi nào nó ngừng hoạt động, Fulford nói, cô đã bị tràn ngập các câu hỏi từ đồng nghiệp háo hức muốn có nó trở lại. "Số lượng người nhắn tin cho tôi khiến chúng tôi khá phấn khích," Fulford nói. Kể từ khi ra mắt công chúng vào ngày 2 tháng 2, Deep Research đã chứng tỏ là một thành công với nhiều người dùng bên ngoài công ty. Video nổi bật
"Deep Research đã viết 6 báo cáo cho đến nay trong ngày hôm nay," Patrick Collison, CEO của Stripe đã đăng trên X vài ngày sau khi sản phẩm được phát hành. "Nó thực sự xuất sắc. Xin chúc mừng những người đứng sau nó." "Deep Research là sản phẩm AI thực sự khiến một phần đáng kể của cộng đồng hoạch định chính sách ở DC bắt đầu cảm nhận được AGI," Dean Ball, một học giả tại Đại học George Mason chuyên về chính sách AI, đã viết. Deep Research có sẵn như một phần của gói ChatGPT Pro, với giá 200 đô la mỗi tháng. Nó nhận một truy vấn, chẳng hạn như "Viết cho tôi một báo cáo về ngành bảo hiểm y tế Massachusetts," hoặc "Hãy cho tôi biết về bài viết của WIRED về Bộ phận Hiệu quả Chính phủ," và sau đó đưa ra một kế hoạch, tìm kiếm các trang web liên quan, lọc qua nội dung của chúng, và quyết định những liên kết nào để nhấp vào và thông tin nào đáng được điều tra thêm. Sau khi khám phá đôi khi hàng chục phút, nó tổng hợp các phát hiện của mình thành một báo cáo chi tiết, có thể bao gồm trích dẫn, dữ liệu và biểu đồ. Nhiều công cụ hiện được gắn nhãn là tác nhân AI về cơ bản là các chatbot được kết nối với các chương trình đơn giản không có nhiều sự tinh vi. Bản thân mô hình Deep Research trải qua một loại suy luận nhân tạo trước khi đưa ra kế hoạch và tiến hành từng bước. Mô hình cung cấp chi tiết về lý luận này đằng sau nghiên cứu của nó trong một cửa sổ bên. "Đôi khi nó giống như 'Tôi cần quay lại, điều này dường như không hứa hẹn lắm,'" Josh Tobin, một nhà nghiên cứu khác của OpenAI tham gia xây dựng Deep Research, nói. "Thật thú vị khi đọc một số quỹ đạo đó, chỉ để hiểu mô hình đang suy nghĩ như thế nào." OpenAI rõ ràng coi Deep Research như một công cụ có thể đảm nhận nhiều công việc văn phòng hơn. "Đây là thứ mà chúng ta có thể mở rộng," Tobin nói, thêm rằng tác nhân có thể được đào tạo để hoàn thành công việc văn phòng cụ thể. Một tác nhân với quyền truy cập vào dữ liệu nội bộ của công ty có thể nhanh chóng chuẩn bị một báo cáo hoặc bài thuyết trình, chẳng hạn. Tobin nói mục tiêu lâu dài hơn là "xây dựng một tác nhân không chỉ giỏi trong việc xây dựng báo cáo thông qua tìm kiếm web, mà còn giỏi trong nhiều loại nhiệm vụ khác nữa." Bởi vì Deep Research được đào tạo để phân tích và tóm tắt văn bản do con người viết, Tobin nói nhóm của anh ngạc nhiên khi thấy nhiều người sử dụng nó để tạo mã. "Đó là một chủ đề thú vị để kéo theo," anh nói. "Chúng tôi không hoàn toàn chắc chắn về ý nghĩa của nó." Phổ biến nhất Mọi thứ bạn nói với Echo của bạn sẽ sớm được gửi đến Amazon, và bạn không thể từ chối Tin tức và sự kiện về thiết bị Mọi thứ bạn nói với Echo của bạn sẽ sớm được gửi đến Amazon, và bạn không thể từ chối Của Scharon Harding, Ars Technica Sinh viên đại học bác bỏ giả thuyết 40 năm tuổi, phát minh ra loại bảng băm mới Khoa học Sinh viên đại học bác bỏ giả thuyết 40 năm tuổi, phát minh ra loại bảng băm mới Của Steve Nadis 'Lý thuyết sân bay' sẽ khiến bạn bỏ lỡ chuyến bay Xu hướng 'Lý thuyết sân bay' sẽ khiến bạn bỏ lỡ chuyến bay Của Boutayna Chokrane Donald Trump tổ chức bữa tối 'Ánh nến' trị giá một triệu đô la khác - Với Elon Musk đi cùng Chính trị Donald Trump tổ chức bữa tối 'Ánh nến' trị giá một triệu đô la khác - Với Elon Musk đi cùng Của Leah Feiger Tuy nhiên, Tobin thừa nhận rằng công cụ này vẫn còn những điểm mù quan trọng. "Nó có thể gặp khó khăn trong việc phân biệt thông tin có thẩm quyền với tin đồn," anh nói. "Hiện tại nó thể hiện một điểm yếu trong việc hiệu chỉnh độ tin cậy, thường không truyền đạt chính xác sự không chắc chắn." Thời đại của lý luận Deep Research cho thấy làm thế nào các mô hình AI có khả năng mạnh mẽ hơn có thể tự động hóa công việc văn phòng, theo Ethan Mollick, giáo sư tại Trường Wharton thuộc Đại học Pennsylvania, người nghiên cứu việc áp dụng AI trong kinh doanh. Mollick, người thường xuyên sử dụng Deep Research, nói rằng mặc dù công cụ không hoàn hảo và hiệu quả nhất khi được sử dụng bởi các chuyên gia có thể kiểm tra công việc của nó, nó đã gây ấn tượng với các chuyên gia mà ông đã nói chuyện. "Đối với những người cấp cao, không phải là nó hoàn hảo hay đánh bại những người giỏi nhất," Mollick nói. "Mà là nó có thể làm 40 giờ công việc cấp trung bình, và chỉ mất một giờ để kiểm tra," Mollick nói. Liệu các công ty sẽ xem những công cụ như vậy là cách để bổ sung cho nhân viên của họ hay đơn giản là thay thế họ hoàn toàn vẫn còn phải xem xét. "Đó là điều khiến tôi lo lắng nhất," Mollick nói. Triển vọng về việc bán các công cụ có thể tự động hóa lượng lớn công việc văn phòng đòi hỏi kỹ năng cao có lẽ giải thích tại sao OpenAI đang cân nhắc cung cấp các tác nhân nâng cao với mức giá cao. Công ty đã nói với các nhà đầu tư rằng các tác nhân có khả năng làm "công việc cấp độ tiến sĩ" cuối cùng có thể có giá 20.000 đô la mỗi tháng, theo một báo cáo gần đây từ The Information, mặc dù chi tiết của kế hoạch như vậy vẫn chưa rõ ràng. Người phát ngôn của OpenAI, Kayla Wood, mô tả báo cáo là "chỉ là suy đoán." Bên cạnh việc gợi ý về những thay đổi trong công việc văn phòng, Deep Research minh họa cách nghiên cứu AI tiên tiến ngày càng tập trung vào cả các tác nhân và cái gọi là các mô hình lý luận phân tích vấn đề thành các phần cấu thành để phân tích và giải quyết chúng tốt hơn. Các đối thủ chính của OpenAI đều đang phát triển các mô hình lý luận của riêng họ, cũng như các công cụ tương tự như Deep Research. Google DeepMind đã phát hành một tác nhân nghiên cứu web với cùng tên như công cụ của OpenAI vào ngày 10 tháng 12 năm 2024. Grok của Elon Musk cung cấp một tính năng tương tự. Deep Research dường như là sản phẩm tinh vi nhất hiện tại, một phần vì nó dựa trên mô hình lý luận tiên tiến nhất của OpenAI, được gọi là OpenAI o3. Trong khi một mô hình ngôn ngữ lớn thông thường chỉ tạo ra văn bản để trả lời truy vấn, Deep Research sử dụng một hình thức lý luận mô phỏng để quyết định hành động tiếp theo. Những khả năng "agency" như vậy được coi rộng rãi là bước tiến hóa tiếp theo cho AI, mặc dù việc khiến các mô hình thực hiện hành động mà không mắc lỗi vẫn còn khó khăn. "Deep Research là một phần mở rộng tự nhiên của các mô hình lý luận này," Ruslan Salakhutdinov, một nhà khoa học máy tính tại Đại học Carnegie Mellon cũng đang làm việc trên các tác nhân web, nói. Tuy nhiên, Salakhutdinov cho biết, các tác nhân AI vẫn ở giai đoạn đầu, vẫn dễ mắc lỗi, và có khả năng sẽ có nhiều thử nghiệm và đổi mới phía trước. OpenAI đã thuê sinh viên sau đại học và các chuyên gia có kỹ năng cao khác để giúp đào tạo Deep Research. Những người dùng này đưa ra các truy vấn và sau đó sửa lỗi, cung cấp dữ liệu đào tạo cho thuật toán học tăng cường cho phép mô hình học cách trở thành một trợ lý nghiên cứu tốt hơn. Phổ biến nhất Mọi thứ bạn nói với Echo của bạn sẽ sớm được gửi đến Amazon, và bạn không thể từ chối Tin tức và sự kiện về thiết bị Mọi thứ bạn nói với Echo của bạn sẽ sớm được gửi đến Amazon, và bạn không thể từ chối Của Scharon Harding, Ars Technica Sinh viên đại học bác bỏ giả thuyết 40 năm tuổi, phát minh ra loại bảng băm mới Khoa học Sinh viên đại học bác bỏ giả thuyết 40 năm tuổi, phát minh ra loại bảng băm mới Của Steve Nadis 'Lý thuyết sân bay' sẽ khiến bạn bỏ lỡ chuyến bay Xu hướng 'Lý thuyết sân bay' sẽ khiến bạn bỏ lỡ chuyến bay Của Boutayna Chokrane Donald Trump tổ chức bữa tối 'Ánh nến' trị giá một triệu đô la khác - Với Elon Musk đi cùng Chính trị Donald Trump tổ chức bữa tối 'Ánh nến' trị giá một triệu đô la khác - Với Elon Musk đi cùng Của Leah Feiger WIRED đã nói chuyện với một số người đào tạo Deep Research cũng dường như ấn tượng với công cụ này. "Điều đầu tiên nó làm bây giờ, nó yêu cầu làm rõ và điều đó rất lớn," Olga Schrivner, một nhà ngôn ngữ học tại Viện Công nghệ Rose-Hulman đang giúp đào tạo Deep Research, nói. "Nó gần như là giao tiếp, và đột nhiên nó trở thành như trợ lý của bạn." "Ông của tôi là nhà toán học," Alexander Zerkle, một sinh viên sau đại học về vi sinh vật học tại UC San Diego, người đã cung cấp dữ liệu đào tạo cho Deep Research, nói. "Ông ấy muốn nó chứng minh cái gọi là định lý Schroeder-Bernstein. Tôi đã đưa điều đó cho Deep Research, và nó đã đưa ra một chứng minh rất dài. Tôi không hiểu bất kỳ phần nào trong đó, nhưng nó rất thú vị đối với ông ấy với tư cách là một nhà toán học." Khi các công cụ như Deep Research trở nên phổ biến hơn, chúng có thể bắt đầu thay đổi cách nhiều người sử dụng web, ngay cả khi sự cuồng nhiệt đi kèm với sự bùng nổ chatbot bắt đầu phai nhạt. Amelia Glaese, người dẫn đầu công việc về sự phù hợp tại OpenAI, nói rằng dù một chatbot thông minh đến đâu, một mô hình vượt ra ngoài việc tạo văn bản bằng cách thực hiện hành động và làm công việc có giá trị là một đề xuất khác. "Bạn có một mô hình có công dụng rất lớn — đã học cách thực hiện một số công việc thủ công liên quan đến nghiên cứu," cô nói. "Sau đó tôi nghĩ có một nhóm người mới nghĩ, 'Ồ, điều này thực sự hữu ích.'"
OpenAI’s Deep Research Agent Is Coming for White-Collar Work The research-focused agent shows how a new generation of more capable AI models could automate some office tasks. A photo illustration of a textured and blurred image of OpenAI CEO Sam Altman juxtaposed behind circles displaying... Photo-Illustration: WIRED Staff/Getty Images Isla Fulford, a researcher at OpenAI, had a hunch that Deep Research would be a hit even before it was released. Fulford had helped build the artificial intelligence agent, which autonomously explores the web, deciding for itself what links to click, what to read, and what to collate into an in-depth report. OpenAI first made Deep Research available internally; whenever it went down, Fulford says, she was inundated with queries from colleagues eager to have it back. “The number of people who were DMing me made us pretty excited,” says Fulford. Since going live to the public on February 2, Deep Research has proven to be a hit with many users outside the company too. Featured Video “Deep Research has written 6 reports so far today,” Patrick Collison, the CEO of Stripe posted on X a few days after the product was released. “It is indeed excellent. Congrats to the folks behind it.” “Deep Research is the AI product that really got a meaningful chunk of the policymaking community in DC to start feeling the AGI,” wrote Dean Ball, a fellow at George Mason University who specializes in AI policy. Deep Research is available as part of the ChatGPT Pro plan, which costs $200 per month. It takes a query, such as “Write me a report on the Massachusetts health insurance industry,” or “Tell me about WIRED’s coverage of the Department of Government Efficiency,” and then comes up with a plan, searching for relevant websites, combing through their content, and deciding what links to click and what information deserves further investigation. After exploring for sometimes tens of minutes, it synthesizes its findings into a detailed report, which may include citations, data, and charts. Many tools currently branded as AI agents are essentially chatbots connected to simple programs without much sophistication. The Deep Research model itself goes through an artificial kind of reasoning before devising a plan and moving forward with each step. The model provides details of this reasoning behind its research in a side window. “Sometimes it’s like ‘I need to backtrack, this doesn't seem that promising,’” says Josh Tobin, another OpenAI researcher involved in building Deep Research. “It’s pretty cool to read some of those trajectories, just to understand how the model is thinking.” OpenAI evidently sees Deep Research as a tool that could take on more office work. “This is a thing that we can scale,” Tobin says, adding that the agent could be trained to complete specific white-collar work. An agent with access to a company’s internal data could quickly prepare a report or presentation, for instance. Tobin says the longer goal is to “build an agent that is not just good at building reports through searching the web, but is good at many other types of tasks too.” Because Deep Research was trained to analyze and summarize human-written text, Tobin says his team was surprised to see many people using it to generate code. “It’s an interesting thread to pull,” he says. “We’re not totally sure what to make of it.” Most Popular Everything You Say to Your Echo Will Soon Be Sent to Amazon, and You Can’t Opt Out Gear News and Events Everything You Say to Your Echo Will Soon Be Sent to Amazon, and You Can’t Opt Out By Scharon Harding, Ars Technica Undergraduate Disproves 40-Year-Old Conjecture, Invents New Kind of Hash Table Science Undergraduate Disproves 40-Year-Old Conjecture, Invents New Kind of Hash Table By Steve Nadis ‘Airport Theory’ Will Make You Miss Your Flight Trends ‘Airport Theory’ Will Make You Miss Your Flight By Boutayna Chokrane Donald Trump Held Another Million-Dollar ‘Candlelight’ Dinner&-With Elon Musk in Tow Politics Donald Trump Held Another Million-Dollar ‘Candlelight’ Dinner—With Elon Musk in Tow By Leah Feiger Tobin admits, however, that the tool still has important blind spots. “It may struggle with distinguishing authoritative information from rumors,” he says. “It currently shows a weakness in confidence calibration, often failing to convey uncertainty accurately." Age of Reasoning Deep Research shows how more-capable AI models could automate white-collar work, says Ethan Mollick, a professor at the Wharton School of the University of Pennsylvania who studies business adoption of AI. Mollick, who uses Deep Research regularly, says that although the tool is imperfect and most effective when used by experts who can check its work, it has impressed professionals he has spoken to. “For senior-level people it’s not that it's flawless or that it beats the best people,” Mollick says. “It’s that it can do 40 hours of medium-level work, and it only takes an hour to check,” Mollick says. Whether companies will view such tools as a way to augment their workers or simply replace them wholesale remains to be seen. “That's what worries me the most,” Mollick says. The prospect of selling tools that can automate large amounts of highly skilled office work perhaps explains why OpenAI is considering offering advanced agents at a steep premium. The company has told investors that agents capable of doing “PhD-level work” could eventually cost $20,000 per month, according to a recent report from The Information, although details of such a plan remain unclear. OpenAI spokesperson Kayla Wood describes the report as “purely speculation.” Besides hinting at changes in white-collar work, Deep Research illustrates how frontier AI research is increasingly focused on both agents and so-called reasoning models that break problems down into constituent parts in order to better parse and solve them. OpenAI’s main rivals are all developing reasoning models of their own, as well as tools similar to Deep Research. Google DeepMind released a web research agent with the same name as OpenAI’s tool on December 10, 2024. Elon Musk’s Grok offers a similar feature. Deep Research appears to be the most sophisticated offering currently, partly because it is based on OpenAI’s most advanced reasoning model, called OpenAI o3. While a conventional large language model just generates text in response to a query, Deep Research uses a form of simulated reasoning to decide what actions to take next. Such “agentic” abilities are widely seen as the next evolutionary step for AI, although getting models to take actions without making mistakes remains challenging. “Deep Research is a natural extension of these reasoning models,” says Ruslan Salakhutdinov, a computer scientist at Carnegie Mellon University who is also working on web agents. Salakhutdinov says, however, that AI agents are still at an early stage, are still error prone, and there is likely to be a lot of experimentation and innovation ahead. OpenAI hired graduate students and other highly skilled professionals to help train Deep Research. These users give queries and then correct mistakes, providing training data for a reinforcement learning algorithm that lets the model learn to become a better research assistant. Most Popular Everything You Say to Your Echo Will Soon Be Sent to Amazon, and You Can’t Opt Out Gear News and Events Everything You Say to Your Echo Will Soon Be Sent to Amazon, and You Can’t Opt Out By Scharon Harding, Ars Technica Undergraduate Disproves 40-Year-Old Conjecture, Invents New Kind of Hash Table Science Undergraduate Disproves 40-Year-Old Conjecture, Invents New Kind of Hash Table By Steve Nadis ‘Airport Theory’ Will Make You Miss Your Flight Trends ‘Airport Theory’ Will Make You Miss Your Flight By Boutayna Chokrane Donald Trump Held Another Million-Dollar ‘Candlelight’ Dinner&-With Elon Musk in Tow Politics Donald Trump Held Another Million-Dollar ‘Candlelight’ Dinner—With Elon Musk in Tow By Leah Feiger WIRED spoke to several Deep Research trainers who also seemed impressed by the tool. “The first thing it does now, it asks for clarification and that's huge,” says Olga Schrivner, a linguist at the Rose-Hulman Institute of Technology who is helping train Deep Research. “It’s almost like communication, and all of a sudden it becomes like your assistant.” “My grandpa is a mathematician,” says Alexander Zerkle, a graduate student in microbiology at UC San Diego who has been providing training data for Deep Research. “He wanted it to prove what's called the Schroeder-Bernstein theorem. I gave that to Deep Research, and it spat out a very long proof. I don't understand any of it, but it's very exciting to him as a mathematician.” As tools like Deep Research become more widespread, they may start to change how many people use the web, even as the mania that accompanied the chatbot boom starts to fade. Amelia Glaese, who leads work on alignment at OpenAI, says that no matter how clever a chatbot is, a model that goes beyond generating text by taking actions and does valuable work is a different proposition. “You have a model that has this very big utility—that has learned how to do some of the manual work involved with research,” she says. “Then I think there’s a new set of people that are like, ‘Wow, this is really useful.’”
Từ khi nhà sáng lập công ty AI DeepSeek - Liang Wenfeng bắt tay với Chủ tịch Tập Cận Bình vào tháng trước, các cơ quan chính quyền trên khắp Trung Quốc đã đua nhau triển khai công nghệ của công ty này.
Tòa án đang sử dụng DeepSeek để soạn thảo phán quyết pháp lý chỉ trong vài phút. Bác sĩ tại một bệnh viện ở Phúc Châu đang áp dụng công nghệ này để đề xuất phương án điều trị. Tại Meizhou, chính DeepSeek đang trả lời đường dây hỗ trợ của chính phủ.
Tại Thâm Quyến, viên chức tuyên bố đã sử dụng DeepSeek để phân tích video giám sát và tìm thấy ít nhất 300 người bị mất tích.
Sự ủng hộ nhiệt tình này phản ánh hiện tượng thường xảy ra khi ông Tập, lãnh đạo quyền lực nhất Trung Quốc trong nhiều thập kỷ, đặt dấu ấn phê chuẩn vào một sản phẩm nào đó.
Sự nổi lên của DeepSeek cho thấy một công ty Trung Quốc có thể phát triển hệ thống AI tiên tiến, thu hẹp khoảng cách dẫn đầu của Mỹ trong lĩnh vực công nghệ chiến lược này.
Gần đây, nhiều ủy ban đảng cộng sản địa phương và sở cảnh sát đã tổ chức các khóa đào tạo sử dụng DeepSeek. Công ty logistics và khách sạn cũng khuyến khích nhân viên tìm cách ứng dụng DeepSeek trong thiết kế đồ họa và dịch vụ khách hàng.
DeepSeek đã khiến cổ phiếu công nghệ Mỹ lao dốc vào tháng 1 sau khi công bố chi tiết về hệ thống AI có hiệu suất ngang bằng với các sản phẩm hàng đầu của các công ty Mỹ. DeepSeek tuyên bố đã sử dụng ít chip máy tính đắt tiền hơn.
Tuy nhiên, khó phân biệt giữa thực chất và quảng cáo phóng đại. Mặc dù nhiều quan chức cam kết sử dụng DeepSeek, nhưng rất ít người mô tả các ví dụ cụ thể về hiệu quả thực tế.
Chuyên gia Zhong Huiyong từ Đại học Giao thông Thượng Hải cảnh báo rằng các quan chức nên xem xét tất cả nội dung do AI tạo ra trước khi sử dụng, vì ngay cả hệ thống AI tiên tiến nhất cũng dễ đưa ra thông tin sai lệch.
OpenAI đã gửi thư đến Văn phòng Khoa học và Công nghệ Nhà Trắng cảnh báo rằng Bắc Kinh có thể buộc DeepSeek "thao túng mô hình của mình để gây hại", so sánh công ty khởi nghiệp này với Huawei.
📌 Sau cái bắt tay với Tập Cận Bình, DeepSeek đang được ứng dụng rộng rãi trong bộ máy chính quyền Trung Quốc từ tòa án đến bệnh viện. Với chỉ 160 nhân viên, công ty này đã phát triển công nghệ AI cạnh tranh với Mỹ, thu hẹp khoảng cách công nghệ giữa hai cường quốc.
https://www.nytimes.com/2025/03/18/business/china-government-deepseek.html
Các cơ quan chính phủ trên toàn quốc đã háo hức thể hiện việc họ đang sử dụng công nghệ trí tuệ nhân tạo của DeepSeek kể từ khi nhà sáng lập công ty gặp gỡ Tập Cận Bình, nhà lãnh đạo Trung Quốc.
Bài viết của Meaghan Tobin và Claire Fu
Meaghan Tobin đưa tin từ Đài Bắc, Đài Loan, và Claire Fu từ Seoul.
Ngày 18 tháng 3 năm 2025, 12:00 giờ sáng theo giờ ET
Kể từ khi nhà sáng lập công ty khởi nghiệp trí tuệ nhân tạo Trung Quốc DeepSeek bắt tay với Tập Cận Bình, nhà lãnh đạo cao nhất của Trung Quốc, vào tháng trước, các quan chức trên khắp đất nước đã đua nhau thể hiện cách họ đang sử dụng công nghệ của công ty.
Các quan chức tòa án đang sử dụng DeepSeek để soạn thảo phán quyết pháp lý trong vòng vài phút. Các bác sĩ tại một bệnh viện ở Phúc Châu, ở miền đông Trung Quốc, đang sử dụng nó để đề xuất kế hoạch điều trị. Tại Meizhou, một thành phố ở miền nam Trung Quốc, chính DeepSeek đang trả lời đường dây trợ giúp của chính phủ.
Tại Thâm Quyến, một thành phố gần Hồng Kông, các quan chức tìm kiếm những người bị báo mất tích hoặc lạc cho biết họ đã sử dụng DeepSeek để phân tích video giám sát và có thể theo dõi họ trong ít nhất 300 trường hợp.
Sự đón nhận nhiệt tình đối với công nghệ từ bộ máy quan liêu của Trung Quốc phần nào phản ánh điều thường xảy ra khi ông Tập, nhà lãnh đạo thống trị nhất của Trung Quốc trong nhiều thập kỷ, đặt dấu ấn chấp thuận của mình lên điều gì đó. (Ông Tập đã tạo ra những cơn sốt về bóng đá, thể thao mùa đông và sản xuất công nghệ cao, chẳng hạn.)
Nhưng nó cũng cho thấy động lực mà ông Tập đã tạo ra trong những năm kể từ khi ông đặt các công nghệ tiên tiến như AI và siêu máy tính vào trung tâm tầm nhìn của mình về việc Trung Quốc một ngày nào đó vượt qua Hoa Kỳ để trở thành siêu cường công nghệ. Sự xuất hiện của DeepSeek cho thấy một công ty Trung Quốc có thể tạo ra một hệ thống AI tiên tiến, làm giảm bớt vị thế dẫn đầu được cho là của Hoa Kỳ trong công nghệ chiến lược này.
Sự trỗi dậy của DeepSeek là một tin tốt hiếm hoi trong thời điểm kinh tế bấp bênh của Trung Quốc. Việc bao gồm nhà sáng lập DeepSeek, Lương Văn Phong, trong một cuộc họp hiếm hoi mà ông Tập đã có với các lãnh đạo doanh nghiệp ở Bắc Kinh là dấu hiệu của sự chấp thuận từ cấp cao nhất trong ban lãnh đạo Trung Quốc.
"Đây là phong cách làm việc của chính phủ Trung Quốc," Hoàng Quảng Tân, một chuyên gia về trí tuệ nhân tạo tại Đại học Đông Nam ở Nam Kinh cho biết. "Họ không từ chối các công nghệ mới. Trong thực tế, khi họ đã xác định rõ ràng một hướng đi, họ sẽ thực sự thúc đẩy nó một cách rất táo bạo."
Trong những tuần gần đây, các ủy ban Đảng Cộng sản địa phương và các sở cảnh sát đã tổ chức các buổi đào tạo công nhân sử dụng DeepSeek. Các công ty hậu cần và các tập đoàn khách sạn đang khuyến khích nhân viên tìm ra cách sử dụng DeepSeek trong thiết kế đồ họa và dịch vụ khách hàng.
Cảnh sát ở thành phố Nanchang miền đông đã yêu cầu chatbot DeepSeek giải quyết tranh chấp về việc ai nên giữ nhà sau khi một cặp vợ chồng ly hôn. (Theo báo cáo, chatbot nói rằng người chồng nên hoàn trả cho vợ cũ chi phí sửa nhà mà cô ấy đã tài trợ.)
DeepSeek đã khiến cổ phiếu công nghệ Hoa Kỳ giảm mạnh vào tháng 1 sau khi công bố chi tiết về một hệ thống trí tuệ nhân tạo hoạt động tốt như các sản phẩm hàng đầu do các công ty Mỹ sản xuất. DeepSeek tuyên bố đã sử dụng ít chip máy tính đắt tiền hơn, thách thức ý tưởng chỉ các công ty công nghệ lớn nhất mới có khả năng tạo ra các hệ thống AI tiên tiến. Công ty cũng ra mắt ứng dụng chatbot đã được tải xuống trên khắp thế giới.
Tại Trung Quốc, DeepSeek đã được cổ vũ trên mạng xã hội và được ca ngợi như một anh hùng của ngành công nghệ. Ông Lương, nhà sáng lập, đã được ca ngợi là một kỹ sư kỹ thuật đã ưu tiên các câu hỏi cơ bản về AI. Sự ủng hộ ngầm của chính phủ đối với DeepSeek đã thúc đẩy sự quan tâm hơn nữa.
Việc được chú ý trong nền kinh tế lớn thứ hai thế giới, nơi có hơn một tỷ người sử dụng internet, là điều mà hầu hết các công ty khởi nghiệp chỉ có thể mơ ước. Tất cả việc sử dụng chỉ cung cấp cho công nghệ DeepSeek nhiều tài liệu hơn để học hỏi.
Nhưng có thể khó phân biệt giữa thực chất và sự phóng đại. Trong khi hàng chục quan chức đã cam kết sử dụng DeepSeek trong công việc của họ, ít người mô tả các ví dụ cụ thể trong đó công nghệ đã làm cho công việc đó hiệu quả hơn.
Sự gia tăng nhu cầu đặt ra câu hỏi liệu DeepSeek có đủ nhân sự và nguồn lực kỹ thuật để nhanh chóng mở rộng khả năng của mình hay không. Các dịch vụ của DeepSeek đã nhiều lần gặp sự cố khi hàng triệu người bắt đầu sử dụng chúng. Theo truyền thông Trung Quốc, chỉ có 160 người làm việc tại công ty khởi nghiệp này. DeepSeek không phản hồi yêu cầu bình luận.
Và đã có một số chuyên gia đang cảnh báo về bất kỳ sự vội vàng nào vào AI của người dùng, đặc biệt là các quan chức có trách nhiệm với công chúng, những người có thể không biết đủ về rủi ro của nó, vì công nghệ này còn quá mới.
Các quan chức nên xem xét tất cả nội dung do AI tạo ra trước khi sử dụng, Chung Huy Dũng, một nhà nghiên cứu phó tại Đại học Giao thông Thượng Hải, nói với The Paper, một cơ quan tin tức chính thức, vì ngay cả các hệ thống AI tiên tiến nhất cũng có thể dễ dàng đưa ra thông tin sai lệch — một vấn đề của AI tạo sinh nói chung. Ông nói rằng các quan chức quá phụ thuộc vào AI có thể mất liên lạc với "tình hình thực tế."
Chính phủ Trung Quốc đã nhanh chóng phản ứng với các tiến bộ trong AI, ban hành các quy định về các hệ thống AI tạo sinh được công chúng sử dụng, yêu cầu chúng phải tuân thủ các quy tắc kiểm duyệt nghiêm ngặt của Trung Quốc, cũng như các trang web và ứng dụng. Các cơ quan quản lý internet cũng lo ngại rằng công nghệ này có thể khuyến khích sự lan truyền của thông tin sai lệch; trong tháng này, họ đã ban hành các quy tắc sẽ yêu cầu các nền tảng internet xác định rõ ràng bất kỳ nội dung nào do AI tạo ra.
Tuy nhiên, sự sẵn sàng của chính phủ Trung Quốc trong việc thử nghiệm sử dụng AI trái ngược với các quan chức ở những nơi khác trên thế giới, những người thận trọng về việc sử dụng rộng rãi công nghệ mà không chắc chắn rằng họ có thể bảo vệ công dân của mình khỏi các tác hại có thể xảy ra.
Vào tháng 1, OpenAI đã phát hành một phiên bản của ChatGPT được thiết kế để sử dụng bởi các cơ quan chính phủ Hoa Kỳ. Nhưng các quy tắc về cách các quan chức có thể sử dụng AI khác nhau đáng kể từ tiểu bang này sang tiểu bang khác. Ở Pennsylvania, nơi một số nhân viên được phép sử dụng ChatGPT, tiểu bang được báo cáo là đã cấm OpenAI sử dụng các truy vấn của họ để cải thiện công nghệ. Nhân viên thành phố ở San Jose, California, phải điền vào một biểu mẫu mỗi khi họ sử dụng bất kỳ công nghệ AI tạo sinh nào.
(The New York Times đã kiện OpenAI và đối tác của họ, Microsoft, cáo buộc họ vi phạm bản quyền nội dung tin tức liên quan đến các hệ thống AI. OpenAI và Microsoft đã phủ nhận những cáo buộc này.)
Đối với DeepSeek, sự chú ý chính thức từ Bắc Kinh có thể có tác động hai mặt. Các công ty internet ở Trung Quốc chỉ mới bắt đầu thoát khỏi một cuộc đàn áp kéo dài nhiều năm, đưa ngành này dưới sự kiểm soát chặt chẽ hơn của đảng. DeepSeek càng lớn hoặc càng có ảnh hưởng, nó càng có khả năng thu hút sự giám sát từ các cơ quan chức năng — cả trong và ngoài nước.
Bên ngoài Trung Quốc, sự trỗi dậy của DeepSeek đã khiến các cơ quan quản lý lo ngại về kiểm duyệt, an ninh và xử lý dữ liệu. Các cơ quan chính phủ ở Úc, Hàn Quốc và Đài Loan đã yêu cầu nhân viên không sử dụng dịch vụ của DeepSeek.
Và mối liên hệ của DeepSeek với chính phủ Trung Quốc đã trở thành vật liệu cho các đối thủ cạnh tranh của nó.
Tuần trước, OpenAI đã gửi một lá thư tới Văn phòng Khoa học và Công nghệ của Nhà Trắng — để phản hồi một đề xuất của chính phủ Hoa Kỳ — cảnh báo rằng Bắc Kinh có thể buộc DeepSeek "thao túng các mô hình của nó để gây hại." Nó so sánh công ty khởi nghiệp này với Huawei, gã khổng lồ viễn thông Trung Quốc nằm trong danh sách đen thương mại của Hoa Kỳ, và nói rằng Hoa Kỳ nên áp dụng một chính sách ngăn cản các đồng minh của mình sử dụng công nghệ gây ra những loại rủi ro này, OpenAI cho biết.
"Mặc dù Mỹ duy trì vị trí dẫn đầu về AI ngày nay, DeepSeek cho thấy rằng vị trí dẫn đầu của chúng ta không rộng và đang thu hẹp lại," lá thư viết.
Meaghan Tobin đưa tin về các câu chuyện kinh doanh và công nghệ ở châu Á với trọng tâm là Trung Quốc và có trụ sở tại Đài Bắc. Thêm thông tin về Meaghan Tobin
Claire Fu đưa tin về Trung Quốc với trọng tâm là kinh doanh và các vấn đề xã hội trong nước. Cô có trụ sở tại Seoul. Thêm thông tin về Claire Fu
From Courtrooms to Crisis Lines, Chinese Officials Embrace DeepSeek
Government bodies nationwide have been eager to show they are using DeepSeek’s A.I. technology since the company’s founder met with Xi Jinping, China’s leader.
By Meaghan Tobin and Claire Fu
Meaghan Tobin reported from Taipei, Taiwan, and Claire Fu from Seoul.
March 18, 2025, 12:00 a.m. ET
Since the founder of the Chinese artificial intelligence start-up DeepSeek shook hands with Xi Jinping, China’s top leader, last month, officials around the country have been racing to show how they are using the company’s technology.
Courthouse officials are using DeepSeek to draft legal judgments within minutes. Doctors at a hospital in Fuzhou, in eastern China, are using it to propose treatment plans. In Meizhou, a city in southern China, it is DeepSeek that answers a government help line.
In Shenzhen, a city near Hong Kong, officials searching for people who had been reported missing or lost said they used DeepSeek to analyze surveillance video and were able to track them down in at least 300 instances.
The enthusiastic embrace of the technology by China’s bureaucracy reflects, in part, what often happens when Mr. Xi, China’s most dominant leader in decades, puts his stamp of approval on something. (Mr. Xi has set off frenzies over soccer, winter sports and high-end manufacturing, for instance.)
But it also shows the momentum that Mr. Xi has created in the years since he made advanced technologies like A.I. and supercomputers central to his vision of China’s someday surging ahead of the United States as a tech superpower. The emergence of DeepSeek showed that it was possible for a Chinese company to make an advanced A.I. system, diminishing the United States’ perceived lead in the strategic technology.
DeepSeek’s rise has been a rare bit of good news at an economically precarious time for China. The inclusion of DeepSeek’s founder, Liang Wenfeng, in a rare meeting that Mr. Xi had with business leaders in Beijing was a sign of approval from the highest level of China’s leadership.
“This is the Chinese government’s style of doing things,” said Huang Guangbin, an artificial intelligence expert at Southeast University in Nanjing. “They do not reject new technologies. In reality, once they have clearly identified a direction, they will actually promote it very boldly.”
In recent weeks, local Communist Party committees and police departments have held sessions to train workers to use DeepSeek. Logistics companies and hotel groups are encouraging employees to come up with uses for DeepSeek in graphic design and customer service.
The police in the eastern city of Nanchang asked the DeepSeek chatbot to settle a dispute over who should keep the house after a couple’s divorce. (The husband should repay his ex-wife for the renovations to the house that she had financed, the chatbot reportedly said.)
DeepSeek sent U.S. tech stocks tumbling in January after it released details of an artificial intelligence system that performed as well as top products made by American companies. DeepSeek claimed to have used fewer expensive computer chips, challenging the idea that only the biggest tech companies could afford to make cutting-edge A.I. systems. The company also launched a chatbot app that has been downloaded around the world.
In China, DeepSeek was cheered on social media and heralded as a hero of the tech industry. Mr. Liang, the founder, has been hailed as a technical engineer who has put a priority on fundamental questions about A.I. The government’s implicit endorsement of DeepSeek has further fueled interest.
To be in the spotlight in the world’s second-largest economy, where more than one billion people use the internet, is something most start-ups only dream about. All of the use only gives DeepSeek’s technology more material to learn from.
But it can be hard to parse the substance from the hype. While scores of officials have pledged to use DeepSeek in their work, few have described specific examples in which the technology has made that work more effective or efficient.
The surge in demand raises questions about whether DeepSeek has the personnel and technical resources to quickly ramp up its capabilities. DeepSeek’s services have repeatedly crashed as millions of people have started using them. Just 160 people work at the start-up, according to Chinese media. DeepSeek did not respond to a request for comment.
And already some experts are warning about any headlong rush into A.I. by users, especially officials with responsibilities to the public, who might not know enough about its risks, given how new the technology is.
Officials should review all A.I.-generated content before using it, Zhong Huiyong, an associate researcher at Shanghai Jiao Tong University, told The Paper, an official news outlet, because even the most advanced A.I. systems can easily spit out false information — an affliction of generative A.I., broadly. He said officials who relied too much on A.I. might lose touch with the “actual situation.”
The Chinese government has been quick to respond to advances in A.I., issuing regulations on generative A.I. systems used by the public, requiring them to conform to China’s strict censorship rules, as do websites and apps. Internet regulators are also concerned that the technology could encourage the spread of false information; this month, they issued rules that will require internet platforms to clearly identify any A.I.-generated content.
Even so, the Chinese government’s willingness to experiment with using A.I. is in contrast to officials elsewhere in the world who are wary of widely using the technology without being sure they can protect their citizens from its possible harms.
In January, OpenAI released a version of ChatGPT designed to be used by U.S. government agencies. But rules about how officials can use A.I. vary significantly from state to state. In Pennsylvania, where some employees are allowed to use ChatGPT, the state reportedly said it prohibited OpenAI from using their queries to improve the technology. City employees in San Jose, Calif., have to fill out a form each time they use any generative A.I. technology.
(The New York Times has sued OpenAI and its partner, Microsoft, accusing them of copyright infringement of news content related to A.I. systems. OpenAI and Microsoft have denied those claims.)
For DeepSeek, the official attention from Beijing could cut both ways. Internet companies in China have only just started emerging from a yearslong crackdown that brought the sector more closely under the party’s control. The bigger or more influential DeepSeek gets, the more scrutiny it is likely to draw from the authorities — at home and abroad.
Outside China, DeepSeek’s rise has worried regulators about censorship, security and data handling. Government departments in Australia, South Korea and Taiwan have told employees not to use DeepSeek’s services.
And DeepSeek’s association with the Chinese government has already become fodder for its competitors.
Last week, OpenAI wrote a letter to the White House Office of Science and Technology Policy — in response to a U.S. government proposal — warning that Beijing could compel DeepSeek to “manipulate its models to cause harm.” It compared the start-up to Huawei, the Chinese telecommunications giant on a U.S. trade blacklist, and said the United States should adopt a policy that discouraged its allies from using technology that posed these kinds of risks, OpenAI said.
“While America maintains a lead on A.I. today, DeepSeek shows that our lead is not wide and is narrowing,” the letter said.
Image
The exterior of a courthouse.
The Shenzhen Intermediate People’s Court is using artificial intelligence to review and draft court documents.Credit...Kyodo News, via Getty Images
Meaghan Tobin covers business and tech stories in Asia with a focus on China and is based in Taipei. More about Meaghan Tobin
Claire Fu covers China with a focus on business and social issues in the country. She is based in Seoul. More about Claire Fu
Anthropic, startup AI trị giá hơn 60 tỷ USD, đang chuẩn bị tung ra các tính năng mới tập trung vào người dùng doanh nghiệp.
Mike Krieger, giám đốc sản phẩm của Anthropic và đồng sáng lập Instagram, cho biết công ty đang tập trung vào việc hệ thống máy tính có thể "hỗ trợ công việc tri thức" cho "những người dành cả ngày trong các cuộc họp hoặc làm việc với Excel và Google Docs".
Thay vì cạnh tranh với OpenAI và Google trong việc phát triển chatbot cho thị trường đại chúng, Anthropic đặt cược vào doanh nghiệp như động lực tạo doanh thu mới cho các sản phẩm dựa trên mô hình Claude AI.
Krieger chia sẻ: "Tôi hy vọng Claude tiếp cận được càng nhiều người càng tốt, nhưng con đường quan trọng hiện không phải thông qua việc thâm nhập thị trường tiêu dùng đại chúng".
Công ty vừa hoàn thành vòng gọi vốn 3,5 tỷ USD trong tháng này, tăng gấp ba lần giá trị lên hơn 60 tỷ USD, cho thấy sự quan tâm của nhà đầu tư vào các startup AI không có dấu hiệu giảm sút.
Đối thủ của Anthropic cũng đang đầu tư mạnh mẽ vào xây dựng sản phẩm AI cho người dùng doanh nghiệp. Microsoft đã tích hợp "Co-pilot" vào phần mềm Office, trong khi OpenAI đang tiếp thị "ChatGPT Enterprise".
Anthropic cho biết doanh thu từ nhà phát triển và doanh nghiệp thông qua API đang tăng nhanh gấp đôi so với doanh thu từ người dùng cá nhân.
Công ty đang thử nghiệm một nguyên mẫu sẽ được thương mại hóa và tích hợp vào Claude trong những tháng tới. Tính năng này phân tích lịch làm việc và chuẩn bị báo cáo trước các cuộc họp, giúp người dùng nắm được thông tin về khách hàng.
Anthropic cũng lên kế hoạch ra mắt hệ thống AI điều khiển bằng giọng nói, cho phép người dùng tương tác với mô hình AI thông qua hội thoại nói. OpenAI và xAI của Elon Musk cũng vừa ra mắt các tính năng tương tự.
Krieger tiết lộ công ty đang thảo luận việc ra mắt với "nhiều đối tác" đã có sản phẩm AI giọng nói để đẩy nhanh quá trình phát hành. Một nguồn tin cho biết Amazon và ElevenLabs của London là một phần trong các cuộc thảo luận sơ bộ.
Anthropic được hậu thuẫn bởi cả Google và Amazon, và gần đây đã hợp tác với Amazon để cung cấp sản phẩm Alexa hỗ trợ AI.
📌 Anthropic đang chuyển hướng chiến lược sang phục vụ doanh nghiệp thay vì người dùng đại chúng. Với giá trị 60 tỷ USD sau vòng gọi vốn 3,5 tỷ USD, công ty tập trung phát triển các tính năng hỗ trợ công việc tri thức và chuẩn bị ra mắt hệ thống AI điều khiển bằng giọng nói trong tương lai gần.
https://www.ft.com/content/97e0ab06-8d83-4918-9079-3ed935bc1c63
#FT
Anthropic hướng tới người dùng doanh nghiệp để tìm kiếm nguồn doanh thu mới
Giám đốc sản phẩm Mike Krieger cho biết công ty trị giá 60 tỷ USD đang chuẩn bị tung ra các tính năng hướng tới thị trường doanh nghiệp
Cristina Criddle – San Francisco
Xuất bản 27 phút trước
Startup trí tuệ nhân tạo Anthropic đang chuẩn bị ra mắt một loạt tính năng mới tập trung vào người dùng doanh nghiệp, hướng các mô hình AI của mình tới khách hàng doanh nghiệp thay vì tìm kiếm sự chấp nhận rộng rãi từ thị trường đại chúng.
Mike Krieger, giám đốc sản phẩm của Anthropic — đồng thời là đồng sáng lập Instagram trước khi gia nhập Anthropic vào năm ngoái — cho biết công ty đang tập trung vào cách các hệ thống máy tính có thể "hỗ trợ công việc tri thức" cho "những người dành cả ngày trong các cuộc họp hoặc làm việc trên Excel hoặc Google Docs."
"Cảm giác như chúng tôi có thể làm cho việc đó trở nên dễ dàng hơn," Krieger nói thêm.
Anthropic đang đặt cược vào việc các doanh nghiệp sẽ mang lại nguồn doanh thu mới cho các sản phẩm dựa trên Claude AI — thay vì cạnh tranh với các đối thủ như OpenAI và Google, những công ty đang tập trung vào xây dựng các chatbot và AI agent phục vụ cho thị trường đại chúng.
"Tôi hy vọng Claude sẽ tiếp cận được càng nhiều người càng tốt, nhưng con đường quan trọng hiện tại không phải là thông qua việc thâm nhập vào thị trường tiêu dùng đại chúng," Krieger phát biểu trong một sự kiện tại hội nghị HumanX gần đây ở Las Vegas.
Những tuyên bố này được đưa ra sau khi Anthropic gọi vốn thành công 3,5 tỷ USD trong tháng này, đẩy mức định giá của công ty lên hơn 60 tỷ USD — tăng gấp ba lần so với trước đó.
Dù vòng gọi vốn cho thấy sự quan tâm của các nhà đầu tư đối với các startup AI vẫn đang mạnh mẽ, nhiều người vẫn lo ngại về việc khi nào các khoản đầu tư này sẽ bắt đầu tạo ra lợi nhuận thực sự thông qua các mô hình kinh doanh AI tạo sinh (generative AI) thành công.
Các đối thủ của Anthropic cũng đang đầu tư mạnh vào các sản phẩm AI dành cho khách hàng doanh nghiệp:
Anthropic cho biết doanh thu từ các nhà phát triển và doanh nghiệp thông qua giao diện lập trình ứng dụng (API) của họ đang tăng gấp đôi tốc độ tăng trưởng so với doanh thu từ các đăng ký của người tiêu dùng.
Nội bộ công ty hiện đang thử nghiệm một nguyên mẫu mà họ dự định sẽ thương mại hóa và tích hợp vào Claude trong vài tháng tới.
Tính năng này sẽ:
"Lý tưởng nhất là bạn sẽ trở thành một nhân viên bán hàng bước vào mọi cuộc họp với sự chuẩn bị tốt nhất có thể," Krieger cho biết. "Nhưng trên thực tế, họ không có thời gian để chuẩn bị báo cáo cho mọi công ty."
Bằng cách tập trung vào các tính năng cho doanh nghiệp, Anthropic đang tìm cách tạo ra lợi thế cạnh tranh so với các đối thủ như OpenAI và Google — những công ty đang nhắm đến người dùng cá nhân nhiều hơn.
Thị trường doanh nghiệp không chỉ mang lại nguồn doanh thu ổn định mà còn cho phép Anthropic phát triển các mô hình Claude AI được tùy chỉnh theo từng lĩnh vực cụ thể. Điều này có thể giúp công ty tăng cường khả năng cạnh tranh trong bối cảnh ngày càng có nhiều công ty công nghệ lớn tham gia vào cuộc đua AI.
Krieger nhấn mạnh rằng việc mở rộng sang phân khúc doanh nghiệp là con đường khả thi nhất để tạo ra dòng doanh thu ổn định trong ngắn hạn, trong khi thị trường AI tiêu dùng vẫn đang phát triển và đối mặt với nhiều rủi ro pháp lý và vấn đề bảo mật dữ liệu.
Anthropic không phải là công ty duy nhất nhận ra tiềm năng trong thị trường doanh nghiệp:
Anthropic hy vọng rằng cách tiếp cận tập trung vào doanh nghiệp — với các tính năng trực tiếp giải quyết nhu cầu của doanh nghiệp — sẽ giúp công ty có chỗ đứng vững chắc trong thị trường AI đang phát triển nhanh chóng này.
Mặc dù Krieger cho biết ông hy vọng Claude sẽ tiếp cận được càng nhiều người càng tốt, nhưng mục tiêu chính hiện tại của Anthropic là thâm nhập vào thị trường doanh nghiệp trước khi mở rộng sang thị trường tiêu dùng đại chúng.
Anthropic tin rằng việc tập trung vào doanh nghiệp không chỉ mang lại nguồn doanh thu bền vững hơn, mà còn giúp họ nhanh chóng cải thiện hiệu suất và độ chính xác của Claude thông qua dữ liệu từ các công ty.
"Claude sẽ không chỉ là một công cụ giao tiếp — nó sẽ trở thành một trợ lý thông minh thực sự cho doanh nghiệp," Krieger khẳng định.
Anthropic đặt mục tiêu tăng cường năng lực AI giọng nói và hỗ trợ làm việc tự động
"Đó là cách mà các mô hình AI có thể phát huy tốt nhất khả năng của chúng: thực hiện các công việc không đồng bộ, suy nghĩ về vấn đề và sau đó tạo ra một giải pháp có thể sử dụng được. Hy vọng rằng điều này sẽ là chất xúc tác cho đội ngũ bán hàng của chúng tôi."
Anthropic cũng đang lên kế hoạch ra mắt hệ thống AI điều khiển bằng giọng nói, cho phép người dùng tương tác và phản hồi các mô hình AI thông qua cuộc hội thoại nói.
Đây là một lĩnh vực mà các đối thủ như OpenAI và xAI của Elon Musk cũng đã tung ra các tính năng mới trong thời gian gần đây. Meta cũng đang đầu tư mạnh vào lĩnh vực này.
"Chúng tôi cũng sẽ phát triển tính năng giọng nói nội bộ; đây là một phương thức tương tác rất hữu ích. Chúng tôi đã có các nguyên mẫu rồi," Krieger cho biết.
Ông nói thêm rằng Anthropic đang làm việc để phát triển phiên bản Claude dành cho máy tính để bàn nhằm nâng cao trải nghiệm người dùng:
"Chúng tôi đang nghiên cứu về cách Claude dành cho máy tính để bàn có thể phát triển… Nếu nó sẽ vận hành máy tính của bạn, thì một giao diện tự nhiên hơn có thể là thông qua giọng nói."
Krieger cho biết Anthropic hiện đang thảo luận với "một số đối tác" đã có các sản phẩm AI giọng nói, nhằm đẩy nhanh tiến độ ra mắt.
Một nguồn tin thân cận cho biết Amazon và ElevenLabs — một startup AI có trụ sở tại London — đang tham gia vào các cuộc thảo luận ban đầu về việc hợp tác với Anthropic. Tuy nhiên, chưa có thỏa thuận chính thức nào được ký kết.
Điều này có ý nghĩa quan trọng vì:
Krieger nhấn mạnh rằng các mô hình AI của Anthropic đang được thiết kế để:
✅ Tự động hóa các công việc không đồng bộ
✅ Phân tích vấn đề
✅ Tạo ra các giải pháp có thể ứng dụng ngay
Ông cho rằng đây sẽ là một "động lực thúc đẩy" lớn cho bộ phận bán hàng của Anthropic, vì các tính năng tự động này có thể giúp nhân viên bán hàng chuẩn bị cho các cuộc họp và đưa ra thông tin phân tích chi tiết hơn về khách hàng.
"Lý tưởng nhất là bạn sẽ bước vào một cuộc họp với mọi thông tin đã được chuẩn bị kỹ lưỡng, nhưng thực tế thì nhân viên không có thời gian để chuẩn bị cho từng khách hàng một. AI có thể làm điều đó cho họ," Krieger nhấn mạnh.
Kế hoạch mở rộng sang AI giọng nói và tự động hóa cho doanh nghiệp cho thấy Anthropic đang tìm kiếm các lợi thế cạnh tranh mới trong bối cảnh các đối thủ như OpenAI, Google và Microsoft đang cạnh tranh mạnh mẽ trong lĩnh vực AI tạo sinh.
Bằng cách:
Anthropic đang đặt cược vào việc nắm bắt phân khúc doanh nghiệp để xây dựng nguồn doanh thu ổn định, trong khi vẫn tiếp tục cạnh tranh với các đối thủ trong không gian AI tiêu dùng.
"Claude sẽ không chỉ là một chatbot — nó sẽ là một công cụ thông minh thực sự để giúp doanh nghiệp vận hành hiệu quả hơn," Krieger khẳng định.
Anthropic set to focus on business users in search for new revenues
AI start-up’s product head Mike Krieger says $60bn company is preparing to release features aimed at enterprise market
current progress 76%
Cristina Criddle in San Francisco
Published
27 minutes ago
Artificial intelligence start-up Anthropic is preparing to release a range of new features focused on business users, pitching its AI models at enterprise over seeking mass market adoption.
Mike Krieger, the Silicon Valley group’s chief product officer, told the Financial Times that it was focused on how computer systems could “help with knowledge work” for “people who spend all day in meetings or in Excel or Google Docs”.
“It feels like we should be able to make that easier,” added Krieger, who was previously a co-founder of Instagram before joining Anthropic last year.
The group is banking on businesses driving new revenues for products based on its popular Claude AI models rather than chasing rivals such as OpenAI and Google which are also building chatbots and agents designed for more widespread use.
“I hope Claude reaches as many people as possible, but the critical path is not through mass-market consumer adoption right now,” said Krieger on stage during the recent HumanX conference in Las Vegas.
The comments come after the company closed a $3.5bn fundraising round this month, tripling its valuation to more than $60bn.
While the fundraise was a sign that investor interest in AI start-ups was showing no sign of waning, there are still concerns over when such bets can start to deliver meaningful returns through creating successful business models for generative AI.
Anthropic’s rivals have also invested heavily in building AI products for business users. Microsoft has rolled out “Co-pilot” across its Office productivity software, while OpenAI is marketing “ChatGPT Enterprise” for businesses seeking more powerful uses of its AI models customised for specific organisations.
Anthropic said its revenue from developers and enterprises via its application programming interface — or API — was growing twice as fast as its consumer subscriptions.
Internally, the company has been testing a prototype which it plans to “commercialise” and build into Claude in the coming months.
The feature examines workers’ calendars and prepares a report ahead of their meetings, analysing internal and external information about the client, such as who else they have met internally and previous notes about the company.
“Ideally, you’re a salesperson who walks into every one of those meetings as prepared as possible, but they don’t have time to do that report for every single company,” Krieger said.
“That’s a way in which the models do what they’re really good at: go off and do asynchronous work, think about the problem, and then create something consumable. Hopefully, that will be an accelerant for our sales folks.”
Anthropic also plans to launch voice-driven AI systems, where people can prompt and respond to AI models through a spoken conversation. It is an area where competitors OpenAI and Elon Musk’s xAI have also recently released features and Meta is also focused on.
“We will do voice internally, too; it is a useful modality to have. We have prototypes,” he said.
“We are doing some work around how Claude for desktop evolves . . . if it is going to be operating your computer, a more natural user interface might be to [speak to it].”
Krieger said Anthropic was discussing the launch with “a bunch of partners” already with AI voice products to potentially speed up the release.
One person familiar with the move said Amazon and London-based AI start-up ElevenLabs were part of preliminary discussions but no agreements had been signed.
Anthropic is backed by both Google and Amazon and has recently partnered with the latter to deliver its AI-powered Alexa product.
Việc áp dụng AI trong môi trường làm việc đang làm sâu sắc thêm sự chia rẽ và tạo ra các cuộc tranh giành quyền lực mới giữa lãnh đạo và nhân viên, với một nửa số giám đốc điều hành nói rằng AI đang "xé nát công ty họ", theo nghiên cứu mới từ Writer.
Có tới 94% giám đốc điều hành được khảo sát không hài lòng với giải pháp AI hiện tại. 72% lãnh đạo cấp cao cho biết công ty họ đã gặp "ít nhất một thách thức" trong việc áp dụng AI và 71% phàn nàn rằng các ứng dụng AI đang được tạo ra "trong các hầm lẻ" riêng biệt.
Con số đáng kinh ngạc: 59% giám đốc điều hành nói họ đang "tích cực tìm kiếm công việc mới tại công ty có nhiều đổi mới với AI tạo sinh hơn", trong khi con số này ở nhân viên là 35%.
Nghiên cứu khảo sát 800 giám đốc điều hành và 800 nhân viên vào tháng 12/2024 tại các tổ chức doanh nghiệp từ 100 đến hơn 10.000 nhân viên trong các ngành như công nghệ, dịch vụ tài chính, bán lẻ, hàng tiêu dùng, chăm sóc sức khỏe, dược phẩm và khoa học đời sống.
Khoảng cách nhận thức rõ rệt: chỉ 45% nhân viên so với 75% giám đốc điều hành cho rằng việc triển khai AI trong 12 tháng qua thành công. Chỉ 57% nhân viên nói công ty họ có chiến lược AI, trong khi 89% giám đốc điều hành tin rằng họ có.
Sự phản đối từ phía nhân viên xuất phát từ nỗi sợ bị AI thay thế và từ các công cụ AI không phù hợp với công việc. Khoảng một nửa số nhân viên nói thông tin do AI tạo ra không chính xác, gây nhầm lẫn và thiên vị.
41% nhân viên thuộc thế hệ Millennial và Gen Z thừa nhận đã phá hoại chiến lược AI của công ty bằng cách từ chối sử dụng công cụ hoặc kết quả AI tạo ra.
May Habib, CEO của Writer, cho rằng lãnh đạo cần chứng minh cho nhân viên thấy họ đang sử dụng AI để phát triển đầu ra của công ty và không thể làm điều đó mà không giữ lại nhân viên hiện tại.
35% nhân viên đang tự chi tiền cho các công cụ AI tạo sinh họ sử dụng tại nơi làm việc vì không hài lòng với công cụ của công ty cung cấp.
Habib có ít kiên nhẫn với các công ty xem AI nơi làm việc đồng nghĩa với chatbot: "Tất cả chúng ta đều chán ngấy những chatbot. Đừng yêu cầu tôi sử dụng một chatbot khác".
📌 Khoảng cách nhận thức về AI giữa lãnh đạo và nhân viên đang tạo ra chia rẽ trong doanh nghiệp, với 94% giám đốc không hài lòng với AI hiện tại, 59% đang tìm việc mới vì AI, trong khi 41% nhân viên trẻ thừa nhận phá hoại chiến lược AI. Các công cụ không hiệu quả và nỗi lo mất việc tiếp tục cản trở quá trình áp dụng AI.
https://www.axios.com/2025/03/18/enterprise-ai-tension-workers-execs
OpenAI chuẩn bị thử nghiệm tính năng ChatGPT Connectors cho phép khách hàng doanh nghiệp kết nối các ứng dụng như Slack và Google Drive với ChatGPT.
ChatGPT Connectors sẽ cho phép người đăng ký ChatGPT Team liên kết tài khoản Google Drive và Slack để chatbot có thể trả lời câu hỏi dựa trên tệp, bài thuyết trình, bảng tính và cuộc trò chuyện Slack.
Tính năng này được xem như nỗ lực mới nhất của OpenAI nhằm biến ChatGPT thành công cụ phần mềm không thể thiếu cho doanh nghiệp, đồng thời tạo ra thách thức đáng gờm cho các nền tảng tìm kiếm doanh nghiệp được hỗ trợ bởi AI như Glean.
ChatGPT Connectors được hỗ trợ bởi phiên bản mô hình GPT-4o của OpenAI, có khả năng tinh chỉnh phản hồi dựa trên "kiến thức nội bộ" của công ty.
Để tạo chỉ mục tìm kiếm, OpenAI đồng bộ hóa bản sao được mã hóa của tệp công ty và cuộc trò chuyện trên máy chủ ChatGPT.
OpenAI nhấn mạnh rằng quyền của Slack và Google Drive được "tôn trọng đầy đủ" và "cập nhật liên tục". Nhân viên sẽ không thể khám phá nội dung qua ChatGPT mà họ không thể truy cập trong Google Drive hoặc Slack.
Quản trị viên có thể chọn kênh Slack và tệp Google Drive nào được đồng bộ hóa. Tuy nhiên, nhân viên có thể nhận được phản hồi "khác biệt đáng kể" cho cùng một lệnh ChatGPT.
Có những giới hạn kỹ thuật: hình ảnh trong tệp Google Drive không được hỗ trợ; ChatGPT Connector chỉ có thể "đọc" nhưng không phân tích dữ liệu trong Sheets và Excel; không thể truy xuất tin nhắn trực tiếp Slack hoặc tin nhắn nhóm.
Công ty muốn tham gia thử nghiệm beta được yêu cầu cung cấp cho OpenAI 100 tài liệu, bảng tính, bài thuyết trình và/hoặc cuộc trò chuyện kênh Slack.
OpenAI khẳng định sẽ không trực tiếp huấn luyện trên thông tin này, nhưng có thể sử dụng chúng "làm đầu vào cho việc tạo dữ liệu tổng hợp" và "không có dữ liệu đồng bộ hóa từ Google Drive hoặc Slack sẽ được sử dụng để đào tạo".
OpenAI dự kiến mở rộng ChatGPT Connectors sang các nền tảng khác như Microsoft SharePoint và Box trong tương lai.
📌 OpenAI chuẩn bị ra mắt ChatGPT Connectors cho Google Drive và Slack, giúp doanh nghiệp khai thác dữ liệu nội bộ thông qua mô hình GPT-4o. Tính năng này đảm bảo tôn trọng quyền truy cập, mã hóa dữ liệu, và sẽ mở rộng sang SharePoint và Box trong tương lai.
https://techcrunch.com/2025/03/17/openai-to-start-testing-chatgpt-connectors-for-google-drive-and-slack/
Adobe vừa ra mắt công cụ Adobe Experience Agent Orchestrator cho phép điều phối các agent AI trong nền tảng Adobe Experience, đánh dấu bước tiến quan trọng để cạnh tranh với Salesforce trong lĩnh vực quản lý trải nghiệm khách hàng.
Mặc dù nổi tiếng với các công cụ sáng tạo như Photoshop, Adobe còn là đối thủ của Salesforce trong ngành quản lý quan hệ khách hàng (CRM) với nền tảng Adobe Experience - cổng tập trung lưu trữ dữ liệu khách hàng và cung cấp công cụ tạo trải nghiệm cá nhân hóa.
Công ty đã giới thiệu 10 "Experience Agent" có thể triển khai nhanh chóng trong vài phút, bao gồm: agent đánh giá tài khoản để phát triển khách hàng tiềm năng, agent phân tích đối tượng để tối ưu hóa phân khúc khách hàng giá trị cao, agent phân tích dữ liệu để phát hiện xu hướng, agent kỹ thuật dữ liệu để xử lý thông tin khách hàng.
Các agent khác bao gồm: agent thử nghiệm giúp mô phỏng sáng kiến marketing, agent hành trình hỗ trợ trải nghiệm đa kênh, agent sản xuất nội dung tạo tài liệu marketing, agent tối ưu hóa website, agent tối ưu hóa quy trình làm việc, và agent tư vấn sản phẩm đề xuất sản phẩm dựa trên sở thích khách hàng.
Adobe cũng ra mắt Brand Concierge - agent AI đầu tiên tương tác với người tiêu dùng thay mặt thương hiệu trên nhiều kênh, tạo trải nghiệm cá nhân hóa và hỗ trợ khách hàng từ khâu tìm hiểu đến mua hàng.
Liz Miller từ Constellation Research nhận xét Adobe đang tập trung hơn vào việc sử dụng công nghệ để thúc đẩy kết quả kinh doanh, đặc biệt ấn tượng với agent Site Optimizer có khả năng phân tích dữ liệu lưu lượng thời gian thực để dự đoán, chẩn đoán vấn đề và đề xuất các giải pháp khắc phục.
Adobe không chỉ phát triển agent riêng mà còn công bố Hệ sinh thái Đối tác Agent AI, cho phép khách hàng sử dụng agent của bên thứ ba thông qua Agent Orchestrator, với các đối tác khởi động bao gồm Acxiom, AWS, IBM, Microsoft, RainFocus, SAP và Workday.
Brand Concierge không chỉ giúp người tiêu dùng mà còn hỗ trợ đội ngũ bán hàng B2B bằng cách cung cấp nội dung tùy chỉnh dựa trên mối quan hệ tài khoản hiện có và xử lý các tác vụ như đặt lịch họp theo dõi.
Adobe Experience Platform Agent Orchestrator hoạt động như cổng quản lý nhiều agent AI khai thác thông tin từ nền tảng dữ liệu khách hàng, nâng cao khả năng suy luận nhờ cơ sở kiến thức định hướng dịch vụ khách hàng.
Với việc triển khai các agent AI, Adobe khẳng định các trải nghiệm khách hàng ngày càng năng động và cá nhân hóa, đòi hỏi công nghệ tự động hóa để đội ngũ marketing có thể theo kịp nhu cầu thị trường.
📌 Adobe triển khai Adobe Experience Agent Orchestrator cùng 10 agent AI chuyên biệt nhằm tự động hóa marketing và bán hàng, cạnh tranh trực tiếp với Salesforce. Brand Concierge - agent tương tác với khách hàng đa kênh và hệ sinh thái đối tác với AWS, Microsoft, IBM đánh dấu bước tiến quan trọng trong quản lý trải nghiệm khách hàng.
https://siliconangle.com/2025/03/18/689809/
Trong thời đại bùng nổ thông tin, các nhà lãnh đạo doanh nghiệp đang phải đối mặt với 2 thách thức lớn: lọc ra những sự kiện quan trọng và phân tích chúng một cách hiệu quả.
Selecta là nền tảng được hỗ trợ bởi AI, được thiết kế để phân tích hàng chục nghìn nguồn thông tin mỗi giờ, biên soạn thông tin liên quan thành các bài viết và cung cấp dữ liệu phân tích cho người dùng dựa trên ngành công nghiệp của họ.
Vitaly Vinogradow, CEO và người sáng lập Selecta, có hơn một thập kỷ kinh nghiệm trong lĩnh vực AI tạo sinh, computer vision, và AI/ML tại các công ty nổi tiếng như Revolut.
Khác với các trang tổng hợp tin tức thông thường chỉ tổng hợp tiêu đề, Selecta phân tích khối lượng dữ liệu khổng lồ, diễn giải và cung cấp các báo cáo phân tích chuyên sâu.
Hệ thống AI của Selecta phân tích các sự kiện, xác định mẫu thông tin và trình bày dữ liệu ở định dạng cấu trúc dễ sử dụng, giúp người dùng tiết kiệm thời gian và đưa ra quyết định dựa trên dữ liệu thực tế thay vì phỏng đoán.
Theo Vinogradow, 2 xu hướng chính trong ngành AI hiện nay là multimodal LLMs (mô hình ngôn ngữ lớn có khả năng xử lý nhiều loại dữ liệu từ văn bản đến hình ảnh và video) và trợ lý AI.
Đối tượng người dùng chính của Selecta bao gồm chủ doanh nghiệp, lãnh đạo cấp cao và quản lý cấp trung, những người phụ thuộc vào thông tin kịp thời về ngành.
Các tính năng mới sắp được bổ sung vào nền tảng bao gồm: trợ lý AI để cá nhân hóa đề xuất, báo cáo hàng quý và hàng năm về tất cả các ngành, theo dõi lĩnh vực kinh doanh ngách, và công cụ phân tích các nguồn thông tin nội bộ.
Trong 5 năm tới, Selecta đặt mục tiêu trở thành nguồn tài nguyên được hỗ trợ bởi AI để hỗ trợ các ấn phẩm truyền thông truyền thống, với kế hoạch mở rộng sang thị trường quốc tế, ưu tiên Hoa Kỳ trước tiên rồi đến các quốc gia châu Âu.
Vinogradow khuyên các startup mới trong lĩnh vực AI nên mạnh dạn thử nghiệm, chấp nhận sai lầm là không thể tránh khỏi, và thành công chỉ đến từ nhiều lần thử nghiệm.
📌 Selecta đang sử dụng AI để xử lý hàng chục nghìn nguồn tin mỗi giờ, tạo ra báo cáo phân tích kinh doanh được cá nhân hóa cho lãnh đạo doanh nghiệp. Với hai xu hướng chính là multimodal LLMs và trợ lý AI, công ty đặt mục tiêu mở rộng toàn cầu trong 5 năm tới.
https://readwrite.com/ai-in-business-media/
Zoom đã âm thầm xây dựng một cơ sở hạ tầng AI tinh vi trong vài năm qua, nhằm định nghĩa lại năng suất làm việc, không chỉ dừng lại ở hội nghị truyền hình.
Xuedong (X.D.) Huang, CTO của Zoom và cựu nhân viên Microsoft với 30 năm kinh nghiệm, đã chia sẻ: "Trong kỷ nguyên AI agent, công nghệ cuối cùng đã đạt đến điểm có thể chuyển đổi từ cuộc họp thành cột mốc quan trọng."
Công ty vừa công bố chiến lược AI agent tích cực, bao gồm nhiều dịch vụ mới, giúp chuyển đổi các cuộc họp thành quy trình làm việc định hướng hành động, cùng AI Studio cho phép doanh nghiệp tạo các agent AI tùy chỉnh.
Khác với Microsoft Teams (sử dụng OpenAI) và Google Meet (sử dụng Google Gemini), Zoom áp dụng phương pháp không thiên vị đối với các mô hình ngôn ngữ lớn (LLM), hợp tác với cả OpenAI và Anthropic.
Zoom đã phát triển mô hình ngôn ngữ nhỏ (SLM) riêng với 2 tỷ tham số, được xây dựng hoàn toàn từ đầu thay vì theo xu hướng chưng cất mô hình nhỏ hơn từ mô hình lớn.
AI Companion 2.0 của Zoom phát triển từ hỗ trợ cuộc họp đến chức năng AI agent hoàn chỉnh, có khả năng lý luận, ghi nhớ và thực hiện nhiệm vụ, thực hiện các hành động nhiều bước thay người dùng.
Các tính năng mới bao gồm: kỹ năng agent (quản lý lịch, tạo clip, hỗ trợ viết nâng cao), quản lý nhiệm vụ, cải tiến cuộc họp, tạo tài liệu, agent ảo, giải pháp ngành, Zoom Drive và avatar tùy chỉnh.
AI Studio cho phép doanh nghiệp tạo agent AI tùy chỉnh phù hợp với nhu cầu kinh doanh cụ thể, tích hợp sâu với quy trình làm việc và kiến thức của công ty.
Doanh nghiệp có thể sử dụng AI Studio để tải lên tài liệu chính sách nội bộ, giúp AI companion được đào tạo về thông tin cụ thể của công ty.
Các tính năng mới sẽ được triển khai từ tháng 3 đến tháng 7 năm 2025, với AI Companion tiêu chuẩn được bao gồm miễn phí cho người dùng trả phí, trong khi các agent chuyên biệt và cấu hình tùy chỉnh sẽ yêu cầu phí bổ sung.
📌 Zoom đang thực hiện chuyển đổi chiến lược từ nền tảng hội họp thành giải pháp năng suất toàn diện với AI agent, kết hợp mô hình ngôn ngữ nhỏ 2 tỷ tham số tự phát triển với LLM hàng đầu như OpenAI và Anthropic, tạo ra hệ sinh thái tự động hóa có khả năng chuyển đổi cuộc họp thành hành động cụ thể.
https://venturebeat.com/ai/inside-zooms-ai-evolution-from-basic-meeting-tools-to-agentic-productivity-platform-powered-by-llms-and-slms/
1. Giám sát lãnh đạo và quản lý rủi ro:
2. Triển khai và mở rộng AI tạo sinh:
3. Tác động đến hiệu quả kinh doanh:
4. Ảnh hưởng đến lực lượng lao động:
5. Xu hướng cá nhân hóa trong AI:
📌 Khảo sát của McKinsey năm 2025 cho thấy các công ty đang dần chuyển từ việc thử nghiệm AI sang triển khai thực tế và mở rộng để tạo ra giá trị. Tập trung vào giám sát cấp cao, tái cấu trúc quy trình và kiểm soát rủi ro là yếu tố quan trọng để tạo ra tác động rõ rệt đến EBIT. Trong khi 53% CEO đang chủ động trong việc triển khai AI, chỉ 17% công ty thấy tác động tài chính rõ ràng, cho thấy rằng tiềm năng của AI vẫn chưa được khai thác đầy đủ.
https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai
#McKinsey
Theo báo cáo, các lãnh đạo cấp C (C-level), bao gồm CEO, CFO, CTO và các vị trí lãnh đạo cấp cao khác, đang dẫn đầu trong việc sử dụng AI tạo sinh (Gen AI) so với các cấp quản lý khác. Dưới đây là các điểm chính về cách các lãnh đạo cấp C đang sử dụng và tận dụng AI tạo sinh:
Phân tích và ra quyết định:
Hỗ trợ lập chiến lược:
Cải thiện hiệu quả quản lý:
Phân bổ tài nguyên và nhân lực:
Marketing và bán hàng:
Phát triển sản phẩm:
Quản lý chuỗi cung ứng:
Quản lý rủi ro và tuân thủ:
Dưới đây là 12 thực tiễn hàng đầu để mở rộng triển khai AI tạo sinh (Gen AI) được xác định trong khảo sát của McKinsey:
📌 12 thực tiễn này là hệ thống các bước cần thiết để các tổ chức có thể triển khai và mở rộng Gen AI thành công. Tuy nhiên, khảo sát cho thấy rằng chưa đến 1/3 tổ chức đang thực hiện đầy đủ các thực tiễn này. Để tạo ra giá trị từ AI, các tổ chức cần cam kết từ cấp lãnh đạo, tập trung vào đào tạo và đặt ra các KPI rõ ràng để đo lường hiệu quả. 🚀
Khi phòng thí nghiệm AI nhỏ của Trung Quốc - DeepSeek - công bố mô hình ngôn ngữ lớn R1 vượt trội ChatGPT với chi phí thấp hơn nhiều, thị trường chứng khoán đã mất 1.000 tỷ USD chỉ trong một ngày. DeepSeek, được thành lập bởi nhà quản lý quỹ đầu cơ Liang Wenfeng, đã tiết lộ cách xây dựng mô hình có khả năng tự học và cải thiện mà không cần sự giám sát của con người.
Sự kiện này phản ánh cuộc đua công nghệ giữa Trung Quốc và Mỹ, nhưng đáng chú ý hơn là xu hướng "chủ nghĩa dữ liệu" (dataism) đang ảnh hưởng sâu sắc đến tương lai của nguồn nhân lực. Chủ nghĩa dữ liệu tin rằng việc thu thập ngày càng nhiều dữ liệu và cung cấp cho các thuật toán mạnh mẽ sẽ giúp doanh nghiệp khám phá sự thật, đưa ra quyết định đúng đắn và tạo ra giá trị.
Quan điểm này thách thức nhiều nền tảng của lý thuyết quản lý và tương tác kinh tế giữa lao động và vốn. Doanh nghiệp đang phải đối mặt với tương lai của "công việc tri thức", thách thức nhân khẩu học và vấn đề quay trở lại nơi làm việc.
Quản lý nguồn nhân lực đang đối diện với sự gián đoạn ở cấp độ cá nhân, công ty và xã hội với quy mô chưa từng thấy kể từ cách mạng công nghiệp. Thay vì đặt AI đối lập với con người, thách thức thực sự là tính toán phức tạp giữa tự động hóa và tăng cường đồng thời.
Theo David Autor, nhà kinh tế học tại MIT, tự động hóa là máy móc thay thế công việc của con người, trong khi tăng cường là công nghệ giúp con người làm được nhiều việc đa dạng hơn, chất lượng hơn hoặc năng suất cao hơn.
Nghiên cứu của Autor cho thấy từ năm 1940, sự tương tác giữa tự động hóa và tăng cường đã tạo ra tỷ lệ đáng kể các công việc mới ở Mỹ. Tuy nhiên, những công việc mới này bị phân cực giữa việc làm lương cao và thu nhập thấp, khi công việc trung bình dần biến mất.
Thành công trong quản lý sự cân bằng này phụ thuộc vào hiệu quả của quản lý nguồn nhân lực trong thiết kế công việc sáng tạo và nguyên tắc "tối ưu hóa chung" - đảm bảo hệ thống tổ chức được tối ưu hóa có chủ đích cho việc tạo ra giá trị (lời hứa của chủ nghĩa dữ liệu) cũng như chất lượng trải nghiệm làm việc của con người.
📌 Sự hé lộ của DeepSeek đã gây chấn động khi xóa sổ 1.000 tỷ USD giá trị thị trường, kích hoạt cuộc tranh luận về "chủ nghĩa dữ liệu" trong doanh nghiệp. Doanh nghiệp đang ở ngã ba đường, vừa tận dụng sức mạnh thuật toán vừa duy trì giá trị con người, trong bối cảnh công việc bị phân cực giữa lương cao và lương thấp.
https://www.ft.com/content/a561756d-2427-4965-9040-f16e91f6b4a4
#FT
Trường kinh doanh nghiên cứu tình huống: Các công ty sẽ điều hướng lời hứa và mối đe dọa của chủ nghĩa dữ liệu như thế nào?
Sử dụng sức mạnh của thuật toán để đưa ra quyết định và tạo ra giá trị đòi hỏi phải xác định lại vai trò của quản lý
Tom Davis
Xuất bản cách đây 2 giờ
Khi một phòng thí nghiệm trí tuệ nhân tạo nhỏ của Trung Quốc cho thấy vào tháng 1 rằng họ có thể xây dựng một mô hình ngôn ngữ lớn vượt qua ChatGPT của OpenAI với chi phí chỉ bằng một phần nhỏ, thế giới công nghệ đã rơi vào hỗn loạn và 1 nghìn tỷ USD đã bốc hơi khỏi thị trường chứng khoán chỉ trong một ngày.
DeepSeek, được thành lập bởi nhà quản lý quỹ đầu cơ Liang Wenfeng, đã phát hành mô hình R1 và chi tiết cách xây dựng một mô hình có thể tự động học hỏi và cải thiện mà không cần sự giám sát của con người.
Tiết lộ này đã nắm bắt được tinh thần cạnh tranh giữa Trung Quốc và Mỹ trong cuộc đua giành vị trí thống trị công nghệ toàn cầu. Tuy nhiên, ít sự chú ý hơn đã được dành cho yếu tố ngầm làm nền tảng cho cuộc cạnh tranh hiện đại này: sự trỗi dậy của “chủ nghĩa dữ liệu” (dataism) và những tác động của nó đối với tương lai của nguồn nhân lực.
Chủ nghĩa dữ liệu là niềm tin rằng bằng cách thu thập ngày càng nhiều dữ liệu và cung cấp cho các thuật toán ngày càng mạnh mẽ, các doanh nghiệp có thể khám phá ra sự thật, đưa ra quyết định đúng đắn và tạo ra giá trị.
Quan điểm này thách thức nhiều nền tảng của lý thuyết quản lý — và sự tương tác kinh tế giữa lao động và vốn — trong khi làm dấy lên kỳ vọng cao hơn đối với AI tạo sinh.
Các doanh nghiệp đang vật lộn với tương lai của “công việc tri thức”, một cuộc khủng hoảng nhân khẩu học đang đến gần và những thách thức trong việc quay lại làm việc tại văn phòng. Một số người đã dự đoán các hậu quả khác, chẳng hạn như sự suy thoái thành một xã hội hậu biết chữ và sự suy yếu của doanh nghiệp với tư cách là động lực cho sự phát triển của con người.
Quản lý nguồn nhân lực đang đối mặt với sự gián đoạn ở cấp độ cá nhân, công ty hoặc xã hội ở quy mô chưa từng thấy kể từ cuộc cách mạng công nghiệp. Làm thế nào để điều hướng cả lời hứa và mối đe dọa của chủ nghĩa dữ liệu là vấn đề cấp bách nhất của ngành này.
Chủ nghĩa dữ liệu không nhất thiết phải đối lập với nguồn nhân lực trong viễn cảnh tưởng tượng về cuộc chiến giữa robot và con người. Thay vào đó, quản lý nguồn nhân lực phải giải quyết bài toán phức tạp giữa tự động hóa và gia tăng giá trị cùng lúc.
“Bạn có thể coi tự động hóa là một cỗ máy tiếp nhận các đầu vào của công việc và thực hiện công việc thay cho người lao động,” David Autor, nhà kinh tế học tại Viện Công nghệ Massachusetts (MIT), cho biết. “Gia tăng giá trị là một công nghệ giúp tăng cường sự đa dạng của các công việc mà con người có thể làm, nâng cao chất lượng của các công việc hoặc nâng cao năng suất của họ.”
Đây là một phần của loạt bài nghiên cứu tình huống dành cho các trường kinh doanh về các tình huống kinh doanh phức tạp. Hãy đọc văn bản và các bài viết từ FT và các nguồn khác được đề xuất ở cuối bài (và được liên kết trong bài) trước khi xem xét các câu hỏi được đặt ra. Loạt bài này là một phần của bộ sưu tập “nghiên cứu tình huống tức thời” của FT nhằm khám phá các thách thức trong kinh doanh.
Nghiên cứu của Autor cho thấy rằng một trong những kết quả của sự tương tác giữa tự động hóa và gia tăng giá trị ở Mỹ kể từ năm 1940 là sự xuất hiện của một tỷ lệ đáng kể các công việc mới — từ kỹ sư công nghiệp đến người vận hành lò phản ứng hạt nhân và nhà phát triển ứng dụng di động.
Tuy nhiên, “công việc mới đang bị phân hóa rõ rệt [giữa công việc được trả lương cao và công việc thu nhập thấp]”, Autor nói. “Khi các công việc cũ ở tầng trung bị xóa bỏ, công việc mới đã phát triển ở cả hai đầu.”
Sự phân hóa này đại diện cho một yếu tố đóng góp quan trọng khác vào tính cấp thiết ngày càng tăng của các chức năng quản lý nguồn nhân lực.
Thành công trong việc cân bằng tinh tế này sẽ phụ thuộc phần lớn vào hiệu quả của quản lý nguồn nhân lực trong việc thiết kế công việc sáng tạo và tối ưu hóa “hệ thống kỹ thuật – xã hội” — đảm bảo rằng các hệ thống tổ chức được tối ưu hóa có chủ đích để tạo ra giá trị (lời hứa của chủ nghĩa dữ liệu) cũng như cải thiện trải nghiệm công việc của con người.
Việc tận dụng tiềm năng của chủ nghĩa dữ liệu, tất nhiên, sẽ cần đến con người, nhưng cách thức mà hai yếu tố này tương tác để tạo ra giá trị kinh doanh vẫn đang được định hình — và phụ thuộc đáng kể vào lĩnh vực quản lý nguồn nhân lực.
Một số khía cạnh của mối quan hệ này sẽ được thúc đẩy bởi sự tiến hóa nội tại của công việc tri thức và sự ổn định liên quan đến công việc từ xa. Các khía cạnh khác sẽ bị tác động bởi những yếu tố bên ngoài như cuộc đua AI toàn cầu và những thay đổi nhân khẩu học trên toàn thế giới.
Quá trình này sẽ diễn ra dưới tác động thay đổi của tự động hóa và gia tăng giá trị.
Khi sự tiến hóa này diễn ra, điều thường được coi là một cuộc cạnh tranh “một mất, một còn” để giành quyền bá chủ về chủ quyền có thể được nhìn nhận song song như một bước chuyển đổi trong cách định hình lại vai trò của nguồn nhân lực trong kinh doanh.
Business school teaching case study: how will companies navigate the promise and threat of dataism?
Using the power of algorithms to inform decisions and create value demands new definitions of the role of management
A tunnel perspective, moving past hundreds of small digital screens
Tom Davis
Published
2 hours ago
Roula Khalaf, Editor of the FT, selects her favourite stories in this weekly newsletter.
When a small Chinese artificial intelligence lab showed in January how to build a large language model that outperformed OpenAI’s ChatGPT at a fraction of the cost, the tech world went into a tailspin and $1tn was wiped off the stock market in a day.
DeepSeek, founded by hedge fund manager Liang Wenfeng, released its R1 model and detailed how to build on a budget a model that can automatically learn and improve itself without human supervision.
The revelation captured the zeitgeist of China and the US jockeying for global supremacy in technology. Far less attention, however, has been paid to the creep underpinning this modern-day struggle: the rise of “dataism” and its implications for the future of human capital.
Dataism is the belief that by gathering ever more data and feeding it to ever more powerful algorithms alone, businesses can uncover the truth, make the right decisions and create value.
This view challenges many of the foundations of management theory — and the economic interplay between labour and capital — while raising loftier expectations for generative AI.
Businesses are grappling with the future of “knowledge work”, a looming demographic cliff and return to work challenges. Some have postulated other consequences, such as a descent into a post-literate society and a faltering of business as a driver of human development.
A hand holding a smartphone showing a chat app with the words “Hi, I’m DeepSeek. How can I help you today?”
DeepSeek’s lower-cost, higher-performance AI model sent shockwaves through the tech world © Greg Baker/AFP via Getty Images
Human capital management faces disruption at the level of the individual, company or society on a scale not seen since the industrial revolution. How it navigates both the promise and threat of dataism is its most pressing issue.
Dataism need not be at odds with human capital in an imagined robots versus people future. Rather, human capital management is faced with ciphering through the complex calculus of automation and augmentation simultaneously.
“You can think of automation as a machine that takes a job’s inputs and does it for the worker,” says David Autor, Massachusetts Institute of Technology economist, and “augmentation as a technology that increases the variety of things that people can do, the quality of things people can do, or their productivity”.
This is part of a series of regular business school teaching case studies devoted to business dilemmas. Read the text and the articles from the FT and elsewhere suggested at the end (and linked to within the piece) before considering the questions raised. The series forms part of a wide-ranging collection of FT “instant teaching case studies” that explore business challenges
Autor’s research shows that one outcome of the interplay between automation and augmentation in the US since 1940 has been the creation of a significant percentage of jobs that represent new types of work — from industrial engineers to nuclear reactor operators and mobile app developers.
However, “the new work is bifurcated [between high-paying and lower-income jobs]”, Autor says. “As old work has been erased in the middle, new work has grown on either side.”
In turn, that bifurcation represents another significant contributor to the increasing urgency faced by human capital management functions.
Success in managing this delicate balancing act will depend largely on human capital management’s efficacy in achieving innovative work design and the sociotechnical systems principle of “joint optimisation” — ensuring that organisational systems are intentionally optimised for value creation (the promise of dataism) as well as quality in humans’ work experience.
Capitalising on the potential of dataism will, of course, require humans, but how those two protagonists interact in generating business value is still playing out — and with significant dependencies on the field of human capital management.
Some aspects of that relationship will be driven intrinsically as knowledge work evolves and détente is reached regarding remote work. Others will be driven by forces such as the global AI race and demographic shifts across the developed world.
This will take place against the shifting forces of automation and augmentation.
As that evolution unfolds, what is frequently framed as a zero-sum competition for sovereign hegemony can be seen in parallel as a step change in reframing the role of human capital in business.
Cohere vừa giới thiệu Command A, mô hình AI hiệu suất cao với 111 tỷ tham số, được thiết kế đặc biệt cho ứng dụng doanh nghiệp đòi hỏi hiệu quả tối đa.
Khác với các mô hình thông thường đòi hỏi tài nguyên tính toán lớn, Command A chỉ cần 2 GPU để hoạt động nhưng vẫn duy trì hiệu suất cạnh tranh.
Mô hình hỗ trợ độ dài ngữ cảnh 256K, phù hợp cho các ứng dụng doanh nghiệp liên quan đến xử lý tài liệu dài.
Command A được xây dựng trên kiến trúc transformer tối ưu hóa, bao gồm 3 lớp sliding window attention với kích thước cửa sổ 4.096 token.
Lớp thứ tư tích hợp global attention không có positional embeddings, cho phép tương tác token không giới hạn trên toàn bộ chuỗi.
Mô hình hỗ trợ 23 ngôn ngữ, khiến nó trở thành một trong những mô hình AI linh hoạt nhất cho doanh nghiệp hoạt động toàn cầu.
Command A đạt tốc độ tạo token 156 token mỗi giây, nhanh hơn 1,75 lần so với GPT-4o và 2,4 lần so với DeepSeek-V3.
Về hiệu quả chi phí, triển khai riêng của Command A rẻ hơn đến 50% so với các giải pháp dựa trên API.
Mô hình này vượt trội trong các tác vụ tuân theo hướng dẫn, truy vấn dựa trên SQL và ứng dụng tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG).
Khả năng đa ngôn ngữ vượt xa dịch thuật đơn giản, thể hiện khả năng phản hồi chính xác trong các phương ngữ đặc thù của từng khu vực.
Command A bao gồm các tính năng bảo mật cấp doanh nghiệp, đảm bảo xử lý an toàn dữ liệu kinh doanh nhạy cảm.
Trong đánh giá trực tiếp về hiệu suất tác vụ doanh nghiệp, kết quả đánh giá của con người cho thấy Command A liên tục vượt trội so với đối thủ cạnh tranh về độ trôi chảy, độ trung thành và tính hữu ích của phản hồi.
📌 Mô hình Command A của Cohere với 111 tỷ tham số đã tạo đột phá khi chỉ cần 2 GPU để hoạt động, hỗ trợ 23 ngôn ngữ và đạt tốc độ 156 token/giây - nhanh hơn 1,75 lần so với GPT-4o. Đặc biệt, giải pháp này giúp doanh nghiệp tiết kiệm đến 50% chi phí so với các mô hình dựa trên API.
https://www.marktechpost.com/2025/03/16/cohere-released-command-a-a-111b-parameter-ai-model-with-256k-context-length-23-language-support-and-50-cost-reduction-for-enterprises/
Sau 2 tháng ra mắt, DeepSeek R1 vẫn giữ vị trí là mô hình AI nguồn mở tốt nhất trên thế giới, đã gây ấn tượng với các chuyên gia và làm giảm giá cổ phiếu công nghệ Mỹ vào tháng 1/2025.
Giá trị nổi bật của mô hình nguồn mở DeepSeek là người dùng có thể sử dụng mà không cần xin phép hoặc trả phí, đồng thời có thể tải về và chạy trên phần cứng riêng để đảm bảo hiệu suất hoặc bảo mật.
Một số công ty phương Tây đã bắt đầu áp dụng mô hình DeepSeek, hiện được hỗ trợ bởi các nhà cung cấp đám mây như Amazon và Microsoft. Gloo - nền tảng nhắn tin cho nhà thờ, và Latenode - nền tảng tự động hóa, đã sử dụng R1.
Meta, đối thủ nguồn mở chính của DeepSeek, đã cử các nhà nghiên cứu phân tích R1 để áp dụng bài học vào dòng mô hình Llama của họ.
Các ngân hàng châu Âu đang trở thành trung tâm thử nghiệm. Natwest, HSBC và BBVA đều đang thử nghiệm xây dựng dịch vụ trên nền tảng R1, bởi quy định bảo mật nghiêm ngặt hạn chế việc sử dụng dịch vụ AI đám mây.
Nhiều doanh nghiệp phương Tây vẫn thận trọng, chủ yếu lo ngại về vấn đề an ninh. Một giám đốc Mỹ cho biết chỉ chạy mô hình DeepSeek trên máy tính "cách ly không khí" không kết nối với hệ thống của công ty.
Nhà Trắng đang xem xét cấm ứng dụng chatbot DeepSeek trên thiết bị chính phủ vì lý do an ninh quốc gia, và có thể ngăn các nhà cung cấp đám mây Mỹ cung cấp mô hình DeepSeek.
Cuối tháng 2/2025, DeepSeek đã công bố mã nguồn để tạo ra mô hình của mình miễn phí, giúp các công ty khác dễ dàng tận dụng công nghệ này. Hàng nghìn tổ chức đã tải xuống trong tuần đầu tiên.
Perplexity, công cụ tìm kiếm AI của Mỹ, đã lấy R1 và đào tạo lại để đảm bảo cung cấp "thông tin khách quan, chính xác và thực tế", đặt tên là "R1 1776" với tinh thần yêu nước.
Mô hình DeepSeek vẫn tồn tại vấn đề kiểm duyệt - khi hỏi chatbot của DeepSeek về Quảng trường Thiên An Môn, nó sẽ muốn "nói về điều khác".
📌 DeepSeek R1 vẫn dẫn đầu thị trường AI nguồn mở toàn cầu sau 2 tháng ra mắt. Dù nhiều công ty phương Tây đã thử nghiệm, vẫn tồn tại ba rào cản: lo ngại an ninh từ chính phủ Mỹ, sự phụ thuộc vào công nghệ Trung Quốc và vấn đề kiểm duyệt trong mô hình.
https://www.economist.com/business/2025/03/13/western-companies-are-experimenting-with-deepseek
Các công ty phương Tây đang thử nghiệm với DeepSeek
Nhưng lo ngại về an ninh, kiểm duyệt và sự phụ thuộc vào Trung Quốc vẫn còn tồn tại
Minh họa: Rose Wong
13 tháng 3, 2025
Hai tháng sau khi ra mắt, DeepSeek R1 — mô hình đã khiến các chuyên gia kinh ngạc và khiến cổ phiếu công nghệ Mỹ sụt giảm vào tháng 1 — vẫn chưa có đối thủ. Mô hình trí tuệ nhân tạo (AI) của công ty Trung Quốc này vẫn là sản phẩm mã nguồn mở tốt nhất được phát hành bởi bất kỳ phòng thí nghiệm nào, ở bất kỳ nơi nào trên thế giới. Tại quê nhà, DeepSeek đã lan truyền với tốc độ chóng mặt. Nó cũng đang dần được đón nhận ở các nơi khác trên thế giới.
Giá trị mà các mô hình mã nguồn mở của DeepSeek mang lại rất khó để bỏ qua. Các lập trình viên có thể sử dụng chúng mà không cần xin phép hoặc trả phí, và có thể tải về để chạy trên phần cứng của công ty nếu muốn cải thiện hiệu năng hoặc đảm bảo quyền riêng tư. Điều đó đặt DeepSeek vào một nhóm khác so với các phòng thí nghiệm khép kín nhưng có năng lực kỹ thuật ấn tượng hơn, như OpenAI.
Một số công ty phương Tây đã bắt đầu áp dụng các mô hình của DeepSeek, hiện đã được các nhà cung cấp dịch vụ đám mây như Amazon và Microsoft hỗ trợ. Gloo, một nền tảng nhắn tin dành cho các nhà thờ được thành lập bởi Pat Gelsinger — người cho đến tháng 12 vẫn là CEO của Intel — đã sử dụng mô hình này làm nền tảng cho chatbot của mình. Latenode, một nền tảng tự động hóa, đã bắt đầu cung cấp R1 ngay sau khi mô hình này được ra mắt, lưu ý rằng khả năng hỗ trợ các ngôn ngữ ngoài tiếng Anh của R1 là điểm hấp dẫn đối với các nhà tiếp thị nội dung đang tìm cách dịch tài liệu.
Meta, đối thủ mã nguồn mở chính của DeepSeek, đã cử các nhà nghiên cứu phân tích R1 để rút ra các bài học và áp dụng vào dòng mô hình Llama của công ty.
Điều đáng ngạc nhiên là các ngân hàng châu Âu đã nổi lên như một điểm nóng trong các thử nghiệm về DeepSeek. Các quy tắc bảo mật nghiêm ngặt hạn chế mức độ mà ngành tài chính có thể phụ thuộc vào các dịch vụ AI trên nền tảng đám mây. Điều này khiến các mô hình mã nguồn mở được lưu trữ nội bộ trở thành một lựa chọn thay thế hấp dẫn. Theo The Information (một trang tin tức), NatWest và HSBC — hai ngân hàng của Anh — đều đang thử nghiệm xây dựng các dịch vụ dựa trên R1, cùng với BBVA của Tây Ban Nha.
Tuy nhiên, nhiều doanh nghiệp phương Tây vẫn tỏ ra thận trọng. Vấn đề bảo mật thường là mối quan tâm chính, và đây có thể là mối lo ngại lớn hơn đối với người Mỹ so với người châu Âu. Một giám đốc điều hành người Mỹ cho biết ông sẽ chỉ chạy các mô hình của DeepSeek trên một máy tính "air-gapped" (tức là không được kết nối với bất kỳ hệ thống nào của công ty) — mặc dù để DeepSeek có thể cài cắm các mã độc vào mô hình của mình sẽ cần đến một đột phá lớn trong khoa học máy tính.
Hơn nữa, Nhà Trắng đang xem xét cấm ứng dụng chatbot của DeepSeek trên các thiết bị của chính phủ với lý do an ninh quốc gia, và có thể sẽ đi xa hơn, bao gồm cả khả năng cấm các nhà cung cấp dịch vụ đám mây của Mỹ cung cấp các mô hình của DeepSeek. Động thái này có thể gây ra tác động tiêu cực lớn đối với việc tiếp nhận công nghệ này.
Ngược lại, người châu Âu có thể sẽ không có nhiều sự lựa chọn. Không có một công ty AI bản địa nào của châu Âu có thể sánh ngang với DeepSeek. Cuộc chiến thương mại của Donald Trump và mối quan hệ thân thiết của ông với Vladimir Putin có nghĩa là một số công ty và nhà hoạch định chính sách châu Âu có thể muốn giảm sự phụ thuộc vào công nghệ của Mỹ.
Vào cuối tháng 2, DeepSeek đã khiến việc khai thác công nghệ của mình trở nên dễ dàng hơn bằng cách cung cấp miễn phí mã nguồn mà công ty đã sử dụng để tạo ra các mô hình của mình. Trước đây, DeepSeek chỉ chia sẻ các chi tiết về quy trình huấn luyện hệ thống của mình — điều này đã tỏ ra hiệu quả hơn nhiều so với các phương pháp mà các công ty phương Tây áp dụng. Nhưng giờ đây, các công ty đã có quyền truy cập vào chính xác mã nguồn mà công ty tiên phong của Trung Quốc đã sử dụng để phát triển các mô hình của mình. Chỉ trong tuần qua, đã có hàng nghìn lượt tải xuống.
Việc sử dụng phương pháp của DeepSeek có thể là một lựa chọn tốt cho các công ty đang tìm cách hưởng lợi từ những đột phá của DeepSeek mà không phải đối mặt với vấn đề kiểm duyệt của Trung Quốc — đây là rào cản cuối cùng đối với việc áp dụng rộng rãi. Ví dụ, nếu hỏi chatbot của DeepSeek về sự kiện Thiên An Môn, nó sẽ trả lời rằng muốn “nói về một chủ đề khác.”
Một số công ty đã có cách tiếp cận trực tiếp hơn để giải quyết vấn đề đó. Perplexity, một công cụ tìm kiếm AI của Mỹ, đã lấy R1 và huấn luyện lại nó để đảm bảo rằng nó tạo ra thông tin "không thiên vị, chính xác và có căn cứ." Công ty đã đặt tên cho phiên bản của mình với niềm tự hào dân tộc là “R1 1776.” ■
Western companies are experimenting with DeepSeek
But concerns over security, censorship and dependence on China remain
An illustration of a a whale shape filled with electrical parts being taken apart by people around it.
Illustration: Rose Wong
Mar 13th 2025
Two months on from its release, DeepSeek’s R1, which wowed experts and caused American tech stocks to crash in January, is still unbeaten. The Chinese firm’s artificial-intelligence (AI) model remains the best open-source offering released by any lab, anywhere in the world. Back home it has spread like wildfire. It is catching on in the rest of the world as well.
The value offered by DeepSeek’s open-source models is hard to ignore. They can be used by coders without asking permission or paying a fee, and can be downloaded and run on a company’s own hardware if it wishes to do so for performance or privacy reasons. That puts DeepSeek in a different category to more technically impressive but closed labs like OpenAI.
Some companies in the West have already begun to adopt DeepSeek’s models, which are now supported by cloud providers including Amazon and Microsoft. Gloo, a messaging platform for churches founded by Pat Gelsinger, who until December was the chief executive of Intel, has used the model as the basis for its chatbot. Latenode, an automation platform, began offering R1 shortly after the model was launched, noting that its support for non-English languages was appealing to content marketers looking to translate material. Meta, DeepSeek’s main open-source rival, has assigned researchers to pull apart R1 and apply the lessons to its own family of Llama models.
Perhaps surprisingly, European banks have emerged as a hotbed of experimentation. Strict confidentiality rules limit how much the financial sector can rely on cloud-based AI services. That makes open-source models hosted internally an attractive alternative. Natwest and HSBC, two British lenders, are both experimenting with building their services on top of R1, as is Spain’s BBVA, according to the Information, a news site.
Many Western businesses, though, remain cautious. Security is often the concern, and one that may preoccupy Americans more than Europeans. One American boss says he would only run DeepSeek’s models on an “air-gapped” computer with no connection to his firm’s systems—even though it would have taken a breakthrough in computer science for DeepSeek to have smuggled malicious capabilities into the model itself.
Moreover, the White House is considering banning DeepSeek’s chatbot app on government devices, on national-security grounds, and could decide to go further, including possibly preventing American cloud providers from offering DeepSeek’s models at all. That would have a chilling effect on adoption.
Europeans, by comparison, may find themselves with little choice. None of the old continent’s homegrown ai champions are of the calibre of DeepSeek. Donald Trump’s trade war and his overtures towards Vladimir Putin mean that some European companies and policymakers may want to lower their reliance on American tech.
In late February DeepSeek made it even easier for others to harness its technology by making the code it used to create its models available free of charge. Previously DeepSeek had only shared details of the process it used to train its systems, which was far more efficient than the approaches taken by Western firms. But now companies have access to the exact code used by the Chinese pioneer to develop its models. Thousands have downloaded it in the past week alone.
Using DeepSeek’s methodology may be a good option for companies looking to benefit from its breakthroughs while avoiding the Chinese censorship that is embedded in its models—a final hurdle to adoption. Ask DeepSeek’s chatbot about Tiananmen Square, for example, and it will want to “talk about something else”. Others have taken a more direct approach to tackling that problem. Perplexity, an American AI search engine, has taken R1 and retrained it to ensure it produces “unbiased, accurate, and factual information”. It has dubbed its creation, with patriotic fervour, “R1 1776”. ■
Theo khảo sát gần đây của McKinsey, 71% tổ chức thường xuyên sử dụng AI tạo sinh trong ít nhất một chức năng kinh doanh, tăng từ 65% đầu năm 2024.
Trên phương diện người tiêu dùng, 52% người trưởng thành Mỹ hiện đang sử dụng mô hình ngôn ngữ lớn AI như ChatGPT.
David Nicholson, cố vấn công nghệ trưởng của The Futurum Group nhận định: "Chúng ta có thể bắt đầu nghĩ về AI giống như chúng ta nghĩ về điện." Khi chi phí tạo ra và phân phối giảm, nó sẽ trở nên phổ biến hơn.
Dân chủ hóa AI mang đến vai trò mới và khả năng đổi mới trên nhiều lĩnh vực công nghiệp, bất kể quy mô công ty.
Jason Wingate, nhà sáng lập Emerald Ocean Ltd nhấn mạnh: "Doanh nghiệp nhỏ giờ đây có thể sử dụng AI như các công ty lớn hơn" với bot dịch vụ khách hàng cá nhân hóa, đề xuất sản phẩm, và dự đoán hành vi khách hàng.
Wingate so sánh AI hiện nay với sự xuất hiện của bảng tính sau khi máy tính cá nhân ra đời, cho rằng chúng ta có thể chưa thấy được một nửa tiềm năng của AI dân chủ hóa.
Trong lĩnh vực y tế, AI đang tạo ra trải nghiệm chăm sóc sức khỏe siêu cá nhân hóa bằng cách tổng hợp dữ liệu bệnh nhân về thực phẩm, lối sống, di truyền và tiền sử y tế.
Chi phí cung cấp dịch vụ AI giảm mạnh, giúp các công ty nhỏ hơn có thể xây dựng mô hình lý luận cho lĩnh vực cụ thể mà không cần đầu tư phần cứng lớn.
Nicholson dự đoán sự thay đổi lớn trong môi trường làm việc: "Những người đóng góp cá nhân sẽ cần trở thành người quản lý các agent". Ông thậm chí dự đoán thời đại của tổ chức với một người duy nhất ở trung tâm, chỉ có các cyber-agent làm nhân viên, tạo ra giá trị hàng tỷ đô la.
AI công suất thấp hơn trong các thiết bị nhỏ sẽ mở ra thị trường thiết bị mới, phục vụ các thị trường ngách và tiềm năng lớn trước đây không dễ tiếp cận.
📌 Với 71% tổ chức đã áp dụng AI tạo sinh và chi phí triển khai giảm mạnh, AI đang trở nên phổ biến như điện. Điều này mở ra cơ hội bình đẳng cho doanh nghiệp nhỏ, cách mạng hóa chăm sóc sức khỏe cá nhân hóa, và định hình lại môi trường làm việc với mô hình quản lý agent AI.
https://www.forbes.com/sites/joemckendrick/2025/03/14/the-implications-when-ai-becomes-as-common-as-electricity/
Sự kiện "AI-Powered Business Operations: Strategies for End-to-End Transformation" của IBM sẽ diễn ra vào ngày 19/3, bắt đầu lúc 10 giờ sáng theo giờ PT, tập trung vào cách doanh nghiệp có thể áp dụng tự động hóa dựa trên AI để nâng cao hiệu quả hoạt động.
IBM nhấn mạnh AI không chỉ là công cụ bổ sung mà là thành phần nền tảng của chiến lược kinh doanh, giúp tổ chức đạt được lợi thế về tốc độ, hiệu quả và tăng trưởng doanh thu.
Dave Vellante, nhà phân tích trưởng tại theCUBE Research, cho rằng AI tạo sinh đang thúc đẩy hoạt động kinh doanh lên tầm cao mới, vượt xa phương pháp tối ưu hóa quy trình truyền thống.
Tổ chức thống nhất dữ liệu và quy trình dưới khung AI có thể thấy lợi nhuận đầu tư nhanh hơn, sự hài lòng của khách hàng cao hơn và mô hình hoạt động linh hoạt hơn.
Dịch vụ tích hợp AI của IBM được thiết kế để giúp doanh nghiệp tự động hóa các quy trình kinh doanh cốt lõi bằng tác nhân AI, không chỉ tự động hóa nhiệm vụ mà còn hoạt động trong hệ thống phối hợp.
Francesco Brenna, phó chủ tịch dịch vụ tích hợp AI tại IBM, chỉ ra rằng nhiều tổ chức gặp khó khăn với hệ thống IT cũ có ứng dụng rời rạc và tích hợp phức tạp.
IBM áp dụng chiến lược dựa trên hệ sinh thái, hợp tác với SAP, AWS, Microsoft và Salesforce để cung cấp giải pháp AI từ cốt lõi linh hoạt.
Mohamad Ali, phó chủ tịch cấp cao tại IBM Consulting, nhấn mạnh họ đang thiết kế lại sản phẩm để AI là cốt lõi, không chỉ là tính năng bổ sung.
TheCUBE sẽ phát trực tiếp sự kiện này, với các cuộc phỏng vấn chuyên gia về vai trò của AI trong việc thúc đẩy hoạt động xuất sắc và tự động hóa thông minh.
Chúng tôi cung cấp cho bạn nhiều cách khác nhau để xem tin tức của theCUBE về sự kiện "Hoạt động kinh doanh do AI hỗ trợ: Chiến lược chuyển đổi từ đầu đến cuối", bao gồm trang web chuyên dụng và kênh YouTube của theCUBE. Bạn cũng có thể nhận được tất cả các tin tức từ các sự kiện năm nay trên SiliconANGLE.
https://www.youtube.com/channel/UCu3Ri8DI1RQLdVtU12uIp1Q
📌 Sự kiện của IBM vào 19/3 sẽ trình bày cách AI từ cốt lõi có thể chuyển đổi hoạt động doanh nghiệp. Với chiến lược hệ sinh thái, IBM hợp tác với nhiều công ty công nghệ lớn để cung cấp giải pháp AI linh hoạt, giúp doanh nghiệp cân bằng đổi mới với lợi nhuận đầu tư.
https://siliconangle.com/2025/03/14/ai-native-strategies-reshaping-enterprise-operations-ibmaiops/
Công ty AI Cohere Inc. đã phát hành mô hình ngôn ngữ lớn (LLM) chi phí thấp mới tên Command A, được xây dựng với chi phí dưới 30 triệu USD - thấp hơn nhiều so với các đối thủ cạnh tranh.
Theo đánh giá từ Cohere, Command A hoạt động ngang bằng hoặc tốt hơn các mô hình hàng đầu từ OpenAI và DeepSeek (Trung Quốc) trong một số tác vụ như lập trình, trả lời câu hỏi kỹ thuật và hỗ trợ dịch vụ khách hàng.
Nick Frosst, đồng sáng lập Cohere, cho biết công ty đạt được kết quả này nhờ tập trung xây dựng mô hình hữu ích cho khách hàng doanh nghiệp, thay vì công nghệ có thể làm mọi thứ.
Khác với OpenAI và Anthropic đang cố gắng phát triển trí tuệ nhân tạo tổng quát (AGI), Cohere tập trung vào hiệu quả đầu tư (ROI) thay vì AGI.
Theo CEO Anthropic Dario Amodei, các mô hình LLM tiên tiến có thể tốn 100 triệu USD để đào tạo, với chi phí tăng nhanh chóng.
Cohere chỉ có quyền truy cập vào khoảng 8.500 GPU, trong khi xAI của Elon Musk xây dựng cơ sở với 100.000 GPU và có kế hoạch tăng gấp đôi con số này.
Giai đoạn đầu xây dựng Command A chỉ sử dụng 2.000 GPU, và khách hàng có thể triển khai mô hình trên cơ sở hạ tầng máy tính của riêng họ với chỉ 2 GPU, trong khi các mô hình khác có thể yêu cầu tới 32 GPU.
Cohere khẳng định chi phí 30 triệu USD bao gồm toàn bộ quá trình đào tạo, không chỉ nỗ lực cuối cùng.
Công ty cũng tập trung vào việc đảm bảo mô hình thông thạo nhiều ngôn ngữ, tìm thấy sự quan tâm bên ngoài Bắc Mỹ, đã phát triển LLM tiếng Nhật với Fujitsu và gần đây hợp tác với LG CNS.
Cohere không có ứng dụng hướng đến người tiêu dùng như ChatGPT, vốn đòi hỏi sức mạnh xử lý lớn, giúp tiết kiệm chi phí đáng kể.
📌 Cohere đã tạo ra mô hình AI Command A với chi phí chỉ 30 triệu USD, bằng cách sử dụng 2.000 GPU, tập trung vào nhu cầu doanh nghiệp thay vì theo đuổi AGI. Mô hình này cạnh tranh được với các đối thủ lớn trong các tác vụ doanh nghiệp, chỉ cần 2 GPU để triển khai.
https://www.theglobeandmail.com/business/article-cohere-low-cost-ai-model/
Cohere ra mắt mô hình AI chi phí thấp tập trung vào khách hàng doanh nghiệp
Joe Castaldo
Đăng 45 phút trước
Đồng sáng lập Cohere, Nick Frosst, cho biết công ty đã đạt được kết quả nhờ tập trung vào việc xây dựng các mô hình hữu ích cho khách hàng doanh nghiệp, thay vì tạo ra công nghệ có thể làm mọi thứ.
Christopher Katsarov/The Globe and Mail
Công ty trí tuệ nhân tạo Cohere Inc. vừa ra mắt một mô hình AI chi phí thấp mà công ty cho biết được xây dựng với tài nguyên tính toán ít hơn so với các sản phẩm tương tự từ đối thủ, trong khi một số công ty khác đang chi hàng tỷ USD cho trung tâm dữ liệu và chip để hỗ trợ phát triển.
Mô hình ngôn ngữ lớn (LLM) mới nhất của công ty có trụ sở tại Toronto được xây dựng với chi phí dưới 30 triệu USD. Các công ty khác đang chi nhiều hơn gấp hàng chục lần con số này. Giám đốc điều hành Anthropic, Dario Amodei, đã cho biết rằng việc đào tạo các LLM tiên tiến có thể tiêu tốn tới 100 triệu USD, và chi phí đang tăng lên nhanh chóng.
Các đánh giá do Cohere cung cấp cho thấy mô hình, có tên là Command A, có khả năng ngang bằng hoặc vượt trội so với các mô hình hàng đầu từ OpenAI và công ty DeepSeek của Trung Quốc trong một số nhiệm vụ, như lập trình, trả lời câu hỏi kỹ thuật và hỗ trợ dịch vụ khách hàng.
Đồng sáng lập Cohere, Nick Frosst, cho biết công ty đã đạt được kết quả này bằng cách tập trung vào việc xây dựng các mô hình hữu ích cho khách hàng doanh nghiệp, thay vì tạo ra công nghệ có thể làm mọi thứ. "Chúng tôi đang đào tạo để nó làm tốt những gì khách hàng cần. Bằng cách tập trung vào điều đó, chúng tôi đã có thể hoạt động hiệu quả hơn nhiều so với các đối thủ khác," ông nói.
Các công ty như OpenAI và Anthropic đang cố gắng phát triển trí tuệ nhân tạo tổng quát (AGI), một thuật ngữ không được định nghĩa rõ ràng, dùng để chỉ các hệ thống thông minh hơn con người. Để đạt được điều đó, các công ty này cho rằng cần có nhiều sức mạnh tính toán hơn. "Những người nói rằng AI ngày càng lớn mạnh hơn là những người liên tục nói rằng AGI đã ở rất gần," ông Frosst nói. "Đó không phải là trọng tâm của chúng tôi, cũng không phải là niềm tin khoa học của tôi."
Cohere được thành lập vào năm 2019 và xây dựng các LLM có khả năng tạo và phân tích văn bản, đồng thời có thể được sử dụng để tự động hóa các công việc doanh nghiệp đơn giản. AI tạo sinh bắt đầu bùng nổ vào cuối năm 2022 khi OpenAI ra mắt ChatGPT. Kể từ đó, giới doanh nghiệp đã tập trung mạnh vào việc áp dụng công nghệ này để nâng cao năng suất.
Một số công ty AI có nhu cầu lớn về GPU (bộ xử lý đồ họa), loại chip máy tính đắt tiền cung cấp sức mạnh cho các mô hình và ứng dụng AI. Chẳng hạn, xAI của Elon Musk đã xây dựng một cơ sở bao gồm 100.000 GPU và có kế hoạch tăng gấp đôi con số đó. OpenAI, Oracle và các công ty khác đang đầu tư khoảng 500 tỷ USD để xây dựng một siêu máy tính AI khổng lồ có tên Stargate.
Ngược lại, Cohere có quyền truy cập vào khoảng 8.500 GPU, theo ông Frosst, người tự hào nhấn mạnh vào hiệu quả hoạt động của công ty. "Châm ngôn của tôi gần đây là ROI, không phải AGI," ông nói. Công ty cũng không cung cấp các ứng dụng dành cho người tiêu dùng như ChatGPT, vốn đòi hỏi rất nhiều sức mạnh xử lý.
Cohere chỉ sử dụng 2.000 GPU trong giai đoạn đầu tiên khi xây dựng Command A. Đối với khách hàng muốn triển khai mô hình trên cơ sở hạ tầng máy tính của riêng họ, họ có thể làm điều đó chỉ với 2 GPU. Các mô hình khác có thể cần tới 32 GPU.
Vào tháng 1, DeepSeek đã khiến cổ phiếu công nghệ bị bán tháo ồ ạt sau khi công ty công bố chi tiết về các mô hình AI tạo sinh của mình. Công ty cho biết đã sử dụng hơn 2.000 GPU để xây dựng một trong các mô hình của mình với chi phí chỉ 5,6 triệu USD, làm dấy lên câu hỏi về số tiền khổng lồ mà các đối thủ đang chi ra. Thông tin này khiến nhiều người trong ngành kinh ngạc, với một số người suy đoán rằng DeepSeek có thể đang nắm giữ tới 50.000 chip mà chưa công bố.
Tuy nhiên, chi phí đào tạo mà DeepSeek công bố có thể không phản ánh toàn bộ bức tranh. Việc xây dựng một mô hình AI có thể mất nhiều lần thử nghiệm để đạt được kết quả mong muốn, và mức giá mà DeepSeek đưa ra có thể chỉ tính cho lần thử cuối cùng. "Không phải bạn chỉ cần bắt đầu quy trình và là xong. Có rất nhiều vấn đề tiềm ẩn trong quá trình đó," Gennady Pekhimenko, giám đốc điều hành của công ty hiệu quả máy học CentML, từng nói với Globe and Mail.
Chi phí 30 triệu USD cho Command A bao gồm toàn bộ giai đoạn đào tạo. "Đó là toàn bộ công việc đã thực hiện để tạo ra nó," ông Frosst nói.
Tuy nhiên, bài kiểm tra thực sự cho sự thành công sẽ là liệu các doanh nghiệp có sẵn sàng trả tiền để sử dụng nó hay không. Cohere, công ty cũng đang tập trung vào việc đảm bảo các mô hình của mình có khả năng xử lý nhiều ngôn ngữ, đã thu hút được sự quan tâm bên ngoài khu vực Bắc Mỹ. Công ty đã phát triển một mô hình LLM tiếng Nhật với Fujitsu và gần đây đã hợp tác với LG CNS, đơn vị dịch vụ công nghệ của tập đoàn Hàn Quốc LG.
Cohere releases low-cost AI model focused on business customers
Joe Castaldo
Published 45 minutes ago
Cohere co-founder Nick Frosst said the company was able to achieve its results by focusing on building models that will be useful for business customers, as opposed to technology that can do everything and anything.
Christopher Katsarov/The Globe and Mail
Artificial intelligence company Cohere Inc. has released a low-cost AI model that it says was built with fewer computational resources than similar offerings from its competitors, some of whom are spending billions of dollars on data centres and chips to support development.
The latest large language model (LLM) from the Toronto-based company was built for less than US$30-million. Other companies are spending orders of magnitude more than that. Anthropic chief executive Dario Amodei has said that advanced LLMs can cost US$100-million to train, with the costs rapidly rising.
Evaluations provided by Cohere show the model, called Command A, is on par or better than leading models from OpenAI and Chinese company DeepSeek on some tasks, such as coding, answering technical questions, and customer service assistance.
Cohere co-founder Nick Frosst said the company was able to achieve its results by focusing on building models that will be useful for business customers, as opposed to technology that can do everything and anything. “We’re training it to be good at the things that our customers want. By being focused on that, we’ve been able to be significantly more efficient than the other players,” he said.
Companies such as OpenAI and Anthropic are trying to develop artificial general intelligence, or AGI, a loosely defined term that refers to systems that are smarter than humans. To get there, these companies believe more computational power is needed. “The people who are saying AI is getting bigger and bigger are the people constantly saying they’re around the corner from AGI,” Mr. Frosst said. “That’s not our focus, nor is that my scientific belief.”
Cohere was founded in 2019 and builds LLMs that can produce and interpret text, and can also be used to automate mundane corporate tasks. Generative AI took off in late 2022, when OpenAI released ChatGPT. Since then, the corporate world has become fixated on adopting the technology to capture productivity gains.
Some AI companies have an endless appetite for GPUs, or graphics processing units, the pricey computer chips that power AI models and applications. Elon Musk’s xAI, for example, built a facility consisting of 100,000 GPUs with plans to double that number. OpenAI, Oracle and others are investing some US$500-billion to build a massive AI supercomputer called Stargate.
In contrast, Cohere has access to around 8,500 GPUs, according to Mr. Frosst, who is proud to tout the company’s efficiency. “My mantra these days has been ROI not AGI,” he said. The company also does not have consumer-facing applications such as ChatGPT, which requires a lot of processing power.
Cohere used just 2,000 GPUs in the first phase of building Command A. For customers that want to deploy the model on their own computing infrastructure, they can do so with only two GPUs. Other models can require up to 32.
In January, DeepSeek caused a panicked sell off in tech stocks after it released details on its generative AI models. The company said it had used just over 2,000 GPUs to build one of its models at a cost of only US$5.6-million, raising questions about the huge sums of money spent by competitors. The details left many industry players in disbelief, with some speculating that DeepSeek could have as many as 50,000 chips that it was not disclosing.
The training costs revealed by DeepSeek might not be the full picture. Building an AI model can take multiple attempts to get right, and DeepSeek’s price tag could refer to only the last try. “It’s not like you just start the process and you’re done. There’s a lot of potential issues on the way,” Gennady Pekhimenko, CEO of machine learning efficiency company CentML, previously told the Globe and Mail.
The US$30-million cost for Command A captures the entire training period. “That’s all the work that went into making it,” Mr. Frosst said.
The real test for success, however, will be whether businesses pay to use it. Cohere, which is also focused on making sure its models are fluent in multiple languages, has found interest outside of North America. It has already developed a Japanese-language LLM with Fujitsu, and recently partnered with LG CNS, the technology services unit of the South Korean conglomerate.
Trong hai tháng qua, nhiều công ty Trung Quốc từ game bắn súng di động, nhà máy điện hạt nhân đến văn phòng chính phủ địa phương đều tích hợp mô hình AI DeepSeek R1 vào hoạt động kinh doanh, nhằm tận dụng làn sóng nổi tiếng của startup AI nội địa này.
DeepSeek đã chiếm lĩnh các tiêu đề báo chí Trung Quốc, nhưng tin tức hầu như không liên quan đến chính DeepSeek, mà là về việc các công ty thuộc mọi ngành công nghiệp đua nhau thông báo đã tìm cách đưa mô hình nguồn mở của DeepSeek vào chiến lược kinh doanh.
Theo báo cáo địa phương, hơn 20 nhà sản xuất ô tô Trung Quốc (và ít nhất một nhà sản xuất xe buýt) đã tuyên bố đưa chatbot DeepSeek vào phương tiện của họ. Khoảng 30 công ty y tế và dược phẩm cho biết đang sử dụng DeepSeek trong chẩn đoán lâm sàng và nghiên cứu.
Hàng chục ngân hàng, công ty bảo hiểm và môi giới trên toàn quốc cũng tiết lộ đang sử dụng DeepSeek để đào tạo đại diện dịch vụ khách hàng, thiết kế chiến lược đầu tư và xử lý các nhiệm vụ tương tự.
Cơn sốt này giống với hiện tượng xảy ra cuối năm 2022 khi ChatGPT ra mắt và làn sóng các công ty Mỹ và châu Âu tìm cách thông báo với khách hàng và nhà đầu tư rằng họ đang tương tác với đổi mới tiên tiến nhất trong AI.
Trên nền tảng giao dịch chứng khoán trực tuyến Trung Quốc, gần 5.000 câu hỏi về DeepSeek đã được ghi nhận tính đến ngày 11/3, phần lớn là hỏi các công ty cụ thể liệu họ đã cân nhắc hoặc đang sử dụng DeepSeek trong sản phẩm hay chưa.
Hàng trăm công ty đã xác nhận đang tích hợp công nghệ này, động thái thường dẫn đến sự tăng giá tạm thời cổ phiếu của họ. Tuy nhiên, khi nhà đầu tư nhận ra một số công ty chỉ đang thử nghiệm ứng dụng DeepSeek nội bộ, giá trị của họ lại giảm.
Một số thông báo về DeepSeek rất hợp lý, như các công ty điện toán đám mây cung cấp DeepSeek-R1 cho khách hàng và các nhà sản xuất chip AI trong nước tối ưu hóa sản phẩm để chạy mô hình DeepSeek.
Tencent đã sử dụng DeepSeek trong game bắn súng di động để cung cấp trợ lý trong game có thể dự đoán vận may của người chơi. CGN Power, công ty điện hạt nhân nhà nước, mơ hồ tuyên bố đã tích hợp DeepSeek vào hệ thống AI cho nhân viên "để hiểu các câu hỏi phức tạp và xử lý chúng hiệu quả".
Chính quyền địa phương cũng đang áp dụng DeepSeek. Thâm Quyến đã đưa các ứng dụng DeepSeek lên đám mây "cho tất cả cơ quan chính phủ trên toàn thành phố". Trường Sa đang sử dụng DeepSeek để phân tích dữ liệu quản lý đô thị thời gian thực.
📌 DeepSeek đã trở thành biểu tượng tự hào dân tộc Trung Quốc nhờ thành công quốc tế, đặc biệt khi phát triển mô hình tiết kiệm tài nguyên đối phó với lệnh cấm chip của Mỹ. Hiện có hơn 20 nhà sản xuất ô tô, 30 công ty y tế và hàng chục ngân hàng Trung Quốc đang áp dụng công nghệ này.
https://www.wired.com/story/deepseek-china-nationalism/
Coca-Cola đã bắt đầu hành trình AI tạo sinh từ trước khi ChatGPT ra mắt, với chiến dịch "Masterpiece" hợp tác cùng Stability AI tại London.
Pratik Thakar, phó chủ tịch toàn cầu kiêm người đứng đầu AI tạo sinh của Coca-Cola, đã dẫn dắt công ty thành lập bộ phận ươm mầm sáng tạo AI tạo sinh vào cuối năm 2022.
Coca-Cola là đối tác đầu tiên hợp tác với OpenAI khi công nghệ này còn đang trong giai đoạn mới phát triển, thể hiện tầm nhìn chiến lược của thương hiệu.
Đội ngũ AI tạo sinh toàn cầu của Coca-Cola chỉ bao gồm 2 người, với Thakar tập trung vào trải nghiệm hướng đến người tiêu dùng và một đồng nghiệp phụ trách quản trị nội bộ.
Mô hình hoạt động đặc biệt của Coca-Cola không có phòng ban AI riêng biệt, thay vào đó các thành viên đội ngũ đến từ nhiều vị trí địa lý và bộ phận khác nhau, dành 40-50% thời gian cho các dự án AI.
Công ty đã xây dựng cơ chế nội bộ giúp nhân viên sử dụng AI tạo sinh một cách hiệu quả, tránh việc "phát minh lại bánh xe" bằng cách học hỏi từ các dự án đã thực hiện.
Chiến dịch Giáng sinh toàn cầu là ví dụ nổi bật về ứng dụng AI tạo sinh của Coca-Cola, bao gồm việc tái tạo quảng cáo "Holidays are Coming" từ thập niên 1990 và tạo nền tảng "Create Real Magic".
Coca-Cola đã phát triển công nghệ để người dùng có thể trò chuyện với ông già Noel phiên bản 1931 thông qua bản sao số 3D, sử dụng công nghệ của OpenAI, Microsoft Azure và Mimic, hỗ trợ 26 ngôn ngữ khác nhau.
Quá trình sản xuất quảng cáo sử dụng AI tạo sinh đòi hỏi sự kết hợp giữa công nghệ và con người, với ba studio sáng tạo ở Los Angeles, San Francisco và Kuala Lumpur.
Mặc dù quảng cáo Giáng sinh của Coca-Cola vượt qua các tiêu chuẩn nội bộ và nghiên cứu thị trường, nhưng vẫn tạo ra phản ứng trái chiều từ công chúng và trở thành tâm điểm tranh cãi về việc sử dụng AI tạo sinh.
📌 Coca-Cola là thương hiệu tiên phong trong ứng dụng AI tạo sinh từ trước 2022, với đội ngũ chỉ 2 người nhưng đã tạo ra các chiến dịch đột phá như "Create Real Magic". Mô hình hoạt động phân tán giúp công ty tối ưu nguồn lực và bắt đầu hợp tác sớm với các công nghệ AI tiên tiến.
https://www.marketingdive.com/news/what-coca-cola-learned-generative-ai/741709/
Anthropic đang chiến thắng trong cuộc chiến agent lập trình với chiến lược tập trung vào doanh nghiệp, trong khi sự chú ý của người dùng thông thường vẫn hướng đến cuộc đấu giữa OpenAI và Google.
Claude 3.7 Sonnet, phát hành cách đây hai tuần, đã thiết lập kỷ lục mới về hiệu suất lập trình với điểm số ấn tượng 70,3% trên benchmark SWE-bench, vượt xa đối thủ gần nhất là OpenAI's o1 (48,9%) và DeepSeek-R1 (49,2%).
Anthropic cũng ra mắt Claude Code, một agent AI hoạt động qua dòng lệnh, bổ sung cho tính năng Computer Use được phát hành vào tháng 10/2024 cho phép Claude tương tác với máy tính của người dùng.
Cursor, một trình soạn thảo mã được tích hợp Claude, đã đạt 100 triệu USD doanh thu hàng năm chỉ sau 12 tháng với 360.000 người dùng, trong đó hơn 40.000 là khách hàng trả phí.
Anthropic tập trung vào khả năng lập trình trong khi các đối thủ cạnh tranh tìm cách đáp ứng cả thị trường doanh nghiệp và người tiêu dùng với tính năng tương đương.
Theo dự báo được tiết lộ, Anthropic đặt mục tiêu đạt 34,5 tỷ USD doanh thu vào năm 2027 - tăng 86 lần so với mức hiện tại, với 67% doanh thu đến từ API, chủ yếu là các ứng dụng lập trình cho doanh nghiệp.
Anthropic Economic Index phát hiện 37,2% truy vấn gửi đến Claude thuộc danh mục "máy tính và toán học", chủ yếu liên quan đến lập trình.
Vercel, công ty đã vượt 100 triệu USD doanh thu hàng năm, đã chuyển từ GPT của OpenAI sang Claude của Anthropic sau khi đánh giá hiệu suất của các mô hình trên các tác vụ lập trình chính.
Microsoft duy trì đà phát triển thông qua GitHub Copilot với 1,3 triệu người dùng trả phí và được áp dụng bởi hơn 77.000 tổ chức trong khoảng hai năm.
Tháng 10/2024, Microsoft cho phép người dùng GitHub Copilot lựa chọn mô hình của Anthropic thay vì OpenAI, công nhận sức mạnh của Anthropic.
Các báo cáo độc lập gần đây cho thấy Claude 3.7 Sonnet là mô hình an toàn nhất - mô hình duy nhất được kiểm tra "không thể jailbreak".
Theo GitHub, 92% nhà phát triển tại các công ty doanh nghiệp ở Mỹ đã sử dụng công cụ lập trình hỗ trợ AI tại nơi làm việc cách đây 18 tháng, con số này có thể đã tăng đáng kể kể từ đó.
Agent lập trình AI không thay thế lập trình viên mà chuyển đổi vai trò của họ, cho phép họ tập trung vào kiến trúc và đổi mới hơn là chi tiết triển khai.
📌 Anthropic đang dẫn đầu cuộc đua AI tạo sinh trong lĩnh vực doanh nghiệp với Claude 3.7, đạt điểm benchmark lập trình vượt trội 70,3% trên SWE-bench, thu hút đối tác lớn như Vercel, và đặt mục tiêu 34,5 tỷ USD doanh thu đến năm 2027 - tăng 86 lần so với hiện tại.
https://venturebeat.com/ai/anthropics-stealth-enterprise-coup-how-claude-3-7-is-becoming-the-coding-agent-of-choice/
Theo khảo sát mới nhất của Dataiku, 74% CEO thừa nhận họ có thể mất việc trong vòng 2 năm nếu không tạo ra lợi ích đáng kể từ AI.
Dataiku đã công bố kết quả khảo sát được thực hiện bởi The Harris Poll với hơn 500 CEO từ Anh, Mỹ, Đức và Pháp, tại các công ty có doanh thu hàng năm trên 500 triệu USD và hơn 500 nhân viên.
Sự lo lắng về AI đã xuất hiện trong sự kiện "field trip" thường niên của Dataiku tổ chức tại Four Seasons ở Boston vào tháng 9/2024, nơi nhiều CEO tỏ ra lo ngại về việc liệu họ có chiến lược phù hợp để tận dụng AI.
Florian Douetteau, CEO của Dataiku, chia sẻ với Business Insider ghi chú từ cuộc trò chuyện với một CEO: "OpenAI là bộ não của chúng ta, nhưng ngày mai Google có thể xuất hiện với điều gì đó - hoặc một công ty khác. Nếu chúng ta đi hết mình với GPT enterprise, hoặc với Co-pilot, chúng ta sẽ bị khóa trong một hệ sinh thái. KHÔNG MUỐN ĐIỀU NÀY!"
Đáng chú ý, 94% CEO tin rằng đại lý AI có thể cung cấp lời khuyên kinh doanh tốt hơn so với thành viên hội đồng quản trị là con người.
Hơn 70% CEO đồng ý rằng một đồng nghiệp CEO có thể bị sa thải trước cuối năm 2025 vì chiến lược AI thất bại, trong khi 54% CEO cho biết đối thủ cạnh tranh đã áp dụng chiến lược AI tốt hơn của họ.
Báo cáo chỉ ra một điểm mù là "bẫy hàng hóa" - khi các CEO tin rằng các đại lý AI "có sẵn" cũng hiệu quả như các đại lý được xây dựng tùy chỉnh cho hoạt động kinh doanh cốt lõi của công ty.
Vấn đề quản trị AI cũng gây lo ngại: 94% CEO nghi ngờ nhân viên đang bí mật sử dụng công cụ AI tạo sinh mà không có sự chấp thuận chính thức.
Dataiku đã mở rộng các công cụ quản trị trên nền tảng của mình để giúp các công ty quản lý công nghệ này, theo Douetteau.
Douetteau nhận định rằng trong thời đại công nghệ tiếp theo, "một phần làm nên sự khác biệt của một công ty sẽ là loại hệ thống AI họ có", khác với cách các công ty trước đây tạo sự khác biệt thông qua tài năng, văn hóa, vận hành hoặc tiếp thị.
📌 74% CEO lo mất việc nếu không tạo lợi ích từ AI trong 2 năm tới, trong khi 94% tin đại lý AI có thể tư vấn tốt hơn thành viên HĐQT. Đa số dự đoán các CEO sẽ bị sa thải vì chiến lược AI yếu kém trước cuối năm 2025, đặt ra thách thức trong việc xây dựng hệ thống AI độc đáo cho doanh nghiệp.
https://www.businessinsider.com/ceos-insecure-about-ai-strategy-2025-3
AI agent đang nhanh chóng trở thành động lực mới đằng sau các microservice tạo nên hạ tầng của hệ thống doanh nghiệp.
Khi các agent này phát triển mạnh, bộ phận công nghệ thông tin (IT) sẽ trở thành "phòng nhân sự" ảo, có nhiệm vụ mua sắm, đào tạo và hướng dẫn các trợ lý AI tương tự như vai trò của HR trong quản lý nhân lực.
Tại hội thảo Mobile World Congress gần đây, một panel do Deloitte tổ chức đã thảo luận về vai trò mới nổi của AI agent trong doanh nghiệp.
Bryan Thompson, phó chủ tịch quản lý sản phẩm GreenLake tại HPE, cho biết AI agent là bước tiếp theo trong việc chia nhỏ và giải quyết vấn đề, tương tự cách tiếp cận microservice.
Fred Devoir từ Nvidia đồng ý rằng AI agent cho phép kết nối các quy trình làm việc của doanh nghiệp thông qua kiến trúc RESTful.
Abdi Goodarzi của Deloitte nhấn mạnh sự khác biệt của AI agent so với các công nghệ trước đây: "Cho đến nay, chúng ta chưa từng có công nghệ nào có thể tự động tạo ý tưởng hoặc thực thi độc lập".
Theo Devoir, quản lý vốn AI agent và quản lý vốn nhân lực là tương tự nhau, nhưng thay vì HR quản lý con người, bây giờ IT đóng vai trò như HR cho tất cả các agent.
Goodarzi chỉ ra rằng con người có cảm xúc, trong khi agent thì không, đòi hỏi phải có sự thay đổi trong văn hóa tổ chức, chiến lược nhân tài và cách con người làm việc với máy móc.
Các thách thức để xây dựng doanh nghiệp dựa trên AI agent bao gồm vấn đề dữ liệu phân tán trong các hệ thống khác nhau, tính đáng tin cậy của agent, và việc xây dựng lòng tin.
AI agent có thể giúp giải quyết vấn đề dữ liệu phân tán bằng cách triển khai agent tại nơi dữ liệu được lưu trữ thay vì phải mang dữ liệu đến AI.
Goodarzi dự đoán rằng 2025 sẽ là năm mà công nghệ AI agent bùng nổ trong các hệ thống sản xuất doanh nghiệp.
📌 Bộ phận IT đang chuyển mình thành "HR của thời đại AI" khi quản lý hàng nghìn AI agent trong doanh nghiệp. Thách thức lớn nhất không chỉ là kỹ thuật mà còn về xây dựng lòng tin với công nghệ xác suất này, nhưng 2025 được dự đoán là năm AI agent sẽ thực sự cất cánh.
https://www.zdnet.com/article/as-ai-agents-multiply-it-becomes-the-new-hr-department/
85% doanh nghiệp toàn cầu đã sử dụng AI tạo sinh, nhưng gặp khó khăn trong việc mở rộng quy mô do thiếu độ chính xác, quản trị và kiểm soát rủi ro.
Databricks giới thiệu nhiều công cụ mới để giúp doanh nghiệp triển khai AI agent một cách tự tin:
Mosaic AI Gateway: Quản lý tập trung các mô hình AI nguồn mở và thương mại
Bộ API Genie Conversation: Tích hợp chatbot vào các ứng dụng và công cụ năng suất
Ứng dụng Agent Evaluation Review nâng cấp: Đơn giản hóa quy trình đánh giá và phản hồi của chuyên gia
Suy luận hàng loạt không cần cấp phép: Chạy suy luận hàng loạt chỉ bằng truy vấn SQL
Mở rộng AI Gateway để hỗ trợ bất kỳ endpoint LLM nào, cho phép quản lý thống nhất các mô hình
API Genie Conversation cho phép truy vấn thông tin bằng ngôn ngữ tự nhiên từ nhiều nền tảng khác nhau
Cập nhật ứng dụng Agent Evaluation Review giúp thu thập phản hồi có cấu trúc dễ dàng hơn
Hỗ trợ suy luận hàng loạt không cần cấu hình cơ sở hạ tầng, chỉ cần viết truy vấn SQL đơn giản
Altana đã ứng dụng thành công suy luận hàng loạt với AI Functions, cải thiện đáng kể tốc độ phát triển
Databricks sẽ tiếp tục giới thiệu thêm nhiều tính năng mới trong "Tuần lễ Agent" để giúp doanh nghiệp triển khai AI agent ở quy mô lớn một cách tự tin
📌 Databricks giới thiệu 4 công cụ mới giúp doanh nghiệp triển khai AI agent ở quy mô lớn: quản lý tập trung mô hình, tích hợp chatbot, đánh giá agent và suy luận hàng loạt. Các giải pháp này giải quyết thách thức về độ chính xác, quản trị và rủi ro, tăng cường niềm tin khi triển khai AI trong các ứng dụng quan trọng.
https://www.databricks.com/blog/unlocking-potential-ai-agents-pilots-production-success
Báo cáo từ Microsoft cho thấy AI tạo sinh, đặc biệt là Microsoft Copilot, đang cải thiện rõ rệt năng suất làm việc trong môi trường thực tế.
Tăng năng suất và hiệu quả công việc:
Ảnh hưởng đến công việc và vai trò:
Tác động của AI trong môi trường làm việc thực tế:
Khảo sát Work Trend Index Survey (2024):
Nghiên cứu về lập trình viên và AI:
AI trong lĩnh vực bảo mật:
AI trong môi trường đa ngôn ngữ:
Thách thức và tiềm năng:
📌 Báo cáo của Microsoft cho thấy AI tạo sinh, đặc biệt là Microsoft Copilot, đã tạo ra sự cải thiện đáng kể về năng suất làm việc thực tế. Người dùng giảm trung bình 4% thời gian xử lý email và tăng năng suất làm việc từ 10% đến 25%. AI còn giúp lập trình viên tăng tốc độ làm việc 36% và nhân viên bảo mật tăng độ chính xác 7%. Tuy nhiên, hiệu quả sử dụng AI khác nhau tùy theo ngành nghề và vai trò, cho thấy AI có tiềm năng cao nhưng cần được điều chỉnh phù hợp để tối ưu hóa năng suất cho từng lĩnh vực.
https://www.microsoft.com/en-us/research/wp-content/uploads/2024/07/Generative-AI-in-Real-World-Workplaces.pdf
Salesforce cũng vừa giới thiệu AgentExchange - thị trường mới cho các agent AI trong phần mềm doanh nghiệp. Dịch vụ này ra mắt với hơn 200 đối tác bao gồm Google Cloud, DocuSign, Box và Workday, cung cấp các giải pháp agent đóng gói sẵn cho doanh nghiệp mà không cần chuyên môn kỹ thuật cao.
Lừa đảo PayPal mới đang sử dụng API của Docusign để tăng độ tin cậy cho email lừa đảo. Kẻ gian thiết lập tài khoản Docusign và sử dụng mẫu có sẵn để gửi hóa đơn PayPal trông hợp pháp. Người nhận được thông báo về giao dịch trái phép và được yêu cầu liên hệ theo số điện thoại cung cấp để bảo mật tài khoản và xử lý hoàn tiền.
Theo nghiên cứu của Viện công nghệ Massachusetts, 80% công ty đang giám sát nhân viên làm việc từ xa hoặc kết hợp, với 74% sử dụng phần mềm ghi lại hoạt động duyệt web và 62% theo dõi hoạt động màn hình. Sự gia tăng giám sát này liên quan đến căng thẳng cao hơn của nhân viên, giảm sự hài lòng trong công việc và có thể làm giảm năng suất.
Reddit đang trở thành nền tảng tối ưu cho doanh nghiệp vừa và nhỏ để cải thiện nỗ lực tối ưu hóa công cụ tìm kiếm (SEO), tương tác với cộng đồng địa phương và xây dựng niềm tin thương hiệu. Nội dung Reddit thường xuất hiện nổi bật trong kết quả tìm kiếm Google.
Các biện pháp bảo mật máy tính cần thiết bao gồm kích hoạt bảo vệ chống vi-rút tích hợp, sử dụng bộ bảo mật của bên thứ ba như Avast One, thực hiện các biện pháp bảo mật toàn diện và cập nhật phần mềm thường xuyên.
📌 Năm 2025 đánh dấu sự phát triển mạnh mẽ của agent AI trong dịch vụ khách hàng với Meta và Salesforce dẫn đầu. Trong khi đó, lừa đảo qua Docusign, giám sát nhân viên (80% công ty áp dụng) và cơ hội SEO từ Reddit đang là những xu hướng công nghệ quan trọng mà doanh nghiệp cần chú ý.
https://www.forbes.com/sites/quickerbettertech/2025/03/09/business-tech-news-meta-and-salesforce-introduce-ai-agents-for-small-businesses/
Mọi người thường lo lắng về AI vì đây là công nghệ khác biệt so với những làn sóng công nghệ trước, liên quan đến việc trao quyền kiểm soát cho máy móc.
Nghiên cứu từ Pew Research Group chỉ ra những nỗi sợ phổ biến về AI bao gồm: mất việc làm, mất kết nối con người, deepfake và bắt chước, AI trở nên quá mạnh không thể kiểm soát, AI thông minh chiếm quyền kiểm soát cơ sở hạ tầng, và thành kiến và phân biệt đối xử.
Để làm quen với AI, người dùng nên bắt đầu với các công cụ AI miễn phí như Dall-E, Sora, hoặc ChatGPT để hiểu khả năng và giới hạn của chúng.
Tập trung vào việc để AI tự động hóa các nhiệm vụ nhàm chán hoặc giao những việc khó chịu cho AI, như tìm kiếm chuyến bay, đặt phòng khách sạn hoặc tạo danh sách chi tiết cho bài thuyết trình.
Học các khóa học về AI để hiểu rõ hơn về cách hoạt động của công nghệ này, giúp giảm bớt lo lắng về khả năng của AI.
Andrew Ng nhận xét rằng tại Davos năm nay, các cuộc thảo luận về AI đã trở nên cụ thể hơn về việc triển khai kinh doanh thực tế, khác với năm 2024 khi mọi người còn nhiều lo ngại và hype.
Chi phí thử nghiệm đã giảm mạnh nhờ khả năng tạo mẫu được hỗ trợ bởi AI, giúp doanh nghiệp tổ chức lại để chạy nhiều thử nghiệm và phân bổ nguồn lực cho những thử nghiệm thành công.
Andrew Ng nhấn mạnh rằng công nghệ AI có thể "tăng gấp đôi hoặc giảm một nửa" doanh thu và sản xuất, tùy thuộc vào cách triển khai.
Giao diện trực quan và công nghệ dễ hiểu, dễ sử dụng là yếu tố quan trọng để ứng dụng AI thành công trong doanh nghiệp.
Ứng dụng phải phù hợp với lực lượng lao động: nếu người dùng không thích hoặc không thể học cách sử dụng, có thể làm giảm năng suất; ngược lại, nếu trực quan, sẽ tăng năng suất đáng kể.
📌 Theo Andrew Ng, nỗi sợ AI đang chuyển từ mơ hồ sang thực tế. Chi phí thử nghiệm AI đã giảm mạnh, giúp doanh nghiệp dễ dàng triển khai. Tuy nhiên, thành công của AI phụ thuộc vào giao diện trực quan và khả năng thích ứng của người dùng - có thể tăng năng suất gấp đôi hoặc giảm một nửa.
https://www.forbes.com/sites/johnwerner/2025/03/09/how-to-get-comfortable-with-ai-conversation-with-andrew-ng/
Chris Cox, Giám đốc sản phẩm của Meta, tiết lộ rằng phần mềm AI nguồn mở Llama 4 sắp ra mắt sẽ có khả năng lập luận và tạo ra các tác nhân AI có thể sử dụng trình duyệt web và các công cụ khác.
Các tác nhân AI được định nghĩa bởi khả năng thực hiện các tác vụ nhiều bước thay vì chỉ tạo ra phản hồi cho các lệnh nhắc bằng văn bản.
Cox mô tả cách các mô hình AI tiên tiến hơn có thể được sử dụng để hỗ trợ các tác nhân AI hoàn thành các tác vụ kinh doanh cụ thể, như tự động lưu trữ hóa đơn.
Clara Shih, người đứng đầu bộ phận AI kinh doanh của Meta, cho biết công ty tin rằng ngày càng nhiều doanh nghiệp sẽ sử dụng các tác nhân AI để tự động hóa các tác vụ phức tạp.
Meta đã có mối quan hệ tin cậy với 200 triệu doanh nghiệp nhỏ trên toàn cầu. Trong tương lai gần, mỗi doanh nghiệp sẽ có AI đại diện để tự động hóa các tác vụ lặp đi lặp lại, nói bằng giọng nói của họ, tìm kiếm khách hàng và cung cấp dịch vụ vận chuyển 24/7.
Meta sẽ tổ chức hội nghị AI LlamaCon đầu tiên vào ngày 29 tháng 4.
CNBC đưa tin Meta sẽ ra mắt ứng dụng Meta AI độc lập trong quý 2.
📌 Meta đang đặt cược lớn vào AI với Llama 4, nhắm đến thị trường 200 triệu doanh nghiệp nhỏ. Phần mềm này hứa hẹn mang lại khả năng lập luận và tạo ra các tác nhân AI thông minh, có thể tự động hóa nhiều tác vụ phức tạp cho doanh nghiệp.
https://www.cnbc.com/2025/03/05/meta-product-chief-says-llama-4-will-power-ai-agents.html
Hệ thống mới nhằm nhúng các tác nhân AI có thể dự đoán nhu cầu, giám sát thay đổi dữ liệu và hành động tự chủ trong mọi quy trình kinh doanh.
Salesforce tập trung vào khung đa tác nhân, nơi trợ lý AI cá nhân sẽ tương tác với tác nhân doanh nghiệp để hoàn thành nhiệm vụ.
Công ty giới thiệu bộ công cụ mới nhằm đẩy nhanh việc áp dụng công nghệ tác nhân, bao gồm Agentforce Developer Edition miễn phí, AI hỗ trợ trong Agent Builder và Testing Center.
Salesforce ra mắt AgentExchange, một thị trường với hơn 200 đối tác ban đầu và hàng trăm thành phần tác nhân được xây dựng sẵn.
Agentforce for Health nhằm giảm gánh nặng hành chính cho các nhà cung cấp dịch vụ chăm sóc sức khỏe, tự động hóa việc xác minh quyền lợi, tóm tắt hồ sơ bệnh nhân và đơn giản hóa việc đặt lịch hẹn.
Người áp dụng sớm báo cáo tiết kiệm hàng triệu đô la từ việc triển khai AI. Engine ước tính lợi ích hàng năm gần 1,9 triệu USD, trong khi Precina báo cáo tiết kiệm 80.000 USD mỗi năm cho mỗi 5.000 bệnh nhân.
Việc triển khai đòi hỏi phải dự đoán các điểm lỗi của AI. Salesforce nhấn mạnh tầm quan trọng của việc cung cấp hướng dẫn về những gì cần làm nếu AI không biết phải làm gì.
Vấn đề bảo mật và quyền riêng tư vẫn là ưu tiên hàng đầu, đặc biệt trong các ngành được quản lý như chăm sóc sức khỏe.
Nền tảng Agentforce 2dx sẽ được cung cấp rộng rãi vào tháng 4 năm 2025, với một số tính năng ra mắt sớm hơn, bắt đầu từ hôm nay.
📌 Salesforce ra mắt Agentforce 2dx, cho phép AI hoạt động tự chủ trên các hệ thống doanh nghiệp. Nền tảng này hứa hẹn tự động hóa nhiều quy trình, tiết kiệm hàng triệu đô la cho doanh nghiệp. Tuy nhiên, vấn đề bảo mật và quyền riêng tư vẫn là thách thức lớn cần giải quyết.
https://venturebeat.com/ai/salesforce-launches-agentforce-2dx-pushing-autonomous-ai-deep-into-enterprise-workflows/
Xu hướng tùy chỉnh AI tạo sinh: Ngày càng nhiều doanh nghiệp áp dụng AI tạo sinh (GenAI) nhưng gặp phải hạn chế với các mô hình có sẵn. Tùy chỉnh AI giúp cải thiện độ chính xác, hiệu suất, bảo mật và phù hợp với nhu cầu doanh nghiệp.
Mục tiêu tùy chỉnh AI:
Các phương pháp tùy chỉnh phổ biến:
Những rủi ro chính khi tùy chỉnh AI:
AI tùy chỉnh trong doanh nghiệp lớn:
An ninh và chống rủi ro trong AI tùy chỉnh:
Tương lai của AI tùy chỉnh: Các doanh nghiệp đang dần chuyển sang hệ thống AI đa tác nhân (multi-agent AI) giúp AI có thể tự động thực hiện và cải tiến quy trình mà không cần sự can thiệp của con người.
📌 Tùy chỉnh AI tạo sinh không chỉ giúp tối ưu hóa hiệu suất mà còn tạo ra lợi thế cạnh tranh bằng cách cá nhân hóa dữ liệu và quy trình vận hành. 67% doanh nghiệp sử dụng RAG, 54% áp dụng fine-tuning để nâng cao độ chính xác. AT&T, Harvey AI và Dentsu là những công ty đi đầu trong AI tùy chỉnh. Tuy nhiên, 52% công ty lo ngại về bảo mật dữ liệu, trong khi 60% ưu tiên giảm sai sót của AI (hallucinations). AI đa tác nhân (multi-agent AI) sẽ là xu hướng tương lai.
https://www.technologyreview.com/2025/03/04/1112197/customizing-generative-ai-for-unique-value/
#MIT
AI agent là chìa khóa để mở ra tốc độ tạo giá trị nhanh hơn cho doanh nghiệp.
AI agent không chỉ tăng hiệu quả mà còn giúp mang lại giá trị nhanh hơn khi được triển khai đúng cách.
Khung Discover, Decide, Deliver cung cấp hướng dẫn về cách tích hợp AI agent vào doanh nghiệp.
Lãnh đạo doanh nghiệp cần suy nghĩ theo hướng thay đổi quy trình và tư duy khi áp dụng AI agent.
AI agent sẽ giúp công việc dễ dàng, nhanh chóng và hiệu quả hơn bằng cách xử lý các tác vụ thủ công tẻ nhạt, đẩy nhanh bàn giao giữa các nhóm và tăng tốc đưa sản phẩm ra thị trường.
Khung Discover, Decide, Deliver giúp lãnh đạo cắt giảm sự phức tạp và khai thác giá trị cho doanh nghiệp.
Trong giai đoạn Discover, AI agent có thể phân tích dữ liệu từ nhiều nguồn đa phương thức để tìm ra cơ hội mới nhanh hơn.
Ở giai đoạn Decide, AI agent giúp đưa ra quyết định nhanh hơn, giảm chi phí thử nghiệm và hành động nhanh chóng.
Trong giai đoạn Deliver, AI agent cho phép hợp tác liền mạch giữa các tổ chức, đẩy nhanh quá trình chuyển giao.
AI
Điều chỉnh quy trình AI agent phù hợp với năng lực vận hành
Xác định đầu ra và kết quả lý tưởng
Xác định các điểm cần can thiệp của con người
Thiết lập vòng phản hồi cho AI agent
📌 AI agent là chìa khóa giúp doanh nghiệp tăng tốc tạo giá trị. Khung Discover, Decide, Deliver giúp tích hợp AI agent vào toàn bộ chuỗi giá trị. Lãnh đạo cần thay đổi quy trình và tư duy để khai thác tối đa tiềm năng của AI agent, từ đó đẩy nhanh việc ra quyết định và đổi mới sáng tạo.
https://www.weforum.org/stories/2025/03/ai-agent-business-value/
#WEF
Nghiên cứu của Stanford phân tích 305 triệu văn bản, cho thấy mô hình ngôn ngữ AI hỗ trợ viết tới 25% giao tiếp chuyên nghiệp trong nhiều lĩnh vực.
Dữ liệu bao gồm 687.241 khiếu nại của người tiêu dùng, 537.413 thông cáo báo chí doanh nghiệp, 304,3 triệu tin tuyển dụng và 15.919 thông cáo báo chí của Liên Hợp Quốc từ tháng 1/2022 đến tháng 9/2024.
Khoảng 18% khiếu nại tài chính, 24% thông cáo báo chí doanh nghiệp, 15% tin tuyển dụng và 14% thông cáo LHQ có dấu hiệu hỗ trợ của AI.
Khu vực thành thị có tỷ lệ áp dụng cao hơn (18,2% so với 10,9% ở nông thôn), nhưng khu vực có trình độ học vấn thấp hơn sử dụng nhiều hơn (19,9% so với 17,4%).
Arkansas có tỷ lệ áp dụng cao nhất (29,2%), Missouri (26,9%), North Dakota (24,8%). California đạt 17,4%, New York 16,6%.
Công ty thành lập sau 2015 có tỷ lệ sử dụng cao gấp 3 lần so với công ty trước 1980.
Công ty khoa học và công nghệ tích hợp AI nhiều nhất (16,8%), tiếp theo là tin tức kinh doanh và tài chính (14-15,6%).
Đội ngũ LHQ ở Mỹ Latinh và Caribbean có tỷ lệ áp dụng cao nhất (20%), châu Phi, châu Á-Thái Bình Dương và Đông Âu đạt 11-14%.
Nghiên cứu có hạn chế do tập trung vào nội dung tiếng Anh và khó phát hiện văn bản AI được chỉnh sửa nhiều.
Các nhà nghiên cứu cảnh báo về thách thức trong giao tiếp và niềm tin của công chúng khi phụ thuộc quá nhiều vào nội dung do AI tạo ra.
📌 Nghiên cứu Stanford phân tích 305 triệu văn bản cho thấy AI hỗ trợ viết tới 25% giao tiếp chuyên nghiệp. Khu vực có trình độ học vấn thấp hơn áp dụng nhanh hơn, với Arkansas đạt 29,2%. Công ty mới và lĩnh vực công nghệ dẫn đầu xu hướng này, đặt ra thách thức về niềm tin công chúng.
https://arstechnica.com/ai/2025/03/researchers-surprised-to-find-less-educated-areas-adopting-ai-writing-tools-faster/
68% người dùng AI tại nơi làm việc không thông báo với cấp trên, 6% đã nhập dữ liệu nhạy cảm của công ty vào mô hình AI đàm thoại.
47% lãnh đạo doanh nghiệp cân nhắc sử dụng AI thay vì tuyển nhân viên mới.
Chỉ 27% doanh nghiệp có chính sách hạn chế chia sẻ dữ liệu với mô hình AI, 35% không kiểm soát việc nhân viên sử dụng chatbot.
Rủi ro chính khi thiếu chính sách AI: lan truyền thông tin không chính xác và tiết lộ thông tin nhạy cảm không phù hợp.
63% doanh nghiệp coi "không chính xác" là rủi ro lớn nhất từ AI.
Gần 40% nhân viên đã nhập thông tin nhạy cảm vào công cụ AI mà không hỏi ý kiến công ty.
5 bước xây dựng chính sách AI: xác định các bên liên quan chính, xác định mục tiêu công ty, hình thành mục tiêu chính, soạn thảo và hoàn thiện chính sách, ban hành chính sách.
Nội dung cần có trong chính sách AI: định nghĩa, tuyên bố đạo đức, quy định sử dụng thực tế, quy định pháp lý, vấn đề bảo mật, các hoạt động và công cụ bị cấm.
72% người sử dụng AI nhiều báo cáo năng suất tổ chức cao.
Chỉ 15% doanh nghiệp chưa sử dụng AI.
📌 68% nhân viên dùng AI lén lút, 6% nhập dữ liệu nhạy cảm vào AI. Chỉ 27% doanh nghiệp có chính sách hạn chế chia sẻ dữ liệu với AI. Cần xây dựng chính sách AI qua 5 bước, bao gồm các nội dung như định nghĩa, quy tắc đạo đức, quy định sử dụng và bảo mật.
https://tech.co/news/how-to-build-ai-policy
Các doanh nghiệp nhà nước lớn của Trung Quốc đã kết nối với mô hình AI DeepSeek sau khi chính phủ trung ương khởi động chương trình "AI+" nhằm tăng cường hiệu quả hoạt động.
Theo Xinhua, ít nhất 20 công ty thuộc sở hữu của chính phủ trung ương đã tích hợp DeepSeek vào hoạt động. Các công ty này hoạt động trong lĩnh vực năng lượng, viễn thông, ô tô, tài chính và xây dựng.
Trong lĩnh vực năng lượng và hóa chất, nhiều công ty lớn như Sinopec, PetroChina, CNOOC, Sinochem và các tập đoàn điện hạt nhân đã kết nối mô hình AI của họ với DeepSeek-R1, ra mắt vào ngày 20/1.
PipeChina có thể thiết lập kế hoạch sản xuất trong vài phút thay vì 4 giờ như trước đây nhờ DeepSeek. Họ cũng cải thiện độ chính xác thêm 10% với các mô hình AI.
Thời gian mô phỏng xây dựng hang động muối để lưu trữ khí đốt giảm từ hàng chục ngày xuống chỉ còn một giờ nhờ DeepSeek.
Ngày 17/2, Chủ tịch Trung Quốc Tập Cận Bình đã gặp các lãnh đạo doanh nghiệp tại một hội nghị ở Bắc Kinh, bao gồm Nhậm Chính Phi của Huawei, Jack Ma của Alibaba, Pony Ma của Tencent, và Liang Wenfeng của DeepSeek.
Ủy ban giám sát và quản lý tài sản nhà nước (SASAC) kêu gọi các doanh nghiệp nhà nước nắm bắt cơ hội chiến lược phát triển ngành AI, cải thiện mô hình ngôn ngữ lớn (LLMs) và xây dựng hệ sinh thái mở.
Nhà nghiên cứu Zhou Lisa nhấn mạnh rằng cạnh tranh AI là về quy mô và chất lượng dữ liệu, và các doanh nghiệp nhà nước có nguồn dữ liệu đáng kể để chia sẻ và thương mại hóa.
Sinochem sử dụng khả năng xử lý thông tin phức tạp của DeepSeek để đáp ứng nhu cầu của các kịch bản kinh doanh khác nhau, trong khi China Southern Power Grid sử dụng DeepSeek để nâng cấp mô hình AI "Big Watt".
Mặc dù có nhiều tiến bộ, vẫn còn thách thức trong việc tích hợp Internet vạn vật (IoT) và công nghệ AI. Dong Zhaojie của China Southern Power Grid chia sẻ rằng họ phải dạy mô hình AI nhận biết 500 loại hư hỏng chốt tách khác nhau.
Một số chuyên gia cảnh báo rằng AI có thể thay thế hàng chục triệu việc làm ở Trung Quốc, từ công nhân nhà máy, nhân viên giao hàng đến chuyên gia y tế và công chức.
📌 DeepSeek đang phục vụ 20 doanh nghiệp nhà nước Trung Quốc, giúp giảm thời gian lập kế hoạch từ 4 giờ xuống vài phút và tăng độ chính xác 10%. Với khoảng 500 loại dữ liệu đặc thù được thu thập, các công ty tiết kiệm 10 triệu nhân dân tệ (1,37 triệu USD) chi phí hàng năm, nhưng cũng đặt ra lo ngại về việc làm tương lai.
https://asiatimes.com/2025/02/deepseek-is-now-the-brain-of-chinese-state-owned-firms/#
DeepSeek trở thành bộ não của các doanh nghiệp nhà nước Trung Quốc
Các nhà nghiên cứu Trung Quốc cho rằng nguồn dữ liệu phong phú của doanh nghiệp nhà nước có thể giúp đẩy nhanh sự phát triển AI của Trung Quốc
Tác giả: Yong Jian
Ngày 28 tháng 2 năm 2025
Các doanh nghiệp nhà nước (DNNN) lớn tại Trung Quốc đã kết nối với mô hình trí tuệ nhân tạo của DeepSeek sau khi chính phủ trung ương triển khai chương trình “AI+” nhằm nâng cao hiệu quả hoạt động.
Tân Hoa Xã đưa tin ít nhất 20 doanh nghiệp do chính phủ trung ương sở hữu đã tích hợp DeepSeek vào hoạt động của mình. Các công ty này thuộc các ngành năng lượng, viễn thông, ô tô, tài chính và xây dựng.
Trong lĩnh vực năng lượng và hóa chất, Sinopec, PetroChina, CNOOC, Sinochem, China National Nuclear Power Co, China General Nuclear Power Group, China Southern Power Grid và China Oil and Gas Pipeline Network Corp (PipeChina) cho biết họ đã kết nối các mô hình AI của mình với DeepSeek-R1, được ra mắt vào ngày 20 tháng 1.
“Với DeepSeek và các mô hình ngôn ngữ lớn (LLMs) khác, các trung tâm kiểm soát dầu khí của PipeChina có thể thiết lập kế hoạch sản xuất chỉ trong vài phút thay vì 4 giờ,” Xu Kun, phó tổng giám đốc Công ty Công nghệ Kỹ thuật số Zhiwang Bắc Kinh, một đơn vị thuộc PipeChina, nói trong một cuộc phỏng vấn với Đài truyền hình trung ương Trung Quốc (CCTV). “Ngoài ra, các mô hình AI còn giúp tăng độ chính xác lên 10%.”
LLMs là thuật ngữ chỉ các mô hình AI như ChatGPT, có khả năng hiểu ngôn ngữ con người và xử lý ngôn ngữ tự nhiên (NLP).
“Bên cạnh đó, PipeChina có thể sử dụng DeepSeek để rút ngắn thời gian mô phỏng quá trình xây dựng kho chứa khí bằng hang muối từ vài chục ngày xuống chỉ còn một giờ,” Xu nói.
PipeChina, do Ủy ban Giám sát và Quản lý Tài sản Nhà nước (SASAC) của Quốc vụ viện kiểm soát, là đơn vị thi công tuyến đường ống dẫn khí tự nhiên Trung Quốc-Nga, còn gọi là "Sức mạnh Siberia". Đường ống này vận chuyển 38 tỷ mét khối khí tự nhiên mỗi năm từ đông Siberia của Nga sang miền bắc Trung Quốc.
Năm 2022, PipeChina thành lập Công ty Công nghệ Kỹ thuật số Zhiwang Bắc Kinh để số hóa hoạt động của mình.
Tháng 12 năm ngoái, PipeChina ra mắt mô hình AI "Pipeline Network" sử dụng nền tảng Huawei Cloud. Công ty cho biết đã triển khai mô hình này trong hơn 20 tình huống ứng dụng và có kế hoạch mở rộng sang 80 tình huống khác.
Ngày 17 tháng 2, Chủ tịch Trung Quốc Tập Cận Bình đã gặp gỡ các lãnh đạo doanh nghiệp tại một hội nghị ở Bắc Kinh. Những người tham dự gồm nhà sáng lập Huawei Nhậm Chính Phi, đồng sáng lập Alibaba Jack Ma, chủ tịch Tencent Mã Hóa Đằng, nhà sáng lập DeepSeek Lương Văn Phong và nhà sáng lập Unitree Robotics Vương Hưng Hưng.
Ngày 19 tháng 2, SASAC tổ chức cuộc họp với một nhóm DNNN trung ương để tổng kết kết quả phát triển AI và lên kế hoạch cho tương lai. DNNN bao gồm tất cả doanh nghiệp do chính phủ trung ương và địa phương kiểm soát, trong khi DNNN trung ương là các doanh nghiệp thuộc sở hữu của chính phủ trung ương.
“Các DNNN trung ương nên nắm bắt thời cơ chiến lược để phát triển ngành AI. Họ cần cải thiện các mô hình ngôn ngữ lớn (LLMs), tập trung vào việc ứng dụng công nghệ cốt lõi, xây dựng hệ sinh thái mở, phát triển đổi mới sáng tạo từ con số 0 và thương mại hóa thành tựu khoa học,” cuộc họp nêu rõ.
“Chính phủ trung ương cần tăng cường hỗ trợ DNNN trung ương ứng dụng công nghệ AI, nhấn mạnh sự phát triển AI trong kế hoạch 5 năm lần thứ 15 (2026-2030), hỗ trợ tạo ra nhiều doanh nghiệp AI hàng đầu và startup hơn,” cuộc họp cho biết, đồng thời nhấn mạnh rằng chính phủ và DNNN trung ương sẽ tăng cường đầu tư vốn để đảm bảo các nhân tài có thể tập trung vào nghiên cứu và phát triển dài hạn.
“Cuộc đua AI phụ thuộc vào quy mô và chất lượng dữ liệu,” Zhou Lisa, nhà nghiên cứu tại Hiệp hội Cải cách và Phát triển Doanh nghiệp Trung Quốc – một đơn vị nghiên cứu trực thuộc SASAC – nói với Tân Hoa Xã. “Các DNNN trung ương sở hữu nguồn dữ liệu khổng lồ, do đó họ có thể sử dụng DeepSeek để chia sẻ và thương mại hóa dữ liệu của mình.”
“Nhiều DNNN trong lĩnh vực năng lượng đã triển khai các ứng dụng AI để thúc đẩy chuyển đổi số. Việc kết nối với DeepSeek sẽ giúp họ cung cấp thêm nhiều giải pháp,” bà nói.
Bà lấy ví dụ rằng Sinochem sử dụng DeepSeek để xử lý thông tin phức tạp, suy luận logic và mở rộng kiến thức lĩnh vực để đáp ứng các kịch bản kinh doanh khác nhau. Trong khi đó, China Southern Power Grid đã nâng cấp mô hình AI Big Watt của mình – ra mắt vào tháng 9 năm 2023 – để thu thập dữ liệu về thiệt hại của cơ sở hạ tầng.
Trung Quốc đã phát triển các mô hình AI phục vụ công nghiệp trong vài năm qua.
Tháng 5 năm ngoái, China Mobile ra mắt mô hình AI Jiutian, có chuyên môn trong 15 ngành công nghiệp, bao gồm viễn thông, sản xuất điện, logistics, năng lượng, kim loại, xây dựng, giao thông và hàng không. Công ty cho biết sẽ phát triển thêm các mô hình AI tùy chỉnh cho 40 ngành công nghiệp khác.
Tháng 7, China Telecom ra mắt mô hình AI tạo sinh TeleChat2, có khả năng chỉnh sửa video và thiết kế đồ họa. Công ty cho biết TeleChat2 có thể hiểu các phương ngữ khác nhau của Trung Quốc và được sử dụng rộng rãi trong các dịch vụ công tại nhiều thành phố.
Tuy nhiên, các doanh nghiệp Trung Quốc vẫn gặp thách thức khi cố gắng tích hợp công nghệ AI và Internet vạn vật (IoT).
Tháng 6 năm 2024, chuyên gia AI Đổng Triệu Kiệt từ China Southern Power Grid cho biết công ty đã triển khai drone để kiểm tra cột truyền tải điện và chụp hơn 10.000 bức ảnh về chốt tách.
Ông kỳ vọng AI có thể tự động xác định chốt bị hỏng từ các bức ảnh, nhưng thực tế không như vậy. Cuối cùng, các kỹ sư phải đến thực địa thu thập dữ liệu và dạy AI rằng có đến 500 dạng hỏng hóc khác nhau của chốt tách.
Sau khi mô hình AI hoạt động ổn định, công ty tiết kiệm được khoảng 10 triệu nhân dân tệ (1,37 triệu USD) mỗi năm cho việc tìm kiếm chốt tách bị hỏng.
Trong khi truyền thông nhà nước ca ngợi sự phát triển của AI tại Trung Quốc, một nhà bình luận ở Giang Tô có tên Qianqian cảnh báo rằng AI có thể thay thế hàng chục triệu việc làm, từ công nhân nhà máy và nhân viên giao hàng đến chuyên gia y tế và công chức. Bà cho rằng mọi người cần liên tục học hỏi kỹ năng mới để tránh mất việc.
Yong Jian là cộng tác viên của Asia Times. Ông là một nhà báo Trung Quốc chuyên viết về công nghệ, kinh tế và chính trị Trung Quốc.
AI agent là hệ thống tự động có khả năng xử lý thông tin, đưa ra quyết định và thực hiện hành động dựa trên dữ liệu đầu vào, khác với workflow đơn giản, AI agent có thể thích ứng với thông tin thay đổi và sử dụng công cụ bên ngoài để đạt mục tiêu.
Anthropic, công ty tạo ra Claude, đã phát hành playbook xây dựng AI agent hiệu quả dựa trên kinh nghiệm từ hàng chục đội ngũ thành công. https://www.anthropic.com/research/building-effective-agents
Chọn cách tiếp cận phù hợp: workflow phù hợp cho nhiệm vụ được xác định rõ ràng, trong khi agent phù hợp khi cần tính linh hoạt và ra quyết định dựa trên mô hình.
"Prompt chaining" (liên kết nhắc) giúp chia nhỏ công việc thành các bước rõ ràng, mỗi bước xây dựng trên bước trước đó, tạo hiệu quả cao hơn.
Phân chia công việc giữa nhiều agent khác nhau tốt hơn là để một agent làm mọi thứ, giúp mỗi agent chuyên biệt trong lĩnh vực riêng.
Sử dụng "orchestrator" (người điều phối) để quản lý nhiệm vụ lớn, phân chia công việc và tổng hợp kết quả, hoạt động như một quản lý dự án.
Kiểm thử kỹ lưỡng trong môi trường sandbox là thiết yếu trước khi triển khai agent vào công việc thực tế, các đội hiệu quả dành nhiều thời gian tối ưu hóa công cụ hơn là tối ưu prompt tổng thể.
Cung cấp đúng công cụ cho agent là yếu tố quyết định hiệu quả, tạo hướng dẫn rõ ràng như đang viết cho thành viên mới trong nhóm.
Sử dụng "evaluator-optimizer workflow" (quy trình đánh giá-tối ưu) với một agent sáng tạo và một agent đánh giá, tạo vòng phản hồi để cải thiện chất lượng.
Kiểm soát chi phí bằng cách thiết lập điểm dừng rõ ràng và giới hạn ngân sách cho agent, tránh tình trạng tiêu tốn tài nguyên quá mức.
Cách tiếp cận hiệu quả là bắt đầu với một nhiệm vụ, chia nhỏ thành các bước rõ ràng, xây dựng agent cho từng microtask, kiểm thử kỹ lưỡng và phát triển từ đó.
📌 Các đội thành công với AI agent tuân theo playbook của Anthropic: chọn cấu trúc phù hợp, liên kết nhiệm vụ, phân chia công việc thông minh, sử dụng orchestrator cho công việc phức tạp, và kiểm thử kỹ lưỡng để đạt kết quả thực tế.
https://www.forbes.com/sites/jodiecook/2025/02/27/how-to-build-ai-agents-that-actually-work-anthropics-rules-revealed/
Cuộc khảo sát được thực hiện vào tháng 1/2025 với 1.000 nhân viên tại Mỹ đang làm việc tại các công ty có ít nhất 5.000 nhân viên, tiết lộ xu hướng "shadow AI" đang gia tăng khi nhân viên sử dụng AI ngoài sự giám sát của bộ phận IT.
68% nhân viên thừa nhận đã truy cập trợ lý AI tạo sinh thông qua tài khoản cá nhân thay vì nền tảng được công ty phê duyệt, làm tăng nguy cơ phơi nhiễm dữ liệu và vi phạm các quy định tuân thủ.
Các loại dữ liệu nhạy cảm được nhập vào công cụ AI công khai bao gồm: thông tin cá nhân (31%), thông tin dự án (29%), dữ liệu khách hàng (21%) và thông tin tài chính (11%).
Mặc dù có chính sách hạn chế sử dụng AI cho thông tin nhạy cảm, chỉ 29% người được khảo sát xác nhận tổ chức của họ có hướng dẫn AI rõ ràng và chỉ 24% nhân viên cho biết họ đã nhận được đào tạo bắt buộc về AI.
44% nhân viên không chắc liệu công ty của họ có chính sách AI cụ thể hay không, 50% không biết liệu họ có tuân thủ các chính sách liên quan đến AI hay không và 42% cho biết không có hậu quả nào khi không tuân thủ hướng dẫn AI của công ty.
Về mặt tích cực, 60% nhân viên cho biết trợ lý AI giúp họ làm việc nhanh hơn, 57% nói công cụ AI cải thiện hiệu quả làm việc, và 49% báo cáo rằng AI nâng cao hiệu suất công việc của họ.
84% nhân viên bày tỏ sự quan tâm đến việc tiếp tục sử dụng AI tại nơi làm việc, trong đó 51% đề cập đến vai trò hỗ trợ các nhiệm vụ sáng tạo và 50% cho biết nó giúp tự động hóa các quy trình lặp đi lặp lại.
Theo ông Bret Kinsella, Tổng giám đốc TELUS Digital Fuel iX, nếu công ty không cung cấp công cụ AI, nhân viên sẽ tự tìm kiếm, dẫn đến rủi ro bảo mật mà tổ chức không nhận thức được.
Khảo sát cũng phát hiện rằng 22% nhân viên có quyền truy cập vào trợ lý AI tạo sinh do công ty cung cấp vẫn sử dụng tài khoản AI cá nhân, cho thấy nhu cầu về giải pháp AI doanh nghiệp toàn diện hơn.
📌 Khảo sát từ TELUS Digital Experience phát hiện 57% nhân viên nhập dữ liệu mật vào công cụ AI và 68% sử dụng tài khoản AI cá nhân cho công việc. Mặc dù AI tăng năng suất, nhưng thiếu đào tạo (chỉ 24% được đào tạo) và chính sách rõ ràng (44% không biết chính sách) đang tạo ra rủi ro bảo mật nghiêm trọng cho doanh nghiệp.
https://www.techmonitor.ai/ai-and-automation/57-enterprise-employees-input-confidential-data-ai-tools/
Microsoft vừa ra mắt dòng mô hình AI Phi-4 mới có khả năng xử lý đồng thời văn bản, hình ảnh và giọng nói nhưng tiêu tốn ít tài nguyên tính toán hơn nhiều so với các hệ thống hiện có.
Phi-4-Multimodal chỉ có 5,6 tỷ tham số và Phi-4-Mini có 3,8 tỷ tham số, vượt trội so với các đối thủ cùng kích thước và thậm chí còn vượt qua hiệu suất của các mô hình lớn hơn gấp đôi trong một số tác vụ.
Điểm đặc biệt của Phi-4-Multimodal là kỹ thuật "hỗn hợp LoRA" cho phép xử lý đầu vào văn bản, hình ảnh và giọng nói trong một mô hình duy nhất mà không làm giảm hiệu suất.
Mô hình này đã giành vị trí đầu bảng trên Hugging Face OpenASR với tỷ lệ lỗi từ chỉ 6,14%, vượt qua cả các hệ thống nhận dạng giọng nói chuyên biệt như WhisperV3.
Phi-4-Mini thể hiện khả năng đặc biệt trong các tác vụ dựa trên văn bản. Trên tiêu chuẩn toán học GSM-8K, nó đạt 88,6%, vượt qua hầu hết các mô hình 8 tỷ tham số, và trên tiêu chuẩn MATH đạt 64%, cao hơn nhiều so với đối thủ cùng kích thước.
Công ty Capacity đã sử dụng các mô hình Phi và báo cáo tiết kiệm chi phí gấp 4,2 lần so với quy trình làm việc cạnh tranh trong khi vẫn đạt được kết quả chất lượng tương đương hoặc tốt hơn.
Các mô hình Phi-4 được thiết kế để hoạt động trên phần cứng tiêu chuẩn hoặc tại "biên" - trực tiếp trên thiết bị thay vì trong trung tâm dữ liệu đám mây - nhằm giảm chi phí, độ trễ và duy trì quyền riêng tư dữ liệu.
Microsoft đã đưa Phi-4 lên nhiều nền tảng bao gồm Azure AI Foundry, Hugging Face và Nvidia API Catalog, giúp phổ cập AI cho nhiều đối tượng sử dụng.
Masaya Nishimaki, giám đốc tại công ty AI Nhật Bản Headwaters, đánh giá AI biên hoạt động xuất sắc ngay cả trong môi trường kết nối mạng không ổn định hoặc nơi bảo mật là tối quan trọng.
Phi-4 đại diện cho sự thay đổi tư duy về AI, chứng minh rằng AI không chỉ dành cho những người có máy chủ lớn nhất và ngân sách lớn nhất, mà có thể hoạt động ở bất cứ đâu, cho bất kỳ ai.
📌 Microsoft phá vỡ quy ước "càng lớn càng tốt" trong AI với mô hình Phi-4 chỉ từ 3,8-5,6 tỷ tham số nhưng xử lý được đa phương thức, vượt trội trên nhiều tiêu chuẩn so với mô hình lớn gấp đôi, tiết kiệm chi phí đến 4,2 lần và có thể triển khai trực tiếp tại biên.
https://venturebeat.com/ai/microsofts-new-phi-4-ai-models-pack-big-performance-in-small-packages/
Các công ty công nghệ thông tin lớn của Ấn Độ như TCS, Infosys, HCLTech và Wipro đã không tham gia vào việc xây dựng các mô hình AI nền tảng, ngay cả sau khi Trung Quốc ra mắt DeepSeek gây chấn động toàn cầu.
CEO HCLTech, Vijayakumar C, nhấn mạnh rằng sự phá vỡ của AI trong dịch vụ IT khác biệt hoàn toàn so với các làn sóng công nghệ trước đó như điện toán đám mây. Ông cho rằng các công ty cần chủ động hơn và thậm chí phải phân loại lại doanh thu để tạo ra các mô hình kinh doanh hoàn toàn mới.
AI tạo sinh dự kiến sẽ đẩy nhanh quá trình phát triển phần mềm bằng cách tự động hóa viết mã và giảm thời gian dự án. Vijayakumar đã dẫn chứng một công ty dịch vụ tài chính đã giảm thời gian chuyển đổi công nghệ trị giá 1 tỷ đô la từ 5 năm xuống còn 3,5 năm nhờ AI.
Ông cảnh báo về việc phụ thuộc quá nhiều vào cơ sở hạ tầng AI nước ngoài và cho rằng Ấn Độ cần xây dựng các mô hình ngôn ngữ riêng. "Chúng ta không nên giả định rằng các mô hình ngôn ngữ sẽ tiếp tục là nguồn mở. Tôi nghĩ đây sẽ là những đồng tiền mà địa chính trị sẽ dựa vào," ông cảnh báo.
CEO Infosys, Salil Parekh, cũng kêu gọi các công ty IT Ấn Độ phải "hoang tưởng" và không tự mãn để theo kịp những chuyển đổi do AI thúc đẩy.
Tanay Pratap, CEO của Invact Metaversity, cảnh báo rằng các công cụ lập trình AI và agent đang xuất hiện trên thị trường có thể đe dọa nhân viên IT Ấn Độ. Ông chỉ ra rằng mô hình kinh doanh của IT Ấn Độ chủ yếu là xuất khẩu dịch vụ như kiểm thử cho khách hàng toàn cầu.
Vijayakumar tin rằng ngành công nghiệp IT phần lớn được thúc đẩy bởi các mô hình dựa trên đầu vào. Ông nhấn mạnh nhiều dịch vụ mà các công ty này cung cấp cần chuyển từ nền tảng con người sang nền tảng kỹ thuật.
Mặc dù các công ty IT lớn của Ấn Độ đã bắt đầu phát triển các framework AI agent, mô hình ngôn ngữ nhỏ, và thậm chí khám phá thuốc, nỗ lực của họ vẫn chỉ tập trung vào khách hàng. Tech Mahindra với dự án Indus là mô hình nền tảng duy nhất đến từ một công ty IT Ấn Độ.
Các chuyên gia trong ngành như Ajai Chowdhry và CP Gurnani đã nói với AIM rằng việc các công ty Ấn Độ xây dựng các mô hình nền tảng là quan trọng, và có vẻ như điều này sẽ diễn ra với sự thay đổi kế hoạch của HCLTech.
📌 Các công ty IT Ấn Độ phải từ bỏ mô hình kinh doanh 30 năm và xây dựng mô hình ngôn ngữ bản địa để tồn tại trước làn sóng AI. Với chi phí đào tạo AI giảm, các công ty cần chuyển từ mô hình dựa trên con người sang mô hình dựa trên nền tảng để thích nghi với gián đoạn công nghệ.
https://analyticsindiamag.com/it-services/indian-it-should-be-paranoid-about-ai-ditch-its-30-year-old-business-model/
Theo Vijoy Pandey, Phó chủ tịch cấp cao của Outshift by Cisco, các tổ chức sẽ sớm triển khai hơn 20.000 agent AI, trong khi doanh nghiệp lớn có thể vận hành hàng trăm nghìn agent
Internet of Agents (IoA) là một internet mở và có khả năng tương tác, sẽ cách mạng hóa cách các agent hợp tác trong môi trường an toàn lượng tử
Agent AI sẽ hiện diện trong mọi phần mềm: phần mềm kinh doanh, cá nhân, avatar trên mạng xã hội và AI trong robot thực hiện công việc vật lý
Mỗi agent được xem như chuyên gia trong lĩnh vực riêng, thách thức là kết hợp các agent chuyên biệt để tăng cường sức mạnh của AI tạo sinh
Framework hợp tác mới khác biệt so với cơ sở hạ tầng internet hiện tại:
Agent AI cần chia sẻ trạng thái phức tạp
Ra quyết định phối hợp theo thời gian thực
Giao tiếp mang tính xác suất
Trao đổi dữ liệu đa phương thức (video, hình ảnh, văn bản)
Hệ sinh thái mở đóng vai trò quan trọng:
Không có "khu vườn khép kín"
Tối đa hóa giá trị cho mọi thực thể trong chuỗi
Tương tự như sự phát triển của internet với Linux, Apache, MySQL
Cloud computing bùng nổ nhờ hệ sinh thái nguồn mở như Kubernetes
Cần xây dựng các tiêu chuẩn mở cho:
Khả năng khám phá
Danh tiếng
Nhận dạng
Quản lý rủi ro
Giao tiếp
📌 Internet of Agents sẽ kết nối 20.000 agent AI/doanh nghiệp thông qua hệ sinh thái mở, không "khu vườn khép kín". Agent AI sẽ hiện diện trong mọi phần mềm, hợp tác theo thời gian thực với giao tiếp đa phương thức, đòi hỏi tiêu chuẩn mở cho nhận dạng và bảo mật.
https://venturebeat.com/ai/20000-ai-agents-per-company-how-will-they-all-work-together/
GenAI đang thay đổi cách doanh nghiệp vận hành, nhưng thách thức về bảo mật, hạ tầng cũ và quy định chưa rõ ràng vẫn là rào cản lớn. 99% tổ chức dự kiến tiếp tục đầu tư vào AI tạo sinh, trong đó gần 2/3 sẽ đầu tư ở mức đáng kể. Chiến lược thành công đòi hỏi sự kết hợp giữa hạ tầng mạnh, đội ngũ chuyên trách và các mô hình đã được kiểm chứng. Bảo mật và tính bền vững sẽ là hai yếu tố quan trọng quyết định thành công trong kỷ nguyên GenAI. 🚀
Đầu tư vào AI tạo sinh tăng gấp 6 lần giữa năm 2023 và 2024 tại các công ty Mỹ
Amazon Web Services tiết kiệm 260 triệu USD mỗi năm và tương đương 4.500 năm công lao động nhờ trợ lý lập trình AI
Theo McKinsey, đến giữa năm 2024, chỉ 11% doanh nghiệp triển khai AI tạo sinh ở quy mô lớn
Khảo sát của NTT DATA trên 2.300 lãnh đạo từ 34 quốc gia cho thấy hơn 2/3 CEO tin AI tạo sinh sẽ tạo bước đột phá trong 2 năm tới
Nestlé phát triển công cụ AI tạo sinh riêng giúp rút ngắn thời gian phát triển sản phẩm từ nhiều tháng xuống còn vài tuần
L'Oréal ứng dụng agent trò chuyện AI giúp tăng gấp đôi tỷ lệ chuyển đổi trên kênh mạng xã hội
Chỉ 18% công ty có kế hoạch chuyển đổi văn hóa để áp dụng AI tạo sinh
Công cụ NesGPT của Nestlé giúp tiết kiệm trung bình 45 phút/tuần cho hơn 12.000 nhân viên tại Mỹ
Hơn 4/5 công ty có chiến lược AI tạo sinh, nhưng 50% chưa gắn kết hoàn toàn với chiến lược kinh doanh
📌 AI tạo sinh đang chuyển từ giai đoạn thử nghiệm sang triển khai quy mô lớn. Đầu tư tăng gấp 6 lần trong 2023-2024, với 11% doanh nghiệp đã áp dụng thành công. Các công ty lớn như Amazon, Nestlé tiết kiệm hàng trăm triệu USD và hàng nghìn giờ công nhờ ứng dụng AI tạo sinh.
https://impact.economist.com/projects/gen-ai-grows-up
Shadow AI là các ứng dụng AI được nhân viên tạo ra mà không có sự giám sát của bộ phận IT và bảo mật, nhằm tự động hóa công việc như lập báo cáo, marketing và phân tích dữ liệu
Theo khảo sát của Software AG, 75% nhân viên văn phòng đã sử dụng công cụ AI và 46% khẳng định sẽ tiếp tục dùng dù bị cấm
ChatGPT và Google Gemini là 2 nền tảng được dùng phổ biến nhất, với 73,8% tài khoản ChatGPT và 94,4% tài khoản Gemini là tài khoản cá nhân không có kiểm soát bảo mật
Một giám đốc điển hình có trung bình 22 bot tùy chỉnh khác nhau trên ChatGPT
Các ứng dụng Shadow AI gây ra nhiều rủi ro:
Rò rỉ dữ liệu nhạy cảm khi huấn luyện mô hình AI công cộng
Vi phạm quy định tuân thủ và pháp lý
Dễ bị tấn công qua lỗ hổng bảo mật
Ảnh hưởng đến uy tín doanh nghiệp
7 chiến lược quản trị Shadow AI:
Kiểm toán chính thức về việc sử dụng AI
Thành lập văn phòng AI có trách nhiệm
Triển khai kiểm soát bảo mật nhận biết AI
Lập danh mục AI được phép dùng
Đào tạo nhận thức cho nhân viên
Tích hợp quản trị rủi ro và tuân thủ
Tránh cấm đoán hoàn toàn, thay vào đó cung cấp giải pháp AI an toàn
📌 Shadow AI đang phát triển mạnh với 75% nhân viên sử dụng công cụ AI không được phép. Doanh nghiệp cần kết hợp chiến lược quản trị tập trung, đào tạo người dùng và giám sát chủ động để tận dụng tiềm năng AI một cách an toàn thay vì cấm đoán hoàn toàn.
https://venturebeat.com/security/shadow-ai-unapproved-ai-apps-compromising-security-what-you-can-do-about-it/
🔹 AI tạo sinh (GenAI) và AI tác nhân (Agentic AI) đang nhanh chóng trở thành nền tảng cốt lõi trong quản lý CNTT, với 94% doanh nghiệp đã triển khai.
🔹 Các doanh nghiệp lớn có lợi thế trong triển khai GenAI, với 10% công ty >20.000 nhân viên đã đạt mức triển khai hoàn chỉnh.
🔹 Chatbots, tự động hóa quy trình, hỗ trợ nhân viên IT và phân tích nguyên nhân sự cố là những ứng dụng phổ biến nhất.
🔹 99% doanh nghiệp gặp thách thức khi áp dụng GenAI, đặc biệt là dữ liệu phân tán, tuân thủ quy định và chi phí.
🔹 98% tin rằng lợi ích của GenAI sẽ tiếp tục tăng, với tiềm năng cải thiện bảo mật, tối ưu hóa hiệu suất hệ thống và hỗ trợ quản lý DevOps.
https://www.bmc.com/documents/e-book/the-state-of-generative-and-agentic-ai-for-it.html
- Thời đại của AI "một kích cỡ phù hợp tất cả" đang dần kết thúc khi các doanh nghiệp nhận ra mô hình ngôn ngữ chung thường gặp khó khăn với nhu cầu chuyên ngành
- Trong lĩnh vực AI giọng nói y tế, việc kết hợp nhận dạng giọng nói chính xác với LLM chuyên biệt có thể quyết định sự khác biệt giữa ghi chép chẩn đoán chính xác và sai sót nguy hiểm
- Xu hướng "Bring your own LLM" (BYO-LLM) đang nổi lên cùng với sự xuất hiện của các startup như DeepSeek và Mistral, thách thức vị thế thống trị của OpenAI và Google
- Mỗi ngành có thuật ngữ riêng, việc phụ thuộc vào một nhà cung cấp LLM duy nhất ngày càng rủi ro do công nghệ phát triển nhanh chóng
BYO-LLM cho phép doanh nghiệp:
- Chuyển đổi nhanh sang mô hình tốt hơn mà không cần thay đổi toàn bộ hạ tầng
- Lưu trữ mô hình tại chỗ hoặc chọn nhà cung cấp đáp ứng tiêu chuẩn tuân thủ trong khu vực
Chi phí đào tạo mô hình nền tảng có thể lên tới 8 con số USD, yêu cầu:
- Chuyên gia khoa học dữ liệu (lương cao)
- Năng lực tính toán lớn
- Dữ liệu sạch được gắn nhãn đúng
- Hiệu quả mô hình rất quan trọng với ứng dụng thời gian thực, độ trễ mili giây có thể ảnh hưởng trải nghiệm người dùng
- Hầu hết công ty sẽ được lợi từ việc tích hợp các mô hình có sẵn thay vì tự xây dựng, trừ khi lợi thế cạnh tranh phụ thuộc vào AI độc quyền
📌 BYO-LLM là xu hướng tất yếu khi doanh nghiệp cần AI chuyên biệt. Chi phí xây dựng mô hình nền tảng lên tới 8 con số USD nhưng điều chỉnh mô hình sẵn có là lựa chọn khả thi. Tương lai thuộc về việc tích hợp công cụ phù hợp cho từng tác vụ thay vì dùng mô hình chung.
https://www.techradar.com/pro/your-ai-your-rules-why-byo-llm-bring-your-own-llm-is-the-future
- AI tạo sinh là công nghệ có khả năng định hình lại bản chất công việc, đòi hỏi cần chuyển từ góc độ "AI có thể làm gì" sang "AI nên làm gì"
- Các phân tích thông thường về tác động của AI tạo sinh thường tập trung vào khả năng thực hiện các công việc cụ thể và chia nhỏ thành các nhiệm vụ thành phần
4 câu hỏi quan trọng doanh nghiệp cần xem xét khi tự động hóa:
1. Độ phức tạp của công việc: Càng phức tạp, khả năng tự động hóa càng thấp vì con người vẫn giỏi hơn máy móc trong xử lý tình huống phức tạp
2. Tần suất thực hiện: Công việc lặp lại thường xuyên có xu hướng được tự động hóa cao hơn do máy móc duy trì tốc độ tốt hơn
3. Mức độ kết nối giữa các nhiệm vụ: Chi phí chuyển giao thông tin giữa các khâu càng cao thì càng hạn chế việc chia nhỏ công việc giữa người và AI
4. Chi phí khi thất bại: Rủi ro và hậu quả khi sai sót xảy ra
Ví dụ minh họa về nhân viên tổng đài khách hàng và điều phối viên cấp cứu:
- Tuy có nhiều nhiệm vụ tương đồng nhưng mức độ phức tạp và hậu quả thất bại rất khác nhau
- Với tổng đài khách hàng: tương tác đơn giản, lặp lại nhiều nên dễ tự động hóa
- Với điều phối viên cấp cứu: đòi hỏi xử lý tình huống phức tạp, rủi ro cao nên khó thay thế bằng AI
Trường hợp lập trình viên:
- AI tạo sinh có thể tạo code hiệu quả nhờ nguồn dữ liệu phong phú
- Chi phí chuyển giao thấp nhờ nền tảng phát triển phân tán
- Môi trường test an toàn giúp giảm thiểu rủi ro khi code có lỗi
📌 AI tạo sinh đang thể hiện khả năng xử lý công việc phức tạp với tốc độ cao, linh hoạt hơn tự động hóa truyền thống. Tuy nhiên việc áp dụng cần cân nhắc kỹ 4 yếu tố: độ phức tạp, tần suất, chi phí chuyển giao và rủi ro thất bại của từng loại công việc.
https://www.ft.com/content/9b34b76c-938b-4de4-838f-9c6ef506da19
#FT
- Matt Garman trở thành CEO AWS vào tháng 6/2024 sau 19 năm gắn bó, bắt đầu từ vị trí thực tập sinh
- AWS ra mắt Amazon Bedrock vào tháng 4/2023, cung cấp quyền truy cập vào các mô hình nền tảng từ các công ty AI như Anthropic và Mistral
- Công ty đang xây dựng một trong những siêu máy tính AI mạnh nhất thế giới với Anthropic, sử dụng cụm chip Trainium 2 lớn
- AWS tập trung xây dựng nền tảng bảo mật cao, hiệu suất tốt thay vì vội vàng tung ra chatbot như các đối thủ
- Chip Trainium 2 mang lại hiệu suất chi phí tốt hơn 30-40% so với GPU của Nvidia
- AWS đầu tư 1 tỷ USD tín dụng đám mây cho các startup để thúc đẩy phát triển AI
- Công ty ra mắt mô hình nền tảng Nova, tập trung vào độ trễ thấp và hiệu suất chi phí tốt
- AWS là nhà đầu tư lớn nhất về năng lượng tái tạo trong 5 năm qua, đang đầu tư vào công nghệ hạt nhân
- Ưu tiên năm 2025: duy trì bảo mật xuất sắc, giúp khách hàng chuyển đổi sang đám mây và AI, giảm chi phí AI
📌 AWS theo đuổi chiến lược phát triển AI dài hạn, tập trung vào nền tảng bảo mật với chip Trainium 2 tiết kiệm 30-40% chi phí. Công ty đầu tư 1 tỷ USD cho startup và là nhà đầu tư hàng đầu về năng lượng tái tạo, hướng tới mục tiêu phát thải ròng bằng 0 vào năm 2040.
https://time.com/7225660/amazon-aws-matt-garman-interview/
#TIME
- Snowflake và Anthropic công bố hợp tác tích hợp mô hình Claude 3.5 Sonnet vào nền tảng Cortex Agents của Snowflake
- Mô hình Claude sẽ hoạt động hoàn toàn trong ranh giới bảo mật của Snowflake, giải quyết lo ngại về việc gửi dữ liệu nhạy cảm ra bên ngoài
- Kết quả thử nghiệm nội bộ cho thấy độ chính xác 90% trong các tác vụ chuyển đổi văn bản sang SQL phức tạp
- Siemens Energy đã xây dựng chatbot AI phân tích hơn 500.000 trang tài liệu nội bộ
- Nissan North America đạt độ chính xác 97% trong phân tích phản hồi của khách hàng về trải nghiệm đại lý
- Nền tảng Cortex Agents bao gồm 2 thành phần chính:
- Cortex Analyst: chuyển đổi ngôn ngữ tự nhiên thành truy vấn cơ sở dữ liệu
- Cortex Search: hệ thống tìm kiếm lai vượt trội hơn đối thủ 11% theo tiêu chuẩn đánh giá
- Hệ thống duy trì các tính năng kiểm soát truy cập và tuân thủ quy định hiện có
- Mike Krieger, Giám đốc sản phẩm Anthropic nhấn mạnh doanh nghiệp cần đối tác giúp xây dựng chiến lược AI phù hợp với giá trị và đáng tin cậy
- Christian Kleinerman, Phó chủ tịch điều hành sản phẩm Snowflake kêu gọi sự tham gia của các phòng nghiên cứu trong việc định hình quy định về AI
📌 Hợp tác Snowflake-Anthropic mở ra giải pháp triển khai AI quy mô lớn với độ bảo mật cao. Mô hình Claude 3.5 đạt độ chính xác 90-97% trong phân tích dữ liệu doanh nghiệp, xử lý được 500.000 trang tài liệu, tích hợp hoàn toàn trong hệ thống bảo mật của Snowflake.
https://venturebeat.com/ai/snowflake-expands-ai-tools-with-anthropic-partnership-what-it-means-for-businesses/
- Alibaba Cloud vừa công bố mô hình Qwen2.5-Max, đánh dấu bước đột phá AI thứ hai từ Trung quốc trong vòng chưa đầy một tuần, gây chấn động thị trường công nghệ Mỹ
- Mô hình mới vượt trội so với DeepSeek R1 trong nhiều tiêu chuẩn quan trọng:
+ Arena-Hard: đạt 89,4%
+ Kiểm tra lập luận toán học: đạt 94,5%
+ LiveCodeBench: đạt 38,7%
- Qwen2.5-Max được huấn luyện trên hơn 20 nghìn tỷ token, sử dụng kiến trúc mixture-of-experts giúp tiết kiệm tài nguyên tính toán đáng kể
- Kiến trúc hiệu quả có thể giúp doanh nghiệp giảm 40-60% chi phí cơ sở hạ tầng so với triển khai mô hình ngôn ngữ lớn truyền thống
- Thông báo này làm giảm 17% giá cổ phiếu Nvidia vào thứ Hai, gây lo ngại về vị thế dẫn đầu AI của Mỹ
- Mô hình đã có sẵn thông qua API của Alibaba Cloud, cung cấp khả năng tương tự như các mô hình hàng đầu của Mỹ với chi phí thấp hơn
- Bộ Thương mại Mỹ đã bắt đầu đánh giá cả DeepSeek và Qwen2.5-Max về tác động an ninh quốc gia
- Trong khi các công ty Mỹ tập trung vào việc mở rộng quy mô thông qua sức mạnh tính toán (OpenAI ước tính sử dụng hơn 32.000 GPU cao cấp), các công ty Trung quốc thành công nhờ đổi mới kiến trúc và sử dụng tài nguyên hiệu quả
📌 Qwen2.5-Max của Alibaba chứng minh hiệu quả vượt trội với điểm Arena-Hard 89,4% và độ chính xác lập luận toán học 94,5%, đe dọa vị thế dẫn đầu AI của Mỹ. Mô hình tiết kiệm được 40-60% chi phí hạ tầng nhờ kiến trúc mixture-of-experts đột phá.
https://venturebeat.com/ai/alibabas-qwen2-5-max-challenges-u-s-tech-giants-reshapes-enterprise-ai/
- Oracle đã công bố một bộ AI agent mới nhằm hỗ trợ nhân viên bán hàng trong việc xử lý các tác vụ liên quan đến khách hàng.
- Bộ AI agent này giúp nhân viên bán hàng thực hiện các nhiệm vụ lặp đi lặp lại và phức tạp hơn với tính tự động cao.
- Các agent của Oracle không giống như những trợ lý ảo thông thường mà người tiêu dùng hay sử dụng; chúng được thiết kế để xử lý các tác vụ cụ thể trong lĩnh vực bán hàng.
- Mỗi khi nhân viên bán hàng gặp gỡ khách hàng, họ cần cập nhật thông tin về tiến độ giao dịch. Các agent có khả năng viết những bản cập nhật này.
- Một agent mang tên “customer intelligence” có khả năng truy xuất dữ liệu từ nhiều lĩnh vực phần mềm của Oracle và viết báo cáo cho các nhóm bán hàng.
- Agent này có thể xử lý thông tin đa ngôn ngữ, điều này rất hữu ích khi tiếp xúc với khách hàng quốc tế.
- Ví dụ, nếu một khách hàng lặp lại không nhận được hàng đúng hạn ở một quốc gia khác, hệ thống sẽ thông báo cho nhóm bán hàng tại Mỹ.
- Oracle cho biết các tính năng này đã có sẵn từ ngày 21 tháng 1 năm 2025 và không tính phí thêm cho khách hàng.
📌 Oracle đã ra mắt AI agents hỗ trợ nhân viên bán hàng, không chỉ giúp cập nhật thông tin giao dịch mà còn hỗ trợ xử lý dữ liệu đa ngôn ngữ, tạo điều kiện thuận lợi trong các cuộc đàm phán với khách hàng.
https://www.reuters.com/technology/artificial-intelligence/oracle-rolls-out-ai-agents-sales-professionals-2025-01-21/
- Lãnh đạo hiện đang đứng trước cơn bão hype từ AI, với nhiều thách thức trong việc hiện thực hóa tiềm năng công nghệ mới này.
- Nghiên cứu từ Cisco cho thấy 98% tổ chức toàn cầu cảm thấy cấp thiết hơn về AI trong năm qua.
- 85% tổ chức tin rằng họ chỉ có dưới 18 tháng để triển khai chiến lược AI, nếu không sẽ gặp tác động tiêu cực đến kinh doanh.
- Gần 50% tổ chức đã dành từ 10-30% ngân sách CNTT cho AI, với dự kiến ngân sách sẽ tăng gấp đôi trong những năm tới.
- Trong khi đó, gần một nửa số công ty cho biết việc triển khai AI không đáp ứng được kỳ vọng.
- Chỉ có 13% công ty toàn cầu sẵn sàng khai thác tối đa tiềm năng của AI, giảm 1% so với năm trước.
- Để vượt qua thách thức này, lãnh đạo cần duy trì tầm nhìn rõ ràng, giao tiếp hiệu quả và có tư duy thực tế.
- Phát triển một tầm nhìn rõ ràng và trung thành với nó nhằm định hướng cho các quyết định kinh doanh.
- Giao tiếp thường xuyên và rõ ràng là công cụ quý giá giúp các đội ngũ cảm thấy an tâm và thống nhất.
- Lãnh đạo cần thực tế và nhận diện các bước nhỏ có thể đạt được để tăng sự tự tin và tín nhiệm trong đội ngũ.
- Lãnh đạo cũng cần kiên trì và duy trì sự lạc quan, vượt qua những cơn bão hype để tìm kiếm cơ hội thực sự.
📌 Với 98% tổ chức cảm thấy cấp thiết về AI, lãnh đạo cần phát triển tầm nhìn rõ ràng, giao tiếp hiệu quả và hành động thực tế để dẫn dắt đội ngũ vượt qua cơn bão hype, trong khi chỉ 13% công ty đã sẵn sàng khai thác tiềm năng AI.
https://www.weforum.org/stories/2025/01/how-leaders-can-navigate-the-ai-hype-storm/
#WEF
- Xu hướng "Tự mang AI" (BYOAI) đang gia tăng trong các tổ chức, khi nhân viên sử dụng các công cụ AI tạo sinh chưa được kiểm duyệt cho công việc.
- Khảo sát của Trung tâm nghiên cứu hệ thống thông tin MIT cho thấy mặc dù AI tạo sinh mang lại lợi ích về năng suất, nhưng cũng tiềm ẩn nhiều rủi ro như mất dữ liệu, rò rỉ sở hữu trí tuệ, vi phạm bản quyền và lỗ hổng bảo mật.
- Keith Woolley, Giám đốc kỹ thuật số và thông tin tại Đại học Bristol, cảnh báo về việc các nhà cung cấp SaaS đang tích hợp AI vào dịch vụ của họ, khiến công nghệ mới có thể xâm nhập tổ chức mà không được đội ngũ IT biết đến.
- Mối quan ngại chính của Đại học Bristol là khả năng mất kiểm soát về cách các dịch vụ SaaS được tích hợp AI giao tiếp và chia sẻ nguồn dữ liệu.
- Thay vì cấm hoàn toàn, các chuyên gia khuyến nghị doanh nghiệp nên cởi mở với AI tạo sinh và đưa ra hướng dẫn chặt chẽ để biến BYOAI thành nguồn đổi mới.
- Đại học Bristol đang xây dựng một bộ công cụ được phê duyệt để kiểm soát việc đưa AI vào sử dụng một cách âm thầm trong tổ chức.
- Sinh viên tại Bristol bày tỏ mong muốn được sử dụng AI trong học tập, cho rằng nếu không được phép sử dụng, họ sẽ gặp bất lợi trên thị trường lao động so với những người khác.
- Woolley so sánh việc đưa AI tạo sinh vào giáo dục giống như quá trình chấp nhận máy tính trong lớp học trước đây, và kỳ vọng AI sẽ trở thành một phần không thể thiếu của quá trình học tập trong tương lai.
- Các nhà lãnh đạo tại Bristol đang xem xét 3 phương án: sử dụng AI tạo sinh như một phần của hệ thống giáo dục, cung cấp dữ liệu cho các mô hình hiện có, hoặc phát triển mô hình ngôn ngữ riêng để tạo lợi thế cạnh tranh.
- Roger Joys, Phó chủ tịch nền tảng đám mây doanh nghiệp tại GCI, đề xuất các nhà khoa học dữ liệu nên có danh sách các mô hình AI đã được xem xét và phê duyệt để lựa chọn, thay vì tự ý sử dụng bất kỳ mô hình nào họ tìm thấy.
📌 Xu hướng "Tự mang AI" đang gia tăng trong doanh nghiệp, tiềm ẩn rủi ro về bảo mật và kiểm soát dữ liệu. Các nhà lãnh đạo cần đưa ra chính sách rõ ràng, sử dụng các mô hình AI được phê duyệt, và tập trung vào các trường hợp kinh doanh cụ thể để khai thác tiềm năng của AI một cách an toàn và hiệu quả.
https://www.zdnet.com/article/why-the-bring-your-own-ai-trend-could-mean-big-trouble-for-business-leaders/
- Lộ trình AI là cần thiết để biến ý tưởng AI thành chuỗi các bước cụ thể nhằm tạo ra giá trị kinh doanh ở quy mô lớn.
- Công cụ lộ trình AI của Gartner giúp lập kế hoạch và thực hiện các nhiệm vụ ưu tiên để triển khai AI trên quy mô lớn, bao gồm 7 luồng công việc chính:
- Luồng 1 - Chiến lược AI:
- Xác định tham vọng AI phù hợp với chiến lược kinh doanh
- Thiết lập quy trình tinh chỉnh chiến lược và đo lường thành công
- Luồng 2 - Giá trị AI:
- Ưu tiên các trường hợp sử dụng ban đầu và thí điểm
- Xây dựng danh mục sản phẩm AI tập trung vào tạo giá trị liên tục
- Luồng 3 - Tổ chức AI:
- Lập kế hoạch nguồn lực đáp ứng nhu cầu ban đầu
- Phát triển mô hình vận hành mục tiêu để mở rộng quy mô AI
- Luồng 4 - Con người và văn hóa AI:
- Xây dựng kế hoạch nhân lực xác định khoảng trống tài năng
- Đánh giá tác động của AI đối với lực lượng lao động
- Luồng 5 - Quản trị AI:
- Xác định rủi ro AI chính và thiết lập nguyên tắc, chính sách
- Thiết lập cấu trúc quản trị AI và mô hình vận hành
- Luồng 6 - Kỹ thuật AI:
- Thiết lập môi trường sandbox để thử nghiệm
- Xây dựng thực hành ModelOps và kỹ thuật nền tảng AI
- Luồng 7 - Dữ liệu AI:
- Đánh giá mức độ sẵn sàng dữ liệu cho các trường hợp sử dụng ban đầu
- Phát triển khả năng quản lý dữ liệu dành riêng cho AI
- Không có lộ trình AI "một kích cỡ phù hợp tất cả". CIO cần chọn và sắp xếp các hoạt động phù hợp nhất với chiến lược AI và mức độ trưởng thành AI của tổ chức.
📌 Lộ trình AI là công cụ thiết yếu giúp CIO biến tiềm năng AI thành giá trị kinh doanh thực tế. Bằng cách tập trung vào 7 luồng công việc chính từ chiến lược đến kỹ thuật, các tổ chức có thể xây dựng lộ trình AI phù hợp để triển khai AI thành công ở quy mô lớn.
https://www.gartner.com/en/articles/ai-roadmap
- Nghiên cứu của Harmonic phân tích hàng ngàn câu hỏi nhập vào các nền tảng AI tạo sinh như Microsoft Copilot, OpenAI ChatGPT, Google Gemini, Anthropic's Clause và Perplexity.
- Kết quả cho thấy 8,5% câu hỏi chứa dữ liệu nhạy cảm, gây rủi ro bảo mật cho doanh nghiệp.
- Dữ liệu nhạy cảm được chia thành 5 loại chính:
- Dữ liệu khách hàng: chiếm 45,77%
- Dữ liệu nhân viên: 27%
- Thông tin pháp lý và tài chính: 14,88%
- Thông tin bảo mật: 6,88%
- Mã nguồn nhạy cảm: 5,64%
- Dữ liệu khách hàng bị rò rỉ nhiều nhất, bao gồm thông tin thanh toán, xác thực, hồ sơ khách hàng, giao dịch, thẻ tín dụng.
- Dữ liệu nhân viên bị lộ gồm đánh giá hiệu suất, quyết định tuyển dụng, thưởng, hồ sơ việc làm, thông tin cá nhân, lương.
- Thông tin pháp lý và tài chính bị lộ ít hơn nhưng gây rủi ro lớn, bao gồm chi tiết đường ống bán hàng, thông tin sáp nhập và mua lại, dữ liệu tài chính.
- Thông tin bảo mật và mã nguồn bảo mật chiếm tỷ lệ thấp nhưng đang tăng nhanh và gây lo ngại. Bao gồm kết quả kiểm tra thâm nhập, cấu hình mạng, kế hoạch sao lưu.
- Các chuyên gia cho rằng doanh nghiệp khó có thể từ bỏ AI tạo sinh vì lợi ích cạnh tranh.
- Stephen Kowski, CTO tại SlashNext Email Security+, cho rằng không áp dụng AI tạo sinh sẽ khiến doanh nghiệp mất lợi thế về hiệu quả, năng suất và đổi mới.
- Tuy nhiên, Kris Bondi, CEO của Mimoto, cho rằng sử dụng AI chỉ vì muốn dùng AI sẽ thất bại nếu không phục vụ nhu cầu thực sự.
- Để giảm thiểu rủi ro, Harmonic đề xuất các giải pháp:
- Triển khai hệ thống theo dõi đầu vào AI tạo sinh theo thời gian thực
- Xác định và sử dụng các gói trả phí cho công việc
- Giám sát toàn diện các công cụ AI
- Phân loại dữ liệu nhạy cảm
- Tạo và thực thi quy trình làm việc
- Đào tạo nhân viên về thực hành tốt nhất và rủi ro khi sử dụng AI tạo sinh
📌 Nghiên cứu cho thấy 8,5% câu hỏi AI tạo sinh chứa dữ liệu nhạy cảm, chủ yếu là thông tin khách hàng (45,77%) và nhân viên (27%). Doanh nghiệp cần cân bằng giữa lợi ích cạnh tranh và rủi ro bảo mật khi áp dụng AI, đồng thời triển khai các giải pháp quản trị AI hiệu quả.
https://www.darkreading.com/threat-intelligence/employees-sensitive-data-genai-prompts
- AI tạo sinh có thể cải thiện đáng kể khả năng học hỏi của tổ chức. Sự ra mắt của ChatGPT vào tháng 11 năm 2022 đã mở ra thời điểm mới cho tự động hóa, giúp con người tương tác với máy bằng ngôn ngữ tự nhiên.
- Công nghệ này cho phép tạo ra, nắm bắt và chuyển giao kiến thức trong tổ chức một cách dễ dàng hơn bao giờ hết.
- Các nhà lãnh đạo cần xem AI tạo sinh không chỉ là công nghệ mới mà là một năng lực tổ chức, mở ra cơ hội cho cải tiến quy trình và quyết định.
- Hai ví dụ nổi bật là Blue Cross Blue Shield of Michigan (BCBSM) và Wolters Kluwer, nơi họ xem AI tạo sinh như một khả năng toàn doanh nghiệp và áp dụng vào nhiều lĩnh vực khác nhau.
- BCBSM tiết kiệm hơn 10 triệu USD nhờ áp dụng AI tạo sinh trong phân tích và chuẩn hóa hợp đồng.
- Wolters Kluwer tạo ra môi trường học hỏi cho nhân viên qua các buổi chia sẻ, giúp tăng cường kỹ năng và sự gắn kết với công ty.
- Các nghiên cứu cho thấy AI tạo sinh có thể cải thiện năng suất trong nhiều lĩnh vực, ví dụ như tăng 14% năng suất cho nhân viên trung tâm cuộc gọi và 12% cho tư vấn viên.
- AI tạo sinh không chỉ nâng cao năng suất mà còn thúc đẩy mô hình quản lý mới, gọi là lý thuyết A, trong đó cả con người và máy tính làm việc cùng nhau để cải thiện quy trình học hỏi.
- 3 khả năng mới mà AI tạo sinh mang lại:
1. Quy trình và sản phẩm có thể đối thoại, giải thích cho người dùng.
2. Nhân viên có thể tạo ra các công cụ AI riêng cho công việc của họ.
3. Xử lý hiệu quả dữ liệu phi cấu trúc, như thông tin không nằm trong các hệ thống truyền thống.
- Điều này tạo ra sự khác biệt trong cách thức học hỏi của tổ chức, giúp cải thiện quy trình và tăng cường khả năng cạnh tranh.
- Một ví dụ đáng chú ý là Jerry Insurance, nơi AI tạo sinh tự động hóa gần 90% tương tác với khách hàng, giảm đáng kể khối lượng công việc cho nhân viên.
- Các tổ chức nên suy nghĩ chiến lược hơn về việc xây dựng khả năng AI tạo sinh, giúp họ tối ưu hóa quy trình và cải thiện năng suất dài hạn.
📌 AI tạo sinh không chỉ đơn thuần là công nghệ mới mà còn là năng lực tổ chức, tạo ra cơ hội tăng trưởng và đổi mới. Các tổ chức như BCBSM và Wolters Kluwer đã chứng minh rằng việc áp dụng AI tạo sinh có thể mang lại lợi ích kinh tế rõ rệt và tăng cường khả năng học hỏi trong môi trường làm việc.
https://sloanreview.mit.edu/article/turbocharging-organizational-learning-with-genai/
#MIT
Tăng tốc học hỏi tổ chức với GenAI
Bằng cách hợp tác, con người và các tác nhân máy móc có thể mở rộng đáng kể việc chia sẻ tri thức, đổi mới và tạo lợi thế cạnh tranh.
Paul Baier và John J. Sviokla
Ngày 13 tháng 1 năm 2025
Trí tuệ nhân tạo tạo sinh (GenAI) có thể cải thiện một cách căn bản khả năng học hỏi của tổ chức. Khi OpenAI ra mắt ChatGPT vào tháng 11 năm 2022, lần đầu tiên trong hơn 200 năm lịch sử của tự động hóa tiên tiến, máy móc bắt đầu "trả lời" con người. Thay vì phải "nói" bằng Java hay Python, mọi người có thể sử dụng ngôn ngữ hàng ngày — lý do khiến công cụ này thu hút hơn 100 triệu người dùng chỉ trong hai tháng đầu tiên ra mắt công chúng.
Hơn thế nữa, bằng cách thúc đẩy tương tác qua ngôn ngữ tự nhiên và xử lý linh hoạt các dữ liệu không có cấu trúc như văn bản, hình ảnh, số liệu và âm thanh, GenAI đã mở ra một phương thức hoàn toàn mới để tạo ra, thu thập và chuyển giao tri thức tổ chức. Trong bài viết này, chúng tôi sẽ lập luận rằng các nhà lãnh đạo cần xem GenAI như một khả năng tổ chức mới, không chỉ vì nó tự động hóa nhiều nhiệm vụ một cách kinh tế. Khi kết hợp với AI truyền thống, GenAI mở rộng phạm vi cải tiến tiềm năng trong nhiều quy trình và quyết định, đồng thời giúp áp dụng kiến thức mới dễ dàng hơn. Điều này tạo ra tiềm năng cho một hiệu ứng cộng gộp tích cực về học hỏi tổ chức, nơi con người và các tác nhân máy móc phối hợp để tạo ra lợi thế cạnh tranh mới.
Nghịch lý thay, chính tính tổng quát và khả năng áp dụng rộng rãi của GenAI có thể khiến việc áp dụng nó trở nên thách thức. Trong nghiên cứu của chúng tôi, các tổ chức tiên tiến nhất coi GenAI không phải như một công nghệ riêng lẻ mà như một khả năng tổ chức. Hai ví dụ sau minh họa quan điểm này:
Blue Cross Blue Shield of Michigan (BCBSM): Nhà cung cấp bảo hiểm y tế trị giá 35 tỷ USD này đã triển khai một nhóm lãnh đạo GenAI/AI đa chức năng để giáo dục nhân viên về cách sử dụng công nghệ, tuân thủ các thực hành AI có trách nhiệm, cải thiện hiệu quả một cách đo lường được trong hàng loạt dự án và đổi mới các quy trình cốt lõi như xem xét hợp đồng và quản lý quyền lợi. Khi BCBSM áp dụng một công cụ GenAI để cải thiện việc phân tích và chuẩn hóa các điều khoản và giá cả trong các dịch vụ, công ty đã tiết kiệm hơn 10 triệu USD bằng cách áp dụng công cụ này vào hợp đồng CNTT hiện có.
Wolters Kluwer: Công ty thông tin kinh doanh và học thuật trị giá 4,2 tỷ euro này đã tạo ra “khoảng thời gian linh hoạt” cho việc học tập. Lãnh đạo công ty lên lịch một giờ mỗi tuần để toàn bộ nhân viên tham dự các buổi học do đồng nghiệp dẫn dắt, với phần lớn nội dung tập trung vào các ứng dụng thực tiễn của GenAI/AI. Cách tiếp cận này giúp tăng cường kỹ năng, đổi mới và thậm chí cả mức độ gắn bó của nhân viên. Các buổi học không chỉ tạo ra một cộng đồng học hỏi năng động mà còn cung cấp phương tiện để nhân viên chia sẻ những sáng kiến của mình với cộng đồng rộng lớn hơn.
Cả hai công ty trên đều thành công nhờ xem GenAI/AI như một khả năng tổ chức mang tính toàn diện. Họ cam kết với cả sự lãnh đạo từ trên xuống và sự hứng khởi từ dưới lên, thúc đẩy các môi trường học tập cho phép thử nghiệm nhanh chóng và tạo ra giá trị.
Các nghiên cứu nghiêm ngặt về năng suất do GenAI mang lại đã chỉ ra một xu hướng cải thiện rộng rãi. Một nghiên cứu cho thấy năng suất của các nhân viên trung tâm cuộc gọi tăng ít nhất 14% khi họ được hỗ trợ bởi một công cụ hội thoại dựa trên GenAI, cùng với chất lượng dịch vụ cao hơn và thời gian đào tạo nhân viên mới nhanh hơn.
Một nghiên cứu khác đã phân tích hơn 758 nhà tư vấn tại Boston Consulting Group. Khi công cụ GenAI được sử dụng phù hợp với nhiệm vụ, năng suất tăng 12% và tốc độ hoàn thành nhiệm vụ tăng 25%. Tương tự như trong nghiên cứu trung tâm cuộc gọi, những nhân viên có hiệu suất thấp hơn lại nhận được lợi ích lớn hơn từ công cụ này so với những người có kinh nghiệm.
Kể từ khi các nghiên cứu này được thực hiện vào năm 2023, khả năng của các mô hình ngôn ngữ lớn (LLMs) và các phần mềm hỗ trợ khác đã không ngừng được cải thiện.
GenAI đại diện cho một sự thay đổi căn bản trong kinh tế học của công việc liên quan đến WINS — Words (từ ngữ), Images (hình ảnh), Numbers (số liệu), và Sounds (âm thanh). Chúng tôi đã giới thiệu thuật ngữ này trong một bài viết trên Harvard Business Review vào tháng 9 năm 2023 vì chúng tôi tin rằng khái niệm “công việc nhận thức” (cognitive work) quá rộng.
Ví dụ: Một thợ mộc và một luật sư đều có thể được coi là làm công việc nhận thức, nhưng tác động của GenAI sẽ lớn hơn và nhanh hơn đối với luật sư so với thợ mộc.
Công việc WINS bao gồm các lĩnh vực như:
Tóm lại, mọi tổ chức đều có công việc WINS và hoàn toàn có thể cải thiện triệt để nhờ GenAI.
Vào thập niên 1960, Douglas McGregor, giáo sư tại Trường Quản lý Sloan của MIT, đã đưa ra lý thuyết X và Y để giải thích cách hệ thống quản lý ảnh hưởng đến người lao động.
Tiếp đó, nhà tâm lý học Abraham Maslow đề xuất Lý thuyết Z, nhấn mạnh rằng văn hóa, ý nghĩa và mục đích của tổ chức có thể dẫn đến sự cam kết mạnh mẽ của nhân viên với các mục tiêu chung.
Ngày nay, chúng ta cần một Lý thuyết A mới, nơi đơn vị phân tích cốt lõi là các tác nhân — bao gồm cả con người và máy móc — làm việc cùng nhau thông qua đối thoại. Các tác nhân này có thể hỗ trợ, bổ trợ hoặc tự động hóa, tùy thuộc vào mức độ cấu trúc của nhiệm vụ.
GenAI mang lại ba khả năng cơ bản cho mô hình quản lý mới này:
Quy trình và sản phẩm được kích hoạt bởi đối thoại.
GenAI là công nghệ đầu tiên có thể tương tác bằng ngôn ngữ tự nhiên, cho phép các quy trình và sản phẩm tự giải thích. Ví dụ, như cách chúng ta không còn sử dụng bản đồ giấy cho chuyến đi, trong tương lai gần, ý tưởng rằng máy móc không thể giải thích cách hoạt động của chúng sẽ trở nên lạc hậu.
Nhân viên lập trình viên.
GenAI cho phép nhân viên tạo ra các tác nhân và công cụ AI của riêng mình. Điều này giống như cách các thợ máy tạo ra các công cụ tùy chỉnh, nhưng cho công việc nhận thức. Sự bùng nổ của các công cụ WINS này sẽ làm tăng năng suất đáng kể cho tổ chức.
Xử lý dữ liệu không có cấu trúc.
GenAI có thể xử lý 80%-90% dữ liệu không có cấu trúc mà trước đây nằm ngoài tầm với của tự động hóa truyền thống. Ví dụ, MIT đã tạo chatbot bằng CustomGPT.ai để hướng dẫn sinh viên lựa chọn khóa học chỉ bằng cách tải lên mô tả và lịch trình khóa học.
Ba trụ cột này cho phép GenAI tăng tốc đáng kể đường cong học tập của tổ chức thông qua:
Công nghệ này không chỉ tương tác hiệu quả với dữ liệu truyền thống mà còn tạo ra một phương pháp mới để nắm bắt và chuyển giao kiến thức, đồng thời thiết lập nền tảng cho sự cải tiến liên tục.
Hơn thế nữa, cách tiếp cận kết hợp giữa mục tiêu của con người và các tác nhân GenAI được tổ chức trong một hệ thống học tập đang trở thành đơn vị phân tích mới trong việc thiết kế công việc.
Thúc đẩy năng suất với GenAI và học hỏi dựa trên AI
Trong nhiều buổi báo cáo và đào tạo dành cho các lãnh đạo doanh nghiệp mà chúng tôi tổ chức, chúng tôi nhận thấy rằng phần lớn mọi người không có trực giác tốt về cách GenAI và AI tạo ra giá trị kinh tế. Họ thường có tư duy “tất cả hoặc không có gì” khi nói đến tự động hóa. Để giải quyết vấn đề này một cách thực tế, chúng tôi sử dụng mô hình Keen-Scott Morton, mang đến cái nhìn sâu sắc về cách GenAI nâng cao năng suất.
Peter G.W. Keen và Michael S. Scott Morton đã xây dựng mô hình dựa trên hai chiều:
Các nhiệm vụ có cấu trúc hoàn toàn thường có ngôn ngữ mô tả rõ ràng, phương pháp xác định câu trả lời đã được thiết lập, và các tiêu chí đánh giá chất lượng câu trả lời mang tính khách quan. Ví dụ, điểm FICO được sử dụng để cấu trúc vấn đề đánh giá tín dụng, biến một nhiệm vụ khó khăn và linh hoạt thành một quy trình có cấu trúc rõ ràng.
Jerry Insurance, một công ty khởi nghiệp phục vụ hơn 4 triệu khách hàng trong việc chọn bảo hiểm xe hơi và tái cấp vốn vay mua xe, minh họa cách GenAI có thể cấu trúc các nhiệm vụ không có cấu trúc rõ ràng.
Trước khi áp dụng GenAI, các yêu cầu của khách hàng qua chat được xử lý ở dạng bán cấu trúc, đòi hỏi sự can thiệp của con người. Sau khi triển khai GenAI vào tháng 4 năm 2023, công ty tự động hóa được 89% các tương tác, chỉ chuyển 11% trường hợp phức tạp lên cho con người xử lý.
Một nhóm chatbot được thiết kế không chỉ xử lý ngôn ngữ mà còn có thể nhận biết giọng điệu và cảm xúc của khách hàng. Nếu cần thiết, chatbot có thể ngay lập tức chuyển cuộc gọi cho nhân viên con người để xử lý.
Hệ thống GenAI tại Jerry Insurance đã từng bước cấu trúc các cuộc trò chuyện vốn dĩ mơ hồ này, với sự hỗ trợ liên tục từ đội ngũ chăm sóc khách hàng. Ban đầu, nhóm AI cốt lõi xây dựng các mô hình GenAI, sau đó đào tạo nhân viên chăm sóc khách hàng để sử dụng và cập nhật các mô hình này, đảm bảo chúng không ngừng được cải thiện.
Cách tiếp cận này thay đổi hoàn toàn bản chất công việc và năng lực vận hành. Lãnh đạo Jerry Insurance tin rằng họ có thể xử lý gấp ba lần số lượng khách hàng mà vẫn duy trì số lượng nhân viên chăm sóc khách hàng ở mức 32 người. Đây không phải là một sự tự động hóa "một lần và xong." Hiện tại, công ty đang mở rộng cải tiến sang các quy trình khác, bắt đầu từ các cuộc gọi thoại bên cạnh văn bản và chat.
Quan trọng hơn cả, việc học hỏi này không chỉ giới hạn trong nội bộ các công ty. GenAI đang trở thành giao diện người dùng mới. Các mô hình ngôn ngữ lớn (LLMs) có thể:
Trong tương lai, mỗi sản phẩm, quy trình, và tương tác quan trọng sẽ có một tác nhân thông minh để giải thích cách sử dụng và chẩn đoán nhu cầu khách hàng.
Để tận dụng khả năng rộng lớn của GenAI và sự hợp tác giữa con người và máy móc, các nhà lãnh đạo cần nhìn nhận GenAI không chỉ là một công nghệ khác mà là một phong trào quản lý mới.
Chúng tôi gợi ý áp dụng cách tiếp cận có cấu trúc để xây dựng năng lực GenAI, lấy cảm hứng từ hệ thống xếp hạng đai trong võ thuật. Điều này bao gồm các lộ trình phát triển chuyên môn rõ ràng:
Phát triển năng lực GenAI: Lộ trình từ cơ bản đến chuyên sâu
Việc áp dụng một hệ thống xếp hạng năng lực như trong phong trào chất lượng có thể giúp các lãnh đạo đo lường khả năng tổ chức của doanh nghiệp mình khi triển khai GenAI. Dưới đây là các cấp độ phát triển năng lực, từ cơ bản đến chuyên sâu, tương tự hệ thống đai trong võ thuật:
Cách tiếp cận này không chỉ cung cấp thước đo cụ thể về năng lực mà còn mang tính thực tiễn cao. Ví dụ:
Trong một xưởng máy tiên tiến, người thợ máy có khả năng tạo các dụng cụ tùy chỉnh sẽ làm tăng năng suất cho toàn bộ xưởng. Tương tự, GenAI giúp bất kỳ nhân viên nào trong tổ chức có thể tạo ra các tác nhân hoặc robot phục vụ công việc nhận thức.
Sự bùng nổ các công cụ GenAI dành cho công việc WINS đang mở rộng khả năng học hỏi của tổ chức và tích hợp những kiến thức quy trình hoặc sản phẩm đã đạt được vào các tác nhân tự động hoặc robot đơn giản. Chúng sẽ giống như các ứng dụng trong cửa hàng ứng dụng (app store) nhưng dễ tạo ra hơn rất nhiều.
Lý thuyết A (Theory A) khuyến khích các tổ chức suy nghĩ về cách chuyển từ hỗ trợ, đến bổ sung, và cuối cùng là tự động hóa hoàn toàn. Nó cũng đặt câu hỏi: Những nhiệm vụ mới nào mà con người có thể đảm nhận nhờ các mô hình AI tiên tiến này?
Sử dụng cách tiếp cận Theory A có thể:
Thay vì cố gắng tìm kiếm một ứng dụng đột phá (killer app), các tổ chức nên tập trung xây dựng khả năng GenAI toàn diện. Điều này cho phép tổ chức:
Bằng cách áp dụng cách tiếp cận lấy cảm hứng từ phong trào chất lượng và coi tổ chức như một đối thoại giữa các “trí tuệ đồng sáng tạo” (co-intelligences), các lãnh đạo có thể dẫn dắt tổ chức vượt qua bối cảnh mới này và khai thác tiềm năng to lớn từ sự kết hợp giữa GenAI và AI để duy trì lợi thế cạnh tranh bền vững.
Paul Baier và John J. Sviokla là đồng sáng lập của GAI Insights, một công ty nghiên cứu và chia sẻ các thực hành tốt nhất về trí tuệ nhân tạo và GenAI. Cả hai đều là nghiên cứu sinh điều hành tại Trường Kinh doanh Harvard.
.
- Microsoft vừa ra mắt Microsoft 365 Copilot Chat, phiên bản miễn phí mới dành cho doanh nghiệp, tích hợp khả năng sử dụng các tác nhân AI.
- Mục tiêu chính là thúc đẩy doanh nghiệp sử dụng AI trong công việc, nhằm khuyến khích họ đăng ký gói Microsoft 365 Copilot trả phí 30 USD mỗi tháng.
- Jared Spataro, giám đốc tiếp thị AI tại Microsoft, cho biết đây là một dịch vụ chat an toàn, được phát triển với sức mạnh từ GPT.
- Người dùng có khả năng tải lên các tệp và sử dụng tương tác tương tự như các đối thủ cạnh tranh, có thể so sánh với ChatGPT và Gemini của Google.
- Giao diện Copilot Chat là phiên bản đổi thương hiệu từ Bing Chat Enterprise, nay bao gồm cả các tác nhân AI trong giao diện chat.
- Các tác nhân AI hoạt động như những đồng nghiệp ảo, có thể theo dõi hộp thư điện tử hoặc tự động hóa nhiều tác vụ khác nhau.
- Tính năng Copilot Studio cho phép người dùng tạo và sử dụng các tác nhân dựa trên dữ liệu web và dữ liệu từ Microsoft Graph.
- Microsoft đã phát triển các phương thức kiểm soát chi phí sử dụng các tác nhân AI, bao gồm tùy chọn thanh toán theo nhu cầu và gói tiêu thụ.
- Chi phí sử dụng được tính dựa trên số tin nhắn, với giá cả tương ứng từ 1 cent đến 30 cents cho mỗi tin nhắn tùy theo loại câu trả lời.
- Một tác nhân trả lời câu hỏi liên quan đến chính sách nhân sự trong một ngày có thể tiêu thụ lên tới 6.400 tin nhắn, tương đương 64 USD.
- Trải nghiệm chat của Copilot Chat sử dụng GPT-4o, với khả năng tóm tắt tài liệu Word và phân tích dữ liệu trong bảng tính Excel.
- Hiện tại, Copilot Chat đã thu hút một số lượng lớn người dùng từ các doanh nghiệp sử dụng phần mềm và dịch vụ của Microsoft.
- Microsoft kỳ vọng rằng Copilot Chat sẽ thuyết phục nhiều doanh nghiệp hơn đăng ký sử dụng các dịch vụ AI của mình.
📌 Microsoft 365 Copilot Chat ra mắt miễn phí, tích hợp tác nhân AI, với chi phí sử dụng linh hoạt, hứa hẹn mang lại trải nghiệm AI chất lượng cho doanh nghiệp. Copilot Chat đang thu hút doanh nghiệp với sức mạnh của GPT và các tính năng độc đáo.
https://www.theverge.com/2025/1/15/24344214/microsoft-365-copilot-chat-agents-pricing-availability
- Sự tự chủ của đại lý (agent) AI mang lại nhiều thách thức cho các doanh nghiệp trong việc cân bằng giữa giám sát và tự do.
- Giám sát quá mức có thể làm giảm năng suất, trong khi tự do không kiểm soát có thể gây ra rủi ro cho thương hiệu và mối quan hệ với khách hàng.
- Cần hiểu rõ các rủi ro liên quan để quyết định mức độ tự chủ cần thiết cho các đại lý AI.
- Các đại lý AI đang tiến hóa từ chatbot cơ bản thành các hệ thống nhận thức có khả năng suy nghĩ chiến lược, lập kế hoạch và học hỏi từ kinh nghiệm.
- Kinh nghiệm từ các tình huống rủi ro trong quá khứ cho thấy sự cần thiết phải kết hợp dữ liệu và bối cảnh để các đại lý AI hoạt động hiệu quả hơn.
- 3 loại vấn đề cần xem xét khi xác định mức độ tự chủ cho đại lý AI bao gồm:
- Vấn đề phức tạp: Có thể kiểm soát được và thường thích hợp cho tự chủ cao, như trong trường hợp ngân hàng tự động điều chỉnh dữ liệu khi có thay đổi lãi suất.
- Vấn đề mơ hồ: Có nhiều biến số không xác định, cần thêm dữ liệu để đưa ra quyết định chính xác hơn, ví dụ như ô tô tự lái gặp trở ngại.
- Vấn đề không chắc chắn: Khó khăn nhất để xác định, cần sự can thiệp của con người, ví dụ như trong các tình huống khẩn cấp hoặc khủng hoảng.
- Việc tự động hóa các nhiệm vụ có thể giúp các doanh nghiệp tiết kiệm thời gian và giảm rủi ro, nhưng cần có sự giám sát hợp lý để tránh các quyết định sai lầm.
- Thị trường AI đang chứng kiến sự chuyển mình mạnh mẽ, với hàng tỷ đại lý AI sẽ tham gia vào lực lượng lao động trong tương lai gần.
📌 Các doanh nghiệp cần cân nhắc kỹ lưỡng trong việc phân chia quyền tự chủ cho đại lý AI. 3 loại vấn đề (phức tạp, mơ hồ, không chắc chắn) sẽ hướng dẫn quyết định giám sát và tự do, đảm bảo sự an toàn và hiệu suất cao trong hoạt động.
https://hbr.org/2025/01/how-much-supervision-should-companies-give-ai-agents?ab=HP-topics-text-2
#HBR
Công ty nên giám sát các tác nhân AI đến mức nào?
Tác giả: Mike Walsh
Ngày 15 tháng 1 năm 2025
Tóm tắt:
Tính tự chủ của các tác nhân AI là một vấn đề nan giải. Trong nhiều trường hợp, cần có sự giám sát, chẳng hạn như một con người trong chu trình ra quyết định, để tránh thảm họa. Tuy nhiên, nếu giám sát quá mức, năng suất sẽ bị giảm sút. Nếu trao quá ít quyền, khả năng của tác nhân AI bị giới hạn ở mức trả lời các câu hỏi cơ bản. Nhưng nếu để chúng có quá nhiều tự do, thương hiệu, uy tín, mối quan hệ khách hàng và thậm chí cả sự ổn định tài chính đều có nguy cơ bị tổn hại.
Chúng ta đang chứng kiến sự chuyển đổi mang tính cách mạng từ các chatbot cơ bản sang các tác nhân nhận thức thực sự — những hệ thống có thể tư duy chiến lược, lập kế hoạch và học hỏi từ thành công lẫn thất bại. Tuy nhiên, nếu luôn đưa con người vào chu trình, chúng ta khó có thể đạt được những lợi ích thực sự từ sự chuyển đổi AI. Vì vậy, mức độ tự do nào nên được trao cho các tác nhân AI? Câu trả lời không chỉ dựa trên mức độ rủi ro mà còn dựa trên khả năng hiểu rõ rủi ro đó.
Tác nhân AI là các hệ thống hành động. Khác với chatbot, chúng sử dụng các mô hình ngôn ngữ lớn để tổ chức các hoạt động giải quyết vấn đề phức tạp, bao gồm lập kế hoạch, lý luận và thậm chí tương tác với các tác nhân AI khác. Hãy nghĩ về chúng như những đồng nghiệp ảo hiệu quả cao hoặc một dạng lao động kỹ thuật số.
Hàng tỷ tác nhân AI sẽ sớm gia nhập lực lượng lao động và thay đổi đáng kể hiệu quả đầu ra của các công ty. Mục đích của một tác nhân AI là hoàn thành công việc — từ việc nhân viên xin nghỉ phép, trợ lý bán hàng đưa ra khuyến nghị cá nhân hóa cho khách hàng, đến giám đốc dược phẩm xác định các ứng viên phù hợp nhất cho một thử nghiệm lâm sàng.
Chúng có thể trở thành lớp kiểm soát bao quanh mọi giao dịch, thay thế các giao diện phức tạp và quy trình rườm rà của các nền tảng phần mềm doanh nghiệp. Tính đơn giản và hữu ích của chúng là một thách thức trực tiếp đối với các nhà cung cấp phần mềm như dịch vụ truyền thống (SaaS) cũng như các nhà lãnh đạo công nghệ không chuẩn bị cho sự lan rộng nhanh chóng của chúng.
Tính tự chủ của tác nhân AI là một bài toán khó. Giám sát quá nhiều sẽ làm mất đi lợi ích về năng suất. Tuy nhiên, trong nhiều trường hợp, giám sát lại cần thiết để tránh hậu quả nghiêm trọng.
Từ khi AI tạo sinh xuất hiện, đã có nhiều ví dụ cho thấy sự “hỗn loạn thuật toán” khiến các nhà lãnh đạo phải cảnh giác — từ một chatbot của đại lý ô tô đề nghị bán xe mới với giá 1 USD, đến một hãng hàng không bị kiện vì chatbot AI "bịa ra" chính sách không tồn tại.
Để giảm thiểu vấn đề này, các tổ chức đang phát triển các tác nhân AI kết nối trực tiếp với hệ thống và dữ liệu nội bộ. Điều này tạo ra một con dao hai lưỡi: tác nhân AI ít có khả năng "bịa đặt" nếu dựa vào dữ liệu nội bộ, nhưng mức độ tin cậy tăng lên cũng đồng nghĩa với việc chúng có thể đưa ra các quyết định quan trọng, như phê duyệt khoản vay mua nhà, phân bổ an sinh xã hội, bảo vệ cơ sở hạ tầng quan trọng khỏi tấn công mạng, tuyển dụng hoặc sa thải nhân viên, hay thậm chí kiểm soát các hệ thống vũ khí.
Một giải pháp rõ ràng cho vấn đề an toàn AI là đưa con người vào chu trình cho mọi quyết định có hậu quả nghiêm trọng. Tuy nhiên, cách tiếp cận này có thể dẫn đến kết quả ngược lại.
Hãy xem xét Waymo, dịch vụ taxi tự lái trước đây là dự án xe tự hành của Google. Rủi ro trong việc để một cỗ máy chở người ở tốc độ cao, đưa ra quyết định đột ngột, rõ ràng là cực kỳ lớn. Waymo có trung tâm vận hành công nghệ tên Fleet Response, giám sát các chuyến xe trong thời gian thực. Nhưng thay vì trực tiếp điều khiển xe từ xa khi gặp sự cố (do độ trễ nguy hiểm), các nhân viên của Waymo chỉ trả lời câu hỏi từ xe tự hành khi cần thiết.
Cách làm này giúp hệ thống AI của họ học hỏi, trở nên đáng tin cậy hơn và tăng cường khả năng vận hành dài hạn. Điều này cho thấy một cách tiếp cận khác biệt: không dựa vào mức độ rủi ro, mà dựa trên việc rủi ro đó có thể giảm thiểu bằng dữ liệu và ngữ cảnh hay không.
Vấn đề phức tạp
Các vấn đề này khó quản lý nhưng có thể xác định rõ và lập tài liệu, làm cho chúng phù hợp với tính tự chủ cao và giám sát tối thiểu. Ví dụ: khi Cục Dự trữ Liên bang thay đổi lãi suất, các hệ thống tự động có thể điều chỉnh dữ liệu trên nhiều nền tảng để cập nhật thông tin.
Vấn đề mơ hồ
Những vấn đề này có nhiều biến số không xác định rõ ràng, nhưng có thể cải thiện dự đoán bằng cách thu thập thêm dữ liệu. Ví dụ: một xe tự lái đối mặt với vật cản bất ngờ.
Vấn đề bất định
Đây là loại vấn đề khó khăn nhất vì chúng không thể định nghĩa rõ ràng, và thêm dữ liệu cũng không giúp ích nhiều. Ví dụ: đại dịch không có phác đồ điều trị rõ ràng, hoặc các vấn đề như đói nghèo và biến đổi khí hậu.
Tương lai thuộc về các tác nhân AI có khả năng suy luận dựa trên ngữ cảnh thực tế, chứ không chỉ dựa trên dữ liệu đào tạo. Nhưng để đạt được điều đó, chúng cần tự do học hỏi và phát triển trong các tình huống thực tế.
Như Jensen Huang, CEO của Nvidia, đã nói: "Bộ phận CNTT của mỗi công ty sẽ trở thành bộ phận nhân sự của các tác nhân AI trong tương lai."
Thiết kế các tác nhân AI hiệu quả không khác gì trở thành một nhà lãnh đạo tốt hơn. Điều quan trọng không phải là đưa ra các quyết định cá nhân chính xác, mà là cải thiện quy trình tổng thể để đánh giá và thực thi quyết định ở quy mô tổ chức.
📌 Các công nghệ AI như o3 đang mở ra tiềm năng lớn, nhưng lợi ích không được phân phối đồng đều. Các công ty truyền thống có thể mất nhiều năm để thích nghi, trong khi các doanh nghiệp mới và linh hoạt sẽ nhanh chóng tận dụng công nghệ để chiếm lĩnh thị trường. AI đang trở thành vũ khí chiến lược cho tương lai.
https://stratechery.com/2025/ais-uneven-arrival/
Lãnh đạo công nghệ trong năm 2025:
Nhân tài công nghệ:
Tác động của gen AI:
Khả năng phục hồi công nghệ:
Đánh giá trung thực về gen AI:
Năng suất công nghệ:
Bài học từ châu Á:
Chuyển đổi ERP:
📌 Năm 2025, lãnh đạo công nghệ cần tập trung vào ưu tiên gen AI, xây dựng nhân tài, và cải thiện khả năng phục hồi doanh nghiệp. Số hóa toàn diện và minh bạch chi phí là chìa khóa để tối ưu hóa giá trị từ công nghệ. Bài học từ châu Á và các chiến lược ERP hiệu quả có thể giúp tiết kiệm đáng kể chi phí và cải thiện hiệu suất.
https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/new-years-resolutions-for-tech-in-2025
#McKinsey
Kết hợp gen AI và AI phân tích để tạo giá trị lớn:
Đầu tư hạ tầng dữ liệu và quản lý:
Tối ưu hóa quy trình làm việc thông qua tự động hóa:
Chiến lược áp dụng hiệu quả:
Thiết lập KPI để giám sát hiệu quả:
Bài học cho các doanh nghiệp toàn cầu:
📌 Doanh nghiệp châu Á, đặc biệt là Trung Quốc, đã đi đầu trong việc kết hợp AI thế hệ mới và phân tích dữ liệu để cải thiện hiệu quả kinh doanh. Các chiến lược bao gồm đầu tư vào hạ tầng dữ liệu, tối ưu hóa quy trình làm việc, số hóa toàn diện và áp dụng KPI để đảm bảo hiệu quả. Đây là những bài học quý giá mà các lãnh đạo công nghệ toàn cầu có thể áp dụng để đạt được lợi thế cạnh tranh.
- AI sẽ trở thành yếu tố thiết yếu như điện, tác động đến mọi khía cạnh kinh doanh. IDC dự báo chi tiêu toàn cầu cho AI sẽ đạt 749 tỷ USD vào năm 2028
- Theo nghiên cứu của Deloitte, 69% hội đồng quản trị nhận báo cáo AI từ CTO hoặc CIO, 26% từ CFO, trong khi CMO không được đề cập
- Rand chỉ ra 80% dự án AI thất bại, gấp đôi tỷ lệ thất bại của các dự án IT thông thường, nguyên nhân chính là các nhóm công nghệ xem đây như thí nghiệm khoa học thay vì giải pháp kinh doanh
- CMO nên dẫn dắt chiến lược AI vì:
+ Hiểu khách hàng tốt hơn bất kỳ ai trong ban lãnh đạo
+ Tập trung vào kết quả kinh doanh thay vì thông số kỹ thuật
+ Chịu trách nhiệm về hành trình khách hàng
- Các ứng dụng AI mang lại doanh thu tập trung vào:
+ Cá nhân hóa
+ Chatbot
+ Định giá động
+ Dự đoán khách hàng rời bỏ
- CMO cần thực hiện các bước:
+ Tự học về nền tảng AI
+ Hợp tác chặt chẽ với CTO/CIO
+ Phát triển lộ trình AI lấy khách hàng làm trung tâm
+ Xây dựng đội ngũ đa chức năng
+ Thiết lập chỉ số đo lường hiệu quả
📌 CMO cần dẫn dắt chiến lược AI thay vì CTO vì họ hiểu khách hàng sâu sắc nhất. Với dự báo chi tiêu AI toàn cầu 749 tỷ USD năm 2028, các doanh nghiệp cần tập trung vào giải pháp kinh doanh thực tế thay vì chỉ công nghệ đơn thuần.
https://www.adweek.com/agencies/cmo-should-lead-ai-strategy-not-cto/
- Các công ty đang cân nhắc việc triển khai các mô hình AI mạnh mẽ do chi phí tính toán và tích hợp cao
- OpenAI vừa công bố mô hình o3 với khả năng lập luận nâng cao, dự kiến ra mắt vào tháng 1/2025
- Google phát hành Gemini 2.0 có khả năng giải quyết vấn đề nhiều bước với ít sự can thiệp của con người
- Meta giới thiệu Meta Motivo để nâng cao tính chân thực của avatar kỹ thuật số trong metaverse
- Chi phí đào tạo mô hình AI tiên tiến có thể lên đến 500 triệu USD mỗi phiên
- Microsoft đã mua 485.000 chip AI Nvidia Hopper, gấp đôi số lượng Meta mua, như một phần trong khoản đầu tư 13 tỷ USD vào OpenAI
- Theo Rebecca Cavallo, khả năng của các mô hình ngôn ngữ lớn tăng gấp đôi mỗi 5-14 tháng
- GPT-4o-mini (ra mắt tháng 7/2024) rẻ hơn 3,3 lần so với GPT-3.5 (ra mắt tháng 3/2022)
- Các tổ chức đang tối ưu hóa chi phí bằng cách sử dụng nhiều mô hình khác nhau cho các nhu cầu cụ thể
- Doanh nghiệp cần đánh giá về cơ sở hạ tầng, khả năng của đội ngũ phát triển và chi phí triển khai các mô hình mới
📌 Năm 2025 sẽ chứng kiến cuộc đua AI gay gắt với chi phí đào tạo mô hình lên tới 500 triệu USD. Microsoft dẫn đầu với việc mua 485.000 chip Nvidia, trong khi các mô hình ngôn ngữ lớn tăng gấp đôi hiệu suất mỗi 5-14 tháng.
https://www.pymnts.com/artificial-intelligence-2/2024/ai-race-pushes-companies-to-weigh-costs-against-promised-gains/
- Theo báo cáo thường niên 2024 của HubSpot, 82% khách hàng mong đợi giải quyết vấn đề ngay lập tức và 78% kỳ vọng dịch vụ được cá nhân hóa hơn
- Một nhân viên tổng đài xử lý 50-100 cuộc gọi mỗi ngày theo báo cáo của LiveAgent
- 92% lãnh đạo quản lý quan hệ khách hàng cho biết AI đã cải thiện thời gian phản hồi dịch vụ khách hàng
- 86% khách hàng có khả năng quay lại nếu thiết lập được kết nối cảm xúc tích cực với nhân viên tổng đài, theo NewVoiceMedia
- AI đang được ứng dụng trong các lĩnh vực:
+ Chatbot và trợ lý ảo thông minh
+ Phân tích cảm xúc thông qua giọng nói
+ Định tuyến cuộc gọi thông minh
+ Phân tích dự đoán nhu cầu khách hàng
- Theo Emotion Logic, AI có thể xử lý 70-80% tương tác dịch vụ khách hàng trong 2-3 năm tới
- Một nhà cung cấp viễn thông quốc gia đã giảm 30% thời gian giải quyết cuộc gọi và tăng 25% điểm hài lòng khách hàng nhờ ứng dụng AI
- Thách thức đạo đức khi triển khai AI:
+ Bảo mật dữ liệu riêng tư
+ Phân biệt đối xử trong nhận dạng giọng nói
+ Theo Stanford, hệ thống nhận dạng giọng nói hiểu sai người da đen gấp đôi so với người da trắng
📌 AI đang định hình lại ngành tổng đài với 92% lãnh đạo CRM ghi nhận cải thiện thời gian phản hồi. Dự kiến AI sẽ xử lý 70-80% tương tác trong 2-3 năm tới, song vẫn cần giải quyết các thách thức về đạo đức và công bằng trong ứng dụng.
https://www.forbes.com/sites/kolawolesamueladebayo/2024/12/29/is-ai-making-call-center-agents-better-or-replacing-them/
- Việc ứng dụng AI tạo sinh có tiềm năng tạo ra giá trị 2,6 đến 4,4 tỷ USD cho nền kinh tế toàn cầu.
- Các lĩnh vực chính có giá trị gia tăng lớn bao gồm: hoạt động khách hàng, tiếp thị và bán hàng, phát triển phần mềm và nghiên cứu & phát triển.
- Tiềm năng này kích thích hàng chục ngàn doanh nghiệp xây dựng ứng dụng AI tạo sinh trên AWS.
- Bài viết cung cấp thông tin về chi phí và các yếu tố tối ưu hóa để giảm thiểu chi phí ứng dụng AI tạo sinh.
- Cần có hiểu biết cơ bản về mô hình nền tảng (FMs), mô hình ngôn ngữ lớn (LLMs), token và cơ sở dữ liệu vector trong AWS.
- Retrieval Augmented Generation (RAG) là một trong những khung phổ biến nhất trong giải pháp AI tạo sinh.
- Các cột tối ưu hóa chi phí bao gồm: Lựa chọn mô hình, sử dụng token, kế hoạch định giá và các yếu tố bổ sung.
- Lựa chọn mô hình liên quan đến việc tìm ra mô hình tối ưu cho nhiều trường hợp khác nhau và tiến hành xác minh mô hình với các bộ dữ liệu chất lượng cao.
- Phân tích việc sử dụng token: số lượng token xử lý ảnh hưởng trực tiếp đến chi phí vận hành.
- Có hai mô hình định giá: On-Demand (theo yêu cầu) và Provisioned Throughput (thông lượng đã định).
- Cần xem xét các yếu tố như bảo mật dữ liệu, cơ sở dữ liệu vector và chiến lược phân đoạn để giảm thiểu rủi ro và chi phí.
- RAG giúp mô hình ngôn ngữ trả lời câu hỏi cụ thể dựa trên dữ liệu doanh nghiệp.
- Dữ liệu có thể được phân đoạn thành các chunk và lưu trữ trong cơ sở dữ liệu vector để tối ưu hiệu suất tìm kiếm và phản hồi.
- Chi phí dao động từ 12.577 đến 134.252 USD/năm cho các mô hình nhỏ đến rất lớn với số lượng câu hỏi khác nhau.
- Khi áp dụng mạng lưới bảo vệ như Amazon Bedrock Guardrails, cần cân nhắc kỹ lưỡng các chính sách và chi phí liên quan.
📌 Các ứng dụng AI tạo sinh trên AWS có thể tiết kiệm chi phí từ 12.577 đến 134.252 USD/năm tùy thuộc vào quy mô và khối lượng sử dụng, với khả năng tạo ra giá trị khổng lồ cho nền kinh tế toàn cầu.
https://aws.amazon.com/blogs/machine-learning/optimizing-costs-of-generative-ai-applications-on-aws/
- Encyclopaedia Britannica, công ty bách khoa toàn thư lâu đời nhất thế giới đang chuẩn bị IPO với định giá gần 1 tỷ USD sau khi chuyển đổi thành công ty công nghệ AI giáo dục
- Công ty đã ngừng in ấn sách từ năm 2012, nhưng kho dữ liệu chất lượng cao được xác minh trong 200 năm qua đã giúp họ chuyển đổi thành công sang kỷ nguyên AI
- Hiện tại, nguồn doanh thu chính của britannica đến từ việc cung cấp phần mềm giáo dục trực tuyến cho trường học và thư viện
- Britannica đang phát triển các giải pháp AI để:
+ Tùy chỉnh kế hoạch học tập cho từng học sinh
+ Xác định khoảng trống kiến thức của học sinh
+ Cung cấp chatbot trả lời câu hỏi dựa trên cơ sở dữ liệu bách khoa toàn thư
+ Hỗ trợ dịch vụ khách hàng qua chatbot
- Doanh thu của công ty dự kiến tăng gấp đôi so với 2 năm trước, đạt 100 triệu USD
- Trong khi đó, đối thủ Chegg đang gặp khó khăn:
+ Giá cổ phiếu sụt giảm mạnh kể từ khi ChatGPT ra đời
+ Học sinh hủy đăng ký dịch vụ
+ Chất lượng câu trả lời không đảm bảo
+ Không theo kịp tốc độ phát triển của ChatGPT
📌 Từ nhà xuất bản bách khoa toàn thư 200 năm tuổi, britannica đang chuyển mình thành công ty công nghệ giáo dục với doanh thu 100 triệu USD. Thương hiệu uy tín và kho dữ liệu chất lượng cao là lợi thế cạnh tranh quan trọng trong kỷ nguyên AI.
https://gizmodo.com/encyclopedia-britannica-is-now-an-ai-company-2000542600
• Khoảng 25% lực lượng lao động Mỹ đang sử dụng AI tạo sinh hàng tuần, con số này tăng lên gần 50% trong ngành phần mềm và tài chính[1].
• Matt, 27 tuổi, một nhà nghiên cứu dược phẩm đã bí mật sử dụng ChatGPT để viết code trong công việc mới từ tháng 9, do công ty không có hướng dẫn cụ thể về việc sử dụng AI[1].
• Theo khảo sát của công ty luật Littler (Mỹ), đến tháng 9/2023, chưa đến 50% các công ty có quy định về cách nhân viên sử dụng AI tạo sinh[1].
• Nhiều tập đoàn lớn như Apple, Samsung, Goldman Sachs và Bank of America đã cấm nhân viên sử dụng ChatGPT trong năm 2023 vì lo ngại về bảo mật dữ liệu[1].
• Walmart đã phát triển chatbot nội bộ "My Assistant" và cho phép nhân viên sử dụng nền tảng bên ngoài với điều kiện không chia sẻ thông tin riêng tư. Công ty cũng giám sát các yêu cầu nhân viên gửi đến chatbot bên ngoài[1].
• Các công ty lớn khác cũng đã phát triển chatbot riêng: McKinsey với Lilli, Linklaters với Laila, JPMorgan Chase với LLM Suite[1].
• Công ty truyền thông GingerMay đã nới lỏng chính sách cấm, cho phép nhân viên sử dụng AI tạo sinh cho mục đích nội bộ với điều kiện phải được sự đồng ý của ban lãnh đạo và chỉ được dùng tài khoản ChatGPT Pro của công ty[1].
• Theo báo cáo của Slack, gần 50% nhân viên văn phòng không thoải mái khi thông báo với quản lý về việc sử dụng AI tạo sinh, lo sợ bị coi là không đủ năng lực hoặc lười biếng[1].
• Nhiều công ty gặp khó khăn trong việc xây dựng chiến lược dài hạn về AI do khung pháp lý chưa rõ ràng về quyền sở hữu trí tuệ và quy định bảo mật dữ liệu[1].
📌 Trong khi 25% lao động Mỹ sử dụng AI tạo sinh hàng tuần, doanh nghiệp vẫn loay hoay với chính sách quản lý. Các công ty lớn chuyển từ cấm đoán sang xây dựng chatbot nội bộ, nhưng 50% nhân viên vẫn e ngại khai báo việc sử dụng AI với cấp trên.
https://www.ft.com/content/cd08b45d-12dc-447e-bd59-1c366a7e6396
#FT
Các quản lý gặp khó khăn trong việc kiểm soát nhân viên sử dụng AI
Nhân viên đang áp dụng các mô hình ngôn ngữ lớn nhanh hơn nhiều so với tốc độ công ty ban hành hướng dẫn về cách sử dụng chúng
Nhiều công ty đang phát triển chatbot nội bộ như một giải pháp thay thế cho các phiên bản của Big Tech, chẳng hạn như ChatGPT của OpenAI.
Matt có một "trợ thủ bí mật" khi bắt đầu công việc mới tại một công ty dược phẩm vào tháng 9. Nhà nghiên cứu 27 tuổi này, yêu cầu sử dụng bí danh, có thể theo kịp các đồng nghiệp giàu kinh nghiệm hơn nhờ vào ChatGPT của OpenAI để viết mã cần thiết cho công việc của mình.
“Phần nào là do lười biếng. Phần khác là vì tin rằng công cụ này có thể giúp công việc của tôi tốt và chính xác hơn,” anh nói.
Matt vẫn chưa chắc chắn liệu điều này có được cho phép hay không. Quản lý của anh không cấm anh sử dụng các công cụ AI tạo sinh như ChatGPT, nhưng cũng không khuyến khích hay đưa ra hướng dẫn cụ thể nào về việc sử dụng công nghệ này một cách phù hợp.
“Tôi không thấy lý do gì khiến việc này trở thành vấn đề, nhưng vẫn cảm thấy xấu hổ,” anh chia sẻ. “Tôi không muốn thừa nhận là mình đang dùng ‘lối tắt’.”
Các công ty đang phải gấp rút theo kịp tốc độ nhân viên áp dụng AI tạo sinh nhanh hơn nhiều so với tốc độ chính sách nội bộ được ban hành. Một khảo sát vào tháng 8 của Ngân hàng Dự trữ Liên bang St. Louis cho thấy gần 25% lực lượng lao động Mỹ đã sử dụng công nghệ này hàng tuần, con số này tăng lên gần 50% trong các ngành công nghiệp phần mềm và tài chính. Hầu hết người dùng sử dụng các công cụ như ChatGPT để viết và nghiên cứu, thường thay thế cho Google, cũng như dùng như công cụ dịch thuật hoặc hỗ trợ viết mã.
Tuy nhiên, các nhà nghiên cứu cảnh báo rằng phần lớn việc áp dụng này đang diễn ra âm thầm khi nhân viên tự tìm cách sử dụng công cụ mà không có hướng dẫn rõ ràng từ công ty, các khóa đào tạo đầy đủ hay bảo vệ an ninh mạng. Đến tháng 9, gần hai năm sau khi ChatGPT ra mắt, chưa đến một nửa các nhà điều hành được khảo sát bởi công ty luật lao động Mỹ Littler cho biết tổ chức của họ đã ban hành quy định về việc nhân viên nên sử dụng AI tạo sinh như thế nào.
Trong số ít các công ty đã triển khai chính sách, phản ứng ban đầu thường là cấm hoàn toàn. Các công ty như Apple, Samsung, Goldman Sachs và Bank of America đã cấm nhân viên sử dụng ChatGPT vào năm 2023, theo Fortune, chủ yếu do lo ngại về quyền riêng tư dữ liệu. Tuy nhiên, khi các mô hình AI ngày càng phổ biến và mạnh mẽ hơn, đồng thời được xem như chìa khóa để duy trì tính cạnh tranh trong các ngành công nghiệp đông đúc, các lãnh đạo doanh nghiệp ngày càng tin rằng các chính sách cấm đoán không phải là giải pháp bền vững.
Jerry Geisler, Giám đốc An ninh Thông tin của Walmart cho biết: “Chúng tôi khởi đầu bằng việc ‘cấm’ nhưng không muốn duy trì điều đó. Chúng tôi chỉ cần thời gian để xây dựng một môi trường nội bộ cung cấp giải pháp thay thế cho nhân viên.”
Walmart khuyến khích nhân viên sử dụng các hệ thống nội bộ của công ty — bao gồm chatbot AI tên ‘My Assistant’ để sử dụng nội bộ an toàn — nhưng không cấm sử dụng các nền tảng bên ngoài, miễn là không đưa thông tin riêng tư hoặc độc quyền vào trong lời nhắc. Công ty đã triển khai hệ thống giám sát các yêu cầu mà nhân viên gửi tới chatbot bên ngoài trên thiết bị công ty. Đội an ninh sẽ can thiệp vào các hành vi không chấp nhận được và trao đổi trực tiếp với nhân viên trong thời gian thực.
Geisler tin rằng việc xây dựng chính sách “không mang tính trừng phạt” là cách tốt nhất để theo kịp sự phát triển của AI. Ông nói: “Chúng tôi không muốn nhân viên cảm thấy họ đang gặp rắc rối khi đội an ninh liên hệ. Chúng tôi chỉ muốn nói: ‘Chúng tôi quan sát thấy hoạt động này. Hãy giúp chúng tôi hiểu bạn đang cố làm gì và chúng tôi có thể chỉ cho bạn tài nguyên tốt hơn, giảm rủi ro nhưng vẫn giúp bạn đạt được mục tiêu.’”
Walmart không phải là công ty duy nhất xây dựng “sân chơi nội bộ có kiểm soát” để nhân viên thử nghiệm AI tạo sinh. McKinsey đã ra mắt chatbot tên Lilli, Linklaters có Laila, và JPMorgan Chase triển khai công cụ “LLM Suite”.
Các công ty không có đủ nguồn lực phát triển công cụ riêng phải đối mặt với nhiều câu hỏi hơn — từ việc nên mua dịch vụ nào, nếu có, cho nhân viên đến rủi ro phụ thuộc vào nền tảng bên ngoài.
Victoria Usher, CEO công ty truyền thông GingerMay, chia sẻ rằng công ty duy trì cách tiếp cận thận trọng trong khi vượt qua “nỗi hoảng loạn ban đầu” khi ChatGPT xuất hiện vào tháng 11/2022. Ban đầu GingerMay cấm hoàn toàn, nhưng trong năm qua đã nới lỏng chính sách này. Nhân viên được phép sử dụng AI tạo sinh cho các mục đích nội bộ nhưng chỉ với sự cho phép của ban điều hành và phải sử dụng tài khoản ChatGPT Pro do công ty cung cấp.
Một báo cáo gần đây từ Slack cho thấy gần một nửa nhân viên văn phòng không thoải mái khi nói với quản lý rằng họ đã sử dụng AI tạo sinh, chủ yếu vì sợ bị xem là kém cỏi hoặc lười biếng. Họ cũng lo rằng việc này có thể dẫn đến sa thải hoặc tăng khối lượng công việc.
Geisler kỳ vọng Walmart sẽ liên tục cập nhật chính sách AI của mình để phù hợp với sự phát triển công nghệ. Ông nhấn mạnh rằng việc tạo ra các chính sách thống nhất cho một tổ chức toàn cầu lớn như Walmart là thách thức. “Chúng tôi sẽ phải truyền tải các thông điệp khác nhau cho từng nhóm nhân viên,” ông nói.
Bối cảnh pháp lý thay đổi liên tục cũng khiến các công ty gặp khó khăn trong việc triển khai chiến lược dài hạn. Các luật đang được xây dựng tại Mỹ, EU và Anh nhưng hiện tại vẫn còn nhiều câu hỏi về quyền sở hữu trí tuệ, quyền riêng tư và tính minh bạch của dữ liệu.
Rose Luckin, giáo sư tại University College London, cho rằng “rào cản đầu tiên” là xác định ai trong tổ chức phù hợp nhất để tìm hiểu và triển khai AI vào công việc. Bà nói rằng vai trò này có thể được giao cho từ CEO đến thực tập sinh, khi các công ty có đánh giá khác nhau về tầm quan trọng của AI.
Sarah, một trợ lý pháp lý tại một công ty luật boutique ở London, ngạc nhiên khi được giao nhiệm vụ nghiên cứu và xây dựng quy định về cách đồng nghiệp cấp cao nên sử dụng AI. “Thật kỳ lạ khi đó lại là việc của tôi,” cô nói. “Tôi là nhân viên trẻ nhất công ty.”
• Slack sẽ tích hợp sâu các AI agent Agentforce của Salesforce vào nền tảng cộng tác nơi làm việc của mình, nhấn mạnh trí tuệ theo ngữ cảnh là yếu tố khác biệt chính trong thị trường AI agent ngày càng đông đúc.
• Rob Seaman, Giám đốc sản phẩm của Slack, cho biết các kênh Slack thường phản ánh cấu trúc tổ chức và ưu tiên tại thời điểm đó, cung cấp ngữ cảnh phong phú để các agent trả lời câu hỏi và suy luận.
• Việc tích hợp là một phần trong bản phát hành Agentforce 2.0 của Salesforce, dự kiến ra mắt vào ngày 17 tháng 12.
• Các AI agent thế hệ tiếp theo được định nghĩa bởi 3 khả năng quan trọng: kiến thức theo ngữ cảnh toàn diện, khả năng suy luận và khả năng hành động.
• Slack sẽ giới thiệu một thư viện các AI agent có thể tùy chỉnh để thực hiện nhiều tác vụ khác nhau, từ đào tạo nhân viên mới đến quản lý các dự án phức tạp đa chức năng.
• Tất cả các agent sẽ hoạt động với "ngữ cảnh người dùng", nghĩa là chúng chỉ có thể truy cập thông tin mà người dùng được phép xem.
• Nền tảng bao gồm các biện pháp bảo vệ mạnh mẽ thông qua "lớp tin cậy" của Salesforce, xử lý thông tin nhạy cảm một cách phù hợp và đảm bảo tuân thủ các quy tắc kinh doanh.
• Người dùng có thể kiểm tra các agent trong thời gian thực và quan sát quá trình ra quyết định của chúng thông qua giao diện xây dựng minh bạch.
• Đối với các doanh nghiệp đang gặp khó khăn với các phần mềm phân mảnh, tích hợp này có thể báo hiệu sự thay đổi trong cách tổ chức tiếp cận cơ sở hạ tầng công nghệ của họ.
• Seaman đã nêu ví dụ cụ thể về việc đào tạo nhân viên, cho rằng các agent có thể giúp đơn giản hóa quá trình này.
• Việc tích hợp đại diện cho một bước đi chiến lược của cả Slack và Salesforce nhằm đặt mình ở vị trí hàng đầu trong cuộc cách mạng AI doanh nghiệp.
• Trong khi các công ty như Anthropic và OpenAI đã ra mắt AI agent của riêng họ, việc tích hợp sâu của Slack với quy trình làm việc doanh nghiệp và khả năng truy cập ngữ cảnh tổ chức có thể mang lại lợi thế cạnh tranh đáng kể.
• Sự phát triển này diễn ra vào thời điểm quan trọng khi các tổ chức đang vật lộn với việc triển khai hiệu quả các công cụ AI đồng thời duy trì bảo mật và tin cậy.
📌 Slack và Salesforce tích hợp AI agent vào nền tảng cộng tác, nhấn mạnh trí tuệ theo ngữ cảnh. Các agent có thể thực hiện nhiều tác vụ, từ đào tạo nhân viên đến quản lý dự án phức tạp, với biện pháp bảo vệ mạnh mẽ. Đây là bước đi chiến lược trong cuộc đua AI doanh nghiệp.
https://venturebeat.com/ai/slacks-ai-agents-are-learning-from-your-office-chats-heres-whats-next/
• Kể từ khi sơ đồ tổ chức được phát minh vào những năm 1850, cấu trúc công ty vẫn chủ yếu theo mô hình phân cấp với nhiều tầng quản lý do giới hạn của trí tuệ con người.
• Mô hình ngôn ngữ lớn (LLM) đang chuyển từ vai trò trợ lý cá nhân sang thành phần cốt lõi trong thiết kế và chiến lược tổ chức.
• Các công ty khởi nghiệp AI từ cốt lõi đang dẫn đầu xu hướng với đội ngũ tinh gọn khoảng 30 người, sử dụng AI để mở rộng hoạt động mà không cần chi phí quản lý truyền thống.
• Năm 2025 sẽ chứng kiến sự gia tăng của các công ty khởi nghiệp AI từ cốt lõi, xây dựng toàn bộ mô hình hoạt động dựa trên sự hợp tác người-máy ngay từ đầu.
• Đối với các doanh nghiệp lớn, quá trình tích hợp AI phức tạp hơn nhưng tiềm năng lợi ích cao hơn, tập trung vào việc khai thác kiến thức và năng lực tiềm ẩn trong hệ thống AI.
• Bộ phận IT sẽ không độc quyền trong việc sử dụng AI, thay vào đó nhân viên từ mọi phòng ban sẽ khám phá cách ứng dụng AI để nâng cao hiệu suất công việc.
• Cấu trúc tổ chức mới sẽ linh hoạt hơn, theo hướng dự án, với các nhóm được thành lập và giải thể nhanh chóng theo mục tiêu cụ thể.
• Vai trò quản lý cấp trung sẽ chuyển từ giám sát truyền thống sang điều phối sự hợp tác giữa con người và AI.
📌 Năm 2025 đánh dấu bước ngoặt khi AI chuyển từ công cụ năng suất cá nhân thành chiến lược tổ chức toàn diện. Các công ty thành công nhất sẽ duy trì đội ngũ tinh gọn 30 người, tận dụng AI để vận hành hiệu quả, với vai trò quản lý cấp trung tập trung vào điều phối hợp tác người-máy.
https://www.wired.com/story/artificial-intelligence-work-organizational-strategy/
Các hệ thống phân cấp truyền thống đang kìm hãm sự phát triển của doanh nghiệp. Thay vào đó, các đội nhóm cần kết hợp giữa trí tuệ con người và trí tuệ nhân tạo để thành công.
Kể từ khi sơ đồ tổ chức (org chart) được phát minh vào những năm 1850, cấu trúc công ty hầu như không thay đổi nhiều — chúng vẫn mang tính phân cấp với nhiều lớp quản lý và ra quyết định. Điều này xuất phát từ giới hạn của trí tuệ và khả năng chú ý của con người trong việc quản lý và kiểm soát luồng công việc. AI có thể thay đổi điều đó. Với các mô hình ngôn ngữ lớn (LLMs), chúng ta có một dạng trí tuệ mới, khác biệt, nhưng hiện tại chủ yếu được sử dụng như một trợ lý ở cấp độ cá nhân. Đến năm 2025, chúng ta sẽ bắt đầu thấy những tổ chức đầu tiên được xây dựng dựa trên sự hợp tác giữa con người và AI.
Sự chuyển đổi này đại diện cho một thay đổi cơ bản trong cách chúng ta cấu trúc và vận hành doanh nghiệp cũng như các tổ chức. Trong khi AI đã được tích hợp nhanh chóng vào cuộc sống hàng ngày (các trợ lý AI là một trong những sản phẩm được áp dụng nhanh nhất trong lịch sử), cho đến nay, các tổ chức chỉ nhận được lợi ích hạn chế. Nhưng năm tới sẽ đánh dấu một bước ngoặt khi AI chuyển từ công cụ nâng cao năng suất cá nhân sang thành phần cốt lõi trong thiết kế và chiến lược tổ chức.
Trong năm 2025, các công ty đi đầu sẽ bắt đầu tái cấu trúc toàn bộ tổ chức, quy trình và văn hóa của họ xung quanh mối quan hệ cộng sinh giữa trí tuệ con người và trí tuệ nhân tạo. Đây không chỉ là việc tự động hóa các nhiệm vụ hay tăng cường khả năng của con người, mà là tạo ra các phương thức làm việc hoàn toàn mới, tận dụng thế mạnh độc đáo của cả con người và AI.
Chìa khóa để khai thác sức mạnh thực sự của LLMs là vượt ra khỏi các trường hợp sử dụng cá nhân để tích hợp ở cấp độ tổ chức. Dù đã có những kết quả ấn tượng từ việc sử dụng trợ lý AI cho các nhiệm vụ như viết lách, lập trình và phân tích, nhưng sự chuyển đổi thực sự sẽ đến khi toàn bộ tổ chức được xây dựng xung quanh sự hợp tác giữa con người và AI.
Các công ty khởi nghiệp đang đi đầu trong xu hướng này. Các nhà đầu tư mạo hiểm báo cáo rằng ngày càng có nhiều công ty trong danh mục đầu tư của họ cam kết duy trì đội ngũ nhỏ gọn, không vượt quá 30 người, nhờ vào việc sử dụng AI để mở rộng quy mô hoạt động mà không cần chi phí quản lý truyền thống.
Tuy nhiên, cách tiếp cận này có thể mang lại lợi ích lớn hơn cho các tổ chức lớn, lâu đời. Những công ty này có tiềm năng sử dụng AI để vượt qua các điểm không hiệu quả, khai thác tăng trưởng mới từ nguồn nhân tài hiện có, và tận dụng trí tuệ tập thể của lực lượng lao động theo những cách chưa từng có trước đây.
Trong năm 2025, chúng ta sẽ chứng kiến sự bùng nổ của các công ty khởi nghiệp "AI bản địa," xây dựng toàn bộ mô hình hoạt động xung quanh sự hợp tác giữa con người và AI ngay từ đầu. Các công ty này sẽ có đội ngũ nhỏ, chuyên nghiệp cao làm việc cùng với các hệ thống AI tiên tiến để đạt được hiệu suất tương đương hoặc vượt xa các tổ chức truyền thống lớn hơn.
Đối với các công ty lớn, hành trình trở thành tổ chức tích hợp AI sẽ phức tạp hơn nhưng cũng hứa hẹn phần thưởng lớn hơn. Những công ty này sẽ cần thực hiện các nỗ lực nghiên cứu và phát triển đáng kể để hiểu cách tận dụng tốt nhất AI trong bối cảnh cụ thể của họ. Quá trình này sẽ tiết lộ một sự thật quan trọng: Vì AI hoạt động ít giống phần mềm truyền thống hơn và giống một cá nhân hơn (mặc dù không phải là con người), nên không có lý do gì để giả định rằng bộ phận CNTT là nơi có những chuyên gia AI giỏi nhất hoặc những hiểu biết sâu sắc nhất về cách sử dụng AI hiệu quả nhất trong tổ chức.
Do đó, trong khi CNTT chắc chắn sẽ đóng vai trò quan trọng trong việc triển khai và duy trì các hệ thống AI, các trường hợp sử dụng và đổi mới thực sự sẽ đến từ nhân viên và quản lý ở mọi bộ phận, những người khám phá cách sử dụng AI để cải thiện hiệu suất công việc.
Thực tế này sẽ dẫn đến sự dân chủ hóa việc sử dụng AI trong một số tổ chức, và đó sẽ là những tổ chức dẫn đầu trong sự chuyển đổi sắp tới. Các cấu trúc tổ chức xuất hiện từ việc tích hợp AI sẽ trông rất khác so với các hệ thống phân cấp truyền thống mà chúng ta đã quen thuộc.
Chúng ta có thể thấy sự nổi lên của các cấu trúc linh hoạt hơn, dựa trên dự án, nơi các đội nhóm hình thành và tan rã nhanh chóng xung quanh các mục tiêu cụ thể, với các hệ thống AI đóng vai trò như các cầu nối và bộ phận hỗ trợ. Các vai trò quản lý trung gian có thể phát triển để tập trung nhiều hơn vào sự phối hợp giữa con người và AI thay vì các nhiệm vụ giám sát truyền thống.
Trong năm 2025, các công ty thành công nhất sẽ không phải là những công ty sở hữu công nghệ AI tiên tiến nhất, mà là những công ty có khả năng kết hợp hiệu quả nhất giữa trí tuệ con người và trí tuệ nhân tạo để tạo ra các hình thức giá trị mới.
AI Will Evolve Into an Organizational Strategy for All
Traditional hierarchies hold businesses back. Instead, teams need to combine human and artificial intelligence to succeed.
Ever since the invention of the org chart in the 1850s, company structures have changed very little—they are hierarchical and consist of multiple layers of managers and decisionmakers. That is because we have been bound by the limits of human intelligence and attention to manage and control the flow of work. AI can change that. In large language models (LLMs), we have a new, alien form of intelligence, but one that has primarily worked as an assistant at the individual level. In 2025, we will start to see the first organizations to build around the combination of humans and AIs working together.
This shift represents a fundamental change in how we structure and operate our businesses and institutions. While the integration of AI into our daily lives has happened very quickly (AI assistants are one of the fastest product adoptions in history), so far, organizations have seen limited benefits. But the coming year will mark a tipping point where AI moves from being a tool for individual productivity to a core component of organizational design and strategy.
In 2025, forward-thinking companies will begin to reimagine their entire organizational structure, processes, and culture around the symbiotic relationship between human and artificial intelligence. This isn't just about automating tasks or augmenting human capabilities; it's about creating entirely new ways of working that leverage the unique strengths of both humans and AI. The key to unlocking the true power of LLMs lies in moving beyond individual use cases to organizational-level integration. While we've seen impressive results from individuals using AI assistants for tasks such as writing, coding, and analysis, the real transformation will come when entire organizations are built around human-AI collaboration.
Featured Video
Startups are leading the charge. Venture capitalists report a growing trend of portfolio companies promising to maintain lean teams of no more than around 30 people, relying on AI to scale their operations without the traditional overhead. However, the benefits of this approach may be even more significant for large, established organizations. These companies have the potential to use AI to route around inefficiencies, unlock new growth from existing talent, and tap into the collective intelligence of their workforce in ways never before possible.
In 2025, we'll see a surge in "AI-native" startups that build their entire operational model around human-AI collaboration from day one. These companies will be characterized by small, highly skilled human teams working in concert with sophisticated AI systems to achieve outputs that rival those of much larger traditional organizations.
For larger companies, the journey to becoming an AI-integrated organization will be more complex but potentially more rewarding. These organizations will need to undertake significant research and development efforts to understand how to best leverage AI within their specific context. This process will reveal an important truth: Since AI works less like traditional software, and more like a person (even though it isn't one), there's no reason to assume that the IT department has the best AI prompters or any particular insight into the most effective uses of AI within the organization.
Thus, while IT will certainly play a crucial role in implementing and maintaining AI systems, the actual use cases and innovations will come from workers and managers across all departments who discover opportunities to use AI to enhance their job performance. In fact, for large companies, the source of any real advantage in AI will come from the expertise of their employees, which is needed to unlock the latent knowledge and capabilities within AI systems. This realization will lead to a democratization of AI usage within some organizations, and those will be the ones that lead the coming transformation.
The organizational structures that emerge from this AI integration will look markedly different from the traditional hierarchies we're accustomed to. We may see the rise of more fluid, project-based structures where teams form and dissolve rapidly around specific goals, with AI systems acting as connectors and facilitators. Middle management roles may evolve to focus more on human-AI coordination rather than traditional supervisory tasks. In 2025, the most successful companies won't be those with the most advanced AI technologies, but those that can most effectively combine human and artificial intelligence to create new forms of value.
• Hugging Face vừa công bố dịch vụ mới có tên Hugging Face Generative AI Services (HUGS) nhằm đơn giản hóa việc triển khai và mở rộng các ứng dụng AI tạo sinh sử dụng mô hình nguồn mở.
• HUGS được xây dựng dựa trên các công nghệ của Hugging Face như Transformers và Text Generation Inference (TGI), hứa hẹn hiệu suất tối ưu trên nhiều bộ tăng tốc phần cứng khác nhau.
• Chi phí dịch vụ chỉ 1 USD/giờ/container khi sử dụng trên AWS hoặc Google Cloud, kèm theo gói dùng thử miễn phí 5 ngày trên AWS.
• Dịch vụ tự động tối ưu hóa mô hình cho từng môi trường phần cứng cụ thể, giúp đạt hiệu suất cao mà không cần cấu hình thủ công. Hỗ trợ GPU của NVIDIA, AMD và sắp tới là AWS Inferentia và Google TPUs.
• HUGS hỗ trợ nhiều mô hình nổi tiếng như Llama, Gemma và sẽ sớm bổ sung các mô hình multimodal như Idefics, Llava cùng các mô hình embedding như BGE và Jina.
• Dịch vụ sử dụng API chuẩn hóa tương thích với giao diện mô hình của OpenAI, giúp các nhà phát triển dễ dàng chuyển đổi mã nguồn.
• Đặc biệt phù hợp với các startup khi cung cấp triển khai một chạm trên DigitalOcean mà không tính phí thêm ngoài chi phí GPU Droplets tiêu chuẩn.
• Doanh nghiệp lớn có thể mở rộng ứng dụng mà không bị phụ thuộc vào một nhà cung cấp đám mây hay API độc quyền. Hugging Face cũng cung cấp giải pháp triển khai tùy chỉnh qua Enterprise Hub.
📌 Hugging Face tạo bước đột phá với HUGS - dịch vụ triển khai AI tạo sinh giá rẻ chỉ 1 USD/giờ/container, hỗ trợ đa dạng mô hình nguồn mở và tự động tối ưu hóa trên nhiều nền tảng phần cứng, mở ra cơ hội lớn cho startup tiếp cận công nghệ AI.
https://www.techradar.com/pro/Hugging-Face-launches-new-an-open-source-tool-for-affordable-AI-deployment
• Google vừa công bố Agentspace - nền tảng giúp doanh nghiệp khai thác tri thức tập thể thông qua các agent AI thông minh
• Nghiên cứu của Google cho thấy nhân viên doanh nghiệp phải sử dụng trung bình 4-6 công cụ chỉ để hỏi và trả lời một câu hỏi
• Agentspace cung cấp 3 tính năng chính:
- NotebookLM Plus: Cho phép nhân viên tải lên thông tin để tổng hợp, khám phá insights và tương tác với dữ liệu qua tính năng tóm tắt dạng podcast
- Tìm kiếm thông tin xuyên suốt doanh nghiệp: Agent tìm kiếm đa phương thức tập trung làm nguồn thông tin chính thống cho toàn tổ chức
- Agent chuyên gia tự động hóa chức năng kinh doanh: Hỗ trợ các bộ phận marketing, tài chính, pháp lý, kỹ thuật trong nghiên cứu và tự động hóa công việc
• Nền tảng tích hợp với các ứng dụng phổ biến như Confluence, Google Drive, Jira, Microsoft SharePoint, ServiceNow
• Các tính năng bảo mật:
- Xây dựng trên hạ tầng bảo mật của Google Cloud
- Kiểm soát IT chi tiết
- Kiểm soát truy cập theo vai trò (RBAC)
- Tích hợp IAM
• Nhiều doanh nghiệp lớn đã áp dụng thử nghiệm và đánh giá tích cực như Deloitte, Nokia, Decathlon, Onix, Banco BV
• Tại Deloitte, nhân viên ghi nhận NotebookLM giúp:
- Rút ngắn thời gian phân tích thị trường từ vài tuần xuống còn vài phút
- Phát hiện insights mới từ báo cáo AI tạo sinh
- Tổng hợp hiệu quả nội dung từ các cuộc họp
- Tối ưu việc tạo và chia sẻ nội dung đào tạo
📌 Google Agentspace là bước đột phá mới trong việc kết nối nhân viên với tri thức doanh nghiệp thông qua 3 tính năng chủ đạo: NotebookLM Plus, tìm kiếm thông minh và agent chuyên gia. Nền tảng được đánh giá tích cực bởi các tập đoàn lớn như Deloitte, Nokia và đã chứng minh khả năng tăng hiệu quả công việc rõ rệt.
https://cloud.google.com/blog/products/ai-machine-learning/bringing-ai-agents-to-enterprises-with-google-agentspace
Giới thiệu Google Agentspace: Mang AI Agents và tìm kiếm hỗ trợ AI vào doanh nghiệp
Ngày 14 tháng 12 năm 2024
Saurabh Tiwary
Phó Chủ tịch kiêm Tổng Giám đốc, Cloud AI
Đối với các doanh nghiệp, sự xuất sắc không chỉ đến từ tài năng cá nhân mà là từ trí tuệ tập thể trong tổ chức. Tuy nhiên, trí tuệ này thường bị ẩn giấu trong các "ngăn silo", khó tiếp cận đối với những người cần nhất vào thời điểm cần thiết nhất. Nghiên cứu của chúng tôi cho thấy nhân viên doanh nghiệp trung bình sử dụng từ 4 đến 6 công cụ chỉ để đặt và trả lời một câu hỏi.
AI tạo sinh mang lại tiềm năng lớn cho năng suất của nhân viên. Chính vì vậy, hôm nay chúng tôi giới thiệu Google Agentspace. Công cụ này mở ra chuyên môn doanh nghiệp cho nhân viên thông qua các agent tích hợp khả năng lập luận tiên tiến của Gemini, tìm kiếm chất lượng Google và dữ liệu doanh nghiệp – bất kể dữ liệu được lưu trữ ở đâu. Google Agentspace giúp nhân viên tăng năng suất đáng kể bằng cách hỗ trợ thực hiện các nhiệm vụ phức tạp như lập kế hoạch, nghiên cứu, tạo nội dung và hành động – tất cả chỉ với một lệnh duy nhất.
Tương tác mới với dữ liệu doanh nghiệp qua NotebookLM
Chúng tôi tạo ra NotebookLM để giúp người dùng hiểu các thông tin phức tạp và giờ đây mang tính năng này đến các doanh nghiệp. Với NotebookLM Plus, nhân viên của bạn có thể tải lên thông tin để tổng hợp, khám phá thông tin chuyên sâu và tận hưởng các cách tương tác mới như tóm tắt âm thanh giống podcast. Tính năng này được cải tiến với các yếu tố bảo mật và quyền riêng tư cho môi trường làm việc.
NotebookLM cũng sẽ triển khai thử nghiệm phiên bản Gemini 2.0 Flash. Doanh nghiệp có thể đăng ký chương trình truy cập sớm ngay hôm nay.
Khám phá thông tin toàn doanh nghiệp
Google Agentspace cung cấp cho nhân viên một agent tìm kiếm đa phương tiện, mang thương hiệu riêng của công ty, hoạt động như nguồn "sự thật" tập trung cho tổ chức. Tích hợp khả năng tìm kiếm tiên tiến của Google, Agentspace cung cấp hỗ trợ hội thoại, trả lời các câu hỏi phức tạp, đề xuất chủ động và thực hiện hành động dựa trên dữ liệu độc quyền của công ty.
Công cụ này có thể xử lý dữ liệu phi cấu trúc như tài liệu, email cũng như dữ liệu có cấu trúc như bảng biểu. Tích hợp sẵn các trình kết nối với ứng dụng của bên thứ ba (Confluence, Google Drive, Jira, Microsoft SharePoint, ServiceNow...) giúp nhân viên dễ dàng truy cập nguồn dữ liệu liên quan và ra quyết định tốt hơn.
Agents chuyên môn hóa tự động hóa chức năng kinh doanh
Google Agentspace là điểm khởi đầu để triển khai các agent AI tạo sinh được tùy chỉnh. Doanh nghiệp có thể cung cấp cho nhân viên các công cụ nghiên cứu tốt hơn, soạn thảo nội dung nhanh chóng, tự động hóa các nhiệm vụ lặp lại, bao gồm cả quy trình nhiều bước.
Với công cụ xây dựng low-code, nhân viên có thể tự tạo và tinh chỉnh các agent chuyên môn phù hợp với nhu cầu.
Google Agentspace được xây dựng trên cơ sở hạ tầng bảo mật theo thiết kế của Google Cloud, đảm bảo doanh nghiệp có thể triển khai AI một cách an toàn. Các kiểm soát IT chi tiết, bao gồm kiểm soát truy cập dựa trên vai trò (RBAC), dịch vụ VPC và tích hợp IAM, đảm bảo dữ liệu luôn được bảo vệ và tuân thủ quy định.
Khai phá trí tuệ tập thể của tổ chức là một khoản đầu tư vào thành công trong tương lai. Hãy kết nối nhân viên của bạn với chuyên môn doanh nghiệp để xây dựng tổ chức thông minh, sáng tạo và linh hoạt hơn.
- Meta đang phát triển Metamate - công cụ AI nội bộ dựa trên mô hình ngôn ngữ lớn Llama, nhằm tăng năng suất làm việc trong tổ chức
- Metamate hỗ trợ các nhiệm vụ:
+ Lập trình code
+ Thực hiện nghiên cứu
+ Soạn thảo văn bản giao tiếp nội bộ và bên ngoài
- Thị trường trợ lý AI dự kiến tăng từ 5,1 tỷ USD lên 47 tỷ USD vào năm 2030 theo MarketsandMarkets
- Meta vừa tuyển dụng Clara Shih, cựu CEO AI tại Salesforce, để dẫn dắt nhóm "AI doanh nghiệp" mới
- So với đối thủ, Metamate còn một số hạn chế:
+ Chỉ hỗ trợ giao diện văn bản, không có video/hình ảnh
+ Thiếu tính năng tự động như tham gia họp, tóm tắt, lên lịch
+ Chưa được bán ra thị trường
- Nhân viên Meta, bao gồm cả lãnh đạo, sử dụng Metamate thường xuyên cho:
+ Viết code
+ Tìm kiếm thông tin nội bộ
+ Chuẩn bị cuộc gọi với khách hàng
- Theo báo cáo của Goldman Sachs, việc áp dụng rộng rãi công nghệ AI khó có thể diễn ra trước năm 2027
- Mark Zuckerberg đặt mục tiêu biến Meta thành công ty AI hàng đầu, tích hợp AI vào Instagram, WhatsApp và Facebook
📌 Meta đang đẩy mạnh phát triển AI doanh nghiệp với công cụ Metamate, nhắm đến thị trường tiềm năng 47 tỷ USD vào 2030. Dù còn hạn chế về tính năng so với Microsoft và Google, Meta tự tin sẽ tạo ra "trợ lý doanh nghiệp tốt nhất thế giới".
https://www.ft.com/content/68828793-2978-4fc7-9f00-df2ca4e8b2b0
#FT
Meta triển khai công cụ AI nội bộ trong nỗ lực lấn sân vào thị trường doanh nghiệp
Tập đoàn mạng xã hội nhắm tới lĩnh vực trí tuệ nhân tạo đang phát triển mạnh khi phát triển trợ lý làm việc “Metamate”
Meta đang tiến tới kế hoạch phát triển các dịch vụ trí tuệ nhân tạo (AI) cho doanh nghiệp, khi nền tảng mạng xã hội này ra mắt công cụ AI mới nội bộ nhằm nâng cao hiệu suất làm việc.
Phần mềm AI này, có tên là Metamate, được đặt theo tên nội bộ của các nhân viên trong tập đoàn, được xây dựng dựa trên mô hình ngôn ngữ lớn Llama của Meta. Công cụ này được sử dụng cho việc lập trình, nghiên cứu, cũng như soạn thảo các tài liệu giao tiếp trong và ngoài công ty.
Prashant Ratanchandani, Phó chủ tịch kỹ thuật của Meta và người đứng đầu phát triển Metamate, cho biết chưa có kế hoạch phát hành phần mềm này ra bên ngoài. Tuy nhiên, dự án đã cung cấp những hiểu biết quý giá về các ứng dụng AI trong doanh nghiệp. Ông chia sẻ với Financial Times rằng Meta muốn tạo ra “trợ lý doanh nghiệp tốt nhất thế giới”.
Động thái này diễn ra trong bối cảnh các tập đoàn công nghệ, bao gồm OpenAI và Google, đang cạnh tranh đưa các trợ lý hỗ trợ AI tới tay người tiêu dùng và doanh nghiệp, nhằm tạo ra doanh thu từ công nghệ đang phát triển nhanh chóng này.
Thị trường dành cho các “đại lý AI”, có khả năng lập luận và thực hiện các nhiệm vụ phức tạp cho con người, dự kiến sẽ tăng từ 5,1 tỷ USD lên 47 tỷ USD vào năm 2030, theo dữ liệu từ công ty nghiên cứu thị trường MarketsandMarkets.
Động thái này cũng là một phần trong việc Meta khám phá các cách kiếm tiền từ AI thông qua các sản phẩm dành cho doanh nghiệp. Tháng trước, Meta đã tuyển dụng Clara Shih, cựu giám đốc AI tại Salesforce, để lãnh đạo nhóm mới mang tên “Business AI”. Bà Shih chia sẻ rằng tầm nhìn của bà là “đưa AI tiên tiến đến với mọi doanh nghiệp” trong vai trò mới này.
Các nhà phân tích hoan nghênh động thái này như một cơ hội để Meta thương mại hóa Llama, ví dụ bằng cách xây dựng các ứng dụng sẵn có dựa trên các mô hình mã nguồn mở.
Mark Zuckerberg, Giám đốc điều hành của Meta, đã bày tỏ rõ ràng mong muốn trở thành một nhân tố thống trị trong lĩnh vực AI, nhanh chóng tích hợp các tính năng AI vào Instagram, WhatsApp và Facebook, cũng như cung cấp các đại lý AI cho người dùng, nhà sáng tạo và doanh nghiệp sử dụng các nền tảng này.
Tuy nhiên, Metamate vẫn chưa đạt được mức tiên tiến như các sản phẩm tương tự từ các đối thủ Microsoft và Google, vốn được sử dụng nội bộ và cũng được bán ra cho các doanh nghiệp.
Không giống như hầu hết các chatbot hướng tới người dùng, Metamate chủ yếu là giao diện văn bản và hiện chưa hỗ trợ video hay hình ảnh. Nó cũng thiếu các tính năng tự động, giống như agent, của đối thủ, chẳng hạn như tham gia và tóm tắt các cuộc họp, lên lịch trong lịch hoặc thực hiện các hành động thay mặt người dùng.
Nhân viên Meta, bao gồm cả các giám đốc điều hành, cho biết họ thường xuyên sử dụng công cụ này cho các nhiệm vụ khác nhau, bao gồm lập trình, tìm kiếm thông tin nội bộ từ mạng nội bộ của công ty, và chuẩn bị cho các cuộc gọi với khách hàng cũng như các bước tiếp theo. Công ty cũng đang sử dụng các mô hình khác nội bộ, bao gồm cả ChatGPT của OpenAI.
Ông Ratanchandani cho biết Meta đang xem xét các cách để cải thiện sản phẩm, bao gồm làm cho nó trở nên giống một trợ lý AI hơn. Ông nói rằng vẫn còn quá sớm để đo lường tác động của công cụ này đối với năng suất.
Trên thị trường, việc áp dụng công nghệ này còn hạn chế. Một báo cáo gần đây của Goldman Sachs cho rằng việc sử dụng rộng rãi hoặc đạt được hiệu quả năng suất từ các công cụ AI khó có khả năng xảy ra trước năm 2027.
“Phát triển nội bộ và sử dụng thử nghiệm bởi nhân viên là một cách làm rất phổ biến,” Oren Etzioni, giáo sư khoa học máy tính tại Đại học Washington, nhận xét.
Tuy nhiên, ông bổ sung: “Việc nó hoạt động tốt bên trong Meta không đồng nghĩa rằng Meta—một mạng xã hội tập trung vào quảng cáo—có thể dễ dàng trở thành nhà cung cấp dịch vụ doanh nghiệp. Meta sẽ không nằm trong danh sách ưu tiên hàng đầu của tôi về những ai có khả năng nổi bật trong lĩnh vực này.”
Meta is pushing forward with plans to develop its artificial intelligence offering to businesses, as the social media platform rolls out a new AI tool internally that aims to boost productivity.
- OpenAI công bố kế hoạch phát hành Reinforcement Fine-Tuning (RFT) trong ngày thứ 2 của sự kiện "12 ngày của OpenAI"
- RFT là công nghệ cho phép các nhà phát triển tùy chỉnh thuật toán AI của OpenAI cho các tác vụ cụ thể và phức tạp
- Công nghệ này giúp cải thiện cách mô hình AI lập luận và đưa ra phản hồi thông qua bộ dữ liệu và tiêu chí đánh giá từ nhà phát triển
- Thompson Reuters đã ứng dụng RFT để xây dựng trợ lý AI CoCounsel
- Berkeley Lab sử dụng RFT trong nghiên cứu về các bệnh di truyền hiếm gặp
- OpenAI dự kiến ra mắt chương trình alpha ngay lập tức và phát hành công khai trong quý 1/2025
- So với ngày đầu tiên tập trung vào người dùng phổ thông với mô hình o1, ngày thứ 2 nghiêng về đối tượng doanh nghiệp
- OpenAI kết thúc buổi ra mắt bằng câu chuyện hài hước về ông già Noel muốn tạo xe trượt tuyết tự lái nhưng gặp vấn đề vì "không pine-tune (tinh chỉnh) mô hình"
📌 OpenAI tiếp tục khẳng định vị thế dẫn đầu trong lĩnh vực AI với công nghệ RFT, cho phép tùy chỉnh mô hình AI cho các tác vụ phức tạp với ít dữ liệu huấn luyện. Dự kiến ra mắt công khai trong Q1/2024, RFT hứa hẹn mang lại đột phá trong nghiên cứu khoa học và ứng dụng doanh nghiệp.
https://www.techradar.com/computing/artificial-intelligence/openais-new-ai-reinforcement-fine-tuning-could-transform-how-scientists-use-its-models
- 25% doanh nghiệp sử dụng AI tạo sinh dự kiến sẽ triển khai AI agents vào năm 2025, con số này sẽ tăng lên 50% vào năm 2027, theo báo cáo từ Deloitte.
- AI agents, hay AI tác động, là các giải pháp phần mềm có khả năng hoàn thành nhiệm vụ phức tạp với ít hoặc không cần giám sát con người.
- Khoảng cách giữa nam và nữ trong việc áp dụng Gen AI đang thu hẹp nhanh chóng; dự kiến đến năm 2025, việc phụ nữ sử dụng Gen AI sẽ đạt hoặc vượt qua đàn ông.
- Tiêu thụ điện năng tại các trung tâm dữ liệu toàn cầu sẽ gấp đôi, đạt 4% tổng tiêu thụ năng lượng (khoảng 1.065 terawatt-giờ) vào năm 2030, do sự gia tăng tiêu thụ năng lượng từ Gen AI.
- Đến năm 2025, trên 30% điện thoại thông minh và khoảng 50% laptop sẽ được trang bị khả năng xử lý Gen AI tại chỗ.
- Sự phát triển của AI agents sẽ được thúc đẩy bởi đổi mới từ cả các start-up và các công ty hàng đầu trong ngành, tìm kiếm các cơ hội doanh thu mới.
- AI agents sẽ sử dụng các mô hình ngôn ngữ lớn (LLMs), có khả năng lý luận, phân tích và thích ứng với các quy trình làm việc không thể đoán trước.
- AI tác động có thể hoạt động tự động, có khả năng lập kế hoạch và thực hiện nhiệm vụ phức tạp mà không cần can thiệp nhiều từ con người.
- Các AI agents có khả năng cảm nhận môi trường và xử lý thông tin đa phương tiện như video, hình ảnh, âm thanh, văn bản và số liệu.
- AI agents có thể tương tác với các công cụ và hệ thống để hoàn thành nhiệm vụ, đồng thời huy động sự tham gia của các hệ thống và bot khác.
- Theo nghiên cứu từ Salesforce, một phần ba người tiêu dùng thích làm việc với AI agents để có dịch vụ nhanh hơn; họ cũng muốn biết khi nào đang tương tác với AI.
- Mặc dù các CIO thấy rằng AI là công nghệ chuyển đổi, chỉ 11% trong số họ triển khai hoàn toàn, do lo ngại về an ninh và hạ tầng dữ liệu.
📌 25% doanh nghiệp dự kiến triển khai AI agents vào năm 2025, tăng lên 50% vào năm 2027. Sự phát triển này được thúc đẩy bởi nhu cầu đổi mới và khả năng của AI agents trong việc hoàn thành nhiệm vụ phức tạp, trong khi tiêu thụ điện năng tại các trung tâm dữ liệu dự kiến sẽ gấp đôi.
https://www.zdnet.com/article/25-of-enterprises-using-ai-will-deploy-ai-agents-by-2025/
- Panasonic vừa tạo ra một bản sao AI của nhà sáng lập Konosuke Matsushita, người đã qua đời năm 1989, nhằm bảo tồn tầm nhìn quản lý của ông.
- Dự án được phát triển cùng với Viện Matsuo, thuộc Đại học Tokyo, sử dụng các tác phẩm viết, bài phát biểu và trên 3.000 bản ghi âm giọng nói của Matsushita.
- Mục tiêu là giúp thế hệ tiếp theo hiểu và áp dụng tầm nhìn lãnh đạo của Matsushita trong các quyết định kinh doanh.
- Panasonic nhận thấy số lượng người được đào tạo trực tiếp từ Matsushita đang giảm dần, vì vậy quyết định sử dụng công nghệ AI tạo sinh để truyền tải tầm nhìn của ông.
- Matsushita được coi là "thần quản lý" của Nhật Bản, ông đã đóng góp lớn vào việc xây dựng Panasonic thành một trong những công ty dẫn đầu trong lĩnh vực điện tử tiêu dùng.
- Cuốn sách "Con đường" của Matsushita vẫn được coi là một tài liệu quan trọng cho giới kinh doanh tại Nhật Bản.
- Nếu Panasonic thành công với việc sử dụng AI để tái tạo hình ảnh của Matsushita, xu hướng này có thể dẫn đến việc nhiều tổ chức khác cũng phát triển AI để thay thế hoặc bổ sung cho các nhà lãnh đạo truyền thống.
- Sundar Pichai, CEO của Alphabet, cho biết hơn 25% mã nguồn mới tại Google hiện nay được tạo ra bởi AI.
- Tương tự, PhonePe đã giảm 60% nhân viên hỗ trợ khách hàng trong 5 năm qua nhờ vào các chatbot AI, xử lý hơn 90% vấn đề của khách hàng mặc dù số lượng giao dịch tăng gấp 40 lần.
📌 Panasonic đang thử nghiệm AI thay thế nhà sáng lập với hi vọng duy trì tầm nhìn lãnh đạo của Konosuke Matsushita. Nếu thành công, sẽ thúc đẩy xu hướng sử dụng AI trong lãnh đạo doanh nghiệp, đặc biệt khi công nghệ AI đã xâm nhập sâu rộng vào nhiều lĩnh vực.
https://www.timesnownews.com/business-economy/industry/can-ai-replace-ceos-japans-panasonic-experiment-could-be-a-game-changer-article-115829880
- NotebookLM là một mô hình ngôn ngữ lớn mini dành riêng cho doanh nghiệp, dễ sử dụng, cho phép tạo folder và tải lên tài liệu như PDF hay văn bản.
- NotebookLM kết hợp dữ liệu nội bộ với các nguồn dữ liệu bên ngoài, giúp tăng cường độ chính xác trong việc phân tích thông tin.
- Ứng dụng hoạt động như một chatbot nội bộ, cho phép người dùng lưu lại ghi chú, chia sẻ thư mục và truy xuất thông tin dễ dàng.
- Người dùng có thể giao tiếp với NotebookLM thông qua văn bản và giọng nói, rất tiện lợi cho những người có nhu cầu đặc biệt hoặc trong khi di chuyển.
- Người viết đã sử dụng NotebookLM để phân tích hồ sơ xin việc, tiết kiệm thời gian và cải thiện quy trình tuyển dụng, với khả năng xếp hạng ứng viên.
- Trong phân tích tài chính, NotebookLM đã giúp phát hiện các xu hướng và bất thường trong báo cáo tài chính, hỗ trợ người dùng đưa ra quyết định hiệu quả hơn.
- Kế hoạch sử dụng trong năm 2025 bao gồm tải lên các đề xuất, hợp đồng và chính sách để tối ưu quy trình làm việc và nhanh chóng truy xuất thông tin.
- Người viết đề cập rằng NotebookLM được ưa chuộng hơn các chatbot khác như ChatGPT vì tính tích hợp với các ứng dụng Google mà doanh nghiệp đã sử dụng.
- Dù còn một số vấn đề về quy trình và hiệu suất, NotebookLM đã cho thấy tiềm năng lớn trong việc cải thiện hiệu quả hoạt động cho doanh nghiệp nhỏ.
📌 Với tính năng đa dạng và khả năng tích hợp cao, Google NotebookLM hứa hẹn trở thành ứng dụng hàng đầu cho doanh nghiệp nhỏ trong năm 2025, giúp tiết kiệm thời gian, tối ưu hóa quy trình và nâng cao khả năng phân tích dữ liệu.
https://www.forbes.com/sites/quickerbettertech/2024/11/27/why-googles-notebooklm-is-a-killer-app-for-small-business/
- Elon Musk và xAI vừa huy động thêm 5 tỷ USD từ các nhà đầu tư lớn, trong khi Amazon đầu tư 4 tỷ USD vào đối thủ của OpenAI, Anthropic.
- Các công ty lớn như Microsoft, Google, Meta và Amazon đang rót hàng tỷ USD vào việc phát triển các mô hình ngôn ngữ lớn (LLM) để xử lý nhu cầu đa dạng.
- Đối với nhiều doanh nghiệp, mô hình ngôn ngữ nhỏ và các mô hình ngôn ngữ theo miền (lĩnh vực chuyên môn) có thể mang lại giải pháp tối ưu hơn so với các mô hình lớn.
- Mô hình ngôn ngữ lớn hiện đang trở thành công cụ quan trọng giúp doanh nghiệp tổng hợp dữ liệu và phản hồi các truy vấn bằng ngôn ngữ tự nhiên.
- Matt Garman, CEO của Amazon Web Services, nhấn mạnh sự thành công trong việc phát triển ứng dụng AI tạo sinh thông qua sự hợp tác với Anthropic.
- IDC dự báo chi tiêu toàn cầu cho AI sẽ tăng gấp đôi trong bốn năm tới, đạt 632 tỷ USD, với AI tạo sinh chiếm 32% tổng chi tiêu.
- Mặc dù các mô hình lớn có sức mạnh, nhưng chúng cũng đòi hỏi chi phí cao về tài chính, năng lượng và tài nguyên máy tính.
- Steve McMillan, CEO của Teradata, nhận định rằng các mô hình ngôn ngữ nhỏ và mô hình theo miền có thể cung cấp giải pháp hiệu quả hơn cho một số doanh nghiệp.
- Việc hiểu rõ tác động của công nghệ AI đối với môi trường kinh doanh ngày càng trở nên quan trọng, đặc biệt trong bối cảnh cạnh tranh gay gắt hiện nay.
📌 Xu hướng đầu tư vào mô hình ngôn ngữ nhỏ đang tăng mạnh, với dự báo chi tiêu cho AI sẽ lên đến 632 tỷ USD trong 4 năm tới. Các mô hình nhỏ và theo miền có thể tiết kiệm chi phí và nâng cao hiệu quả cho doanh nghiệp so với các mô hình lớn.
https://www.forbes.com/sites/deandebiase/2024/11/25/why-small-language-models-are-the-next-big-thing-in-ai/
- AI tạo sinh đang phải đối mặt với thách thức lớn về chi phí tài chính và môi trường do quy trình xử lý đòi hỏi nhiều tài nguyên
- Các mô hình LLM dựa trên kiến trúc transformer của Google có điểm yếu cơ bản:
+ Chi phí tăng theo cấp số nhân, không phải tuyến tính
+ Khi văn bản đầu vào dài gấp 10 lần, chi phí tăng gấp 100 lần
+ Khi dữ liệu tăng 100 lần, chi phí tăng gấp 10.000 lần
- Giải pháp thay thế đang được nghiên cứu:
+ Mô hình state space: nén thông tin để tăng trưởng tài nguyên tuyến tính hơn
+ Ưu điểm: chi phí thấp hơn, bền vững về môi trường
+ Nhược điểm: chất lượng kết quả giảm do độ phân giải thấp hơn
- Khuyến nghị cho doanh nghiệp:
+ Khám phá mô hình ngôn ngữ nhỏ (SLM): tập trung vào dữ liệu liên quan đến ứng dụng cụ thể
+ Lưu trữ cache kết quả từ các lần gọi LLM trước đó để tránh lặp lại xử lý
- Xu hướng phát triển:
+ Các nhà lãnh đạo doanh nghiệp thận trọng hơn với chiến lược AI
+ Tìm kiếm giải pháp cân bằng giữa độ chính xác và chi phí hợp lý
+ Khả năng chạy mô hình AI cục bộ để tăng bảo mật và tiết kiệm
📌 Chi phí vận hành AI tăng phi mã theo cấp số nhân: tăng 100 lần dữ liệu dẫn đến tăng 10.000 lần chi phí. Giải pháp thay thế như mô hình state space và SLM đang được phát triển nhằm tối ưu chi phí và tính bền vững. Các doanh nghiệp cần thận trọng và thực tế hơn trong chiến lược AI.
https://www.forbes.com/councils/forbestechcouncil/2024/11/25/the-hidden-costs-of-ai/
- Accenture và Nvidia thành lập bộ phận mới Accenture Nvidia Business Group, đào tạo hơn 30.000 người sử dụng công nghệ Nvidia bao gồm: AI Foundry, AI Enterprise và Omniverse
- Bộ phận marketing của Accenture là nơi thử nghiệm đầu tiên, triển khai hơn 12 agent AI để:
+ Nghiên cứu thị trường
+ Phân tích dữ liệu
+ Lên lịch mạng xã hội
+ Tìm kiếm tài liệu nội bộ
+ Soạn thảo chiến lược
+ Xác định ngân sách dự án
- Kết quả ban đầu: Giảm từ 135 bước xuống còn 85 bước trong quy trình marketing
- Theo báo cáo của Deloitte:
+ 25% công ty sẽ triển khai AI agent vào năm 2025
+ 50% công ty sẽ triển khai vào năm 2027
+ Chỉ 30% dự án thí điểm AI đạt đến giai đoạn sản xuất
- Thách thức chính:
+ Điều chỉnh mô hình AI để hiểu ngôn ngữ doanh nghiệp
+ Thiếu hụt kỹ năng
+ Chi phí tăng cao
+ Rủi ro pháp lý
+ Thay đổi tư duy nhân viên
- Accenture tập trung vào các vấn đề phức tạp như:
+ Suy luận nhân quả
+ Lập kế hoạch chiến lược
+ Tối ưu hóa giá
- Nền tảng sử dụng:
+ Máy tính hiệu năng cao của Nvidia
+ Mô hình ngôn ngữ lớn như Meta Llama 3
📌 Accenture và Nvidia đã chứng minh tiềm năng của AI agent trong doanh nghiệp qua việc giảm 37% số bước trong quy trình marketing. Dự kiến 50% doanh nghiệp sẽ triển khai AI agent vào năm 2027, tuy nhiên cần giải quyết các thách thức về kỹ năng, chi phí và rủi ro pháp lý.
https://digiday.com/media/ai-briefing-inside-accenture-and-nvidias-plan-to-scale-ai-agents-for-enterprise-business/
- KPMG công bố kế hoạch đầu tư 100 triệu USD trong 4 năm tới để tăng cường dịch vụ AI doanh nghiệp thông qua hợp tác với Google Cloud
- Phần lớn khoản đầu tư sẽ tập trung vào:
+ Phát triển nội bộ tận dụng sản phẩm Google
+ Phát triển AI agent
+ Đào tạo nhân lực thành thạo công nghệ AI
- Theo khảo sát của KPMG về kế hoạch đầu tư AI của doanh nghiệp:
+ 50% tổ chức dự định chi 100 triệu USD cho sáng kiến AI trong 12 tháng tới
+ 20% có kế hoạch chi ít nhất 250 triệu USD
- Doanh thu từ dịch vụ liên quan đến Google Cloud của KPMG đã tăng gấp 10 lần trong 2 năm qua
- KPMG đã công bố cam kết đầu tư 2 tỷ USD trong 5 năm để mở rộng dịch vụ AI và điện toán đám mây thông qua Microsoft vào tháng 7/2023
- Google Cloud ghi nhận:
+ Doanh thu quý 3 vượt kỳ vọng nhờ doanh số điện toán đám mây tăng 35%
+ Đang tăng cường hợp tác với các công ty tư vấn như một phần chiến lược tăng trưởng
- Ba công ty điện toán đám mây lớn - Amazon, Microsoft và Google - cùng các công ty dịch vụ chuyên nghiệp được dự đoán sẽ tiếp tục "tăng trưởng theo cấp số nhân cùng nhau"
📌 Khoản đầu tư 100 triệu USD của KPMG vào hợp tác Google Cloud phản ánh xu hướng chuyển đổi lớn nhất của ngành dịch vụ chuyên nghiệp, với 50% doanh nghiệp dự kiến chi 100 triệu USD cho AI trong năm tới. Doanh thu dịch vụ Google Cloud của KPMG đã tăng gấp 10 lần sau 2 năm.
https://finance.yahoo.com/news/kpmg-spend-100-million-ai-140525681.html
- Chi tiêu về AI tạo sinh của doanh nghiệp tăng 500% từ 2,3 tỷ USD năm 2023 lên 13,8 tỷ USD năm 2024 theo báo cáo của Menlo Ventures
- OpenAI giảm thị phần trong mảng AI doanh nghiệp từ 50% xuống 34%
- Anthropic tăng gấp đôi thị phần từ 12% lên 24%, một phần nhờ sự ra mắt của Claude 3.5
- Meta giữ nguyên thị phần 16%, Cohere ở mức 3%
- Google tăng từ 7% lên 12%, Mistral giảm 1% xuống còn 5% trong năm 2024
- Đa số công ty sử dụng từ 3 mô hình AI trở lên, các nhà phát triển linh hoạt chuyển đổi giữa các mô hình tùy theo nhu cầu sử dụng
- Mô hình nền tảng chiếm phần lớn chi tiêu doanh nghiệp với 6,5 tỷ USD đầu tư vào các mô hình ngôn ngữ lớn
- Agent AI là xu hướng đầu tư chính trong năm 2024, được phát triển bởi các công ty lớn như Google, Microsoft, Amazon, OpenAI và Anthropic
- Tạo mã là trường hợp sử dụng hàng đầu của AI tạo sinh (chiếm hơn 50% khảo sát), tiếp theo là chatbot hỗ trợ (31%), tìm kiếm và truy xuất doanh nghiệp, trích xuất và chuyển đổi dữ liệu, tóm tắt cuộc họp
📌 Chi tiêu AI tạo sinh tăng đột biến 500% lên 13,8 tỷ USD trong năm 2024, với OpenAI mất vị thế độc tôn (giảm từ 50% xuống 34%) trong khi Anthropic tăng trưởng mạnh. Agent AI và tạo mã là những xu hướng chủ đạo được doanh nghiệp ưu tiên đầu tư.
https://www.cnbc.com/2024/11/20/business-spending-on-ai-surged-500percent-this-year-to-13point8-billion-says-menlo-ventures.html
- Microsoft đã xây dựng hệ sinh thái AI agent lớn nhất với hơn 100.000 tổ chức sử dụng Copilot Studio, tăng gấp đôi chỉ trong một quý
- Tại hội nghị Ignite, Microsoft công bố cho phép doanh nghiệp sử dụng 1.800 mô hình ngôn ngữ lớn trong Azure, mở rộng từ việc chỉ phụ thuộc vào OpenAI
- Nền tảng tích hợp với hơn 1.400 hệ thống và nguồn dữ liệu doanh nghiệp như SAP, ServiceNow và cơ sở dữ liệu SQL
- Microsoft ra mắt 10 agent tự chủ được xây dựng sẵn nhắm vào các chức năng kinh doanh cốt lõi như bán hàng, dịch vụ, tài chính và chuỗi cung ứng
- Các tính năng bảo mật và quản trị được tích hợp sẵn trong kiến trúc cốt lõi, đảm bảo agent hoạt động trong khuôn khổ quyền hạn doanh nghiệp
- McKinsey đã giảm quy trình tiếp nhận dự án từ 20 ngày xuống 2 ngày nhờ agent định tuyến tự động
- Pets at Home triển khai agent phòng chống gian lận trong 2 tuần, tiết kiệm hàng triệu USD mỗi năm
- Microsoft phát triển "agent mesh" - hệ thống kết nối cho phép các AI agent cộng tác giải quyết vấn đề phức tạp
- Đối thủ cạnh tranh như Salesforce (10.000 agent) và ServiceNow vẫn đang ở giai đoạn đầu và thiếu tầm với doanh nghiệp rộng rãi như Microsoft
- Công nghệ agent vẫn còn sơ khai, các mô hình ngôn ngữ lớn có thể tạo ảo giác và cần quản lý cẩn thận để tránh vòng lặp vô hạn hoặc chi phí không cần thiết
📌 Microsoft dẫn đầu thị trường AI agent doanh nghiệp với 100.000 tổ chức sử dụng, gấp đôi trong một quý. Nền tảng tích hợp 1.400 hệ thống, 1.800 mô hình ngôn ngữ lớn và 10 agent tự chủ được xây dựng sẵn. Tuy nhiên công nghệ vẫn ở giai đoạn đầu và cần quản lý cẩn thận.
https://venturebeat.com/ai/microsoft-quietly-assembles-the-largest-ai-agent-ecosystem-and-no-one-else-is-close/
- Theo khảo sát của KPMG, 78% lãnh đạo cấp cao tự tin về ROI của AI tạo sinh, tuy nhiên phần lớn công ty vẫn đang loay hoay trong việc định lượng giá trị thực tế
- Các thách thức chính khi đo lường ROI của AI tạo sinh:
- Thiếu tiêu chuẩn đo lường thống nhất
- Khó phân tách tác động của AI với các yếu tố khác
- Nhiều lợi ích gián tiếp khó định lượng bằng tiền
- Thời gian để thấy hiệu quả thường kéo dài
- Vấn đề chất lượng và khả năng tiếp cận dữ liệu
- Công nghệ phát triển quá nhanh
- Các chỉ số KPI quan trọng cần theo dõi:
- Tăng năng suất
- Tiết kiệm chi phí và thời gian
- Tỷ lệ giảm lỗi
- Hiệu quả sử dụng dữ liệu
- Mức độ hài lòng của khách hàng
- Ví dụ thực tế từ công ty Drip Capital:
- Tăng 70% năng suất xử lý tài liệu
- Giảm 80% tỷ lệ lỗi
- Giảm 92% thời gian xử lý giao dịch
- Tăng 40% điểm số NPS
- Tăng 50% hiệu quả sử dụng dữ liệu
- Khung đánh giá 12 bước để đo lường ROI:
- Xác định mục tiêu chiến lược
- Đánh giá cơ sở
- Xác định và ưu tiên use case
- Mô hình hóa chi phí
- Dự báo lợi ích
- Đánh giá và giảm thiểu rủi ro
- Tính toán ROI
- Đánh giá tác động định tính
- Triển khai và giám sát
- Cải tiến liên tục
- Đánh giá khả năng mở rộng
- Báo cáo với các bên liên quan
📌 AI tạo sinh đòi hỏi cách tiếp cận mới trong đo lường giá trị, vượt ra ngoài các chỉ số tài chính truyền thống. 78% lãnh đạo tin tưởng ROI nhưng cần khung đánh giá toàn diện 12 bước, kết hợp cả định lượng và định tính để tối đa hóa hiệu quả đầu tư.
https://venturebeat.com/ai/unlocking-generative-ais-true-value-a-guide-to-measuring-roi/
- Baidu ra mắt ERNIE Bot vào ngày 16/3/2023, là chatbot AI đầu tiên của các công ty đại chúng trên thế giới
- Sau 18-20 tháng, ERNIE Bot đã có những cải tiến quan trọng:
- Chi phí vận hành giảm 99% so với phiên bản đầu tiên
- Độ chính xác câu trả lời tăng đáng kể, người dùng có thể tin tưởng vào kết quả
- Tốc độ phản hồi được tối ưu theo nhu cầu, từ dưới 1 giây đến 10 giây
- Về robotaxi Apollo Go của Baidu:
- Đang vận hành hơn 400 xe tại thành phố Vũ Hán, phục vụ khoảng 9 triệu người
- Giá cước thấp hơn taxi thông thường
- Đạt cấp độ 4 về tự hành, có thể hoạt động không cần tài xế trong các khu vực hạn chế
- Về thị trường AI tại Trung Quốc:
- Tập trung vào ứng dụng thực tế
- 18% kết quả tìm kiếm Baidu được tạo bởi ERNIE Bot
- Phát triển con người số cho livestream bán hàng, tương tác được với khách hàng
- Dự báo tương lai trong 5-10 năm:
- Người dùng có thể lập trình bằng ngôn ngữ tự nhiên thay vì code
- Không cần sử dụng Python hay C++
- Công nghệ sẽ trở nên dân chủ hóa hơn
📌 Baidu đang dẫn đầu cuộc cách mạng AI tại Trung Quốc với ERNIE Bot phục vụ hơn 300 triệu người dùng, giảm 99% chi phí vận hành, và đội xe robotaxi 400 chiếc tại Vũ Hán. Công ty dự báo trong 5-10 năm tới, mọi người sẽ có thể lập trình bằng ngôn ngữ tự nhiên thay vì code.
https://hbr.org/podcast/2024/11/future-of-business-baidus-robin-li-on-the-technology-trends-that-will-transform-business
#HBR
• Hiện tại, các khảo sát về tỷ lệ áp dụng AI cao trong doanh nghiệp nhỏ chỉ là phóng đại. Phần lớn doanh nghiệp nhỏ chưa thực sự ứng dụng AI như các công ty lớn.
• Trong khi các thương hiệu lớn như Klarna, T-Mobile, UBS Warburg và JP Morgan đầu tư hàng triệu USD để tạo mô hình ngôn ngữ lớn, doanh nghiệp nhỏ chỉ mới thử nghiệm với ChatGPT, Claude hoặc Microsoft Copilot.
• Năm 2025, làn sóng phần mềm AI Agent sẽ giúp doanh nghiệp nhỏ tự động hóa nhiều quy trình:
- Microsoft ra mắt 10 Agent cho Dynamics 365 để xử lý khách hàng tiềm năng, xác nhận đơn hàng, đối chiếu hóa đơn
- Salesforce giới thiệu SDR và Einstein Coach để đánh giá khách hàng tiềm năng, lên lịch họp
- Intuit phát triển Agent phân tích dòng tiền và tự động thanh toán hóa đơn
- Nvidia công bố Agent giọng nói đảm nhận vai trò y tá với chi phí thấp hơn
- Anthropic và Google tạo Agent có thể điều khiển thiết bị để thực hiện các tác vụ như đặt vé máy bay, đặt văn phòng phẩm
• Các Agent này sẽ thay thế một số công việc của con người, tạo lo ngại về mất việc làm. Tuy nhiên, trong bối cảnh thiếu hụt lao động, Agent là giải pháp hữu ích cho doanh nghiệp.
• Doanh nghiệp cần chủ động trao đổi với nhà cung cấp phần mềm về AI Agent và đào tạo nhân viên để tận dụng công nghệ mới này.
📌 Năm 2025, AI Agent sẽ giúp doanh nghiệp vừa và nhỏ tự động hóa nhiều quy trình quan trọng. Microsoft, Salesforce và Intuit dẫn đầu với các giải pháp Agent cho phép xử lý khách hàng, quản lý tài chính và thay thế một số vị trí nhân sự với chi phí thấp hơn.
https://www.forbes.com/sites/quickerbettertech/2024/11/14/how-ai-agents-will-disrupt-small-and-mid-sized-business-in-2025/
- Infosys đã triển khai GitHub Copilot cho khoảng 20.000 lập trình viên, tạo ra gần 1 triệu dòng mã mỗi vài tuần
- Puneet Chandok, chủ tịch Microsoft Ấn Độ và Nam Á xác nhận 18.000 lập trình viên Infosys đã viết 7 triệu dòng mã sử dụng GitHub Copilot
- Từ năm 2022, Infosys bắt đầu hành trình trở thành công ty AI-first, tích hợp AI vào mọi khía cạnh kinh doanh
- Công ty phát triển InfyMe - trợ lý cá nhân được hỗ trợ bởi Microsoft Copilot giúp nhân viên truy cập thông tin nhanh chóng
- Nền tảng học tập cá nhân hóa Springboard được triển khai cho 370.000 nhân viên để nâng cao kỹ năng kỹ thuật
- Infosys đã phát triển các vai trò "AI builders" và "AI masters", tạo ra 15 mô hình chuyên biệt bao gồm Infosys Topaz BankingSLM với 2,5 tỷ tham số
- Công ty đã xây dựng nền tảng hạ tầng AI sử dụng Azure và Infosys Topaz, cho phép phát triển ứng dụng trong vài tuần thay vì nhiều tháng
- Hợp tác với Meta để tích hợp Llama 3.1 và 3.2 vào nền tảng Infosys Topaz, tạo ra các công cụ như trợ lý tài liệu
- Infosys cũng hợp tác với NVIDIA để tích hợp NVIDIA AI Enterprise vào bộ Infosys Topaz
- So sánh với đối thủ: TCS đang tạo giải pháp AI với NVIDIA, Wipro đã đào tạo 44.000 nhân viên về AI nâng cao, Tech Mahindra ra mắt mô hình AI tiếng Hindi Indus 2
📌 Infosys đã thành công chuyển đổi thành công ty AI từ cốt lõi với 20.000 lập trình viên sử dụng Copilot, tạo 7 triệu dòng mã, đào tạo 370.000 nhân viên về AI và phát triển 15 mô hình AI chuyên biệt. Công ty tích hợp Microsoft Copilot, Meta Llama và NVIDIA AI để xây dựng hệ sinh thái AI toàn diện.
https://analyticsindiamag.com/ai-origins-evolution/how-microsofts-copilot-and-metas-llama-turned-infosys-into-an-ai-first-company/
- Chet Kapoor, chủ tịch kiêm CEO của Datastax khẳng định: không thể có AI mà không có dữ liệu phi cấu trúc ở quy mô lớn
- Tại sự kiện Techcrunch Disrupt 2024, các chuyên gia thảo luận về tầm quan trọng của:
+ Chất lượng dữ liệu
+ Vai trò của dữ liệu thời gian thực trong AI tạo sinh
+ Ưu tiên product-market fit hơn là quy mô trong giai đoạn đầu của AI
- Các đội ngũ SWAT đang viết hướng dẫn về cách xây dựng ứng dụng AI tạo sinh, thay vì đọc sách hướng dẫn có sẵn
- Vanessa Larco từ quỹ đầu tư NEA đề xuất cách tiếp cận thực tế:
+ Xác định rõ mục tiêu cần đạt được
+ Tìm kiếm dữ liệu phù hợp với mục tiêu
+ Không nên áp dụng AI tạo sinh cho toàn bộ công ty ngay từ đầu
+ Tập trung vào các ứng dụng nội bộ với mục tiêu cụ thể
- George Fraser, CEO của Fivetran nhấn mạnh:
+ Chỉ giải quyết các vấn đề hiện tại
+ 99% chi phí đổi mới thường đến từ những thứ không hiệu quả
+ Fivetran có khách hàng lớn như OpenAI và Salesforce
- Chet Kapoor ví von giai đoạn hiện tại là "kỷ nguyên Angry Birds của AI tạo sinh":
+ Năm 2024: các doanh nghiệp đưa các ứng dụng nhỏ, nội bộ vào sản xuất
+ Năm 2025: dự đoán là năm của sự chuyển đổi, với các ứng dụng thực sự thay đổi quỹ đạo phát triển của doanh nghiệp
📌 AI tạo sinh đang trong giai đoạn sơ khai giống như thời kỳ đầu của web và smartphone. Các chuyên gia khuyến nghị doanh nghiệp nên bắt đầu từ các dự án nhỏ, nội bộ với 99% chi phí đổi mới đến từ những thử nghiệm không thành công.
https://techcrunch.com/2024/11/03/genai-suffers-from-data-overload-so-companies-should-focus-on-smaller-specific-goals/
- Theo khảo sát của Boston Consulting Group (BCG) với 1.000 giám đốc điều hành từ 20 lĩnh vực, 10 ngành công nghiệp và 59 quốc gia, 98% công ty đang thử nghiệm AI
- Chỉ 26% doanh nghiệp đã tạo được giá trị thực từ AI, trong đó 4% được coi là đi đầu về đổi mới AI
- Nhóm dẫn đầu đạt kết quả vượt trội:
+ Giá trị cổ đông cao hơn 60%
+ Doanh thu cao hơn 50% so với mức trung bình
+ Lợi nhuận đầu tư cao hơn 40%
- 6 đặc điểm của doanh nghiệp dẫn đầu về AI:
+ Tập trung vào quy trình kinh doanh cốt lõi
+ Đặt mục tiêu tham vọng
+ Đầu tư có chiến lược vào các cơ hội ưu tiên
+ Tích hợp AI để giảm chi phí và tăng doanh thu
+ Chú trọng con người và quy trình hơn công nghệ
+ Nhanh chóng áp dụng AI tạo sinh
- OpenAI ra mắt ChatGPT Search:
+ Cung cấp thông tin thời gian thực về thể thao, chứng khoán, tin tức, thời tiết
+ Hợp tác với nhiều tổ chức tin tức lớn
+ Sử dụng ngôn ngữ tự nhiên thay vì từ khóa
+ Đe dọa vị thế thống trị của Google (92% thị phần tìm kiếm)
- Xu hướng định giá dịch vụ AI đa dạng:
+ Tính phí theo số lượng tác vụ tự động hóa
+ Tính theo giờ
+ Tính theo số lượng cuộc hội thoại
+ Tính theo số token đầu vào/đầu ra
+ Tính theo số lần giải quyết thành công
📌 BCG chỉ ra 26% doanh nghiệp đã tạo giá trị thực từ AI với 6 đặc điểm nổi bật, trong đó quan trọng nhất là tập trung 70% nguồn lực vào con người và quy trình. OpenAI tham gia thị trường tìm kiếm với ChatGPT Search, thách thức vị thế của Google với 92% thị phần.
https://thelettertwo.com/2024/11/01/ai-economy-how-companies-unlock-ai-value-beyond-hype/
- Theo khảo sát của Resume Builder, hơn 50% công ty hiện đang sử dụng công nghệ AI trong quy trình tuyển dụng và con số này sẽ tăng lên 70% vào cuối năm 2025
- Hiện tại, 82% công ty sử dụng AI để sàng lọc hồ sơ ứng viên
- 40% doanh nghiệp áp dụng AI để giao tiếp với ứng viên
- 64% sử dụng AI để đánh giá các bài kiểm tra và bài tập của ứng viên trong quá trình phỏng vấn
- 23% công ty đã sử dụng AI để tiến hành phỏng vấn, với các chức năng:
+ Đặt câu hỏi phỏng vấn
+ Phân tích ngôn ngữ cơ thể
+ Ghi chép nội dung phỏng vấn
- 24% doanh nghiệp hiện đang sử dụng AI cho toàn bộ quy trình phỏng vấn, dự kiến tăng lên 29% vào cuối năm 2025
- 21% công ty loại ứng viên ở bất kỳ giai đoạn nào của quá trình tuyển dụng mà không cần con người xem xét
- 67% công ty thừa nhận công cụ AI có thể tạo ra thiên vị trong quá trình tuyển dụng
- Các chuyên gia cảnh báo nên hạn chế sử dụng AI cho:
+ Tuyển dụng vị trí cấp cao
+ Đánh giá phong cách lãnh đạo
+ Đánh giá trí tuệ cảm xúc
+ Xem xét nguyện vọng nghề nghiệp
+ Đánh giá sự phù hợp với tổ chức
📌 AI đang nhanh chóng thâm nhập vào quy trình tuyển dụng với 70% công ty dự kiến áp dụng vào năm 2025. Mặc dù mang lại hiệu quả trong sàng lọc hồ sơ (82% công ty), 67% doanh nghiệp lo ngại về vấn đề thiên vị và đề xuất hạn chế sử dụng AI trong các vị trí quan trọng.
https://www.fastcompany.com/91220282/70-of-companies-will-use-ai-for-hiring-in-2025-says-new-study
- Tại sự kiện thường niên của Gartner, các nhà phân tích nhấn mạnh rằng AI không chỉ xoay quanh AI tạo sinh mà còn có nhiều loại AI khác đã và đang hỗ trợ doanh nghiệp trong nhiều lĩnh vực như chuỗi cung ứng, dự báo doanh số và phát hiện gian lận.
- Rita Sallam của Gartner cho rằng các tổ chức chỉ tập trung vào AI tạo sinh dễ thất bại trong dự án AI do tính chất xác suất, khó đạt độ tin cậy và có xu hướng "ảo giác". AI tạo sinh phù hợp với các trường hợp tạo nội dung, khám phá tri thức, nhưng không thích hợp cho tối ưu hóa, dự báo, trí tuệ quyết định hoặc hệ thống tự động.
- Arun Chandrasekaran của Gartner chia sẻ rằng đến 60-70% dự án AI tạo sinh không được đưa vào sản xuất do chất lượng dữ liệu thấp, kiểm soát rủi ro chưa đủ, chi phí tăng cao và giá trị kinh doanh không rõ ràng. Các ứng dụng phổ biến nhất của AI tạo sinh là tạo mã, tài liệu và bảo mật IT, nhưng phần lớn dự án thất bại do thiếu tính khả thi hoặc không mang lại giá trị cụ thể.
- Khi triển khai AI, các công ty nên bắt đầu từ việc xác định các trường hợp sử dụng có giá trị kinh doanh cao nhất, sau đó ưu tiên các trường hợp dễ triển khai. Chandrasekaran khuyến nghị chọn giải pháp có AI tạo sinh tích hợp hoặc API mở rộng và tiến hành thử nghiệm trong môi trường sandbox.
- Để phát triển và mở rộng AI, các công ty cần xây dựng kiến trúc nền tảng linh hoạt, đảm bảo tính an toàn dữ liệu, công bằng và dễ giải thích cho người dùng. Đầu tư vào việc hiểu biết AI cũng quan trọng vì nhiều nhân viên sẽ làm việc với công nghệ AI trong thời gian tới.
- Svetlana Sicular cho rằng chiến lược AI cần dựa trên 4 trụ cột: tầm nhìn, rủi ro, giá trị và sự chấp nhận. Cô nhấn mạnh chỉ nên chọn một số ít trường hợp sử dụng cụ thể để thử nghiệm trước khi triển khai rộng rãi, thay vì tập trung vào việc so sánh các nhà cung cấp.
- Frances Karamouzis nói về khó khăn trong quản trị AI và cách chia nhỏ quyền hạn quản trị trong các tổ chức. Mô hình gồm 6 trụ cột quản trị giúp định hướng chính sách, cơ cấu vai trò và trách nhiệm nhằm đảm bảo sự phù hợp và hiệu quả trong việc triển khai AI.
- Erick Brethenoux của Gartner nhấn mạnh rằng tương lai của AI nên là "nhân văn", giúp đơn giản hóa công việc cho con người. Ông cũng đề cập rằng các yếu tố nền tảng cho AI trong tương lai sẽ bao gồm các AI agent, composite AI và AI engineering, và rằng AI cần giảm thiểu các phiền toái để tăng năng suất cho người dùng.
- Cuối cùng, Philip Walsh khẳng định rằng AI không thể thay thế kỹ sư phần mềm vì những kỹ năng phức tạp của họ như giải quyết vấn đề sáng tạo và tư duy phản biện. Thay vào đó, AI có thể trở thành công cụ hỗ trợ, giúp họ tập trung vào các nhiệm vụ cấp cao. Các công cụ AI sẽ đóng vai trò như "trợ lý" hoặc "nhạc trưởng" hơn là thay thế hoàn toàn kỹ sư phần mềm.
📌 Sự kiện của Gartner nhấn mạnh rằng AI, đặc biệt là AI tạo sinh, không thể thay thế vai trò của kỹ sư phần mềm, thay vào đó nó là công cụ bổ trợ mạnh mẽ. Các tổ chức nên tập trung vào các trường hợp sử dụng AI phù hợp, xây dựng chiến lược linh hoạt, và đầu tư vào kiến thức AI cho nhân viên để tối ưu hóa giá trị kinh doanh trong dài hạn.
https://www.pcmag.com/articles/how-to-make-ai-work-for-you-and-why-it-wont-replace-software-engineering
- AI tạo sinh có tiềm năng đóng góp 4,4 nghìn tỷ USD cho nền kinh tế toàn cầu mỗi năm theo nghiên cứu của McKinsey & Company
- 44% công ty được khảo sát báo cáo có tăng trưởng doanh thu nhờ ứng dụng AI
- Các lĩnh vực có tỷ lệ tăng trưởng doanh thu cao nhất:
* Rủi ro, pháp lý và tuân thủ: 62%
* Công nghệ thông tin: 56%
* Marketing và bán hàng: 53%
* Chuỗi cung ứng: 53%
- Phân bổ tăng trưởng doanh thu trung bình theo mức độ:
* 32% doanh nghiệp tăng ≤5%
* 11% doanh nghiệp tăng 6-10%
* 11% doanh nghiệp tăng >10%
- Vai trò của trung tâm dữ liệu trong việc áp dụng AI:
* Xử lý toàn bộ yêu cầu AI
* Đào tạo mô hình AI cần lượng dữ liệu gấp 10 lần tham số
* Nhiều mô hình có hàng nghìn tỷ tham số
* Năng lực tính toán tăng gấp 6 lần trong giai đoạn 2019-2022
📌 AI đang tạo ra làn sóng tăng trưởng mạnh mẽ với 44% doanh nghiệp ghi nhận tăng doanh thu. Lĩnh vực pháp lý và tuân thủ dẫn đầu với 62% tăng trưởng. Trung tâm dữ liệu đóng vai trò then chốt khi tăng năng lực tính toán gấp 6 lần trong 3 năm.
https://www.visualcapitalist.com/sp/gx03-ai-adoption-revenue/
• Nghiên cứu được thực hiện bởi AI at Wharton (thuộc Đại học Pennsylvania) và GBK Collective, khảo sát hơn 800 người ra quyết định doanh nghiệp tại Mỹ
• Tỷ lệ lãnh đạo sử dụng AI hàng tuần tăng mạnh từ 37% lên 72%
• Mức chi tiêu cho AI của doanh nghiệp tăng 130% so với năm 2023
• 72% công ty lên kế hoạch đầu tư thêm cho AI trong năm 2025
• 90% lãnh đạo tin rằng AI giúp nâng cao kỹ năng nhân viên (tăng từ 80%)
• Lo ngại về việc mất việc do AI giảm nhẹ từ 75% xuống 72%
• 58% tổ chức đánh giá hiệu suất AI ở mức "tuyệt vời"
• Hơn 40% công ty đầu tư trên 10 triệu USD cho công nghệ AI, tăng đáng kể so với mức 1-5 triệu USD năm trước
• Chỉ 1/3 ngân sách được chi cho công nghệ, phần còn lại dành cho đào tạo, tuyển dụng và tư vấn
• Doanh nghiệp nhỏ (doanh thu 50-250 triệu USD) và vừa (250 triệu - 2 tỷ USD) đang dẫn đầu về áp dụng AI
• Các thách thức chính bao gồm quản trị dữ liệu và bảo mật, lo ngại về rò rỉ dữ liệu ngay cả khi sử dụng công cụ AI cấp doanh nghiệp
• Giáo sư Stefano Puntoni nhận định ngành tư vấn sẽ hưởng lợi lớn từ làn sóng AI, do công nghệ AI đang dần trở thành hàng hóa phổ thông
📌 Năm 2024 chứng kiến bước chuyển mình mạnh mẽ của AI trong doanh nghiệp với mức chi tiêu tăng 130%. Đặc biệt, doanh nghiệp nhỏ và vừa đang dẫn đầu xu hướng với 72% lãnh đạo sử dụng AI hàng tuần. Ngành tư vấn được dự đoán sẽ hưởng lợi lớn khi các công ty tập trung vào tích hợp AI vào quy trình kinh doanh.
https://venturebeat.com/ai/enterprise-ai-adoption-surges-as-organizations-shift-from-experimentation-to-implementation/
• Mặc dù có nhiều hoài nghi về khả năng sinh lời (ROI) của AI tạo sinh, 97% doanh nghiệp tiên phong áp dụng công nghệ này báo cáo đạt được lợi ích cụ thể
• Khảo sát mới từ ETR với gần 1.800 người ra quyết định công nghệ cho thấy 84% đang tích cực triển khai AI tạo sinh, chỉ còn 13% chưa đánh giá (giảm mạnh so với 1/3 vào năm ngoái)
• Các trường hợp sử dụng phổ biến nhất:
- Tóm tắt văn bản và dữ liệu: 31%
- Hợp tác: 28%
- Phát triển nội dung marketing và bán hàng
- Tạo mã code
• 56% doanh nghiệp kỳ vọng đạt điểm hòa vốn trong vòng 12 tháng
• Lợi ích chính từ triển khai AI tạo sinh:
- 77% báo cáo tăng năng suất và hiệu quả
- 39% cải thiện hỗ trợ khách hàng
- 33% tiết kiệm chi phí nhân sự
• Ngành tài chính dẫn đầu với:
- 84% đạt cải thiện năng suất
- 50% cải thiện hỗ trợ khách hàng
- Chỉ 1% không thấy lợi ích
• Chi tiêu cho AI tạo sinh:
- Đa số dưới 100.000 USD/năm
- 30% chi trên 500.000 USD/năm
- 23% chi trên 1 triệu USD/năm
- 10% chi trên 10 triệu USD/năm
📌 AI tạo sinh đang được áp dụng rộng rãi với 84% doanh nghiệp tích cực triển khai. 77% ghi nhận tăng năng suất, 56% kỳ vọng hoà vốn trong 12 tháng. Ngành tài chính dẫn đầu với 84% báo cáo cải thiện hiệu quả. Chi tiêu đang tăng mạnh với 23% doanh nghiệp đầu tư trên 1 triệu USD mỗi năm.
https://siliconangle.com/2024/10/26/generative-ai-adoption-sets-table-ai-roi/
Onboarding nhân viên mới là trách nhiệm cốt lõi của bộ phận nhân sự, và cách thực hiện ảnh hưởng lớn đến cảm giác hòa nhập vào văn hóa doanh nghiệp của người lao động. Ngày càng nhiều doanh nghiệp đang tận dụng AI và các công cụ kỹ thuật số để tạo ra quy trình onboarding cá nhân hóa, hiệu quả hơn và tiết kiệm thời gian.
Tại Hội nghị Hội đồng Nhân sự CNBC, Taylor Bradley, Giám đốc nhân sự của công ty AI Turing, đã trình bày cách AI đang cải thiện quy trình onboarding. Trong một tình huống cụ thể, Turing cần onboard 300 nhân viên trong một tuần, và AI đã giúp hoàn thành nhiệm vụ này chỉ trong dưới 6 giờ, thay vì mất từ 2 đến 5 tuần như cách truyền thống.
LLM A.L.A.N. (Always Learning, Always Nimble) là công cụ mà nhóm của Bradley đã sử dụng. Công cụ này không chỉ giúp tiết kiệm thời gian mà còn tự động tạo ra các module e-learning từ các video hướng dẫn 30-60 phút của các lãnh đạo kỹ thuật. Các video này được AI phân tích và chuyển thành nội dung cần thiết cho các module đào tạo.
Giải pháp AI cũng tạo voiceover tự động từ các bản transcript, giảm bớt gánh nặng cho các lãnh đạo kỹ thuật trong việc hướng dẫn nhân viên mới. Điều này giúp bộ phận nhân sự dễ dàng cập nhật nội dung đào tạo mà không cần kỹ năng lập trình.
Siddharth, CEO của Turing, nhấn mạnh rằng AI cần sự tham gia của con người trong quy trình để đảm bảo độ chính xác. Mặc dù hiện tượng "hallucination" từ AI không thể loại bỏ hoàn toàn, nhưng có thể giảm thiểu bằng cách giới hạn AI trong phạm vi các tài liệu chính thức của công ty như sổ tay nhân viên.
Chiến lược tiếp cận của Turing là thử nghiệm các giải pháp nhỏ (beta testing) và mở rộng những gì hiệu quả thay vì chờ đợi kết quả lớn trong nhiều năm. Điều này giúp doanh nghiệp nhanh chóng nhận được sự ủng hộ từ nhân viên và tối ưu hóa quy trình. Bradley khẳng định rằng AI là công cụ hỗ trợ, không thay thế tiếng nói của con người.
AI đang đóng vai trò quan trọng trong việc nâng cao hiệu quả của quy trình onboarding, giúp các công ty tích hợp nhanh hàng trăm nhân viên mới trong thời gian ngắn. Với cách tiếp cận kết hợp giữa công nghệ và sự kiểm soát của con người, các doanh nghiệp như Turing đang đặt ra tiêu chuẩn mới cho nhân sự hiện đại, tận dụng sức mạnh của AI mà không đánh mất yếu tố con người.
https://www.cnbc.com/2024/10/24/generative-ai-is-taking-over-the-onboarding-of-new-employees.html
📌 Multimodal Embed 3 của Cohere là bước đột phá trong tích hợp dữ liệu văn bản và hình ảnh, mở ra cơ hội mới cho AI trong các lĩnh vực như tìm kiếm, khuyến nghị, và quản lý nội dung, giúp tạo ra những trải nghiệm AI gần gũi và thông minh hơn.
https://www.marktechpost.com/2024/10/23/cohere-releases-multimodal-embed-3-a-state-of-the-art-multimodal-ai-search-model-unlocking-real-business-value-for-image-data/
📌 USAA đang từng bước tích hợp GenAI vào quy trình hoạt động, với kỳ vọng tăng cường hiệu quả và cải thiện dịch vụ khách hàng. Các nỗ lực hiện tại là khởi đầu cho hành trình ứng dụng AI lâu dài và bền vững.
https://sloanreview.mit.edu/article/how-genai-helps-usaa-innovate/
#MIT
- Chipotle đã giới thiệu Ava Cado, một hệ thống AI tuyển dụng mới, giúp giảm thời gian thuê nhân viên nhà hàng xuống 75%.
- Ava Cado sẽ hỗ trợ quy trình tuyển dụng bằng cách trò chuyện với ứng viên, thu thập thông tin, sắp xếp lịch phỏng vấn và gửi thư mời làm việc.
- Công nghệ này sẽ được triển khai theo từng giai đoạn tại 3.500 nhà hàng vào cuối tháng 10/2024, với mục tiêu mở rộng đến 7.000 nhà hàng ở Bắc Mỹ.
- Chipotle không phải là công ty duy nhất áp dụng AI tuyển dụng; McDonald’s, Wendy’s và Pfizer đã sử dụng công nghệ tương tự, giúp giảm thời gian lên lịch phỏng vấn từ 7 ngày xuống còn dưới 5 phút.
- Dù AI mang lại hiệu quả cao, nó cũng đặt ra thách thức như nguy cơ tự động hóa thành kiến (bias) nếu được huấn luyện trên bộ dữ liệu thiên lệch.
- Một rủi ro khác là AI có thể làm ứng viên cảm thấy xa lánh nếu họ bị phạt vì sử dụng AI để chuẩn bị tài liệu tuyển dụng. Ứng viên vẫn có xu hướng phản hồi tốt hơn với các nhà tuyển dụng con người.
- Ava Cado được kỳ vọng sẽ giải phóng thời gian cho các nhà quản lý, giúp họ tập trung hỗ trợ nhân viên nhiều hơn thay vì dành thời gian vào quy trình tuyển dụng.
- Ilene Eskenazi, Giám đốc Nhân sự của Chipotle, cho biết: “Chúng tôi rất hài lòng với những cải thiện ban đầu mà hệ thống này mang lại.”
📌 Chipotle ra mắt Ava Cado, hệ thống AI tuyển dụng giúp giảm 75% thời gian tuyển dụng. Dù mang lại hiệu quả cao, AI cũng gặp thách thức về bias và tương tác với ứng viên, nhưng công nghệ này đang được kỳ vọng sẽ cải thiện năng suất quản lý.
https://www.entrepreneur.com/business-news/open-to-work-chipotle-has-a-new-ai-recruiter-named-ava-cado/481776
📌 Differentiable Adaptive Merging (DAM) đang định hình tương lai hợp nhất mô hình AI, giúp doanh nghiệp tận dụng mô hình đã huấn luyện mà không cần tái đầu tư lớn. Với hiệu quả vượt trội và khả năng giảm chi phí, DAM hứa hẹn thúc đẩy AI tạo sinh trở nên phổ biến hơn trong doanh nghiệp.
https://venturebeat.com/ai/differentiable-adaptive-merging-is-accelerating-slms-for-enterprises/
- Microsoft vừa công bố bộ agent AI tự động mới cho nền tảng Dynamics 365, nhằm tăng cường tự động hóa trong các bộ phận bán hàng, tài chính, dịch vụ và chuỗi cung ứng.
- Các agent AI này sẽ được ra mắt dưới dạng thử nghiệm công khai vào tháng tới, với khả năng xử lý ngữ cảnh và ý định để đưa ra quyết định phức tạp, vượt trội so với các chatbot thông thường.
- Microsoft khẳng định các agent này không thay thế con người mà hỗ trợ mở rộng năng lực của nhân viên. “Agent giúp con người làm được những điều mà trước đây không thể làm,” Bryan Goode, Phó Chủ tịch Microsoft, nhấn mạnh.
- Động thái này diễn ra sau khi Salesforce ra mắt Agentforce – nền tảng AI của riêng họ, được CEO Marc Benioff quảng bá mạnh mẽ và chỉ trích Microsoft Copilot là "Clippy 2.0" vì kém hiệu quả.
- Microsoft tận dụng sức mạnh từ các công cụ quen thuộc như Microsoft 365 và Azure, trong khi Salesforce dựa vào chuyên môn CRM và Data Cloud để phát triển các agent AI tối ưu hóa mối quan hệ khách hàng.
- Cuộc cạnh tranh này đánh dấu bước ngoặt lớn khi các agent AI đang trở thành công cụ cốt lõi trong phần mềm doanh nghiệp, hứa hẹn định hình lại tương lai của công việc và cấu trúc tổ chức.
- Tuy nhiên, cả hai công ty phải đối mặt với thách thức về quyền riêng tư dữ liệu, minh bạch trong quyết định của AI, và lo ngại về việc mất việc làm do tự động hóa. Thành công của các nền tảng này phụ thuộc vào khả năng cân bằng giữa giá trị kinh doanh và sự minh bạch trong triển khai.
📌 Microsoft và Salesforce đang dẫn đầu trong cuộc cách mạng AI doanh nghiệp, mỗi bên với chiến lược riêng. Cuộc chiến này không chỉ định hình lại phần mềm doanh nghiệp mà còn mở ra những thay đổi lớn trong cách tổ chức và vận hành công việc.
https://venturebeat.com/ai/microsofts-new-ai-agents-set-to-shake-up-enterprise-software-sparking-new-battle-with-salesforce/
- 87% doanh nghiệp và lãnh đạo công nghệ dự định tăng đầu tư vào AI tạo sinh (gen AI) và an ninh mạng vào năm 2025, với ngân sách trung bình tăng 37% cho gen AI và 31% cho công nghệ an ninh.
- Chỉ 48% các sáng kiến số đạt hoặc vượt mục tiêu kinh doanh, cho thấy nhiều tổ chức vẫn gặp khó khăn trong việc tạo ra lợi nhuận từ công nghệ số.
- Đầu tư vào AI vận hành dự kiến tăng 30%, với 84% doanh nghiệp tăng chi tiêu trung bình 32%. Các lĩnh vực khác được tăng đầu tư gồm: phân tích dữ liệu (82%), điện toán đám mây (79%), và hiện đại hóa ứng dụng (74%).
- Những doanh nghiệp thành công thường tập trung giải quyết vấn đề cụ thể bằng cách ứng dụng công nghệ vào các trường hợp sử dụng thực tế. Julian LaNeve từ Astronomer nhấn mạnh rằng việc đo lường ROI dễ dàng hơn khi có mục tiêu rõ ràng.
- Sự hợp tác chặt chẽ giữa lãnh đạo kinh doanh và công nghệ là yếu tố then chốt. Các tổ chức có sự phối hợp cao báo cáo rằng 71% sáng kiến số của họ mang lại lợi ích kinh doanh rõ rệt.
- 26% nhân viên khối kinh doanh tham gia trực tiếp vào việc triển khai công nghệ. Doanh nghiệp có sự hợp tác tốt cũng dành 35% nguồn lực nhân sự kinh doanh cho công việc công nghệ, cao hơn so với mức 21% ở các tổ chức ít hợp tác hơn.
- 43% CIO cho biết họ sẽ giảm đầu tư vào cơ sở hạ tầng cũ, trong khi 33% dự kiến tăng đầu tư vào hạ tầng tại chỗ để phát triển các giải pháp AI tạo sinh an toàn.
📌 Sáng kiến số thành công khi các công ty ưu tiên hợp tác giữa bộ phận kinh doanh và công nghệ, tập trung vào AI tạo sinh. Với mức đầu tư vào gen AI dự kiến tăng 37%, doanh nghiệp cần giải quyết các vấn đề thực tế để đạt ROI mong muốn.
https://www.zdnet.com/article/the-secret-to-successful-digital-initiatives-is-pretty-simple-according-to-gartner/#ftag=RSSbaffb68
• Tại triển lãm CES Unveiled ở Amsterdam tháng 10/2024, các start-up công nghệ châu Âu thảo luận về thách thức cân bằng giữa đổi mới và tuân thủ quy định AI.
• Máy tính lượng tử, robot và công nghệ chuyển đổi xanh là những xu hướng hàng đầu ở châu Âu. Tuy nhiên, khó khăn về tài trợ và quy định cản trở sự phát triển của các start-up.
• Ủy ban châu Âu đã đặt hàng công nghệ từ start-up lượng tử Quandela để hỗ trợ nghiên cứu. Tuy nhiên, Quandela gặp khó khăn trong tiếp cận tài trợ so với các start-up Mỹ.
• Báo cáo của Mario Draghi cảnh báo châu Âu cần thúc đẩy môi trường thuận lợi cho đổi mới để cạnh tranh toàn cầu. Cần 750-800 tỷ euro đầu tư bổ sung hàng năm.
• Quy định AI của EU gây tranh cãi. Một số cho rằng nó cản trở đổi mới, đặc biệt với các công ty nhỏ. Tuy nhiên, một số start-up ủng hộ quy định để kiểm soát AI.
• Chuyên gia kêu gọi Mỹ và châu Âu hợp tác chặt chẽ hơn về quy định để cạnh tranh với Trung Quốc trong cuộc đua công nghệ toàn cầu.
• Quy định bảo vệ dữ liệu của EU gây khó khăn cho các công ty AI cần dữ liệu lớn. Tuy nhiên, một số đã thích nghi bằng cách phát triển hệ thống ít phụ thuộc vào dữ liệu.
• Một số start-up đánh giá cao các giá trị và quy định của châu Âu, cho rằng cần thiết để kiểm soát AI.
• Thị trường thống nhất và tăng cường nhân tài công nghệ sẽ là chìa khóa để Ủy ban châu Âu mới thành công, nhưng vẫn còn nhiều thách thức.
📌 Các start-up châu Âu đối mặt với thách thức cân bằng giữa đổi mới và tuân thủ quy định AI nghiêm ngặt. Mặc dù gặp khó khăn về tài trợ và dữ liệu, một số công ty vẫn ủng hộ quy định để kiểm soát AI. Hợp tác Mỹ-EU về quy định được xem là cần thiết để cạnh tranh với Trung Quốc trong cuộc đua công nghệ toàn cầu.
https://www.euronews.com/next/2024/10/19/why-balancing-europes-ai-regulations-is-a-difficult-juggling-act-for-start-ups
• Walmart đang đẩy nhanh chiến lược bán lẻ thích ứng, kết hợp AI tạo sinh, thực tế ảo tăng cường và cá nhân hóa để tạo trải nghiệm đa kênh tại cửa hàng, ứng dụng và website.
• Công ty phát triển loạt mô hình ngôn ngữ lớn có tên Wallaby, được huấn luyện trên dữ liệu nội bộ hàng thập kỷ để hỗ trợ trợ lý và trải nghiệm khách hàng.
• Walmart tạo nền tảng quyết định nội dung sử dụng AI để dự đoán nhu cầu khách hàng, tạo trang chủ riêng biệt cho từng người dùng dựa trên sở thích. Dự kiến ra mắt tại Mỹ cuối năm 2025.
• Công ty triển khai nhiều công cụ AI tạo sinh trong năm, tập trung cải thiện tìm kiếm và khám phá sản phẩm. Tính năng tìm kiếm nâng cao được thêm vào ứng dụng từ tháng 1/2024.
• Walmart thử nghiệm trợ lý mua sắm AI với một số khách hàng từ tháng 6/2024.
• Mục tiêu là giảm thời gian tìm kiếm và duyệt web của khách hàng, hiện trung bình 6 giờ/tuần.
• Công ty sử dụng AI tạo sinh để tạo hoặc cải thiện chất lượng hơn 850 triệu dữ liệu trong danh mục sản phẩm.
• Thông tin kết nối với thiết bị di động của nhân viên cửa hàng và kho, giúp tìm sản phẩm và chuẩn bị đơn hàng nhanh hơn.
• Walmart phát triển nền tảng thực tế ảo tăng cường Retina, cho phép khách hàng mua sắm trong môi trường xã hội ảo.
• Google cũng cập nhật tìm kiếm bằng AI, cải thiện tính năng Lens và kết quả tìm kiếm công thức nấu ăn.
• Walmart nhấn mạnh việc sử dụng công nghệ để thích ứng với nhu cầu cá nhân thay vì thanh tìm kiếm tiêu chuẩn.
📌 Walmart đang dẫn đầu ứng dụng AI trong bán lẻ với mô hình ngôn ngữ lớn riêng Wallaby và trang chủ cá nhân hóa. Công ty tập trung vào trải nghiệm đa kênh, cải thiện tìm kiếm và hiệu quả vận hành, dự kiến ra mắt nhiều tính năng mới đến cuối 2025.
https://www.customerexperiencedive.com/news/walmart-ai-large-language-model-internal-data-personalization/729412/
• Google Cloud giới thiệu Gemini Code Assist Enterprise, trước đây gọi là Duet AI, nhằm cạnh tranh với nền tảng lập trình doanh nghiệp của GitHub.
• Tính năng mới giúp lập trình viên code nhanh hơn bằng cách hiểu codebase của tổ chức, có cửa sổ ngữ cảnh lớn và cho phép tùy chỉnh.
• Giá sử dụng: 45 USD/tháng/người dùng hoặc 19 USD/tháng với đăng ký hàng năm.
• Nền tảng đưa ra gợi ý code dựa trên codebase cục bộ, giúp tạo hoặc chuyển đổi code phù hợp hơn với ứng dụng.
• Kết nối trực tiếp với các dịch vụ Google Cloud khác như Firebase, Databases, BigQuery, Colab Enterprise, Apigee và Application Integration.
• Tính năng tùy chỉnh code dựa trên thư viện nội bộ, hỗ trợ đánh chỉ mục thư viện GitHub và GitLab.
• Nhấn mạnh vào bảo mật cấp doanh nghiệp: không sử dụng dữ liệu khách hàng để huấn luyện mô hình Gemini, cho phép kiểm soát hoàn toàn các kho lưu trữ được đánh chỉ mục.
• Google cung cấp bồi thường pháp lý cho bất kỳ code nào được tạo bởi Gemini Code Assist Enterprise.
• Xu hướng trợ lý lập trình tập trung vào doanh nghiệp đang phát triển: GitHub Copilot Enterprise, Oracle's coding assistant, Harness.
• Việc Google tham gia thị trường nhấn mạnh sự cạnh tranh ngày càng tăng trong lĩnh vực trợ lý lập trình và nhu cầu về giải pháp dành riêng cho doanh nghiệp.
• Tích hợp trợ lý lập trình vào môi trường phát triển mang lại tính linh hoạt cho các công ty muốn cải thiện năng suất.
• Khả năng kiểm tra code nhanh chóng và sửa lỗi trên codebase cục bộ giúp công ty triển khai ứng dụng nhanh hơn.
📌 Google ra mắt Gemini Code Assist Enterprise, cạnh tranh trực tiếp với GitHub trong lĩnh vực trợ lý lập trình doanh nghiệp. Tính năng mới giúp lập trình viên code nhanh hơn, hiểu codebase tổ chức và tăng cường bảo mật với giá 45 USD/tháng/người dùng.
https://venturebeat.com/ai/googles-gemini-enterprise-coding-assistant-shows-enterprise-focused-coding-is-growing/
• NVIDIA giới thiệu khung FACTS để phát triển chatbot doanh nghiệp hiệu quả dựa trên Tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG).
• Khung FACTS tập trung vào 5 yếu tố chính:
- Độ mới (Freshness): Đảm bảo phản hồi của chatbot phản ánh dữ liệu doanh nghiệp mới nhất thông qua tích hợp cơ sở dữ liệu vector hỗ trợ truy xuất nội dung thời gian thực.
- Kiến trúc (Architecture): Xây dựng nền tảng chatbot linh hoạt, mô-đun để đáp ứng nhu cầu đa dạng của doanh nghiệp. Hỗ trợ tích hợp nhiều mô hình ngôn ngữ lớn, cơ sở dữ liệu vector và các thành phần khác.
- Chi phí (Cost): Cân bằng sử dụng mô hình ngôn ngữ lớn và nhỏ để tối ưu hiệu quả kinh tế mà không ảnh hưởng hiệu suất.
- Kiểm thử (Testing): Thực hiện kiểm thử nghiêm ngặt bao gồm đánh giá tự động và xác thực có sự tham gia của con người.
- Bảo mật (Security): Bảo vệ dữ liệu nhạy cảm của doanh nghiệp, tuân thủ chính sách kiểm soát truy cập và triển khai các biện pháp bảo vệ.
• NVIDIA đã phát triển 3 chatbot doanh nghiệp sử dụng khung FACTS:
- NVInfo Bot: Quản lý khoảng 500 triệu tài liệu doanh nghiệp, đảm bảo khả năng truy cập và thực thi kiểm soát truy cập tài liệu.
- NVHelp Bot: Tập trung vào hỗ trợ IT và phúc lợi nhân sự, sử dụng nguồn dữ liệu đa phương thức để trả lời câu hỏi của nhân viên.
- Scout Bot: Cung cấp thông tin tài chính công ty bằng cách quản lý dữ liệu có cấu trúc và phi cấu trúc từ nguồn công khai.
• Kết quả cho thấy tuân thủ các nguyên tắc FACTS cải thiện đáng kể độ tin cậy và trải nghiệm người dùng của chatbot dựa trên RAG.
• Tích hợp cơ chế tìm kiếm kết hợp (vector và từ vựng) nâng cao độ liên quan khi truy xuất, trong khi kiến trúc đa agent cho phép xử lý các truy vấn phức tạp hơn.
📌 Khung FACTS của NVIDIA cung cấp giải pháp toàn diện để xây dựng chatbot doanh nghiệp hiệu quả và an toàn. Tập trung vào 5 yếu tố chính, khung này giải quyết các thách thức cốt lõi khi triển khai AI hội thoại trong doanh nghiệp, nâng cao hiệu suất và sự hài lòng của người dùng.
https://www.marktechpost.com/2024/10/07/nvidia-ai-introduces-facts-a-comprehensive-framework-for-enterprise-rag-based-chatbots/
• Matt Garman trở thành CEO mới của Amazon Web Services (AWS) sau khi Adam Selipsky từ chức.
• Garman gia nhập Amazon từ năm 2005 với vai trò thực tập sinh và trở thành nhân viên chính thức vào năm 2006.
• Ông nhấn mạnh việc tập trung vào các startup và phát triển nhanh, đồng thời duy trì tốc độ đổi mới cao.
• AWS đang đẩy mạnh phát triển trong lĩnh vực AI tạo sinh với nền tảng Bedrock.
• Bedrock cung cấp quyền truy cập vào nhiều mô hình mở và độc quyền, cho phép người dùng tùy chỉnh và kết hợp các mô hình khác nhau.
• Garman cho biết Bedrock đang "phát triển như cỏ dại" và công ty đang tập trung vào việc giảm chi phí sử dụng AI.
• AWS sẽ ra mắt thế hệ tiếp theo của chip Trainium tùy chỉnh vào cuối năm nay.
• Công ty cũng đang phát triển các mô hình ngôn ngữ lớn của riêng mình, nhưng vẫn tiếp tục hợp tác với các mô hình của bên thứ ba.
• AWS đã giới thiệu Q, một trợ lý AI tạo sinh với hai phiên bản: Q Developer và Q Business.
• Q Developer hỗ trợ các nhà phát triển trong suốt vòng đời phát triển, không chỉ tập trung vào việc viết mã.
• Q Business tập trung vào việc tổng hợp dữ liệu nội bộ của công ty từ nhiều nguồn khác nhau và cung cấp khả năng tìm kiếm thông qua giao diện hỏi đáp giống ChatGPT.
• AWS gần đây đã thông báo kế hoạch đóng cửa một số dịch vụ như Cloud9 IDE, CodeCommit và CloudSearch.
• Garman giải thích rằng việc đóng cửa các dịch vụ này là một phần của quá trình "dọn dẹp" và tập trung vào các giải pháp tốt hơn.
• AWS đang cải thiện mối quan hệ với cộng đồng nguồn mở, gần đây đã chuyển mã OpenSearch cho Linux Foundation.
• Garman khẳng định AWS yêu thích và ủng hộ nguồn mở, đồng thời cam kết đóng góp cho cộng đồng.
• Công ty đã đầu tư vào nhiều dự án nguồn mở và mở mã nguồn nhiều dự án của riêng mình.
• Garman cho rằng AWS đã phát triển và học cách trở thành một người quản lý tốt trong cộng đồng nguồn mở.
📌 Matt Garman, CEO mới của AWS, định hướng công ty tập trung vào startup, đổi mới nhanh và AI tạo sinh. AWS đang phát triển nền tảng Bedrock, ra mắt chip Trainium mới và cải thiện quan hệ với cộng đồng nguồn mở. Công ty cũng đang tối ưu hóa danh mục dịch vụ bằng cách đóng cửa một số sản phẩm kém hiệu quả.
https://techcrunch.com/2024/10/06/aws-ceo-matt-garman-on-generative-ai-open-source-and-closing-services/
• Theo khảo sát của McKinsey, 65% tổ chức đã sử dụng AI tạo sinh thường xuyên, tăng gần gấp đôi so với khảo sát trước đó chưa đầy 1 năm.
• Doanh nghiệp cần tránh áp dụng AI chỉ vì tính mới lạ. Thay vào đó, nên tập trung sử dụng AI để cải thiện căn bản hoạt động và trải nghiệm khách hàng.
• Khung ARC đề xuất 3 giai đoạn triển khai AI: tăng cường, thay thế và sáng tạo.
• Giai đoạn tăng cường: sử dụng AI để nâng cao năng lực hiện có, như tự động hóa giám sát mạng, phát hiện bất thường, khắc phục sự cố.
• Giai đoạn thay thế: AI thay thế hoàn toàn các tác vụ trước đây do con người thực hiện. Ví dụ: chatbot AI thay thế nhân viên xử lý các yêu cầu thông thường của khách hàng.
• Giai đoạn sáng tạo: AI trở thành chất xúc tác cho các mô hình kinh doanh và nguồn doanh thu hoàn toàn mới. Ví dụ: phân tích dữ liệu thời gian thực về hành vi người hâm mộ tại sân vận động để cá nhân hóa trải nghiệm.
• Các giai đoạn của khung ARC có thể diễn ra đồng thời, không nhất thiết tuần tự.
• Chiến lược AI hiệu quả cần độc lập với nhà cung cấp, tận dụng mọi công nghệ sẵn có mà không bị ràng buộc vào bất kỳ công nghệ đơn lẻ nào.
• Doanh nghiệp nên áp dụng AI vào mọi khía cạnh của hành trình và vòng đời người dùng, từ đào tạo đến vận hành hàng ngày.
• Thay vì chạy theo xu hướng, doanh nghiệp nên áp dụng chiến lược tập trung vào các trường hợp sử dụng cụ thể, dựa trên khung ARC để tối đa hóa ROI.
• AI không chỉ là nâng cấp công nghệ mà còn là lực lượng chuyển đổi có thể định nghĩa lại toàn bộ trải nghiệm kinh doanh.
• Tiềm năng thực sự nằm ở việc phát triển hệ sinh thái AI toàn diện tích hợp nhiều công nghệ với cơ sở hạ tầng hiện có, thúc đẩy năng suất và đổi mới.
📌 Khung ARC cung cấp lộ trình triển khai AI hiệu quả qua 3 giai đoạn: tăng cường, thay thế và sáng tạo. Chiến lược AI cần độc lập với nhà cung cấp, tích hợp toàn diện và tập trung vào các trường hợp sử dụng cụ thể để tối ưu hóa ROI và thúc đẩy đổi mới.
https://www.techradar.com/pro/from-efficiency-to-innovation-a-smart-roadmap-for-implementing-ai
• Lựa chọn mô hình AI phù hợp là bước đầu tiên để tối ưu chi phí. Cần xác định rõ yêu cầu về độ chính xác, thời gian phản hồi và loại đầu vào/đầu ra cần xử lý. Thử nghiệm các mô hình có kích thước và loại khác nhau, cân nhắc sử dụng nhiều mô hình cho các tác vụ phức tạp.
• Tùy chỉnh mô hình nền tảng (FM) bằng dữ liệu riêng của tổ chức để tạo lợi thế cạnh tranh. Có 3 phương pháp chính:
- Tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG): Truy xuất dữ liệu từ nguồn của tổ chức để làm giàu prompt, cải thiện độ chính xác mà không cần đào tạo lại mô hình.
- Tinh chỉnh: Đào tạo FM trên dữ liệu chuyên biệt, hiệu quả nhưng tốn kém hơn RAG.
- Kỹ thuật prompt: Tối ưu hóa câu lệnh đầu vào để có kết quả tốt nhất, giảm chi phí tương tác và cho phép sử dụng mô hình nhỏ hơn.
• Quản lý dữ liệu hiệu quả giúp giảm chi phí tùy chỉnh và duy trì mô hình AI. Tập trung vào chất lượng hơn là số lượng dữ liệu. Đầu tư vào quy trình làm sạch và quản trị dữ liệu chặt chẽ.
• Văn hóa tổ chức đóng vai trò quan trọng trong kiểm soát chi phí AI:
- Xây dựng văn hóa tiết kiệm và ý thức về chi phí
- Đào tạo nhân viên về kỹ thuật tối ưu hóa chi phí
- Khuyến khích học hỏi liên tục về công nghệ AI mới
- Áp dụng phương pháp FinOps để quản lý tài chính hiệu quả cho AI
• Sử dụng nền tảng AI tập trung kết hợp với các nhóm phân tán có trách nhiệm. Mỗi nhóm nên "sở hữu" chi phí AI của mình, đưa ra quyết định về lựa chọn mô hình và tối ưu hóa quy trình.
• Triển khai các công cụ FinOps như bảng điều khiển theo dõi chi phí thời gian thực, phát hiện bất thường và so sánh hiệu quả giữa các nhóm.
📌 Tối ưu hóa chi phí AI đòi hỏi cân bằng giữa thử nghiệm, hiệu suất và chi phí. Các tổ chức cần thiết lập chiến lược toàn diện từ lựa chọn mô hình đến quản lý dữ liệu và vận hành để mở rộng quy mô AI bền vững. Văn hóa tiết kiệm và FinOps đóng vai trò then chốt trong kiểm soát chi phí dài hạn.
https://analyticsindiamag.com/ai-highlights/generative-ai-cost-optimisation-strategies/
• Accenture thành lập nhóm kinh doanh Nvidia với 30.000 chuyên gia để đẩy mạnh việc áp dụng AI trong doanh nghiệp.
• Mục tiêu là đào tạo đội ngũ Accenture giúp khách hàng tái cấu trúc quy trình và mở rộng quy mô sử dụng AI doanh nghiệp với các agent AI.
• Accenture đang tận dụng lực lượng lao động hiện có, đồng thời đào tạo nhân viên và tuyển dụng mới để đạt mục tiêu 30.000 người cho nhóm mới.
• Nhu cầu về AI tạo sinh đang tăng mạnh. Accenture đã ghi nhận 3 tỷ USD doanh thu từ AI tạo sinh trong năm tài chính vừa qua.
• Nhóm mới sẽ giúp khách hàng xây dựng nền tảng cho chức năng AI agent sử dụng Accenture AI Refinery, tích hợp toàn bộ stack AI của Nvidia.
• Accenture AI Refinery sẽ có sẵn trên tất cả nền tảng đám mây công cộng và riêng tư, tích hợp liền mạch với các nhóm kinh doanh khác của Accenture.
• Hệ thống AI agent đại diện cho bước tiến mới của AI tạo sinh, có thể hành động dựa trên ý định của người dùng, tạo quy trình làm việc mới và thực hiện các hành động phù hợp.
• Accenture và Nvidia đang giúp khách hàng áp dụng và mở rộng quy mô hệ thống AI agent. Ví dụ, họ đang hợp tác với Indosat Group để xây dựng AI chủ quyền đầu tiên tại Indonesia.
• Accenture sẽ ra mắt Nvidia NIM Agent Blueprint mới để mô phỏng đội robot trong cơ sở ảo, tích hợp phần mềm Nvidia Omniverse, Isaac và Metropolis.
• Accenture đang giới thiệu mạng lưới các trung tâm với kỹ năng kỹ thuật chuyên sâu để sử dụng hệ thống AI agent chuyển đổi hoạt động quy mô lớn.
• Các trung tâm này sẽ tập trung vào việc lựa chọn, tinh chỉnh và suy luận quy mô lớn các mô hình nền tảng.
• Accenture đang thêm các Trung tâm Kỹ thuật AI Refinery ở Singapore, Tokyo, Malaga và London.
• Bộ phận marketing của Accenture đang tích hợp nền tảng AI Refinery với các agent tự chủ để tạo và chạy các chiến dịch thông minh hơn, nhanh hơn.
📌 Accenture thành lập nhóm 30.000 chuyên gia AI hợp tác với Nvidia, nhằm đẩy mạnh ứng dụng AI trong doanh nghiệp. Dự kiến giúp giảm 25-35% các bước thủ công, tiết kiệm 6% chi phí và tăng 25-55% tốc độ ra thị trường cho khách hàng. Đây là bước đi chiến lược để thống lĩnh thị trường AI doanh nghiệp đang bùng nổ.
https://venturebeat.com/ai/accenture-forms-nvidia-business-group-to-scale-enterprise-ai-adoption/
• Nhà mạng BT đã bật công tắc nền tảng network-as-a-service (NaaS) mới mang tên Global Fabric và đã thực hiện thử nghiệm trực tiếp trong 2 tháng qua. Dịch vụ đầu tiên của Global Fabric sẽ ra mắt vào đầu năm 2025.
• Global Fabric giúp doanh nghiệp dễ dàng và nhanh chóng kết nối an toàn nhân viên, khách hàng và thiết bị với các ứng dụng và dịch vụ số được lưu trữ trên nhiều đám mây.
• Nền tảng cung cấp kết nối có khả năng mở rộng, bảo mật, dung lượng cao và khả năng phục hồi, đáp ứng nhu cầu ngày càng tăng và phức tạp của các công nghệ AI đột phá.
• Tính linh hoạt của Global Fabric là chưa từng có. Với mạng truyền thống, việc thiết lập hoặc thay đổi dịch vụ kết nối có thể mất nhiều tuần. Với Global Fabric, nó xảy ra ngay lập tức, giúp doanh nghiệp quản lý các đợt tăng đột biến không thể đoán trước về lưu lượng dữ liệu do AI gây ra.
• BT đã lắp đặt các "điểm hiện diện" (PoP) của Global Fabric tại hơn 45 trung tâm dữ liệu đám mây lớn nhất thế giới, con số này sẽ tăng lên 140. Điều này mang lại cho khách hàng sự lựa chọn về vị trí để truy cập các dịch vụ Global Fabric phù hợp với nhu cầu hoạt động, thị trường và quy định của họ.
• Colin Bannon, Giám đốc Công nghệ của BT Business, cho biết Global Fabric của BT sẽ giúp khách hàng nhanh chóng tiếp cận đám mây. Nó sẽ cung cấp cho họ lựa chọn về các vị trí đám mây tốt nhất thế giới để kết nối với khách hàng, đối tác và nhà cung cấp, giúp họ dễ dàng kinh doanh hơn không chỉ hôm nay mà cả trong tương lai.
• Bannon cũng nhấn mạnh rằng với việc đạt được các cột mốc triển khai Global Fabric mới nhất, BT đang tiến thêm một bước gần hơn tới kỷ nguyên mới của khả năng kết nối số sẵn sàng cho AI.
📌 BT ra mắt nền tảng NaaS Global Fabric, dự kiến triển khai đầu 2025, cung cấp kết nối linh hoạt trên 45 trung tâm dữ liệu đám mây lớn, hỗ trợ doanh nghiệp đáp ứng nhu cầu AI đột phá với khả năng mở rộng và bảo mật cao.
https://www.thefastmode.com/technology-solutions/37515-bt-switches-on-ai-ready-naas-platform-global-fabric-to-launch-in-early-2025
• Sự phát triển nhanh chóng của công nghệ AI đang tạo ra những thay đổi chưa từng có trong cách làm việc của các nhà phát triển. Các công cụ như Copilot, ChatGPT và Cursor đã mang lại nhiều thay đổi cho cả nhà phát triển và doanh nghiệp.
• Những công cụ này giúp tự động hóa việc viết mã, kiểm thử và gỡ lỗi, cho phép các nhà phát triển lặp lại và phát hành sản phẩm nhanh hơn. Tuy nhiên, cũng xuất hiện những lo ngại về bảo mật và độ ổn định của các công cụ AI.
• Là lãnh đạo kỹ thuật, cần đảm bảo các nhóm có thể thích ứng với kỷ nguyên AI đồng thời duy trì năng suất và đổi mới. Một số chiến lược quan trọng bao gồm:
• Rà soát các tác vụ lặp đi lặp lại trong quy trình làm việc và sử dụng AI để thay thế chúng, giúp nhân viên tập trung vào công việc sáng tạo hơn.
• Tập trung vào dữ liệu và tinh chỉnh các mô hình nguồn mở bằng dữ liệu độc quyền để tạo lợi thế cạnh tranh.
• Xây dựng một vòng lặp phản hồi, thu thập dữ liệu được con người chỉnh sửa để liên tục tối ưu hóa mô hình.
• Tối ưu hóa quy trình làm việc bằng AI để cải thiện quản lý dự án, kiểm thử đơn vị và viết tài liệu.
• Chú trọng đào tạo nhân viên về bảo mật thông tin và sử dụng an toàn các công cụ AI.
Một số điểm cần lưu ý khi sử dụng AI:
• Đảm bảo sử dụng an toàn dữ liệu cốt lõi và bảo vệ quyền riêng tư.
• Sử dụng các nhà cung cấp dịch vụ đáng tin cậy.
• Sẵn sàng đánh đổi giữa độ chính xác, khả năng gợi nhớ và hiệu suất cho các tình huống kinh doanh khác nhau.
• Để thích ứng và dẫn đầu trong tương lai, các nhà phát triển cần liên tục cập nhật công nghệ AI mới nhất, thử nghiệm các mô hình và dịch vụ mới.
• Ưu tiên giao tiếp và hợp tác với khách hàng và đối tác để hiểu nhu cầu và tạo cơ hội thị trường mới thông qua quan hệ đối tác.
📌 Lãnh đạo công nghệ cần thúc đẩy chuyển đổi doanh nghiệp trong kỷ nguyên AI bằng cách tối ưu hóa quy trình, bảo vệ dữ liệu và đào tạo nhân viên. Chiến lược chính bao gồm tự động hóa tác vụ lặp lại, tập trung vào dữ liệu độc quyền và xây dựng vòng lặp phản hồi liên tục. Giao tiếp với khách hàng và đối tác cũng rất quan trọng để thích ứng với AI.
https://www.forbes.com/councils/forbestechcouncil/2024/09/30/how-tech-leaders-can-drive-company-transformation-in-the-age-of-ai/
• Redbird, công ty có trụ sở tại New York, đã công bố nền tảng chat mới sử dụng "agent chuyên biệt" để giúp doanh nghiệp xử lý phần lớn các tác vụ trong chuỗi giá trị phân tích, từ thu thập và xử lý dữ liệu đến khoa học dữ liệu và tạo ra các insights.
• Nền tảng này cho phép người dùng đưa ra yêu cầu bằng ngôn ngữ tự nhiên để nhận được phân tích từ dữ liệu gần như theo thời gian thực. Theo CEO Erin Tavgac, công nghệ này có thể đảm nhận hơn 90% công việc business intelligence của doanh nghiệp.
• Redbird đã hoạt động trong lĩnh vực phân tích từ năm 2018 dưới tên Cube Analytics, cung cấp bộ công cụ no-code để tự động hóa các tác vụ phân tích. Đầu năm nay, họ đã bổ sung giao diện hội thoại cho phép đặt câu hỏi bằng ngôn ngữ tự nhiên.
• Hệ thống agent mới hoạt động dựa trên bộ công cụ end-to-end của Redbird để điều phối và thực hiện các tác vụ phân tích phức tạp. Quản trị viên cần chọn một mô hình ngôn ngữ lớn làm nền tảng và tải lên dữ liệu, logic nghiệp vụ và mẫu báo cáo của tổ chức để tùy chỉnh hệ thống.
• Các agent có thể trích xuất dữ liệu từ hơn 100 nguồn khác nhau, thực hiện xử lý nâng cao, tạo báo cáo và thực hiện các hành động cần thiết dựa trên kết quả phân tích.
• Redbird vẫn duy trì giao diện kéo thả no-code ban đầu như một tùy chọn phụ, cho phép người dùng kiểm tra chi tiết quy trình làm việc nếu cần.
• Công ty đã thu hút được 8 trong số 50 thương hiệu Fortune và hơn 30 khách hàng doanh nghiệp vừa và lớn trong vài tháng qua, bao gồm Mondelez International, USA Today, Bobcat Company và Johnson & Johnson.
• Redbird đang cung cấp công nghệ theo mô hình SaaS với phí cấp phép dựa trên mức sử dụng và tạo ra doanh thu 7 chữ số.
• Trong tương lai, công ty sẽ tiếp tục phát triển các agent AI tiên tiến hơn và mở rộng sang mô hình "Large Action Model" cho phép thực hiện các hành động phức tạp hơn dựa trên kết quả phân tích.
📌 Redbird đã phát triển nền tảng chat AI mới có khả năng tự động hóa 90% công việc phân tích dữ liệu trong doanh nghiệp. Công nghệ này đã thu hút được nhiều khách hàng lớn và đang tạo ra doanh thu 7 chữ số. Redbird đang hướng tới việc phát triển các agent AI tiên tiến hơn trong tương lai.
https://venturebeat.com/data-infrastructure/redbird-supercharges-analytics-pipeline-with-ai-agents-handles-90-of-workload/
• Theo báo cáo "Tax Reimagined 2024" của KPMG, 88% lãnh đạo doanh nghiệp tin rằng AI tạo sinh là công cụ quan trọng để giải quyết các thách thức từ sáng kiến Trụ cột 2 của OECD.
• Khảo sát 500 CEO, CFO và giám đốc thuế cho thấy 98% dự định đầu tư vào AI hoặc AI tạo sinh trong 12 tháng tới. Một nửa trong số đó dự kiến đầu tư từ 500.000 đến 1 triệu USD.
• 86% đồng ý rằng tuân thủ Trụ cột 2 sẽ tốn kém cho tổ chức của họ. AI tạo sinh được xem là giải pháp chính: 46% tin AI có thể tự động hóa quy trình, 42% thấy giá trị trong việc hợp lý hóa hoạt động tuân thủ thuế, 40% kỳ vọng nó sẽ giúp tối ưu hóa chi phí.
• AI tạo sinh đang định hình lại cách các bộ phận thuế tiếp cận việc tuyển dụng và quản lý nhân tài. 53% ưu tiên thuê chuyên gia công nghệ có thể học về thuế, thay vì chuyên gia thuế phát triển kỹ năng công nghệ.
• 90% lãnh đạo cấp cao nhận thấy bộ phận thuế là yếu tố quan trọng trong việc xây dựng lòng tin của các bên liên quan. Bằng cách sử dụng công cụ AI, các bộ phận thuế được kỳ vọng sẽ cung cấp thông tin minh bạch và chiến lược hơn.
• 87% sẵn sàng áp dụng mô hình dịch vụ quản lý toàn diện, với hơn một nửa đã sử dụng outsourcing, co-sourcing hoặc dịch vụ quản lý để xử lý các gián đoạn quy định như Trụ cột 2.
• 79% lãnh đạo cho biết đầu tư của nhà cung cấp bên thứ ba vào AI tạo sinh sẽ ảnh hưởng đến quyết định sử dụng dịch vụ của họ.
• 51% dự đoán tích hợp AI sẽ dẫn đến những thay đổi mang tính chuyển đổi hoặc cách mạng trong tương lai gần.
• 86% đồng ý rằng công cụ AI sẽ giúp bổ sung nhu cầu nhân tài của bộ phận thuế.
• 95% đồng ý rằng tận dụng dữ liệu tốt hơn trong toàn tổ chức sẽ giúp bộ phận thuế dự đoán thách thức tương lai và đưa ra quyết định kinh doanh thông minh hơn.
• Báo cáo "Future of Risk" của KPMG cho thấy các tổ chức ngày càng áp dụng AI và công nghệ tiên tiến để chuyển đổi chiến lược quản lý rủi ro, với AI và AI tạo sinh là công cụ được áp dụng phổ biến nhất.
📌 AI tạo sinh đang trở thành công cụ thiết yếu cho 88% lãnh đạo doanh nghiệp trong việc giải quyết thách thức Trụ cột 2. 98% dự định đầu tư vào AI trong năm tới, với 50% dự kiến chi từ 500.000 đến 1 triệu USD. AI được kỳ vọng sẽ tự động hóa quy trình, hợp lý hóa tuân thủ thuế và tối ưu hóa chi phí.
https://www.techmonitor.ai/ai-and-automation/88-of-corporate-leaders-view-gen-ai-as-key-to-navigating-pillar-two-challenges-kpmg-report-finds/
Giải thích về Trụ cột Hai:
• Trụ cột Hai (Pillar Two) là một phần của sáng kiến thuế toàn cầu do Tổ chức Hợp tác và Phát triển Kinh tế (OECD) đề xuất nhằm giải quyết các thách thức thuế trong nền kinh tế kỹ thuật số.
• Mục tiêu chính của Trụ cột Hai là đảm bảo các công ty đa quốc gia lớn phải đóng mức thuế tối thiểu toàn cầu, bất kể họ hoạt động ở đâu.
• Trụ cột Hai đề xuất mức thuế tối thiểu toàn cầu là 15% đối với các công ty có doanh thu từ 750 triệu euro trở lên.
• Quy định này nhằm ngăn chặn việc các công ty chuyển lợi nhuận sang các quốc gia có thuế suất thấp để tránh thuế.
• Trụ cột Hai bao gồm hai quy tắc chính:
1. Quy tắc thu nhập toàn cầu (GloBE): Áp dụng thuế bổ sung nếu thuế thực tế của công ty thấp hơn mức tối thiểu.
2. Quy tắc thu nhập thấp thuế (STTR): Cho phép các quốc gia áp dụng thuế khấu trừ bổ sung đối với các khoản thanh toán xuyên biên giới.
• Việc thực hiện Trụ cột Hai đòi hỏi sự phối hợp quốc tế và có thể tác động đáng kể đến chiến lược thuế của các công ty đa quốc gia.
• Nhiều quốc gia đã bắt đầu áp dụng Trụ cột Hai từ đầu năm 2024, tạo ra thách thức lớn về tuân thủ và quản lý thuế cho các doanh nghiệp.
• Trụ cột Hai được kỳ vọng sẽ tạo ra một sân chơi bình đẳng hơn trong hệ thống thuế quốc tế và giúp các quốc gia thu được nhiều nguồn thu thuế hơn từ các công ty đa quốc gia lớn.
• Theo khảo sát mới của nền tảng tuyển dụng Indeed, khoảng 31% doanh nghiệp nhỏ tại Anh đang do dự trong việc triển khai AI, mặc dù công nghệ này có tiềm năng tác động tích cực đến năng suất và hiệu quả.
• Nhiều lãnh đạo doanh nghiệp nhỏ bày tỏ lo ngại về sự phản đối của nhân viên và khả năng xảy ra sai sót khi sử dụng AI.
• Khoảng 38% lo ngại AI có thể gây gián đoạn hoạt động kinh doanh, trong khi 39% cho rằng an toàn hơn khi gắn bó với các phương pháp quen thuộc thay vì áp dụng công nghệ mới chưa được chứng minh.
• Hậu quả của nỗi sợ hãi này có thể gây bất lợi cho nền kinh tế Anh, vì doanh nghiệp nhỏ chiếm tới 99,2% tổng số doanh nghiệp trong nước.
• 26% lãnh đạo lo ngại về sự phản đối từ nhân viên, trong khi 43% cho rằng việc sử dụng AI trái phép của nhân viên có thể gây hại cho hoạt động kinh doanh.
• Tuy nhiên, vẫn có 69% doanh nghiệp nhỏ sẵn sàng đầu tư vào các giải pháp AI. 49% đồng ý rằng AI có thể tăng hiệu quả, 44% cho rằng công nghệ này có thể giảm bớt khối lượng công việc lặp đi lặp lại, tốn thời gian và có giá trị thấp.
• 24% cho rằng AI có thể giúp công ty xem xét áp dụng tuần làm việc 4 ngày.
• 40% doanh nghiệp nhỏ yêu cầu các sản phẩm AI dễ sử dụng hơn, 29% muốn tích hợp các tính năng AI vào hệ thống hiện có thay vì phải học một nền tảng hoàn toàn mới.
• Caroline Barbour, Giám đốc Marketing Cấp cao phụ trách SMB tại Indeed, nhấn mạnh tầm quan trọng của việc hỗ trợ doanh nghiệp nhỏ trong quá trình áp dụng AI, cung cấp các công cụ dễ sử dụng hoặc tính năng tích hợp vào bộ sản phẩm hiện có.
📌 31% doanh nghiệp nhỏ tại Anh e ngại sử dụng AI do lo lắng về gián đoạn hoạt động và phản đối của nhân viên. Tuy nhiên, 69% sẵn sàng đầu tư vào AI, với 49% tin rằng nó sẽ tăng hiệu quả. Doanh nghiệp cần giải pháp AI đơn giản và dễ tích hợp hơn.
https://www.techradar.com/pro/many-small-businesses-say-they-re-too-scared-to-use-ai
• Theo khảo sát của Phòng Thương mại Hoa Kỳ, 98% doanh nghiệp nhỏ đang sử dụng ít nhất một nền tảng công nghệ được hỗ trợ bởi AI.
• 40% doanh nghiệp nhỏ đang sử dụng công cụ AI tạo sinh, tăng gần gấp đôi so với con số 23% của năm ngoái.
• Jordan Crenshaw, Phó Chủ tịch cấp cao của Trung tâm Công nghệ Phòng Thương mại Hoa Kỳ, cho biết AI cho phép các doanh nghiệp nhỏ "vượt tầm" so với đối thủ cạnh tranh.
• 91% doanh nghiệp đang sử dụng AI tin rằng nó sẽ giúp doanh nghiệp phát triển trong tương lai.
• 81% doanh nghiệp nhỏ có kế hoạch tăng cường sử dụng các nền tảng công nghệ.
• Khảo sát cho thấy việc sử dụng công nghệ gắn liền với sự tăng trưởng của các doanh nghiệp nhỏ.
• Các doanh nghiệp nhỏ triển khai nền tảng công nghệ (như công cụ năng suất, thanh toán kỹ thuật số, phần mềm kế toán) có khả năng tăng trưởng doanh số, lợi nhuận và lực lượng lao động cao hơn trong năm qua.
• Các doanh nghiệp sử dụng nhiều nền tảng công nghệ đang tăng trưởng nhanh hơn so với các doanh nghiệp ít sử dụng công nghệ.
• Amanda Reineke, CEO của Notice Ninja, cho rằng khi được triển khai một cách thận trọng, AI có thể thúc đẩy hiệu quả lớn. AI sẽ không thay thế công việc của con người mà sẽ bổ sung và nâng cao nó.
• Khảo sát được thực hiện trên toàn quốc đối với các doanh nghiệp nhỏ ở Hoa Kỳ, tập trung vào vai trò của các nền tảng công nghệ trong việc giúp doanh nghiệp nhỏ cạnh tranh trên thị trường.
• Cuộc khảo sát này được bắt đầu từ năm 2022, nhằm tìm hiểu các loại và ứng dụng công nghệ được doanh nghiệp nhỏ sử dụng, xác định những công nghệ có tác động lớn nhất theo thời gian.
• Phiên bản mới nhất của khảo sát tập trung vào sự xuất hiện nhanh chóng của AI và việc triển khai công nghệ này bởi các doanh nghiệp nhỏ.
📌 Khảo sát cho thấy 98% doanh nghiệp nhỏ sử dụng AI, với 40% áp dụng AI tạo sinh. 91% tin AI sẽ thúc đẩy tăng trưởng, 81% dự định tăng cường sử dụng công nghệ. Doanh nghiệp ứng dụng nhiều nền tảng công nghệ có xu hướng tăng trưởng nhanh hơn.
https://www.zdnet.com/article/98-of-small-firms-are-using-ai-tools-to-punch-above-their-weight/
• Một thí nghiệm quy mô lớn được thực hiện từ tháng 2 đến tháng 7 năm 2024, so sánh khả năng ra quyết định của AI tạo sinh GPT-4o với 344 người tham gia là sinh viên và lãnh đạo doanh nghiệp.
• Thí nghiệm sử dụng mô phỏng kỹ thuật số của ngành công nghiệp ô tô Mỹ, với hơn 500.000 khả năng kết hợp quyết định mỗi vòng. Mục tiêu là tối đa hóa vốn hóa thị trường và tránh bị sa thải.
• GPT-4o vượt trội hơn người tham gia ở hầu hết các chỉ số. AI thiết kế sản phẩm chính xác, tối ưu hóa sức hấp dẫn và kiểm soát chi phí, đáp ứng tốt tín hiệu thị trường.
• Tuy nhiên, GPT-4o bị sa thải nhanh hơn so với sinh viên giỏi nhất do gặp khó khăn với các sự kiện bất ngờ như sụp đổ thị trường trong đại dịch Covid-19.
• Sinh viên giỏi nhất áp dụng chiến lược dài hạn linh hoạt, trong khi GPT-4o và các lãnh đạo doanh nghiệp tập trung vào tối ưu hóa ngắn hạn.
• Thí nghiệm cho thấy AI tạo sinh là nguồn lực chiến lược quan trọng, có thể mang lại kết quả tốt khi được sử dụng đúng cách.
• Chất lượng dữ liệu là yếu tố then chốt để AI thành công trong chiến lược doanh nghiệp. Cần xây dựng cơ sở hạ tầng dữ liệu mạnh mẽ.
• AI có thể tạo ra hiệu quả đáng kể nhưng cũng tiềm ẩn rủi ro. Cần có sự giám sát để tránh hậu quả không mong muốn.
• Vấn đề trách nhiệm giải trình đối với AI khó xử lý hơn so với CEO con người. Cần thiết lập các rào cản minh bạch.
• Mô hình kỹ thuật số (digital twin) của hệ sinh thái doanh nghiệp có thể là môi trường thử nghiệm hữu ích cho AI trước khi áp dụng vào thực tế.
• AI có thể làm gián đoạn ngành tư vấn chiến lược truyền thống, thay thế một số dịch vụ của các công ty như McKinsey.
• AI không thể đảm nhận toàn bộ trách nhiệm của CEO, nhưng có thể cải thiện đáng kể quy trình lập kế hoạch chiến lược và giúp tránh sai lầm tốn kém.
• Điểm mạnh lớn nhất của AI tạo sinh là bổ sung cho quá trình ra quyết định của con người, không phải thay thế hoàn toàn CEO.
• Tương lai của lãnh đạo là sự kết hợp giữa AI và con người, trong đó AI hỗ trợ CEO tập trung vào tầm nhìn, giá trị và phát triển bền vững dài hạn.
📌 AI tạo sinh như GPT-4o có thể vượt trội hơn CEO con người trong nhiều khía cạnh như thiết kế sản phẩm và tối ưu hóa thị trường, nhưng vẫn còn hạn chế trong xử lý các sự kiện bất ngờ. Tương lai lãnh đạo doanh nghiệp sẽ là sự kết hợp giữa AI và con người, tận dụng điểm mạnh của cả hai để ra quyết định tốt hơn.
https://hbr.org/2024/09/ai-can-mostly-outperform-human-ceos
#HBR
- 83% các công ty truyền thông và viễn thông tại Ấn Độ đang sử dụng GenAI để thúc đẩy nghiên cứu và đổi mới.
- Theo báo cáo của PwC, GenAI đã mở ra những cơ hội mới cho sự đổi mới và hiệu quả, nâng cao năng suất làm việc.
- Khoảng 76% công ty xếp GenAI vào danh sách 5 ưu tiên chiến lược hàng đầu của họ.
- 42% trong số này cho biết việc áp dụng GenAI là một trong 3 chiến lược hàng đầu của họ.
- Các CEO trong lĩnh vực công nghệ dự đoán sự gián đoạn lớn hơn so với các đồng nghiệp trong lĩnh vực viễn thông và truyền thông.
- Trong số các công ty công nghệ, 68% người tham gia khảo sát coi GenAI là một lực lượng gián đoạn lâu dài.
- Ngành truyền thông và giải trí có 51% người tham gia khảo sát nhận thấy GenAI là yếu tố gián đoạn.
- Trong lĩnh vực viễn thông, tỷ lệ này là 40%.
- Khoảng 40% các nhà điều hành TMT cho biết họ đã thấy lợi ích từ các sáng kiến GenAI và đang trên đà đạt được RoI mong đợi.
- 32% nhà điều hành trong lĩnh vực công nghệ kỳ vọng sẽ đạt được RoI mong muốn trong vòng một năm tới.
- Tuy nhiên, 30% người tham gia khảo sát trong lĩnh vực viễn thông không chắc chắn về thời gian đạt được RoI.
- Sự sẵn có dễ dàng của các công cụ GenAI như Gemini, ChatGPT và GitHub Copilot là lý do chính thúc đẩy việc áp dụng GenAI.
- Các ứng dụng này cung cấp giao diện thân thiện với người dùng và mô hình đã được đào tạo trước, giúp cá nhân và tổ chức dễ dàng áp dụng GenAI vào dự án của họ.
- Các công ty công nghệ có mức độ nhận thức và sử dụng GenAI cao hơn so với các ngành truyền thông và viễn thông.
- Ngành công nghệ là những người tiên phong trong việc áp dụng GenAI, với hầu hết tổ chức đã có ít nhất một trường hợp sử dụng GenAI.
- Việc áp dụng GenAI được thúc đẩy bởi nhu cầu đáp ứng mong đợi của khách hàng, sự thay đổi trên thị trường lao động và duy trì tính cạnh tranh trong ngành.
- Trong ngành công nghệ, có 40% công ty đã chuẩn bị ứng dụng cho triển khai cùng với lộ trình chiến lược đầy đủ cho hơn hai lĩnh vực.
- Ngành truyền thông và giải trí hiển thị nhiều giai đoạn áp dụng khác nhau, với 35% đang ở giai đoạn đánh giá.
- Trong khi đó, 50% người tham gia khảo sát trong ngành viễn thông hiện đang ở giai đoạn đánh giá.
- Mặc dù có nhiều lợi ích, các công ty sử dụng GenAI nhận thức được vấn đề kiểm soát, an toàn và trách nhiệm.
- Khoảng 87% các công ty tiến hành đánh giá ở cấp hội đồng quản trị, trong khi 67% thừa nhận rằng khung chính sách của họ không đủ để giải quyết hiệu quả các mối lo ngại về an ninh.
- Báo cáo cũng chỉ ra rằng khoảng 62% các công ty đã tăng cường tài trợ cho các sáng kiến nhằm thúc đẩy việc áp dụng GenAI.
📌 83% công ty truyền thông và viễn thông tại Ấn Độ sử dụng GenAI cho nghiên cứu. Nhiều CEO dự đoán sự gián đoạn lớn từ GenAI. Khoảng 40% nhà điều hành TMT thấy lợi ích từ sáng kiến này.
https://m.economictimes.com/tech/artificial-intelligence/genai-is-used-by-83-of-media-telecom-companies-for-research-and-innovations-pwc/articleshow/113670500.cms
• Xu hướng nổi bật từ chương trình Dự án Capstone Thạc sĩ Phân tích Kinh doanh MIT Sloan 2024: Các công ty đang kết hợp AI tạo sinh với phân tích dữ liệu để thực thi dự án và giải pháp nhanh hơn.
• Jordan Levine, giảng viên MIT Sloan, nhận định: "Các phương pháp học máy truyền thống mang lại độ chính xác, trong khi AI tạo sinh mở ra tốc độ."
• Pfizer sử dụng AI tạo sinh để đẩy nhanh quá trình chuyển giao kiến thức từ R&D sang sản xuất, rút ngắn thời gian đưa thuốc mới ra thị trường từ 9 tháng xuống còn vài ngày.
• Takeda áp dụng AI tạo sinh để thiết kế thử nghiệm lâm sàng nhanh hơn, từ đó đẩy nhanh tiến độ phát triển thuốc quan trọng.
• CogniSure phát triển phương pháp đọc nhanh mọi tệp tin bằng AI tạo sinh, giúp cung cấp báo giá bảo hiểm nhanh hơn cho khách hàng.
• Comcast xây dựng khung phản hồi theo thời gian thực cho gần 6 triệu cuộc gọi mỗi tháng, giúp nhân viên nhanh chóng xác định khách hàng có nguy cơ cao và đề xuất cuộc gọi theo dõi.
• CMA CGM tạo ra hệ thống AI tạo sinh dựa trên hơn 70 triệu dòng dữ liệu giao dịch để đưa ra dự đoán và hướng dẫn về định giá động nhanh hơn, chính xác hơn.
• Dick's Sporting Goods sử dụng AI tạo sinh kết hợp với dữ liệu khách hàng để tạo mẫu email cá nhân hóa nhanh hơn, cải thiện tỷ lệ nhấp chuột.
• McKinsey & Co. áp dụng công cụ AI tạo sinh để gắn nhãn 26.000 tài liệu hàng năm, đảm bảo thông tin có sẵn đúng lúc, đúng chỗ.
• Accenture phát triển công cụ dự đoán tác động của AI tạo sinh đối với lực lượng lao động doanh nghiệp lớn, hỗ trợ triển khai chiến lược công nghệ và sáng kiến đào tạo lại kỹ năng.
• Các dự án đều đạt đến mức sản phẩm hoạt động, được thử nghiệm với dữ liệu thực tế. Khoảng một nửa đang hoạt động và được các công ty hỗ trợ tích cực.
📌 AI tạo sinh kết hợp phân tích dữ liệu đang giúp các công ty lớn như Pfizer, Comcast tăng tốc đáng kể trong việc đưa sản phẩm ra thị trường, giao tiếp khách hàng và chia sẻ thông tin nội bộ. Tuy nhiên, cần cân nhắc về độ chính xác và tác động đến người lao động khi áp dụng công nghệ này.
https://mitsloan.mit.edu/ideas-made-to-matter/how-companies-use-generative-ai-to-execute-speed
#MIT
- Sau giai đoạn đầu đầy hứng thú, các doanh nghiệp hiện đã chuyển sang giai đoạn quan trọng hơn: tận dụng AI tạo sinh để tạo ra giá trị thực tế. Theo khảo sát của McKinsey, 65% doanh nghiệp đã ứng dụng AI tạo sinh thường xuyên, tăng gấp đôi so với năm trước, phản ánh sự tăng trưởng nhanh chóng trong việc áp dụng công nghệ này.
- Việc triển khai AI tạo sinh không chỉ là vấn đề tích hợp công nghệ mà còn đòi hỏi mô hình hoạt động rõ ràng để đảm bảo các kết quả có thể đo lường được. Mô hình này kết hợp cả con người, quy trình, và công nghệ nhằm mang lại giá trị cho khách hàng và các bên liên quan.
- Một trong những thách thức phổ biến mà các doanh nghiệp gặp phải là tập trung quá nhiều vào công nghệ mà không có mục đích kinh doanh rõ ràng, dẫn đến việc lãng phí tài nguyên vào các giải pháp AI không mang lại giá trị thực tế. Thêm vào đó, việc thử nghiệm các dự án AI riêng lẻ mà thiếu sự kết nối chặt chẽ có thể dẫn đến kết quả không như mong đợi, đặc biệt trong các ngành như công nghệ, bán lẻ, và ngân hàng, nơi AI có thể nhanh chóng cải thiện năng suất.
- Mô hình hoạt động AI tạo sinh cần bao gồm tất cả các quyết định liên quan đến việc tổ chức đội ngũ, phát triển công nghệ và tuân thủ các biện pháp an ninh, rủi ro. Việc này đòi hỏi phải có kế hoạch dài hạn để triển khai AI theo các giai đoạn rõ ràng, bao gồm việc xác định các thành phần AI tạo sinh quan trọng để tích hợp vào hạ tầng công nghệ hiện có mà không cần thay đổi toàn bộ hệ thống.
- Một ví dụ điển hình là một ngân hàng lớn ở châu Âu đã triển khai thành công 14 thành phần AI tạo sinh trong kiến trúc doanh nghiệp của họ, từ đó đạt được 80% các trường hợp sử dụng AI cốt lõi chỉ trong vòng 3 tháng. Điều này cho thấy cách tiếp cận có hệ thống, tập trung vào các thành phần quan trọng, có thể đem lại kết quả nhanh chóng và rõ ràng.
- Để thành công trong việc triển khai AI tạo sinh, doanh nghiệp cần ưu tiên quản lý dữ liệu một cách hiệu quả, đảm bảo rằng AI có thể truy xuất và xử lý thông tin phù hợp. Hiện nay, hơn 80% dữ liệu của doanh nghiệp là dữ liệu phi cấu trúc, điều này tạo ra nhiều thách thức trong việc quản lý và sử dụng. Theo McKinsey, 60% các doanh nghiệp có hiệu suất cao về AI và 80% các công ty khác gặp khó khăn trong việc thiết lập chiến lược toàn diện cho dữ liệu phi cấu trúc.
- Để giải quyết vấn đề này, doanh nghiệp có thể bắt đầu với việc ưu tiên các miền dữ liệu quan trọng theo mục tiêu kinh doanh. Các chuyên gia dữ liệu, chẳng hạn như kỹ sư dữ liệu và chuyên gia xử lý ngôn ngữ tự nhiên, cần được triển khai để quản lý dữ liệu phi cấu trúc và đảm bảo rằng các quy trình quản trị dữ liệu và chất lượng được tuân thủ.
- Về phương thức tổ chức đội ngũ, doanh nghiệp có thể chọn giữa 2 mô hình: mở rộng các đội ngũ dữ liệu hiện có với các kỹ năng AI tạo sinh mới hoặc thành lập các đội ngũ AI tạo sinh riêng biệt. Cả 2 mô hình đều có những lợi ích và thách thức khác nhau, nhưng việc đảm bảo rằng đội ngũ AI hoạt động đồng bộ với các hệ thống IT và dữ liệu tổng thể là vô cùng quan trọng để tránh tạo ra các giải pháp rời rạc.
- Các doanh nghiệp có thể lựa chọn phát triển từ mô hình tập trung hóa AI tạo sinh sang mô hình phân quyền, cho phép các đội ngũ trong từng lĩnh vực tự chịu trách nhiệm về việc phát triển các ứng dụng AI. Tuy nhiên, quá trình này cần được quản lý kỹ lưỡng để tránh các vấn đề liên quan đến an ninh và tính đồng bộ của hệ thống.
- Cuối cùng, quản lý rủi ro và tuân thủ là yếu tố cốt lõi trong việc triển khai AI tạo sinh. Những rủi ro như thông tin sai lệch, sự cố kỹ thuật, và rò rỉ dữ liệu cần được theo dõi và kiểm soát chặt chẽ. Doanh nghiệp cần xây dựng một kế hoạch quản trị rủi ro rõ ràng, bao gồm việc đánh giá các rủi ro tiềm ẩn, xác định các công cụ AI quan trọng cần được giám sát kỹ lưỡng, và thực hiện các thử nghiệm định kỳ để đảm bảo tính an toàn và tuân thủ quy định.
📌 Hướng dẫn này nhấn mạnh tầm quan trọng của việc xây dựng mô hình hoạt động AI tạo sinh hiệu quả, với trọng tâm là quản lý dữ liệu phi cấu trúc và quản lý rủi ro. Các doanh nghiệp cần có chiến lược linh hoạt và dài hạn để triển khai AI tạo sinh một cách hiệu quả, đồng thời đảm bảo tính tuân thủ và an toàn trong suốt quá trình.
https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/a-data-leaders-operating-guide-to-scaling-gen-ai
#McKinsey
• Các công ty phần mềm lớn như Microsoft, Salesforce và Workday đang chuyển trọng tâm từ copilot sang AI agent - thế hệ trợ lý AI tiếp theo có khả năng thực hiện nhiều tác vụ phức tạp hơn.
• AI agent được thiết kế để tiến xa hơn copilot, có thể thực hiện hành động thay người dùng thay vì chỉ trả lời câu hỏi. Chúng kết nối với các hệ thống khác qua API để thực hiện tác vụ.
• Công nghệ AI agent có bộ nhớ tốt hơn để hiểu ngữ cảnh và khả năng lập kế hoạch nâng cao. Ban đầu chúng tập trung vào các tác vụ đơn giản như điền báo cáo chi phí.
• Một số công ty đã quảng cáo khả năng xử lý các tác vụ phức tạp hơn của AI agent, thậm chí thay thế hoàn toàn một số công việc như hỗ trợ khách hàng.
• Các công ty phần mềm đang đặt cược rằng khách hàng sẽ thấy lợi ích năng suất trực tiếp từ AI agent có thể đảm nhận toàn bộ tác vụ.
• Tuy nhiên, xu hướng "ảo giác" của hệ thống AI tạo sinh khiến người dùng thận trọng khi cho phép chúng hoạt động không giám sát.
• Một số công ty như Klarna tuyên bố sẽ cắt giảm một nửa nhân lực nhờ AI và từ bỏ các phần mềm như Salesforce, Workday để tự phát triển phần mềm bằng AI.
• Các nhà đầu tư phần mềm đang đặt cược rằng những công ty lớn hiện tại sẽ là người chiến thắng, mặc dù chưa rõ khi nào công nghệ này sẽ mang lại lợi nhuận.
• Sự chuyển dịch sang hệ thống dựa trên agent có thể gây xáo trộn mô hình kinh doanh hiện tại. Các công ty đang thử nghiệm định giá dựa trên mức độ sử dụng thay vì phí bản quyền theo số lượng nhân viên.
• Salesforce cho biết sẽ tính phí 2 USD cho mỗi "cuộc hội thoại" với AI agent của họ. Nhiều công ty cũng đề cập đến việc chuyển sang định giá dựa trên kết quả.
• Sự thay đổi sang mô hình định giá mới cho AI có thể gây xáo trộn cho các công ty phần mềm đại chúng trong một thời gian.
📌 AI agent đang trở thành xu hướng mới trong ngành phần mềm doanh nghiệp, hứa hẹn tự động hóa nhiều tác vụ phức tạp. Tuy nhiên, việc áp dụng rộng rãi vẫn còn nhiều thách thức về độ tin cậy và mô hình kinh doanh. Các công ty lớn như Microsoft, Salesforce đang dẫn đầu cuộc đua này.
https://www.ft.com/content/372536b1-08dd-4161-b6e3-4d09ba235ae8
#FT
• Chỉ 15% lãnh đạo và quản lý hiện tại sử dụng AI tạo sinh thường xuyên trong công việc hàng ngày.
• Khảo sát với hơn 200 sinh viên MBA và Thạc sĩ Quản lý (23-30 tuổi) tại 5 trường đại học ở châu Âu và Bắc Mỹ cho thấy 40% sử dụng AI tạo sinh nhiều lần mỗi ngày.
• Sinh viên sử dụng AI tạo sinh theo 2 hình thức: như một người thực hiện (hỗ trợ viết, tóm tắt, lập trình, dịch thuật, truy xuất thông tin) và như một đối tác tư duy (brainstorming, giải quyết vấn đề, thách thức ý tưởng).
• Gần 40% tổ chức chỉ cho phép một số nhóm nhân viên được chọn (thường là các vai trò chuyên môn và kỹ thuật) sử dụng công cụ AI tạo sinh.
• 54% tổ chức yêu cầu nhân viên chỉ được sử dụng các công cụ AI tạo sinh được ủy quyền trong các rào chắn cụ thể.
• Các tổ chức cần 4 chiến lược để thu hút và giữ chân nhân viên thành thạo AI tạo sinh trong tương lai:
1. Thu hút nhân tài AI tạo sinh:
- Cung cấp bằng chứng cụ thể về việc tích hợp AI tạo sinh vào quy trình làm việc
- Hợp tác với các trường kinh doanh về các dự án và bài tập liên quan đến sinh viên
2. Onboarding và thu hút nhân tài AI tạo sinh:
- Ưu tiên ứng dụng AI tạo sinh vào trải nghiệm nhân viên, bắt đầu từ quá trình onboarding
- Giải thích cách sử dụng AI tạo sinh trong môi trường doanh nghiệp, tập trung vào sử dụng có trách nhiệm
3. Tích hợp nhân tài AI tạo sinh vào quy trình làm việc:
- Bổ nhiệm nhân viên mới làm người đại diện cho các dự án liên quan đến AI tạo sinh
- Thực hiện chương trình cố vấn đôi chiều để tăng tốc chuyển giao kiến thức
4. Giữ chân và phát triển nhân tài AI tạo sinh:
- Cập nhật các kỹ năng công việc cần thiết, lộ trình sự nghiệp và tiêu chí thăng tiến
- Tạo cơ hội nghề nghiệp mới liên quan đến AI tạo sinh
• Các nhà lãnh đạo doanh nghiệp cần nhận ra điều này ngay bây giờ để ngăn chặn sự thất vọng của nhân viên mới, giảm tỷ lệ nghỉ việc và tạo điều kiện cho sự chuyển đổi suôn sẻ sang thế hệ quản lý mới thành thạo AI tạo sinh mà không có xung đột văn hóa.
📌 40% sinh viên MBA sử dụng AI tạo sinh hàng ngày, so với 15% quản lý hiện tại. Tổ chức cần 4 chiến lược: thu hút nhân tài, onboarding hiệu quả, tích hợp vào quy trình làm việc và phát triển sự nghiệp để thích ứng với thế hệ quản lý mới thành thạo AI tạo sinh.
https://hbr.org/2024/09/how-the-next-generation-of-managers-is-using-gen-ai
#HBR
• LLM chuyên biệt (domain-specific LLM) được thiết kế riêng cho một ngành hoặc thương hiệu cụ thể, được đào tạo trên bộ dữ liệu tùy chỉnh gồm thông tin chuyên ngành có liên quan cao. Điều này giúp chúng nắm bắt được từ vựng, ngữ cảnh và các chi tiết phức tạp đặc trưng cho lĩnh vực cụ thể.
• LLM chuyên biệt trở nên cần thiết khi độ chính xác của đầu ra AI là yếu tố quan trọng, đặc biệt trong các lĩnh vực như y tế, tài chính, pháp lý và công nghệ.
• Việc triển khai LLM chuyên biệt có thể mang lại nhiều lợi ích cho doanh nghiệp như: nâng cao độ chính xác của đầu ra AI, tăng cường bảo mật dữ liệu, đảm bảo đầu ra đáng tin cậy và cải thiện trải nghiệm khách hàng.
• Có 2 cách để có được LLM chuyên biệt: xây dựng từ đầu hoặc tinh chỉnh một mô hình hiện có. Xây dựng từ đầu phù hợp nhất cho các công ty yêu cầu mức độ tùy chỉnh và độ chính xác cao của mô hình.
•
1. Meta descriptions (in Vietnamese)
Bài viết phân tích lợi ích và hạn chế của việc sử dụng mô hình ngôn ngữ lớn (LLM) chuyên biệt cho doanh nghiệp, so với các mô hình đa năng phổ biến. Tác giả đưa ra 5 tiêu chí quan trọng để cân nhắc khi lựa chọn LLM chuyên biệt.
2. Meta keywords (in Vietnamese)
LLM chuyên biệt, mô hình ngôn ngữ lớn, AI cho doanh nghiệp, ChatGPT, Gemini, Perplexity, dữ liệu chuyên ngành, bảo mật dữ liệu, trải nghiệm khách hàng, tuân thủ quy định, chi phí triển khai AI
3. Interesting and shocked SEO title (in Vietnamese)
5 lý do bất ngờ khiến doanh nghiệp nên chọn mô hình ai chuyên biệt thay vì chatgpt
• LLM chuyên biệt (domain-specific LLM) được thiết kế riêng cho một ngành hoặc thương hiệu cụ thể, được đào tạo trên bộ dữ liệu tùy chỉnh gồm thông tin chuyên ngành có liên quan cao. Điều này giúp chúng nắm bắt được từ vựng, ngữ cảnh và các chi tiết phức tạp đặc trưng cho lĩnh vực cụ thể.
• LLM chuyên biệt trở nên cần thiết khi độ chính xác của đầu ra AI là yếu tố quan trọng, đặc biệt trong các lĩnh vực như y tế, tài chính, pháp lý và công nghệ.
• Việc triển khai LLM chuyên biệt có thể mang lại nhiều lợi ích cho doanh nghiệp như: nâng cao độ chính xác của đầu ra AI, tăng cường bảo mật dữ liệu, đảm bảo đầu ra đáng tin cậy và cải thiện trải nghiệm khách hàng.
• Có 5 tiêu chí quan trọng cần cân nhắc khi lựa chọn LLM chuyên biệt:
1. Phương pháp phát triển: Xây dựng từ đầu hoặc tinh chỉnh mô hình hiện có. Xây dựng từ đầu phù hợp nhất cho các công ty yêu cầu mức độ tùy chỉnh và độ chính xác cao của mô hình.
2. Chất lượng và số lượng dữ liệu: Cần một lượng lớn dữ liệu chất lượng cao và chuyên biệt. Các chuyên gia AI thường khuyên khách hàng kết hợp dữ liệu doanh nghiệp hiện có với dữ liệu tổng hợp để duy trì độ chính xác cao trong khi khắc phục tình trạng thiếu dữ liệu.
3. Tuân thủ quy định: Việc tuân thủ các yêu cầu về bảo mật và quyền riêng tư dữ liệu là rất quan trọng. Ví dụ, nếu ngành của bạn yêu cầu lưu trữ an toàn tất cả dữ liệu trên máy chủ nội bộ, bạn sẽ không thể sử dụng API bên ngoài cho LLM tùy chỉnh.
4. Tác động về chi phí: Việc lựa chọn giữa LLM tự phát triển và thương mại có thể ảnh hưởng đáng kể đến tổng chi phí dự án. Cần đánh giá tổng chi phí sở hữu, bao gồm phát triển, triển khai và bảo trì, để xác định loại LLM nào sẽ hiệu quả về chi phí hơn trong dài hạn.
5. Đánh giá và chỉ số hiệu suất: Việc thiết lập các chỉ số đánh giá rõ ràng là rất quan trọng để đánh giá sự thành công của LLM chuyên biệt. Các chỉ số này nên phản ánh độ chính xác, độ tin cậy và mức độ phù hợp của mô hình với nhu cầu kinh doanh cụ thể.
• Mặc dù cung cấp phản hồi chính xác, nhất quán và đáng tin cậy cho các yêu cầu chuyên biệt, các mô hình chuyên biệt có thể kém chính xác hơn và thậm chí bịa đặt khi đối mặt với các yêu cầu chung.
📌 LLM chuyên biệt mang lại nhiều lợi ích cho doanh nghiệp như độ chính xác cao, bảo mật tốt và trải nghiệm khách hàng tốt hơn. Tuy nhiên, cần cân nhắc kỹ về chi phí, dữ liệu và quy định khi triển khai. Đánh giá toàn diện hạn chế và lợi ích là cần thiết để tận dụng tối đa công nghệ AI tạo sinh.
https://www.forbes.com/councils/forbestechcouncil/2024/09/18/why-choose-a-domain-specific-llm-for-your-business/
• Bài viết giới thiệu giải pháp tự động hóa cá nhân hóa trải nghiệm khách hàng bằng AI tạo sinh trên Amazon Bedrock, kết hợp khả năng của mô hình ngôn ngữ lớn (LLM) với hướng dẫn của con người.
• Giải pháp sử dụng phương pháp phân tách nhiệm vụ, sử dụng các LLM chuyên biệt cho từng công đoạn: cá nhân hóa nội dung (UX designer/personalizer), tạo hình ảnh (artist) và xây dựng website (builder/front end developer).
• Ví dụ minh họa là công ty tư vấn OneCompany Consulting tự động tạo trang đích cá nhân hóa cho khách hàng doanh nghiệp khi họ đăng ký.
• Quy trình bao gồm: chuyển đổi thông tin khách hàng từ JSON sang văn bản, sử dụng RAG để truy xuất thông tin ngành, sử dụng LLM để tạo mô tả website chi tiết và mô tả hình ảnh, tạo hình ảnh bằng Stable Diffusion, và cuối cùng là tạo mã HTML, CSS và JavaScript.
• Giải pháp sử dụng các mô hình Claude của Anthropic trên Amazon Bedrock. Claude Sonnet được dùng cho cá nhân hóa nội dung, Claude Haiku cho tạo mã.
• Các tài nguyên được sử dụng bao gồm: hồ sơ khách hàng, thông tin ngành, dịch vụ cung cấp, hướng dẫn thiết kế và đánh giá của khách hàng.
• Kết quả tạo ra các trang web cá nhân hóa cho các khách hàng trong ngành sản xuất xe điện, khai thác mỏ và xây dựng, với nội dung, hình ảnh và thiết kế phù hợp với từng ngành.
• Giải pháp có thể được cải tiến thêm bằng cách xử lý hàng loạt, phân cụm hồ sơ khách hàng tương tự, sử dụng mẫu website, và tìm kiếm hình ảnh ngữ nghĩa thay vì tạo mới.
📌 Giải pháp sử dụng AI tạo sinh trên Amazon Bedrock để tự động hóa cá nhân hóa trải nghiệm khách hàng, kết hợp LLM với hướng dẫn của con người. Phương pháp phân tách nhiệm vụ và sử dụng RAG giúp tạo ra nội dung website cá nhân hóa chính xác và nhất quán cho từng khách hàng doanh nghiệp.
https://aws.amazon.com/blogs/machine-learning/reinvent-personalization-with-generative-ai-on-amazon-bedrock-using-task-decomposition-for-agentic-workflows/
• Bill Gates, đồng sáng lập Microsoft, cho biết nếu có cơ hội, ông sẽ khởi động lại công ty như một doanh nghiệp tập trung vào AI để cạnh tranh với OpenAI, Google và các công ty khác.
• Gates nhận định rằng ngày nay, ai đó có thể huy động hàng tỷ đô la cho một công ty AI mới chỉ với "vài ý tưởng phác thảo".
• Ông thừa nhận khó thành công trong lĩnh vực AI hơn so với phần mềm, nên việc xác định thị trường ngách ít cạnh tranh là rất quan trọng.
• Gates chỉ trích cách hoạt động của các startup AI, gọi đó là "ngu ngốc".
• Ông cho rằng để nổi bật, một công ty nhỏ cần chọn làm điều gì đó độc đáo.
• Gates thừa nhận sẽ khó để một startup mới đạt được thành công như Microsoft trong lĩnh vực AI.
• Ông nhấn mạnh niềm tin vào AI không phải là điều độc đáo, mà cần phát triển quan điểm riêng về thiết kế hệ thống AI.
• Gates khuyến khích giới trẻ tiếp tục khám phá lĩnh vực AI, gọi đó là "vùng biên".
• Gần đây, NVIDIA CEO Jensen Huang cho rằng chúng ta đang bước vào giai đoạn tiếp theo của AI với robot và xe tự lái.
• Các nhà đầu tư đã chỉ trích Microsoft về việc chi tiêu quá mức cho các dự án AI mà chưa mang lại nhiều lợi nhuận.
• OpenAI được dự đoán sẽ lỗ 5 tỷ USD trong 12 tháng tới và có nguy cơ phá sản.
• Microsoft, NVIDIA và Apple được cho là sẽ tham gia vòng gọi vốn mới cho OpenAI, đưa giá trị công ty lên trên 150 tỷ USD.
• Có dự đoán rằng 30% dự án AI sẽ bị từ bỏ vào năm 2025 sau giai đoạn PoC
📌 Bill Gates nhấn mạnh tiềm năng của AI nhưng cũng chỉ ra thách thức trong việc xây dựng một công ty AI thành công. Ông khuyến khích tìm kiếm thị trường ngách và phát triển cách tiếp cận độc đáo, đồng thời cảnh báo về khó khăn trong việc cạnh tranh với các "ông lớn" hiện tại như OpenAI và Google.
https://www.windowscentral.com/microsoft/bill-gates-would-start-microsoft-again-as-an-ai-firm-to-rival-openai-and-google
• CEO DataStax Chet Kapoor dự đoán 2025 sẽ là năm AI thực sự chuyển đổi hoạt động kinh doanh, sau giai đoạn khó khăn trong triển khai hiện nay.
• Kapoor chia sẻ 3 giai đoạn áp dụng AI tạo sinh của doanh nghiệp:
- Ủy quyền: Tìm kiếm hiệu quả 30% thông qua các công cụ như GitHub Copilot
- Tăng tốc: Tập trung vào hiệu quả hơn 30% bằng cách xây dựng ứng dụng tăng năng suất
- Sáng tạo: Doanh nghiệp bắt đầu tự đổi mới bằng công nghệ AI
• 2024 được dự đoán là năm của AI sản xuất, với hầu hết khách hàng sẽ triển khai một số dự án AI
• Kapoor xác định 3 lĩnh vực chính cần giải quyết để triển khai AI thành công:
- Công nghệ: Kiến trúc mới dựa trên nguồn mở
- Con người: Trao quyền cho các nhà phát triển
- Quy trình: Quản trị và quy định ngày càng quan trọng
• Kapoor ủng hộ mạnh mẽ giải pháp nguồn mở trong hệ thống AI tạo sinh
• Chuyên gia dự đoán các cải tiến trong tương lai của mô hình ngôn ngữ lớn (LLM) sẽ đến từ:
- Tăng cửa sổ ngữ cảnh
- Phương pháp "kết hợp chuyên gia"
- AI tác nhân và mô hình nền tảng cho từng ngành
• OpenAI vừa ra mắt mô hình GPT-01 với công nghệ "Chuỗi suy luận", giúp cải thiện khả năng giải quyết vấn đề phức tạp
• Nghiên cứu cho thấy AI tạo sinh có thể tăng năng suất 20-40% cho các chuyên gia
📌 CEO DataStax dự đoán 2025 là năm bước ngoặt của AI trong doanh nghiệp. Ông chia sẻ 3 giai đoạn áp dụng AI, 3 thách thức triển khai chính và nhấn mạnh tầm quan trọng của giải pháp nguồn mở. Các cải tiến LLM trong tương lai sẽ tập trung vào tăng ngữ cảnh và chuyên môn hóa.
https://venturebeat.com/ai/datastax-ceo-2025-will-be-the-year-we-see-true-ai-transformation/
- Salesforce đang đối mặt với thách thức lớn trong việc duy trì tăng trưởng doanh thu khi doanh thu dự kiến chỉ tăng dưới 9% trong năm tài chính hiện tại.
- Tại hội nghị Dreamforce sắp diễn ra, Salesforce sẽ giới thiệu Agentforce, một bộ công cụ AI cho phép khách hàng tự động hóa dịch vụ khách hàng, chiến dịch marketing và mua sắm.
- Cổ phiếu của Salesforce đã giảm khoảng 2% kể từ đầu năm 2024, phản ánh sự lo ngại của nhà đầu tư về sự chậm lại trong tăng trưởng.
- Nhiều công ty SaaS khác như Adobe và Workday cũng đang gặp khó khăn tương tự trong việc duy trì giá cổ phiếu do tốc độ tăng trưởng chậm lại.
- CEO Marc Benioff cho biết Salesforce sẽ tổ chức thêm 25 sự kiện trước cuối năm để quảng bá Agentforce đến khách hàng.
- Một số nhà phân tích cho rằng các công ty AI có thể thay thế phần mềm truyền thống, gây áp lực lên các nhà cung cấp SaaS như Salesforce.
- Mặc dù có sự cải thiện về biên lợi nhuận hoạt động điều chỉnh, nhưng tăng trưởng một chữ số vẫn là một thách thức lớn cho Salesforce.
- Các nhà đầu tư đang mong đợi xem Salesforce có thể tận dụng AI như thế nào để cải thiện tình hình tài chính của mình.
- Theo một báo cáo gần đây, rất ít sự lạc quan được định giá vào cổ phiếu của Salesforce liên quan đến cơ hội AI của công ty.
- Sự cạnh tranh từ các ông lớn như Microsoft và Oracle đang gia tăng áp lực lên Salesforce trong việc đổi mới và phát triển sản phẩm.
📌 Salesforce đang nỗ lực khôi phục tăng trưởng doanh thu với Agentforce tại Dreamforce. Doanh thu dự kiến chỉ tăng dưới 9%, và cổ phiếu đã giảm 2% từ đầu năm. Công ty sẽ tổ chức thêm 25 sự kiện để quảng bá công nghệ AI mới này.
https://www.wsj.com/tech/ai/salesforce-needs-to-sell-its-latest-ai-vision-f6c02350
#WSJ
• Hơn 50% người tiêu dùng toàn cầu đang theo dõi xu hướng AI tạo sinh và thử nghiệm các công cụ, thúc đẩy doanh nghiệp đẩy nhanh chiến lược và ứng dụng AI tạo sinh.
• 80% tổ chức đã tăng đầu tư vào AI tạo sinh kể từ năm 2023. Gần 1/4 đang tích hợp AI tạo sinh vào một số hoặc hầu hết các bộ phận, 54% cho phép nhân viên sử dụng có giới hạn.
• Doanh nghiệp nên bắt đầu lập kế hoạch khi công nghệ còn mới. Chậm 6 tháng có thể tụt hậu so với những người áp dụng sớm đã giảm thiểu rủi ro và tăng ROI.
• 4 hướng dẫn quan trọng cần xem xét khi lập chiến lược AI tạo sinh:
1. Quy định: Đánh giá bối cảnh pháp lý hiện tại và tiềm năng ở các khu vực hoạt động. Hợp tác với các bên liên quan để đảm bảo đáp ứng yêu cầu kiểm toán nội bộ, bên ngoài và pháp lý.
2. Nhân tài: 69% lãnh đạo cho rằng cần kỹ năng và vai trò mới. Cần đào tạo lại và nâng cao kỹ năng nhân viên, đặc biệt ở các nhóm hành chính, kinh doanh và thiết kế.
3. Mô hình: Xây dựng mô hình vận hành và báo cáo doanh nghiệp mới để mở rộng an toàn giải pháp AI tạo sinh, phù hợp với quy trình chung.
4. AI có đạo đức và có thể giải thích: Sử dụng khung và công cụ AI có đạo đức, có thể giải thích. Áp dụng thực hành tốt nhất về khả năng tiếp cận, kiểm tra, giám sát, xác thực mô hình.
• Sau khi đánh giá các hướng dẫn, doanh nghiệp có thể bắt đầu mở rộng triển khai bằng cách:
- Xác định nơi giải pháp AI tạo sinh phù hợp nhất
- Lập bản đồ các trường hợp sử dụng theo lợi thế cạnh tranh chính
- Xác định ROI để mở rộng các trường hợp sử dụng đã chọn
- Tích hợp quy định vào mô hình quản trị rủi ro
📌 AI tạo sinh không phải xu hướng tạm thời. 80% tổ chức tăng đầu tư từ 2023, 1/4 đang tích hợp vào nhiều bộ phận. Doanh nghiệp cần chủ động xây dựng chiến lược ngay từ giai đoạn đầu, sử dụng 4 hướng dẫn về quy định, nhân tài, mô hình và đạo đức AI để triển khai an toàn.
https://www.ciodive.com/news/generative-AI-guardrails-capgemini/726722/
• Model routing là công nghệ cho phép doanh nghiệp tự động chọn mô hình AI phù hợp nhất cho từng tác vụ, giúp tối ưu hiệu suất và chi phí.
• Công nghệ này cho phép lựa chọn mô hình AI động theo từng truy vấn, thay vì sử dụng một mô hình đa năng duy nhất.
• Startup Martian đã phát triển LLM router đang thu hút sự chú ý của các công ty công nghệ lớn. Accenture vừa công bố đầu tư vào Martian.
• Accenture sẽ tích hợp Martian vào dịch vụ switchboard của mình để hỗ trợ doanh nghiệp lựa chọn mô hình AI.
• Martian ra mắt từ tháng 11/2023 và đang phát triển công nghệ của mình. Công ty cũng vừa giới thiệu tính năng tuân thủ mô hình AI mới.
• Công nghệ của Martian cho phép chọn mô hình phù hợp nhất theo từng truy vấn, giúp giảm chi phí và tăng hiệu suất.
• Cốt lõi công nghệ của Martian tập trung vào dự đoán hành vi của mô hình, giúp chọn mô hình tối ưu về chi phí, chất lượng đầu ra và độ trễ.
• Martian sử dụng các kỹ thuật như nén mô hình, lượng tử hóa, chưng cất để dự đoán mà không cần chạy toàn bộ mô hình.
• Việc định nghĩa các tiêu chí thành công và tối ưu chi phí là rất quan trọng khi triển khai AI trong doanh nghiệp.
• Tính năng tuân thủ mới của Martian giúp doanh nghiệp kiểm tra và phê duyệt các mô hình AI để sử dụng.
• Model routing đặc biệt hữu ích cho AI tác nhân (agentic AI), giúp đảm bảo độ chính xác cao cho từng bước trong quy trình.
📌 Model routing đang trở thành công nghệ quan trọng giúp doanh nghiệp tối ưu hiệu quả AI. Startup Martian với LLM router đã thu hút đầu tư từ Accenture, cho phép chọn mô hình AI động theo từng truy vấn, giúp giảm chi phí và tăng hiệu suất đáng kể.
https://venturebeat.com/ai/why-accenture-and-martian-see-model-routing-as-key-to-enterprise-ai-success/
• Microsoft vừa công bố đợt nâng cấp lớn cho Copilot, gọi là Wave 2, nhằm cạnh tranh với ChatGPT của OpenAI.
• Copilot Pages: Tính năng mới cho phép người dùng tạo và chia sẻ trang tài liệu dựa trên thông tin do Copilot tổng hợp từ dữ liệu công việc. Nhấn mạnh xu hướng AI đa người chơi.
• Tích hợp sâu hơn vào các ứng dụng Microsoft 365:
- Excel: Hỗ trợ công thức, trực quan hóa dữ liệu, định dạng có điều kiện. Ra mắt Copilot in Excel with Python cho phép sử dụng Python bằng ngôn ngữ tự nhiên.
- PowerPoint: Narrative Builder tạo bản nháp đầu tiên cho bài thuyết trình chỉ từ chủ đề.
- Teams: Tổng hợp nội dung cuộc họp và tin nhắn chat để tạo bản tóm tắt.
- Outlook: Tính năng "Prioritize my inbox" phân tích và đánh dấu email quan trọng.
- Word: Cho phép tham khảo nhanh dữ liệu web và công việc, cộng tác với Copilot trực tiếp trong tài liệu.
- OneDrive: Tìm kiếm file nhanh chóng, tóm tắt và so sánh file.
• Copilot agents: Trợ lý AI có thể thực hiện các tác vụ cụ thể với mức độ can thiệp của con người khác nhau. Người dùng có thể tạo agent riêng bằng agent builder trong Copilot Studio.
• Xác nhận sử dụng mô hình GPT-4o, cải thiện tốc độ phản hồi gấp 2 lần. Microsoft cam kết tiếp tục cập nhật các mô hình mới nhất cho Copilot.
• Hầu hết các tính năng mới sẽ được triển khai từ cuối năm 2024 đến đầu năm 2025.
📌 Microsoft Copilot Wave 2 mang đến cuộc cách mạng trong cộng tác nhóm và tích hợp AI vào ứng dụng văn phòng. Với Copilot Pages, agents tùy chỉnh và tích hợp sâu vào Microsoft 365, Copilot đang thu hẹp khoảng cách với ChatGPT, hứa hẹn nâng cao hiệu suất làm việc đáng kể.
https://www.zdnet.com/article/microsoft-copilots-wave-2-is-here-everything-you-need-to-know/
• Microsoft giới thiệu các tính năng mới cho gói đăng ký Microsoft 365 Copilot trị giá 30 USD/người dùng/tháng, nhằm cải thiện tích hợp AI trong các ứng dụng Office.
• Excel kết hợp hỗ trợ Python với Copilot, cho phép người dùng thực hiện phân tích nâng cao như dự báo, phân tích rủi ro, học máy và trực quan hóa dữ liệu phức tạp bằng ngôn ngữ tự nhiên, không cần lập trình.
• Tính năng tích hợp Copilot và Python trong Excel bắt đầu giai đoạn xem trước công khai từ hôm nay. Microsoft cũng bổ sung hỗ trợ Copilot cho XLOOKUP, SUMIF, định dạng có điều kiện và khả năng tạo nhiều biểu đồ, PivotTable hơn.
• PowerPoint được cải thiện với công cụ xây dựng câu chuyện nâng cao, giúp tạo nhanh bản nháp đầu tiên của bài thuyết trình. Trong tương lai, AI sẽ sử dụng mẫu có thương hiệu của công ty để tạo bản nháp hoặc hình ảnh được phê duyệt từ thư viện SharePoint.
• Copilot trong Microsoft Teams sẽ tóm tắt các cuộc trò chuyện văn bản và cuộc họp nói vào cuối tháng này, giúp người tổ chức cuộc họp không bỏ lỡ các câu hỏi chưa được trả lời trong chat.
• Outlook sẽ có tính năng "ưu tiên hộp thư đến" cho phép Copilot tự động sắp xếp thứ tự ưu tiên email. Trong tương lai, người dùng có thể "dạy" Copilot về các chủ đề, từ khóa hoặc người quan trọng để đánh dấu email ưu tiên cao.
• Word sẽ cho phép tham chiếu dữ liệu từ email và cuộc họp, bên cạnh dữ liệu từ tài liệu, giúp dễ dàng đưa tệp đính kèm từ email hoặc các điểm thảo luận từ cuộc họp vào tài liệu.
• OneDrive sẽ có Copilot vào cuối tháng này, giúp tóm tắt và so sánh tối đa 5 tệp để phát hiện sự khác biệt giữa chúng.
• Microsoft cho biết 60% công ty trong Fortune 500 đang sử dụng Copilot và số người dùng Copilot hàng ngày tại nơi làm việc "gần như tăng gấp đôi so với quý trước". Tuy nhiên, các báo cáo gần đây cho thấy phản ứng không mấy tích cực với phiên bản Copilot trả phí dành cho doanh nghiệp do lỗi và sự miễn cưỡng trả 30 USD/người dùng.
• Vodafone là khách hàng lớn của Microsoft 365 Copilot, đăng ký 68.000 giấy phép cho 100.000 nhân viên sau khi thử nghiệm và thấy lợi ích ban đầu.
📌 Microsoft nâng cấp Copilot AI trong Office với các tính năng mới cho Excel, PowerPoint, Word và Outlook. 60% công ty Fortune 500 đang sử dụng Copilot, với số người dùng hàng ngày tăng gấp đôi. Vodafone đăng ký 68.000 giấy phép cho 100.000 nhân viên, cho thấy tiềm năng của AI trong môi trường văn phòng.
https://www.theverge.com/2024/9/16/24246014/microsoft-office-copilot-ai-features-excel-python-outlook-word-powerpoint
• Hơn 40% tổ chức marketing, bán hàng và dịch vụ khách hàng đã áp dụng AI tạo sinh, đứng thứ hai sau CNTT và an ninh mạng.
• AI hội thoại được dự đoán sẽ phát triển nhanh chóng trong các lĩnh vực này do khả năng thu hẹp khoảng cách giao tiếp giữa doanh nghiệp và khách hàng.
• Bài viết so sánh chi phí giữa hai mô hình ngôn ngữ lớn (LLM) hàng đầu: GPT-4o (nguồn đóng) của OpenAI và Llama 3 (nguồn mở) của Meta.
• Chi phí chính khi lựa chọn LLM bao gồm chi phí thiết lập và chi phí xử lý.
• Chi phí thiết lập GPT-4o thấp hơn do chỉ cần kết nối API, trong khi Llama 3 đòi hỏi chi phí lớn hơn cho việc lưu trữ và vận hành.
• Llama 3 có thể được lưu trữ trên máy chủ riêng hoặc dịch vụ đám mây như AWS. Amazon Bedrock là một lựa chọn tiềm năng với chi phí dựa trên số lượng token xử lý.
• Chi phí xử lý được tính bằng token. Một cuộc hội thoại trung bình gồm 16 tin nhắn, tương đương 30.390 token.
• Chi phí xử lý cho một cuộc hội thoại trên GPT-4o là khoảng 0,16 USD, trong khi Llama 3 trên AWS Bedrock là khoảng 0,08 USD.
• Llama 3 rẻ hơn gần 50% so với GPT-4o về chi phí xử lý, nhưng cần cộng thêm chi phí máy chủ.
• Việc lựa chọn LLM phụ thuộc vào nhu cầu cụ thể của doanh nghiệp như thời gian triển khai, mức độ sử dụng và yêu cầu kiểm soát.
• Doanh nghiệp cần cân nhắc giữa việc xây dựng AI hội thoại nội bộ hoặc sử dụng các sản phẩm có sẵn trên thị trường.
📌 AI hội thoại đang phát triển mạnh trong marketing và dịch vụ khách hàng. GPT-4o có chi phí thiết lập thấp hơn nhưng chi phí xử lý cao hơn, trong khi Llama 3 ngược lại. Doanh nghiệp cần cân nhắc kỹ lưỡng dựa trên nhu cầu cụ thể để lựa chọn giải pháp phù hợp nhất.
https://venturebeat.com/ai/what-does-it-cost-to-build-a-conversational-ai/
• Theo báo cáo mới nhất, 96% doanh nghiệp vừa và nhỏ Ấn Độ (có từ 250 đến 1.500 nhân viên) đang ưu tiên AI tạo sinh, cao hơn mức trung bình 91% của thế giới.
• Việc áp dụng AI tạo sinh (66%) chỉ đứng sau việc chuẩn bị cho các mối đe dọa an ninh mạng (67%) trong danh sách ưu tiên hàng đầu của các doanh nghiệp vừa và nhỏ Ấn Độ trong năm 2024, vượt qua cả việc làm cho hoạt động kinh doanh bền vững hơn về môi trường (65%).
• Các tổ chức ở Ấn Độ đặt ưu tiên cao hơn cho AI để chuyển đổi kinh doanh so với phần còn lại của thế giới.
• Hơn một nửa số doanh nghiệp vừa và nhỏ Ấn Độ được khảo sát đặt ưu tiên cao cho AI để chuyển đổi quyền riêng tư và bảo mật (55%) và cải thiện việc ra quyết định (52%), cao hơn so với các doanh nghiệp ở phần còn lại của thế giới (50% và 49%).
• Các doanh nghiệp vừa và nhỏ Ấn Độ cũng đặt ưu tiên cao cho AI để cải thiện đào tạo và phát triển kỹ năng, trải nghiệm khách hàng và tối ưu hóa chuỗi cung ứng và hậu cần.
• Rủi ro lớn nhất mà các doanh nghiệp vừa và nhỏ Ấn Độ nhận thấy khi sử dụng AI là tìm kiếm, thu hút và giữ chân nhân tài có kỹ năng AI.
• Dữ liệu là rủi ro lớn tiếp theo, với việc thiếu minh bạch đằng sau kết quả AI, hành động dựa trên thông tin không chính xác và kích thước và chất lượng dữ liệu không đủ cho các mô hình AI nằm trong số các rủi ro được xác định.
• Manish Prasad, Chủ tịch và Giám đốc điều hành của SAP Indian Subcontinent, nhấn mạnh rằng các doanh nghiệp vừa và nhỏ Ấn Độ là xương sống của nền kinh tế quốc gia và AI là một yếu tố thay đổi cuộc chơi, mang lại sự linh hoạt, thông tin chi tiết có thể hành động và giúp họ phát triển mạnh trong nền kinh tế kỹ thuật số.
• Rajeev Singh, Phó Chủ tịch và Trưởng bộ phận Thị trường trung bình, SAP Indian Subcontinent, cho biết AI có tiềm năng trao quyền cho các tổ chức với những hiểu biết thông minh, tự động hóa và các công cụ, cho phép họ cạnh tranh ở quy mô toàn cầu.
📌 96% doanh nghiệp vừa và nhỏ Ấn Độ ưu tiên AI tạo sinh, cao hơn mức 91% của thế giới. AI đứng thứ 2 sau an ninh mạng trong danh sách ưu tiên năm 2024. Các doanh nghiệp Ấn Độ đặt ưu tiên cao hơn cho AI trong chuyển đổi quyền riêng tư, bảo mật và ra quyết định so với phần còn lại của thế giới.
https://bhaskarlive.in/96-pc-of-indian-midmarket-firms-prioritising-gen-ai-faster-than-the-world/
• Anthropic, một công ty khởi nghiệp AI, vừa ra mắt tính năng mới 'Workspaces' nhằm mục tiêu trực tiếp vào thị trường doanh nghiệp.
• Các mô hình ngôn ngữ lớn (LLM) như ChatGPT ngày càng được sử dụng phổ biến để hoàn thành các nhiệm vụ trong các tổ chức. Anthropic, nhà sản xuất chatbot Claude, hiện đang tích cực nhắm vào các doanh nghiệp để triển khai các sản phẩm AI tạo sinh của mình.
• Đối thủ của OpenAI này đã nhận được sự ủng hộ từ các ông lớn công nghệ như Amazon và Google. Vài tuần trước, họ đã giới thiệu 'Claude Enterprise' - trợ lý AI dành riêng cho doanh nghiệp.
• Việc công bố 'Workspaces' vào thứ Ba (10/9) đánh dấu một bước đi khác nhằm khẳng định vị thế của Anthropic trên thị trường AI doanh nghiệp. Trong một bài đăng trên blog, Anthropic mô tả công cụ này là "các môi trường độc đáo cho phép bạn tổ chức các tài nguyên, đơn giản hóa các kiểm soát truy cập và đặt giới hạn chi tiêu và tốc độ tùy chỉnh ở mức độ chi tiết hơn".
• Nhóm Anthropic đã liệt kê 5 trường hợp sử dụng khác nhau cho Workspaces. Họ nói rằng các giới hạn chi tiêu hàng tháng có thể được thực hiện thông qua Workspaces, cho phép các doanh nghiệp có "quyền kiểm soát chi tiết hơn" về chi phí sử dụng API.
• Việc quản lý các giới hạn tốc độ cũng được cho là có thể thực hiện được bây giờ, với các giới hạn tốc độ cho mỗi không gian làm việc có thể được điều chỉnh độc lập trong khi vẫn nằm trong giới hạn tổng thể. Điều này nhằm giúp quản lý tải trọng tốt hơn trên các triển khai và bộ phận khác nhau.
• Bảo mật tài khoản cũng đã được cải thiện, với các quyền người dùng có thể được gán ở cấp độ không gian làm việc. Mỗi không gian làm việc có thể được theo dõi để có được những thông tin về việc sử dụng API, với các chi phí cũng được phân tích chi tiết có thể giúp theo dõi và tối ưu hóa việc phân bổ tài nguyên.
• Khóa API, dữ liệu sử dụng và cài đặt có thể được tổ chức thành "các nhóm logic phù hợp với các dự án hoặc môi trường của bạn" với công cụ này.
• Tính năng này đã được triển khai và có sẵn cho tất cả người dùng API Anthropic trong Console.
📌 Anthropic ra mắt 'Workspaces' nhằm tăng cường kiểm soát triển khai AI cho doanh nghiệp với các tính năng như giới hạn chi tiêu hàng tháng, quản lý tốc độ, và phân quyền người dùng.
https://readwrite.com/anthropic-edge-further-into-business-ai-market-with-launch-of-workspaces/
- Gusto, một nền tảng phần mềm quản lý nhân sự và tiền lương, đã giới thiệu "Gus", một trợ lý AI nhằm đơn giản hóa quy trình tuân thủ và giảm thiểu rủi ro phạt cho các doanh nghiệp nhỏ.
- Gus có khả năng trả lời các câu hỏi liên quan đến tiền lương và quy định pháp lý, giúp người dùng dễ dàng tìm hiểu về nghĩa vụ của mình.
- Trước đây, nhiều doanh nghiệp nhỏ phải dựa vào các chuyên gia bên ngoài hoặc tự mình tìm hiểu các quy định phức tạp, dẫn đến chi phí cao và rủi ro phạt.
- CEO của Gusto, Josh Reeves, cho biết, vào năm 2012, khoảng 40% doanh nghiệp thực hiện quy trình tiền lương bằng tay và gần 30% bị phạt vì sai sót hàng năm.
- Kim, CTO của Gusto, chia sẻ về kinh nghiệm của mẹ mình trong việc tính toán thuế và các khoản phạt mà bà đã phải gánh chịu do không nắm rõ quy định.
- Darren Liddell, một người dùng thử Gus, cho biết công cụ này đã mang lại sự an tâm khi thực hiện quy trình tiền lương cho nhân viên của mình.
- Angela Shapiro, một luật sư, nhấn mạnh rằng việc có một chatbot tuân thủ là rất hữu ích cho các chủ doanh nghiệp nhỏ không có đủ tài chính để thuê ngoài.
- Gusto không phải là công ty duy nhất sử dụng AI để tối ưu hóa quy trình tuân thủ; EY và IBM cũng đã phát triển giải pháp HR AI có tên EY.ai Workforce.
- Theo một báo cáo, doanh nghiệp nhỏ phải chi khoảng 40 tỷ USD mỗi năm cho việc đảm bảo tuân thủ quy định liên bang, trung bình 11.700 USD mỗi nhân viên.
- Các chi phí này có thể gia tăng do "lạm phát tuân thủ", theo nhận định của Gusto.
- Một nghiên cứu cho thấy các doanh nghiệp Mỹ chi từ 1.3% đến 3.3% tổng quỹ lương cho việc tuân thủ quy định.
- Mặc dù AI đang thay đổi ngành công nghiệp tuân thủ, vai trò của con người vẫn rất quan trọng; các chuyên gia nhấn mạnh rằng cần có sự giám sát của con người trong quy trình này.
- Một số nghiên cứu đã chỉ ra rằng AI có thể tạo ra thông tin sai lệch, gọi là "hallucinations", điều này có thể gây ra rủi ro cho các doanh nghiệp nếu không được kiểm soát.
📌 AI đang trở thành công cụ quan trọng giúp doanh nghiệp nhỏ tiết kiệm chi phí tuân thủ pháp lý, với Gusto dẫn đầu trong việc phát triển các giải pháp AI. Tuy nhiên, sự giám sát của con người vẫn cần thiết để đảm bảo tính chính xác và tuân thủ.
https://www.fastcompany.com/91187921/can-ai-improve-one-of-the-most-expensive-and-boring-parts-of-work
- Sự phụ thuộc quá mức vào AI có thể gây ra rủi ro lớn khi các công cụ này thường xuyên gặp sự cố hoặc không hoạt động như mong đợi. Cần có kế hoạch dự phòng và đảm bảo nhân viên nắm rõ quy trình để có thể xử lý công việc khi AI gặp trục trặc.
- AI không thể thay thế hoàn toàn kỹ năng con người. Nó chỉ có thể hỗ trợ và tăng cường khả năng của con người, chứ không thể thay thế trực giác, khả năng hiểu ngữ cảnh và tính tương xứng của con người.
- AI có thể phản ánh và khuếch đại những định kiến có trong dữ liệu huấn luyện, dẫn đến các thực hành không công bằng và phân biệt đối xử. Cần đầu tư vào đào tạo đạo đức AI toàn diện và sử dụng các kỹ thuật khử định kiến.
- Việc sử dụng dữ liệu để huấn luyện AI có thể vi phạm quyền riêng tư. Cần cân bằng giữa cá nhân hóa và bảo mật dữ liệu, đồng thời tuân thủ các quy định về quyền riêng tư như GDPR và CCPA.
- AI phát triển rất nhanh, dẫn đến các giải pháp AI ngày càng lỗi thời. Cần có chiến lược AI linh hoạt tập trung vào giải quyết vấn đề thay vì cam kết với các công cụ cụ thể, đồng thời xây dựng đội ngũ theo dõi xu hướng AI.
📌 Để tối đa hóa lợi ích của AI và giảm thiểu rủi ro, các doanh nghiệp cần phát triển văn hóa "trí tuệ AI" - hiểu biết sâu sắc về khi nào sử dụng AI, khi nào dựa vào trực giác con người và cách tích hợp cả hai một cách suôn sẻ. Lợi thế cạnh tranh trong kỷ nguyên AI không phải là có công cụ tiên tiến nhất mà là nuôi dưỡng những nhà lãnh đạo và đội ngũ có thể sử dụng các công cụ này với sự phân biệt, sáng tạo và trách nhiệm không ai sánh bằng.
https://www.forbes.com/councils/forbesbusinesscouncil/2024/09/11/the-dark-side-of-generative-ai-what-every-business-leader-should-know/
• Bài viết khám phá tiềm năng và giới hạn của AI tạo sinh trong việc hỗ trợ các công ty, đặc biệt là các doanh nghiệp vừa và nhỏ, lập kế hoạch chiến lược.
• Nghiên cứu điển hình 1: Keith, CEO của Trident - tổ chức nghiên cứu nông nghiệp thương mại với 120 nhân viên:
- Keith muốn sử dụng AI tạo sinh để có góc nhìn mới ngoài lĩnh vực khoa học nông nghiệp.
- AI tạo sinh đưa ra 9 vấn đề chiến lược, bổ sung 4 lĩnh vực quan trọng mà nhóm của Keith bỏ sót: tiến bộ công nghệ, thay đổi quy định, nhu cầu và kỳ vọng của khách hàng, tài trợ và đầu tư.
- Tuy nhiên, AI tạo sinh không đề cập đến 2 vấn đề trong danh sách của Keith: số lượng và vị trí chi nhánh, lợi nhuận.
- AI tạo sinh gặp khó khăn trong việc dự báo nhu cầu tương lai do được đào tạo trên dữ liệu lịch sử.
• Nghiên cứu điển hình 2: Angeline, CEO của Fitzroy Cemetery and Crematorium:
- Angeline muốn sử dụng AI tạo sinh để xác định các xu hướng ngành và phát triển kịch bản tương lai.
- AI tạo sinh đề xuất 4 xu hướng đáng chú ý: dân số già hóa và thay đổi nhân khẩu học, hỗ trợ sức khỏe tâm thần và đau buồn, nhạy cảm về giá và tính minh bạch, thay đổi quy định và tuân thủ.
- AI tạo sinh cũng đưa ra một số giải pháp sáng tạo cho vấn đề thiếu đất chôn cất như sử dụng tòa nhà nhiều tầng hoặc tạo rừng tưởng niệm.
• AI tạo sinh có thể giúp vượt qua những điểm mù và thúc đẩy tư duy phân kỳ, nhưng vẫn có những hạn chế:
- Không thể dự đoán tương lai chính xác do được đào tạo trên dữ liệu lịch sử.
- Thiếu thông tin cụ thể về công ty.
- Có thể bỏ sót một số vấn đề quan trọng.
• Để tận dụng tối đa AI tạo sinh trong lập kế hoạch chiến lược:
- Sử dụng nó như một công cụ bổ sung, không thay thế hoàn toàn tư duy chiến lược của con người.
- Kết hợp với kinh nghiệm và hiểu biết sâu sắc của đội ngũ quản lý.
- Sử dụng các kỹ thuật nhắc nhở thông minh để có kết quả tốt hơn.
- Xem xét sử dụng các công cụ AI tạo sinh có khả năng tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) để có thông tin cập nhật và phù hợp hơn với doanh nghiệp.
📌 AI tạo sinh có thể hỗ trợ đáng kể trong lập kế hoạch chiến lược bằng cách cung cấp góc nhìn mới và ý tưởng sáng tạo. Tuy nhiên, nó vẫn có những hạn chế như không thể dự đoán chính xác tương lai và thiếu thông tin cụ thể về công ty. Để tận dụng tối đa, các nhà lãnh đạo nên sử dụng AI tạo sinh như một công cụ bổ sung, kết hợp với kinh nghiệm của đội ngũ quản lý.
https://hbr.org/2024/09/how-ceos-are-using-gen-ai-for-strategic-planning
#HBR
• Oracle vừa công bố hơn 50 trợ lý AI tích hợp trong Oracle Fusion Cloud Applications Suite, nhằm hỗ trợ tự động hóa các tác vụ lặp đi lặp lại và giúp nhân viên tập trung vào công việc chiến lược hơn.
• Các trợ lý AI mới được tích hợp vào quy trình làm việc, cung cấp thông tin chi tiết, nội dung và đề xuất được cá nhân hóa cho từng vai trò cụ thể.
• Trong Oracle Fusion Cloud Human Capital Management (HCM), có các trợ lý AI như:
- Trợ lý lập lịch ca làm: Tối ưu hóa lịch làm việc theo ca, đồng thời đáp ứng sở thích cá nhân và tuân thủ quy định.
- Cố vấn tuyển dụng: Hỗ trợ tìm kiếm ứng viên, tạo yêu cầu tuyển dụng và đề xuất, giúp rút ngắn thời gian tuyển dụng.
- Phân tích viên phúc lợi: Hỗ trợ nhân viên hiểu rõ và tối ưu hóa gói phúc lợi dựa trên nhu cầu cá nhân.
• Trong Oracle Fusion Cloud Supply Chain & Manufacturing (SCM), có các trợ lý AI như:
- Hướng dẫn đại diện bán hàng: Cung cấp thông tin chi tiết và đề xuất cá nhân hóa để xử lý các truy vấn đơn hàng.
- Cố vấn xử lý sự cố bảo trì: Đẩy nhanh quá trình bảo trì và sửa chữa bằng cách cung cấp thông tin chi tiết và đề xuất về bảo trì và sửa chữa tài sản.
• Trong Oracle Fusion Cloud Enterprise Resource Planning (ERP), có các trợ lý AI như:
- Trợ lý xử lý tài liệu: Tự động hóa và đơn giản hóa việc tích hợp phức tạp với các bên thứ ba.
- Trợ lý sổ cái: Xác định các ngoại lệ và bất thường trong dữ liệu giao dịch, phân tích số dư tài khoản.
- Trợ lý dự đoán nâng cao: Hỗ trợ các mô hình dự đoán AI đa biến, tận dụng các yếu tố tài chính, hoạt động và bên ngoài.
• Trong Oracle Fusion Cloud Customer Experience (CX), có các trợ lý AI như:
- Trợ lý nghiên cứu tài khoản khách hàng: Cung cấp thông tin chi tiết và tự động hóa các tác vụ lập kế hoạch và nghiên cứu.
- Trợ lý nghiên cứu hợp đồng: Tự động hóa quy trình và phê duyệt hợp đồng thông thường.
- Hướng dẫn kế hoạch thưởng khuyến khích: Giúp truyền đạt và thúc đẩy đại diện bán hàng phù hợp với ý định chiến lược.
• Oracle Fusion Applications Suite cho phép các tổ chức tận dụng đám mây và những tiến bộ mới nhất trong AI để phá vỡ các rào cản tổ chức, chuẩn hóa quy trình và quản lý dữ liệu tài chính, nhân sự, chuỗi cung ứng và trải nghiệm khách hàng trên một nền tảng đám mây tích hợp duy nhất.
📌 Oracle giới thiệu hơn 50 trợ lý AI tích hợp vào Oracle Fusion Cloud Applications Suite, hỗ trợ tự động hóa quy trình trong tài chính, chuỗi cung ứng, nhân sự, bán hàng, tiếp thị và dịch vụ. Các trợ lý AI mới này có tiềm năng thay đổi hoàn toàn cách làm việc, giúp doanh nghiệp đạt được mức năng suất mới và mở khóa tiềm năng tăng trưởng kinh doanh to lớn.
https://www.oracle.com/news/announcement/ocw24-oracle-ai-agents-help-organizations-achieve-new-levels-of-productivity-2024-09-11/
- Arcee AI đã công bố SuperNova, một mô hình ngôn ngữ với 70 tỷ tham số, được thiết kế đặc biệt cho việc triển khai trong các doanh nghiệp.
- SuperNova cung cấp khả năng tuân thủ hướng dẫn nâng cao và tùy chỉnh toàn diện, nhằm giải quyết các vấn đề về bảo mật dữ liệu và sự ổn định của mô hình.
- Mô hình này được xây dựng trên kiến trúc Llama-3.1-70B-Instruct của Meta, và sử dụng quy trình sau đào tạo độc quyền để cải thiện khả năng tuân thủ hướng dẫn.
- Quá trình phát triển SuperNova bao gồm việc đào tạo ba mô hình cùng lúc, với một mô hình được tinh chế từ Llama 405B, một mô hình sử dụng dữ liệu từ kho dữ liệu EvolKit, và một mô hình khác thực hiện DPO trên Llama 3.
- SuperNova được triển khai trong môi trường đám mây riêng của doanh nghiệp, bắt đầu từ AWS Marketplace, với kế hoạch mở rộng sang Google và Azure.
- Mô hình này cho phép doanh nghiệp kiểm soát hoàn toàn tài sản AI của mình, giúp bảo vệ dữ liệu nhạy cảm và tránh các thay đổi không mong muốn từ dịch vụ API.
- SuperNova có khả năng được tinh chỉnh và đào tạo lại trong môi trường doanh nghiệp, cho phép cải thiện liên tục dựa trên tương tác với người dùng.
- Arcee AI cũng cung cấp một API miễn phí cho việc thử nghiệm và đánh giá, cùng với phiên bản SuperNova-Lite với 8 tỷ tham số, hữu ích cho các nhà phát triển trong môi trường hạn chế tài nguyên.
- Arcee cam kết tính minh bạch và khuyến khích các bên thứ ba đánh giá hiệu suất của SuperNova, đặc biệt trong lĩnh vực lý thuyết toán học.
- Việc ra mắt SuperNova diễn ra trong bối cảnh các doanh nghiệp đang xem xét lại chiến lược AI của mình, với sự quan tâm ngày càng tăng đối với các mô hình có thể triển khai và tùy chỉnh.
📌 SuperNova của Arcee AI là mô hình ngôn ngữ 70 tỷ tham số, cung cấp khả năng tùy chỉnh cao và bảo mật dữ liệu cho doanh nghiệp. Mô hình này có thể được triển khai trong môi trường đám mây riêng, cho phép cải thiện liên tục và kiểm soát hoàn toàn tài sản AI.
https://venturebeat.com/ai/arcee-ai-unveils-supernova-a-customizable-instruction-adherent-model-for-enterprises/
- 100% tổ chức đang chịu tác động của AI và tự động hóa. Các tổ chức thành công sẽ là những tổ chức nhận ra giá trị của tiềm năng con người và đầu tư vào phát triển kỹ năng ngay từ bây giờ và trong tương lai.
- Chỉ 50% tổ chức đang truyền đạt rõ ràng tầm nhìn về tương lai công việc cho nhân viên. Thiếu giao tiếp cởi mở về tác động của AI khiến nhân viên gặp khó khăn trong việc hiểu rõ vai trò công việc của họ sẽ phát triển như thế nào.
- Đổi mới sản phẩm và dịch vụ là ưu tiên kinh doanh cao nhất của các tổ chức trong 3 năm tới. Tuy nhiên, nếu không có hướng dẫn rõ ràng và không gian an toàn được lãnh đạo chấp thuận, nhân viên không chắc chắn về mức độ chấp nhận rủi ro và đổi mới mà tổ chức cho phép.
- Các tổ chức cần hình dung AI tạo sinh không phải là công nghệ độc lập mà trong bối cảnh lực lượng lao động của họ. AI tạo sinh có thể giúp tổ chức tái định hình vai trò công việc để thúc đẩy kết quả tốt hơn và tăng giá trị kinh doanh.
- Chỉ 42% lãnh đạo cho biết tổ chức của họ đang tích hợp công nghệ trên nhiều lĩnh vực hoặc toàn diện. Đây là cơ hội bị bỏ lỡ: tích hợp công nghệ có thể hỗ trợ truy cập và sử dụng liền mạch thông tin chi tiết dữ liệu để mở rộng quy mô ra quyết định một cách thông minh và nhanh chóng.
- 74% lãnh đạo cho biết họ đã xác định, quản lý hoặc tối ưu hóa phương pháp đánh giá tiềm năng nhân viên. Nhóm tiên phong có tỷ lệ cao hơn với 87% đang thúc đẩy nỗ lực trong lĩnh vực này.
- Các khả năng quan trọng của lực lượng lao động dự kiến sẽ tăng đến năm 2026 bao gồm: trí tuệ cảm xúc (tăng 18%), tư duy phản biện (tăng 15%), nhận thức về an ninh mạng (tăng 15%), tinh thần kinh doanh (tăng 13%) và kiến thức về AI (tăng 30%).
- 72% nhóm tiên phong khuyến khích mạnh mẽ việc chấp nhận rủi ro để khám phá ý tưởng mới. Tuy nhiên, chỉ 54% tổ chức tiên phong báo cáo mức độ đổi mới và chấp nhận rủi ro đáng kể đến lớn.
- Các tổ chức có môi trường đổi mới cởi mở và không sợ hãi cho thấy tăng trưởng doanh thu cao hơn 10% so với các đối thủ.
- Thị trường AI tạo sinh dự kiến sẽ tăng trưởng 46% mỗi năm, đạt quy mô thị trường 356 tỷ USD vào năm 2030. Tuy nhiên, con người sẽ luôn là một phần thiết yếu của mô hình hoạt động.
📌 AI tạo sinh đang thay đổi cách làm việc và phát triển tiềm năng nhân viên. Các tổ chức cần tích hợp AI vào quy trình làm việc hàng ngày, tập trung vào tiềm năng hơn là kỹ năng hiện tại, và xây dựng văn hóa học tập liên tục. 78% lãnh đạo dự kiến sẽ trao quyền cho nhân viên làm việc cùng AI và tự động hóa ở mức độ đáng kể vào năm 2026.
https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/human-potential-genai
• Khảo sát mới của Deloitte cho thấy 48,6% công ty Đức chưa nghiêm túc chuẩn bị cho việc thực thi Đạo luật AI của Liên minh châu Âu (EU AI Act), có hiệu lực từ tháng 8/2024.
• Chỉ 26,2% công ty đã bắt đầu chuẩn bị tích cực cho các yêu cầu quy định mới, cho thấy khoảng cách lớn về mức độ sẵn sàng giữa các doanh nghiệp Đức.
• Trong số 500 nhà quản lý tham gia khảo sát, 35,7% cảm thấy đã chuẩn bị tốt để đáp ứng yêu cầu của Đạo luật AI, 30% chỉ chuẩn bị một phần, 19,4% chuẩn bị kém và 14,9% chưa quyết định.
• Đạo luật AI của EU nhằm đảm bảo an toàn và tiêu chuẩn đạo đức cho AI, phân loại hệ thống AI theo mức độ rủi ro với các yêu cầu tuân thủ cụ thể.
• Hệ thống AI rủi ro cao như trong tuyển dụng phải đáp ứng tiêu chuẩn nghiêm ngặt, trong khi hệ thống có rủi ro không chấp nhận được bị cấm. Mức phạt có thể lên tới 7% doanh thu hàng năm toàn cầu đối với vi phạm nghiêm trọng.
• 52,3% công ty cho rằng Đạo luật AI sẽ hạn chế khả năng đổi mới AI, chỉ 18,5% kỳ vọng tác động tích cực và 24,2% trung lập.
• 47,4% xem Đạo luật AI là rào cản phát triển ứng dụng AI, chỉ 24,1% tin rằng quy định mới sẽ hỗ trợ phát triển và triển khai.
• Chỉ một phần nhỏ công ty đã có biện pháp cụ thể để tuân thủ: 7,5% thành lập nhóm chuyên trách, 9,1% giao nhiệm vụ cho bộ phận cụ thể, 17,6% khởi động dự án tập trung vào yêu cầu mới. 53,8% chưa thực hiện biện pháp nào.
• Quan điểm về tác động của Đạo luật AI đối với an ninh pháp lý và niềm tin vào AI còn chia rẽ: khoảng 35-39% kỳ vọng tích cực, 30-35% không đồng ý, còn lại chưa quyết định.
• Nghiên cứu toàn cầu của Deloitte cho thấy tuân thủ quy định, quản lý rủi ro và thiếu mô hình quản trị là rào cản lớn nhất cho áp dụng AI. Chỉ 23% công ty cảm thấy đủ chuẩn bị để quản lý các vấn đề này.
• Mở rộng quy mô dự án AI vẫn là thách thức, ngay cả khi công ty tăng đầu tư vào quản lý dữ liệu. Chứng minh lợi nhuận đầu tư rõ ràng cho dự án AI tạo sinh là mối quan tâm phổ biến.
📌 Gần 50% công ty Đức chưa sẵn sàng cho Đạo luật AI EU, với 52,3% lo ngại sẽ cản trở đổi mới. Chỉ 26,2% đã chuẩn bị tích cực, trong khi 53,8% chưa có biện pháp cụ thể. Tuân thủ quy định, quản lý rủi ro và thiếu mô hình quản trị là thách thức chính.
https://www.techmonitor.ai/ai-and-automation/nearly-half-of-german-companies-not-prepared-for-eu-ai-act-deloitte-survey-reveals/
• Aisera, một startup ở Thung lũng Silicon, đang mở rộng Microsoft Copilot với trí tuệ chuyên biệt cho từng lĩnh vực để thúc đẩy việc áp dụng AI trong doanh nghiệp.
• Nền tảng GenAI của Aisera được xây dựng trên Azure AI, Microsoft 365 và Azure cloud, cung cấp các giải pháp AI Copilot và AI Search có khả năng mở rộng và bảo mật.
• Aisera tích hợp với nhiều hồ dữ liệu, ứng dụng và dịch vụ doanh nghiệp khác nhau, bao gồm cả kết nối sẵn với các ứng dụng SaaS.
• Microsoft cung cấp cơ sở hạ tầng điện toán Azure và các mô hình nền tảng Azure OpenAI, mà Aisera đã tinh chỉnh để phù hợp với từng lĩnh vực cụ thể.
• Nền tảng Aisera bao gồm hàng trăm tích hợp, hàng nghìn quy trình làm việc AI và các mô hình ngôn ngữ lớn (LLM) chuyên biệt cho các chức năng doanh nghiệp như bán hàng, tài chính, nhân sự, CNTT và dịch vụ khách hàng.
• LLM chuyên biệt được thiết kế để khắc phục hạn chế của LLM chung trong các lĩnh vực chuyên môn. Chúng thường bắt đầu là các mô hình ngôn ngữ nhỏ và sau đó được mở rộng và tinh chỉnh.
• Aisera cung cấp các bộ từ vựng và thư viện ý định của con người được xây dựng sẵn, giúp tạo ra các cuộc hội thoại giống con người hơn và kết quả chính xác hơn.
• Công ty sử dụng khung TRAPS (Đáng tin cậy, Có trách nhiệm, Có thể kiểm toán, Riêng tư và An toàn) để đảm bảo các nền tảng và ứng dụng AI tạo sinh đáp ứng các tiêu chuẩn cao.
• Tìm kiếm AI trên toàn doanh nghiệp của Aisera tạo ra một đồ thị kiến thức động cho nội dung, lập bản đồ mối quan hệ giữa con người, nội dung và tương tác.
• Aisera cung cấp Universal Bot với giao diện thống nhất để giải quyết yêu cầu của người dùng trên tất cả các lĩnh vực.
• Công nghệ của Aisera là đa tác tử. Công cụ lập luận của nó có thể thực hiện chuyển đổi dựa trên ý định và thực hiện hành động trên hàng nghìn điểm cuối doanh nghiệp.
• Các sản phẩm của Aisera bao gồm AiseraGPT, AI Copilot, AI Search và Agent Assist, tất cả đều được xây dựng trên Nền tảng AI tạo sinh của họ.
📌 Aisera mở rộng Microsoft Copilot với AI chuyên biệt cho doanh nghiệp, cung cấp LLM chuyên ngành và giải pháp AI cho nhiều chức năng. Nền tảng của họ tích hợp với hàng trăm hệ thống, có hàng nghìn quy trình AI, và sử dụng khung TRAPS để đảm bảo tiêu chuẩn cao về bảo mật và hiệu quả.
https://thenewstack.io/domain-specific-ai-aiseras-answer-to-enterprise-needs/
• Red Hat chính thức ra mắt Red Hat Enterprise Linux (RHEL) AI, một giải pháp AI thực sự hữu ích cho quản trị viên và lập trình viên RHEL.
• RHEL AI cung cấp image RHEL được tối ưu hóa hoàn toàn, có thể khởi động để triển khai máy chủ trên các môi trường đám mây lai.
• Nền tảng này kết hợp mô hình ngôn ngữ lớn Granite của IBM Research, công cụ căn chỉnh InstructLab dựa trên phương pháp LAB và cách tiếp cận hợp tác để phát triển mô hình.
• Phương pháp LAB sử dụng tạo dữ liệu tổng hợp và tinh chỉnh nhiều giai đoạn để căn chỉnh mô hình AI/ML mà không cần nỗ lực thủ công tốn kém.
• RHEL AI được tích hợp trong OpenShift AI, nền tảng MLOps của Red Hat, cho phép triển khai mô hình quy mô lớn trong các cụm Kubernetes phân tán.
• Giải pháp này sử dụng Tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) để truy cập kiến thức bên ngoài được phê duyệt, giúp cải thiện độ chính xác của câu trả lời.
• RHEL AI cho phép các chuyên gia lĩnh vực, không chỉ các nhà khoa học dữ liệu, đóng góp vào mô hình AI tạo sinh được xây dựng cho mục đích cụ thể trên đám mây lai.
• Nền tảng này được thiết kế để chạy ở bất kỳ nơi nào dữ liệu của bạn tồn tại - tại chỗ, ở biên hoặc trên đám mây công cộng.
• RHEL AI hiện có sẵn trên Amazon Web Services (AWS) và IBM Cloud dưới dạng đăng ký "tự mang" (BYO). Trong vài tháng tới, nó sẽ có sẵn dưới dạng dịch vụ trên AWS, Google Cloud Platform (GCP), IBM Cloud và Microsoft Azure.
• Dell Technologies đã công bố hợp tác để đưa RHEL AI lên máy chủ Dell PowerEdge, nhằm đơn giản hóa việc triển khai AI bằng cách cung cấp các giải pháp phần cứng được xác thực, bao gồm điện toán tăng tốc NVIDIA, được tối ưu hóa cho RHEL AI.
📌 RHEL AI của Red Hat mang đến giải pháp AI nguồn mở cấp doanh nghiệp, kết hợp mô hình Granite, công cụ InstructLab và phương pháp LAB. Nền tảng này hứa hẹn đơn giản hóa việc áp dụng AI trong doanh nghiệp, với khả năng triển khai linh hoạt trên nhiều môi trường đám mây và hỗ trợ từ các đối tác như Dell.
https://www.zdnet.com/article/red-hat-unleashes-enterprise-linux-ai-and-its-truly-useful/
• Theo báo cáo quý tháng 8/2024 của Deloitte, 67% tổ chức được khảo sát cho biết đang tăng đầu tư vào AI tạo sinh.
• Tuy nhiên, 7/10 tổ chức thừa nhận chỉ đưa được 30% hoặc ít hơn các thử nghiệm AI tạo sinh vào sản xuất thực tế.
• Jim Rowan, Giám đốc AI của Deloitte, cho rằng dữ liệu là thách thức lớn nhất khi triển khai AI tạo sinh. Các vấn đề về nguồn dữ liệu, cách sử dụng, quyền sử dụng thông tin bên thứ ba cần được xem xét kỹ lưỡng.
• Để triển khai thành công, cần có chiến lược rõ ràng và đội ngũ liên ngành bao gồm IT, pháp lý, quản lý rủi ro, tuân thủ và chủ sở hữu kinh doanh chính.
• Quá trình thử nghiệm gặp nhiều thách thức như quản lý các phiên bản mô hình ngôn ngữ lớn, lựa chọn mô hình phù hợp cho từng trường hợp sử dụng.
• IT cần xem xét không chỉ nguồn dữ liệu mà còn quyền sử dụng dữ liệu, sự phù hợp của mô hình và tương tác giữa nhiều mô hình trong một quy trình.
• Việc triển khai AI tạo sinh đòi hỏi sự tham gia của nhiều bộ phận như pháp lý, làm tăng độ phức tạp của quy trình.
• Tuy nhiên, điều này cũng làm nổi bật tầm quan trọng của quản lý dữ liệu trong tổ chức. Các Giám đốc dữ liệu nhận thấy sự quan tâm và đầu tư vào quản lý dữ liệu đang tăng lên.
• Việc sử dụng AI tạo sinh mà không có quy trình thận trọng có thể làm giảm giá trị công ty và đặt thông tin bảo mật cá nhân vào rủi ro.
• Rowan nhấn mạnh tầm quan trọng của việc xây dựng nền tảng quản lý dữ liệu vững chắc để hỗ trợ triển khai AI tạo sinh hiệu quả.
📌 Báo cáo Deloitte cho thấy 67% tổ chức tăng đầu tư AI tạo sinh, nhưng 70% chỉ triển khai được 30% thử nghiệm. Thách thức chính là quản lý dữ liệu và quy trình phức tạp. Cần chiến lược rõ ràng, đội ngũ liên ngành và nền tảng quản lý dữ liệu vững chắc để triển khai thành công.
https://www.itbrew.com/stories/2024/09/05/deloitte-sees-big-investments-slow-rollouts-in-generative-ai
• Ada là nền tảng tự động hóa dịch vụ khách hàng AI từ cốt lõi, được thành lập năm 2016, hiện có giá trị 1,2 tỷ USD với tổng vốn đầu tư 200 triệu USD. Khách hàng bao gồm Verizon, YETI, Canva và Square.
• Ban đầu Ada sử dụng mô hình xử lý ngôn ngữ tự nhiên (NLP) tự phát triển. Năm 2022, họ quyết định xây dựng lại sản phẩm sử dụng khả năng suy luận của các mô hình ngôn ngữ lớn (LLM).
• Ada phát triển một chỉ số mới cho dịch vụ khách hàng: tỷ lệ giải quyết. Thay vì chỉ tập trung vào tỷ lệ ngăn chặn (số lượng yêu cầu được xử lý hoàn toàn bởi chatbot), Ada đánh giá chất lượng giải quyết vấn đề của khách hàng.
• Sử dụng GPT-4 kết hợp với dữ liệu lịch sử, Ada xây dựng khung đánh giá mới có thể đánh giá các cuộc hội thoại dựa trên mức độ giải quyết tốt. Hệ thống của Ada đạt được sự đồng thuận 80-90% với đánh giá của con người.
• Ada sử dụng API của OpenAI để đánh giá và xây dựng thế hệ mới của AI Agent. Họ chọn OpenAI vì chất lượng suy luận, độ trễ thấp và khả năng tinh chỉnh mô hình.
• AI Agent của Ada sử dụng cấu hình đa agent, với một agent lập kế hoạch trung tâm và một tập hợp các agent phụ, tất cả đều được cung cấp bởi API của OpenAI.
• Phiên bản trước của sản phẩm Ada có tỷ lệ ngăn chặn 70% nhưng tỷ lệ giải quyết chỉ 30%. Với hệ thống mới, tỷ lệ ngăn chặn tương tự nhưng tỷ lệ giải quyết tăng lên 60%, với một số khách hàng đạt trên 80%.
• Ada tự tin có thể đạt được tỷ lệ giải quyết 100% trong tương lai. Họ đặt mục tiêu trong 12 tháng tới là tăng đáng kể tính minh bạch của sản phẩm và các công cụ kiểm soát cho khách hàng.
• Thị trường đã thay đổi, các doanh nghiệp ngày càng thông minh hơn trong việc áp dụng chiến lược AI vào hoạt động của họ.
📌 Ada sử dụng GPT-4 để tăng tỷ lệ giải quyết vấn đề khách hàng từ 30% lên 60-80%. Họ hướng tới mục tiêu 100% giải quyết tự động, đặt ra tiêu chuẩn mới cho ngành dịch vụ khách hàng và dẫn đầu xu hướng chuyển đổi 100 tỷ USD trong chi tiêu.
https://openai.com/index/ada/
• Câu hỏi đặt ra cho các nhà lãnh đạo doanh nghiệp không còn là có nên áp dụng AI tạo sinh hay không, mà là làm thế nào để cấu trúc việc triển khai nó để tạo ra tác động tối đa và rủi ro tối thiểu.
• Tập trung hóa có thể mang lại quản trị toàn doanh nghiệp, tiết kiệm chi phí và quản lý dữ liệu thống nhất, trong khi phân tán hóa có thể thúc đẩy đổi mới nhanh hơn và phù hợp hơn với nhu cầu kinh doanh.
• Các tác giả đề xuất một cách tiếp cận tinh tế: mô hình kết hợp tận dụng điểm mạnh của cả hai chiến lược - tập trung hóa nền tảng trong khi phân tán hóa đổi mới.
• Thay vì tập trung vào các lớp kỹ thuật của AI tạo sinh, cần xác định các lĩnh vực có tác động cao nơi nó có thể tạo ra giá trị và lợi thế cạnh tranh như dịch vụ khách hàng, marketing, phát triển sản phẩm, dược phẩm, dịch vụ tài chính, phát triển phần mềm, chuỗi cung ứng và nhân sự.
• Tập trung hóa lớp nền tảng giúp quản lý hiệu quả các quy trình phức tạp, đòi hỏi nhiều tài nguyên của việc đào tạo, tinh chỉnh và phát triển các mô hình AI độc quyền đồng thời đạt được lợi thế kinh tế nhờ quy mô.
• Phân tán hóa đổi mới AI trên các lĩnh vực kinh doanh cho phép đáp ứng sự đa dạng của các trường hợp sử dụng AI trên các lĩnh vực kinh doanh - từ tóm tắt văn bản pháp lý đến phân tích dữ liệu tài chính, thiết kế trong R&D và tạo nội dung marketing.
• Các chiến lược chính để duy trì quản trị hiệu quả trong mô hình phân tán bao gồm: nền tảng và công cụ tập trung, mô hình trách nhiệm chung, hội đồng quản trị, giám sát và kiểm toán tập trung, chia sẻ kiến thức và hợp tác.
• Các nhóm lĩnh vực vẫn được hưởng lợi từ sự hỗ trợ khoa học dữ liệu tập trung cung cấp hướng dẫn, đào tạo, công cụ và quản trị. Điều này đảm bảo quyền truy cập vào các phương pháp và công nghệ mới nhất đồng thời duy trì các biện pháp kiểm soát và tiêu chuẩn.
📌 Mô hình kết hợp giữa tập trung hóa nền tảng và phân tán hóa đổi mới là chiến lược tối ưu để triển khai AI tạo sinh trong doanh nghiệp. Cách tiếp cận này cân bằng giữa quản trị mạnh mẽ và triển khai linh hoạt, giúp tối đa hóa tác động của AI tạo sinh.
https://aws.amazon.com/blogs/enterprise-strategy/centralizing-or-decentralizing-generative-ai-the-answer-both/
• Amazon Q, sản phẩm AI quan trọng của Amazon, ra mắt công khai vào cuối tháng 4/2024 nhưng đang gặp nhiều vấn đề trong giai đoạn đầu.
• Nhân viên AWS chia sẻ những lo ngại về Amazon Q trong một kênh Slack nội bộ vào tháng 8/2024.
• Các vấn đề chính của Amazon Q bao gồm: thiếu một số tính năng phổ biến so với sản phẩm cạnh tranh, chi phí đôi khi cao đối với người dùng cuối, khó tích hợp với phần mềm khác.
• Lo ngại lớn nhất là Amazon Q có thể đang mất khách hàng cho Microsoft Copilot.
• Một nhân viên AWS nhận xét Amazon Q hiện chỉ phù hợp cho demo và các trường hợp sử dụng đơn giản, được kiểm soát chặt chẽ.
• Amazon Q không thể xử lý hình ảnh nhúng trong file PDF, khiến câu trả lời "không ngang bằng" với Microsoft Copilot.
• Amazon Q thiếu khả năng xử lý đa phương thức (văn bản và hình ảnh), làm giảm sức hấp dẫn so với đối thủ.
• Chi phí tích hợp dữ liệu của Amazon Q khá cao. Ví dụ, ước tính chi phí ban đầu cho một khách hàng là khoảng 400 USD/người dùng/hộp thư để tích hợp với Microsoft Exchange.
• Một số nhân viên Amazon đã cảnh báo trước khi ra mắt rằng sản phẩm có vẻ "vội vã", ít được kiểm tra và phụ thuộc nhiều vào người đánh giá.
• Dữ liệu nội bộ cho thấy doanh số Amazon Q thấp hơn mục tiêu đề ra. Một bộ phận bán hàng của AWS với hơn 3.000 người đã không đạt mục tiêu bán hàng cho Q vào tháng 7/2024.
• CEO AWS Matt Garman yêu cầu khoảng 6.500 nhân viên bán hàng tham gia khóa đào tạo bắt buộc nửa ngày về Amazon Q.
• CEO Amazon Andy Jassy cho biết việc sử dụng nội bộ Q đã giúp công ty tiết kiệm được 4.500 năm công việc của nhà phát triển và ước tính 260 triệu USD hiệu quả hàng năm.
📌 Amazon Q, sản phẩm AI mới của Amazon, đang gặp nhiều thách thức về tính năng và chi phí sau 4 tháng ra mắt. Nhân viên AWS lo ngại mất khách hàng cho Microsoft Copilot. Dù vậy, lãnh đạo Amazon vẫn kỳ vọng cao, với ước tính tiết kiệm nội bộ 260 triệu USD/năm nhờ sử dụng Q.
https://www.businessinsider.com/amazon-q-ai-early-challenges-aws-chatbot-2024-9
• OpenAI đạt mốc 1 triệu người dùng doanh nghiệp trả phí cho các sản phẩm ChatGPT Enterprise, Team và Edu.
• Con số này tăng đáng kể từ mức 600.000 người dùng được công bố vào tháng 4/2024.
• ChatGPT Enterprise ra mắt ngày 28/8/2023, tiếp theo là ChatGPT Team vào tháng 1/2024 và ChatGPT Edu vào tháng 5/2024.
• Các sản phẩm này cung cấp quyền truy cập vào mô hình mới nhất (hiện là GPT 4o), cửa sổ ngữ cảnh dài hơn, phân tích dữ liệu và tùy chỉnh.
• Hơn 50% người dùng đến từ bên ngoài Mỹ, với Đức, Nhật Bản và Anh là 3 thị trường hàng đầu.
• Các tổ chức lớn sử dụng sản phẩm bao gồm Đại học Arizona State, Moderna, Rakuten và Morgan Stanley.
• Sử dụng API đã tăng gấp đôi kể từ khi ra mắt GPT 4o mini vào tháng 7/2024.
• Khảo sát 4.700 người dùng doanh nghiệp cho thấy:
- 92% báo cáo tăng năng suất
- 88% tiết kiệm được thời gian
- 75% cải thiện sáng tạo và đổi mới
• Các trường hợp sử dụng hàng đầu: thu thập nghiên cứu, soạn thảo và chỉnh sửa nội dung, phát triển ý tưởng.
• Khảo sát của Google Cloud cũng cho thấy 74% công ty sử dụng ít nhất một ứng dụng AI tạo sinh đã thấy lợi nhuận đầu tư trong vòng 1 năm.
• OpenAI công bố những con số này một ngày sau khi đối thủ Anthropic ra mắt Claude Enterprise với cửa sổ ngữ cảnh 500.000 token.
• ChatGPT miễn phí đạt 200 triệu người dùng tính đến tháng 8/2024.
📌 OpenAI đạt 1 triệu người dùng doanh nghiệp trả phí trong vòng 1 năm, với hơn 50% đến từ ngoài Mỹ. Khảo sát cho thấy 92% báo cáo tăng năng suất, 88% tiết kiệm thời gian và 75% cải thiện sáng tạo khi sử dụng các sản phẩm ChatGPT doanh nghiệp.
https://venturebeat.com/ai/openai-says-it-reached-1-million-business-users/
• AWS TechFest: AI for Every Business diễn ra tại Hong Kong vào ngày 3/9/2024, thu hút hơn 1.000 người tham dự, đào tạo hơn 300 người và có 20 đối tác tham gia.
• Sự kiện kéo dài cả ngày, tập trung vào việc giúp các công ty cắt giảm công việc thủ công không cần thiết và tập trung vào tăng trưởng thông qua việc áp dụng AI.
• Theo khảo sát của McKinsey, 65% tổ chức đã tích hợp GenAI vào hoạt động thường xuyên, tăng gần gấp đôi so với khảo sát trước đó vào năm 2023.
• Sự kiện có 3 track khác nhau: track xây dựng giải pháp dành cho việc đào tạo trước mô hình ngôn ngữ lớn (LLM), track dành cho startup và ISV kết nối với nhà đầu tư, và track dành riêng cho marketer, developer, PR và HR.
• Người tham dự được trải nghiệm demo các ứng dụng như Amazon SageMaker, Agentic LLM và nhận tips cho các kỳ thi chứng chỉ AWS.
• etnet, một trang tin tài chính hàng đầu tại Hong Kong, đã đạt được mục tiêu chuyển đổi số đáng kể trong nghiên cứu và sản xuất tin tức nhờ triển khai Amazon Bedrock.
• Andrew Lai, Giám đốc sản phẩm của etnet cho biết năng suất đã tăng gần 70% nhờ khả năng trích xuất và tóm tắt thông tin dựa trên AI của Amazon Bedrock.
• Datax Limited, nhà cung cấp hơn 30 giải pháp tự động hóa, đã cắt giảm 10-20% chi phí cơ sở hạ tầng CNTT tổng thể nhờ hợp tác với AWS.
• Aric Fung, Đồng sáng lập Datax AI Solutions, đánh giá cao hệ sinh thái toàn diện của AWS cung cấp cơ sở hạ tầng an toàn, có khả năng mở rộng và đáng tin cậy.
• Butler Asia, nhà cung cấp giải pháp bất động sản sử dụng AI, coi AWS là yếu tố quan trọng cho sự phát triển của công ty, đặc biệt là trong việc mở rộng cơ sở hạ tầng và chuyển đổi số.
• Jonathan Lam, Đồng sáng lập Butler Asia, đánh giá cao tầm với toàn cầu, dịch vụ AI và học máy mở rộng, cũng như tính năng bảo mật hàng đầu của AWS.
📌 AWS TechFest 2024 tại Hong Kong thu hút hơn 1.000 người tham dự, đào tạo 300+ người về AI cho doanh nghiệp. Sự kiện giới thiệu các giải pháp GenAI tiên tiến như Amazon Bedrock, SageMaker, giúp doanh nghiệp tăng năng suất lên tới 70% và cắt giảm 10-20% chi phí CNTT.
https://www.scmp.com/presented/tech/article/3277168/deep-diving-ai-every-business-aws-techfest-2024
• Anthropic vừa công bố gói Claude Enterprise nhằm hỗ trợ các doanh nghiệp lớn tận dụng AI tạo sinh ở quy mô lớn.
• Tính năng nổi bật là cửa sổ ngữ cảnh 500.000 token, gấp đôi so với phiên bản tiêu dùng. Điều này cho phép AI xử lý lượng thông tin khổng lồ tương đương hàng trăm bản ghi âm bán hàng, hàng chục tài liệu trên 100 trang hoặc 200.000 dòng mã.
• Gói Enterprise tích hợp tính năng artifacts mới, hiển thị kết quả được định dạng đầy đủ theo thời gian thực bên cạnh cuộc hội thoại, giúp trực quan hóa nội dung như trang web, mã máy tính, sơ đồ...
• Tích hợp trực tiếp với GitHub, cho phép Claude truy cập và xem mã nguồn, dự án trên nền tảng này để hỗ trợ lập trình hiệu quả hơn.
• Nhiều tính năng bảo mật và quản trị như đăng nhập một lần (SSO), kiểm soát truy cập theo vai trò, nhật ký kiểm tra hoạt động hệ thống.
• Hệ thống quản lý danh tính liên miền (SCIM) tự động hóa quyền truy cập dữ liệu cho từng người dùng.
• Claude Enterprise có thể ứng dụng trong nhiều bộ phận của doanh nghiệp:
- Marketing: Phân tích dữ liệu thị trường, hành vi người tiêu dùng để tìm xu hướng mới
- Kỹ thuật: Chuyển đổi yêu cầu dự án thành thông số kỹ thuật
- Bán hàng: Phân tích cuộc gọi bán hàng để tìm mẫu thành công
- Quản lý sản phẩm: Xử lý phản hồi người dùng để định hướng phát triển
- Nhân sự: Tạo mô tả công việc, kế hoạch phát triển nhân viên
- Pháp lý: Tóm tắt tài liệu pháp lý phức tạp, nhận diện điều khoản và rủi ro quan trọng
• Các khách hàng thử nghiệm sớm đã sử dụng Claude Enterprise cho nhiều tác vụ từ brainstorming, tối ưu quy trình nội bộ đến tạo nội dung và viết mã.
• Để tìm hiểu thêm hoặc liên hệ với bộ phận bán hàng, người dùng có thể truy cập trang web Claude for Enterprise.
📌 Anthropic ra mắt Claude Enterprise với cửa sổ ngữ cảnh 500.000 token, tích hợp GitHub và nhiều tính năng bảo mật. Gói này nhắm đến doanh nghiệp lớn, hỗ trợ đa dạng bộ phận từ marketing đến pháp lý, giúp tối ưu hóa quy trình làm việc bằng AI tạo sinh.
https://www.zdnet.com/article/anthropics-new-claude-enterprise-plan-brings-ai-to-businesses/
• Theo khảo sát của Deloitte, 70% doanh nghiệp chỉ đưa được 30% hoặc ít hơn các thử nghiệm AI tạo sinh vào sản xuất thực tế.
• Khảo sát được thực hiện từ tháng 5 đến tháng 6/2024, với 2.770 người tham gia từ cấp giám đốc trở lên thuộc 6 ngành công nghiệp và 14 quốc gia.
• Mặc dù 2/3 tổ chức tăng đầu tư vào AI tạo sinh do thấy giá trị ban đầu, việc mở rộng quy mô vẫn gặp nhiều khó khăn.
• Dưới 50% doanh nghiệp cảm thấy chuẩn bị tốt cho các yêu cầu cơ bản nhất:
- 45% cho cơ sở hạ tầng công nghệ
- 41% cho quản lý dữ liệu
- 37% cho chiến lược
- Chỉ khoảng 20% cho quản trị rủi ro và nhân tài
• 55% tổ chức phải tránh một số ứng dụng AI tạo sinh do vấn đề về dữ liệu.
• Các thách thức chính bao gồm:
- Thiếu danh mục dữ liệu chính thức
- Thiếu siêu dữ liệu và gắn nhãn dữ liệu trong toàn doanh nghiệp
- Rủi ro mới từ công cụ AI như thiên vị, ảo giác, vấn đề quyền riêng tư
- Không chắc chắn về môi trường pháp lý trong tương lai
• Các chiến lược đối phó:
- Tắt quyền truy cập vào một số công cụ AI tạo sinh
- Đưa ra hướng dẫn ngăn nhân viên nhập dữ liệu tổ chức vào LLM công khai
- Xây dựng môi trường khép kín trên đám mây riêng để ngăn rò rỉ dữ liệu
• Mặc dù khảo sát của Bloomberg cho thấy tỷ lệ triển khai AI tạo sinh tăng gấp đôi lên 66%, báo cáo của Gartner dự đoán 1/3 dự án AI tạo sinh sẽ bị bỏ dở trước khi đi vào sản xuất.
📌 Khảo sát của Deloitte với 2.770 lãnh đạo cho thấy 70% doanh nghiệp chỉ đưa được 30% thử nghiệm AI tạo sinh vào sản xuất. Các thách thức chính là quản lý dữ liệu, chiến lược và quản trị rủi ro. Dù đầu tư tăng, việc mở rộng quy mô vẫn gặp nhiều trở ngại.
https://www.zdnet.com/article/there-are-many-reasons-why-companies-struggle-to-exploit-gen-ai-says-deloitte-survey/
https://www2.deloitte.com/content/dam/Deloitte/us/Documents/consulting/us-state-of-gen-ai-q3.pdf
• Eugene Cheah, chủ tịch Recursal.ai, đã phát triển mô hình AI mới có tên receptance weighted key value (RWKV) nhằm giúp AI trở nên dễ tiếp cận hơn ở Đông Nam Á.
• RWKV kết hợp công nghệ mạng nơ-ron hồi quy (RNN) với các yếu tố của mô hình transformer được huấn luyện trước (GPT) để tạo ra một mô hình AI có thể chạy dễ dàng trên các thiết bị cấu hình thấp.
• Mô hình này có thể chạy AI với 7 tỷ tham số chỉ trên 12GB RAM - tương đương GPU dùng để chơi game. Điều này giúp giảm chi phí chip AI xuống còn vài trăm đô la thay vì hàng nghìn đô la.
• RWKV giảm chi phí tính toán xuống 100 lần so với các mô hình GPT thông thường. Điều này giúp các startup không cần phải sử dụng điện toán đám mây đắt đỏ.
• Hiện tại, chi phí phát triển AI đang tăng cao do giá GPU và phần cứng liên quan tăng mạnh. Ví dụ: một máy chủ với 8 card Nvidia H100 SXM có giá 296.644 USD.
• Các mô hình AI lớn như ChatGPT4 với 1,8 nghìn tỷ tham số cần 3 tháng huấn luyện trên 8.000 GPU H100, tổng chi phí lên tới 32,7 triệu USD.
• Nhiều startup buộc phải sử dụng điện toán đám mây để phát triển AI, nhưng các máy chủ đám mây ở Đông Nam Á còn hạn chế và đắt đỏ.
• Cheah cho rằng hầu hết các doanh nghiệp không cần mô hình với hàng nghìn tỷ tham số. Mô hình 7 tỷ tham số đã đủ cho nhiều ứng dụng doanh nghiệp.
• RWKV đã được sử dụng thành công trong một số trường hợp như điện thoại an toàn cho trẻ em, hỗ trợ bác sĩ viết báo cáo xuất viện, hay hỗ trợ công việc pháp lý.
• Mặc dù có ưu điểm về chi phí, mô hình RWKV được tinh chỉnh cho một lĩnh vực cụ thể sẽ kém linh hoạt hơn so với các mô hình đa năng như ChatGPT.
📌 Mô hình RWKV giúp giảm chi phí phát triển AI xuống 100 lần, cho phép chạy mô hình 7 tỷ tham số trên GPU thông thường. Điều này mở ra cơ hội tiếp cận AI cho các startup và doanh nghiệp vừa và nhỏ ở Đông Nam Á, thay vì chỉ giới hạn trong nhóm các công ty công nghệ lớn.
https://www.techinasia.com/cant-afford-300k-ai-chips-new-model-sea-cuts-high-costs
#TechinAsia
Can’t afford $300k for AI chips? New model for SEA cuts high costs
There is a saying that goes, “During a gold rush, sell shovels.”
No one has learned that better than the semiconductor industry. The price of graphical processing units (GPUs) – the shovels of the AI age – has skyrocketed since the release of OpenAI’s ChatGPT in November 2022.
While the AI industry’s Magnificent Seven – which includes Google, Microsoft, and Meta – can afford to spend billions, many startups can no longer afford to dig.
Eugene Cheah says he doesn’t want to see that happen.
“I want to make sure that AI is accessible for everyone else in the rest of Southeast Asia,” he tells Tech in Asia. Cheah is the chairman of Recursal.ai, an open-source AI platform that has developed a new model called receptance weighted key value (RWKV).
He was previously the co-founder and chief technology officer of Uilicious, a low-code test automation tool.
RWKV combines recurrent neural network (RNN) technology with elements of generative pre-trained transformer (GPT) – a type of large language model (LLM) like ChatGPT – to provide an AI model that runs easily on low-end devices.
While most people associate AI with the likes of ChatGPT for individuals, enterprise AI is software integrated and built to support the functions of businesses. It can be used for data collection, analysis, and automation of tasks, among others.
In short, RWKV is an AI model that can run enterprise-level software without the costs associated with high-end computer chips. It can even run an AI model with 7 billion parameters on 12 GB of RAM – the same GPUs used for playing video games, Cheah says.
That reduces the cost that firms spend on AI chips to hundreds of dollars instead of thousands.
These more efficient AI models mean that startups no longer need to run to the cloud, Cheah says.
For businesses using GPT technology to develop AI, costs have soared due to high computation expenses and the escalating prices of AI chips and related hardware. As a result, AI development is becoming affordable only to deep-pocketed players.
So can the RWKV model compete with the LLMs from the AI industry’s Magnificent Seven?
Lower costs = AI accessibility
“The RWKV project’s primary goal is to make AI accessible to everyone, regardless of language or nation,” Cheah says.
It does this by reducing computational cost by a scale of 100x, he adds.
RWKV is owned by Recursal and the not-for-profit Linux Foundation. While Recursal, which is backed by Hack VC and Soma Capital, has not released how much it has raised to date, it plans to raise no more than US$250 million.
RNN technology, which the RWKV model uses, has largely been abandoned by the AI industry in place of GPT technology. RNN was designed to train one word (or token) at a time. And unlike other LLM models, it does not link the token to every other token in the system.
While this cuts down on the amount of processing needed, Cheah says it also leads to a design bottleneck where “even if you throw in high-end GPUs, you are still training one token at a time or one word at a time.” As such, it’s not possible to scale up training speed.
“That’s why previously we never had an RNN that has over a billion parameters,” he says. In AI, parameter refers to the internal variables that models use to make predictions or decisions.
By combining RNN technology with elements of GPT, RWKV has built several models that can provide industry-specific use cases.
We have a client that uses a 7B model to provide a safe phone for kids… These are very low-hanging fruits for AI models, and 7B is more than sufficient.
“We have already successfully scaled our RWKV architecture to 7 billion parameters (7B) and 14 billion parameter (14B). Now the question is, can we scale it even further? And that’s really a question more of funding and experimentation,” Cheah explains.
In the open-source space, the high-end standard is currently at 70 billion and 405 billion parameters.
But that’s nothing compared to what Magnificent Seven are building, which are using 1 trillion parameters models. This is possible due to technology introduced in a 2017 paper called “Attention Is All You Need.”
Transformer-based AI models use attention mechanisms, which can determine the relative importance of words or even just parts of words and how they relate to each other. It is incredibly data intensive, and training a 1-billion parameter model requires 80 GB of GPU memory, which is prohibitively expensive in the current AI boom.
Nvidia’s H100 SXM, which uses the top AI chip on the market – the H100 – has 80 GB of memory and sells for US$32,700. (Tech in Asia found one currently marked down to US$29,600. You’re welcome.)
A preloaded server with 8 SXM cards sells for US$296,644.
Using one of those often isn’t enough, either. Case in point: OpenAI’s ChatGPT4, which has 1.8 trillion parameters. It requires three months of training using 8,000 H100 GPUs, Nvidia CEO Jensen Huang said at a recent conference. That would cost US$32.7 million in total at current prices.
These of course are just the hardware prices. Electricity is extra. For instance, using 2,000 Nvidia cards could cost Texas-based firms over US$2 million a year, according to a report from US-based Liftr Insights.
To give an example of just how many of these chips are being used by the Magnificent Seven, Meta founder and CEO Mark Zuckerberg said the social media giant will have 350,000 H100 cards by the end of 2024.
Meta’s latest AI model, Llama 3, is designed to work across all its social media platforms and runs with both 7B and 70B parameters.
Running to the cloud
This level of pricing has forced many startups to use cloud computing to train and develop their AI applications, but that often presents its own issues. Startups tell Tech in Asia that cloud servers in Southeast Asia are limited and expensive, although prices have come down thanks to new data centers in Malaysia and Singapore.
Google has pledged US$2.2 billion to build data centers in Malaysia for the express purpose of using them for AI development.
Revenue from public cloud computing in Southeast Asia is expected to reach US$16.4 billion in 2024, according to Statista. It is expected to grow annually by 20%, meaning the market could reach US$40.8 billion by 2029.
Financing new data centers isn’t cheap. With high-end chips still in demand, owners will be charging a premium to recoup their costs.
More power than you need
Cheah believes, however, that most companies don’t need 1T parameters.
“We have a client that uses a 7B model to provide a safe phone for kids,” he says. Every message the phone receives is scanned for sexual content and expletives. “These are very low-hanging fruits for AI models, and 7B is more than sufficient.”
Most of the business enterprise models – including medical, banking, finance, and legal – do not require high-end computation. They just have a single area that can be focused on.
Cheah cites the process of discharging patients at a hospital as an example. The manual process requires a doctor to write a review of the case, a process that can take 30 minutes. In comparison, a 7B AI can write a review in three minutes.
“Multiply that by the amount of patients in the network and by the amount of doctors in the network, and then it starts adding up to tens of millions of dollars,” he estimates. “These are what sometimes I call ‘boring but big impact’ use cases.”
For instance, a fine-tuned RWKV model used in a law office actually performed better than the ChatGPT model – at least when it came to legal benchmarks, according to Cheah. But that fine-tuning has a price.
“The downside is if you ask the law model how to cook – or anything else – it will just utter garbage,” he says.
• Niềm tin vào khả năng tạo ra giá trị thực tế của AI đang suy giảm, đe dọa đưa chúng ta vào "mùa đông AI" lần thứ 4.
• Hiện tại, không có một ngành riêng biệt cho việc ứng dụng AI vào thực tế. Các tổ chức thường thuê các nhà khoa học dữ liệu để tạo ra giải pháp thực tế, dẫn đến 87% dự án AI thất bại.
• "Engineered intelligence" (kỹ thuật trí tuệ) là một ngành mới nổi tập trung vào ứng dụng thực tế của nghiên cứu AI, dựa trên nền tảng kỹ thuật.
• Ngành này tạo điều kiện cho các chuyên gia, nhà khoa học và kỹ sư tạo ra các giải pháp trí tuệ mà không cần trở thành nhà khoa học dữ liệu.
• Các tổ chức công nghiệp hàng đầu đang bắt đầu thiết lập lại quy trình từ nghiên cứu đến kỹ thuật, hình thành quan hệ đối tác mới với học viện và nhà cung cấp công nghệ.
• Kết quả là tạo ra các ứng dụng đột phá trong các trường hợp sử dụng cụ thể, tạo ra giá trị và đưa vào sản xuất.
• 5 bước để giới thiệu kỹ thuật trí tuệ vào tổ chức:
1. Tạo bản đồ nhiệt (heatmap) về chuyên môn trong các quy trình hiện có
2. Đánh giá chuyên môn nào có giá trị nhất và mức độ khan hiếm
3. Chọn 5 lĩnh vực chuyên môn có giá trị và khan hiếm nhất
4. Phân tích ROI, tính khả thi, chi phí và thời gian để tạo ra giải pháp thông minh
5. Chọn một số trường hợp giá trị và đầu tư thực hiện
• Cách tiếp cận này khác với cách truyền thống tập trung vào danh sách vấn đề hoặc dữ liệu sẵn có.
• Khi kỹ thuật trí tuệ được áp dụng, nó có thể mở rộng ra ngoài chuyên môn hiện có để tạo ra các cơ hội mới.
• Việc xây dựng các chương trình kỹ thuật trí tuệ sẽ mang lại lợi ích kinh tế và xã hội, tạo ra một lớp việc làm mới và làn sóng tạo giá trị mới.
📌 Engineered Intelligence đang nổi lên như một giải pháp để tăng tỷ lệ thành công của các dự án AI từ 13% lên cao hơn. Bằng cách tập trung vào chuyên môn và ứng dụng thực tế, phương pháp này hứa hẹn tạo ra giá trị đột phá và mở ra cơ hội việc làm mới trong lĩnh vực AI.
https://venturebeat.com/ai/introducing-ais-long-lost-twin-engineered-intelligence/
• AI cảm xúc (Emotion AI) đang nổi lên như một xu hướng mới trong phần mềm doanh nghiệp, nhằm giúp các chatbot và trợ lý ảo hiểu rõ hơn cảm xúc con người.
• Lý do đằng sau xu hướng này là sự gia tăng sử dụng AI trong các tương tác với khách hàng và nhân viên. Các doanh nghiệp muốn AI có thể phân biệt được sắc thái cảm xúc trong giao tiếp.
• AI cảm xúc được xem là phiên bản tiên tiến hơn của phân tích cảm xúc truyền thống. Nó sử dụng nhiều phương thức đầu vào như hình ảnh, âm thanh kết hợp với machine learning và tâm lý học.
• Các nhà cung cấp đám mây lớn như Microsoft Azure và Amazon Web Services đã cung cấp API và dịch vụ liên quan đến AI cảm xúc.
• Theo báo cáo của PitchBook, sự phổ biến của chatbot trong lực lượng lao động đang tạo ra tiềm năng lớn cho AI cảm xúc trong thế giới kinh doanh.
• Nhiều startup đang được thành lập để phát triển công nghệ này, như Uniphore (huy động được 610 triệu USD), MorphCast, Voicesense, Superceed, Siena AI, audEERING và Opsis.
• Tuy nhiên, AI cảm xúc cũng gặp phải nhiều thách thức và tranh cãi:
- Nghiên cứu năm 2019 kết luận rằng cảm xúc con người không thể được xác định chính xác chỉ qua biểu hiện khuôn mặt.
- Quy định như Đạo luật AI của EU cấm sử dụng hệ thống nhận diện cảm xúc bằng máy tính trong một số lĩnh vực như giáo dục.
- Một số luật tiểu bang Mỹ như BIPA của Illinois cấm thu thập dữ liệu sinh trắc học mà không có sự cho phép.
• Viễn cảnh tương lai văn phòng với sự hiện diện của AI vẫn còn nhiều bất định. Hoặc các chatbot AI sẽ cố gắng hiểu cảm xúc để thực hiện các công việc như chăm sóc khách hàng, bán hàng, nhân sự, hoặc chúng sẽ không đủ khả năng cho những nhiệm vụ đòi hỏi sự thấu hiểu cảm xúc.
📌 AI cảm xúc đang nổi lên như xu hướng mới trong phần mềm doanh nghiệp, với các startup huy động hàng trăm triệu USD. Tuy nhiên, công nghệ này vẫn gặp nhiều thách thức về mặt kỹ thuật và pháp lý, đặt ra câu hỏi về khả năng ứng dụng thực tế trong tương lai.
https://techcrunch.com/2024/09/01/emotion-ai-could-be-the-next-trend-for-business-software-and-that-could-be-problematic/
• Nghiên cứu của giáo sư MIT Daron Acemoglu cho thấy tổng lợi ích năng suất từ AI có thể chỉ đạt 0,53% trong 10 năm tới, thấp hơn nhiều so với ước tính 25 nghìn tỷ USD của McKinsey.
• Chỉ khoảng 20% công việc có thể được tự động hóa. Nhiều ước tính tiết kiệm dựa trên việc ngoại suy từ những công việc này ra toàn bộ nền kinh tế.
• AI tạo sinh hiện chủ yếu tự động hóa các tác vụ đơn giản hoặc lặp đi lặp lại. Với các tác vụ phức tạp hơn đòi hỏi hiểu ngữ cảnh, khả năng áp dụng AI giảm nhanh chóng.
• AI tạo sinh có giá trị trong việc tăng tốc lập trình và soạn thảo văn bản, cũng như cải thiện dịch vụ khách hàng cấp 1. Tuy nhiên, giá trị này không đạt mức 25 nghìn tỷ USD.
• Chi phí tính toán cho AI vẫn cao do Nvidia độc quyền công nghệ chip. Các trung tâm dữ liệu AI tiêu thụ nhiều điện năng, có thể tăng thêm 10% tải đỉnh của lưới điện Mỹ.
• Goldman Sachs ước tính cần thêm 47GW công suất để hỗ trợ tăng trưởng trung tâm dữ liệu đến 2030. Đây là gánh nặng lớn cho lưới điện già cỗi.
• Thời gian chờ kết nối dự án điện vào lưới tăng gần 30% năm ngoái, dao động từ 40-70 tháng. Thiếu hụt máy biến áp và thiết bị điện quan trọng.
• Không có lộ trình rõ ràng để AI mang lại giá trị mới. Khác với máy tính cá nhân (với ứng dụng xử lý văn bản) hay internet (với thương mại điện tử), AI chưa có ứng dụng chủ đạo thúc đẩy áp dụng.
• Nếu chỉ tập trung vào tăng năng suất, lợi ích từ AI có thể trở thành chuẩn mực ngành và bị cạnh tranh triệt tiêu.
• Cần tìm ra các vấn đề lớn, khó khăn mà AI có thể giải quyết để tạo ra kết quả đột phá.
• Doanh nghiệp nên tiếp tục thử nghiệm AI để học hỏi, nhưng cẩn trọng không đầu tư quá mức khi chưa có bằng chứng về tính khả thi và mong muốn của đổi mới.
📌 AI tạo sinh có thể chỉ mang lại lợi ích năng suất khiêm tốn 0,53% trong 10 năm tới, thấp hơn nhiều so với ước tính trước đây. Chi phí điện năng cao và thiếu ứng dụng chủ đạo là những thách thức lớn. Doanh nghiệp cần thận trọng khi đầu tư và tìm kiếm các vấn đề giá trị cao để AI giải quyết.
https://www.forbes.com/sites/andrewbinns/2024/09/01/genai-benefits-may-be-slower-and-lower-than-anticipated/
• Để trở thành doanh nghiệp tiên phong về dữ liệu và AI, các công ty cần cam kết với tầm nhìn và chiến lược AI tạo sinh, đồng thời chia nhỏ tầm nhìn đó thành các bước có thể quản lý được.
• Việc thiết lập quy trình phù hợp là cách các công ty kết nối nhân lực và nền tảng công nghệ của họ, từ đó thúc đẩy kết quả hướng tới mục tiêu kinh doanh.
• Quản trị dữ liệu tốt là nền tảng quan trọng cho AI tạo sinh. Các công ty cần theo dõi cách dữ liệu di chuyển trong tổ chức, ai đang sử dụng và cho mục đích gì.
• Cần thiết lập quy trình để theo dõi chuyển động dữ liệu và bảo vệ tài sản nhạy cảm mà không cản trở đổi mới. Kiểm soát truy cập rộng và chi tiết đều quan trọng.
• Các mô hình ngôn ngữ lớn (LLM) cần được giám sát liên tục để xác minh độ chính xác của câu trả lời. Việc kết nối đúng bộ dữ liệu với hệ thống đầu cuối phù hợp là rất khó khăn.
• Khi chọn các trường hợp sử dụng AI đầu tiên, các công ty nên thực tế. Những dự án ban đầu có thể không phải là những dự án tạo ra giá trị lớn nhất cho doanh nghiệp.
• Các dự án nhỏ hơn nhằm hỗ trợ nhân viên với các tác vụ tốn thời gian nhưng đơn điệu thường là cách tốt để chứng minh nhanh chóng khả năng của AI.
• Khi đối mặt với việc "tự phát triển hay mua sẵn" công cụ AI, doanh nghiệp cần tự hỏi liệu nó có tạo ra sự khác biệt cạnh tranh hay không.
• Khả năng tăng cường các mô hình thương mại cho phép các công ty kết hợp mong muốn có phần mềm tùy chỉnh với sự dễ dàng của việc mua công cụ có sẵn.
• Việc theo dõi hiệu suất của các hệ thống AI trong thế giới thực rất quan trọng để đảm bảo chúng luôn tạo ra kết quả chính xác và kịp thời.
• Doanh nghiệp nên tích cực theo dõi tác động đến lực lượng lao động thông qua các cuộc khảo sát nhân viên và theo dõi việc sử dụng các công cụ AI.
• Thành công trong việc trở thành nhà lãnh đạo về dữ liệu và AI phụ thuộc vào cách doanh nghiệp quản lý con người, quy trình và công nghệ của họ.
📌 Để thành công với AI tạo sinh, doanh nghiệp cần xây dựng quy trình phù hợp kết nối con người và công nghệ. Quản trị dữ liệu tốt, lựa chọn dự án AI đầu tiên thận trọng và theo dõi hiệu suất AI trong thực tế là những yếu tố then chốt. Chiến lược toàn diện về con người, quy trình và công nghệ sẽ giúp doanh nghiệp trở thành nhà lãnh đạo về dữ liệu và AI.
https://www.databricks.com/blog/winning-genai-building-right-processes-data-intelligence-future
• Google đã thay đổi cách thức điều hành cuộc họp nhân viên hàng tháng "TGIF" bằng cách sử dụng hệ thống dựa trên AI mới có tên là Ask.
• Trước đây, nhân viên có thể đặt câu hỏi và bình chọn thông qua công cụ nội bộ Dory. Lãnh đạo Google, bao gồm CEO Sundar Pichai, thường trả lời các câu hỏi được bình chọn nhiều nhất.
• Từ tháng 4/2024, Google đã thay thế Dory bằng Ask - hệ thống tổng hợp và tóm tắt nhiều câu hỏi. Nhân viên chỉ có thể bình chọn cho các bản tóm tắt do AI tạo ra.
• Một số nhân viên ẩn danh cho biết hệ thống mới chỉ đưa ra các câu hỏi nhẹ nhàng, làm mất đi tính sắc sảo của các câu hỏi gốc.
• Họ cho rằng ban lãnh đạo đang cố tránh các câu hỏi và ngữ cảnh gây tổn hại, đồng thời né tránh việc phải trả lời cụ thể.
• Một nhân viên nói rằng các cuộc họp TGIF trở nên kém thú vị hơn với những câu hỏi được diễn đạt lại. Một số cho rằng các cuộc họp ngày càng vô nghĩa.
• Người phát ngôn của Google khẳng định Ask không làm mềm hóa câu hỏi mà chỉ tóm tắt để tránh lặp lại và nâng cao hiệu quả. Các lãnh đạo vẫn phải đối mặt với những câu hỏi trực tiếp về các vấn đề khó khăn.
• Các cuộc họp TGIF từng là biểu tượng của sự minh bạch tại Google, nơi ban lãnh đạo và nhân viên thảo luận thẳng thắn về định hướng công ty.
• Tần suất họp TGIF đã giảm từ hàng tuần xuống hai tuần một lần, và cuối cùng là mỗi tháng một lần từ năm 2019.
• Theo Google, hệ thống Ask được tạo ra một phần vì nhân viên muốn giải quyết nhiều câu hỏi hơn trên nhiều chủ đề một cách hiệu quả hơn.
• Năm 2023, chưa đến 1% nhân viên Google đặt câu hỏi trong các cuộc họp TGIF. Kể từ khi Ask được giới thiệu, số lượng nhân viên đặt câu hỏi và bình chọn đã tăng gấp đôi.
• Tuy nhiên, một nhân viên cho rằng cách diễn đạt câu hỏi không quan trọng, vì "các lãnh đạo đã né tránh câu hỏi hoặc đưa ra câu trả lời mơ hồ tại TGIF trong nhiều năm nay".
📌 Google đã thay đổi cách điều hành cuộc họp TGIF bằng AI, gây tranh cãi về tính minh bạch. Số lượng nhân viên tham gia đặt câu hỏi tăng gấp đôi, từ dưới 1% lên 2%, nhưng nhiều người cho rằng chất lượng câu hỏi và câu trả lời đã giảm sút.
https://fortune.com/2024/08/28/google-ai-tool-softball-questions-tgif-meetings/
• AI tạo sinh là một công cụ thay đổi cuộc chơi trong kinh doanh, nhưng cần được tiếp cận với bối cảnh và thông tin thực tế để thực sự hữu ích trong doanh nghiệp. Các mô hình AI tạo sinh không được đào tạo sẵn cho ngành của bạn và không biết về hoạt động nội bộ của doanh nghiệp.
• Để khai thác tiềm năng đầy đủ của AI tạo sinh, các tổ chức cần đặt nền tảng phản hồi của mô hình trên "sự thật doanh nghiệp" - dữ liệu thời gian thực và hệ thống doanh nghiệp mới nhất. Cách tiếp cận này cho phép mô hình truy xuất ngữ cảnh cần thiết từ các hệ thống bên ngoài.
• Grounding đã trở thành trọng tâm trong nhiều cuộc trò chuyện với khách hàng và đối tác, đặc biệt khi ngày càng nhiều người chuyển từ thử nghiệm AI tạo sinh sang đưa AI vào sản xuất.
• Retrieval augmented generation (RAG) là phương pháp phổ biến để cung cấp thông tin bổ sung cho mô hình. Ví dụ, RAG có thể kết nối mô hình với các chính sách kế hoạch, tóm tắt quyền lợi chi tiết và hợp đồng nhà cung cấp để tạo ra một trợ lý AI hỗ trợ nhân viên chọn gói phúc lợi phù hợp.
• Xây dựng hệ thống RAG tùy chỉnh có thể khó khăn. Nó đòi hỏi chuyển đổi dữ liệu thành vector, lưu trữ vector trong kho vector chuyên dụng và truy xuất dựa trên mức độ liên quan với truy vấn của người dùng.
• Thách thức phổ biến nhất liên quan đến chất lượng và quản lý dữ liệu. Thành công của RAG phụ thuộc nhiều vào việc dữ liệu được tổ chức và duy trì tốt như thế nào.
• Google Cloud đang tập trung vào việc làm cho RAG trở thành hiện thực cho mọi người. Vertex AI đi kèm với các khả năng grounding cho nhiều nhu cầu và yêu cầu khác nhau, bao gồm xây dựng quy trình RAG tùy chỉnh.
• Google Cloud gần đây đã công bố khả năng đặt nền tảng cho các mô hình AI tạo sinh trong Google Search và đang làm việc với các nhà cung cấp chuyên biệt để kết hợp thêm các bộ dữ liệu bên ngoài đáng tin cậy.
📌 Grounding là nền tảng then chốt để AI doanh nghiệp thành công, giúp tăng độ chính xác và tin cậy. Google Cloud đang phát triển các giải pháp như Vertex AI và tích hợp với Google Search để giúp doanh nghiệp dễ dàng áp dụng grounding, mở rộng khả năng ứng dụng AI tạo sinh.
https://cloud.google.com/transform/why-grounding-matters-in-enterprise-ai-enterprise-truth-the-prompt
• AI đang mang lại sự chuyển đổi toàn diện cho doanh nghiệp, từ tự động hóa quy trình đến nâng cao trải nghiệm khách hàng và thúc đẩy đổi mới. Theo khảo sát của EY với 254 lãnh đạo công nghệ, 90% đang sử dụng các mô hình AI như ChatGPT và 80% có kế hoạch đầu tư nhiều hơn vào AI trong những năm tới.
• Các công nghệ AI chính bao gồm: Học máy, Học sâu, Xử lý ngôn ngữ tự nhiên, Thị giác máy tính và Tự động hóa quy trình robot. Mỗi công nghệ có chức năng và ứng dụng riêng trong kinh doanh.
• 10 ứng dụng hàng đầu của AI trong kinh doanh:
1. Chatbot hỗ trợ khách hàng: Thị trường chatbot toàn cầu dự kiến đạt 1,25 tỷ USD vào năm 2025.
2. Phân tích cảm xúc: Giúp hiểu cảm nhận của khách hàng về sản phẩm/dịch vụ.
3. Dự báo bán hàng: Phân tích dữ liệu CRM để dự đoán hiệu suất.
4. Tối ưu hóa giá: Uber sử dụng AI để quyết định giá cước, lộ trình và tài xế gần nhất.
5. An ninh mạng thông minh: Phát hiện gian lận và bảo vệ dữ liệu.
6. Phân tích cạnh tranh mạnh mẽ: Theo dõi đối thủ và xu hướng thị trường.
7. Đề xuất sản phẩm: Gợi ý sản phẩm phù hợp cho khách hàng.
8. Tự động hóa hoạt động: Giảm bớt công việc lặp đi lặp lại.
9. Ra quyết định thông minh: Phân tích dữ liệu lớn nhanh chóng.
10. Nâng cao trải nghiệm tại cửa hàng: IKEA sử dụng giải pháp ERP để cải thiện trải nghiệm mua sắm.
• Các thách thức khi áp dụng AI:
- Chất lượng dữ liệu kém
- Bảo mật và quyền riêng tư dữ liệu
- Thiếu nhân tài có kỹ năng
- Chi phí triển khai cao
- Thiếu hiểu biết về AI
- Tuân thủ quy định
• Chiến lược áp dụng AI trong kinh doanh:
1. Hiểu rõ tiềm năng của AI
2. Xác định mục tiêu cuối cùng
3. Đánh giá năng lực nội bộ
4. Xây dựng hoặc tích hợp giải pháp AI
5. Kiểm thử hệ thống AI
6. Đo lường và đánh giá hiệu suất
7. Cập nhật xu hướng AI
• Ví dụ thực tế về doanh nghiệp sử dụng AI: Alibaba, Amazon, Apple, Netflix và Tesla đang áp dụng AI vào nhiều khía cạnh hoạt động kinh doanh của họ.
📌 AI đang định hình lại cách doanh nghiệp vận hành, từ tự động hóa đến ra quyết định thông minh. Với 90% lãnh đạo công nghệ đang sử dụng AI và thị trường chatbot dự kiến đạt 1,25 tỷ USD vào năm 2025, việc áp dụng AI không còn là lựa chọn mà là điều cần thiết để doanh nghiệp phát triển bền vững trong kỷ nguyên số.
https://appinventiv.com/guide/artificial-intelligence-in-business/
• JPMorgan Chase đã ra mắt trợ lý AI nội bộ có tên LLM Suite cho 60.000 nhân viên, sử dụng công nghệ của OpenAI. Đây là bước chuyển đổi sau 18 tháng hạn chế nhân viên sử dụng các giải pháp AI tạo sinh như ChatGPT.
• Walmart cũng đã triển khai My Assistant cho 75.000 nhân viên tại 11 quốc gia. Công ty tập trung vào việc sử dụng AI tạo sinh để hỗ trợ nhân viên trong các tác vụ cụ thể như tóm tắt thông tin, điều hướng hệ thống ERP và tự động hóa một số công việc.
• Theo báo cáo của Cisco, 27% tổ chức đã tạm thời cấm các ứng dụng AI tạo sinh công cộng. Tuy nhiên, khảo sát của Extrahop cho thấy nhiều nhân viên vẫn sử dụng các ứng dụng bị hạn chế.
• Các rủi ro chính khi nhân viên sử dụng AI tạo sinh bao gồm rò rỉ thông tin nhạy cảm, ảo giác và tuân thủ quy định ngành.
• Ensono, một công ty cung cấp dịch vụ quản lý IT, đã chuyển từ hạn chế sang phát triển trợ lý AI nội bộ cho 3.500 nhân viên. Giải pháp này dựa trên GPT-4 nhưng có thể linh hoạt tích hợp các mô hình ngôn ngữ khác nhau.
• Varyence, một công ty phát triển phần mềm khởi nghiệp, đã triển khai hệ thống phân loại dữ liệu tự động và nền tảng AI tạo sinh nội bộ với các biện pháp bảo vệ tích hợp.
• Các công ty đang chuyển từ cấm sang đưa AI tạo sinh vào nội bộ, nhưng vẫn phải duy trì tính linh hoạt trong việc thực hiện các chính sách AI, đồng thời đảm bảo an toàn và bảo mật.
• Xu hướng này giúp giải quyết các lo ngại về quyền riêng tư và bảo mật dữ liệu khi sử dụng các nền tảng AI tạo sinh công cộng.
• Các công ty đang tìm cách cân bằng giữa việc tận dụng sức mạnh của AI tạo sinh và bảo vệ thông tin nhạy cảm của công ty và khách hàng.
• Việc phát triển các giải pháp nội bộ cho phép các công ty kiểm soát tốt hơn việc sử dụng AI tạo sinh và đảm bảo tuân thủ các quy định về bảo mật và quyền riêng tư.
📌 Các công ty lớn như JPMorgan và Walmart đang chuyển từ hạn chế sang phát triển trợ lý AI nội bộ, nhằm tận dụng sức mạnh của AI tạo sinh đồng thời bảo vệ dữ liệu nhạy cảm. Xu hướng này giúp giải quyết các lo ngại về quyền riêng tư và tuân thủ quy định, với 27% tổ chức đã từng cấm ứng dụng AI tạo sinh công cộng.
https://www.cnbc.com/2024/08/28/why-jpmorgan-and-walmart-are-opting-for-internal-gen-ai-assistants.html
• Tài liệu nội bộ của Amazon cung cấp hướng dẫn cho nhân viên bán hàng AWS về cách trả lời câu hỏi liên quan đến OpenAI và các đối thủ AI khác.
• Tài liệu nêu ra 9 yếu tố quan trọng nhất mà khách hàng cân nhắc khi mua mô hình và dịch vụ AI tạo sinh:
- Khả năng tùy chỉnh: có thể điều chỉnh mô hình AI cho các yêu cầu cụ thể
- Cá nhân hóa: sử dụng dữ liệu nội bộ của công ty để tạo ra kết quả AI phù hợp hơn
- Độ chính xác: mức độ phù hợp của kết quả tạo ra với mục tiêu mong muốn
- Bảo mật: các biện pháp bảo vệ dữ liệu và quyền riêng tư
- Giám sát: khả năng phát hiện các vấn đề như độ lệch, thiên vị hoặc suy giảm chất lượng đầu ra
- Chi phí: tổng chi phí bao gồm đầu tư ban đầu và chi phí liên tục
- Dễ sử dụng: khả năng sử dụng, tích hợp và hỗ trợ của mô hình
- AI có trách nhiệm: tuân thủ các hướng dẫn đạo đức, giải quyết thiên vị, giải thích kết quả
- Đổi mới: vị thế của nhà cung cấp dịch vụ như một nhà đổi mới so với các đối thủ khác
• AWS tập trung vào việc bán các mô hình nền tảng và cơ sở hạ tầng đám mây cần thiết để xây dựng dịch vụ AI, thay vì tập trung vào chatbot AI phổ biến.
• Tài liệu nêu bật các "Đề xuất Giá trị" của AWS như dễ dàng xây dựng và tùy chỉnh AI, bảo mật mạnh mẽ, cơ sở hạ tầng hiệu quả về giá, chip AI riêng và các ứng dụng AI như Amazon Q.
• AWS khẳng định họ là nhà cung cấp đám mây hàng đầu với nhiều dịch vụ AI tạo sinh nhất, với doanh thu hàng tỷ đô la từ các dịch vụ AI.
• Công ty coi đây là giai đoạn đầu của AI tạo sinh và trang bị cho đội ngũ bán hàng thông tin để giúp khách hàng hiểu tại sao AWS là nơi tốt nhất để xây dựng ứng dụng AI tạo sinh.
📌 Amazon tiết lộ 9 yếu tố then chốt khách hàng cân nhắc khi mua AI, tập trung vào cơ sở hạ tầng đám mây và mô hình nền tảng thay vì chatbot. AWS khẳng định vị thế dẫn đầu với nhiều dịch vụ AI tạo sinh nhất, doanh thu hàng tỷ đô la từ AI.
https://www.businessinsider.com/amazon-l-9-factors-customers-consider-before-buying-ai-aws-2024-8
- Tech Mahindra và Google Cloud đã công bố một quan hệ đối tác chiến lược nhằm thúc đẩy việc áp dụng AI tạo sinh tại Ấn Độ.
- Mục tiêu chính của quan hệ đối tác là dẫn dắt quá trình chuyển đổi số cho Mahindra & Mahindra (M&M), một công ty con của tập đoàn Mahindra.
- Tech Mahindra sẽ sử dụng công nghệ AI và machine learning để cải thiện các lĩnh vực như kỹ thuật, chuỗi cung ứng, dịch vụ trước và sau bán hàng cho M&M.
- Quan hệ đối tác này sẽ giúp Tech Mahindra dẫn dắt quá trình chuyển đổi đám mây và số hóa không gian làm việc của M&M.
- M&M sẽ triển khai nền tảng dữ liệu của mình trên Google Cloud để tối ưu hóa quy trình sản xuất và nâng cao trải nghiệm khách hàng.
- Rucha Nanavati, CIO của Mahindra Group, nhấn mạnh cam kết của tập đoàn trong việc cải tiến trải nghiệm khách hàng thông qua việc sử dụng AI.
- Google Cloud sẽ hỗ trợ M&M trong việc phát hiện bất thường trong quy trình sản xuất, đảm bảo không có sự cố xảy ra và tối ưu hóa hiệu quả năng lượng.
- Bên cạnh đó, Google Cloud cũng sẽ nâng cao độ an toàn của xe và cải thiện độ tin cậy, từ đó nâng cao trải nghiệm tổng thể cho khách hàng.
- Bikram Singh Bedi, giám đốc quốc gia của Google Cloud, cho biết quan hệ đối tác này sẽ giúp M&M thực hiện một cuộc chuyển đổi lớn về đám mây và AI.
- Tech Mahindra cũng sẽ quản lý nhiều khối lượng công việc khác nhau, bao gồm các ứng dụng doanh nghiệp và khối lượng công việc cho các mô phỏng.
- Atul Soneja, COO của Tech Mahindra, nhấn mạnh tầm quan trọng của việc có các nền tảng dữ liệu tích hợp và giải pháp dựa trên đám mây trong việc thúc đẩy đổi mới.
- Năm 2023, Tech Mahindra đã thiết lập một trung tâm cung cấp dịch vụ tại Guadalajara, Mexico, chuyên cung cấp các giải pháp tập trung vào Google Cloud.
📌 Tech Mahindra và Google Cloud hợp tác để thúc đẩy AI tạo sinh tại Ấn Độ, cải thiện trải nghiệm khách hàng và tối ưu hóa quy trình sản xuất cho Mahindra & Mahindra. Sự hợp tác này hứa hẹn sẽ mang lại những đổi mới công nghệ quan trọng trong ngành công nghiệp ô tô và xe công nghiệp.
https://www.rcrwireless.com/20240827/ai-ml/tech-mahindra-google-cloud-partner-boost-gen-ai-adoption
- Tỷ lệ tổ chức sử dụng AI tạo sinh đã tăng gần gấp đôi trong vòng 10 tháng, từ 33% lên 65%. 75% dự đoán AI tạo sinh sẽ dẫn đến thay đổi đáng kể hoặc đột phá trong những năm tới.
- AI không phải là cơn sốt tạm thời mà đang hoàn toàn thay đổi cách thức hoạt động của công việc. Thị trường AI dự kiến sẽ đạt giá trị hơn 500 tỷ USD vào năm 2024.
- Áp dụng AI toàn diện trong công ty sẽ mất nhiều thời gian và nguồn lực. Cần cấu hình hệ thống AI để tạo giá trị, tích hợp vào tổ chức và đào tạo lại nhân viên.
- Triển khai AI vội vàng có thể gây tai họa, ví dụ như đường dây nóng rối loạn ăn uống phải đóng cửa vì chatbot đưa ra lời khuyên nghi vấn.
- Áp dụng AI từ từ sẽ giúp thấy được nó có thể thêm giá trị ở đâu. Đây chỉ là bước đầu để hiểu tác động của AI, cần xây dựng triết lý về vai trò của nó trong doanh nghiệp hiện tại và tương lai.
📌 Các nhà lãnh đạo nên bắt đầu áp dụng AI ngay lập tức để cạnh tranh hiệu quả trong hiện tại và chuẩn bị cho tương lai, khi AI đang thay đổi toàn diện cách thức hoạt động của doanh nghiệp.
https://www.forbes.com/sites/aytekintank/2024/08/27/why-leaders-shouldnt-wait-to-adopt-ai/
• Theo báo cáo của Bloomberg News, nhân viên tại Nvidia, công ty sản xuất chip AI, được kỳ vọng làm việc 7 ngày/tuần, thường xuyên đến 2 giờ sáng.
• 10 người đã và đang làm việc tại Nvidia mô tả môi trường làm việc như một nồi áp suất, với các cuộc họp thường xuyên biến thành những cuộc cãi vã.
• Một cựu nhân viên marketing cho biết cô thường tham dự tới 10 cuộc họp mỗi ngày, mỗi cuộc có hơn 30 người tham gia.
• Mặc dù môi trường làm việc căng thẳng, nhân viên vẫn chấp nhận vì "còng vàng" - đó là các khoản thưởng cổ phiếu hấp dẫn.
• Kể từ năm 2019, cổ phiếu Nvidia đã tăng 3.776%, khiến nhiều nhân viên làm việc 5 năm trở lên trở thành triệu phú.
• Tỷ lệ nghỉ việc tại Nvidia khá thấp: năm ngoái là 5,3%, và giảm xuống còn 2,7% sau khi vốn hóa thị trường vượt 1.000 tỷ USD. Con số này thấp hơn nhiều so với mức trung bình 17,7% trong ngành bán dẫn.
• Một cựu kỹ sư cho biết nhiều người đã đủ tiền để nghỉ hưu nhưng vẫn tiếp tục làm việc để chờ đợt cấp cổ phiếu tiếp theo.
• Nhân viên Nvidia thường xuyên khoe khoang về việc mua nhà nghỉ dưỡng mới, vé xem các sự kiện thể thao lớn như Super Bowl hay NBA Finals.
• Bãi đỗ xe của công ty đầy những chiếc xe hạng sang như Porsche, Corvette và Lamborghini.
• Một môi giới bất động sản ở Palo Alto cho biết nhiều nhân viên Nvidia trả trước 40-60% cho những căn nhà trị giá hàng triệu USD.
• CEO Jensen Huang nói rằng ông thúc ép nhân viên làm việc chăm chỉ vì "nếu bạn muốn làm những điều phi thường, nó không nên dễ dàng".
• Nvidia đã trở thành nhà sản xuất chip bán dẫn hàng đầu phục vụ công nghệ AI, với nhu cầu sản phẩm tăng mạnh song song với sự phát triển của trí tuệ nhân tạo.
📌 Nvidia tạo ra môi trường làm việc cường độ cao nhưng bù đắp bằng lương thưởng hấp dẫn. Cổ phiếu tăng 3.776% từ 2019 khiến nhiều nhân viên thành triệu phú. Tỷ lệ nghỉ việc chỉ 2,7%, thấp hơn nhiều so với mức 17,7% trong ngành bán dẫn.
https://nypost.com/2024/08/26/business/nvidia-employees-can-work-7-days-a-week-until-2-a-m-but-few-leave-because-of-ai-chip-giants-lavish-pay-report/
- Accenture và AWS đã ra mắt nền tảng AI có trách nhiệm để hỗ trợ các doanh nghiệp trong việc đánh giá khả năng sẵn sàng cho AI.
- Nền tảng này giúp các công ty thực hiện kiểm kê các ứng dụng AI hiện có và đánh giá mức độ trưởng thành của AI trong tổ chức.
- Accenture và AWS kết hợp khả năng của cả hai công ty để cung cấp công cụ linh hoạt cho khách hàng, không chỉ riêng lẻ mà còn trong hệ sinh thái rộng lớn hơn.
- Nền tảng cho phép người dùng tùy chỉnh các tiêu chí kiểm tra, tập trung vào các lĩnh vực cụ thể của AI có trách nhiệm hoặc rủi ro trong ngành nghề của họ.
- Nền tảng này hướng dẫn các công ty từ việc xác định rủi ro cụ thể đến việc phát triển các chương trình tuân thủ theo quy định đang thay đổi.
- AWS đã có các chương trình AI có trách nhiệm và an toàn, bao gồm ứng dụng Guardrails, một API độc lập mới được phát hành.
- Theo khảo sát từ PwC, chỉ 58% trong số 1.001 công ty đã bắt đầu giải quyết vấn đề AI có trách nhiệm.
- Nghiên cứu của Accenture cho thấy chỉ 2% công ty thực sự có trách nhiệm trong hoạt động AI của mình.
- Các rủi ro chính liên quan đến AI có trách nhiệm bao gồm ảo giác, thiên kiến và an toàn.
- Các công ty thường gặp khó khăn trong việc đồng thuận về định nghĩa AI có trách nhiệm và thiếu nguồn lực cũng như sự ưu tiên cho vấn đề này.
- Mặc dù có nền tảng kỹ thuật từ Accenture và AWS, vẫn cần thêm hướng dẫn cho các doanh nghiệp để hiểu rõ hơn về AI có trách nhiệm.
📌 Accenture và AWS đã phát triển nền tảng AI có trách nhiệm, giúp doanh nghiệp đánh giá khả năng AI của họ. Chỉ 58% công ty đã bắt đầu giải quyết vấn đề này, cho thấy sự cần thiết phải có thêm hướng dẫn và nguồn lực để phát triển AI một cách có trách nhiệm.
https://venturebeat.com/ai/accenture-and-aws-offer-a-way-for-companies-to-start-their-responsible-ai-journey/
• Theo báo cáo "The Future of Enterprise Data & AI" của WNS Analytics, 76% trong số 100 lãnh đạo cấp cao được khảo sát cho biết họ đang triển khai hoặc lên kế hoạch triển khai các giải pháp AI tạo sinh.
• Tuy nhiên, 67% lãnh đạo gặp khó khăn với việc di chuyển dữ liệu, một số khác gặp vấn đề về chất lượng dữ liệu, thiếu hụt nhân tài và dân chủ hóa dữ liệu.
• Các ứng dụng AI đa dạng trong nhiều ngành:
- Bán lẻ: Cá nhân hóa trải nghiệm mua sắm dựa trên hành vi khách hàng và mô hình học máy nâng cao.
- Bảo hiểm: Xác định cơ hội thu hồi bồi thường mà nhân viên có thể bỏ sót.
- Ngân hàng: Tăng cường thẩm định khách hàng và chống rửa tiền.
- Y tế: Nâng cao độ chính xác chẩn đoán qua nhận dạng hình ảnh và phân tích dự đoán.
• Yếu tố cốt lõi để triển khai AI thành công:
- Hiểu rõ giá trị kinh doanh của AI
- Xây dựng nền tảng dữ liệu vững chắc
- Phù hợp với mục tiêu chiến lược của tổ chức
- Bổ sung chuyên môn ở mọi cấp độ doanh nghiệp
• Cần xác định rõ AI có thể làm gì cho doanh nghiệp, không nên áp dụng đại trà chỉ vì AI đang phổ biến.
• Nền tảng dữ liệu vững chắc là yếu tố then chốt để áp dụng AI thành công. Cần phá vỡ các rào cản và tối đa hóa tác động của AI thông qua giao tiếp và hợp tác thường xuyên giữa các bộ phận.
• Đầu tư vào các chuyên gia am hiểu quy định, hoạt động và thông lệ ngành là cần thiết để triển khai thành công hệ thống AI.
• Xây dựng lòng tin khi triển khai AI tạo sinh cần có cơ chế trách nhiệm giải trình, bảo mật và tiêu chuẩn đạo đức. Minh bạch về cách sử dụng hệ thống AI, dữ liệu và quy trình ra quyết định là rất quan trọng.
• 55% tổ chức xác định "xây dựng lòng tin vào hệ thống AI giữa các bên liên quan" là thách thức lớn nhất khi mở rộng quy mô các sáng kiến AI.
• AI nên hỗ trợ chứ không thay thế hoàn toàn việc ra quyết định của con người. Cần có sự giám sát của con người đối với các quyết định có rủi ro và giá trị cao.
• Để tối đa hóa ROI, nên bắt đầu với các dự án thử nghiệm nhỏ, tạo các mốc đo lường được và áp dụng phương pháp linh hoạt khi triển khai AI.
• Trong lĩnh vực bảo hiểm, AI có tác động ROI đáng kể trong quản lý rủi ro và hiệu quả hoạt động. AI tạo sinh và mô hình ngôn ngữ lớn (LLM) đang cách mạng hóa việc giảm thiểu các quy trình thủ công.
• Cần cân bằng giữa đổi mới và sử dụng có đạo đức, đồng thời luôn cập nhật xu hướng trong tương lai để thành công trong kỷ nguyên AI.
📌 Doanh nghiệp cần chuẩn bị kỹ lưỡng để tận dụng tiềm năng của AI, với 76% lãnh đạo đang triển khai hoặc lên kế hoạch triển khai AI tạo sinh. Tuy nhiên, 67% gặp khó khăn về dữ liệu. Yếu tố then chốt là xác định rõ giá trị kinh doanh, xây dựng nền tảng dữ liệu vững chắc, đảm bảo minh bạch và đạo đức khi triển khai AI.
https://www.technologyreview.com/2024/08/26/1096349/readying-business-for-the-age-of-ai/
#MIT
• Chi phí xây dựng mô hình AI hiện nay có thể lên tới hàng trăm triệu USD và dự kiến sẽ đạt mức 1 tỷ USD trong vài năm tới. Phần lớn chi phí là cho sức mạnh tính toán từ các chip chuyên dụng, thường là GPU của Nvidia có giá lên tới 30.000 USD mỗi chiếc.
• Ngoài chi phí phần cứng, các công ty còn phải đối mặt với một chi phí ngày càng tăng khác: gán nhãn dữ liệu. Đây là quá trình gắn thẻ cho dữ liệu để mô hình AI có thể nhận dạng và diễn giải các mẫu.
• Gán nhãn dữ liệu đã được sử dụng từ lâu trong phát triển mô hình AI cho xe tự lái. Tuy nhiên, quy trình này cũng gây ra những lo ngại về đạo đức, như trường hợp OpenAI bị chỉ trích vì thuê ngoài công việc gán nhãn cho người Kenya với mức lương dưới 2 USD/giờ.
• Các mô hình ngôn ngữ lớn (LLM) hiện nay sử dụng phương pháp Học tăng cường từ phản hồi của con người, trong đó con người cung cấp đánh giá định tính về kết quả của mô hình. Đây là một nguồn chi phí đáng kể.
• Gán nhãn dữ liệu chuyên môn cao trong các lĩnh vực như pháp lý, tài chính và y tế đang đẩy chi phí lên cao. Một số công ty phải thuê bác sĩ, luật sư, tiến sĩ và nhà khoa học với chi phí cao để gán nhãn dữ liệu hoặc thuê ngoài công việc cho các công ty bên thứ ba như Scale AI.
• Theo Alex Ratner, CEO của Snorkel AI, khách hàng doanh nghiệp có thể chi hàng triệu USD cho gán nhãn dữ liệu, chiếm tới 80% thời gian và ngân sách AI của họ.
• Neal Shah, CEO của CareYaYa, cho biết chi phí gán nhãn dữ liệu đã tăng 40% trong năm qua do cần thông tin chuyên môn từ các chuyên gia về lão khoa và chăm sóc người mắc chứng sa sút trí tuệ.
• Một số công ty đang tìm cách giảm chi phí bằng cách sử dụng dữ liệu "tổng hợp" được tạo ra bởi chính AI để tự động hóa một phần quá trình thu thập và gán nhãn dữ liệu.
• Mặc dù tốn kém và mất thời gian, gán nhãn dữ liệu vẫn được coi là đáng giá vì tiềm năng to lớn mà nó mang lại cho việc phát triển AI.
📌 Chi phí AI tăng vọt không chỉ do chip đắt đỏ mà còn vì gán nhãn dữ liệu chuyên môn. Doanh nghiệp chi tới 80% ngân sách AI cho việc này, với mức tăng 40% trong năm qua. Tuy nhiên, đầu tư này được coi là xứng đáng vì tiềm năng to lớn của AI.
https://fortune.com/2024/08/23/data-labeling-ai-scaleai-snorkel-costs/
• Salesforce vừa giới thiệu 2 AI agent mới hỗ trợ đội ngũ bán hàng: Einstein SDR Agent và Einstein Sales Coach Agent.
• Einstein SDR Agent có khả năng tự động tương tác với khách hàng tiềm năng 24/7 để nuôi dưỡng pipeline bán hàng. Nó có thể trò chuyện với khách hàng, trả lời câu hỏi ban đầu và lên lịch cuộc họp với nhân viên bán hàng.
• Einstein Sales Coach Agent là một trợ lý ảo giúp nhân viên bán hàng luyện tập kỹ năng thuyết trình. Nó có thể đóng vai khách hàng để nhân viên tập dượt và đưa ra phản hồi về những điểm cần cải thiện.
• 2 agent này được Salesforce mô tả là "thành viên mới trong đội" chứ không phải để thay thế con người. Mục đích là giúp nhân viên hoàn thành công việc nhanh hơn.
• Giá cả chưa được công bố nhưng sẽ sớm được thông báo, có thể tại hội nghị Dreamforce sắp tới vào tháng 9.
• Các công ty công nghệ và doanh nghiệp vừa và nhỏ được cho là sẽ là những người sớm áp dụng công nghệ này.
• Einstein Sales Coach Agent đặc biệt thu hút sự chú ý của các Giám đốc doanh thu (CRO) vì có thể giúp đào tạo nhân viên mới nhanh chóng.
• Công nghệ nền tảng bao gồm Data Cloud của Salesforce cho phép sử dụng phương pháp tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) tiên tiến hơn.
• Salesforce sử dụng mô hình hệ sinh thái mở, tích hợp công nghệ từ nhiều đối tác như OpenAI, Anthropic cũng như các mô hình AI nội bộ như XGen Sales.
• Để thiết lập SDR Agent, nhân viên bán hàng chỉ cần tạo một phiên bản mới trong giao diện phần mềm, gán quyền, cá nhân hóa với avatar và chọn các khách hàng tiềm năng để giao cho agent.
📌 Salesforce ra mắt 2 AI agent mới hỗ trợ bán hàng: Einstein SDR Agent tự động tương tác khách hàng 24/7, Einstein Sales Coach Agent huấn luyện nhân viên. Công nghệ dựa trên Data Cloud, RAG và hệ sinh thái mở. Dự kiến được áp dụng sớm bởi công ty công nghệ và SMB.
https://www.zdnet.com/article/salesforce-unveils-ai-agents-for-sales-teams-heres-how-they-help/#ftag=RSSbaffb68
- Năm 2024, AI doanh nghiệp sẽ tập trung vào việc tự động hóa quy trình làm việc và tối ưu hóa hiệu suất, với hơn 50% doanh nghiệp mới đã áp dụng công nghệ AI trong năm qua.
1. **Tự động hóa và tối ưu hóa quy trình làm việc bằng AI**: AI đang được sử dụng để tự động hóa các quy trình phức tạp, giảm thiểu công việc thủ công. Các công ty áp dụng RPA (Robotic Process Automation) kết hợp với AI để nâng cao năng suất và khả năng mở rộng.
2. **Giải pháp AI cung cấp trải nghiệm cá nhân hóa**: Công nghệ AI, đặc biệt là chatbot và Sentimental AI, đang giúp doanh nghiệp cung cấp dịch vụ khách hàng cá nhân hóa. Dự báo thị trường chatbot sẽ đạt 27,2 triệu USD vào năm 2030, nhấn mạnh sự phát triển của AI trong việc hiểu và đáp ứng nhu cầu của khách hàng.
3. **Tích hợp AI vào phần mềm doanh nghiệp**: AI sẽ được tích hợp vào các công cụ như Microsoft 365 và Google Workspace, giúp tự động hóa các tác vụ và đưa ra gợi ý thông minh. Theo khảo sát, 64% doanh nghiệp cho rằng AI là yếu tố quan trọng để xây dựng mối quan hệ khách hàng vững mạnh.
4. **Sử dụng AI cho việc trích xuất dữ liệu và ra quyết định tốt hơn**: AI sẽ hỗ trợ doanh nghiệp trong việc phân tích dữ liệu lớn, giúp đưa ra quyết định dựa trên dữ liệu. Các công cụ phân tích AI như JPMorgan’s DocLLM giúp đọc và phân tích tài liệu phức tạp, từ đó phát hiện xu hướng và mô hình mà con người khó nhận ra.
5. **AI có đạo đức và phát triển AI có trách nhiệm**: Các công ty đang chú trọng vào việc phát triển AI một cách có đạo đức, thiết lập các ủy ban đạo đức và hướng dẫn để đảm bảo rằng ứng dụng AI không gây hại cho xã hội và môi trường.
6. **AI trong bảo mật mạng**: AI đang trở thành công cụ quan trọng trong việc bảo vệ doanh nghiệp khỏi các mối đe dọa an ninh mạng. Các chương trình bảo mật nâng cao sử dụng AI để phân tích lưu lượng mạng và phát hiện các hành vi bất thường, giúp tăng cường khả năng phản ứng nhanh chóng.
7. **Retrieval-Augmented Generation (RAG)**: Kỹ thuật RAG giúp cải thiện độ chính xác và độ tin cậy của AI bằng cách tham chiếu đến các cơ sở dữ liệu bên ngoài. Điều này giúp giảm thiểu tình trạng "ảo giác AI", đồng thời cung cấp thông tin cụ thể và đáng tin cậy hơn cho người dùng.
📌 Năm 2024, AI doanh nghiệp sẽ tập trung vào tự động hóa, cá nhân hóa, tích hợp thông minh và bảo mật, với các xu hướng như RAG và phát triển AI có trách nhiệm, giúp doanh nghiệp duy trì tính cạnh tranh và hiệu quả.
https://www.datasciencecentral.com/enterprise-ai-tends-in-2024-what-businesses-need-to-know/
- Target đã hoàn thành việc triển khai một công cụ AI tạo sinh mới nhằm hỗ trợ nhân viên cửa hàng giải quyết nhanh chóng các thách thức trong công việc, theo CFO Michael Fiddelke.
- Công nghệ này đã được tích hợp vào các thiết bị cầm tay trong các cửa hàng của Target và đã được sử dụng hơn 50.000 lần từ khi triển khai.
- Công cụ này có khả năng cung cấp “các phản hồi đơn giản” trong vòng chưa đầy một phút khi nhân viên hỏi về các vấn đề như cách đăng ký thẻ Target Circle hoặc cách khởi động lại máy tính tiền sau khi mất điện.
- Fiddelke cho biết nhiều nhân viên đã phản hồi rằng công cụ này đã cải thiện trải nghiệm làm việc hàng ngày của họ, giúp họ hỗ trợ khách hàng dễ dàng và nhanh chóng hơn.
- Sáng kiến AI tạo sinh của Target là một phần trong nỗ lực rộng lớn hơn của công ty nhằm sử dụng công nghệ để nâng cao trải nghiệm của nhân viên và khách hàng, đồng thời hỗ trợ tăng trưởng lâu dài.
- Các lãnh đạo cửa hàng của Target kỳ vọng công cụ mới sẽ “cực kỳ hữu ích” khi công ty tiếp nhận thêm nhân viên mới trong mùa lễ hội năm nay, giúp họ trở nên năng suất hơn nhanh chóng.
- Theo báo cáo của IDC, chi tiêu toàn cầu cho AI sẽ đạt 632 tỷ USD vào năm 2028.
- Ritu Jyoti, phó chủ tịch nhóm và giám đốc nghiên cứu AI và dữ liệu tại IDC, cho biết các chuyển đổi do AI mang lại giá trị thực tế cho các tổ chức trên toàn cầu.
- Hơn 60% công ty xem AI tạo sinh là ưu tiên hàng đầu trong hai năm tới, nhưng chỉ khoảng 35% có tầm nhìn rõ ràng về cách tạo ra giá trị kinh doanh từ nó.
📌 Target đang sử dụng công cụ AI tạo sinh để nâng cao hiệu quả làm việc của nhân viên, với hơn 50.000 lần sử dụng. Công cụ này giúp nhân viên giải quyết vấn đề nhanh chóng, cải thiện trải nghiệm khách hàng và dự kiến sẽ hỗ trợ trong việc đào tạo nhân viên mới trong mùa lễ hội.
https://www.cfodive.com/news/target-cfo-genai-boosting-worker-efficiency/725046/
• Deloitte công bố báo cáo khảo sát mới về tình hình áp dụng AI tạo sinh trong doanh nghiệp, với sự tham gia của 2.770 lãnh đạo doanh nghiệp và công nghệ từ 14 quốc gia và 6 ngành công nghiệp.
• 67% tổ chức đang tăng đầu tư vào AI tạo sinh do nhận thấy giá trị ban đầu mạnh mẽ.
• Tuy nhiên, 68% tổ chức mới chỉ đưa 30% hoặc ít hơn các thử nghiệm AI tạo sinh vào sản xuất thực tế.
• 75% đã tăng đầu tư vào quản lý vòng đời dữ liệu cho AI tạo sinh.
• Chỉ 23% cảm thấy chuẩn bị tốt cho các thách thức về quản lý rủi ro và quản trị liên quan đến AI tạo sinh.
• 41% gặp khó khăn trong việc xác định và đo lường chính xác tác động của các nỗ lực AI tạo sinh.
• 55% đã tránh một số trường hợp sử dụng AI tạo sinh do các vấn đề liên quan đến dữ liệu.
• Kieran Norton, Giám đốc tại Deloitte, cho biết nhiều khách hàng đang thử nghiệm nhưng chưa đưa vào sản xuất do lo ngại về chất lượng dữ liệu và các tác động tiềm ẩn như sự thiên vị trong mô hình.
• Báo cáo nhấn mạnh các rủi ro chính bao gồm chất lượng dữ liệu, thiên vị, bảo mật, tin cậy, quyền riêng tư và tuân thủ quy định.
• Norton khuyến nghị các tổ chức tận dụng các chương trình quản lý rủi ro hiện có, đồng thời nâng cao một số thực hành như quản lý chất lượng dữ liệu.
• Một mối quan ngại cụ thể là rủi ro ảo giác, khi mô hình AI tạo sinh tạo ra kết quả không chính xác hoặc vô nghĩa. Norton gợi ý sử dụng các mô hình ngôn ngữ nhỏ hơn, có mục tiêu cụ thể và đào tạo chuyên biệt để giảm thiểu rủi ro này.
• Chỉ 16% tổ chức đã tạo báo cáo thường xuyên cho CFO về giá trị do AI tạo sinh mang lại.
• Norton khuyến nghị xác định các chỉ số KPI cụ thể cho từng trường hợp sử dụng, tập trung vào các vấn đề kinh doanh cần giải quyết.
📌 Khảo sát Deloitte cho thấy 67% doanh nghiệp tăng đầu tư AI tạo sinh, nhưng 68% chỉ triển khai được 30% thử nghiệm. Chỉ 23% sẵn sàng quản trị rủi ro AI. Các thách thức chính là chất lượng dữ liệu, đo lường giá trị và quản lý rủi ro.
https://venturebeat.com/ai/deloitte-survey-reveals-enterprise-generative-ai-production-deployment-challenges/
• Walmart đang sử dụng AI tạo sinh để cải thiện chất lượng dữ liệu trong danh mục sản phẩm, nhằm nâng cao trải nghiệm cho khách hàng và nhân viên.
• Công ty đã sử dụng các mô hình ngôn ngữ lớn để tạo mới hoặc cải thiện hơn 850 triệu điểm dữ liệu trong danh mục sản phẩm. Quá trình này sẽ cần gấp 100 lần nhân lực nếu không có AI tạo sinh.
• Dữ liệu sạch hơn giúp nhân viên dễ dàng tìm kiếm sản phẩm cụ thể bằng cách truy cập nhanh hình ảnh bao bì.
• Khách hàng sử dụng trợ lý AI của Walmart sẽ sớm nhận được các câu trả lời bổ sung cho các truy vấn, giúp họ tìm đúng sản phẩm cần thiết.
• Trong cửa hàng, nhân viên có thể sử dụng công nghệ như các công cụ di động để nhanh chóng định vị hàng tồn kho và đưa sản phẩm lên kệ hoặc đến khách hàng đang chờ đợi.
• Đối với thương mại điện tử, công cụ AI của Walmart có thể kết hợp dữ liệu ý định của khách hàng với dữ liệu sản phẩm được cải thiện để giới thiệu các mặt hàng phù hợp với nhu cầu của họ.
• AI cũng cải thiện chi tiết trên các trang hiển thị sản phẩm, giúp khách hàng xác định xem một sản phẩm cụ thể có phải là thứ họ cần hay không.
• Chức năng tìm kiếm tốt hơn sẽ tiếp tục hợp lý hóa trải nghiệm kỹ thuật số khi danh mục sản phẩm trực tuyến của Walmart ngày càng mở rộng.
• Walmart đang tập trung vào "đơn hàng hoàn hảo", đo lường khả năng khách hàng tìm thấy sản phẩm họ muốn trực tuyến, cũng như việc giao hàng đúng hạn và trong tình trạng tốt.
• "Đơn hàng hoàn hảo" là chìa khóa để loại bỏ ma sát và cải thiện điểm trải nghiệm khách hàng của thành viên Walmart Plus.
• Giao hàng miễn phí là một trong những ưu đãi cốt lõi của chương trình khách hàng thân thiết, và việc thực hiện đơn hàng tốt hơn đã thúc đẩy tăng trưởng hai con số về số lượng thành viên Walmart Plus trong quý.
📌 Walmart đã ứng dụng AI tạo sinh để xử lý 850 triệu điểm dữ liệu sản phẩm, cải thiện đáng kể trải nghiệm khách hàng và nhân viên. Công ty tập trung vào "đơn hàng hoàn hảo", thúc đẩy tăng trưởng hai con số về số lượng thành viên Walmart Plus trong quý.
https://www.customerexperiencedive.com/news/walmart-generative-ai-850-million-product-data-points-experience/724419/
- Các tổ chức dịch vụ sớm áp dụng AI tạo sinh đang tìm cách tối ưu hóa giá trị đầu tư của họ.
- Chỉ 11% công ty toàn cầu đang sử dụng AI tạo sinh ở quy mô lớn, trong khi chỉ 3% công ty lớn tại Bắc Mỹ và châu Âu đã triển khai thành công trong lĩnh vực hoạt động.
- Một khảo sát cho thấy 45% tổ chức trong lĩnh vực tài chính đang thử nghiệm AI tạo sinh, nhưng chỉ 6% đã đạt được quy mô.
- 2/3 lãnh đạo mong đợi sẽ mất từ 3 đến 5 năm để thu hồi giá trị từ các khoản đầu tư vào AI tạo sinh.
- Các công ty gặp khó khăn trong việc xác định các trường hợp sử dụng nào sẽ mang lại lợi thế cạnh tranh thực sự.
- Một số công ty đã ghi nhận hơn 10% lợi nhuận từ việc sử dụng AI tạo sinh, cho thấy tiềm năng lớn từ công nghệ này.
- 3 nhiệm vụ chính để mở rộng AI tạo sinh bao gồm: thiết kế chiến lược vận hành chặt chẽ, hỗ trợ con người và tích hợp AI với khả năng của con người.
- Một ngân hàng đã sử dụng AI tạo sinh để soạn thảo các bản ghi nhớ về rủi ro tín dụng, tăng doanh thu cho mỗi quản lý quan hệ lên 20%.
- Một công ty hàng tiêu dùng đã giảm chi phí vận hành từ 6 triệu đến 10 triệu USD nhờ sử dụng AI trong phân tích tài chính.
- Các công ty cần xây dựng một lộ trình rõ ràng, khắc phục tình trạng thiếu hụt nhân tài và quản lý chưa trưởng thành để mở rộng AI tạo sinh.
- Việc ưu tiên các trường hợp sử dụng dựa trên tác động kinh doanh và khả năng kỹ thuật là rất quan trọng để triển khai AI hiệu quả.
- Một nhà cung cấp viễn thông đã cải thiện trải nghiệm khách hàng bằng cách tối ưu hóa quy trình và giảm thời gian gọi điện trung bình.
- Cần có một cấu trúc quản trị rõ ràng để hỗ trợ việc triển khai AI tạo sinh, bao gồm quyền quyết định và quy trình đánh giá minh bạch.
- Đầu tư vào quản lý thay đổi và văn hóa đổi mới liên tục là yếu tố quan trọng để thành công trong việc triển khai AI tạo sinh.
- Các công ty nên thường xuyên đánh giá lại các ý tưởng AI chưa được triển khai để tìm ra cơ hội mới và loại bỏ những ý tưởng không khả thi.
📌 AI tạo sinh đang mở ra cơ hội lớn cho các tổ chức dịch vụ, nhưng việc triển khai thành công đòi hỏi một chiến lược rõ ràng, hỗ trợ con người và tích hợp hiệu quả giữa AI và con người. Các công ty cần phải thường xuyên đánh giá và điều chỉnh chiến lược của mình để tối ưu hóa giá trị từ công nghệ này.
https://www.mckinsey.com/capabilities/operations/our-insights/from-promising-to-productive-real-results-from-gen-ai-in-services
#McKinsey
• Chưa đầy 2 năm sau khi ChatGPT ra mắt và khởi động cơn sốt AI tạo sinh, công nghệ này vẫn chưa thực sự làm thay đổi hoạt động kinh doanh như kỳ vọng. Nhiều dự án ứng dụng AI tạo sinh đã bị hủy bỏ, như hệ thống tự động hóa đặt hàng drive-through của McDonald's.
• AI tạo sinh đang đi theo chu kỳ hype Gartner, bắt đầu bước vào giai đoạn "thất vọng" sau khi đạt đỉnh kỳ vọng thái quá. Báo cáo của Gartner cho rằng phải mất 2-5 năm nữa công nghệ này mới đạt được hiệu suất ổn định.
• Nghiên cứu của RAND cho thấy 80% dự án AI thất bại, gấp đôi tỷ lệ thất bại của các dự án không liên quan đến AI. Nguyên nhân chính là do bản chất đặc biệt của AI tạo sinh: có thể giải quyết các vấn đề phức tạp nhưng lại thất bại với những tác vụ đơn giản.
• Các mô hình ngôn ngữ lớn như GPT-4 thường tạo ra sự tự tin giả tạo ở người dùng, dẫn đến việc áp dụng sai mục đích. Nghiên cứu cho thấy các mô hình càng mạnh càng hoạt động kém trong các tình huống quan trọng.
• Tuy nhiên, công nghệ AI tạo sinh vẫn đang được cải thiện nhanh chóng nhờ tăng quy mô và kích thước. Các công ty công nghệ lớn vẫn đang đầu tư mạnh, với ước tính cần tạo ra doanh thu 600 tỷ USD/năm để biện minh cho các khoản đầu tư hiện tại.
• Xu hướng mới trong áp dụng AI tạo sinh: sử dụng AI hỗ trợ con người thay vì thay thế; phát triển các mô hình nhỏ hơn, rẻ hơn và chuyên biệt hơn; tập trung đào tạo kiến thức về AI cho lực lượng lao động.
• Cuộc cách mạng AI sẽ diễn ra từ từ như một quá trình tiến hóa, dần dần thay đổi và chuyển đổi các hoạt động của con người thay vì thay thế hoàn toàn.
📌 AI tạo sinh đang bước vào giai đoạn ứng dụng thực tế sau cơn sốt ban đầu. 80% dự án AI thất bại do kỳ vọng quá cao. Xu hướng mới là phát triển mô hình nhỏ hơn, chuyên biệt và hỗ trợ con người. AI sẽ dần thay đổi hoạt động của con người thay vì thay thế hoàn toàn.
https://theconversation.com/generative-ai-hype-is-ending-and-now-the-technology-might-actually-become-useful-236940
- Trí tuệ nhân tạo thế hệ mới (Gen AI) dự kiến sẽ thay đổi hơn 40% hoạt động công việc trong những năm tới, không chỉ dành riêng cho các chuyên gia công nghệ mà còn cho bất kỳ ai có thể sử dụng lệnh bằng ngôn ngữ hàng ngày. Sự chuyển mình này sẽ ảnh hưởng sâu sắc đến nhiều lĩnh vực, đặc biệt là pháp lý, ngân hàng, bảo hiểm, và thị trường vốn.
- Để thành công trong kỷ nguyên hợp tác giữa con người và máy móc, người lao động cần phát triển các "kỹ năng kết hợp" (fusion skills) như: Interrogation thông minh, tích hợp Judgment, và Apprenticing tương hỗ.
- Interrogation thông minh là khả năng hướng dẫn các mô hình ngôn ngữ lớn (LLMs) thực hiện các tác vụ một cách hiệu quả hơn, ví dụ như chia nhỏ quy trình thành các bước cụ thể hoặc hình dung nhiều hướng giải quyết khác nhau.
- Tích hợp Judgment là việc đưa vào các yếu tố đánh giá và đạo đức của con người để nâng cao độ tin cậy và chính xác của kết quả do AI tạo ra. Điều này bao gồm việc sử dụng các nguồn kiến thức uy tín để bổ sung cho mô hình khi cần thiết và kiểm tra các kết quả nghi ngờ.
- Apprenticing tương hỗ là việc điều chỉnh AI theo bối cảnh doanh nghiệp cụ thể bằng cách đưa dữ liệu và kiến thức tổ chức vào trong các lệnh nhắc. Khi người dùng trở nên thành thạo trong việc này, họ cũng học cách đào tạo AI để xử lý các thách thức phức tạp hơn.
- Nghiên cứu cho thấy, việc sử dụng các chỉ dẫn tình huống một cách ngẫu nhiên thường dẫn đến kết quả không đáng tin cậy, đặc biệt trong các nhiệm vụ phân tích phức tạp. Do đó, việc áp dụng các kỹ thuật như suy nghĩ từng bước, đào tạo AI theo từng giai đoạn và khám phá sáng tạo sẽ cải thiện đáng kể kết quả làm việc với Gen AI.
- Một nghiên cứu gần đây cho thấy rằng việc hướng dẫn AI suy nghĩ theo chuỗi từng bước có thể nâng cao độ chính xác của kết quả lên đến 3 lần. Ví dụ, nếu một nhân viên tài chính sử dụng AI để tính toán ngân sách, việc yêu cầu AI suy nghĩ từng bước sẽ giúp nó đưa ra kết quả chính xác hơn.
- Bên cạnh đó, việc bảo vệ quyền riêng tư và tránh định kiến khi sử dụng AI cũng rất quan trọng. Người dùng cần chú ý đến các dữ liệu nhạy cảm và đảm bảo rằng các mô hình AI không bị ảnh hưởng bởi các thông tin thiên lệch.
📌 Để tận dụng tối đa tiềm năng của Gen AI, người lao động cần phát triển các kỹ năng như Interrogation thông minh, tích hợp Judgment, và Apprenticing tương hỗ. Những kỹ năng này không chỉ giúp cải thiện độ chính xác và độ tin cậy của AI mà còn tạo ra cơ hội mới trong môi trường làm việc hiện đại. Sự chuẩn bị cho tương lai công việc sẽ phụ thuộc vào khả năng của chúng ta trong việc hợp tác hiệu quả với AI.
https://hbr.org/2024/09/embracing-gen-ai-at-work
#HBR
• Ấn Độ, quốc gia dẫn đầu thị trường gia công dịch vụ CNTT, được dự đoán sẽ hưởng lợi nhiều nhất từ ứng dụng AI tạo sinh do cơ hội mở rộng biên lợi nhuận.
• Ngành gia công phần mềm chiếm phần lớn trong nền kinh tế Ấn Độ, nhưng đã hoạt động với biên lợi nhuận rất thấp (khoảng 5%) trong nhiều năm qua.
• AI tạo sinh có tiềm năng tăng biên lợi nhuận lên gấp 4 lần, từ 5% lên tới 20%.
• ServiceNow, công ty dịch vụ công nghệ lớn, đã đạt được lợi ích hữu hình 10 triệu USD hàng năm nhờ tiết kiệm chi phí và tăng năng suất từ việc sử dụng AI tạo sinh.
• Sản phẩm Now Assist của ServiceNow, tích hợp AI, đã trở thành sản phẩm phát triển nhanh nhất của công ty với 11 thương vụ trị giá trên 1 triệu USD trong quý 2 năm 2024.
• Wipro đã tích hợp Virtual Agent với Microsoft Teams, giúp nhân viên giải quyết các yêu cầu nhanh hơn, dẫn đến giảm 40% số lượng yêu cầu dịch vụ và cắt giảm 25% cuộc gọi hỗ trợ.
• Virtual Agent của Wipro hiện xử lý 16.000 yêu cầu mỗi tháng, tăng trưởng 40% mỗi tháng.
• Tại Mindtree, chi phí vận hành CNTT đã giảm 50% nhờ ứng dụng AI.
• Mô hình StarCoder AI của ServiceNow đã tăng năng suất và tốc độ đổi mới của các nhà phát triển lên 52%.
• StarCoder là một mô hình ngôn ngữ lớn nguồn mở (LLM) cho việc tạo mã, được phát triển bởi ServiceNow Research và Hugging Face, với 15 tỷ tham số và được đào tạo trên hơn 80 ngôn ngữ lập trình.
• Nhân viên Ấn Độ chiếm hơn 20% lực lượng lao động toàn cầu của ServiceNow, với Hyderabad là địa điểm lớn nhất về số lượng nhân viên.
• Tại Ấn Độ, 85% nhân viên của ServiceNow là kỹ sư và nhà phát triển, và hơn 40% công việc kỹ thuật sản phẩm toàn cầu được thực hiện từ Ấn Độ.
• Về cơ sở hạ tầng xử lý AI tại Ấn Độ, ServiceNow chưa có kế hoạch cụ thể về GPU, nhưng sẽ xem xét nếu có nhu cầu thị trường.
📌 AI tạo sinh đang mang lại lợi ích đáng kể cho ngành gia công phần mềm Ấn Độ, với tiềm năng tăng biên lợi nhuận từ 5% lên 20%. Các công ty như ServiceNow, Wipro và Mindtree đã chứng kiến sự cải thiện đáng kể về năng suất và hiệu quả chi phí, với ServiceNow đạt được lợi ích 10 triệu USD hàng năm và Wipro giảm 40% yêu cầu dịch vụ.
https://telecom.economictimes.indiatimes.com/news/enterprise-services/the-gen-ai-boost-to-indias-outsourcing-business/112593759
• Huấn luyện mô hình AI đòi hỏi chi phí khổng lồ, chủ yếu do phần cứng đắt đỏ như GPU. Ví dụ, việc huấn luyện LLaMA 2 70B cần ít nhất 10^24 phép tính dấu phẩy động.
• Các công ty lớn như Microsoft, Meta, Nvidia đang phát triển chip AI tùy chỉnh để tối ưu hóa phần cứng. Tuy nhiên, cách tiếp cận này chỉ phù hợp với các "đại gia" có nguồn lực tài chính dồi dào.
• Đối với doanh nghiệp nhỏ và startup, các giải pháp phần mềm sáng tạo là lựa chọn khả thi hơn để tối ưu hóa quá trình huấn luyện và giảm chi phí.
• Mixed precision training kết hợp các phép toán độ chính xác thấp b/float16 với float32 tiêu chuẩn, giúp cải thiện tốc độ xử lý và sử dụng bộ nhớ. Kỹ thuật này có thể cải thiện thời gian chạy lên đến 6 lần trên GPU và 2-3 lần trên TPU.
• Activation checkpointing lưu trữ một tập con các giá trị thiết yếu và chỉ tính toán lại phần còn lại khi cần thiết. Phương pháp này có thể giảm sử dụng bộ nhớ tới 70%, mặc dù kéo dài thời gian huấn luyện 15-25%.
• Multi-GPU training phân phối quá trình huấn luyện trên nhiều GPU cùng lúc. Các công cụ như DeepSpeed, FSDP và YaFSDP có thể tăng tốc độ huấn luyện lên đến 10 lần so với phương pháp truyền thống.
• Các framework mã nguồn mở như Nvidia's APEX và PyTorch của Meta AI hỗ trợ nhiều kỹ thuật tối ưu hóa, giúp việc tích hợp vào quy trình huấn luyện trở nên dễ dàng hơn.
• Bằng cách áp dụng các chiến lược này, ngay cả các doanh nghiệp có nguồn lực hạn chế cũng có thể tham gia vào lĩnh vực AI mà không cần đầu tư lớn vào phần cứng đắt đỏ.
📌 Các kỹ thuật phần mềm như mixed precision training, activation checkpointing và multi-GPU training giúp doanh nghiệp nhỏ tiết kiệm chi phí huấn luyện AI đến 70%. Những công cụ này tăng hiệu quả tính toán, giảm thời gian chạy và cho phép huấn luyện mô hình lớn hơn trên phần cứng hiện có.
https://venturebeat.com/ai/the-economics-of-gpus-how-to-train-your-ai-model-without-going-broke/
• Theo báo cáo mới của McKinsey, 91% trong số gần 600 người được khảo sát cho biết họ sử dụng AI tạo sinh cho công việc, tăng mạnh so với con số 30% cách đây 6 tháng.
• McKinsey cho rằng đây là "điểm bước ngoặt" trong việc sử dụng AI của nhân viên, nhưng các công ty vẫn chưa theo kịp nhân viên của họ trong lĩnh vực này.
• Kết quả này phù hợp với báo cáo trước đó của Microsoft và LinkedIn, cho thấy 75% người lao động sử dụng AI tại nơi làm việc mà không có sự đồng ý của cấp trên.
• Đa số người lao động tin rằng AI sẽ giúp họ trong giao tiếp, tư duy phản biện và sáng tạo.
• Khoảng 70% người dùng AI tự nhận là "người dùng nhẹ", trong khi 21% tự nhận là "người dùng nặng".
• Ngược lại, chỉ có 13% công ty đã triển khai 6 trường hợp sử dụng AI trở lên tại văn phòng - nhóm mà McKinsey gọi là "người áp dụng sớm".
• 60% công ty vẫn đang trong giai đoạn thử nghiệm, được định nghĩa là những công ty đã thử nghiệm AI tạo sinh hoặc đưa vào sử dụng tối đa 5 ứng dụng AI tạo sinh.
• Theo Arun Chandrasekaran của Gartner, nhiều công ty đang gặp khó khăn trong việc chuyển từ thử nghiệm sang sản xuất các dự án AI, do các yếu tố như ảo giác và rủi ro khác, chi phí cao hoặc thiếu quản trị dữ liệu.
• Gartner dự đoán 30% các dự án AI sẽ bị từ bỏ vào năm tới.
• Hầu hết nhân viên đều lạc quan về khả năng cải thiện trải nghiệm làm việc của AI tạo sinh, khác với các cuộc khảo sát khác cho thấy sự lo ngại của người lao động.
• McKinsey khuyến nghị các công ty nên tận dụng tối đa việc sử dụng AI của nhân viên bằng cách triển khai cấu trúc quản trị, nâng cao kỹ năng và đào tạo lại lực lượng lao động một cách chính thức, đồng thời cung cấp các phương tiện hỗ trợ khác cho AI tại nơi làm việc.
📌 91% người lao động đã sử dụng AI tạo sinh tại nơi làm việc, tăng mạnh từ 30% cách đây 6 tháng. Tuy nhiên, chỉ 13% công ty đã triển khai AI một cách toàn diện. McKinsey khuyến nghị các công ty cần nhanh chóng bắt kịp xu hướng này bằng cách xây dựng cấu trúc quản trị và đào tạo nhân viên.
https://www.emergingtechbrew.com/stories/2024/08/16/mckinsey-report-ai-use-at-work
- AI tạo sinh (GenAI) đang thúc đẩy các giải pháp sáng tạo trên toàn cầu, với khả năng tiếp cận các mô hình ngôn ngữ lớn (LLMs) và thuật toán tiên tiến.
- ROI cho doanh nghiệp quy mô lớn rất đáng kể, vì vậy việc triển khai GenAI có thể giúp nâng cao hiệu suất và mang lại giá trị.
- Để đo lường ROI của GenAI, cần xem xét các chỉ số như tiết kiệm thời gian, tiết kiệm chi phí và tăng cường năng suất trong các quy trình khác nhau.
- Việc theo dõi sự cải thiện về hiệu quả, năng suất, doanh thu và thời gian là rất quan trọng trong giai đoạn triển khai đầu tiên.
- Các công nghệ tích hợp có thể giúp tiết kiệm thời gian trong thiết kế, giao tiếp với khách hàng và phân tích dữ liệu.
- GenAI có thể thúc đẩy doanh thu thông qua tối ưu hóa marketing và bán hàng, tăng cường trải nghiệm cá nhân hóa cho khách hàng.
- Doanh thu có thể được đo lường qua các chỉ số như doanh số hàng tháng hoặc doanh số theo kênh bán hàng trực tuyến và ngoại tuyến.
- GenAI cũng có thể cải thiện năng suất bằng cách theo dõi thời gian giao hàng, số giờ lao động và hiệu quả lao động.
- Doanh nghiệp có thể giảm chi phí triển khai GenAI bằng cách chuyển sang các mô hình ngôn ngữ cụ thể theo miền thay vì sử dụng GPU nặng.
- Kỹ thuật định lượng mô hình giúp giảm chi phí tính toán và bộ nhớ bằng cách sử dụng định dạng int8 thay vì float32.
- Doanh nghiệp cần chọn mô hình ngôn ngữ phù hợp, như Mistral AI cho các tác vụ lớn hoặc LLaMa để cải thiện sự đa dạng và chất lượng phản hồi.
- Các doanh nghiệp nên tập trung vào các dự án ngắn hạn có thể mang lại giá trị lớn trong vòng một năm.
- Bắt đầu với các trường hợp sử dụng nhỏ như chuẩn bị báo cáo và phân tích dữ liệu có thể tạo ra giá trị nhanh chóng.
- Mặc dù nên bắt đầu nhỏ, doanh nghiệp cũng cần tập trung vào tăng trưởng dài hạn thông qua các thuật toán GenAI có thể mở rộng.
- Việc tích hợp công nghệ phù hợp và sử dụng dữ liệu chất lượng cao là rất quan trọng để tối ưu hóa ROI từ GenAI.
📌 Việc triển khai AI tạo sinh có thể mang lại ROI đáng kể cho doanh nghiệp thông qua tiết kiệm thời gian và chi phí, tối ưu hóa quy trình và tăng trưởng doanh thu. Các mô hình ngôn ngữ phù hợp và dữ liệu chất lượng cao là yếu tố quyết định để đạt được thành công.
https://www.forbes.com/councils/forbestechcouncil/2024/08/14/quantifying-the-roi-of-generative-ai-with-a-focus-on-cost-efficiency/
- 65% tổ chức hiện đang sử dụng AI tạo sinh, gần gấp đôi so với khảo sát trước đó của McKinsey chỉ 10 tháng trước.
- Các tổ chức đang tìm kiếm lợi ích từ AI tạo sinh thông qua việc cải thiện quy trình hiện có và giảm chi phí.
- Nhiều tổ chức vẫn đang ở giai đoạn thử nghiệm, trong khi một số đã bắt đầu triển khai quy mô lớn.
- Rào cản lớn nhất đối với việc áp dụng AI tạo sinh là thiếu hụt nhân tài công nghệ; 33% tổ chức có chuyên môn cao cảm thấy áp lực để áp dụng công nghệ này.
- Chỉ 15% công ty có thể thấy cải thiện lợi nhuận từ các sáng kiến AI tạo sinh, cho thấy nhiều dự án chưa tạo ra giá trị thực sự.
- 48% tổ chức không kỳ vọng thấy sự chuyển mình từ AI tạo sinh trong vòng 1-3 năm tới.
- Các câu hỏi pháp lý và quy định đang làm chậm tiến độ triển khai AI tạo sinh, với 28% tổ chức cho rằng vấn đề tuân thủ là rào cản lớn.
- Chi phí triển khai AI tạo sinh rất cao, và các tổ chức cần quản lý chi phí trước khi chúng trở thành gánh nặng.
- Việc thu thập dữ liệu chất lượng cao là một thách thức lớn, vì các mô hình AI tạo sinh cần một lượng lớn dữ liệu chính xác để hoạt động hiệu quả.
- Mặc dù có nhiều khó khăn, các lãnh đạo công nghệ tin rằng AI tạo sinh sẽ không biến mất và sẽ tiếp tục phát triển trong những năm tới.
📌 AI tạo sinh đang ngày càng phổ biến trong doanh nghiệp, nhưng đối mặt với nhiều thách thức như thiếu nhân tài, chi phí cao và vấn đề pháp lý. 65% tổ chức đã áp dụng công nghệ này, nhưng chỉ 15% thấy lợi ích thực sự, cho thấy cần có chiến lược rõ ràng để khai thác tiềm năng của AI tạo sinh.
https://www.cio.com/article/3478772/6-hard-truths-of-generative-ai-in-the-enterprise.html?amp=1
- AI tạo sinh (gen AI) đang trở thành một công cụ quan trọng trong ngành bán lẻ, với tiềm năng tạo ra giá trị kinh tế từ 240 tỷ đến 390 tỷ USD.
- Các nhà bán lẻ đã nhận ra rằng việc áp dụng gen AI có thể tăng biên lợi nhuận từ 1.2 đến 1.9 điểm phần trăm.
- Một khảo sát với hơn 50 giám đốc điều hành trong ngành bán lẻ cho thấy 90% đã bắt đầu thử nghiệm các giải pháp gen AI.
- Chỉ có 2% giám đốc điều hành cho biết đã triển khai thành công gen AI trên quy mô lớn trong tổ chức của họ.
- Những thách thức lớn trong việc áp dụng gen AI bao gồm chất lượng dữ liệu, lo ngại về quyền riêng tư, và thiếu hụt nguồn lực và chuyên môn.
- Các công ty thành công trong việc áp dụng gen AI thường tập trung vào các lĩnh vực cụ thể và chuyển đổi từ thử nghiệm sang triển khai quy mô lớn.
- Gen AI có thể cải thiện hiệu suất trong chuỗi giá trị bán lẻ, bao gồm tiếp thị, phân phối, và hoạt động nội bộ.
- Ví dụ, Amazon đã phát triển công cụ tạo hình ảnh bằng AI, giúp tăng tỷ lệ nhấp chuột quảng cáo lên đến 40%.
- Mercado Libre sử dụng "Copilots" để tăng năng suất của nhân viên phát triển phần mềm, giảm thời gian thực hiện nhiệm vụ lên tới 60%.
- Gen AI cũng có thể cải thiện trải nghiệm khách hàng thông qua các chatbot thông minh, giúp cá nhân hóa và nâng cao sự hài lòng của khách hàng.
- Các nhà bán lẻ đang thử nghiệm chatbot để tương tác với khách hàng, nhưng vẫn chưa tận dụng tối đa khả năng cá nhân hóa.
- Để mở rộng quy mô gen AI, các nhà bán lẻ cần xác định các lĩnh vực cần cải cách, nâng cao kỹ năng cho nhân viên, và thiết lập một đội ngũ liên chức năng.
- Việc đảm bảo chất lượng dữ liệu là rất quan trọng để cung cấp thông tin chính xác cho các mô hình AI.
- Gen AI không còn là một công nghệ mới mẻ mà đã trở thành một yếu tố cạnh tranh quan trọng trong ngành bán lẻ.
📌 Gen AI có tiềm năng tạo ra giá trị lớn cho ngành bán lẻ, với 90% nhà lãnh đạo đã thử nghiệm công nghệ này. Tuy nhiên, chỉ 2% đã triển khai thành công. Để mở rộng quy mô, cần tập trung vào các lĩnh vực cụ thể và đảm bảo chất lượng dữ liệu.
https://www.mckinsey.com/industries/retail/our-insights/llm-to-roi-how-to-scale-gen-ai-in-retail
#McKinsey
• AutoRAG 2.0 của Got It AI đạt được tỷ lệ ảo giác gần như bằng 0 trong ứng dụng RAG, với mục tiêu đạt độ chính xác 99,99% - tương đương mức SLA của điện toán đám mây.
• Hệ thống sử dụng mô hình TruthChecker để phát hiện, giải thích và sửa chữa ảo giác trong câu trả lời của chatbot trước khi gửi cho người dùng.
• AutoRAG 2.0 đạt tỷ lệ ảo giác dưới 0,015% khi sử dụng GPT-4 Turbo và 0,79% khi sử dụng mô hình nguồn mở Llama3-70B, vượt trội so với GPT-4o (0,92%).
• TruthChecker được huấn luyện chỉ trên dữ liệu công khai, không vi phạm điều khoản sử dụng của các mô hình độc quyền như OpenAI.
• Hệ thống áp dụng được cho nhiều lĩnh vực khác nhau mà không cần tinh chỉnh lại mô hình cho từng bộ dữ liệu doanh nghiệp cụ thể.
• AutoRAG 2.0 sử dụng kỹ thuật RAG nâng cao và hệ thống tạo metadata tự động GEMS để cải thiện độ chính xác của truy xuất và tạo câu trả lời.
• Quá trình huấn luyện TruthChecker bao gồm tạo dữ liệu tổng hợp bằng Llama3-70B, ghi chú bởi con người và tự động, và tinh chỉnh mô hình nền tảng như Mixtral-8x7B.
• Hệ thống được đánh giá trên nhiều biến thể ứng dụng RAG khác nhau, sử dụng GPT-4o hoặc Llama3-70B làm mô hình tạo câu trả lời.
• AutoRAG 2.0 giải quyết các vấn đề của doanh nghiệp như chia sẻ dữ liệu với bên thứ ba, chi phí suy luận LLM cao và thiếu kiểm soát cơ sở hạ tầng ML.
• Công nghệ này cho phép doanh nghiệp xây dựng ứng dụng RAG chính xác cao mà không cần sử dụng các mô hình độc quyền đắt tiền.
📌 AutoRAG 2.0 của Got It AI đạt được độ chính xác gần như tuyệt đối trong ứng dụng RAG, với tỷ lệ ảo giác chỉ 0,015% khi sử dụng GPT-4 Turbo và 0,79% với mô hình nguồn mở Llama3-70B. Hệ thống TruthChecker giúp phát hiện và sửa chữa ảo giác, mang lại giải pháp chatbot doanh nghiệp an toàn và đáng tin cậy.
https://www.app.got-it.ai/post/hallucination-free-enterprise-rag-with-decision-transparency
• JPMorgan Chase đã triển khai trợ lý AI tạo sinh có tên LLM Suite cho hơn 60.000 nhân viên trong vài tuần qua.
• LLM Suite giúp nhân viên thực hiện các công việc như viết email và báo cáo. Dự kiến phần mềm này sẽ phổ biến trong ngân hàng như Zoom.
• JPMorgan thiết kế LLM Suite như một cổng thông tin cho phép người dùng truy cập các mô hình ngôn ngữ lớn bên ngoài, bắt đầu với mô hình của OpenAI - công ty tạo ra ChatGPT.
• Ngân hàng có kế hoạch sử dụng linh hoạt nhiều mô hình AI khác nhau tùy theo mục đích sử dụng, không phụ thuộc vào một nhà cung cấp duy nhất.
• JPMorgan cấm nhân viên sử dụng ChatGPT từ năm ngoái để bảo vệ dữ liệu, nay cung cấp phiên bản được phê duyệt của ChatGPT thông qua LLM Suite.
• Công nghệ này được triển khai rộng rãi trong các bộ phận như ngân hàng bán lẻ, ngân hàng đầu tư, quản lý tài sản.
• JPMorgan đang thử nghiệm nhiều ứng dụng cho cả AI truyền thống và AI tạo sinh, một số đã đưa vào sử dụng.
• AI tạo sinh được sử dụng để tạo nội dung marketing, lập lịch trình cho khách hàng du lịch, tóm tắt cuộc họp cho cố vấn tài chính.
• AI truyền thống giúp xác định vị trí chi nhánh mới, hỗ trợ nhân viên tổng đài, ngăn chặn gian lận trong thanh toán toàn cầu.
• JPMorgan thận trọng hơn với AI tạo sinh tiếp xúc trực tiếp với khách hàng do rủi ro chatbot cung cấp thông tin sai.
• Ngân hàng dự đoán thị trường AI tạo sinh sẽ phát triển thành 5-6 mô hình nền tảng lớn chiếm ưu thế.
• JPMorgan đang thử nghiệm các mô hình LLM từ các công ty công nghệ lớn của Mỹ và mô hình nguồn mở để tích hợp vào cổng thông tin.
• Quá trình phát triển AI tạo sinh tại JPMorgan gồm 3 giai đoạn: cung cấp mô hình cho nhân viên, bổ sung dữ liệu độc quyền để tăng năng suất, và cuối cùng là AI hoạt động như tác nhân tự chủ thực hiện các tác vụ phức tạp.
• Công nghệ này có thể trao quyền cho một số nhân viên nhưng cũng thay thế những người khác, thay đổi cơ cấu ngành theo cách khó dự đoán.
• Theo Accenture, ngành ngân hàng dễ bị tự động hóa nhất trong các ngành. Citigroup dự đoán AI có thể tăng lợi nhuận ngành lên 170 tỷ USD trong 4 năm.
📌 JPMorgan Chase triển khai trợ lý AI tạo sinh LLM Suite cho 60.000 nhân viên, mở đầu kế hoạch ứng dụng AI toàn diện. Công nghệ này dự kiến sẽ tăng năng suất, tự động hóa nhiều công việc và có thể thay đổi cơ cấu ngành ngân hàng, với tiềm năng tăng lợi nhuận lên 170 tỷ USD trong 4 năm tới.
https://www.cnbc.com/2024/08/09/jpmorgan-chase-ai-artificial-intelligence-assistant-chatgpt-openai.html
• Theo khảo sát mới của Google Cloud và National Research Group, 74% công ty sử dụng AI tạo sinh cho ít nhất một ứng dụng đã thấy lợi nhuận đầu tư trong vòng 1 năm. Trong số đó, 86% báo cáo doanh thu tăng 6% trở lên.
• Khảo sát được thực hiện với 2.508 lãnh đạo cấp cao của các doanh nghiệp toàn cầu có doanh thu từ 10 triệu USD trở lên, từ ngày 23/2 đến 5/4 năm nay. 61% số người được hỏi cho biết họ sử dụng AI tạo sinh cho ít nhất một ứng dụng.
• Năng suất được cải thiện 45%, với 70% số người được hỏi cho rằng lợi ích đến từ quy trình CNTT và năng suất nhân viên. Các cải thiện khác bao gồm thời gian ra quyết định nhanh hơn và độ chính xác cao hơn.
• 63% coi AI là động lực tăng trưởng kinh doanh. Trung bình, các công ty thấy cải thiện trong việc tìm kiếm và thu hút khách hàng nhờ công cụ AI.
• Tuy nhiên, một khảo sát khác từ Upwork cho thấy AI khiến nhân viên khó làm việc hiệu quả hơn do sếp kỳ vọng tăng năng suất.
• 81% lãnh đạo cấp cao kỳ vọng nhiều hơn từ nhân viên, với 37% cho rằng công cụ AI nên giúp tăng sản lượng.
• 65% nhân viên tin AI có thể tăng năng suất, nhưng 47% không biết cách sử dụng AI trong công việc do thiếu đào tạo.
• Google nhấn mạnh tầm quan trọng của chiến lược toàn diện để áp dụng AI, bắt đầu từ quy mô nhỏ và tập trung vào các lĩnh vực kinh doanh cốt lõi.
• 74% nhân viên tin rằng công ty cần thay đổi cách đánh giá năng suất, tập trung hơn vào sáng tạo, đổi mới và xây dựng quan hệ khách hàng.
• Các doanh nghiệp áp dụng sớm AI tạo sinh đang thấy lợi nhuận đầu tư, nhưng cần có sự tham gia của nhân viên trong quá trình này.
📌 Khảo sát cho thấy 86% doanh nghiệp tăng doanh thu 6% nhờ AI tạo sinh, với 74% thấy lợi nhuận đầu tư trong 1 năm. Tuy nhiên, 47% nhân viên thiếu đào tạo về AI và 74% muốn thay đổi cách đánh giá năng suất. Doanh nghiệp cần chiến lược toàn diện và sự tham gia của nhân viên để tối ưu hóa lợi ích từ AI.
https://venturebeat.com/ai/86-of-enterprises-see-6-revenue-growth-with-gen-ai-use-according-to-google-cloud-survey/
• Theo khảo sát toàn cầu của McKinsey, 91% nhân viên đã sử dụng Gen AI cho công việc và phần lớn đều nhiệt tình với công nghệ này. 90% tin rằng Gen AI có thể tác động tích cực đến trải nghiệm làm việc.
• Tuy nhiên, chỉ 13% công ty đã triển khai nhiều trường hợp sử dụng Gen AI. Nhóm này được gọi là "người áp dụng sớm" và có tỷ lệ người dùng thường xuyên cao hơn.
• Để khai thác tiềm năng của Gen AI, các công ty cần áp dụng cách tiếp cận toàn diện để chuyển đổi cách thức hoạt động của toàn tổ chức với Gen AI. Công nghệ đơn thuần không tạo ra giá trị.
• McKinsey đề xuất 3 bước để chuẩn bị cho bước ngoặt tiếp theo của Gen AI:
1. Tái cấu trúc mô hình vận hành bằng cách chuyển tầm nhìn thành giá trị, từng lĩnh vực một. Ví dụ:
- Phát triển phần mềm: Gen AI có thể rút ngắn thời gian từ ý tưởng đến tạo mẫu, tự động hóa viết mã và kiểm thử.
- Marketing: Cá nhân hóa quy mô lớn, tăng tương tác và lòng trung thành của khách hàng.
- Dịch vụ khách hàng: Chủ động giải quyết vấn đề và đề xuất sản phẩm mới với chi phí thấp hơn.
2. Tái định hình chiến lược nhân tài và kỹ năng:
- 50% hoạt động công việc hiện tại có thể được tự động hóa từ 2030-2060.
- Các công ty cần nhanh chóng hiểu nhu cầu nhân tài và kỹ năng, áp dụng chiến lược đào tạo và đầu tư nâng cao kỹ năng.
- Tập trung vào đào tạo lại và nâng cao kỹ năng thay vì chỉ tuyển dụng.
3. Củng cố thay đổi để tiếp tục chuyển đổi:
- Thiết lập quản trị phù hợp cho Gen AI, thường là cấu trúc tập trung.
- Xử lý các thay đổi như một cuộc chuyển đổi thực sự với cơ sở hạ tầng, vai trò và tiêu chí đo lường được xác định rõ ràng.
- Giải quyết tư duy và hành vi của nhân viên thông qua mô hình ảnh hưởng: làm gương, thúc đẩy hiểu biết và niềm tin, xây dựng năng lực, củng cố cách làm việc mới.
📌 Gen AI đang ở điểm bùng phát với 91% nhân viên sử dụng nhưng chỉ 13% công ty triển khai nhiều ứng dụng. Để tận dụng tiềm năng, doanh nghiệp cần chuyển đổi toàn diện về mô hình vận hành, chiến lược nhân tài và quản trị. Hành động ngay để không bị tụt hậu trong tương lai.
https://www.mckinsey.com/capabilities/people-and-organizational-performance/our-insights/gen-ais-next-inflection-point-from-employee-experimentation-to-organizational-transformation#/
• Theo nghiên cứu Trends in AI for CRM của Salesforce, IDC ước tính các công ty đã đầu tư 16 tỷ USD vào giải pháp AI tạo sinh năm 2023 và sẽ đầu tư 140 tỷ USD vào năm 2027, với tốc độ tăng trưởng kép hàng năm (CAGR) là 70%.
• 92% các nhóm bán hàng, dịch vụ, tiếp thị hoặc thương mại đang xem xét đầu tư vào AI. AI là ưu tiên hàng đầu của các CEO và thường xuyên được thảo luận trong phòng họp hội đồng quản trị, Ban GĐ
• 56% nhân viên văn phòng tin rằng AI tạo sinh sẽ biến đổi vai trò của họ, nhưng chỉ 21% nói rằng công ty họ đã đưa ra chính sách rõ ràng về việc sử dụng AI.
• Miriam Vogel, Chủ tịch và CEO của Equal AI, nhấn mạnh tầm quan trọng của tính toàn diện và công bằng trong phát triển và triển khai AI. Bà kêu gọi nâng cao kiến thức về AI và sự tham gia của các cộng đồng đa dạng trong phát triển AI.
• Teresa Carlson, nhà đầu tư mạo hiểm tại General Catalyst, nhấn mạnh cần có cách tiếp cận dựa trên rủi ro đối với AI, đồng thời công nhận tiềm năng về các mối đe dọa an ninh mạng. Bà nhấn mạnh tốc độ đổi mới công nghệ nhanh chóng và nhu cầu về các công nghệ có thể theo kịp các mối đe dọa đang phát triển.
• Tiến sĩ David Bray nhấn mạnh sự cần thiết của cách tiếp cận thực tế đối với AI, kêu gọi các công ty và chính phủ ưu tiên trường hợp kinh doanh trước khi triển khai công nghệ AI. Ông cảnh báo về những rủi ro mà các tổ chức phải đối mặt khi áp dụng AI mà không hiểu đầy đủ về tác động của nó.
• Các chuyên gia nhấn mạnh tầm quan trọng của sự hợp tác giữa ngành công nghiệp, chính phủ và các tổ chức phi lợi nhuận trong việc định hình tương lai của AI. Họ nhấn mạnh sự cần thiết của quan hệ đối tác công-tư, tài trợ của chính phủ và đầu tư vốn mạo hiểm để thúc đẩy đổi mới AI có trách nhiệm.
• Các diễn giả nhấn mạnh nhu cầu tiếp tục giáo dục và đào tạo để chuẩn bị lực lượng lao động cho một thế giới ngày càng bị định hình bởi AI. Họ nhấn mạnh tầm quan trọng của kiến thức về AI, đặc biệt là đối với thế hệ trẻ, để đảm bảo AI được sử dụng một cách có trách nhiệm và hiệu quả.
• Các chuyên gia đồng ý về sự cần thiết của cách tiếp cận thực tế, toàn diện và có trách nhiệm đối với AI, đảm bảo rằng lợi ích của nó được chia sẻ cho tất cả mọi người. Họ cũng nhất trí về tầm quan trọng của sự hợp tác, giáo dục và đầu tư trong việc định hình một tương lai nơi AI đóng vai trò là một lực lượng tích cực.
📌 Các chuyên gia AI hàng đầu nhấn mạnh tầm quan trọng của quản trị AI có trách nhiệm trong phòng họp hội đồng quản trị, Họ kêu gọi cách tiếp cận thực tế, toàn diện và có trách nhiệm, với sự hợp tác giữa ngành công nghiệp, chính phủ và xã hội. Đầu tư vào AI dự kiến tăng từ 16 tỷ USD năm 2023 lên 140 tỷ USD vào năm 2027.
https://www.zdnet.com/article/your-board-needs-no-nonsense-ai-leadership-these-experts-explain-why/
• Dự đoán về tác động của AI đến tăng trưởng kinh tế và tự động hóa ngày càng phổ biến. PwC dự báo AI có thể thúc đẩy GDP toàn cầu tăng 14% vào năm 2030, tạo ra 15,7 nghìn tỷ USD.
• 40% công việc thường ngày có thể được tự động hóa vào năm 2030. Goldman Sachs dự đoán đầu tư vào AI sẽ đạt 200 tỷ USD vào năm 2025.
• Tuy nhiên, hiện tại các doanh nghiệp gặp nhiều trở ngại khi muốn triển khai AI trên toàn doanh nghiệp. Chỉ 5,4% doanh nghiệp Mỹ đang sử dụng AI để sản xuất sản phẩm hoặc dịch vụ trong năm 2024.
• Để mở rộng quy mô AI, doanh nghiệp cần chuyển đổi về chiến lược và tổ chức trong cơ sở hạ tầng, quản trị dữ liệu và hệ sinh thái nhà cung cấp.
• 95% công ty đã sử dụng AI và 99% dự kiến sẽ sử dụng trong tương lai. Tuy nhiên, 76% mới triển khai AI trong 1-3 trường hợp sử dụng.
• 50% công ty kỳ vọng triển khai AI đầy đủ trong tất cả chức năng kinh doanh trong vòng 2 năm tới.
• Chi tiêu cho sẵn sàng AI dự kiến tăng đáng kể trong năm 2024. 90% người được hỏi dự kiến tăng chi tiêu cho sẵn sàng dữ liệu và các lĩnh vực liên quan.
• 40% dự kiến tăng chi tiêu 10-24%, 33% dự kiến tăng 25-49%.
• Khả năng lưu chuyển dữ liệu là một trong những thuộc tính quan trọng nhất để triển khai AI.
• Chất lượng dữ liệu là hạn chế lớn nhất đối với việc triển khai AI, được 50% người trả lời đề cập.
• 98% tổ chức sẵn sàng không phải là người đầu tiên sử dụng AI nếu điều đó đảm bảo triển khai an toàn và bảo mật.
• Quản trị, bảo mật và quyền riêng tư là yếu tố cản trở lớn nhất đối với tốc độ triển khai AI, được 45% người trả lời đề cập.
📌 99% doanh nghiệp dự kiến sử dụng AI trong tương lai, nhưng hiện chỉ 5,4% đang áp dụng. Chất lượng dữ liệu và quản trị là thách thức lớn nhất. 90% công ty sẽ tăng đầu tư cho sẵn sàng AI trong năm 2024, với 33% tăng 25-49%.
https://www.technologyreview.com/2024/08/05/1095447/a-playbook-for-crafting-ai-strategy/
#MIT
• "AI-first" là mô hình kinh doanh lấy AI làm nền tảng cho mọi công việc. Trong cách tiếp cận này, mọi quy trình làm việc đều bắt đầu với giả định có thể áp dụng AI. AI là lựa chọn mặc định, chỉ phát triển quy trình không dùng AI khi rủi ro quá cao.
• 10 tình huống sử dụng AI trong bộ phận bán hàng và tiếp thị:
- AI xác định đối tượng khách hàng có khả năng mua hàng cao nhất
- AI hỗ trợ xây dựng bài chào hàng, tạo nhiều phiên bản cho các đối tượng khác nhau
- AI tạo thông điệp bằng cách phân tích ngữ cảnh và lựa chọn hình ảnh/văn bản để tăng tỷ lệ phản hồi
- AI xếp hạng khách hàng tiềm năng và tự động tương tác qua chat/email để hỗ trợ mua hàng
- AI phân tích tâm trạng khách hàng trong chat để nhân viên có thể tiếp quản khi cần
- AI tạo hồ sơ khách hàng toàn diện để nhân viên bán hàng nắm rõ thông tin và tạo mối quan hệ nhanh chóng
- AI tự động lên lịch họp, ghi chép và lưu trữ để cải thiện dự báo bán hàng
- AI tạo báo cáo, dự báo tài chính và phân tích bán hàng/tiếp thị khác
- AI theo dõi lộ trình sản phẩm mới và tạo bài thuyết trình về tính năng/khả năng mới
- AI giám sát đối thủ cạnh tranh, tóm tắt thông tin từ hội nghị, sản phẩm mới, quảng cáo và mạng xã hội
• Phân tích cho thấy AI có thể thay thế tới 50% thời gian con người dành cho các công việc tiếp thị. Doanh nghiệp có thể giảm chi phí bán hàng/tiếp thị đồng thời tăng lợi nhuận.
• Con người vẫn đóng vai trò quan trọng trong việc xây dựng chiến lược dài hạn và thiết lập các chính sách, ranh giới cho AI hoạt động. Điều này đảm bảo AI không bỏ qua bức tranh tổng thể hoặc thực hiện các hành động phi đạo đức/bất hợp pháp như tăng giá trong thiên tai.
• Mặc dù AI rất giỏi trong các trò chơi như cờ vua, con người vẫn cần xác định chiến lược kinh doanh dài hạn và chính sách cho AI hoạt động, sau đó để AI "di chuyển các quân cờ trên bàn cờ".
📌 Cách tiếp cận "AI-first" có thể giúp doanh nghiệp tiết kiệm tới 50% thời gian cho các công việc tiếp thị, giảm chi phí và tăng lợi nhuận đáng kể. Tuy nhiên, con người vẫn đóng vai trò chiến lược quan trọng trong việc định hướng và kiểm soát hoạt động của AI.
https://bigthink.com/business/why-an-ai-first-business-plan-will-produce-stratospheric-startups/
• Chi phí AI vẫn là một vấn đề lớn đối với các doanh nghiệp. Công cụ AI của Google tính thêm 20 USD/tháng cho mỗi nhân viên, trong khi Copilot của Microsoft tốn 30 USD/tháng/người. Việc triển khai AI trực tiếp vào hệ thống công ty có thể tốn từ 5-20 triệu USD.
• Tuy nhiên, chi phí AI đang có xu hướng giảm. Mô hình Gemini mới nhất của Google mạnh mẽ hơn nhưng giá chỉ bằng một nửa so với phiên bản trước. OpenAI cho biết chi phí truy cập các mô hình của họ đã giảm 99% kể từ năm 2022.
• Anthropic dự đoán chi phí mô hình của họ có thể giảm còn 25% trong 1-2 năm tới. Công ty này đã giảm một nửa chi phí xây dựng mô hình gần đây thông qua các phương pháp nghiên cứu mới.
• Tại Trung Quốc, cuộc chiến giá đã khiến chi phí sử dụng AI tạo sinh giảm mạnh. Startup DeepSeek chỉ tính 0,14 USD/triệu token cho người dùng doanh nghiệp, trong khi mô hình tương tự của OpenAI có giá 10 USD.
• Nhiều doanh nghiệp nhận ra họ không cần AI mạnh nhất để tăng năng suất nhân viên, nên đang thử nghiệm các mô hình mã nguồn mở hoặc nhỏ hơn với chi phí thấp hơn.
• Tuy nhiên, vẫn còn câu hỏi lớn về tính hữu dụng của AI đối với lợi nhuận doanh nghiệp. Gartner dự đoán 30% dự án AI sẽ bị bỏ dở vào cuối năm 2025, chủ yếu do vấn đề này.
• Nếu công nghệ AI chỉ dừng lại ở chatbot và tóm tắt văn bản, nó có thể không đáng giá ngay cả với mức giá thấp hơn. Đây là vấn đề mà các công ty công nghệ cần giải quyết, thậm chí còn quan trọng hơn cả vấn đề chi phí.
📌 Chi phí AI đang giảm nhưng vẫn còn thách thức về hiệu quả sử dụng. 30% dự án AI có thể bị bỏ dở vào cuối 2025 do chưa mang lại lợi ích rõ ràng cho doanh nghiệp. Các công ty cần tập trung vào tăng tính hữu dụng của AI hơn là chỉ giảm chi phí.
https://www.bloomberg.com/opinion/articles/2024-08-05/ai-is-getting-cheaper-that-won-t-fix-all-of-big-tech-s-problems
• Theo ước tính của Microsoft, gần 60% công ty trong danh sách Fortune 500 đang sử dụng trợ lý AI Copilot của họ. Tuy nhiên, các diễn giả tại hội nghị Fortune Brainstorm AI Singapore tuần trước cảnh báo rằng các công ty cần vượt qua 3 khoảng cách về giá trị, sự tự tin và chuyên môn để tận dụng lợi ích của AI tạo sinh.
• Debanjan Saha, CEO của DataRobot, chỉ ra "khoảng cách giá trị" - khó khăn trong việc chuyển đổi sự phấn khích về AI thành kết quả kinh doanh cụ thể. Ông cũng đề cập đến "khoảng cách tự tin" khi các doanh nghiệp chưa đủ tự tin để đưa các ứng dụng AI vào sản xuất do lo ngại về độ chính xác.
• Về "khoảng cách chuyên môn", Saha cho rằng công ty không cần nhân viên có kiến thức sâu về AI, mà cần người biết sử dụng các mô hình để giải quyết vấn đề kinh doanh. Một yếu tố quan trọng khác là tìm cách "tránh vi phạm pháp luật" khi sử dụng AI.
• Vivek Luthra từ Accenture nhận xét rằng ngược với dự đoán, các ngành được quản lý chặt chẽ hơn lại đang sử dụng AI nhiều hơn. Ông khuyến nghị các công ty nên tiếp cận vấn đề từ góc độ chuyển đổi lực lượng lao động, xác định công việc tương lai và đào tạo nhân viên phù hợp.
• Luthra dẫn ví dụ một công ty thực phẩm và đồ uống đã sử dụng AI để tạo ra nội dung marketing cho cả năm chỉ trong 8 ngày, cho thấy tiềm năng tăng năng suất đáng kể.
• Cả hai diễn giả đều cảnh báo rằng không phải mọi công ty đều có thể áp dụng AI với tốc độ như nhau. Các công ty công nghệ và ít tài sản có thể linh hoạt hơn, trong khi các doanh nghiệp sản xuất cần nhiều thời gian hơn để ứng dụng công nghệ mới.
• Saha nhắc nhở rằng mục đích của AI tạo sinh là mang lại giá trị cho doanh nghiệp, và "thời kỳ trăng mật" sẽ không kéo dài. Việc chứng minh giá trị ngắn hạn, lợi nhuận đầu tư và một số thành công ban đầu là rất quan trọng.
📌 Các công ty cần vượt qua 3 khoảng cách về giá trị, tự tin và chuyên môn để tận dụng AI hiệu quả. Ví dụ điển hình là một công ty F&B tăng năng suất đáng kể, tạo nội dung marketing cả năm chỉ trong 8 ngày nhờ AI. Tuy nhiên, tốc độ áp dụng AI sẽ khác nhau giữa các ngành.
https://fortune.com/asia/2024/08/05/unlocking-ai-close-three-gaps-confidence-expertise-confidence-brainstorm-ai-singapore/
• Kore.ai vừa ra mắt nền tảng Express cho XO (Experience Optimisation) nhằm giúp người dùng không chuyên ở các doanh nghiệp nhỏ dễ dàng tạo chatbot AI và triển khai khả năng Contact Center.
• Nền tảng này giúp các doanh nghiệp nhỏ tận dụng công nghệ AI hội thoại tiên tiến để cải thiện trải nghiệm số, hiệu quả chi phí và tăng trưởng mà không cần chuyên môn về AI tạo sinh.
• Chatbot AI có thể tự động hóa đến 80% tương tác kinh doanh thông thường. Gartner dự đoán đến năm 2026, 75% giải pháp AI hội thoại sẽ tích hợp AI tạo sinh.
• Theo khảo sát của TechAisle, khoảng 60% doanh nghiệp nhỏ và vừa và 84% doanh nghiệp cỡ trung đang sử dụng hoặc có kế hoạch sử dụng AI tạo sinh.
• XO Express AI Automation cho phép triển khai chatbot AI cho các chức năng khác nhau trong vòng đời khách hàng như tiếp thị, bán hàng và hỗ trợ.
• Nền tảng này hoạt động trên nhiều hệ thống ghi chép, tạo ra trải nghiệm thương hiệu nhất quán và tránh chi phí quản lý chatbot AI từ nhiều nhà cung cấp khác nhau.
• XO Contact Centre AI Express giúp xây dựng Contact Center để quản lý cuộc gọi đến và chat web tốt hơn. Nó cũng nâng cao trải nghiệm thoại thông qua cổng thoại độc quyền.
• Theo CEO Raj Koneru, XO Express biến việc xây dựng chatbot AI thành trải nghiệm trực quan và thú vị, không cần hiểu biết chuyên sâu về AI hội thoại.
• Giải pháp này cho phép doanh nghiệp nhỏ tự do khám phá, đổi mới và mở rộng quy mô một cách hiệu quả về chi phí trong bối cảnh công nghệ thay đổi và kỳ vọng của khách hàng ngày càng cao.
📌 Kore.ai ra mắt nền tảng XO Express giúp doanh nghiệp nhỏ dễ dàng triển khai chatbot AI và Contact Center. Giải pháp này có thể tự động hóa 80% tương tác thông thường, phù hợp với xu hướng 75% giải pháp AI hội thoại sẽ tích hợp AI tạo sinh vào năm 2026.
https://www.ndtvprofit.com/technology/koreai-launches-platform-for-small-businesses-to-deploy-ai-chatbots-build-contact-centre
• Mô hình ngôn ngữ nhỏ (SLM) đang được chú ý sau khi OpenAI ra mắt GPT-4o mini, nhưng chuyên gia cảnh báo rằng những mô hình nhẹ và tiết kiệm chi phí này sẽ không phải là giải pháp toàn diện cho các doanh nghiệp.
• GPT-4o mini có hiệu suất tốt, đặc biệt trong lĩnh vực suy luận toán học. Nó đạt 82% về hiểu ngôn ngữ đa nhiệm và 87% về toán học đa ngôn ngữ cấp tiểu học.
• Ưu điểm lớn nhất của GPT-4o mini là chi phí. Với giá 5 cent cho mỗi triệu token đầu vào và 60 cent cho mỗi triệu token đầu ra, GPT-4o rẻ hơn 60% so với GPT-3.5 Turbo.
• Microsoft cũng đã ra mắt Phi 3 - một dòng SLM được thiết kế để việc tinh chỉnh hoặc tùy chỉnh dễ dàng và rẻ hơn, với yêu cầu tính toán thấp hơn.
• Chi phí của các mô hình phụ thuộc vào số lượng GPU cần thiết để triển khai. Mô hình càng nhỏ thì càng cần ít GPU và do đó chi phí càng thấp.
• Tuy nhiên, có một "lỗi ẩn" trong cuộc thảo luận về SLM. Mặc dù khả năng của chúng "đủ tốt để bắt đầu" nhưng không "đủ tốt để thực sự đưa vào sản xuất".
• SLM thường được xây dựng để xuất sắc trong các lĩnh vực cụ thể, tạo ra rào cản khi công ty cố gắng làm việc với các mô hình ngoài phạm vi khả năng của chúng.
• Người dùng nên cẩn thận khi đánh giá mục đích sử dụng SLM. Nếu phù hợp với các tiêu chuẩn mà mô hình đạt được cao nhất, người dùng sẽ thấy kết quả tích cực. Tuy nhiên, không nên kỳ vọng hiệu suất tốt trên tất cả các chức năng của SLM.
• Tương lai có thể sẽ không yêu cầu doanh nghiệp lựa chọn hoàn toàn giữa SLM và mô hình ngôn ngữ lớn (LLM). Không một mô hình nào có thể phục vụ đầy đủ cho các trường hợp sử dụng ở cấp độ doanh nghiệp, chuyên gia.
• Nhiều mô hình cần phải kết hợp với nhau - làm việc cùng nhau một cách đồng bộ - theo cách gần như tự động để đạt được kết quả mong muốn.
• Giống như doanh nghiệp hiện đang áp dụng chiến lược đa đám mây khi xây dựng kiến trúc đám mây, các công ty cũng cần suy nghĩ về tương lai AI của họ theo cách tương tự.
📌 SLM như GPT-4o mini của OpenAI có ưu điểm về chi phí, rẻ hơn 60% so với GPT-3.5 Turbo. Tuy nhiên, chúng có hạn chế về khả năng và phạm vi ứng dụng. Chuyên gia khuyến nghị doanh nghiệp nên xây dựng hệ sinh thái AI đa dạng, kết hợp nhiều mô hình để đáp ứng nhu cầu sử dụng ở cấp độ doanh nghiệp.
https://www.itpro.com/technology/artificial-intelligence/small-language-models-are-growing-in-popularity-but-they-have-a-hidden-fallacy-that-enterprises-must-come-to-terms-with
• Meta công bố kết quả kinh doanh Q2/2024 với doanh thu đạt 39 tỷ USD, tăng 22% so với cùng kỳ năm trước. Lợi nhuận đạt 13,5 tỷ USD, tăng 73%.
• Hàng ngày có 3,27 tỷ người sử dụng ít nhất một ứng dụng của Meta.
• CFO Susan Li nhấn mạnh rằng lợi nhuận từ các khoản đầu tư AI gần đây sẽ "đến trong một khoảng thời gian dài hơn".
• Zuckerberg tự tin rằng trợ lý AI Meta sẽ trở thành trợ lý được sử dụng nhiều nhất thế giới trước cuối năm nay.
• Meta đang chuẩn bị huấn luyện Llama 4, dự kiến ra mắt vào năm sau và cần gấp 10 lần sức mạnh tính toán so với Llama 3.1.
• Zuckerberg bày tỏ sự phấn khích về việc phát triển "các thế hệ kính AI trong tương lai" sau thành công ban đầu của kính thông minh Meta Ray-Bans.
• Doanh số Quest 3 đang vượt kỳ vọng của công ty. Một phiên bản rẻ hơn dự kiến sẽ được công bố tại hội nghị Connect vào tháng 9.
• Threads sắp đạt 200 triệu người dùng hàng tháng, tăng từ 175 triệu đầu tháng 7.
• Facebook đang tăng trưởng trở lại ở nhóm người dùng trẻ, đặc biệt là tại Mỹ.
• Meta đang đầu tư mạnh vào cơ sở hạ tầng AI, bao gồm phần cứng Nvidia, để chuẩn bị cho tương lai.
• Zuckerberg tin rằng doanh thu thực sự từ AI sẽ đến từ các ứng dụng kinh doanh như tạo quảng cáo tự động và chatbot AI cho dịch vụ khách hàng trên WhatsApp.
• Mặc dù metaverse dường như đã lùi về sau AI trong các quý gần đây, Zuckerberg vẫn nhấn mạnh tiềm năng của lĩnh vực này.
📌 Meta đang đặt cược lớn vào AI với doanh thu Q2/2024 đạt 39 tỷ USD (+22%) và lợi nhuận 13,5 tỷ USD (+73%). Zuckerberg tự tin vào tương lai AI, dự kiến ra mắt Llama 4 năm sau, đồng thời phát triển trợ lý AI Meta và kính AI thông minh.
https://www.theverge.com/2024/7/31/24210786/meta-earnings-q2-2024-ai-llama-zuckerberg
• IBM công bố báo cáo mới "Hướng dẫn Tổng giám đốc về AI tạo sinh: Tối ưu hóa Mô hình AI" dựa trên khảo sát các lãnh đạo CNTT tại Mỹ.
https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/ceo-generative-ai
• Báo cáo nhằm cung cấp thông tin hữu ích để CEO đưa ra quyết định sáng suốt về việc triển khai và tối ưu hóa AI trong tổ chức.
• Kết quả chính:
- Không có mô hình ngôn ngữ lớn (LLM) nào phù hợp với mọi tác vụ, cần lựa chọn mô hình phù hợp cho từng nhiệm vụ cụ thể.
- Doanh nghiệp hiện đang sử dụng trung bình 11 mô hình AI khác nhau và dự kiến tăng 50% trong 3 năm tới.
- 63% lãnh đạo cho rằng chi phí là rào cản lớn nhất để áp dụng AI tạo sinh.
- 58% coi độ phức tạp của mô hình là mối quan ngại hàng đầu.
• Các kỹ thuật tối ưu hóa như tinh chỉnh và kỹ thuật prompt có thể cải thiện độ chính xác của mô hình lên 25%, nhưng chỉ 42% lãnh đạo áp dụng thường xuyên.
• Doanh nghiệp dự kiến tăng 63% việc sử dụng mô hình mở trong 3 năm tới, cao hơn các loại mô hình khác.
• Shobhit Varshney từ IBM Consulting cho biết các lãnh đạo công nghệ hiểu rõ về các loại mô hình hiện có, trong khi các lãnh đạo cấp cao khác vẫn đang tìm hiểu về khả năng của LLM.
• Để tối ưu chi phí, doanh nghiệp có thể lưu trữ mô hình nội bộ hoặc sử dụng dịch vụ đám mây, tính phí dựa trên số token đầu vào/đầu ra.
• Báo cáo khuyến nghị sử dụng mô hình lớn cho các tác vụ phức tạp, quan trọng và mô hình chuyên biệt cho các ứng dụng đặc thù.
• Mô hình mở được ưa chuộng hơn nhờ cộng đồng rộng lớn hỗ trợ đánh giá và củng cố hệ thống AI, cũng như khả năng tùy chỉnh cho từng lĩnh vực cụ thể.
• IBM Consulting giúp khách hàng xác định các quy trình và trường hợp sử dụng AI có tác động lớn nhất, sau đó chọn công nghệ phù hợp cho từng nhiệm vụ.
📌 IBM chỉ ra chi phí và độ phức tạp là rào cản chính cho AI doanh nghiệp. Doanh nghiệp đang sử dụng trung bình 11 mô hình AI, dự kiến tăng 50% trong 3 năm tới. 63% lãnh đạo coi chi phí là trở ngại lớn nhất. Mô hình mở được ưa chuộng hơn, dự kiến tăng 63% trong 3 năm.
https://venturebeat.com/ai/cost-and-model-complexity-remain-barriers-to-enterprise-ai-ibm-finds/
Báo cáo "Tái định hình chiến lược đám mây cho doanh nghiệp AI-first" của MIT Technology Review Insights và Infosys đánh giá mức độ sẵn sàng về đám mây và dữ liệu của doanh nghiệp khi triển khai AI.
- Khoảng 2/3 (67%) doanh nghiệp có cơ sở hạ tầng đám mây "phát triển" hoặc "tiên tiến", 1/3 còn lại ở mức "đang phát triển" hoặc "sơ khai". Chỉ 1/5 có hệ thống quản lý đám mây liền mạch.
- Gần một nửa (48%) đang thử nghiệm AI, nhưng chỉ 8% tích hợp toàn diện AI vào hoạt động. Các công ty đang thử nghiệm hoặc tích hợp AI kỳ vọng vào nhiều ứng dụng như tăng cường an ninh mạng, hợp lý hóa chia sẻ dữ liệu.
- Các chiến lược tối ưu hóa hệ thống đám mây để hỗ trợ AI khá đa dạng. 50% chỉ dùng dịch vụ đám mây để tích hợp dữ liệu cho AI. 30% dùng cơ sở hạ tầng đám mây cho năng lực tính toán. Chỉ 13% có "lộ trình chi tiết" về cách đầu tư đám mây thúc đẩy triển khai AI.
- Những rào cản với hệ thống AI sẵn sàng trên đám mây gồm: tính phức tạp, bảo mật, an toàn và thách thức về dữ liệu. 45% lo ngại về bảo mật dữ liệu, sử dụng dữ liệu có đạo đức, quyền riêng tư và an toàn tổng thể. 45% cho rằng các dự án AI phức tạp, 36% gặp thách thức về dữ liệu. 1/3 cho rằng cần cải thiện năng lực của đội ngũ IT.
- 71% kỳ vọng chi tiêu cho cơ sở hạ tầng đám mây phục vụ AI sẽ tăng ít nhất 25% trong 2 năm tới. 27% dự đoán tăng 50-100%. Chỉ 5% tin rằng đầu tư sẽ giữ nguyên và không ai kỳ vọng giảm chi tiêu.
📌 Hầu hết các công ty đang trong giai đoạn thử nghiệm và chuẩn bị cơ sở hạ tầng đám mây cho AI. Nhiều công ty đang lên kế hoạch đầu tư thêm để đẩy nhanh tiến độ. 71% doanh nghiệp dự kiến sẽ tăng chi tiêu cho cơ sở hạ tầng đám mây phục vụ AI ít nhất 25% trong 2 năm tới. Tuy nhiên, việc triển khai AI vẫn gặp nhiều rào cản như lo ngại về bảo mật, quyền riêng tư, đạo đức sử dụng dữ liệu và sự phức tạp của các dự án AI.
https://www.technologyreview.com/2024/07/31/1094228/reimagining-cloud-strategy-for-ai-first-enterprises/
#MIT
• Lịch sử công nghệ doanh nghiệp thường xoay quanh sự luân phiên giữa tập trung hóa và phân tán hóa.
• Tập trung hóa thúc đẩy phát triển ban đầu của các công nghệ đổi mới, với nguồn lực tập trung vào một số ít địa điểm.
• Phân tán hóa bắt đầu khi công nghệ đi vào thị trường, với các ứng dụng thực tế khác nhau trong các ngành và khu vực địa lý.
• AI đang trải qua quá trình chuyển đổi tương tự, chỉ trong vòng 20 tháng kể từ khi ChatGPT đưa AI vào tâm điểm chú ý.
• Có sự chuyển dịch từ cách tiếp cận tập trung sang phân tán hơn đối với AI, do sự phát triển từ AI tạo sinh sang AI suy luận.
• AI tạo sinh tạo ra nội dung mới như văn bản, hình ảnh, âm nhạc. AI suy luận đưa ra dự đoán dựa trên dữ liệu hiện có.
• AI tạo sinh ưu tiên tài nguyên tập trung, quy mô lớn về dữ liệu và xử lý.
• AI suy luận ưu tiên cách tiếp cận phân tán hơn, đòi hỏi phải gần nguồn dữ liệu để phân tích thời gian thực.
• Tốc độ nhanh đòi hỏi độ trễ thấp, cần đặt AI suy luận gần nguồn dữ liệu, ưu tiên kiến trúc biên khu vực.
• Doanh nghiệp nhỏ và vừa kỳ vọng AI là một phần của các bản nâng cấp phần mềm họ đang sử dụng.
• Các đối tác cơ sở hạ tầng số cần cung cấp khả năng truyền tải dữ liệu nhanh chóng, an toàn đến các trung tâm xử lý tập trung và khả năng chuyên dụng khu vực.
• Sự phát triển của AI cho thấy nó sẽ đi theo con đường từ đổi mới tập trung đến sử dụng phân tán.
• Doanh nghiệp đang tìm kiếm các trường hợp sử dụng và ứng dụng AI có thể mang lại lợi thế cạnh tranh nhanh hơn.
📌 AI đang chuyển từ tập trung sang phân tán, với AI tạo sinh ưu tiên tài nguyên tập trung và AI suy luận hướng tới kiến trúc biên. Doanh nghiệp cần đối tác cơ sở hạ tầng số linh hoạt để tận dụng cả hai loại AI, tìm kiếm ứng dụng mang lại lợi thế cạnh tranh nhanh chóng.
https://www.datacenterdynamics.com/en/opinions/from-the-center-to-the-edge-and-back-again-the-path-of-ai/
• Microsoft đang chiếm ưu thế trong chi tiêu AI của doanh nghiệp, ước tính chiếm khoảng 70% chi tiêu phần mềm AI trong 12 tháng qua.
• Sự thống trị của Microsoft một phần nhờ vào công cụ Copilot có thể tích hợp với bộ sản phẩm hiện có và mối quan hệ với OpenAI, có mô hình GPT chạy trên cơ sở hạ tầng đám mây Azure của Microsoft.
• Doanh thu mảng đám mây Azure của Microsoft tăng 29% trong quý kết thúc ngày 30/6, thấp hơn một chút so với dự báo 30% của các nhà phân tích.
• Ngược lại, Alphabet (công ty mẹ của Google) báo cáo tăng trưởng doanh thu chậm lại trong quý 2 dù đã đầu tư mạnh vào AI.
• Các chuyên gia nhận định chi tiêu AI của doanh nghiệp đã bớt điên cuồng hơn so với một năm trước. Các công ty đang tập trung vào các ứng dụng AI đơn giản và hạn chế.
• IDC dự báo chi tiêu cho AI tạo sinh sẽ tăng từ 19,4 tỷ USD năm 2023 lên 38,8 tỷ USD năm 2024.
• Copilot for Microsoft 365 được coi là công cụ phổ biến nhất để các công ty thử nghiệm AI, một phần vì bộ Microsoft 365 được sử dụng rộng rãi.
• Nhiều CIO cho biết cũng đang sử dụng GitHub Copilot của Microsoft để hỗ trợ lập trình.
• City Furniture đang sử dụng GitHub Copilot cho khoảng 80 kỹ sư và nhân viên công nghệ, đồng thời thử nghiệm Copilot for Microsoft 365 với khoảng 5% lực lượng lao động.
• Tuy nhiên, CIO của City Furniture cho biết chưa hoàn toàn bị thuyết phục bởi Copilot for Microsoft 365, những người được cấp quyền truy cập không sử dụng nó hàng ngày hoặc tích hợp đầy đủ vào quy trình làm việc.
• Nhiều khoản chi tiêu cho AI tạo sinh hiện nay là để thử nghiệm, và vẫn còn nghi ngờ về giá trị mà Copilot for Microsoft 365 mang lại với mức giá 30 USD/người dùng.
• Ngân sách hoạt động CNTT của thương hiệu quần áo Carhartt cho năm tài chính hầu như không đổi, nhưng CIO đảm bảo một số quỹ dành cho AI tạo sinh, chiếm tỷ lệ phần trăm một con số trong tổng ngân sách CNTT.
• Tại Radisson Hotel Group, chi tiêu cho AI tạo sinh và công nghệ mới nổi xếp thứ 3 về ưu tiên, sau việc thúc đẩy tăng trưởng kinh doanh và an ninh mạng.
📌 Microsoft chiếm 70% chi tiêu phần mềm AI doanh nghiệp trong 12 tháng qua nhờ Copilot và hệ sinh thái sẵn có. Tuy nhiên, các công ty đang thận trọng hơn, tập trung vào ứng dụng AI đơn giản. Dự báo chi tiêu AI tạo sinh tăng từ 19,4 tỷ USD (2023) lên 38,8 tỷ USD (2024).
https://www.wsj.com/articles/for-many-companies-spending-on-ai-means-spending-on-microsoft-1f994a02
#WSJ
• JPMorgan đang triển khai công cụ AI tạo sinh nội bộ có tên LLM Suite cho khoảng 50.000 nhân viên (15% lực lượng lao động), hỗ trợ các tác vụ như viết lách, tạo ý tưởng và tóm tắt tài liệu.
• Ngân hàng phát triển nền tảng LLM riêng do nhân viên bị cấm sử dụng chatbot AI công cộng như ChatGPT hay Gemini cho công việc vì lý do bảo mật.
• CEO Jamie Dimon khẳng định AI đang là một thực thể sống động và sẽ được áp dụng vào mọi quy trình của ngân hàng, có thể thay thế một số công việc.
• JPMorgan đã tích hợp AI tạo sinh vào nhiều dịch vụ, chủ yếu để tạo ý tưởng và ghi chú. AI có thể cung cấp thông tin chi tiết bổ sung hoặc nhấn mạnh các điểm quan trọng.
• Quest IndexGPT là công cụ nổi bật của JPMorgan, sử dụng GPT-4 để phân tích tin tức và tạo ra các chủ đề đầu tư theo từ khóa.
• Năm 2023, JPMorgan phát triển công cụ AI phân tích các tuyên bố của Cục Dự trữ Liên bang Mỹ để phát hiện tín hiệu giao dịch.
• Ngân hàng hiện có hơn 2.000 chuyên gia AI và machine learning, sử dụng AI trong hơn 400 lĩnh vực như marketing, phát hiện gian lận và quản lý rủi ro.
• JPMorgan đang tích cực tuyển dụng trong lĩnh vực AI với hơn 75 vị trí đang mở, mức lương cạnh tranh từ 129.250 đến 195.000 USD/năm tùy vị trí và kinh nghiệm.
• Các công cụ AI mới của JPMorgan bao gồm DocGraphLM để phân tích tài liệu, DocLLM để hiểu tài liệu đa phương thức và FlowMind để tự động hóa tạo quy trình công việc.
• Các ngân hàng lớn khác cũng đang triển khai AI tạo sinh:
- Goldman Sachs đang triển khai công cụ AI tạo sinh cho hàng nghìn nhà phát triển
- Citigroup cung cấp quyền truy cập AI tạo sinh cho 40.000 lập trình viên
- Wells Fargo tích hợp AI vào trợ lý ảo Fargo
- Morgan Stanley ra mắt ứng dụng AI thứ hai cho cố vấn tài chính
- Bloomberg giới thiệu BloombergGPT được đào tạo với hơn 50 tỷ tham số
📌 JPMorgan dẫn đầu xu hướng AI trong ngành ngân hàng với LLM Suite, áp dụng cho 50.000 nhân viên. AI đang được tích hợp vào hơn 400 lĩnh vực, từ phân tích đến dịch vụ khách hàng. Các ngân hàng lớn khác cũng đang nhanh chóng triển khai các giải pháp AI tạo sinh riêng.
https://analyticsindiamag.com/ai-origins-evolution/jpmorgan-has-a-genai-problem/
• AI đang được các công ty công nghệ lớn quảng bá rầm rộ như một công cụ mạnh mẽ, nhưng thực tế ứng dụng và lợi ích của nó đối với doanh nghiệp nhỏ vẫn còn nhiều tranh cãi.
• Năm nay đã chứng kiến sự gia tăng đáng kể về sa thải so với năm ngoái, với khoảng 60.000 đến 200.000 việc làm bị cắt giảm. Tesla sa thải hơn 10% nhân viên nhưng bắt đầu tuyển 800 nhân viên mới tập trung vào AI và robot.
• Các gã khổng lồ công nghệ như Meta, Facebook, Google và Apple mô tả AI như một giải pháp kỳ diệu có thể tự động hóa quy trình, tăng năng suất và tạo ra nguồn doanh thu mới. Tuy nhiên, thực tế triển khai và lợi ích cụ thể lại kém rõ ràng hơn nhiều đối với các doanh nghiệp nhỏ không có nguồn lực dồi dào.
• Các doanh nghiệp nhỏ, đặc biệt là những doanh nghiệp có doanh thu từ 4 triệu đến 30 triệu USD, thường bị choáng ngợp bởi chiến dịch marketing ồ ạt về AI. Khoảng cách giữa lợi ích tiềm năng được quảng cáo và ứng dụng thực tế cho doanh nghiệp nhỏ vẫn còn rất lớn.
• Tỷ lệ áp dụng AI trong các doanh nghiệp nhỏ vẫn rất thấp. Nhiều chủ doanh nghiệp nhỏ xem AI là công cụ dành cho các tập đoàn lớn có nguồn lực kỹ thuật và chuyên môn dồi dào. Họ gặp khó khăn trong việc tích hợp AI vào hoạt động mà không cần đầu tư và gián đoạn đáng kể.
• Việc triển khai AI có thể gây lo ngại, đặc biệt khi kèm theo nỗi sợ lỗi thời. Chủ doanh nghiệp nhỏ lo lắng việc áp dụng AI có thể đòi hỏi nhiều thời gian, tiền bạc và kiến thức kỹ thuật hơn họ hiện có.
• Mặc dù có những ưu điểm như tạo nội dung - bài đăng mạng xã hội, bài viết blog và tài liệu marketing, vẫn có sự hoài nghi về khả năng tạo ra doanh thu đáng kể của AI cho doanh nghiệp nhỏ.
• Giá trị thực của AI nằm ở khả năng hỗ trợ nỗ lực của con người thay vì thay thế hoàn toàn, giúp doanh nghiệp nhỏ hoạt động hiệu quả hơn trong khuôn khổ hiện có.
• AI là một công cụ mạnh mẽ, nhưng thực tế đối với doanh nghiệp nhỏ phức tạp hơn. Đó không phải là giải pháp thần kỳ cho mọi chủ doanh nghiệp.
• Điểm mạnh chính của AI là khả năng hỗ trợ các tác vụ cụ thể như tự động hóa quy trình lặp đi lặp lại, phân tích bộ dữ liệu lớn và cung cấp thông tin chi tiết dựa trên các mẫu nó xác định. Tuy nhiên, vẫn cần sự giám sát và can thiệp đáng kể của con người.
📌 AI đang được quảng bá mạnh mẽ nhưng chưa thực sự hữu ích cho doanh nghiệp nhỏ. Tỷ lệ áp dụng thấp do thiếu nguồn lực và lo ngại về chi phí. AI chủ yếu hỗ trợ một số tác vụ cụ thể, chưa tạo ra doanh thu đáng kể. Vẫn cần sự giám sát của con người.
https://www.forbes.com/sites/louismosca/2024/07/29/ai-is-a-powerful-tool-but-not-for-small-businesses/
• HPE đang dẫn đầu cuộc cách mạng AI với các giải pháp nâng cao năng suất và tối ưu hóa hoạt động kinh doanh. Họ giúp doanh nghiệp phát triển bằng cách xây dựng lợi thế AI, tận dụng sức mạnh siêu máy tính và tối ưu hóa hiệu suất AI.
• HPE hợp tác với các công ty hàng đầu như NVIDIA và tích hợp với HPE GreenLake để tạo ra nền tảng AI mạnh mẽ, kết hợp tính linh hoạt của đám mây với khả năng kiểm soát tại chỗ.
• Nền tảng dữ liệu vững chắc là chìa khóa để triển khai AI thành công. HPE thống nhất dữ liệu trên các môi trường đám mây lai, đảm bảo quản lý và nhất quán dữ liệu tối ưu. Các thành phần chính bao gồm cơ sở hạ tầng dành riêng cho AI, hợp tác với các công ty hàng đầu và tích hợp HPE GreenLake.
• Giải pháp AI của HPE được thiết kế để tăng năng suất ngay từ ngày đầu tiên. HPE Private Cloud AI cung cấp giải pháp chìa khóa trao tay bao gồm tất cả các lớp công nghệ AI, mang lại năng suất tức thì và truy cập dữ liệu thống nhất.
• Doanh nghiệp có thể hưởng lợi từ việc phát triển ứng dụng AI liền mạch, tích hợp AI trên toàn tổ chức và sử dụng sức mạnh siêu máy tính của HPE để xử lý các tác vụ đòi hỏi tính toán phức tạp.
• HPE tập trung vào chuẩn bị dữ liệu, đẩy nhanh thời gian tạo giá trị và mở rộng quy mô giải pháp AI để đáp ứng nhu cầu kinh doanh ngày càng phát triển.
• Các ngành như bán lẻ, dịch vụ tài chính và chăm sóc sức khỏe đang được hưởng lợi từ việc áp dụng AI. Ví dụ, AI giúp cá nhân hóa trải nghiệm mua sắm trong bán lẻ, phát hiện gian lận trong dịch vụ tài chính và dự đoán chăm sóc bệnh nhân trong y tế.
• HPE GreenLake tạo ra một môi trường AI liền mạch cân bằng giữa tính linh hoạt của đám mây, khả năng kiểm soát và bảo mật của cơ sở hạ tầng tại chỗ. Điều này không chỉ hỗ trợ các ứng dụng AI đòi hỏi dữ liệu lớn mà còn đảm bảo tuân thủ các tiêu chuẩn quy định và chủ quyền dữ liệu.
• Các công ty dược phẩm có thể đẩy nhanh quá trình khám phá thuốc thông qua tính toán tốc độ cao với khả năng siêu máy tính của HPE.
📌 HPE đang dẫn đầu cuộc cách mạng AI với giải pháp toàn diện, từ cơ sở hạ tầng đến ứng dụng. Hợp tác với NVIDIA và tích hợp HPE GreenLake tạo nền tảng AI mạnh mẽ, giúp doanh nghiệp tăng năng suất 30% và tối ưu hóa quản lý dữ liệu trên nhiều lĩnh vực.
https://economictimes.indiatimes.com/tech/artificial-intelligence/unlock-the-future-with-ai-how-hewlett-packard-enterprise-ai-solutions-can-transform-your-business/articleshow/112113404.cms
- Gartner dự đoán ít nhất 30% dự án AI tạo sinh (GenAI) sẽ bị bỏ rơi sau giai đoạn chứng minh khái niệm (PoC) vào cuối năm 2025.
- Các lý do chính bao gồm chất lượng dữ liệu kém, kiểm soát rủi ro không đầy đủ, chi phí leo thang hoặc giá trị kinh doanh không rõ ràng.
- Các tổ chức đang gặp khó khăn trong việc chứng minh và thực hiện giá trị từ các khoản đầu tư vào GenAI.
- Chi phí phát triển và triển khai các mô hình GenAI dao động từ 5 triệu đến 20 triệu USD, tùy thuộc vào phương pháp triển khai.
- Không có giải pháp phù hợp cho tất cả với GenAI và chi phí không dễ dự đoán như các công nghệ khác.
- GenAI đòi hỏi mức độ chấp nhận cao hơn đối với các tiêu chí đầu tư tài chính gián tiếp, tương lai so với lợi nhuận đầu tư ngay lập tức (ROI).
- Theo khảo sát gần đây của Gartner, những người được hỏi báo cáo tăng doanh thu trung bình 15,8%, tiết kiệm chi phí 15,2% và cải thiện năng suất 22,6%.
- Dữ liệu này là điểm tham chiếu quý giá để đánh giá giá trị kinh doanh thu được từ đổi mới mô hình kinh doanh GenAI.
- Bằng cách phân tích giá trị kinh doanh và tổng chi phí của đổi mới mô hình kinh doanh GenAI, các tổ chức có thể thiết lập ROI trực tiếp và tác động giá trị trong tương lai.
- Nếu kết quả kinh doanh đáp ứng hoặc vượt quá kỳ vọng, đó là cơ hội để mở rộng đầu tư bằng cách mở rộng quy mô đổi mới và sử dụng GenAI.
📌 Gartner dự báo 30% dự án AI tạo sinh sẽ thất bại vào cuối 2025 do nhiều thách thức. Chi phí triển khai dao động từ 5-20 triệu USD. Khảo sát cho thấy GenAI giúp tăng doanh thu 15,8%, tiết kiệm chi phí 15,2% và cải thiện năng suất 22,6%. Phân tích giá trị và chi phí giúp ra quyết định đầu tư hiệu quả.
https://www.gartner.com/en/newsroom/press-releases/2024-07-29-gartner-predicts-30-percent-of-generative-ai-projects-will-be-abandoned-after-proof-of-concept-by-end-of-2025
• Cổ phiếu của SAP đạt mức cao kỷ lục vào thứ Ba sau khi công bố kết quả kinh doanh quý 2, cho thấy vẫn còn nhiều cơ hội hỗ trợ doanh nghiệp chuyển dữ liệu và ứng dụng lên đám mây trong thời đại AI bùng nổ.
• SAP đã báo cáo tăng trưởng ổn định trong 3 quý gần đây, trong khi các đối thủ phần mềm đám mây như Salesforce và Workday đang phải chứng minh khả năng thu hút khách hàng trước sự cạnh tranh của các sản phẩm AI mới.
• Kết quả kinh doanh của SAP và IBM là điểm sáng khi thị trường chứng khoán giảm mạnh vào thứ Tư, xóa sổ hàng trăm tỷ USD giá trị của nhóm cổ phiếu công nghệ "Magnificent Seven".
• SAP nổi tiếng với hệ thống ERP giúp quản lý dữ liệu xuyên suốt các bộ phận như kế toán và nhân sự. Công ty đang chuyển đổi từ bán giấy phép tại trung tâm dữ liệu sang dịch vụ đám mây theo đăng ký.
• Hệ thống ERP đã là thiết yếu cho doanh nghiệp trong nhiều thập kỷ, khác với các chatbot AI mới nổi như ChatGPT. Các nhà đầu tư đặt cược vào công nghệ back-office "nhàm chán" nhưng có yếu tố AI đang là người chiến thắng tuần này.
• SAP mới chỉ chuyển khoảng 1/3 khách hàng lên đám mây nên vẫn còn nhiều dư địa phát triển. Khách hàng chuyển từ trung tâm dữ liệu lên đám mây sẽ chi tiêu gấp 2-3 lần.
• Hầu hết đổi mới AI đang diễn ra trên đám mây, tạo áp lực cho CIO phải triển khai AI và đẩy nhanh quá trình chuyển đổi lên đám mây.
• SAP đã công bố kế hoạch tái cơ cấu ảnh hưởng đến 9.000-10.000 việc làm để "tăng cường đầu tư vào các lĩnh vực tăng trưởng chiến lược, đặc biệt là AI kinh doanh".
• Công ty đã đầu tư vào 3 công ty AI tạo sinh là Aleph Alpha, Anthropic và Cohere. 20% các thương vụ trong quý 2 "bao gồm các trường hợp sử dụng AI cao cấp".
• Xu hướng ưu tiên hiện đại hóa hệ thống ERP cũng có lợi cho SAP. Ứng dụng ERP là loại thứ hai có khả năng chuyển lên đám mây trong 2 năm tới.
• Doanh thu đám mây của SAP chủ yếu đến từ việc tăng 33% doanh số ERP đám mây trong quý 2. Tổng doanh thu tăng 10% lên 8,29 tỷ euro, vượt kỳ vọng của các nhà phân tích.
📌 SAP đạt kỷ lục về giá cổ phiếu nhờ doanh số phần mềm đám mây tăng 33%, đặc biệt là ERP đám mây. Chiến lược chuyển đổi sang đám mây và đầu tư vào AI đang mang lại kết quả tích cực, giúp SAP vượt trội so với các đối thủ trong ngành công nghệ.
https://www.wsj.com/articles/sap-share-surge-shows-companies-cloud-strategies-are-alive-and-well-in-ai-boom-7ffff935
#WSJ
• Airtable, startup trị giá 11 tỷ USD trong lĩnh vực nền tảng không cần code, vừa công bố Cobuilder - công cụ AI có khả năng tạo ra các ứng dụng tùy chỉnh chỉ trong vài giây bằng cách sử dụng lệnh bằng ngôn ngữ tự nhiên.
• Kelly O'Shaughnessy, người đứng đầu sản phẩm cốt lõi và trưởng nhóm sản phẩm Airtable Cobuilder, nhấn mạnh Cobuilder là cách nhanh nhất để xây dựng ứng dụng không cần code, cho phép tạo ứng dụng tùy chỉnh bằng ngôn ngữ tự nhiên chỉ trong vài giây.
• Công nghệ đằng sau Cobuilder sử dụng các mô hình ngôn ngữ lớn (LLM) để diễn giải lệnh của người dùng và tạo ra cấu trúc ứng dụng phù hợp. Quá trình này có thể giảm đáng kể thời gian và nguồn lực cần thiết cho việc phát triển ứng dụng.
• Cobuilder phân tích lệnh bằng ngôn ngữ tự nhiên của người dùng và kết hợp yêu cầu với dữ liệu công khai có liên quan mà nhà cung cấp LLM có quyền truy cập.
• Airtable cam kết bảo vệ quyền riêng tư và bảo mật dữ liệu của khách hàng. Không có dữ liệu khách hàng nào được sử dụng để đào tạo các LLM hiện tại hoặc tương lai.
• Hiện tại, Cobuilder dựa vào dữ liệu công khai và thông tin do người dùng cung cấp để tạo ứng dụng. Airtable có kế hoạch nâng cao khả năng của Cobuilder, bao gồm khả năng kết hợp dữ liệu công ty hiện có từ Airtable và nhúng tự động hóa AI trong các ứng dụng được tạo ra.
• Việc ra mắt Cobuilder là một phần trong chiến lược rộng lớn hơn của Airtable nhằm tích hợp AI trên toàn bộ nền tảng. Trước đó, công ty đã giới thiệu Airtable AI, đã được các khách hàng lớn như AWS áp dụng.
• Kế hoạch trong tương lai bao gồm mở rộng khả năng trích xuất tài liệu và cho phép tích hợp tìm kiếm internet được hỗ trợ bởi AI.
• Đối với Airtable, động thái này thể hiện một canh bạc đáng kể về tương lai của phát triển phần mềm doanh nghiệp. Khi các doanh nghiệp ngày càng tìm cách trao quyền cho nhân viên phi kỹ thuật và giảm sự phụ thuộc vào quy trình phát triển truyền thống, các công cụ như Cobuilder có thể trở nên ngày càng hấp dẫn.
• O'Shaughnessy hình dung một tác động mang tính chuyển đổi, cho phép những người không phải chuyên gia và không phải nhà phát triển mô tả quy trình làm việc họ cần bằng ngôn ngữ đơn giản và sau đó Cobuilder giúp tạo ra một ứng dụng với thiết kế và cấu trúc hoạt động tốt nhất trong vài giây.
📌 Airtable ra mắt Cobuilder, công cụ AI tạo ứng dụng trong vài giây bằng ngôn ngữ tự nhiên. Tiềm năng cách mạng hóa phát triển phần mềm doanh nghiệp, giúp nhân viên phi kỹ thuật tạo ứng dụng phức tạp. Cam kết bảo mật dữ liệu khách hàng, kế hoạch mở rộng tính năng trong tương lai.
https://venturebeat.com/ai/forget-coding-bootcamps-airtables-ai-can-build-your-app-in-seconds/
• Gen AI đang thay đổi câu chuyện tự động hóa truyền thống. Trước đây, công nhân cổ xanh thường bị ảnh hưởng đầu tiên, trong khi lao động trí óc được hưởng lợi. Tuy nhiên, xu hướng này đang đảo ngược với sự xuất hiện của AI tạo sinh.
• Người lao động từ xa hiện dễ bị tự động hóa hơn do công việc của họ chủ yếu là kỹ thuật số. Nghiên cứu cho thấy 80% người lao động có công việc bị ảnh hưởng 10% bởi gen AI, trong khi 19% có công việc bị ảnh hưởng ít nhất 50%.
• Khảo sát của Microsoft cho thấy đến tháng 5/2024, 75% nhân viên đã sử dụng gen AI trong công việc hàng ngày - tăng gần gấp đôi so với tháng 1. 78% trong số đó tự áp dụng các công cụ này.
• Có 3 yếu tố chính thúc đẩy tự động hóa gen AI nhanh hơn dự kiến:
1. Dễ sử dụng: Gen AI đang được tích hợp vào các ứng dụng dễ dùng như Microsoft Copilot.
2. Doanh nghiệp đã sẵn sàng: Quá trình chuyển đổi số do Covid-19 đã tạo điều kiện thuận lợi cho việc áp dụng gen AI.
3. Gen AI ngày càng tự chủ: Các hệ thống như Devin có thể tự lập kế hoạch và thực hiện các nhiệm vụ phức tạp.
• Điều này có nghĩa là hàng triệu người lao động từ xa sẽ sớm phải đối mặt với những thay đổi lớn trong công việc, đòi hỏi phải nâng cao kỹ năng đáng kể.
• Các kỹ năng quản lý sẽ trở nên quan trọng hơn, bao gồm khả năng giám sát và phân công nhiệm vụ cho các phần mềm AI tự chủ.
• Các kỹ năng đặc thù về AI cũng sẽ cần thiết, như cách "thúc đẩy" các agent AI để đạt hiệu suất tốt nhất.
• Các công ty cần chú trọng đào tạo lại nhân viên để tận dụng tiềm năng của gen AI và duy trì lợi thế cạnh tranh.
• Theo dự báo của Upwork, 22% lực lượng lao động Mỹ sẽ làm việc từ xa hoàn toàn vào năm 2025.
• Nghiên cứu của Daniel Rock và đồng nghiệp tại OpenAI cho thấy nhân viên chăm sóc khách hàng có thể tăng năng suất 50% ở một nửa số nhiệm vụ nếu sử dụng gen AI.
• Khảo sát của Gartner vào tháng 10/2023 chỉ ra rằng 55% doanh nghiệp đang thử nghiệm hoặc triển khai các dự án sử dụng mô hình ngôn ngữ lớn (LLM).
📌 Gen AI đang thay đổi nhanh chóng cách làm việc của hàng triệu người lao động từ xa. Đến năm 2025, 22% lực lượng lao động Mỹ sẽ làm việc từ xa hoàn toàn. Các kỹ năng quản lý AI và đào tạo lại nhân viên sẽ là chìa khóa để doanh nghiệp tận dụng tiềm năng của công nghệ mới này.
https://hbr.org/2024/07/gen-ai-is-coming-for-remote-workers-first
#HBR
• Amazon Web Services (AWS) vừa công bố tính năng mới cho Connect Contact Lens, bộ công cụ AI dành cho công việc tổng đài, nhằm hỗ trợ nhân viên trong công việc sau cuộc gọi.
• Contact Lens cung cấp các công cụ sử dụng AI tạo sinh để tóm tắt các cuộc hội thoại giữa khách hàng và nhân viên tổng đài, giúp quản lý phân tích hiệu quả hơn.
• Tính năng này rất quan trọng vì người giám sát không thể dễ dàng nghe audio hoặc đọc bản ghi hàng trăm nghìn cuộc gọi để đảm bảo chất lượng và đánh giá hiệu suất.
• Michael Wallace, lãnh đạo kiến trúc giải pháp về trải nghiệm khách hàng tại AWS khu vực Mỹ, cho biết trước đây ngành tổng đài rất giỏi thu thập dữ liệu nhưng lại kém trong việc biến dữ liệu thành hành động cụ thể.
• AWS đã cung cấp tính năng tóm tắt AI tạo sinh sau cuộc gọi cho người giám sát, nhóm đảm bảo chất lượng và giám sát chất lượng vào tháng 3 như một phần của nâng cấp hệ thống báo cáo và phân tích.
• Với bản cập nhật mới, các bản tóm tắt tương tự sẽ được tạo ra trong vòng vài giây sau khi cuộc gọi kết thúc để nhân viên tổng đài có thể xem bản tóm tắt cuộc gọi cùng với các chi tiết liên quan khi làm báo cáo sau cuộc gọi.
• Nhân viên tổng đài thường phải làm rất nhiều "giấy tờ" kỹ thuật số sau mỗi cuộc gọi, bao gồm tóm tắt nội dung cuộc gọi, hành động đã thực hiện, giải pháp và thông tin cần thiết cho nhân viên tiếp theo.
• Với tính năng mới, một agent AI tạo sinh sẽ tạo ra bản tóm tắt chi tiết ghi lại các điểm thảo luận chính, vấn đề được nêu ra, hành động đã thực hiện và các bối cảnh quan trọng khác, đồng thời tạo ra ghi chú chi tiết cho nhân viên.
• Nhân viên có thể xem xét bản tóm tắt này, đưa vào ghi chú của mình và gửi đi trước khi chuyển sang cuộc gọi tiếp theo. Điều này sẽ giúp giảm thời gian dành cho công việc sau cuộc gọi và tối đa hóa thời gian làm việc với khách hàng.
• Connect Contact Lens có sẵn cho các bản tóm tắt chat và giọng nói thông qua API cũng như trên bảng điều khiển của nó. Điều này có nghĩa là nó có thể dễ dàng tích hợp với các ứng dụng tổng đài hoặc phần mềm phân tích khác như Amazon Connect Cases hoặc Salesforce.
📌 AWS ra mắt tính năng AI tạo sinh cho Connect Contact Lens, tự động tóm tắt cuộc gọi trong vài giây, giúp nhân viên tổng đài giảm thời gian làm việc sau cuộc gọi. Tính năng này có thể tích hợp với nhiều ứng dụng khác, hứa hẹn cải thiện đáng kể hiệu quả làm việc trong ngành tổng đài.
https://siliconangle.com/2024/07/22/aws-launches-generative-ai-powered-feature-connect-contact-lens-help-agents-call-centers/
- Báo cáo đánh giá cơ hội và thách thức khi triển khai AI tạo sinh trong doanh nghiệp. Cơ hội bao gồm cắt giảm chi phí, tự động hóa quy trình và tạo ra doanh thu mới thông qua các dịch vụ mới/tăng cường. Dự kiến AI tạo sinh sẽ mang lại giá trị hơn 400 tỷ USD cho các ngành dọc vào năm 2030.
- Tuy nhiên, việc triển khai AI tạo sinh trong doanh nghiệp gặp nhiều rào cản như thiếu nhân tài, chi phí cao, quản lý phức tạp, cấu trúc tổ chức chưa phù hợp, vấn đề sở hữu trí tuệ và dữ liệu, tiêu thụ năng lượng lớn.
- Các thách thức về công nghệ bao gồm tính minh bạch và khả năng giải thích của mô hình, độ tin cậy, tính sẵn có của dữ liệu huấn luyện, độ chính xác của mô hình.
- Các mô hình ngôn ngữ lớn (LLM) chưa sẵn sàng để triển khai ngay trong ứng dụng doanh nghiệp do các vấn đề về ảo giác, độ chính xác, hiệu suất, ngữ cảnh hóa và sử dụng tài nguyên tính toán.
- Các chiến lược triển khai AI tạo sinh trong doanh nghiệp bao gồm sử dụng dịch vụ API, dịch vụ quản lý của bên thứ ba, phát triển ứng dụng nội bộ, sử dụng nền tảng hoặc framework suy luận của bên thứ ba.
- Các mô hình ngôn ngữ nhỏ (SLM) đang nổi lên như một giải pháp thay thế phù hợp hơn cho các ứng dụng doanh nghiệp với chi phí thấp hơn, tính minh bạch cao hơn và khả năng triển khai linh hoạt hơn.
- Thị trường cung ứng AI rất rộng lớn và đang phát triển nhanh chóng với sự tham gia của nhiều bên như nhà sản xuất chip AI, nhà phát triển mô hình nền tảng, nhà cung cấp giải pháp MLOps, nhà phát triển ứng dụng, dịch vụ doanh nghiệp, dịch vụ đám mây.
- Các quy định về AI tạo sinh đang được phát triển ở các khu vực khác nhau trên thế giới với các cách tiếp cận khác nhau, từ tối thiểu đến hạn chế. Việc xây dựng một khuôn khổ quy định hiệu quả, cân bằng giữa đổi mới và rủi ro là một thách thức lớn.
📌 Mặc dù có nhiều cơ hội, việc triển khai AI tạo sinh trong doanh nghiệp vẫn đang ở giai đoạn đầu với giá trị tạo ra còn hạn chế, ước tính khoảng 36,7 tỷ USD vào năm 2024. Để đẩy nhanh quá trình này, cần có sự hợp tác giữa các bên liên quan nhằm giảm thiểu rủi ro, xây dựng khung quy định phù hợp và thúc đẩy đổi mới công nghệ.
Phân tích về các quy định AI tạo sinh đang được phát triển ở các khu vực trên thế giới như sau:
- Các quy định về AI tạo sinh đang được phát triển ở các khu vực khác nhau trên thế giới với các cách tiếp cận khác nhau, từ tối thiểu đến hạn chế. Việc xây dựng một khuôn khổ quy định hiệu quả, cân bằng giữa đổi mới và rủi ro là một thách thức lớn.
- Mỹ chủ trương tự quản lý, ít can thiệp trực tiếp vào quy định AI tạo sinh. Tuy nhiên, chính phủ Mỹ cũng đang quan tâm đến một số biện pháp kiểm soát như kiểm tra an toàn, tiêu chuẩn đáng tin cậy, giảm thiểu rủi ro, đổi mới công nghệ và giảm thiểu thiên vị kỹ thuật. Mỹ cũng đang hợp tác với Anh để phát triển các phương pháp đánh giá tính an toàn của các công cụ và hệ thống AI.
- EU xây dựng Đạo luật AI với khuôn khổ quy định dựa trên mức độ rủi ro, nhằm cung cấp cho nhà phát triển/triển khai các yêu cầu và nghĩa vụ rõ ràng liên quan đến việc sử dụng AI. Khuôn khổ này chia quy định thành rủi ro tối thiểu, hạn chế, cao và không thể chấp nhận được. Tuy nhiên, Đạo luật AI của EU đã bị chỉ trích rộng rãi vì được coi là "chống đổi mới".
- Trung Quốc duy trì sự kiểm soát của chính phủ, áp dụng các hướng dẫn bao gồm đánh giá an ninh, đăng ký, gắn nhãn nội dung được tạo ra, tiết lộ dữ liệu, minh bạch mô hình. Bất kỳ mô hình nào cũng phải được phê duyệt tập trung trước khi phát hành công khai. Điều này vừa hạn chế R&D mở, vừa cung cấp tài trợ để thúc đẩy đổi mới tiên tiến cho các công ty cụ thể.
- Anh đang xây dựng một khuôn khổ quy định dựa trên từng lĩnh vực cụ thể với sự quản lý trực tiếp hạn chế. Phụ thuộc vào tự quản lý của từng lĩnh vực để tạo ra một môi trường thúc đẩy đổi mới.
- Nhật Bản không áp đặt quy định trực tiếp, chỉ có các quy tắc mềm hạn chế nhằm tối đa hóa lợi ích xã hội và kinh tế từ AI.
📌Mỗi khu vực có cách tiếp cận riêng trong việc quản lý AI tạo sinh, từ nới lỏng đến kiểm soát chặt chẽ. Việc tìm ra một khuôn khổ quy định phù hợp, vừa khuyến khích đổi mới vừa hạn chế rủi ro là một thách thức lớn đối với các nhà hoạch định chính sách. Sự hợp tác quốc tế trong xây dựng các tiêu chuẩn và quy định chung là rất cần thiết để thúc đẩy sự phát triển lành mạnh và bền vững của công nghệ AI tạo sinh.
https://go.abiresearch.com/lp-assessing-enterprise-generative-ai-opportunities-and-challenges
• Mô hình ngôn ngữ nhỏ (SLM) đang trở thành xu hướng mới trong lĩnh vực AI, mang lại cơ hội cho các doanh nghiệp nhỏ và vừa tiếp cận công nghệ AI tiên tiến với chi phí thấp hơn.
• SLM là phiên bản thu nhỏ của các mô hình AI lớn, với số lượng tham số từ vài triệu đến vài tỷ, thay vì hàng trăm tỷ như GPT-3 hay GPT-4.
• Ưu điểm lớn nhất của SLM là khả năng chạy trên các thiết bị có khả năng xử lý hạn chế như điện thoại thông minh hay thiết bị IoT, mang AI đến gần hơn với người dùng cuối.
• Chi phí phát triển và triển khai SLM thấp hơn nhiều so với các mô hình lớn, giúp các startup có nguồn lực hạn chế vẫn có thể cạnh tranh với các gã khổng lồ công nghệ.
• SLM tiêu thụ ít năng lượng hơn, giảm chi phí vận hành và có lợi cho môi trường, phù hợp với xu hướng phát triển bền vững.
• Ưu thế lớn nhất của SLM là khả năng ứng dụng chuyên biệt trong các lĩnh vực ngách. Dù không đa năng như mô hình lớn, SLM có thể được tối ưu hóa để hoạt động hiệu quả trong các tác vụ cụ thể.
• SLM dễ dàng kiểm tra và cải thiện hơn do kích thước nhỏ, giúp giảm thiểu các vấn đề về đạo đức AI như thiên kiến.
• Khả năng triển khai cục bộ của SLM giúp bảo vệ thông tin nhạy cảm, phù hợp với các ngành như tài chính, y tế.
• SLM tạo cơ hội cho doanh nghiệp nhỏ bằng cách giảm rào cản gia nhập, cải thiện hiệu suất, rút ngắn thời gian ra thị trường, tạo ra các ứng dụng AI cạnh tranh.
• Trong tương lai, SLM có thể bổ sung hoặc thay thế các mô hình lớn trong một số ứng dụng nhất định, mở ra cơ hội đổi mới và cạnh tranh cho các công ty nhỏ hơn.
• Bằng cách tập trung vào lợi thế độc đáo của SLM, các doanh nghiệp có thể tạo ra các giải pháp AI sáng tạo, hiệu quả và mục tiêu, có tiềm năng cách mạng hóa nhiều ngành công nghiệp.
📌 SLM đang mở ra cơ hội cho doanh nghiệp nhỏ tiếp cận AI với chi phí thấp. Với ưu điểm về triển khai cục bộ, tiết kiệm năng lượng và ứng dụng chuyên biệt, SLM có thể thay đổi cục diện ngành AI, tạo sân chơi bình đẳng hơn cho các startup đổi mới sáng tạo.
https://www.entrepreneur.com/science-technology/no-more-chatgpt-heres-why-small-language-models-are/476700
• OpenAI vừa công bố các tính năng kiểm soát mới cho khách hàng doanh nghiệp sử dụng ChatGPT Enterprise, tập trung vào tuân thủ, bảo mật dữ liệu và mở rộng quy mô truy cập an toàn.
• API Tuân thủ Doanh nghiệp mới cho phép người dùng ChatGPT Enterprise có được bản ghi các tương tác có dấu thời gian cho cuộc hội thoại, tệp tải lên, metadata, bộ nhớ ChatGPT và người dùng workspace. Điều này giúp doanh nghiệp kiểm tra dữ liệu họ chia sẻ trên nền tảng.
• OpenAI đã hợp tác với nhiều nhà cung cấp tuân thủ bên thứ ba như Forcepoint, Global Relay, Microsoft Purview, Netskope, Palo Alto Networks, Relativity, Smarsh và zScaler để tích hợp vào API.
• Các tích hợp mới hỗ trợ nhiều hoạt động liên quan đến tuân thủ như lưu trữ, kiểm tra, xóa và lưu giữ dữ liệu, thực thi chính sách.
• Tính năng này giúp tổ chức, kể cả trong các lĩnh vực được quản lý chặt chẽ, có thể đáp ứng các quy định như GDPR, HIPAA và FINRA.
• OpenAI sẽ triển khai hệ thống quản lý danh tính để cấp quyền dễ dàng hơn. Hệ thống Quản lý Danh tính Xuyên miền (SCIM) đồng bộ hóa thông tin truy cập người dùng và cập nhật ai có thể sử dụng nền tảng.
• Tính năng SCIM cho phép quản lý tài khoản nhanh chóng cấp hoặc thu hồi quyền truy cập vào ChatGPT Enterprise. Nó có thể kết nối với các thư mục trên Okta Workforce, Microsoft Entra ID, Google Workspace và Ping.
• Quản trị viên tài khoản có quyền kiểm soát rộng hơn đối với các GPT tùy chỉnh do nhân viên tạo ra. Họ có thể thiết lập các dịch vụ mà GPT có thể kết nối với danh sách các tên miền được phê duyệt.
• Quản trị viên cũng có thể tạo nhóm người dùng, quản lý quyền chia sẻ, xóa GPT, chuyển quyền sở hữu và phê duyệt GPT bên ngoài.
• ChatGPT Enterprise được ra mắt vào năm 2023 như là lựa chọn trả phí thứ hai của OpenAI cho ChatGPT phổ biến. Nó cung cấp "bảo mật cấp doanh nghiệp", cửa sổ ngữ cảnh lớn hơn và thời gian kết quả nhanh hơn so với các sản phẩm trả phí khác.
• COO của OpenAI Brad Lightcap cho biết năm 2024 là "năm của doanh nghiệp" đối với công ty khi họ thấy sự tăng trưởng trong lĩnh vực này.
• ChatGPT Enterprise được cung cấp bởi GPT-4o của OpenAI, mặc dù công ty gần đây đã phát hành GPT-4o mini, một phiên bản nhỏ hơn của mô hình AI mới nhất.
📌 OpenAI tăng cường kiểm soát cho ChatGPT Enterprise với API tuân thủ mới, quản lý danh tính SCIM và quyền kiểm soát GPT tùy chỉnh rộng hơn. Các tính năng này giúp doanh nghiệp đáp ứng quy định như GDPR, HIPAA và mở rộng quy mô sử dụng an toàn, đánh dấu sự tập trung của OpenAI vào thị trường doanh nghiệp trong năm 2024.
https://venturebeat.com/ai/openai-gives-more-control-over-chatgpt-enterprise/
- Mặc dù lãi suất tại Mỹ đã tăng lên mức cao nhất trong 2 thập kỷ và đà tăng trưởng kinh tế đang chậm lại, chỉ số S&P 500 vẫn đẩy cao hơn, một phần nhờ sự cuồng nhiệt với cổ phiếu liên quan đến AI. Tuy nhiên, có 5 lý do để nghi ngờ triển vọng lạc quan này.
- Thứ nhất, AI vẫn đang trong giai đoạn đầu, khi chi phí đầu tư ban đầu đang diễn ra trước khi có thể thu được bất kỳ lợi ích năng suất đáng kể nào. Điều này thể hiện qua hiệu suất cổ phiếu của các nhóm: nhóm cung cấp cơ sở hạ tầng có mức tăng giá trị nhiều nhất, sau đó đến các công ty phần mềm, dịch vụ đám mây. Trong khi đó, định giá của các doanh nghiệp trong các ngành có tiềm năng tăng năng suất vẫn khá thấp.
- Thứ hai, vẫn chưa có ứng dụng "killer" của AI. Các ngành mà AI đang gây xáo trộn không thực sự sinh lời. Theo Erik Hoel, một nhà thần kinh học, càng dễ đào tạo AI để làm điều gì đó thì giá trị kinh tế của điều đó càng ít, do AI có xu hướng tạo ra những thứ ít giá trị kinh tế. Ví dụ, các ứng dụng hiện tại của AI tạo sinh như viết lách, tạo ảnh, video, tiếp thị tự động, xử lý thông tin không mang lại giá trị cao.
- Thứ ba, kế hoạch chi tiêu cho AI dường như chưa thực tế. Ước tính thô sơ cho thấy cần 600 tỷ USD doanh thu AI để hoàn vốn đầu tư. Barclays ước tính chi tiêu đầu tư tăng thêm cho AI từ 2023-2026 là 167 tỷ USD, đủ để hỗ trợ hơn 12.000 sản phẩm AI quy mô ChatGPT, nhưng không chắc có đủ nhu cầu từ người tiêu dùng và doanh nghiệp.
- Thứ tư, tác động kinh tế vĩ mô của AI vẫn chưa rõ ràng. Các nghiên cứu cho kết quả khác nhau, từ tăng 15% GDP (Goldman Sachs) đến chỉ tăng 0,9% GDP trong 10 năm tới (Acemoglu). Sự khác biệt này xuất phát từ các giả định mô hình khác nhau về tỷ lệ công việc có thể tự động hóa, tác động của việc tái phân bổ lao động và tiết kiệm chi phí.
- Thứ năm, môi trường kinh tế, xã hội, pháp lý rộng lớn hơn cũng cần thay đổi để nền kinh tế có thể tận dụng lợi ích của công nghệ và giảm thiểu tác hại. Các yếu tố quyết định tốc độ và mức độ chuyển đổi AI bao gồm năng lượng sạch, quy định và quản trị, sự tương tác với xã hội và kỹ năng của lực lượng lao động. Ví dụ, ngành AI có thể tiêu thụ lượng điện tương đương một quốc gia như Hà Lan vào năm 2027. Các quy định về AI đang chạy chậm hơn nhiều so với tốc độ phát triển công nghệ. Xã hội vẫn muốn sự tương tác với con người trong một số ngành như sáng tạo nội dung. Kỹ năng về AI của lực lượng lao động cũng cần thời gian để đáp ứng nhu cầu.
📌 Mặc dù đầu tư vào AI đang bùng nổ với kỳ vọng lớn, song vẫn còn nhiều nghi ngờ xung quanh khả năng ứng dụng thực tế trên diện rộng, tác động kinh tế vĩ mô và sự sẵn sàng của môi trường pháp lý, xã hội. Tuy nhiên, sự cuồng nhiệt hiện tại có thể là phương tiện cần thiết để đầu tư vào một công nghệ tiềm năng nhưng chưa được chứng minh. Cần phải xem xét lại các giả định một cách cẩn thận, vì những câu chuyện hấp dẫn có thể trở nên vô nghĩa nếu không chịu được sự soi xét.
https://www.ft.com/content/42bad56f-02cc-4b32-b9ac-1af5dbc7bc83
#FT
• Đến năm 2028, 75% kỹ sư phần mềm doanh nghiệp sẽ sử dụng trợ lý mã AI, tăng từ dưới 10% vào đầu năm 2023.
• AI có thể nâng cao bảo mật bằng cách tự động hóa phát hiện và phản hồi mối đe dọa, giúp bảo vệ hệ thống và dữ liệu hiệu quả hơn.
• Nghiên cứu của GitLab cho thấy các developer dành ít hơn 25% thời gian để viết mã. Hơn 75% công việc hàng ngày có thể được hỗ trợ và nâng cao hiệu quả bằng AI thông qua giải thích lỗ hổng, tóm tắt thay đổi mã, tự động kiểm thử, v.v.
• AI có thể tạo ra các bài kiểm tra trong thời gian thực, đảm bảo độ bao phủ toàn diện và nâng cao chất lượng mã tổng thể.
• Việc triển khai AI đòi hỏi phân tích kỹ lưỡng vòng đời phát triển phần mềm hiện tại, bao gồm công cụ và quy trình, để xác định nơi AI sẽ tạo ra hiệu quả cao nhất.
• Cần tập trung vào việc tạo ra một khung AI mạnh mẽ để đảm bảo thành công lâu dài. Việc áp dụng AI đòi hỏi phải sửa đổi toàn bộ vòng đời phát triển phần mềm để tập trung hóa dữ liệu.
• Dữ liệu là yếu tố quan trọng cho nỗ lực AI của tổ chức. Việc đưa dữ liệu vào hệ thống AI sẽ giúp nâng cao chất lượng đầu ra cho cả nhà phát triển và khách hàng.
• Bước đầu tiên trong hành trình AI là thành lập ủy ban chỉ đạo AI với một lãnh đạo mạnh để xem xét và đề xuất các phương pháp tiếp cận phù hợp với nhu cầu của tổ chức.
• Ủy ban chỉ đạo AI nên tập hợp các lãnh đạo pháp lý, bảo mật và kỹ thuật để xây dựng cơ cấu cho việc áp dụng AI.
• Cần thiết lập hướng dẫn và quy trình làm việc để đảm bảo các nhóm DevSecOps sử dụng AI một cách có trách nhiệm.
• Cần chuẩn bị cho các phương pháp tiếp cận đa mô hình. Các hệ thống doanh nghiệp đang bắt đầu triển khai các điều khiển chi tiết để giúp DevSecOps chọn đúng LLM cho công việc.
• Các công ty không sử dụng AI để phát triển phần mềm có nguy cơ tụt hậu so với đối thủ cạnh tranh.
• Tuy nhiên, các nhà lãnh đạo vội vàng triển khai AI mà không hiểu tác động của nó sẽ gặp rủi ro như lỗ hổng bảo mật, tiền phạt, mất khách hàng và thiệt hại về uy tín.
• Tổ chức có thể đảm bảo sự phù hợp giữa lãnh đạo điều hành và các nhà phát triển về các chủ đề quan trọng bằng cách tạo ra môi trường thảo luận chiến lược về AI.
• Cần xử lý việc tích hợp AI giống như chuyển đổi đám mây - cẩn thận và có chủ đích. Tránh các giải pháp manh mún khi có thể và tập trung vào một phương pháp toàn diện.
📌 Triển khai AI hiệu quả đòi hỏi chiến lược toàn diện, từ thành lập ủy ban chỉ đạo đến tích hợp vào quy trình DevSecOps. Đến 2028, 75% kỹ sư sẽ dùng trợ lý mã AI. Cần cân nhắc kỹ lưỡng về bảo mật, pháp lý và quản lý dữ liệu để đảm bảo sử dụng AI có trách nhiệm và mang lại giá trị kinh doanh.
https://thenewstack.io/creating-a-strategic-roadmap-for-effective-ai-implementation/
• Nvidia và startup Pháp Mistral AI vừa công bố mô hình ngôn ngữ mới Mistral-NeMo, nhằm mang khả năng AI mạnh mẽ trực tiếp đến máy tính doanh nghiệp.
• Mistral-NeMo có 12 tỷ tham số và cửa sổ ngữ cảnh 128.000 token, là công cụ mạnh mẽ cho doanh nghiệp muốn triển khai AI mà không cần nhiều tài nguyên đám mây.
• Mô hình được phát hành dưới giấy phép Apache 2.0, cho phép sử dụng thương mại.
• Bryan Catanzaro, Phó chủ tịch nghiên cứu học sâu ứng dụng tại Nvidia, nhấn mạnh tính dễ tiếp cận và hiệu quả của mô hình.
• Mistral-NeMo có thể chạy trên GPU RTX phổ biến mà nhiều người đã có sẵn, giúp dân chủ hóa khả năng AI tiên tiến.
• Cửa sổ ngữ cảnh 128.000 token cho phép mô hình xử lý và hiểu các đoạn văn bản lớn hơn nhiều so với đối thủ cạnh tranh.
• Tính năng này đặc biệt hữu ích cho doanh nghiệp xử lý tài liệu dài, phân tích phức tạp hoặc nhiệm vụ lập trình phức tạp.
• Khả năng triển khai cục bộ có thể thu hút các doanh nghiệp hoạt động trong môi trường kết nối internet hạn chế hoặc có yêu cầu bảo mật dữ liệu nghiêm ngặt.
• Mô hình nhắm đến việc sử dụng trên laptop và máy tính để bàn hơn là điện thoại thông minh.
• Mistral-NeMo có thể làm gián đoạn đáng kể thị trường phần mềm AI bằng cách giải quyết các vấn đề như quyền riêng tư dữ liệu, độ trễ và chi phí cao liên quan đến giải pháp dựa trên đám mây.
• Động thái này có thể san bằng sân chơi, cho phép các doanh nghiệp nhỏ hơn với nguồn lực hạn chế tận dụng khả năng AI trước đây chỉ có thể tiếp cận bởi các tập đoàn lớn.
• Mô hình hiện có sẵn dưới dạng Neural Interface Model (NIM) thông qua nền tảng AI của Nvidia, với phiên bản có thể tải xuống sẽ được cung cấp trong tương lai gần.
📌 Mistral-NeMo, mô hình AI 12 tỷ tham số, hợp tác giữa Nvidia và Mistral AI, mang khả năng AI mạnh mẽ đến máy tính doanh nghiệp. Với cửa sổ ngữ cảnh 128.000 token và khả năng chạy trên GPU RTX phổ biến, mô hình hứa hẹn dân chủ hóa AI cho doanh nghiệp mọi quy mô.
https://venturebeat.com/ai/nvidia-and-mistrals-new-model-mistral-nemo-brings-enterprise-grade-ai-to-desktop-computers/
• AI đang phát triển song song với sự mở rộng của điện toán đám mây, giúp nâng cao đáng kể khả năng lưu trữ, xử lý và quản lý dữ liệu.
• Các doanh nghiệp hiện đại đang tận dụng điều này bằng cách tích hợp chiến lược các tài nguyên từ môi trường tại chỗ, biên và đám mây. Việc tích hợp này cho phép triển khai các công cụ AI mạnh mẽ và hiệu quả trên nhiều môi trường khác nhau.
• Tích hợp đám mây hiệu quả giúp tổ chức cân bằng nhu cầu bảo mật dữ liệu quan trọng với sức mạnh tính toán đáng kể cần thiết để đào tạo và triển khai các mô hình AI phức tạp.
• Để hiểu rõ hơn về tích hợp này, hãy nghĩ đến ô tô hybrid, tối ưu hóa hiệu suất và giảm chi phí bằng cách kết hợp hệ thống điện và nhiên liệu truyền thống. Tương tự, cơ sở hạ tầng đám mây lai định vị khối lượng công việc AI trên nền tảng tốt nhất.
• Các mô hình ngôn ngữ lớn có thể tận dụng sức mạnh của đám mây công cộng để đào tạo, trong khi dữ liệu nhạy cảm vẫn được bảo mật tại chỗ hoặc ở biên.
• Cách tiếp cận linh hoạt này cho phép các tổ chức tinh chỉnh và điều chỉnh các mô hình bằng dữ liệu độc quyền, đồng thời vẫn đảm bảo an toàn và tuân thủ pháp luật.
• Khả năng di chuyển khối lượng công việc AI giữa các môi trường biên, tại chỗ và đám mây khi cần thiết, mà không ảnh hưởng đến hiệu suất hoặc bảo mật, giúp các tổ chức khai thác AI để đạt được tăng trưởng.
• Sự thành công của AI phụ thuộc vào niềm tin, đặc biệt là trong các ngành có quy định nghiêm ngặt. Các mô hình ngôn ngữ lớn không chỉ phải có thể giải thích được mà còn phải dựa trên dữ liệu độc quyền đã được xác minh.
• Nguồn mở đóng vai trò trung tâm trong việc cung cấp tính minh bạch trong suốt vòng đời AI, từ đường ống dữ liệu đến phát triển và triển khai mô hình.
• Tính minh bạch này mở rộng ra ngoài các mô hình để bao gồm cả dữ liệu được sử dụng để đào tạo chúng. Dữ liệu độc quyền từ các hệ thống cũ đặc biệt có giá trị cho các trường hợp sử dụng doanh nghiệp.
• Việc tích hợp AI với đám mây lai đòi hỏi một hệ sinh thái mở và cộng tác, nơi các tổ chức làm việc cùng nhau, chia sẻ các phương pháp hay nhất, tài sản dữ liệu và tài nguyên đào tạo.
• Tư duy nguồn mở giúp doanh nghiệp tích hợp các thành phần khác nhau trong ngăn xếp công nghệ của họ, từ đường ống dữ liệu đến mô hình, mang lại trải nghiệm nhất quán hơn.
• Phá vỡ các rào cản giữa các nhà phát triển, kỹ sư dữ liệu và hoạt động CNTT cũng rất quan trọng để giải quyết hiệu quả các thách thức hoạt động.
• Với việc áp dụng AI ngày càng tăng, một trong những thách thức đáng chú ý nhất là việc sử dụng năng lượng đáng kể liên quan đến việc đào tạo và vận hành các hệ thống AI.
• Kiến trúc lai cho phép di chuyển khối lượng công việc liền mạch giữa các môi trường tại chỗ, biên và đám mây để tối ưu hóa chi phí cho các tài nguyên tính toán, lưu trữ và mạng.
• Cơ sở hạ tầng đám mây lai cũng nâng cao quản lý dữ liệu bằng cách định vị các đường ống dữ liệu trên các môi trường tại chỗ, biên và đám mây khi cần thiết. Điều này giúp giảm độ trễ, cải thiện khả năng phản hồi và cho phép doanh nghiệp cân bằng hiệu quả chi phí với khả năng kỹ thuật.
📌 Tích hợp đám mây lai giúp doanh nghiệp triển khai AI hiệu quả, cân bằng bảo mật và sức mạnh tính toán. Nó cho phép di chuyển linh hoạt khối lượng công việc, tối ưu hóa chi phí và tài nguyên, đồng thời thúc đẩy sự minh bạch và cộng tác trong hệ sinh thái AI. Đây là chiến lược quan trọng để khai thác tiềm năng AI và đảm bảo tăng trưởng bền vững.
https://www.techradar.com/pro/why-enterprise-ai-needs-connected-clouds
• Trong 3 tháng đầu đại dịch Covid-19, doanh thu của Amazon tăng 44% và lợi nhuận tăng 220% nhờ đầu tư vào khả năng phục hồi chuỗi cung ứng, cho phép công ty giao hàng khi đối thủ không thể.
• Các doanh nghiệp hiện phải đối mặt với nhiều thách thức trong chuỗi cung ứng như biến động công nghệ, thay đổi nguồn lao động, địa chính trị và biến đổi khí hậu.
• Để thành công, doanh nghiệp cần xây dựng chuỗi cung ứng linh hoạt: hoạt động hoàn toàn số hóa, ưu tiên nhu cầu khách hàng và thiết lập mạng lưới giao hàng nhanh chóng, đáng tin cậy và bền vững.
• Nutrien, công ty phân bón Canada, sử dụng công nghệ đám mây và AI/ML để thu thập dữ liệu chưa được khai thác từ hoạt động công nghiệp và có cái nhìn tổng quan hơn về chuỗi cung ứng.
• Chuỗi cung ứng số hóa kết nối Nutrien từ người trồng đến nhà sản xuất, cung cấp khả năng hiển thị trong toàn bộ chuỗi giá trị.
• Nutrien có thể xác định vị trí bồn phân bón trong cánh đồng của người trồng và xác định sản phẩm Nutrien trong đó, cho phép dự báo nhu cầu và lập kế hoạch phù hợp.
• Nutrien dự định thêm khả năng AI vào nền tảng hợp tác để giúp khách hàng ít am hiểu công nghệ dễ dàng sử dụng các tính năng tự phục vụ và tự động hóa.
• Các công ty cần hiện đại hóa hoạt động chuỗi cung ứng bằng cách áp dụng AI/ML cho dữ liệu hoạt động trên đám mây để tăng khả năng phục hồi và tính bền vững.
• Một công ty dược phẩm tổng hợp dữ liệu chuỗi cung ứng có thể theo dõi sản phẩm tốt hơn cho khách hàng bệnh nặng.
• Một startup bán lẻ đang phát triển nhanh chóng có thể lưu trữ khối lượng công việc trên đám mây để hỗ trợ nhu cầu tăng đột biến và giảm thiểu chi phí vận hành.
• Một công ty vận tải có thể tiết kiệm chi phí chuỗi cung ứng đầu vào bằng cách đánh giá tổng quãng đường di chuyển của đội xe để giảm chi phí và lượng khí thải CO2.
📌 Amazon tăng lợi nhuận 220% trong 3 tháng đầu đại dịch nhờ chuỗi cung ứng linh hoạt. Các công ty như Nutrien ứng dụng AI/ML và điện toán đám mây để tối ưu hóa vận hành, nâng cao trải nghiệm khách hàng. Xu hướng hiện đại hóa chuỗi cung ứng với công nghệ số giúp doanh nghiệp tăng khả năng phục hồi và phát triển bền vững.
https://www.technologyreview.com/2024/07/18/1094899/building-supply-chain-resilience-with-ai/
#MIT
• Theo khảo sát mới của Reuters, 24% công ty Nhật Bản đã áp dụng AI trong hoạt động kinh doanh, 35% đang lên kế hoạch áp dụng, trong khi 41% không có kế hoạch sử dụng công nghệ này.
• Mục tiêu chính khi áp dụng AI là để đối phó với tình trạng thiếu hụt lao động (60% công ty), cắt giảm chi phí nhân công (53%) và đẩy nhanh nghiên cứu phát triển (36%).
• Các rào cản chính khi áp dụng AI bao gồm: lo ngại của nhân viên về việc giảm biên chế, thiếu chuyên môn kỹ thuật, chi phí đầu tư lớn và lo ngại về độ tin cậy của công nghệ.
• 15% công ty cho biết đã bị tấn công mạng trong năm qua, 9% có đối tác kinh doanh bị tấn công. Trong số các nạn nhân, 23% phải tạm ngừng hoạt động kinh doanh và 4% bị rò rỉ thông tin.
• Để tăng cường an ninh mạng, 47% công ty thuê ngoài dịch vụ bảo vệ, 38% có chuyên gia nội bộ.
📌 Khảo sát cho thấy các công ty Nhật Bản đang phân hóa trong việc áp dụng AI, với 24% đã triển khai và 41% chưa có kế hoạch. An ninh mạng là mối quan tâm lớn khi 15% công ty từng bị tấn công.
https://www.reuters.com/technology/artificial-intelligence/more-than-40-japanese-companies-have-no-plan-make-use-ai-2024-07-17/
• Theo nghiên cứu của Capgemini, đa số các ngành đều gặp khó khăn lớn trong việc chuyển đổi các dự án thử nghiệm AI thành giải pháp sản xuất.
• Nguyên nhân chính là do ranh giới số, nhân viên số và dữ liệu kém chất lượng.
• Steve Jones, EVP tại Capgemini, cho rằng các tổ chức đã quá quen với việc sử dụng dữ liệu kém chất lượng và hy vọng sẽ sửa chữa ở hệ thống nguồn.
• Dự đoán đến năm 2030, 50% quyết định kinh doanh sẽ được đưa ra bởi AI, chủ yếu trong các ứng dụng chuỗi cung ứng tự động.
• Nhân viên số cần có khả năng đưa ra quyết định dựa trên dữ liệu thời gian thực, không thể chờ đợi dữ liệu được làm sạch.
• Các mô hình ngôn ngữ lớn (LLM) cần tiếp cận thông tin phản ánh thực tế hoạt động của doanh nghiệp để tránh đưa ra quyết định sai lầm.
• Doanh nghiệp cần xây dựng mô hình vận hành số, mô tả rõ ràng vấn đề cần giải quyết và ranh giới của AI.
• Cần xác định rõ dữ liệu nào nên và không nên được sử dụng để đưa ra quyết định, AI được phép ảnh hưởng đến những gì.
• Mỗi giải pháp AI trong công ty sẽ bị ràng buộc bởi chức năng cụ thể của nó, tuân theo các quy tắc và động lực khác nhau.
• Cần xem xét AI dưới góc độ quản lý và áp dụng kinh doanh, thay vì chỉ tập trung vào công nghệ.
• Các nhân viên số cần có khả năng hợp tác với con người và với nhau, đặt ra câu hỏi trong phạm vi ranh giới rõ ràng.
• Thiết kế ứng dụng cần thay đổi, đưa dữ liệu lên phía trước để nhân viên số có thể sử dụng ngay lập tức.
• Tổ chức cần kiểm soát mô hình vận hành số của mình để triển khai nhân viên số thành công.
• Thách thức lớn là giúp nhân viên kinh doanh không am hiểu công nghệ có thể phát triển sự nghiệp thông qua tương tác với AI.
📌 Capgemini chỉ ra rằng để triển khai AI thành công, doanh nghiệp cần thay đổi mô hình vận hành số, xác định rõ ranh giới cho AI, và cải thiện chất lượng dữ liệu. Dự kiến đến năm 2030, 50% quyết định kinh doanh sẽ do AI đưa ra, đòi hỏi sự thay đổi lớn về tổ chức và cách tiếp cận dữ liệu.
https://venturebeat.com/ai/capgemini-digs-into-the-real-reasons-that-gen-ai-proof-of-concepts-never-take-off/
- Gần như tất cả các nhà cung cấp mô hình, bao gồm Microsoft, Google và các công ty khởi nghiệp như Mistral, Anthropic và Cohere, đều chuyển sang cung cấp nhiều mô hình AI vừa và nhỏ hơn.
- Các giám đốc công nghệ thông tin cho rằng đối với một số trường hợp sử dụng AI phổ biến nhất, thường liên quan đến các tác vụ hẹp, lặp đi lặp lại như phân loại tài liệu, các mô hình nhỏ hơn và vừa phải đơn giản là hợp lý hơn.
- Vì chúng sử dụng ít năng lượng tính toán hơn nên các mô hình nhỏ hơn có thể tiết kiệm chi phí vận hành.
- Sự chuyển đổi diễn ra khi các công ty từ từ triển khai nhiều trường hợp sử dụng AI hơn, đồng thời chịu áp lực phải quản lý chi phí và lợi nhuận từ công nghệ đắt tiền này.
- Công ty dịch vụ thế chấp phi ngân hàng Mr. Cooper đang thử nghiệm khả năng của các mô hình vừa phải trong trung tâm cuộc gọi để phân tích dữ liệu giọng nói nhằm giúp nhân viên hiểu khách hàng có khả năng hỏi gì.
- Ngân hàng TD gần đây đã ký hợp đồng hợp tác với nhà cung cấp mô hình AI Cohere và sẽ xem xét liệu các mô hình nhỏ hơn hoặc vừa phải của Cohere có hiệu quả và tiết kiệm chi phí hơn hay không.
- Công ty dịch vụ tiếp thị WPP đang sử dụng một số mô hình từ dòng sản phẩm Gemini của Google, bao gồm cả mô hình vừa phải Flash, phù hợp cho các trường hợp sử dụng như phân tích thói quen mua sắm ở các quốc gia khác nhau.
📌 Các công ty đang chuyển sang triển khai các mô hình AI vừa và nhỏ hơn do áp lực quản lý chi phí. Các mô hình này được đào tạo trên ít dữ liệu hơn, phù hợp cho nhiều trường hợp sử dụng phổ biến trong doanh nghiệp như phân loại tài liệu, phân tích dữ liệu giọng nói. Tuy nhiên, các mô hình lớn vẫn có giá trị cho các tác vụ phức tạp đòi hỏi nhiều dữ liệu và sáng tạo.
https://www.wsj.com/articles/these-ai-models-are-pretty-mid-thats-why-companies-love-them-710a0f72
#WSJ
• Các nhà lãnh đạo doanh nghiệp cần suy nghĩ lại cách quản lý con người, quy trình và dự án khi AI tạo sinh ngày càng phổ biến trong công việc hàng ngày.
• Ethan Mollick, phó giáo sư tại Đại học Pennsylvania, đề xuất 3 nguyên tắc để tổ chức lại công việc xung quanh AI tạo sinh:
- Huy động những người đang sử dụng AI, đảm bảo họ không lo mất việc hay bị giám sát quá mức
- Để các nhóm tự phát triển phương pháp làm việc với AI phù hợp nhất
- Dự đoán sự thay đổi nhanh chóng, thích ứng quy trình làm việc với cả ứng dụng AI hiện tại và tương lai
• Nghiên cứu của MIT và Accenture cho thấy việc sử dụng "ma sát có lợi" dưới dạng gợi ý trực quan có thể giúp người dùng phát hiện lỗi trong văn bản AI tạo sinh mà không ảnh hưởng nhiều đến hiệu suất. Các tác giả đưa ra 3 kết luận:
- Cần cân nhắc kỹ lưỡng prompt đầu vào cho AI
- Làm nổi bật lỗi có thể giảm bớt sự tự tin thái quá của người dùng
- Cần thử nghiệm để hiểu phản ứng của con người với kết quả từ AI
• Mayo Clinic là một ví dụ về việc chuyển trọng tâm từ quản trị sang hỗ trợ AI trong tổ chức:
- Trao quyền cho nhân viên xây dựng và thử nghiệm mô hình AI phù hợp với lĩnh vực của họ
- Có đội ngũ 60 người hỗ trợ AI và quản lý thư viện dữ liệu
- Cung cấp nền tảng để người dùng nội bộ xây dựng sản phẩm và ứng dụng AI
- Người dùng cuối chịu trách nhiệm đảm bảo chất lượng và tích hợp dữ liệu
📌 Nghiên cứu mới từ MIT Sloan Management Review đề xuất 3 cách giúp doanh nghiệp tận dụng hiệu quả AI tạo sinh: tổ chức lại công việc, sử dụng gợi ý trực quan để phát hiện lỗi, và chuyển trọng tâm từ quản trị sang hỗ trợ AI. Mayo Clinic là ví dụ điển hình với đội ngũ 60 người hỗ trợ AI và trao quyền cho nhân viên.
https://mitsloan.mit.edu/ideas-made-to-matter/making-generative-ai-work-enterprise-new-mit-sloan-management-review
#MIT
• Hiện nay có sự đồng thuận rằng AI tạo sinh sẽ biến đổi sâu sắc hoạt động kinh doanh. Các công ty và cá nhân không bắt kịp xu hướng này sẽ nhanh chóng bị bỏ lại phía sau.
• Tuy nhiên, khi đầu tư vào AI, các doanh nghiệp muốn có bằng chứng cụ thể về việc AI cải thiện hiệu suất và doanh thu như thế nào. Họ không thể và không nên chỉ tin vào lời hứa của các nhà cung cấp.
• Khó có thể tìm ra mối tương quan trực tiếp giữa việc sử dụng các công cụ AI như Microsoft Copilot và hiệu quả kinh doanh tổng thể.
• Theo nhà đầu tư Jamin Ball, hầu hết doanh nghiệp có thể không có lựa chọn nào khác ngoài việc đầu tư vào AI, dù chưa thấy ngay kết quả. Lý do là vì đối thủ cạnh tranh đang đầu tư vào AI, nên bạn cũng phải làm vậy để không bị tụt hậu.
• Việc đầu tư vào AI có thể không mang lại kết quả kinh doanh tốt hơn ngay lập tức, nhưng chắc chắn sẽ cải thiện trải nghiệm người dùng cuối. Điều này có thể dẫn đến các chỉ số khác tốt hơn như tỷ lệ giữ chân khách hàng.
• Tuy nhiên, các CIO muốn có sự chắc chắn hơn trước khi đầu tư vào một công nghệ mới đắt đỏ. Họ và CFO phải đối mặt với thực tế hiện tại khi biện minh cho các khoản chi tiêu và muốn biết khi nào có thể kỳ vọng thu được lợi nhuận từ đầu tư.
• Một số người so sánh AI với điện năng, cho rằng đây là thời điểm chuyển đổi quan trọng như khi các nhà máy chuyển từ hơi nước sang điện vào cuối thế kỷ 18. Bạn có thể phớt lờ nó và tiếp tục sử dụng hơi nước, nhưng cuối cùng sẽ bị đào thải.
• Giải pháp có thể đến từ một startup thông minh nào đó, hoặc các doanh nghiệp lớn sẽ tìm đến các công ty tư vấn như Deloitte, McKinsey và Accenture để được hỗ trợ, dù điều này sẽ làm tăng chi phí và thời gian tạo ra giá trị.
• Các CIO đang phải đối mặt với quyết định khó khăn: liệu họ đang đưa công ty tiến về tương lai hay đang lãng phí tiền bạc vào một xu hướng chưa chắc chắn.
📌 Nghịch lý AI: Doanh nghiệp buộc phải đầu tư lớn dù chưa thấy ngay kết quả. CIO đối mặt với áp lực cạnh tranh và đổi mới, nhưng cũng cần chứng minh ROI. Giải pháp có thể đến từ startup hoặc tư vấn chuyên nghiệp, song vẫn còn nhiều thách thức.
https://techcrunch.com/2024/07/14/the-ai-financial-results-paradox/
- AI tạo sinh (gen AI) đã thu hút sự chú ý của nhiều nhà lãnh đạo nhưng cũng có nguy cơ làm lu mờ các công cụ số khác quan trọng cho sự thành công của tổ chức.
- Rodney Zemmel và Kate Smaje từ McKinsey Digital nhấn mạnh rằng chiến lược AI nên bắt đầu từ việc xác định nguồn giá trị và cách công nghệ có thể chuyển đổi các lĩnh vực kinh doanh.
- Một trong những ý tưởng quan trọng là mọi công ty sẽ trở thành một doanh nghiệp có cấu trúc thần kinh, nơi các nhóm làm việc tự trị nhưng vẫn tuân theo các quy tắc và mục tiêu chung của công ty.
- Ví dụ, Ngân hàng DBS và Freeport-McMoRan đã áp dụng mô hình tế bào ngang để cải thiện hiệu suất và sáng tạo.
- Các công ty hàng đầu áp dụng mô hình này có tỷ suất lợi nhuận cổ đông cao hơn 60% so với các công ty ít trưởng thành hơn.
- Các nhà lãnh đạo cần chú ý đến việc đào tạo và nâng cao kỹ năng cho nhân viên để làm việc trong mô hình này, đồng thời thiết lập các quy tắc quản trị dữ liệu rõ ràng.
- Một ý tưởng khác là các nhà lãnh đạo số và AI cần trở thành những người chuyển đổi liên tục, không ngừng kết hợp các công nghệ mới để tạo ra các mô hình kinh doanh đột phá.
- Quantum computing là một công nghệ tiềm năng có thể thay đổi nhiều ngành công nghiệp bằng cách giải quyết các bài toán phức tạp nhanh hơn nhiều so với các thuật toán truyền thống.
- Các ngành như dịch vụ tài chính, dược phẩm, hóa chất và nông nghiệp có thể hưởng lợi lớn từ quantum computing.
- Để tận dụng tối đa AI tạo sinh, các tổ chức cần xác định các vai trò hoặc nhiệm vụ nào sẽ được hưởng lợi nhiều nhất từ AI để tạo ra một lực lượng lao động hiệu quả hơn.
- Đào tạo và nâng cao kỹ năng là cần thiết để nhân viên biết cách sử dụng AI tạo sinh một cách hiệu quả, từ đó tạo ra những "siêu năng lực" mới cho tổ chức.
- Một ví dụ thú vị là trong một nghiên cứu nhỏ tại Anh, bệnh nhân thường thích bot hơn bác sĩ vì cảm thấy bot hiểu và giải quyết vấn đề của họ nhanh hơn.
- Các nhà lãnh đạo cần duy trì sự linh hoạt và không ngừng học hỏi để thích nghi với các thay đổi công nghệ và thị trường.
📌 McKinsey Digital nhấn mạnh rằng để tận dụng tối đa AI tạo sinh và các công nghệ số khác, các nhà lãnh đạo cần tập trung vào việc xác định nguồn giá trị, đào tạo và nâng cao kỹ năng cho nhân viên, và duy trì sự linh hoạt trong quản lý. Các công ty áp dụng mô hình tế bào ngang và quantum computing có thể đạt được lợi thế cạnh tranh lớn.
https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/gen-ai-and-beyond-where-else-to-focus-now
#McKinsey
• Satya Nadella, CEO Microsoft, đã đầu tư 13 tỷ USD vào OpenAI trong 5 năm qua, dù công ty này chưa tạo ra nhiều lợi nhuận.
• Gần đây, Nadella chi 650 triệu USD để mua lại công nghệ của Inflection AI, tuyển dụng hầu hết nhân viên và đặt CEO Mustafa Suleyman phụ trách mảng kinh doanh trị giá 12 tỷ USD của Microsoft.
• Những khoản đầu tư mạo hiểm này đã giúp giá trị vốn hóa của Microsoft tăng 70% lên 3,3 nghìn tỷ USD trong 2 năm qua.
• Nadella tin rằng AI là cơ hội lớn để Microsoft dẫn đầu làn sóng công nghệ mới, sau khi bỏ lỡ cơ hội trong thời kỳ dot-com và smartphone.
• Ông đã thay đổi văn hóa Microsoft, chấp nhận phần mềm mã nguồn mở và đẩy mạnh điện toán đám mây.
• Năm 2018, Nadella quyết định mua lại GitHub chỉ sau 20 phút thảo luận, với giá 7,5 tỷ USD.
• Khi Google ra mắt BERT năm 2018, Nadella nhận ra Microsoft thiếu hạ tầng để phát triển AI tiên tiến. Điều này thúc đẩy ông đầu tư vào OpenAI.
• Nadella tin tưởng vào tầm nhìn của Sam Altman và đội ngũ OpenAI, dù nhiều người hoài nghi về thương vụ này.
• Năm 2022, sau khi thấy tiềm năng của GPT-4, Nadella quyết định tích hợp AI vào mọi sản phẩm của Microsoft, bắt đầu từ Bing.
• Khi OpenAI khủng hoảng vào cuối 2023, Nadella can thiệp để giữ chân Sam Altman, cho thấy sự phụ thuộc của Microsoft vào đối tác này.
• Gần đây nhất, Nadella mua lại Inflection AI và đặt Mustafa Suleyman phụ trách mảng AI agent, với tham vọng tạo ra nền tảng máy tính tương lai.
📌 Nadella đang đặt cược lớn vào AI với hàng chục tỷ USD đầu tư. Ông tin rằng đây là cơ hội để Microsoft dẫn đầu cuộc cách mạng công nghệ mới, dù tiềm ẩn nhiều rủi ro. Chiến lược này đã giúp giá trị Microsoft tăng 70% lên 3,3 nghìn tỷ USD trong 2 năm qua.
https://www.nytimes.com/2024/07/14/technology/microsoft-ai-satya-nadella.html
• Microsoft vừa công bố "SpreadsheetLLM", một mô hình AI mới được thiết kế để hiểu và làm việc với bảng tính, đánh dấu một bước tiến quan trọng trong lĩnh vực AI doanh nghiệp.
• Nghiên cứu có tựa đề "SpreadsheetLLM: Encoding Spreadsheets for Large Language Models" được đăng tải trên arXiv, giải quyết thách thức trong việc áp dụng AI vào định dạng bảng tính phổ biến nhưng phức tạp.
• SpreadsheetLLM kết hợp sức mạnh của mô hình ngôn ngữ lớn (LLM) với dữ liệu có cấu trúc trong bảng tính. Hệ thống sử dụng một quy trình sáng tạo để nén và mã hóa bảng tính, cho phép LLM hiểu và phân tích hiệu quả dữ liệu bảng tính phức tạp.
• Mô-đun SheetCompressor đóng vai trò quan trọng trong việc tối ưu hóa hiệu suất của AI trên các tác vụ bảng tính, đồng thời đạt được độ chính xác tốt nhất hiện nay.
• SpreadsheetLLM có khả năng tự động hóa nhiều tác vụ phân tích dữ liệu tẻ nhạt và tốn thời gian như làm sạch dữ liệu, định dạng và tổng hợp. Điều này có thể giúp doanh nghiệp tiết kiệm thời gian và nguồn lực đáng kể.
• Ứng dụng tiềm năng của SpreadsheetLLM rất rộng lớn, từ tự động hóa các tác vụ phân tích dữ liệu thông thường đến cung cấp thông tin chi tiết thông minh và đưa ra khuyến nghị dựa trên dữ liệu bảng tính.
• SpreadsheetLLM có thể giúp dữ liệu bảng tính dễ tiếp cận và dễ hiểu hơn đối với nhiều người dùng hơn. Người dùng có thể truy vấn và thao tác dữ liệu bảng tính bằng tiếng Anh đơn giản thay vì các công thức phức tạp hoặc ngôn ngữ lập trình.
• Microsoft đang đầu tư mạnh vào công nghệ AI cho doanh nghiệp. Công ty đã giới thiệu Microsoft 365 Copilot vào tháng 3 năm ngoái và công bố bản xem trước công khai của Copilot for Finance vào tháng 2.
• Sự phát triển của AI trong doanh nghiệp cũng đặt ra những câu hỏi quan trọng về tương lai của công việc và tác động tiềm tàng đối với việc làm. Các công ty cần cân nhắc kỹ lưỡng cách đào tạo lại và nâng cao kỹ năng cho lực lượng lao động để thích ứng với những thay đổi này.
• Khi SpreadsheetLLM chuyển từ nghiên cứu sang ứng dụng thực tế, nó có thể biến đổi cách chúng ta làm việc với bảng tính và mở ra những khả năng mới cho việc ra quyết định dựa trên dữ liệu trong doanh nghiệp.
📌 Microsoft ra mắt SpreadsheetLLM, hệ thống AI hiểu và phân tích bảng tính, mở ra tiềm năng tự động hóa và tối ưu hóa công việc trong doanh nghiệp. Công nghệ này kết hợp sức mạnh của mô hình ngôn ngữ lớn với dữ liệu có cấu trúc, hứa hẹn nâng cao hiệu quả phân tích và ra quyết định dựa trên dữ liệu.
https://venturebeat.com/ai/microsofts-new-ai-system-spreadsheetllm-unlocks-insights-from-spreadsheets-boosting-enterprise-productivity/
• Sau một năm thử nghiệm AI tạo sinh, các doanh nghiệp đã chuyển từ câu hỏi "có thể làm gì" sang "nên làm gì" với công nghệ này để đảm bảo lợi nhuận đầu tư.
• Bài học 1: Xây dựng nền tảng dữ liệu vững chắc
- Dữ liệu chất lượng cao, phù hợp và được quản trị tốt là yếu tố then chốt để triển khai AI.
- Cần tập trung vào làm sạch dữ liệu hiện có và thiết kế quy trình thu thập dữ liệu mới đúng đắn ngay từ đầu.
- Các tổ chức hàng đầu đã chuyển sang sử dụng dữ liệu trực tiếp từ các ứng dụng cốt lõi thay vì báo cáo quản lý để nâng cao chất lượng dữ liệu.
- Cần có chiến lược dữ liệu rõ ràng, phân bổ nguồn lực và thiết kế tổ chức phù hợp.
• Bài học 2: Thiết kế lại quy trình kinh doanh và quản lý thay đổi
- AI tạo sinh thay đổi hoàn toàn quy trình làm việc, không chỉ đơn thuần tự động hóa.
- Cần thiết kế lại quy trình kinh doanh dựa trên khả năng mới của AI thay vì chỉ áp dụng AI vào quy trình hiện có.
- Sự hợp tác giữa đội ngũ kinh doanh và công nghệ thông tin là chìa khóa thành công.
- Phương pháp Lean có thể giúp cân bằng giữa ý tưởng và cách thức thực hiện.
- Quản lý thay đổi và đào tạo lại nhân viên là yếu tố quan trọng để đảm bảo hiệu quả đầu tư.
- Kỹ năng prompt engineering còn thiếu và thường nằm ngoài lĩnh vực khoa học máy tính.
• Bài học 3: Lựa chọn công nghệ phù hợp và khung quản trị
- Doanh nghiệp cần cân nhắc giữa sử dụng công cụ có sẵn như ChatGPT, tự xây dựng hệ thống AI riêng, hay tận dụng các giải pháp AI tích hợp sẵn.
- Nhiều doanh nghiệp chọn sử dụng song song nhiều mô hình ngôn ngữ lớn để giảm thiểu rủi ro.
- Cần xây dựng giao diện người dùng nhất quán nhưng có khung back-end mở rộng được.
- Tập trung vào các quy định pháp lý mới về cơ sở hạ tầng quan trọng, quyền riêng tư, bảo mật và dữ liệu liên quan đến AI tạo sinh.
- Đảm bảo triển khai AI công bằng, bình đẳng và toàn diện.
📌 AI tạo sinh đang phát triển nhanh chóng, đòi hỏi doanh nghiệp phải xây dựng nền tảng dữ liệu vững chắc, thiết kế lại quy trình, và lựa chọn công nghệ phù hợp. Quản lý thay đổi và tuân thủ quy định là yếu tố then chốt để thành công trong tương lai.
https://www.forbes.com/sites/sanjaysrivastava/2024/07/15/from-pilot-to-production-in-generative-ai-3-lessons-learned/
• AWS vừa công bố App Studio - công cụ AI tạo sinh giúp tạo ứng dụng doanh nghiệp chỉ từ mô tả văn bản, không cần lập trình viên chuyên nghiệp.
• App Studio nhắm đến đối tượng là các chuyên gia kỹ thuật không phải lập trình viên chuyên nghiệp như chuyên gia IT, kỹ sư dữ liệu, kiến trúc sư doanh nghiệp và quản lý sản phẩm.
• Người dùng chỉ cần mô tả ứng dụng cần xây dựng và các nguồn dữ liệu muốn sử dụng, App Studio sẽ tự động viết mã.
• Ứng dụng doanh nghiệp được định nghĩa là có nhiều trang UI, có thể truy xuất từ nhiều nguồn dữ liệu, thực hiện các thao tác phức tạp và tích hợp logic nghiệp vụ.
• Ví dụ về các ứng dụng có thể tạo bao gồm hệ thống theo dõi hàng tồn kho hoặc quy trình phê duyệt yêu cầu.
• Quy trình sử dụng App Studio bao gồm: nhập tên ứng dụng, chọn nguồn dữ liệu, mô tả ứng dụng cần xây dựng.
• Hệ thống sẽ tạo danh sách yêu cầu cho ứng dụng dựa trên mô tả. Người dùng có thể tinh chỉnh các yêu cầu này bằng cách tương tác với AI.
• Sriram Devanathan, Tổng Giám đốc Amazon Q Apps và AWS App Studio, cho biết App Studio khác với các công cụ no-code trước đây.
• AWS được cho là đã đi sau trong cuộc đua AI tạo sinh, nhưng App Studio có thể giúp nâng cao uy tín của họ trong lĩnh vực này.
• Công cụ này hứa hẹn giúp tạo ra các ứng dụng phần mềm doanh nghiệp chỉ từ mô tả bằng văn bản, không cần sự tham gia của lập trình viên chuyên nghiệp.
📌 AWS App Studio là công cụ AI tạo sinh mới nhất của Amazon, cho phép tạo ứng dụng doanh nghiệp phức tạp chỉ từ mô tả văn bản. Nhắm đến đối tượng chuyên gia kỹ thuật không phải lập trình viên, App Studio hứa hẹn đơn giản hóa quy trình phát triển phần mềm doanh nghiệp.
https://techcrunch.com/2024/07/10/aws-app-studio-promises-to-generate-enterprise-apps-from-a-written-prompt/
• Các nhà lãnh đạo doanh nghiệp ngày nay nhận thấy tiềm năng to lớn của AI tạo sinh trong việc cải thiện hiệu suất, dù vẫn đang tìm hiểu cách áp dụng cụ thể và ROI cuối cùng.
• Khi triển khai các giải pháp AI tạo sinh quy mô lớn, doanh nghiệp cần cân nhắc các yếu tố như chi phí, độ chính xác và độ trễ để xác định giá trị lâu dài.
• Có 3 mức độ phức tạp khi áp dụng LLM:
- Mức cơ bản: Sử dụng ứng dụng bao bọc đơn giản xung quanh GPT
- Mức trung bình: Sử dụng LLM với tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) để tăng cường đầu ra bằng dữ liệu độc quyền/riêng tư
- Mức cao cấp: Chạy mô hình riêng, tinh chỉnh mô hình nguồn mở với dữ liệu độc quyền
• Việc lựa chọn LLM phù hợp phụ thuộc vào mục đích sử dụng cụ thể của doanh nghiệp:
- Ví dụ: Công ty thương mại điện tử có thể đầu tư vào LLM riêng để tối ưu hóa trải nghiệm khách hàng
- Ứng dụng ngân hàng cần kiểm soát chặt chẽ hơn, có thể phát triển mô hình riêng hoặc tinh chỉnh mô hình nguồn mở
• Khả năng quan sát (observability) rất quan trọng khi triển khai LLM:
- Giúp theo dõi các chỉ số mới như thời gian đến token, ảo giác, thiên kiến và trôi dạt
- Cung cấp khả năng hiển thị từ đầu đến cuối để đảm bảo thời gian hoạt động, độ tin cậy và hiệu quả vận hành
• Việc lựa chọn LLM phù hợp không chỉ mang lại lợi ích ngắn hạn mà còn đặt nền tảng cho kết quả kinh doanh lý tưởng trong tương lai.
📌 Doanh nghiệp cần cân nhắc kỹ lưỡng khi chọn LLM phù hợp, dựa trên mục tiêu cụ thể và mức độ phức tạp mong muốn. Việc áp dụng LLM cần đi kèm với khả năng quan sát để đảm bảo hiệu suất và đo lường ROI chính xác. Lựa chọn đúng đắn sẽ tạo nền tảng vững chắc cho việc ứng dụng AI tạo sinh hiệu quả.
https://www.techradar.com/pro/determining-the-right-llm-for-your-organization
• Gen AI đang mở ra khả năng tăng năng suất và hiệu suất đáng kể trong nền kinh tế tri thức. Tuy nhiên, để khai thác giá trị kinh tế từ Gen AI, các tổ chức cần phát triển 6 loại năng lực kỷ luật khác nhau.
• Thay đổi hành vi: Nhân viên cần học cách sử dụng Gen AI hiệu quả, bao gồm kỹ năng prompt engineering, xác minh thông tin, tạo nội dung chất lượng cao và tích hợp công nghệ vào công việc.
• Tư duy hệ thống: Các tổ chức cần thiết kế lại các hệ thống kinh doanh cơ bản để tận dụng Gen AI. Ví dụ, trong lĩnh vực bán hàng, kết hợp avatar được hỗ trợ bởi Gen AI với các bài thuyết trình cá nhân hóa có thể thay đổi triệt để mô hình bán hàng.
• Thử nghiệm có kiểm soát: Cách duy nhất để xác định giá trị của Gen AI là thiết kế thử nghiệm có đối chứng, so sánh năng suất giữa nhóm sử dụng và không sử dụng Gen AI. Các công ty cần tự tiến hành thử nghiệm riêng.
• Đo lường giá trị kinh doanh: Cần có phương pháp đo lường rõ ràng cho mọi trường hợp sử dụng Gen AI, từ năng suất cá nhân đến giá trị từ các sáng kiến mới. Ví dụ, công ty dược phẩm Sanofi đang sử dụng Gen AI để rút ngắn thời gian đưa thuốc mới ra thị trường.
• Quản lý dữ liệu: Gen AI học từ và tạo ra dữ liệu phi cấu trúc như văn bản và hình ảnh. Các tổ chức cần quy trình thu thập, lưu trữ và quản lý loại nội dung này. Ví dụ, công ty Epic đang làm việc với Microsoft để tăng cường khả năng ghi chép và tóm tắt lâm sàng bằng Gen AI.
• Phát triển nguồn nhân lực: Cần cam kết sử dụng AI để tăng cường năng lực nhân viên thay vì thay thế họ. Nhân viên cần được đào tạo về cách thức hoạt động của Gen AI, kỹ năng prompt engineering và tích hợp công nghệ vào công việc.
• Để thành công với Gen AI, các tổ chức nên: (1) Tài trợ cho những người có tư duy đổi mới có trách nhiệm, (2) Chọn các dự án thực tế, mang lại kết quả nhanh chóng và phù hợp về mặt chính trị, (3) Liên kết các dự án với bản sắc của công ty.
📌 AI tạo sinh đòi hỏi 6 kỷ luật quan trọng từ doanh nghiệp: thay đổi hành vi, tư duy hệ thống, thử nghiệm có kiểm soát, đo lường giá trị, quản lý dữ liệu và phát triển nhân lực. Triển khai hiệu quả có thể mang lại lợi thế cạnh tranh đáng kể thông qua cá nhân hóa, nâng cao chất lượng và năng suất lao động.
https://hbr.org/2024/07/the-6-disciplines-companies-need-to-get-the-most-out-of-gen-ai
#HBR
• Một nghiên cứu toàn cầu do công ty phần mềm phân tích SAS và Coleman Parkes Research thực hiện cho thấy 83% tổ chức ở Trung Quốc đang sử dụng AI tạo sinh.
• Con số này ở Anh là 70% và ở Mỹ là 65%, cho thấy Trung Quốc đang dẫn đầu trong việc ứng dụng công nghệ AI tạo sinh.
• Lý do Trung Quốc dẫn đầu là do việc giám sát tự động liên tục, chủ yếu để đảm bảo tổ chức hoạt động đúng cách.
• Đầu tư của Trung Quốc vào công nghệ sản xuất cho phép họ tích hợp các hệ thống giám sát tự động liên tục để theo dõi và tối ưu hóa sản xuất.
• Bảo trì dự đoán và hệ thống an toàn cho người lao động là những ví dụ điển hình về việc áp dụng giám sát tự động liên tục.
• Với sự hỗ trợ của công nghệ AI tạo sinh, các hệ thống này có thể phát hiện bất thường, xây dựng giao diện ngôn ngữ tự nhiên và tạo cảnh báo tự động.
• Mặc dù Trung Quốc dẫn đầu về tỷ lệ áp dụng, nhưng Mỹ lại đứng đầu về mức độ trưởng thành và triển khai đầy đủ công nghệ AI tạo sinh.
• 24% tổ chức ở Mỹ đã triển khai đầy đủ AI tạo sinh, so với 19% ở Trung Quốc và 11% ở Anh.
• Hầu hết các tổ chức trong nghiên cứu đang sử dụng AI tạo sinh cho việc tạo nội dung (như marketing) và dịch vụ khách hàng.
• Chuyên gia cho rằng tỷ lệ áp dụng AI tạo sinh cao hơn ở Trung Quốc là do chính phủ nước này "hiệu quả hơn" trong việc ban hành chỉ thị, bao gồm cả việc yêu cầu các tổ chức sử dụng AI.
• Mỹ được cho là "thận trọng hơn" trong cách tiếp cận AI tạo sinh, tập trung vào sự đổi mới và tuân thủ quy định giám sát.
• Trong năm tới, dự kiến sẽ có sự "thu hẹp" trong việc sử dụng AI khi các tổ chức xác định được những lĩnh vực mà AI tạo sinh mang lại giá trị thực sự cho doanh nghiệp.
📌 Trung Quốc dẫn đầu thế giới về ứng dụng AI tạo sinh với 83% tổ chức sử dụng, vượt xa Mỹ (65%) và Anh (70%). Mặc dù vậy, Mỹ lại đứng đầu về mức độ triển khai đầy đủ với 24% so với 19% của Trung Quốc. Các ứng dụng chính là tạo nội dung và dịch vụ khách hàng.
https://qz.com/china-leads-using-generative-ai-us-organizations-1851575666
• Phần mềm quản lý vòng đời hợp đồng (CLM) đang trở thành tâm điểm chú ý nhờ tiềm năng ứng dụng AI tạo sinh. Thị trường này có giá trị khoảng 1,5 tỷ USD vào năm 2022.
• Gần đây đã diễn ra nhiều thương vụ mua bán và hợp tác trong lĩnh vực này:
- DocuSign mua lại Lexion
- Icertis hợp tác với Evisort
- LexisNexis mua Henchman
- Sirion mua Eigen Technologies
- KKR đầu tư vào Agiloft
• Ngành dịch vụ pháp lý được dự đoán sẽ chịu tác động lớn từ AI tạo sinh. Các công ty đang tìm kiếm giải pháp số hóa để quản lý hợp đồng pháp lý.
• Thị trường CLM hiện còn phân mảnh với khoảng 150-200 nhà cung cấp. Xu hướng hợp nhất đang diễn ra để tạo ra các nền tảng toàn diện hơn.
• Chỉ 55% bộ phận pháp chế doanh nghiệp đang sử dụng hệ thống quản lý hợp đồng, cho thấy tiềm năng tăng trưởng còn lớn.
• AI tạo sinh có thể giúp tự động hóa các tác vụ như rà soát và chỉnh sửa hợp đồng, dự kiến sẽ được ứng dụng rộng rãi từ đầu năm sau.
• Một số doanh nghiệp dự đoán có thể tiết kiệm 1/3 chi phí nhờ sử dụng phần mềm CLM tích hợp AI trong 5 năm tới.
• Các nhà cung cấp CLM đang tìm cách nhanh chóng tích hợp AI tạo sinh, thông qua mua lại hoặc hợp tác với các công ty chuyên về AI.
• Xu hướng hợp nhất dự kiến sẽ tiếp tục diễn ra. Việc tích hợp AI vào CLM sẽ giúp luật sư làm việc chiến lược và chủ động hơn trong quản lý hợp đồng.
📌 AI tạo sinh đang thúc đẩy sự phát triển mạnh mẽ của thị trường phần mềm quản lý hợp đồng trị giá 1,5 tỷ USD. Các thương vụ mua bán và hợp tác diễn ra sôi động nhằm tích hợp AI vào CLM, hứa hẹn mang lại hiệu quả cao hơn và tiết kiệm chi phí đáng kể cho doanh nghiệp trong quản lý hợp đồng.
https://www.ft.com/content/1026fd13-d7f1-40de-a0d6-9e4843ac3d29
#FT
• Hội nghị thường niên của Viện Luohan Academy năm 2024 tập trung thảo luận về vai trò của AI trong phát triển kinh tế xã hội, với 5/6 diễn đàn phụ có chủ đề liên quan đến AI.
• Zhang Fan, COO của Zhipu AI, chia sẻ về nền tảng Model-as-a-Service giúp các công ty điều chỉnh mô hình ngôn ngữ lớn (LLM) theo nhu cầu kinh doanh. Ví dụ, một công ty chứng khoán lớn đã sử dụng dịch vụ này để tạo "bộ não AI" hỗ trợ khách hàng chọn danh mục đầu tư tốt nhất.
• Zhipu AI kỳ vọng dịch vụ API của họ có thể thay thế OpenAI tại Trung Quốc sau khi OpenAI ngừng cung cấp API từ ngày 9/7. Zhang dự đoán hơn 80% công ty sẽ sử dụng LLM vào năm 2026.
• Huang Hao, Phó chủ tịch cấp cao của Ant Group, giới thiệu dịch vụ Shengxinpei - "AI Insurance Planner" ra mắt năm 2023, giúp người mua hiểu về các loại bảo hiểm và tìm sản phẩm phù hợp.
• Zhang Kaifu, Phó chủ tịch Alibaba International Digital Commerce Group, chia sẻ về việc sử dụng công cụ AI tạo sinh tự phát triển để hỗ trợ doanh nghiệp vừa và nhỏ mở rộng thị trường thương mại điện tử quốc tế.
• Chen Long, Chủ tịch Viện Luohan, nhấn mạnh AI đang định hình lại cảnh quan kinh tế và mô hình kinh doanh, khiến cuộc sống con người phức tạp hơn bao giờ hết.
• Viện Luohan được Alibaba thành lập năm 2018 như một viện nghiên cứu mở, đã trải qua một số điều chỉnh về tổ chức và trọng tâm sau khi Alibaba tái cơ cấu vào tháng 10/2023.
• Nhiều diễn giả khách mời đến từ các doanh nghiệp liên quan đến Alibaba, cùng với các lãnh đạo công ty công nghệ và học giả khác.
📌 Hội nghị Luohan Academy 2024 tập trung vào tiềm năng của AI trong định hình doanh nghiệp. Các công ty công nghệ hàng đầu Trung Quốc như Zhipu AI, Ant Group và Alibaba chia sẻ ứng dụng AI trong thương mại điện tử, bảo hiểm và hỗ trợ doanh nghiệp vừa và nhỏ. Dự báo hơn 80% công ty sẽ sử dụng mô hình ngôn ngữ lớn vào năm 2026.
https://www.scmp.com/tech/big-tech/article/3269208/chinese-tech-executives-discuss-how-ai-large-language-models-can-shape-businesses
• Các mô hình AI tổng quát thường không đáp ứng được nhu cầu cụ thể của từng ngành, dẫn đến hiệu quả và tính phù hợp thấp trong ứng dụng kinh doanh. Giải pháp là chuyên biệt hóa các mô hình này để giải quyết trực tiếp những thách thức và đặc thù riêng của mỗi ngành.
• Doanh nghiệp cần các mô hình AI không chỉ hiểu ngôn ngữ và dữ liệu ở mức tổng quát, mà còn nắm bắt được các sắc thái và đặc thù của ngành họ hoạt động. Thiếu chính xác trong các mô hình tổng quát có thể dẫn đến hiểu sai và ra quyết định không hiệu quả, đặc biệt quan trọng trong các lĩnh vực như y tế, tài chính và pháp lý.
• Các mô hình AI chuyên biệt được đào tạo không chỉ với lượng lớn dữ liệu tổng quát, mà còn với dữ liệu đặc thù của từng ngành, cho phép đưa ra các phản hồi và giải pháp chính xác và phù hợp với ngữ cảnh hơn.
• Do khan hiếm dữ liệu chuyên ngành quy mô lớn, xu hướng ngày càng phổ biến là sử dụng dữ liệu tổng hợp. Dữ liệu này cho phép điều chỉnh hành vi của mô hình và thích ứng chính xác với các quy tắc mà mỗi công ty yêu cầu, tránh được các "ảo giác" của mô hình và loại bỏ xung đột với bộ phận pháp lý hoặc tuân thủ.
• Theo Bloomberg, các công ty như Microsoft, Google và Meta đang đặt cược vào dữ liệu tổng hợp để đào tạo mô hình AI hiệu quả hơn. Dữ liệu tổng hợp có thể mô phỏng các kịch bản thực tế mà không ảnh hưởng đến quyền riêng tư, biến nó thành công cụ thiết yếu cho sự phát triển AI trong tương lai.
• Việc triển khai các mô hình AI chuyên biệt có thể cải thiện đáng kể hiệu quả hoạt động. Bằng cách giảm thời gian và nguồn lực cần thiết để điều chỉnh các mô hình tổng quát cho nhu cầu cụ thể, các công ty có thể đẩy nhanh quá trình chuyển đổi số và thu được lợi ích nhanh hơn.
• Các công ty có thể thực hiện chuyên biệt hóa hiệu quả thông qua: Dữ liệu chất lượng cao đặc thù ngành, Dữ liệu tổng hợp, Hợp tác với chuyên gia AI, Đánh giá và cải tiến liên tục.
• Chuyên biệt hóa AI không chỉ là xu hướng mà là nhu cầu thiết yếu đối với các công ty muốn duy trì khả năng cạnh tranh trong thị trường ngày càng số hóa và dựa trên dữ liệu.
• Một trong những ứng dụng mà việc chuyên biệt hóa AI tạo sinh có thể đặc biệt hiệu quả là trong việc phát triển quy trình onboarding người dùng hoặc AML/KYC. Theo Deloitte, tiềm năng của AI tạo sinh trong việc cách mạng hóa các lĩnh vực này là rất lớn, giúp chúng trở nên hiệu quả hơn và phù hợp với các yêu cầu quy định cụ thể.
📌 Chuyên biệt hóa AI tạo sinh là chìa khóa để tối đa hóa tiềm năng AI cho doanh nghiệp. Điều chỉnh mô hình theo nhu cầu cụ thể của từng ngành giúp tăng độ chính xác, phù hợp và hiệu quả. Dữ liệu tổng hợp là công cụ quan trọng để vượt qua thách thức này, biến AI thành công cụ mạnh mẽ, đặc thù cho từng ngành.
https://www.forbes.com/sites/forbestechcouncil/2024/07/02/verticalized-genai-is-key-to-enterprise-level-successful-adoption/
• AI tạo sinh đang được ứng dụng rộng rãi trong lĩnh vực hỗ trợ khách hàng tín dụng và thu hồi nợ, mang lại nhiều lợi ích đáng kể:
• Một tổ chức tài chính tiêu dùng đã triển khai AI tạo sinh để cải thiện hiệu quả của đội ngũ hỗ trợ khách hàng tuyến đầu. Họ nhanh chóng xác định được các yếu tố cuộc gọi giúp duy trì thỏa thuận, với việc tinh chỉnh mô hình hạn chế. Công ty cũng sử dụng thông tin này để tạo bảng điều khiển quản lý hiệu suất kỹ thuật số 360 độ, cá nhân hóa. Kết quả là hiệu suất tăng 10%.
• Một công ty quản lý tín dụng lớn ở châu Âu đã sử dụng khả năng xử lý ngôn ngữ tự nhiên của AI tạo sinh kết hợp với các kỹ thuật học máy truyền thống để xác định tài sản thế chấp và khớp với các tài khoản. Họ cũng tạo bảng điều khiển quản lý hiệu suất kỹ thuật số cá nhân hóa với phản hồi cấp cuộc gọi để giám sát viên huấn luyện và đào tạo cá nhân hóa, dẫn đến tăng 10% số tiền thanh toán.
• AI tạo sinh có thể đóng vai trò copilot để tăng cường hiệu suất của nhân viên trong thời gian thực trong các cuộc trò chuyện với khách hàng. Điều này mang lại trải nghiệm khách hàng tổng thể tốt hơn thông qua các tương tác có cấu trúc và mục tiêu hơn, tập trung vào những gì quan trọng đối với khách hàng.
• Trong các phiên bản triển khai ban đầu, nhân viên có thể yêu cầu giao diện trò chuyện cung cấp tóm tắt các tương tác trước đó với khách hàng, cách trả lời một câu hỏi cụ thể và liệu một sản phẩm hoặc giảm giá cụ thể có sẵn cho một tài khoản hay không.
• Các triển khai nâng cao hơn có thể được tích hợp vào các cuộc gọi điện thoại hoặc thảo luận điện tử khác để đề xuất hành động, sản phẩm hoặc cách tiếp cận cho nhân viên trong cuộc trò chuyện đang diễn ra. Chúng cũng có thể tự động xác định nếu cuộc trò chuyện đi ra ngoài chính sách, đánh giá kiểm soát chất lượng và kích hoạt sự can thiệp của giám sát viên để ngăn chặn trải nghiệm khách hàng tiêu cực trước khi nó leo thang.
• Đối với các tương tác dựa trên trò chuyện, AI tạo sinh có thể điền trước các câu trả lời được đề xuất cho phản hồi của khách hàng, với nhân viên chỉnh sửa khi cần thiết, từ đó tăng hiệu quả của tương tác.
• Nghiên cứu cho thấy việc chuyển đổi toàn diện một lĩnh vực kinh doanh như thu hồi nợ với các trường hợp sử dụng AI tạo sinh liên quan đến tăng cường, tự động hóa và giảm nhu cầu có thể mang lại lợi ích năng suất lên tới 30%.
• Các tổ chức triển khai các khả năng AI tạo sinh nâng cao trong hỗ trợ khách hàng và thu hồi nợ có thể đạt được mức giảm chi phí hoạt động lên tới 40% và cải thiện thu hồi khoảng 10%. Ngoài ra, thu hồi nợ có thể thấy mức tăng lên tới 30% trong điểm số hài lòng của khách hàng.
📌 AI tạo sinh đang mang lại tiềm năng cách mạng hóa hỗ trợ khách hàng tín dụng. Với khả năng phân tích cuộc gọi, hỗ trợ nhân viên thời gian thực và tự động hóa tương tác, công nghệ này giúp giảm chi phí hoạt động tới 40%, tăng thu hồi nợ 10% và cải thiện sự hài lòng của khách hàng lên 30%.
https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/the-promise-of-generative-ai-for-credit-customer-assistance
#McKinsey
• Hệ điều hành (OS) đóng vai trò nền tảng cho mọi loại hình máy tính, từ quá khứ đến hiện tại và tương lai.
• Trong lịch sử, mỗi nhà cung cấp tạo ra OS riêng cho máy tính mainframe của họ, dẫn đến sự phức tạp trong thế giới OS.
• Hiện nay, chỉ còn một số ít OS chiếm ưu thế. Câu hỏi đặt ra là OS nào có thể xử lý AI tạo sinh và liệu sẽ có một OS thống nhất cho AI hay không.
• OS cho AI tạo sinh cần đáp ứng nhiều yêu cầu cụ thể như: quản lý tài nguyên động nâng cao, xử lý thời gian thực, bảo mật mới, hỗ trợ điện toán biên, khả năng mở rộng, tính phân tán và quản lý năng lượng hiệu quả.
• OS cho AI cần hỗ trợ tương tác giữa ứng dụng AI tạo sinh và các tài sản công nghệ khác trong doanh nghiệp. Nó cần cho phép AI quản lý AI và trao quyền cho con người sử dụng AI.
• Thách thức lớn là cân bằng giữa chuyên môn hóa và linh hoạt khi đáp ứng nhu cầu của AI mà không loại bỏ các ứng dụng khác.
• Intuit đã tạo ra OS riêng cho AI có tên GenOS, nhưng đây là phần mềm nội bộ.
• Việc xây dựng một AIOS phổ biến và tương thích rộng rãi như Windows hay Linux sẽ gặp khó khăn do hệ sinh thái phần cứng và phần mềm AI đa dạng.
• Renen Hallak, CEO của VAST Data, cho rằng AIOS cần bắt đầu từ nền tảng dữ liệu có khả năng mở rộng để xử lý lượng lớn dữ liệu có cấu trúc và phi cấu trúc mà ứng dụng AI hiện đại cần.
• Tại VB Transform 2024, Hallak sẽ thảo luận về AIOS, cách nó sẽ định nghĩa lại việc sử dụng AI tạo sinh, và các cân nhắc chiến lược để xây dựng cơ sở hạ tầng AI có khả năng mở rộng, hiệu quả về chi phí và hướng tới tương lai.
📌 Hệ điều hành AI doanh nghiệp đang trở thành xu hướng mới, với yêu cầu cao về quản lý tài nguyên, bảo mật và khả năng mở rộng. VAST Data dự kiến chia sẻ tầm nhìn về AIOS tại VB Transform 2024, hứa hẹn mang lại cuộc cách mạng trong việc sử dụng AI tạo sinh.
https://venturebeat.com/ai/why-a-true-enterprise-ai-operating-system-is-going-to-be-legit-revolutionary-learn-more-at-vb-transform-2024/
• AI tạo sinh (GenAI) đang tạo ra một bước ngoặt quan trọng trong việc nâng cao hiệu quả hoạt động của doanh nghiệp. Nhiều tổ chức đang tập trung vào việc sử dụng GenAI để cải thiện năng suất và giảm chi phí hoạt động, tuy nhiên họ đang bỏ lỡ cơ hội lớn hơn - sử dụng GenAI để thúc đẩy sáng tạo và đổi mới.
• Có một điểm chuyển tiếp quan trọng giữa việc sử dụng GenAI để giảm chi phí (giai đoạn Năng suất) và sử dụng nó để thúc đẩy sáng tạo (giai đoạn Đổi mới). Giai đoạn Năng suất nhằm nâng cao năng suất của nhân viên trung bình lên ngang tầm với những người giỏi nhất. Ví dụ, GenAI có thể nâng cao năng suất của y tá trung bình bằng cách tối ưu hóa quy trình lập hồ sơ, cung cấp thông tin y tế cập nhật và phân tích nhanh dữ liệu bệnh nhân.
• Giai đoạn Đổi mới mang lại cơ hội lớn hơn nhiều. Trong giai đoạn này, trọng tâm chuyển sang việc thúc đẩy những bước tiến đột phá và tái cấu trúc các quy trình kinh doanh. Ví dụ, các y tá giỏi có thể sử dụng AI để phân tích dữ liệu bệnh nhân phức tạp, xác định các chiến lược điều trị mới và liên tục học hỏi để cải thiện kết quả điều trị.
• Các cấp độ trưởng thành của đổi mới dựa trên GenAI bao gồm:
1. Tối ưu hóa kinh doanh: Cải thiện quy trình hiện có để nâng cao hiệu quả và cắt giảm lãng phí.
2. Tái cấu trúc quy trình: Thiết kế lại căn bản các quy trình kinh doanh bằng cách tận dụng AI.
3. Thống trị thị trường: Xác định, thâm nhập và thống trị các thị trường mới.
4. Trao quyền văn hóa: Xây dựng văn hóa đổi mới, hợp tác và cải tiến liên tục.
• Các prompt trong giai đoạn Năng suất tập trung vào tự động hóa các tác vụ thường xuyên và cải thiện năng suất. Ví dụ: "Viết thư tuyển dụng dựa trên các tiêu chí sau...", "Tìm các vụ án pháp lý phù hợp với các tiêu chí sau...".
• Các prompt trong giai đoạn Đổi mới khuyến khích tư duy sáng tạo và khám phá ý tưởng mới. Chúng được thiết kế để mở rộng ranh giới của những gì có thể, tạo môi trường cho sự đổi mới phát triển.
• Bằng cách sử dụng mô hình trưởng thành này làm hướng dẫn, các tổ chức có thể phát triển chiến lược kỹ thuật prompt có hệ thống để đẩy nhanh tiến độ trong giai đoạn Đổi mới của GenAI. Điều này sẽ cho phép họ khai thác sức mạnh của GenAI để đạt được mức độ đổi mới và khám phá sáng tạo cao hơn.
📌 AI tạo sinh đang thúc đẩy đổi mới trong doanh nghiệp qua 4 giai đoạn: tối ưu hóa, tái cấu trúc, thống trị thị trường và trao quyền văn hóa. Việc chuyển từ giai đoạn Năng suất sang Đổi mới mở ra tiềm năng to lớn để tạo ra giá trị mới và đột phá trong nhiều lĩnh vực.
https://www.datasciencecentral.com/genai-maturity-from-productivity-to-effectiveness/
• Theo khảo sát của Schroders, 76% các nhà tư vấn tài chính độc lập và quản lý tài sản cho rằng sự phát triển của các ứng dụng AI như ChatGPT là cơ hội hơn là mối đe dọa đối với doanh nghiệp của họ, tăng từ 57% một năm trước.
• Tuy nhiên, 15% vẫn nghĩ rằng AI sẽ không ảnh hưởng gì đến họ hoặc doanh nghiệp của họ. Đây là một quan điểm sai lầm và có thể gây bất lợi cho khách hàng.
• AI đã chứng minh khả năng tự động hóa các tác vụ phức tạp như tóm tắt kết quả cuộc họp, soạn thảo email và báo cáo tài chính, mang lại hiệu quả đáng kể.
• Nhiều chuyên gia cho rằng AI sẽ không thay thế hoàn toàn các nhà tư vấn. Khách hàng vẫn coi trọng và sẵn sàng trả tiền cho trí tuệ và kinh nghiệm của con người.
• Tuy nhiên, ngành này có nguy cơ đánh giá quá cao chất lượng hỗ trợ "con người" và đánh giá thấp những cải tiến công nghệ gần đây.
• AI có tiềm năng giúp các nhà tư vấn hiểu sâu hơn về khách hàng, cải thiện quy trình đánh giá rủi ro và giải quyết vấn đề khách hàng dễ bị tổn thương mà nhiều nhà tư vấn gặp khó khăn.
• Dữ liệu của FCA cho thấy 53% người trưởng thành có đặc điểm dễ bị tổn thương. Tuy nhiên, khảo sát của Schroders cho thấy chỉ 9% nhà tư vấn phân loại hơn 1/4 khách hàng của họ là dễ bị tổn thương. AI có thể giúp phát hiện chính xác hơn các khách hàng dễ bị tổn thương.
• Đáng tiếc là những tiến bộ này có thể không đến đủ sớm. Chỉ 19% nhà tư vấn dự kiến sẽ đưa AI vào quy trình của họ trong vòng một năm tới, trong khi 51% cho biết sẽ mất 2-5 năm.
• Ngành quản lý tài sản được coi là một trong những ngành chậm nhất trong việc áp dụng công nghệ mới và chuyển đổi số.
• Với việc AI cắt giảm chi phí ở back office, giá mà khách hàng phải trả cho nhà tư vấn con người ở front office nên giảm đáng kể.
• Khách hàng nên yêu cầu giảm phí bằng cách nhấn mạnh rằng họ biết về hiệu quả mà AI mang lại. Họ cũng có thể cân nhắc thương lượng cơ cấu phí dựa trên giá trị, ví dụ như phí dựa trên hiệu suất.
📌 AI đang thay đổi nhanh chóng ngành quản lý tài sản, nhưng nhiều công ty vẫn chậm áp dụng. Khách hàng nên yêu cầu giảm phí do hiệu quả AI mang lại. 76% nhà tư vấn coi AI là cơ hội, nhưng chỉ 19% dự kiến áp dụng trong năm tới. AI có tiềm năng cải thiện dịch vụ và giảm chi phí đáng kể.
https://www.ft.com/content/dc4cb53c-dd70-4c51-a4b4-b46b8720bc2e
#FT
• Anthropic vừa nâng cấp trợ lý AI Claude với các tính năng mới nhằm tăng tính hữu ích trong môi trường văn phòng.
• Người dùng Claude Pro và Claude Team có thể tổ chức và theo dõi công việc tốt hơn nhờ tính năng Projects và Artifacts mới.
• Projects là nơi lưu trữ và tương tác với dữ liệu cho các tác vụ. Người dùng có thể tải lên tài liệu, mã và dữ liệu liên quan vào một nơi.
• Mỗi project trong Claude.ai có cửa sổ ngữ cảnh 200K, tương đương với một cuốn sách 500 trang.
• Người dùng có thể hỏi Claude về dữ liệu và thiết lập hướng dẫn tùy chỉnh về cách phản hồi về giọng điệu hoặc ngữ cảnh.
• Mục đích là tránh "khởi động lạnh", giúp Claude phản hồi truy vấn nhanh hơn và chính xác hơn.
• Tính năng Artifacts có thể tạo ra nhiều loại nội dung như văn bản, mã,...
• Claude sẽ chia sẻ đầu ra trong cửa sổ riêng bên cạnh cuộc trò chuyện, cho phép người dùng xem và tương tác với nội dung được tạo ra theo thời gian thực.
• Người dùng có thể chia sẻ các phần hay nhất của cuộc trò chuyện với Claude với nhóm của họ trong nguồn cấp dữ liệu hoạt động dự án được chia sẻ.
• Cả Projects và Artifacts đều được hỗ trợ bởi Claude 3.5 Sonnet, mô hình AI mới nhất của Anthropic.
• Theo Anthropic, Claude 3.5 Sonnet vượt trội hơn các mô hình được công bố gần đây như GPT-4 và Gemini 1.5 của Google trên nhiều tiêu chuẩn đánh giá.
• Tầm nhìn của Anthropic là tạo ra các hệ thống AI làm việc cùng con người và nâng cao đáng kể quy trình làm việc của họ.
📌 Anthropic nâng cấp Claude với Projects và Artifacts, cho phép lưu trữ 200K ngữ cảnh, tạo nội dung thời gian thực và chia sẻ trong nhóm. Claude 3.5 Sonnet vượt trội GPT-4 và Gemini 1.5, hướng tới trở thành trợ lý AI đắc lực trong văn phòng.
https://www.techradar.com/computing/artificial-intelligence/anthropic-wants-its-ai-assistant-claude-to-be-your-favorite-coworker
• Các công ty tư vấn như Boston Consulting Group (BCG), McKinsey và KPMG đang hưởng lợi lớn từ làn sóng AI tạo sinh.
• BCG hiện kiếm được 20% doanh thu từ công việc liên quan đến AI, tăng từ 0% chỉ 2 năm trước.
• IBM đã đạt được hơn 1 tỷ USD cam kết bán hàng liên quan đến AI tạo sinh cho công việc tư vấn và hệ thống watsonx của họ.
• Accenture đã đạt doanh số 300 triệu USD từ AI tạo sinh trong năm ngoái.
• Khoảng 40% hoạt động kinh doanh của McKinsey năm nay sẽ liên quan đến AI tạo sinh.
• KPMG đặt mục tiêu hơn 650 triệu USD cơ hội kinh doanh tại Mỹ liên quan đến công nghệ này trong 6 tháng qua.
• Nhu cầu tư vấn về AI tạo sinh được so sánh với thời kỳ bùng nổ dot-com những năm 1990.
• Các công ty tư vấn đang tổ chức các hội nghị và triển lãm để giới thiệu khả năng của họ về AI tạo sinh.
• Công việc tư vấn AI tạo sinh bao gồm tư vấn tuân thủ quy định, lập kế hoạch hệ thống hỗ trợ khách hàng AI và phát triển các biện pháp bảo vệ.
• IBM đã gặp một số thách thức với hệ thống đặt hàng bằng giọng nói AI cho McDonald's do lỗi trong đơn hàng.
• IBM cũng đã phát triển thành công hệ thống AI tạo sinh Ask Procurement cho Dun & Bradstreet để phân tích và tư vấn lựa chọn nhà cung cấp.
• McKinsey đã xây dựng chatbot dịch vụ khách hàng cho ING Bank trong 7 tuần, với các biện pháp bảo vệ để ngăn nó đưa ra lời khuyên về thế chấp hoặc đầu tư.
• Reckitt đã làm việc với BCG để phát triển nền tảng AI có thể tạo quảng cáo địa phương bằng các ngôn ngữ và định dạng khác nhau.
• Hệ thống tiếp thị AI của Reckitt có thể phát triển quảng cáo địa phương nhanh hơn 30%, tiết kiệm thời gian và giảm bớt công việc tẻ nhạt.
📌 Làn sóng AI tạo sinh đang mang lại cơ hội lớn cho các công ty tư vấn. Doanh thu từ AI của các "ông lớn" như BCG, McKinsey, IBM tăng vọt, với hàng trăm triệu USD cam kết bán hàng. Tuy nhiên, việc triển khai AI vẫn còn nhiều thách thức về độ chính xác và hiệu quả.
https://www.nytimes.com/2024/06/26/technology/ai-consultants.html
• Morgan Stanley Wealth Management đang triển khai Debrief - một trợ lý AI tạo sinh để hỗ trợ các cố vấn tài chính của mình.
• Debrief được xây dựng dựa trên mô hình GPT-4 của OpenAI và sẽ được triển khai cho gần 16.000 cố vấn tài sản của Morgan Stanley trong vài tuần tới.
• Với sự đồng ý của khách hàng, Debrief sẽ tham gia các cuộc họp giữa cố vấn và khách hàng. Sau đó, nó sẽ:
- Tóm tắt các điểm chính
- Đưa ra các hạng mục cần hành động
- Soạn thảo email
- Lưu ghi chú vào Salesforce
• Jeff McMillan, Giám đốc AI của Morgan Stanley, cho biết chất lượng và độ sâu của các ghi chú do Debrief tạo ra "tốt hơn đáng kể" so với các nhà phân tích. Ông nói: "Sự thật là, nó làm tốt hơn con người trung bình trong việc ghi chép."
• Đây là bước tiếp theo trong quan hệ đối tác giữa Morgan Stanley và OpenAI. Vào tháng 3/2023, Morgan Stanley trở thành đối tác quản lý tài sản duy nhất của OpenAI.
• Tháng 9/2023, ngân hàng đã ra mắt AI @ Morgan Stanley Assistant - một chatbot AI tạo sinh giúp cố vấn tài chính truy cập vào kho kiến thức kỹ thuật của ngân hàng. Đã có 98% các nhóm cố vấn tài chính áp dụng chatbot này.
• Vince Lumia, Giám đốc bộ phận khách hàng của Morgan Stanley Wealth Management, cho biết công cụ này "thúc đẩy hiệu quả to lớn trong công việc hàng ngày của các cố vấn, cho phép họ dành nhiều thời gian hơn để tương tác có ý nghĩa với khách hàng."
• Các ngân hàng lớn khác trên Phố Wall cũng đang đẩy mạnh ứng dụng AI:
- JPMorgan Chase có mô hình ngôn ngữ lớn riêng gọi là ChatCFO để hỗ trợ đội ngũ tài chính.
- JPMorgan đang đào tạo mọi nhân viên mới sử dụng AI, giúp tiết kiệm 2-4 giờ làm việc mỗi ngày cho các nhà phân tích.
- Goldman Sachs cũng thấy "cơ hội to lớn để tăng năng suất và hiệu quả" khi triển khai AI.
• Daniel Pinto, Chủ tịch JPMorgan, cho biết AI sẽ có tác động rất lớn đối với 60.000 nhà phát triển và 80.000 nhân viên vận hành và tổng đài của ngân hàng - chiếm gần một nửa tổng số nhân viên.
• Pinto ước tính các trường hợp sử dụng AI tại JPMorgan có giá trị khoảng 1-1,5 tỷ USD.
📌 Morgan Stanley triển khai trợ lý AI Debrief cho 16.000 cố vấn tài chính, giúp tăng hiệu quả làm việc. Các ngân hàng lớn khác như JPMorgan và Goldman Sachs cũng đẩy mạnh ứng dụng AI, với JPMorgan ước tính giá trị sử dụng AI lên tới 1,5 tỷ USD.
https://qz.com/morgan-stanley-openai-debrief-ai-chatbot-genai-1851561076
• Anthropic, công ty AI được hậu thuẫn bởi Amazon, Google và Salesforce, đã ra mắt bộ tính năng cộng tác mạnh mẽ cho trợ lý AI Claude, nhằm cách mạng hóa cách các nhóm tương tác với AI.
• Tính năng Projects cho phép các nhóm tổng hợp tài liệu, mã và thông tin liên quan trong một không gian duy nhất. Với khả năng xử lý 200.000 token (tương đương 500 trang sách), Claude có thể hiểu và xử lý lượng lớn thông tin đặc thù của tổ chức.
• Artifacts là tính năng cho phép người dùng tạo và chỉnh sửa nội dung song song với cuộc trò chuyện với Claude, giúp hợp lý hóa quy trình sáng tạo.
• Các tính năng chia sẻ nâng cao cho phép chia sẻ dễ dàng các Projects, Artifacts hoặc cuộc trò chuyện cụ thể với đồng nghiệp, hỗ trợ quá trình chuyển giao kiến thức và ra quyết định.
• Anthropic đã triển khai các biện pháp bảo mật mạnh mẽ, bao gồm nhiều cấp độ quyền truy cập để đảm bảo an toàn dữ liệu. Người dùng có thể xóa Projects và dữ liệu liên quan sẽ bị xóa khỏi môi trường lưu trữ đám mây trong vòng 30 ngày.
• Công ty nhấn mạnh rằng dữ liệu chia sẻ trong Projects sẽ không được sử dụng để đào tạo các mô hình tạo sinh của họ mà không có sự đồng ý rõ ràng của người dùng.
• North Highland, một công ty tư vấn chuyển đổi, cho biết họ hoàn thành các tác vụ tạo nội dung và phân tích nhanh hơn gấp 5 lần so với trước khi sử dụng Claude.
• Scott White, trưởng nhóm sản phẩm tại Anthropic, chia sẻ tầm nhìn của công ty là tạo ra các hệ thống AI làm việc cùng con người và nâng cao đáng kể quy trình làm việc của họ.
• Bằng cách tập trung vào việc tăng cường khả năng của con người thay vì thay thế họ, Anthropic đang định vị mình như một đối thủ đáng gờm trong cuộc đua thống trị thị trường AI hỗ trợ năng suất làm việc.
• Anthropic gợi ý về các tích hợp trong tương lai với các ứng dụng và công cụ phổ biến, cho thấy cam kết tiếp tục tập trung vào việc tích hợp AI một cách liền mạch vào các quy trình kinh doanh hiện có.
📌 Anthropic ra mắt tính năng Projects và Artifacts cho Claude, cách mạng hóa cộng tác nhóm với AI. Với khả năng xử lý 200.000 token, bảo mật dữ liệu mạnh mẽ và tăng hiệu suất gấp 5 lần, Anthropic đang định vị mình như đối thủ đáng gờm trong thị trường AI doanh nghiệp.
https://venturebeat.com/ai/anthropic-ai-assistant-claude-just-got-a-massive-upgrade-heres-what-you-need-to-know/
- Air India đang thử nghiệm sử dụng GPT-4 Omni, một mô hình ngôn ngữ đa phương thức mới nhất của OpenAI, để cải thiện dịch vụ chăm sóc khách hàng.
- GPT-4 Omni có khả năng xử lý cả văn bản, hình ảnh, âm thanh và video, mở ra nhiều khả năng ứng dụng trong tương tác với khách hàng.
- Air India hy vọng GPT-4 Omni sẽ giúp họ cung cấp dịch vụ chăm sóc khách hàng tốt hơn, trả lời các câu hỏi phức tạp và xử lý các yêu cầu đa dạng của khách hàng.
- Hãng hàng không đang phát triển một trợ lý ảo tên là AI.g (phát âm là "AI dot ji") sử dụng công nghệ GPT-4 Omni để hỗ trợ khách hàng.
- AI.g sẽ có thể trả lời các câu hỏi về chuyến bay, hành lý, thủ tục làm thủ tục và nhiều vấn đề khác liên quan đến du lịch.
- Việc áp dụng GPT-4 Omni cho thấy cam kết của Air India trong việc tận dụng công nghệ AI tiên tiến nhất để nâng cao trải nghiệm của khách hàng.
- Đây là một phần trong nỗ lực chuyển đổi kỹ thuật số rộng lớn hơn của Air India nhằm hiện đại hóa hoạt động và dịch vụ của hãng.
📌 Air India đang thử nghiệm GPT-4 Omni, mô hình ngôn ngữ đa phương thức mới nhất của OpenAI, để phát triển trợ lý ảo AI.g nhằm cải thiện đáng kể dịch vụ chăm sóc khách hàng. Việc áp dụng công nghệ AI tiên tiến này thể hiện cam kết mạnh mẽ của hãng trong việc nâng cao trải nghiệm của khách hàng và đẩy mạnh quá trình chuyển đổi kỹ thuật số.
Citations:
[1] https://www.entrepreneur.com/en-in/news-and-trends/indigo-and-air-india-to-use-ai-for-better-customer-care/476095
- Bessemer Venture Partners tin rằng Cloud AI đã thay thế cloud truyền thống và thực tế về công nghệ này đang vượt xa sự cường điệu.
- Các công ty khởi nghiệp AI hướng tới người tiêu dùng như Perplexity, Character.ai, Midjourney đang thu hút được nhiều người dùng và đe dọa các đối thủ hiện tại. Bessemer dự đoán sẽ có "nhiều đợt IPO của các công ty đám mây tiêu dùng" trong 5 năm tới.
- Các công ty nên thiết kế công cụ nội bộ tích hợp AI một cách linh hoạt, dễ nâng cấp khi có giải pháp tốt hơn. Họ cũng nên nghiên cứu, thử nghiệm các giải pháp AI mới phù hợp.
- Trợ lý mã hóa, chức năng tìm kiếm và tạo sinh tác tử, lập luận ngôn ngữ-mã hóa sẽ thúc đẩy sự phát triển của lập trình viên AI.
- Các mô hình đa phương thức và tác nhân AI thông minh, tự trị sẽ thay đổi cách chúng ta làm việc với phần mềm. Ứng dụng AI giọng nói sẽ bùng nổ trong 12 tháng tới.
- AI theo ngành dọc có thể mở ra các mô hình kinh doanh và ý tưởng ứng dụng mới, vượt xa SaaS truyền thống. Giá trị của nó tương đương với chi phí nhân công đắt đỏ.
- Các công ty công nghệ lớn sẽ cạnh tranh gay gắt về các mô hình nền tảng AI. 60% tổng số tiền đầu tư AI năm 2023 (23 tỷ USD) rót vào các công ty mô hình nền tảng.
- AI sẽ hồi sinh đám mây người dùng sau 8 năm không có thương vụ IPO/M&A đình đám nào. Khả năng đa phương thức của các mô hình ngôn ngữ lớn tạo ra cơ hội đột phá trong mọi hạng mục đám mây người dùng.
- Đến năm 2030, mọi người dùng máy tính và điện thoại sẽ có "khả năng lập trình đáng kể" nhờ công cụ như GitHub Copilot. Tuổi trung bình của nhà sáng lập công ty công nghệ sẽ giảm mạnh.
📌 Báo cáo State of the Cloud 2024 của Bessemer Venture Partners nêu bật 5 xu hướng chính đang định hình tương lai của nền kinh tế Cloud AI, bao gồm: sự cạnh tranh của các công ty công nghệ lớn về mô hình nền tảng AI, sự trỗi dậy của đám mây người dùng, tiềm năng to lớn của AI theo ngành dọc, sự phát triển của lập trình viên AI và vai trò quan trọng của các mô hình đa phương thức và tác nhân AI.
https://venturebeat.com/ai/five-trends-driving-the-adoption-of-cloud-ai-technologies-showing-reality-outpaces-hype/
- Target đang thử nghiệm chatbot có tên Store Companion dưới dạng ứng dụng trên thiết bị cầm tay của nhân viên tại 400 cửa hàng.
- Chatbot có thể hướng dẫn các tác vụ như khởi động lại máy tính tiền hoặc đăng ký khách hàng vào chương trình khách hàng thân thiết.
- Mục đích là giúp nhân viên tự tin hơn khi phục vụ khách hàng.
- Target dự kiến sẽ cung cấp ứng dụng này cho hầu hết nhân viên tại gần 2.000 cửa hàng vào tháng 8.
- Ngành bán lẻ đang thử nghiệm AI tạo sinh, với kỳ vọng biến trải nghiệm mua sắm trực tiếp giống như mua sắm trực tuyến.
- Các nhà bán lẻ đã cá nhân hóa trải nghiệm mua sắm trực tuyến bằng công nghệ dự đoán, gợi ý sản phẩm cho khách hàng.
- Ứng dụng của Target nhằm giúp nhân viên trả lời nhanh hơn các câu hỏi của khách hàng.
- Walmart gần đây đã mở rộng quyền truy cập vào công cụ AI mà họ bắt đầu sử dụng từ mùa hè năm ngoái cho 13.000 quản lý cửa hàng Sam's Club.
- Mặc dù có nhiều khoản đầu tư và sự cường điệu xung quanh AI tạo sinh, một số nhà bán lẻ cũng đã thu hẹp các thử nghiệm với công nghệ này do thất bại.
📌 Target đang thử nghiệm chatbot AI tại 400 cửa hàng, hỗ trợ nhân viên trong các tác vụ và trả lời nhanh hơn câu hỏi của khách hàng. Ngành bán lẻ kỳ vọng AI tạo sinh sẽ giúp trải nghiệm mua sắm trực tiếp giống như trực tuyến. Tuy nhiên, một số thử nghiệm của các nhà bán lẻ với công nghệ này cũng đã thất bại.
https://www.nytimes.com/2024/06/20/business/target-retail-ai.html
- AI Agent là một công nghệ mới, mở ra tương lai cho các ứng dụng AI tạo sinh khi kết hợp với dữ liệu doanh nghiệp để đạt mức tự động hóa và tính tự chủ cao hơn.
- AI Agent bao gồm các module chính như: prompting, quản lý ngữ cảnh, truy xuất thông tin, mở rộng khả năng của large language model (LLM), lập kế hoạch, phản ánh và sử dụng công cụ.
- Các tính năng chính của AI Agent là: tự động ra quyết định, phản ứng với thay đổi môi trường, chủ động hành động mà không cần chỉ dẫn, tự nâng cấp dựa trên phản hồi.
- Để xây dựng AI Agent cần có: frontend tương tác người dùng đa dạng, backend gồm các mô hình nền tảng, công cụ bổ trợ, máy trạng thái, hệ thống truy xuất thông tin, cơ sở hạ tầng ML đáng tin cậy.
- Hiện tại, xây dựng AI Agent vẫn chủ yếu là thách thức về kỹ thuật, tập trung vào việc tối ưu hóa các module xung quanh LLM. Đây là bài toán về kỹ thuật chứ không phải công nghệ mới.
- Các thách thức khi triển khai AI Agent bao gồm: lập kế hoạch thất bại, chọn sai công cụ, mất phương hướng giữa chừng, chi phí cao, khó mở rộng khi có nhiều agent.
- Một số lời khuyên khi phát triển AI Agent: tập trung vào prompt engineering, tinh chỉnh mô hình, lựa chọn LLM phù hợp, quản lý trạng thái tốt, học hỏi từ các framework mã nguồn mở.
- Tương lai của AI Agent sẽ là các tác nhân đa năng, có thể hoạt động tự động trên nhiều lĩnh vực, môi trường khác nhau. Quá trình phát triển sẽ đi từ các agent chuyên biệt đến agent đa năng chung.
- Các mối lo ngại về đạo đức, pháp lý khi AI Agent ngày càng mạnh mẽ và tự chủ hơn đang được quan tâm. Cần có các quy định và nguyên tắc AI có trách nhiệm.
📌AI Agent đang mở ra một tương lai đầy tiềm năng cho các ứng dụng AI tạo sinh, hướng tới mức độ tự động hóa và tính tự chủ cao. Tuy nhiên, việc xây dựng và triển khai công nghệ này vẫn còn nhiều thách thức về kỹ thuật cần được giải quyết. Quá trình phát triển sẽ đi từ các agent chuyên biệt đến agent đa năng chung. Trong tương lai, AI Agent hứa hẹn sẽ trở thành những trợ lý ảo đa năng, giúp tự động hóa nhiều tác vụ cho con người. Tuy nhiên, các vấn đề về đạo đức, pháp lý khi AI ngày càng mạnh mẽ cũng cần được quan tâm và xây dựng các nguyên tắc để phát triển AI một cách có trách nhiệm.
https://www.infoq.com/presentations/ai-agent-llm/
- TCS mở rộng quan hệ đối tác chiến lược với Xerox thông qua chương trình chuyển đổi toàn diện, nhằm đẩy nhanh quá trình phát triển của Xerox thành một tổ chức đơn giản, lấy dịch vụ làm trọng tâm và được hỗ trợ bởi phần mềm.
- TCS sẽ phát triển một mô hình hoạt động mới, lấy đám mây làm trọng tâm cho Xerox, tận dụng các khả năng sâu rộng của các dịch vụ như AI.Cloud, giải pháp doanh nghiệp (bao gồm TCS CrystallusTM) và Cognitive Business Operations (bao gồm TCS CognixTM).
- TCS sẽ kết hợp các khả năng này với chuyên môn của các đối tác trong ngành như các nhà cung cấp giải pháp siêu cấp và AI hàng đầu.
- Theo thỏa thuận, TCS sẽ hợp nhất các dịch vụ công nghệ của Xerox để cải thiện kết quả kinh doanh, di chuyển các trung tâm dữ liệu kế thừa phức tạp sang đám mây công cộng Azure, triển khai nền tảng ERP kỹ thuật số dựa trên đám mây để chuyển đổi quy trình kinh doanh và kết hợp AI tạo sinh vào hoạt động để thúc đẩy tăng trưởng bền vững.
- Thông báo này củng cố sự hiện diện mạnh mẽ của TCS tại Mỹ, thị trường lớn nhất của tổ chức với gần 50.000 cộng sự và 19 trung tâm giao hàng.
📌 Hợp tác chiến lược giữa TCS và Xerox nhằm xây dựng nền tảng doanh nghiệp lấy AI làm trọng tâm, tận dụng AI.Cloud, giải pháp doanh nghiệp và Cognitive Business Operations. Theo thỏa thuận, TCS sẽ hợp nhất công nghệ, di chuyển lên đám mây Azure, triển khai ERP kỹ thuật số và tích hợp AI tạo sinh để thúc đẩy tăng trưởng bền vững cho Xerox, đồng thời mở rộng sự hiện diện của TCS tại thị trường Mỹ với gần 50.000 cộng sự.
https://analyticsindiamag.com/tcs-to-build-an-ai-first-enterprise-platform-for-xerox/
- Mặc dù các giám đốc điều hành và quản lý hào hứng với cách áp dụng AI tạo sinh và LLM vào công việc, nhưng cần xem xét kỹ lưỡng cách thức và nơi áp dụng để mang lại lợi nhuận cho doanh nghiệp.
- Thách thức lớn nhất là chứng minh ROI khi đưa 20-40 giải pháp GenAI vào sản xuất. Cần đầu tư vào kiểm thử và giám sát các LLM.
- Kiểm thử rất quan trọng để đảm bảo tính chính xác của LLM. Các nhà phát triển, thiết kế hoặc chuyên gia QA nên cố tình "đầu độc" LLM để kiểm tra khả năng xử lý thông tin sai lệch.
- GenAI dễ dàng áp dụng sai cách vào ứng dụng hiện có và giả vờ làm đúng. Nó có thể thêm các tính năng hào nhoáng nhưng lại tệ hại về bảo mật và rủi ro trong sản xuất.
- GenAI sẽ mất 2-5 năm nữa để trở thành xu hướng chính. Thách thức là làm sao để bắt kịp. Sẽ có nhiều cạnh tranh và đa dạng từ các nhà cung cấp, nền tảng phần mềm và đám mây.
- Một rủi ro khác là áp dụng LLM cho các tác vụ đơn giản hơn như so khớp địa chỉ, gây lãng phí tiền bạc. Cần tìm cách tận dụng LLM rẻ hơn và hiệu quả hơn.
- Nên áp dụng truy vấn trên nhiều mô hình để đo lường hiệu suất và chất lượng phản hồi. Cần có cách chung để thu thập các chỉ số, phát lại truy vấn trên các mô hình khác nhau.
- GenAI không sai theo cách thông thường. Nó có thể đưa ra kết quả không liên quan. Cần có các rào cản để ngăn chặn điều này.
📌 AI tạo sinh đang là xu hướng nóng, nhưng việc chứng minh ROI và triển khai đúng cách vẫn là thách thức lớn. Các doanh nghiệp cần đầu tư vào kiểm thử, giám sát và áp dụng linh hoạt trên nhiều mô hình để tối ưu chi phí và hiệu quả, đồng thời hạn chế rủi ro bảo mật. Cuộc đua GenAI đang diễn ra gay gắt và đa dạng, đòi hỏi các doanh nghiệp phải nhanh chóng thích ứng trong 2-5 năm tới.
https://www.zdnet.com/article/generative-ais-biggest-challenge-is-showing-the-roi-heres-why/
- Decagon, một nền tảng AI tạo sinh tự động hóa hỗ trợ khách hàng, do Jesse Zhang và Ashwin Sreenivas đồng sáng lập.
- Thị trường công nghệ hỗ trợ khách hàng dựa trên AI tạo sinh có thể đạt giá trị 2.89 tỷ USD vào năm 2032, tăng từ 308.4 triệu USD năm 2022.
- Chatbot của Decagon được điều khiển bởi các mô hình AI nội bộ và bên thứ ba, có thể tinh chỉnh và tích hợp với các ứng dụng khác để thực hiện các hành động thay mặt khách hàng hoặc đại lý.
- Công ty cung cấp bảng điều khiển phân tích và kiểm soát chatbot cũng như cuộc trò chuyện của chúng cho doanh nghiệp.
- Decagon đã thu hút được các khách hàng lớn như Eventbrite, Bilt và Substack, giúp công ty đạt điểm hòa vốn.
- Công ty đã huy động được 35 triệu USD qua các vòng gọi vốn hạt giống và Series A từ các nhà đầu tư nổi tiếng như Andreessen Horowitz, Accel, A* và doanh nhân Elad Gil.
- Số tiền huy động được sử dụng để phát triển sản phẩm và mở rộng lực lượng lao động tại San Francisco.
📌 Decagon đang nổi lên như một công ty tiềm năng trong lĩnh vực chatbot hỗ trợ khách hàng dựa trên AI tạo sinh với công nghệ tiên tiến, danh sách khách hàng ấn tượng và khả năng huy động 35 triệu USD từ các nhà đầu tư hàng đầu. Tuy nhiên, họ phải đối mặt với thách thức lớn là thay đổi nhận thức của khách hàng về chatbot thế hệ cũ.
https://techcrunch.com/2024/06/18/decagon-claims-its-customers-service-bots-are-smarter-than-average/
- EY sẽ triển khai Microsoft Dynamics 365 Sales và Copilot cho 100.000 nhân viên trên 700 văn phòng tại 150 quốc gia, dự kiến hoàn thành vào tháng 1 năm 2025.
- Hiện tại, khoảng 25.000 nhân viên EY tại Mỹ, Canada, Singapore và Nam Phi đã có quyền truy cập vào CRM và trợ lý AI của Microsoft.
- EY chuyển từ hệ thống CRM cũ sang nền tảng bán hàng kỹ thuật số để đáp ứng nhu cầu về một phương pháp tiếp cận thống nhất trong quan hệ khách hàng, bao gồm hiểu sâu hơn về các vấn đề ngành và cung cấp thông tin chi tiết nhanh chóng.
- EY đã đầu tư 1,4 tỷ USD vào phát triển nền tảng AI, mô hình ngôn ngữ lớn và cơ sở hạ tầng liên quan. Các đối tác công nghệ như Microsoft, Dell, ServiceNow và IBM đã hỗ trợ tốc độ đổi mới của công ty.
- Microsoft đã cung cấp cho EY quyền truy cập sớm vào các khả năng Azure OpenAI.
- Hanne Jesca Bax, phó chủ tịch toàn cầu của EY, cho biết việc triển khai này nhằm chứng minh cho khách hàng cách thực hiện cho các tổ chức phức tạp trong các ngành công nghiệp được quản lý chặt chẽ, cung cấp cái nhìn rõ ràng hơn về toàn bộ vòng đời khách hàng từ quản lý cơ hội đến bán hàng.
- Các công ty dịch vụ chuyên nghiệp khác cũng đang theo đuổi chiến lược tương tự. PwC đã công bố kế hoạch trị giá 1 tỷ USD trong 3 năm để tăng cường các dịch vụ AI nội bộ và cho khách hàng.
- PwC sẽ trở thành khách hàng lớn nhất của ChatGPT Enterprise của OpenAI sau khi triển khai cho 100.000 nhân viên, đồng thời phát triển các GPT tùy chỉnh để xem xét khai thuế, tạo phản hồi đề xuất và hỗ trợ các nhà phát triển phần mềm.
📌 EY sẽ triển khai Microsoft Dynamics 365 Sales và Copilot cho 100.000 nhân viên trên toàn cầu, hoàn thành vào tháng 1 năm 2025. Công ty đã đầu tư 1,4 tỷ USD vào AI và hợp tác với các đối tác công nghệ lớn. PwC cũng đang theo đuổi chiến lược tương tự với kế hoạch trị giá 1 tỷ USD.
https://www.ciodive.com/news/EY-microsoft-copilot-deploy-plans-CRM-upgrade/719223/
- Klarna thông báo công cụ dịch vụ khách hàng AI của họ có thể thay thế khoảng 700 nhân viên. Microsoft cũng có kế hoạch triển khai AI trong các trung tâm cuộc gọi.
- Chatbot truyền thống dựa trên quy tắc và kịch bản định sẵn, dẫn đến trải nghiệm khách hàng không tốt. Dịch vụ khách hàng AI ngày nay dựa trên NLU (Hiểu ngôn ngữ tự nhiên), tạo ra tương tác tự nhiên hơn.
- Dịch vụ khách hàng AI có khả năng học hỏi và thích nghi liên tục, phân tích dữ liệu để hiểu ngữ cảnh, cảm xúc và ý định của người dùng chính xác hơn, thậm chí dự đoán nhu cầu của khách hàng.
- Nhiều doanh nhân nổi tiếng đang làm việc trong lĩnh vực này, như Bret Taylor (Chủ tịch OpenAI) với công ty Sierra. Các công ty khác bao gồm Ada, Kustomer, Gladly và Decagon.
- Decagon huy động được 35 triệu USD từ Accel và A16Z, có nhiều nhà đầu tư nổi tiếng và khách hàng như Bilt, Substack, Eventbrite.
- Về vấn đề dữ liệu, CEO của Decagon, Jesse Zhang, cho biết họ ưu tiên cao nhất việc bảo vệ dữ liệu khách hàng, chỉ sử dụng để tinh chỉnh mô hình khi được khách hàng cho phép và có quy trình xử lý dữ liệu nhạy cảm.
- Khi đánh giá các giải pháp, người mua nên xem xét: Đó có phải là hệ thống cũ chuyển sang AI tạo sinh hay được xây dựng từ đầu với LLM? Giải pháp ngăn chặn ảo giác như thế nào? Có vòng phản hồi tốt để cải thiện hệ thống AI và quản lý tri thức không?
📌 Dịch vụ chăm sóc khách hàng AI đang bùng nổ với sự tham gia của nhiều công ty công nghệ hàng đầu và nguồn vốn đầu tư lớn. Klarna có thể thay thế 700 nhân viên nhờ công nghệ này, trong khi Microsoft cũng đang triển khai AI trong các trung tâm cuộc gọi. Với khả năng cải thiện trải nghiệm khách hàng và tiết kiệm chi phí đáng kể, đây là một lĩnh vực đầy tiềm năng trong tương lai.
https://www.forbes.com/sites/sunilrajaraman/2024/06/18/ai-driven-customer-service-is-gaining-steam/
- Salesforce công bố công cụ đánh giá AI tạo sinh đầu tiên cho CRM, giúp doanh nghiệp đưa ra quyết định sáng suốt khi lựa chọn LLM cho ứng dụng kinh doanh.
- Theo Clara Shih, CEO của Salesforce AI, khách hàng không chỉ muốn mô hình tốt nhất mà còn phải đảm bảo tuân thủ, phù hợp với tiêu chuẩn bảo mật và chi phí hợp lý.
- Việc lựa chọn LLM cho ứng dụng kinh doanh là bài toán tối ưu hóa có ràng buộc, cân bằng giữa chi phí, độ chính xác, độ tin cậy, an toàn và tốc độ.
- Công cụ đánh giá mới của Salesforce giúp doanh nghiệp hiểu rõ ưu nhược điểm của các LLM khác nhau và đưa ra quyết định phù hợp với mục tiêu và ưu tiên kinh doanh.
- Công cụ này không dựa trên đánh giá tự động bằng LLM hay dữ liệu tổng hợp. Các chuyên gia nghiên cứu và xác định tiêu chí đánh giá LLM, sử dụng dữ liệu CRM thực tế.
- Các chỉ số chính bao gồm: độ chính xác (tính xác thực, đầy đủ, súc tích, tuân thủ hướng dẫn), chi phí (cao, trung bình, thấp), tốc độ (thời gian phản hồi, hiệu quả xử lý), độ tin cậy và an toàn (xử lý dữ liệu nhạy cảm, tuân thủ quy định bảo mật).
- Kết quả cho thấy không phải lúc nào mô hình lớn nhất cũng là tốt nhất. Có thể đạt hiệu suất tốt với mô hình nhỏ hơn, hiệu quả về chi phí và độ trễ.
- Salesforce cam kết tiếp tục mở rộng nghiên cứu với nhiều chỉ số, trường hợp sử dụng, dữ liệu và chú thích hơn nữa.
📌 Salesforce giới thiệu công cụ đánh giá AI tạo sinh đầu tiên cho CRM, giúp doanh nghiệp lựa chọn LLM phù hợp nhất dựa trên các tiêu chí như độ chính xác, chi phí, tốc độ, độ tin cậy và an toàn. Công cụ này sử dụng dữ liệu CRM thực tế và đánh giá của chuyên gia, cho thấy mô hình nhỏ hơn đôi khi vẫn đạt hiệu suất tốt với chi phí và độ trễ thấp hơn.
https://www.cio.com/article/2151993/salesforce-debuts-gen-ai-benchmark-for-crm.html?amp=1
- HPE và Nvidia ra mắt danh mục giải pháp AI tạo sinh toàn diện "Nvidia AI Computing By HPE", bao gồm dịch vụ đám mây riêng HPE Private Cloud AI.
- HPE Private Cloud AI là giải pháp tích hợp sẵn, chỉ cần 3 cú nhấp chuột để triển khai, tiết kiệm 4-5 lần chi phí so với public cloud.
- Chương trình hỗ trợ kênh phân phối chung gồm công cụ, chứng chỉ đào tạo AI và quỹ phát triển thị trường (MDF).
- HPE giới thiệu 3 hệ thống AI mới dựa trên Nvidia: HPE ProLiant DL384 Gen12, DL380a Gen12 và Cray XD760.
- Giải pháp HPE Private Cloud AI cung cấp 4 cấu hình từ nhỏ đến siêu lớn, hỗ trợ mở rộng linh hoạt.
- Khách hàng có thể mua theo mô hình trả phí theo mức sử dụng GreenLake IaaS hoặc chi tiêu vốn.
- HPE OpsRamp cung cấp thông tin chi tiết hành động cho toàn bộ stack điện toán Nvidia thông qua trợ lý hội thoại AI.
📌 Hợp tác HPE-Nvidia mang đến giải pháp AI tạo sinh toàn diện, từ phần cứng, phần mềm đến dịch vụ đám mây riêng HPE Private Cloud AI tích hợp sẵn, tiết kiệm đến 80% chi phí so với public cloud. Chương trình hỗ trợ kênh phân phối chung cùng công cụ quản lý OpsRamp giúp đối tác và khách hàng dễ dàng triển khai, mở rộng quy mô AI trong doanh nghiệp.
https://www.crn.com/news/ai/2024/nvidia-ai-computing-by-hpe-and-hpe-private-cloud-ai-details-of-the-blockbuster-ai-partnership
- Các công ty đang chi hàng chục triệu USD để huấn luyện các hệ thống AI nhằm cải thiện hoạt động kinh doanh hoặc tạo ra các dịch vụ mới. Chi phí có thể lên tới hàng triệu USD để chuyển các mô hình đã huấn luyện giữa các data center và môi trường đám mây để kiểm thử và xác thực thêm.
- Các tổ chức đang gặp khó khăn trong việc triển khai các mô hình AI đòi hỏi nhiều tài nguyên tính toán. Đơn giản hóa, mở rộng quy mô và tốc độ triển khai là những ưu điểm lớn của public cloud, nhưng các vấn đề về quy định, hiệu năng, độ trễ và chi phí đang khiến một số triển khai đám mây trở nên kém hấp dẫn.
- Các mô hình ngôn ngữ lớn (LLM) ngày nay có kích thước gấp 10 lần so với vài năm trước và sử dụng tới 100 lần tài nguyên tính toán. Chúng xử lý hàng tỷ hoặc thậm chí hàng nghìn tỷ tham số để huấn luyện các mô hình AI tạo ra các phản hồi và dự đoán cực kỳ tinh vi, chính xác trong thời gian thực.
- Các sáng kiến AI đang thúc đẩy nhu cầu về một loại cơ sở hạ tầng mới cung cấp khả năng tính toán tăng tốc. Các ứng dụng này đòi hỏi cơ sở hạ tầng chạy nhanh hơn, lớn hơn và an toàn hơn, với hiệu suất năng lượng cao ở mọi quy mô.
- Các public cloud cung cấp quyền truy cập tức thì vào tài nguyên, khả năng nhanh chóng tạo và hủy môi trường phát triển, khả năng mở rộng linh hoạt. Chúng cũng cung cấp nhiều công nghệ mới dựa trên Kubernetes, container và các tùy chọn khác tạo điều kiện cho phát triển và quản lý ứng dụng hiện đại.
- Các nhà cung cấp GPU cloud như AWS Lambda, Scaleway hay CoreWeave cung cấp GPU và tài nguyên full-stack mạnh mẽ theo nhu cầu để đáp ứng tăng trưởng nhanh hoặc sử dụng biến động. Họ tuyên bố cung cấp hiệu năng nhanh hơn nhiều, độ trễ và chi phí thấp hơn so với các đám mây hyperscale lớn hơn.
- Tuy nhiên, hơn 80% tổ chức dự kiến sẽ chuyển một số tài nguyên tính toán và lưu trữ trở lại môi trường private cloud hoặc non-cloud. 93% lãnh đạo CNTT đã tham gia vào một số loại dự án hồi hương đám mây trong 3 năm qua.
- Việc di chuyển dữ liệu vào và ra khỏi hybrid cloud có thể dẫn đến các khoản phí egress khá lớn. 42% tổ chức gần đây đã chuyển các ứng dụng sản xuất của họ từ đám mây do chi phí. Các sáng kiến AI có thể làm gia tăng mối lo ngại về chi phí đám mây.
- Tốc độ không được ấn tượng khi dữ liệu di chuyển từ đám mây trở lại data center on-premises hoặc colocation. Một số ứng dụng không thể chịu được độ trễ như vậy.
- Các tổ chức triển khai các ứng dụng cực kỳ nhạy cảm với độ trễ (LLM, GenAI, tài chính, hàng không vũ trụ, lái xe tự động hoặc khoa học đời sống) có thể thấy mức độ dịch vụ on-premises hoặc colocation dễ đoán và hiệu quả hơn.
- Các máy chủ dựa trên GPU, hệ thống tệp song song và mạng cáp quang có sẵn tại chỗ, các tổ chức muốn duy trì quyền kiểm soát tại chỗ đối với dữ liệu nhạy cảm của họ có thể đáp ứng hoặc vượt qua quy mô và tốc độ đám mây. Họ cũng có thể đáp ứng các yêu cầu tuân thủ và chủ quyền dữ liệu hiệu quả hơn về chi phí.
📌 Sự bùng nổ của AI đang thúc đẩy nhu cầu về cơ sở hạ tầng đám mây mới với hiệu năng cao, khả năng mở rộng lớn và bảo mật tốt hơn. Tuy public cloud và GPU cloud đang phát triển mạnh để đáp ứng nhu cầu này, nhiều tổ chức vẫn đang xem xét việc chuyển một phần tải công việc AI trở lại môi trường on-premises hoặc colocation do lo ngại về chi phí, hiệu năng, quy định và chủ quyền dữ liệu. Xu hướng này có thể định hình lại cục diện cạnh tranh giữa các mô hình triển khai đám mây trong thời gian tới.
https://www.forbes.com/sites/forbestechcouncil/2024/06/17/ai-is-accelerating-the-demand-for-cloud-but-which-type/
- Nghiên cứu gần đây của Microsoft cho thấy 75% người được hỏi hiện đang sử dụng AI trong công việc, gấp đôi so với 6 tháng trước. AI giúp tăng cường sáng tạo và giải phóng thời gian để tập trung vào các nhiệm vụ quan trọng.
- Những người sử dụng AI thành thạo thường năng suất hơn, sáng tạo hơn, tập trung tốt hơn và tận hưởng công việc nhiều hơn. Họ cũng có xu hướng thử nghiệm các công cụ và hệ thống mới để tìm ra những gì phù hợp nhất cho vai trò của họ.
- Sự nhiệt tình đối với AI không chỉ đến từ nhân viên trẻ mà còn được nhận ra bởi các CEO và lãnh đạo. Các công ty nhận thấy lợi ích của AI đang gặt hái nhiều thành công nhất.
- Microsoft cho rằng các công ty không cần chiến lược AI mà cần chiến lược kinh doanh cho AI. AI không sáng tạo, con người mới sáng tạo.
- Microsoft đang ở vị thế mạnh để tiếp tục thúc đẩy việc sử dụng công nghệ AI ở nhiều hình thức trên toàn cầu, với nền tảng Copilot sẽ trở thành sự hiện diện phổ biến tại nơi làm việc.
- Microsoft muốn các công cụ của mình được sử dụng để bổ trợ cho công việc, thay vì thay thế vai trò của con người. Các kỹ năng như giao tiếp, đánh giá và sáng tạo vẫn rất quan trọng đối với doanh nghiệp.
📌 Microsoft nhấn mạnh tầm quan trọng của việc tận dụng AI trong công việc để tăng năng suất và hạnh phúc của người lao động. Với 75% người được hỏi đang sử dụng AI, xu hướng này đang phát triển mạnh mẽ. Microsoft muốn đóng vai trò then chốt trong việc dân chủ hóa việc sử dụng công cụ AI, đồng thời nhấn mạnh rằng các kỹ năng của con người vẫn không thể thiếu trong môi trường làm việc.
https://www.techradar.com/pro/you-dont-need-an-ai-strategy-you-need-a-business-strategy-for-ai-microsoft-tells-us-why-utilizing-ai-at-work-could-not-only-make-you-more-productive-but-happier-too
- AI tạo sinh đang thúc đẩy sự dịch chuyển lớn trong chi tiêu công nghệ của doanh nghiệp, tạo ra cơ hội thị trường hơn 200 tỷ USD (tương đương 4,7 triệu tỷ VND) cho các nhà cung cấp dịch vụ công nghệ trong 5 năm tới, tập trung vào 3 nhóm chính: dịch vụ nền tảng AI, giải pháp ngang hàng AI-first và giải pháp tăng trưởng dọc.
- Để nắm bắt cơ hội, các nhà cung cấp dịch vụ cần triển khai 3 loại dịch vụ AI trong 12-18 tháng đầu:
(1) Tái tưởng tượng các dịch vụ truyền thống và kỹ thuật số bằng gen AI
(2) Cung cấp nền tảng và dịch vụ gốc AI/gen AI
(3) Xây dựng giải pháp sâu ngành dọc tập trung vào đổi mới sản phẩm và tăng trưởng doanh thu.
- Để thành công, họ phải chuyển đổi toàn diện danh mục dịch vụ, mô hình thương mại và tổ chức, bao gồm:
• Xây dựng giải pháp tăng tốc AI sẵn sàng triển khai
• Áp dụng mô hình tài năng AI mới trên các chức năng xây dựng, bán hàng, cung cấp dịch vụ
• Tiếp cận hợp tác và M&A mới để tập hợp hệ sinh thái gen AI đang nổi lên
• Hiện đại hóa mô hình cung cấp thông qua AI COE để nâng cao hiệu quả cho khách hàng
- Các rủi ro chính cần lưu ý khi triển khai gen AI gồm:
• Thiếu kiểm soát AI có trách nhiệm về đạo đức, an toàn, tuân thủ
• Chi phí leo thang và ROI không rõ ràng do thiếu liên kết giá trị kinh doanh
• Thiếu tập trung vào khách hàng và mức độ sẵn sàng của họ
• Thiếu trải nghiệm khách hàng cần thiết do sử dụng quá nhiều công cụ, hệ thống kém hiệu quả
- Các doanh nghiệp lớn đang ở các giai đoạn khác nhau trong hành trình chuyển đổi gen AI:
• 50-60% là "người quan sát" tập trung vào sẵn sàng AI và POC quy mô nhỏ
• 30-40% là "người tiên phong" có tầm nhìn rõ ràng về giảm chi phí quy mô lớn bằng AI/gen AI
• Dưới 10% là "người đổi mới" thực sự với chiến lược tích hợp AI trên toàn doanh nghiệp
📌AI tạo sinh đang mở ra cơ hội thị trường hơn 200 tỷ USD cho các nhà cung cấp dịch vụ công nghệ đến năm 2029. Để giành thị phần và tăng 30% lợi nhuận, họ cần chuyển đổi toàn diện mô hình kinh doanh, xây dựng danh mục dịch vụ AI mới trên 3 nhóm chính, áp dụng mô hình tài năng và hợp tác mới, hiện đại hóa cung cấp dịch vụ, đồng thời quản lý các rủi ro về chi phí, trải nghiệm và sự sẵn sàng của khách hàng. Thời gian 12-18 tháng tới sẽ là giai đoạn then chốt để các nhà cung cấp định vị lại mình trong kỷ nguyên gen AI.
https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/tech-services-and-generative-ai-plotting-the-necessary-reinvention
#McKinsey
- Theo một cuộc khảo sát mới của TCS với 1.300 CEO, 51% cho biết họ đang lên kế hoạch xây dựng các triển khai AI tạo sinh của riêng mình.
- Các mô hình nền tảng như GPT, Claude và Llama có thể được mô tả là "thông thái thế giới", đóng gói lại kiến thức từ Internet và sở hữu khả năng hiểu và tạo sinh đa phương thức cùng với khả năng lập luận.
- Việc xây dựng các mô hình nền tảng này rất phức tạp và tốn kém. Tuy nhiên, các mô hình doanh nghiệp nội bộ sẽ dựa trên các khả năng của những mô hình này.
- Các mô hình nội bộ sẽ tận dụng các kỹ năng cơ bản của các mô hình nền tảng như hiểu và tạo ngôn ngữ, lập luận và kiến thức tổng quát, nhưng cần mở rộng và chuyên biệt hóa chúng cho bối cảnh ngành, doanh nghiệp và hoạt động cụ thể.
- Mặc dù có nhiều thảo luận về cắt giảm ngân sách cho các dịch vụ và cơ sở hạ tầng đám mây gần đây, nhưng nguồn tiền đã mở rộng cho việc tài trợ AI.
📌 Hơn một nửa CEO được khảo sát đang lên kế hoạch xây dựng LLM nội bộ, dựa trên các mô hình nền tảng công khai sẵn có. Điều này đòi hỏi nhiều công việc phía trước, nhưng nền tảng đã được thiết lập sẵn. Các mô hình nội bộ sẽ kế thừa các kỹ năng cơ bản của mô hình nền tảng và chuyên biệt hóa chúng cho bối cảnh cụ thể của doanh nghiệp.
https://www.zdnet.com/article/enterprises-are-preparing-to-build-their-own-llms-why-thats-a-smart-move/
- ADP đang vận dụng AI tạo sinh để tự động hóa các tác vụ nhân sự, bảng lương lặp đi lặp lại, dự đoán biến động nhân sự và cung cấp trải nghiệm nhân viên cá nhân hóa.
- ADP Data Cloud tập hợp dữ liệu từ nhiều hệ thống để phân tích bằng AI, tạo ra thông tin hữu ích.
- Mô hình dự đoán biến động nhân sự của ADP không chỉ dự đoán tỷ lệ biến động mà còn gợi ý nơi tìm ứng viên thay thế và mức lương dự kiến.
- ADP cấm sử dụng các công cụ AI công khai như ChatGPT để đảm bảo bảo mật dữ liệu. Thay vào đó, họ sử dụng các mô hình ngôn ngữ lớn nội bộ.
- ADP đang hợp tác với Microsoft để tạo một phiên bản ChatGPT riêng cho công ty.
- Ở Ấn Độ, ADP đang thử nghiệm AI để phát hiện bất thường trong bảng lương và hợp lý hóa quy trình nộp thuế cuối năm.
- ADP nhìn thấy tiềm năng lớn ở các thành phố hạng 2, hạng 3 của Ấn Độ, nơi mức sống đang được cải thiện và các công ty đang thành lập.
- Tăng trưởng của ADP đến từ cả mở rộng hữu cơ và mua lại. Ở Ấn Độ, ADP mua lại mảng kinh doanh bảng lương của Ma Foi Randstad và đã phát triển từ 100 lên gần 2.000 khách hàng trong 12 năm qua.
📌 ADP đang dẫn đầu xu hướng ứng dụng AI tạo sinh trong quản lý nhân sự, tự động hóa quy trình, dự đoán biến động và cá nhân hóa trải nghiệm nhân viên. Với việc xử lý bảng lương cho 32 triệu nhân viên ở Mỹ, ADP đặt bảo mật dữ liệu lên hàng đầu khi triển khai AI. Công ty đang mở rộng mạnh mẽ ở thị trường Ấn Độ tiềm năng, tăng từ 100 lên 2.000 khách hàng trong 12 năm qua.
https://analyticsindiamag.com/how-a-traditional-hcm-giant-is-powering-workplaces-with-genai/
- ServiceNow đang đầu tư mạnh mẽ vào AI tạo sinh để thay đổi căn bản phần mềm bán ra và đội ngũ nhân sự của mình. Mọi bộ phận đều phải xây dựng lộ trình AI.
- Công ty đã triển khai hơn 25 use case AI tạo sinh vào sản xuất thực tế, áp dụng cho mọi chức năng từ kỹ sư phần mềm, nhân sự, chăm sóc khách hàng, marketing, bán hàng đến tài chính.
- 84% nhân viên ServiceNow sử dụng AI tạo sinh trong công việc hàng ngày. Khoảng 8-10 use case được đánh giá là tác động lớn, 5 use case tác động trung bình.
- Chỉ sau 4 tháng triển khai, AI tạo sinh đã làm công việc tương đương 50 nhân viên toàn thời gian tính theo năm. Hiệu suất của kỹ sư phần mềm tăng từ 5-8%. Khối lượng công việc đến trung tâm hỗ trợ khách hàng giảm 10%.
- Giám đốc Khách hàng Chris Bedi chuyển sang vai trò mới từ tháng 5 để tập trung 100% thời gian hỗ trợ khách hàng tận dụng tối đa nền tảng AI. Kellie Romack thay thế vị trí Giám đốc Thông tin Kỹ thuật số trước đó của ông.
- ServiceNow ra mắt nhiều tính năng AI tạo sinh mới trong tháng 5, tích hợp trợ lý ảo Now Assist và Microsoft Copilot, cho phép người dùng đặt câu hỏi về công việc trên Microsoft Teams.
- Tuy nhiên, ServiceNow cũng kêu gọi Wall Street kiên nhẫn trước khi thấy tác động của AI lên doanh thu. Công ty vẫn giữ nguyên mục tiêu doanh thu đăng ký 15 tỷ USD vào năm 2026.
- 70% nhân viên hài lòng với công cụ tóm tắt AI giúp nâng cao hiệu quả làm việc. Mọi người đang chạy đến với AI tạo sinh thay vì e ngại như các công nghệ mới trước đây.
📌 ServiceNow đang đi tiên phong trong việc tích hợp AI tạo sinh vào mọi hoạt động nội bộ, giúp 84% nhân viên sử dụng công nghệ này hàng ngày. Chỉ sau 4 tháng, AI đã làm công việc tương đương 50 nhân sự toàn thời gian, tăng 5-8% hiệu suất kỹ sư và giảm 10% khối lượng công việc của bộ phận hỗ trợ khách hàng. Dù chưa thấy tác động rõ rệt đến doanh thu, ServiceNow tin rằng trong 12-18 tháng tới, việc không sử dụng AI tạo sinh sẽ trở nên không tưởng tượng nổi. Công ty đang chuyển đổi mạnh mẽ để đón đầu xu hướng này.
https://fortune.com/2024/06/12/how-servicenow-got-every-worker-to-use-generative-ai/
- Các công ty đang triển khai nhiều mô hình AI vào thực tế hơn gấp 11 lần so với năm trước. Trung bình, các tổ chức trở nên hiệu quả hơn 3 lần trong việc đưa mô hình vào sản xuất.
- Xử lý ngôn ngữ tự nhiên (NLP) là ứng dụng học máy được sử dụng nhiều nhất và phát triển nhanh nhất, chiếm 50% thư viện Python chuyên biệt được sử dụng. Ngành Chăm sóc sức khỏe & Đời sống có tỷ lệ sử dụng NLP cao nhất, chiếm 69%.
- 70% công ty sử dụng AI tạo sinh dùng các công cụ và cơ sở dữ liệu vector để tăng cường các mô hình cơ sở. Việc sử dụng cơ sở dữ liệu vector tăng 377% so với cùng kỳ năm ngoái.
- 76% công ty sử dụng mô hình ngôn ngữ lớn (LLM) chọn mã nguồn mở, thường kết hợp với các mô hình độc quyền. Nhiều công ty chọn các mô hình mã nguồn mở nhỏ hơn khi xem xét đánh đổi giữa chi phí, hiệu suất và độ trễ.
- Chỉ 4 tuần sau khi ra mắt, Meta Llama 3 đã chiếm 39% tổng lượng sử dụng mô hình mã nguồn mở, cho thấy các công ty nhanh chóng thử nghiệm các mô hình mới.
- Các ngành có quy định nghiêm ngặt như Dịch vụ tài chính, Chăm sóc sức khỏe đang dẫn đầu trong việc áp dụng sớm AI tạo sinh. Dịch vụ tài chính, ngành dẫn đầu về sử dụng GPU, đang phát triển nhanh nhất với mức tăng trưởng 88% trong 6 tháng.
- Dịch vụ tài chính cũng dẫn đầu trong việc áp dụng quản trị dữ liệu và AI thống nhất để đảm bảo tuân thủ quy định và bảo mật. Ngành này cũng tăng cường sử dụng các sản phẩm không máy chủ lên 131% trong 6 tháng để xây dựng các ứng dụng học máy thời gian thực.
📌 Báo cáo State of Data + AI 2024 của Databricks cho thấy các công ty đang đẩy mạnh triển khai AI vào thực tế, trở nên hiệu quả hơn gấp 3 lần. Xử lý ngôn ngữ tự nhiên và AI tạo sinh đang bùng nổ với việc sử dụng mô hình mã nguồn mở tăng cao. Các ngành có quy định nghiêm ngặt như Dịch vụ tài chính, Chăm sóc sức khỏe đang dẫn đầu xu hướng áp dụng sớm công nghệ mới này. Các công ty đang tập trung tùy chỉnh mô hình với dữ liệu riêng thông qua tạo sinh được tăng cường bởi truy xuất dữ liệu (RAG) và cơ sở dữ liệu vector.
https://www.databricks.com/sites/default/files/2024-06/state-of-data-ai-report.pdf
- Theo khảo sát của Wakefield, 91% lãnh đạo dữ liệu đang xây dựng ứng dụng AI, nhưng 2/3 trong số đó nói rằng họ không tin tưởng dữ liệu của mình cho các mô hình ngôn ngữ lớn (LLMs).
- Để thành công, chúng ta cần vượt qua sự thổi phồng gây nhầm lẫn và giúp các doanh nghiệp hiểu rõ về AI. Chúng ta cần nhiều niềm tin hơn (mô hình mở) và ít thành phần di chuyển hơn (nền tảng có ý kiến đòi hỏi phải đoán và áp dụng mô hình).
- Mô hình kinh doanh của Red Hat hoạt động vì sự phức tạp của công nghệ mà họ làm việc. Khách hàng sẵn sàng trả tiền để được cách ly khỏi sự phức tạp đó. Red Hat tạo ra một bản phân phối Linux, chọn các gói nhất định và sau đó kiểm tra/làm cứng bản phân phối đó cho khách hàng.
- Quá trình giải mã Linux này, kết hợp với mã nguồn mở tạo ra sự tin tưởng vào mã, đã biến Red Hat thành một doanh nghiệp trị giá hàng tỷ đô la. Thị trường cần một cái gì đó tương tự cho AI.
- OpenAI không phải là giải pháp. Nó chỉ tiếp tục làm trầm trọng thêm vấn đề với các mô hình ngày càng tăng. Các doanh nghiệp đang bắt đầu tránh xa sự thổi phồng và thực hiện nhiều công việc bình thường, hữu ích hơn với tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG).
- Các nhà cung cấp đám mây vẫn giữ nguyên kịch bản hiện có của họ. AWS cung cấp "Broad Model Choice and Generative AI Tools" trên Amazon Bedrock, nhưng hầu hết các doanh nghiệp ngày nay không cần "sự lựa chọn rộng rãi" mà là sự lựa chọn có ý nghĩa với hướng dẫn.
📌 Thị trường AI đang ở đỉnh cao của sự thổi phồng nhưng chưa đạt đỉnh cao về năng suất. Để thành công, chúng ta cần một "Red Hat cho AI" - một công ty có thể giúp các doanh nghiệp hiểu rõ và sử dụng AI một cách hiệu quả, thông qua việc cung cấp các mô hình mở và nền tảng có ý kiến, thay vì sự lựa chọn quá rộng rãi và phức tạp như hiện nay.
https://www.infoworld.com/article/3715358/we-need-a-red-hat-for-ai.html
- 75% doanh nghiệp nhỏ đang tận dụng công cụ AI để bù đắp sự thiếu hụt nhân lực theo khảo sát của SBE Council.
- Tự động hóa hiệu quả là sự cân bằng. Doanh nghiệp nhỏ cần xác định nhiệm vụ nào AI xử lý tốt hơn, nhiệm vụ nào nên để con người kiểm soát.
- Tích hợp AI vào hệ thống hiện có là thách thức lớn, đòi hỏi điều chỉnh quy trình làm việc và dữ liệu. Đào tạo nhân viên sử dụng AI là cần thiết.
- AI cải thiện đáng kể hiệu quả quản lý hàng tồn kho, dự đoán xu hướng bán hàng, tự động đặt hàng, giảm 35% trường hợp hết hàng.
- AI tự động hóa việc lập hóa đơn và xử lý thanh toán, đẩy nhanh giao dịch, cải thiện dòng tiền.
- Chatbot AI xử lý nhanh chóng nhiều truy vấn khách hàng thường gặp, giải phóng nhân viên xử lý các vấn đề phức tạp hơn.
- Dịch vụ khách hàng, giải quyết vấn đề, thích ứng và tư duy chiến lược là những nhiệm vụ con người làm tốt hơn AI.
- Ma trận quyết định đơn giản giúp xác định nhiệm vụ nào nên tự động hóa dựa trên yếu tố đồng cảm, cá nhân hóa, lặp đi lặp lại, chi phí và lợi ích.
📌 Kết hợp hài hòa giữa AI và con người trong hoạt động kinh doanh mở ra cơ hội cho nhân viên phát triển kỹ năng mới, tập trung vào các chức năng cấp cao hơn. Tận dụng AI ở những điểm mạnh và duy trì sự tiếp xúc của con người ở những khía cạnh quan trọng, doanh nghiệp có thể tạo ra sự hòa hợp giữa công nghệ và dịch vụ cá nhân, tạo tiếng vang với khách hàng.
https://www.forbes.com/sites/forbesbusinesscouncil/2024/06/10/small-business-automation-which-tasks-to-outsource-to-ai-and-which-to-keep-human/
- Nghiên cứu toàn cầu của EY với 460 lãnh đạo chuỗi cung ứng và vận hành cho thấy 73% đang lên kế hoạch triển khai GenAI. Tuy nhiên, 62% đã đánh giá lại các dự án và chỉ 7% hoàn thành việc triển khai.
- Các tổ chức đi trước trong hành trình chuỗi cung ứng tự trị (Front-runners) có xác suất thành công với GenAI cao gấp 5.2 lần so với nhóm đi sau (Followers), làm gia tăng khoảng cách số. Front-runners cũng có khả năng vượt kỳ vọng với AI truyền thống cao gấp 3.5 lần.
- Lợi ích lớn nhất từ GenAI đến khi các dự án phù hợp với tầm nhìn chiến lược, dữ liệu sẵn sàng cho AI và tối đa hóa giá trị bằng cách giải quyết các rủi ro về an ninh mạng và dữ liệu. 40% người tham gia khảo sát cho biết tổ chức của họ chưa hiểu hết các rủi ro và thách thức mới của GenAI.
- Các công ty tiên phong tập trung triển khai GenAI vào các lĩnh vực cụ thể của chuỗi cung ứng như thiết kế sản phẩm, thiết kế mạng lưới logistics, tối ưu hóa thương mại toàn cầu, dự báo nhu cầu. Front-runners dự kiến triển khai trung bình 12 use case GenAI trong 2 năm tới, so với 8 của Followers.
- Để vượt qua thách thức triển khai, các công ty cần có sự hỗ trợ của lãnh đạo (67% Front-runners cho là yếu tố thành công hàng đầu), ưu tiên sẵn sàng dữ liệu (thách thức triển khai số 1 theo 38% người tham gia) và tối đa hóa giá trị bằng cách giảm thiểu rủi ro mạng và dữ liệu.
- Nghiên cứu EY Work Reimagined Survey cho thấy 49% nhân viên đã/dự kiến sử dụng GenAI trong 12 tháng tới. Tuy nhiên chỉ 17% nhân viên và 22% lãnh đạo coi đào tạo kỹ năng GenAI là ưu tiên hàng đầu.
📌 Theo đánh giá của EY, GenAI đang chứng tỏ là công cụ thay đổi cuộc chơi cho chuỗi cung ứng và dự kiến sẽ thiết lập vững chắc trong 2 năm tới. Để nhận ra tiềm năng đầy đủ của GenAI, các tổ chức cần linh hoạt, có tầm nhìn chiến lược rõ ràng, ưu tiên sẵn sàng dữ liệu và giảm thiểu rủi ro mạng. Mặc dù chuỗi cung ứng tự trị hoàn toàn là mục tiêu tối thượng, mỗi bước tiến gần hơn đều giúp tăng cường khả năng phục hồi thông qua cải thiện khả năng hiển thị và linh hoạt. Khoảng cách số giữa các công ty tiên phong và các công ty theo sau có thể sẽ gia tăng nếu nhóm sau không có hành động kịp thời.
https://www.ey.com/en_gl/insights/consulting/how-will-genai-prompt-a-step-change-toward-autonomous-supply-chains
- Yellow.AI công bố hợp tác với các công ty CNTT lớn của Ấn Độ gồm Tata Consultancy Services (TCS), Infosys, HCLTech và Tech Mahindra.
- Mục tiêu của sự hợp tác là tận dụng nền tảng của Yellow.AI để nâng cao giải pháp tự động hóa nhân sự và dịch vụ khách hàng.
- Rashid Khan, đồng sáng lập kiêm Giám đốc sản phẩm của Yellow.AI, nhấn mạnh tầm quan trọng chiến lược của các mối quan hệ đối tác này.
- Các công ty CNTT đang có xu hướng tích hợp dịch vụ AI tạo sinh cho cả khách hàng bên ngoài và hoạt động nội bộ.
- Nền tảng của Yellow.AI sẽ cải thiện tự động hóa nhân sự và dịch vụ khách hàng trên nhiều lĩnh vực trên toàn cầu.
- Yellow.AI cũng đang làm việc trên các dự án như mô hình Komodo 7P, LLM được huấn luyện trên 8.3 tỷ tokens trên Amazon Bedrock.
- Nền tảng của Yellow.AI được xây dựng dựa trên công nghệ AI và machine learning, chủ yếu được lưu trữ trên Amazon Web Services (AWS).
- Công ty sử dụng các sản phẩm của AWS như SageMaker và Bedrock cho quy trình machine learning và lưu trữ mô hình.
- Yellow.AI cũng hợp tác với các công ty boutique địa phương để nâng cao chiến lược trải nghiệm khách hàng bằng nền tảng của mình.
📌 Yellow.AI đang mở rộng hợp tác với nhiều "ông lớn" CNTT Ấn Độ như TCS, Infosys, HCLTech, Tech Mahindra nhằm tận dụng nền tảng AI của mình cải thiện tự động hóa nhân sự và dịch vụ khách hàng. Xu hướng tích hợp AI tạo sinh đang gia tăng trong ngành. Yellow.AI cũng đang phát triển các mô hình tiên tiến như Komodo 7P trên nền tảng AWS.
https://analyticsindiamag.com/tcs-infosys-hcltech-tech-mahindra-partner-with-yellow-ai-for-ai-solutions/
- SAP Sapphire 2024 quy tụ khách hàng, đối tác và chuyên gia phân tích từ hơn 100 quốc gia, cả trực tiếp và trực tuyến.
- SAP là công ty công nghệ duy nhất có thể tích hợp các khả năng AI vào quy trình và luồng công việc kinh doanh.
- Việc tích hợp AI vào các giải pháp của SAP không chỉ nâng cao năng suất và hiệu quả mà còn mang đến cuộc cách mạng trong cách vận hành và cạnh tranh của doanh nghiệp.
- Joule, trợ lý AI tạo sinh của SAP, sẽ chuyển đổi ngôn ngữ tự nhiên thành các tác vụ khả thi, quản lý 80% tác vụ phổ biến nhất của 300 triệu người dùng cuối và tăng năng suất lên 20% vào cuối năm.
- SAP công bố tích hợp sâu giữa Joule và Microsoft 365 Copilot, mang lại trải nghiệm người dùng liền mạch.
- GenAI Hub cho phép khách hàng và đối tác phát triển các trường hợp sử dụng AI tùy chỉnh bằng cách sử dụng các mô hình ngôn ngữ lớn như GPT-4-Turbo, Google Gemini và Anthropic.
- RISE with SAP đã có hơn 6.000 khách hàng áp dụng, vận hành hơn 110.000 hệ thống, đạt được sự đơn giản hóa và đổi mới quy trình đáng kể.
- SAP cam kết phát triển AI có trách nhiệm và không ngừng đổi mới, hứa hẹn cải thiện đáng kể năng suất, hiệu quả và tính bền vững cho các doanh nghiệp trên toàn thế giới.
📌 SAP Sapphire 2024 đánh dấu bước ngoặt quan trọng trong chiến lược AI và đám mây của SAP, với việc ra mắt trợ lý AI Joule, nền tảng GenAI Hub và sự tiến hóa của RISE with SAP. Sự hợp tác chặt chẽ với các đối tác công nghệ hàng đầu và cam kết phát triển AI có trách nhiệm hứa hẹn mang lại những cải tiến đáng kể về năng suất, hiệu quả và tính bền vững cho các doanh nghiệp trên toàn cầu.
https://www.forbes.com/sites/sap/2024/06/10/sapphire-2024-sap-unveils-ai-powered-future/
- Báo cáo của KPMG chỉ ra rằng sự khác biệt trong AI là một trong những rủi ro lớn nhất đối với tăng trưởng của các công ty toàn cầu.
- Điều này có khả năng ảnh hưởng đến hoạt động của các tổ chức trong năm 2024 và xa hơn nữa.
- Trí tuệ nhân tạo đã trở thành một công nghệ quan trọng và phổ biến trong thời gian gần đây.
- Tuy nhiên, sự khác biệt trong cách tiếp cận và ứng dụng AI giữa các tổ chức có thể dẫn đến những rủi ro đáng kể.
- Báo cáo của KPMG nhấn mạnh tầm quan trọng của việc có một chiến lược và tầm nhìn thống nhất về AI trong toàn bộ tổ chức.
- Các công ty cần đầu tư vào nghiên cứu, phát triển và đào tạo nhân sự để đảm bảo sự thống nhất trong việc triển khai AI.
- Sự khác biệt trong AI có thể dẫn đến những bất lợi cạnh tranh và ảnh hưởng tiêu cực đến hiệu quả hoạt động của doanh nghiệp.
- Các tổ chức cần xem xét kỹ lưỡng các rủi ro liên quan đến AI và đưa ra các biện pháp giảm thiểu phù hợp.
- Việc hợp tác và chia sẻ kinh nghiệm giữa các tổ chức cũng là một yếu tố quan trọng để giảm thiểu rủi ro từ sự khác biệt trong AI.
📌 Báo cáo của KPMG nhấn mạnh rằng sự khác biệt trong cách tiếp cận và ứng dụng AI giữa các tổ chức toàn cầu là một trong những rủi ro lớn nhất đối với tăng trưởng, có thể ảnh hưởng đến hoạt động từ năm 2024 trở đi. Các công ty cần có chiến lược thống nhất, đầu tư nghiên cứu và đào tạo để giảm thiểu rủi ro này.
https://www.ndtvprofit.com/technology/divergence-on-ai-one-of-biggest-risks-to-growth-for-organisations-kpmg-report
- WhatsApp ra mắt chương trình quảng cáo được nhắm mục tiêu bằng AI đầu tiên cho doanh nghiệp, sử dụng hành vi trên Facebook và Instagram để nhắm mục tiêu tin nhắn tới khách hàng có khả năng phản hồi cao nhất.
- Công cụ AI mới cho phép doanh nghiệp tối ưu hóa việc gửi quảng cáo tới người dùng có nhiều khả năng tương tác nhất. Đây là bước quan trọng vì doanh nghiệp phải trả tiền cho những tin nhắn này.
- WhatsApp giới thiệu chatbot AI mới để trả lời các yêu cầu của doanh nghiệp trực tiếp trong chat, hỗ trợ người dùng với các yêu cầu phổ biến như tìm catalog hoặc tham khảo giờ làm việc.
- WhatsApp bổ sung phương thức thanh toán kỹ thuật số tức thì PIX của Brazil vào công cụ thanh toán WhatsApp tại quốc gia này. PIX trước đây từng được coi là đối thủ cạnh tranh tiềm năng.
- Thông báo đánh dấu sự thay đổi của WhatsApp, vốn là dịch vụ nhắn tin mã hóa nổi tiếng về ưu tiên quyền riêng tư và từ lâu đã tránh các công cụ quảng cáo nhắm mục tiêu như trên Facebook và Instagram.
- Meta đang tăng cường nỗ lực kiếm tiền từ WhatsApp, ứng dụng lớn nhất của họ về số lượng người dùng hàng ngày. Mặc dù rất phổ biến và có giá mua 22 tỷ USD vào năm 2014, cho đến nay WhatsApp mới chỉ đóng góp một phần nhỏ vào tổng doanh thu của Meta.
📌 WhatsApp giới thiệu các công cụ AI mới giúp doanh nghiệp quảng cáo nhắm mục tiêu dựa trên hành vi người dùng, chatbot trả lời yêu cầu và tích hợp thanh toán PIX, đánh dấu nỗ lực gia tăng doanh thu từ ứng dụng phổ biến này của Meta bất chấp trước đây vẫn ưu tiên quyền riêng tư.
https://www.reuters.com/technology/metas-whatsapp-launches-new-ai-tools-businesses-target-messages-chats-2024-06-06/
- Các doanh nghiệp vừa và nhỏ (SME) thường thiếu nguồn lực để tổ chức các buổi thảo luận chiến lược hàng năm hay ứng phó kịp thời với các sự kiện bất ngờ ảnh hưởng đến lợi nhuận, khiến họ thua kém các đối thủ lớn hơn. Tuy nhiên, trí tuệ nhân tạo (AI) có tiềm năng san bằng sân chơi.
- Công ty tiếp thị nội dung 45 nhân viên của Julia gặp khó khăn khi nhân viên bị vướng vào các vấn đề hàng ngày, khó hình dung tương lai dài hạn. Cô đã sử dụng GenAI để truyền cảm hứng tư duy sáng tạo. Nhóm đã vẽ bản đồ kịch bản với 4 tương lai khả dĩ, rồi dùng you.com để tạo ra các kịch bản chi tiết cho từng phần tư. Điều này giúp nhóm thảo luận sâu hơn về tương lai và nhận ra cần nâng cấp hệ thống IT để đáp ứng bối cảnh khách hàng là trọng tâm và hỗn loạn.
- Công ty xe tải chuyên dụng của Luke gặp khủng hoảng khi nhà cung cấp tăng giá 30% đột ngột. Luke dùng ChatGPT để tìm các lựa chọn cứu công ty với prompt chi tiết. AI đưa ra 6 lựa chọn chiến lược để giảm thiểu tác động và bảo vệ tương lai doanh nghiệp, kèm mô tả chi tiết cho từng lựa chọn. Luke đánh giá cao danh sách này và đang triển khai từng mục.
- Lucy, chủ một công ty rượu vang quy mô nhỏ ở Úc, lâm vào tình thế khó khăn khi Trung Quốc áp thuế 200% lên rượu vang Úc năm 2021. Đến năm 2023, cô hết vốn và tìm đến ChatGPT để tìm ý tưởng đa dạng hóa thị trường. Công cụ này đóng vai trò như một trợ lý nghiên cứu chiến lược, giúp cô nhanh chóng khám phá tiềm năng xuất khẩu ở nhiều nước và tìm cơ hội mới tại thị trường nội địa. Nhờ đó, Lucy duy trì được hoạt động cho đến khi Trung Quốc dỡ bỏ thuế quan năm 2024.
- Ngoài ra, Lucy còn tạo ra GPT của riêng mình để theo dõi ngân sách và chi phí. Việc tự động hóa chức năng tài chính giúp cô có thêm thời gian tập trung vào việc sản xuất rượu vang.
📌 Trí tuệ nhân tạo tạo sinh đang chứng tỏ là một lực lượng thay đổi cuộc chơi cho các doanh nghiệp vừa và nhỏ, giúp họ vượt qua các hạn chế vốn có trong hoạch định chiến lược và quản lý khủng hoảng. Công nghệ này cho phép SME phá vỡ giới hạn sẵn có để tạo ra các chiến lược đổi mới, đưa ra nhiều lựa chọn trong thời kỳ khủng hoảng, thậm chí hỗ trợ tái định hình hoàn toàn. 3 tình huống điển hình trên minh họa rõ nét cách GenAI có thể giúp SME bù đắp sự thiếu hụt về nguồn lực, từ đó nâng cao năng lực cạnh tranh trước các đối thủ lớn hơn.
https://hbr.org/2024/06/genai-is-leveling-the-playing-field-for-smaller-businesses
#HBR
Báo cáo "State of AI at Work 2024" của Asana và Anthropic: Khảo sát hơn 5.000 nhân viên tri thức tại Mỹ và Anh, cùng với các chuyên gia AI, để đánh giá việc áp dụng AI trong công việc.
- **Tăng trưởng sử dụng AI**: Tỷ lệ nhân viên sử dụng AI hàng tuần tăng 44% trong 9 tháng qua, đạt 52%.
- **Mức độ trưởng thành AI**: Chỉ 7% nhân viên cho biết công ty của họ có triển khai AI trưởng thành, với sự tích hợp thành công của nhiều công cụ AI vào quy trình làm việc và đánh giá thường xuyên tác động của chúng.
- **Thiếu đào tạo về AI**: 82% nhân viên cho biết tổ chức của họ chưa cung cấp đào tạo về việc sử dụng AI tạo sinh.
- **Mô hình trưởng thành AI năm giai đoạn**:
- **Giai đoạn 1: Hoài nghi AI**: Tổ chức nhận ra tiềm năng của AI và bắt đầu khám phá các ứng dụng của nó.
- **Giai đoạn 2: Kích hoạt AI**: Công ty khởi động các dự án thí điểm để thử nghiệm và hiểu rõ tác động của AI.
- **Giai đoạn 3: Thử nghiệm AI**: Triển khai các sáng kiến AI lớn hơn và bắt đầu giải quyết các thách thức tích hợp công nghệ.
- **Giai đoạn 4: Mở rộng AI**: AI trở thành một phần của hoạt động tổ chức, định hình lại quy trình làm việc và ra quyết định.
- **Giai đoạn 5: Trưởng thành AI**: Tổ chức sử dụng AI một cách thành thạo để đạt được kết quả chuyển đổi.
- **Yếu tố quan trọng để đạt trưởng thành AI**:
- **Hiểu biết AI**: Tăng cường giáo dục và đào tạo cho nhân viên.
- **Lo ngại AI**: Hiểu rõ các mối quan tâm của nhân viên về AI.
- **Hợp tác AI**: Nhân viên tại các tổ chức trưởng thành AI có xu hướng xem AI như một đồng đội.
- **Bối cảnh AI**: Có chính sách và hướng dẫn rõ ràng về việc sử dụng AI.
- **Hiệu chỉnh AI**: Đo lường hiệu quả và giá trị của AI trong tổ chức.
- **Sự hợp tác giữa Asana và Anthropic**: Cả hai công ty đều hướng đến mục tiêu giúp đỡ nhân loại thông qua phát triển công nghệ tiên tiến và đáng tin cậy. Anthropic tập trung vào xây dựng hệ thống AI an toàn và đạo đức, trong khi Asana giúp các đội nhóm hợp tác hiệu quả hơn.
📌 Báo cáo "State of AI at Work 2024" của Asana và Anthropic cung cấp cái nhìn sâu sắc về hành trình năm giai đoạn để đạt trưởng thành AI, từ hoài nghi đến thành thạo, với các yếu tố quan trọng như hiểu biết, lo ngại, hợp tác, bối cảnh và hiệu chỉnh. Chỉ
https://venturebeat.com/ai/the-five-stage-journey-organizations-take-to-achieve-ai-maturity/
- **Lợi ích của AI**: AI có thể giúp doanh nghiệp tạo ra sản phẩm và dịch vụ tốt hơn, tăng hiệu quả hoạt động và cải thiện trải nghiệm khách hàng. Tuy nhiên, không phải mọi dự án AI đều mang lại kết quả tốt. Theo nghiên cứu của Harvard Business School, có tới 80% dự án AI công nghiệp không tạo ra giá trị hữu hình.
- **Chiến lược AI và chiến lược kinh doanh**: Để đánh giá tác động của các dự án AI, cần đảm bảo chúng phù hợp với mục tiêu và chiến lược kinh doanh. Công nghệ không phải là mục tiêu tự thân mà là công cụ để đạt được mục tiêu.
- **Các câu hỏi quan trọng**:
- AI có giúp đưa ra quyết định tốt hơn không?
- Mức độ chấp nhận AI trong tổ chức và từ khách hàng như thế nào?
- AI có cải thiện trải nghiệm và giá trị cho khách hàng không?
- AI có giúp đạt được các mục tiêu cụ thể không?
- Các dự án AI có được triển khai đúng thời gian và ngân sách không?
- AI có giúp đạt được các mục tiêu ESG (môi trường, xã hội và quản trị) không?
- **Các chỉ số KPI quan trọng**:
- **ROI (Return on Investment)**: Đo lường lợi ích so với chi phí của các dự án AI.
- **Tỷ lệ chấp nhận**: Phần trăm khách hàng hoặc nhân viên sử dụng công cụ AI.
- **Chỉ số trải nghiệm khách hàng**: Điểm hài lòng của khách hàng, tỷ lệ rời bỏ, điểm quảng bá ròng và điểm tương tác xã hội.
- **Thời gian để tạo ra giá trị (TTV)**: Thời gian để các dự án AI tạo ra kết quả có ý nghĩa.
- **Độ chính xác và hiệu quả của mô hình**: Các chỉ số kỹ thuật như độ chính xác, độ chính xác và độ nhạy, điểm F1, điểm ROC AUC và ma trận nhầm lẫn.
- **Chỉ số hiệu quả hoạt động**: Đo lường tác động của AI lên lượng chất thải, giờ làm việc của con người trên mỗi nhiệm vụ, tỷ lệ lỗi sản phẩm và chi phí sản xuất trên mỗi đơn vị.
- **Xây dựng văn hóa đánh giá liên tục và cải tiến**: Để trở thành tổ chức thành công dựa trên AI, cần liên tục đo lường tiến độ, tinh chỉnh chiến lược kinh doanh và AI, và cải tiến mô hình và quy trình. Cần đánh giá liên tục các công nghệ, công cụ và mô hình mới. Cần có quy trình chia sẻ kết quả đánh giá để xây dựng niềm tin và sự chấp nhận từ các bên liên quan.
📌 Để đo lường thành công của AI trong tổ chức, cần đảm bảo các dự án AI phù hợp với chiến lược kinh doanh, đặt ra các câu hỏi quan trọng và theo dõi các chỉ số KPI như ROI, tỷ lệ chấp nhận, chỉ số trải nghiệm khách hàng và hiệu quả hoạt động. Việc xây dựng văn hóa đánh giá liên tục và cải tiến là cần thiết để đạt được thành công.
https://www.forbes.com/sites/bernardmarr/2024/06/05/how-to-measure-ai-success-in-your-organization/
- SAP đang tích cực đưa trí tuệ nhân tạo vào bộ giải pháp điện toán đám mây doanh nghiệp của mình.
- Tại hội nghị khách hàng Sapphire, SAP thông báo sẽ sớm đưa trợ lý AI Joule đến nhiều ứng dụng doanh nghiệp hơn như SAP Ariba và SAP Analytics Cloud vào nửa cuối năm 2024.
- SAP cũng lên kế hoạch tích hợp Joule với Microsoft Copilot, giúp huấn luyện AI trên nội dung từ Microsoft 365.
- Joule đã được tích hợp nhanh chóng vào các ứng dụng đám mây doanh nghiệp của SAP như SAP SuccessFactors, SAP Start, S/4HANA Cloud, Customer Data Platform, BTP Cockpit, Build, Build Code và Integration Suite.
- Với Joule trong SAP Ariba, các nhà quản lý có thể tạo yêu cầu đề xuất từ nhà cung cấp nhanh hơn thông qua AI, với các đề xuất dựa trên chi phí, tác động carbon, quy định tuân thủ và giao dịch trước đây.
- Joule sẽ sớm hỗ trợ đa ngôn ngữ như tiếng Đức, Tây Ban Nha, Pháp và Bồ Đào Nha, ngoài tiếng Anh.
- SAP sẽ tích hợp hai chiều giữa Joule và Microsoft Copilot, cho phép truy xuất thông tin từ cả bộ ứng dụng SAP và Microsoft 365.
- SAP cũng công bố hợp tác với Google Cloud Gemini, Meta Llama AI và Mistral AI để tích hợp vào nền tảng AI Core của mình.
📌 SAP đang mạnh mẽ đưa AI vào các giải pháp doanh nghiệp, với việc mở rộng trợ lý Joule đến nhiều ứng dụng như SAP Ariba, Analytics Cloud, hỗ trợ đa ngôn ngữ và tích hợp với Microsoft Copilot. Các đối tác như Google, Meta, Mistral cũng được hợp tác để cung cấp các mô hình AI tốt nhất cho khách hàng.
https://venturebeat.com/ai/sap-to-embed-joule-ai-copilot-into-more-of-its-enterprise-apps-plans-microsoft-copilot-tie-up/
- RelationalAI, một startup áp dụng trí tuệ nhân tạo trực tiếp vào dữ liệu quan hệ, công bố tính khả dụng chung của Bộ đồng xử lý Đồ thị Tri thức trên Snowflake Data Cloud.
- Giải pháp này cho phép khách hàng Snowflake xây dựng đồ thị tri thức và tận dụng các khả năng AI và phân tích tiên tiến mà không cần di chuyển dữ liệu ra khỏi môi trường Snowflake.
- Kiến trúc của RelationalAI cho phép áp dụng AI tiên tiến trực tiếp trên dữ liệu doanh nghiệp có cấu trúc trong cơ sở dữ liệu quan hệ như Snowflake, khác với hầu hết các phương pháp machine learning và AI tập trung vào dữ liệu phi cấu trúc.
- RelationalAI báo cáo có sức hút ban đầu mạnh mẽ và "nhu cầu vô hạn" đối với giải pháp của mình, đặc biệt trong các ngành dịch vụ tài chính, viễn thông, bán lẻ và hàng tiêu dùng đóng gói.
- Khách hàng như AT&T, Block, Ritchie Bros và Blue Yonder đã sử dụng nền tảng này để xây dựng đồ thị tri thức cung cấp một lớp ngữ nghĩa trên dữ liệu doanh nghiệp phức tạp của họ.
- Việc ra mắt trên Snowflake là một cột mốc quan trọng đối với startup 50 người này, đã huy động được 122 triệu USD vốn đầu tư với định giá 569 triệu USD.
- Khi các mô hình ngôn ngữ lớn như GPT-4 thu hút sự chú ý của công chúng, CEO Molham Aref nhìn thấy đồ thị tri thức đóng vai trò quan trọng trong việc áp dụng AI tạo sinh trong doanh nghiệp.
📌 RelationalAI đã ra mắt Bộ đồng xử lý Đồ thị Tri thức trên Snowflake Data Cloud, cho phép khách hàng xây dựng đồ thị tri thức và áp dụng AI tiên tiến trực tiếp trên dữ liệu quan hệ có cấu trúc mà không cần di chuyển dữ liệu. Startup này đã huy động được 122 triệu USD và đang được định giá 569 triệu USD, với sự quan tâm ngày càng tăng đối với AI tạo sinh và đồ thị tri thức trong doanh nghiệp.
https://venturebeat.com/ai/relationalai-launches-powerful-knowledge-graph-coprocessor-for-snowflake-users/
- Hiện nay chưa có định nghĩa rõ ràng về các mô hình LLM nguồn mở hoàn toàn và thực sự. Cần có một Khung Công tác Mở Mô hình tiêu chuẩn.
- Nhiều mô hình tự nhận là "mở", nhưng chỉ một tập hợp con các thành phần được phát hành mở và sử dụng giấy phép hạn chế cho phần còn lại.
- Sự mơ hồ xung quanh "mở" thực sự cản trở tiến trình áp dụng AI, tạo ra sản phẩm và dịch vụ cho người dùng cuối. Nó tạo ra rủi ro pháp lý cho các doanh nhân.
- Ví dụ: Một công ty khởi nghiệp AI giả định tên "yet-another-chat-bot" sử dụng mô hình ngôn ngữ được đào tạo trước "llam-stral" trong nguyên mẫu của họ, nhưng sau đó phát hiện ra rằng giấy phép cấm rõ ràng việc sử dụng thương mại và tạo các tác phẩm phái sinh.
- Điều đúng đắn cần làm là "llam-stral" tuân thủ Khung Công tác Mở Mô hình và sử dụng giấy phép mở tiêu chuẩn như Apache 2.0 cho mã và CC-BY-4.0 cho trọng số và tập dữ liệu.
- Một mô hình hoàn toàn mở sẽ phát hành tất cả các thành phần, bao gồm dữ liệu đào tạo, mã, trọng số, kiến trúc, báo cáo kỹ thuật và mã đánh giá, tất cả đều ở dạng giấy phép cho phép.
- Các thành phần thiết yếu của một mô hình AI bao gồm: Dữ liệu đào tạo, Mã tiền xử lý dữ liệu, Kiến trúc mô hình, Tham số mô hình, Mã đào tạo, Mã đánh giá, Dữ liệu đánh giá, Tài liệu mô hình và Báo cáo kỹ thuật.
📌 Việc thiếu một định nghĩa rõ ràng về tính mở của các mô hình AI đang gây ra sự mơ hồ và rủi ro pháp lý cho các doanh nhân. Cần có một khung công tác tiêu chuẩn để đánh giá tính chất mở của mô hình, trong đó một mô hình hoàn toàn mở sẽ phát hành tất cả các thành phần thiết yếu dưới các giấy phép cho phép, thúc đẩy tính minh bạch, khả năng tái tạo và hợp tác trong phát triển và ứng dụng AI.
https://www.entrepreneur.com/science-technology/why-entrepreneurs-need-to-beware-of-misleading-open-ai/472948
- Các hãng hàng không hàng đầu Ấn Độ như Air India, Vistara, AirAsia India đang tích cực ứng dụng trí tuệ nhân tạo (AI) vào hoạt động.
- Mục tiêu là cung cấp phản hồi tự động giống con người cho khách hàng, giảm tải công việc cho nhân viên và nâng cao trải nghiệm của hành khách.
- Air India đã triển khai chatbot AI trên website và ứng dụng di động, có thể xử lý 5.000 truy vấn mỗi ngày. Chatbot giúp giải đáp thắc mắc về chuyến bay, hành lý, dịch vụ, giảm 40% khối lượng công việc của nhân viên.
- Vistara cũng đưa chatbot lên website, ứng dụng và WhatsApp. Chatbot xử lý hơn 70% yêu cầu của khách, tỷ lệ chuyển tiếp sang nhân viên chỉ 9%.
- AirAsia India tích hợp chatbot AVA trên website, ứng dụng, WhatsApp. AVA xử lý 80% tương tác với khách hàng, giảm đáng kể nhu cầu nhân sự.
- Theo báo cáo, thị trường chatbot toàn cầu sẽ đạt 3,99 tỷ USD vào năm 2030, tăng trưởng kép hàng năm 25,7% giai đoạn 2022-2030.
📌 Các hãng hàng không hàng đầu Ấn Độ đang đẩy mạnh ứng dụng AI chatbot để tự động hóa tới 80% tương tác với khách hàng, giảm 40% khối lượng công việc cho nhân viên. Xu hướng này hứa hẹn thúc đẩy thị trường chatbot toàn cầu tăng trưởng mạnh mẽ, đạt 3,99 tỷ USD vào năm 2030.
Citations:
https://government.economictimes.indiatimes.com/news/technology/indian-airlines-ride-ai-human-like-responses-for-passengers-lesser-workload-for-agents/110650575
- Tập đoàn Tata đang thực hiện hơn 100 dự án AI tạo sinh (GenAI) trên nhiều lĩnh vực như bán lẻ, tài chính, viễn thông, sản xuất và du lịch.
- Ông N Chandrasekaran, Chủ tịch Tata Sons, cho biết các công ty thành viên của tập đoàn đang tích cực triển khai các dự án GenAI.
- Tata Neu, siêu ứng dụng của tập đoàn, đã tích hợp công nghệ GenAI để cải thiện trải nghiệm người dùng và đưa ra các đề xuất cá nhân hóa.
- Tata Communications đang sử dụng GenAI để tối ưu hóa trải nghiệm khách hàng và nâng cao hiệu quả hoạt động.
- Vistara, hãng hàng không liên doanh giữa Tata và Singapore Airlines, đang áp dụng GenAI để tăng cường dịch vụ khách hàng.
- Tata Steel đang nghiên cứu sử dụng GenAI trong sản xuất và chuỗi cung ứng để cải thiện hiệu suất và giảm chi phí.
- Tata Group đang hợp tác với các đối tác công nghệ hàng đầu thế giới để phát triển và triển khai các giải pháp GenAI.
📌 Tập đoàn Tata đang mạnh mẽ đầu tư vào hơn 100 dự án AI tạo sinh trên nhiều lĩnh vực then chốt như bán lẻ, tài chính, viễn thông, sản xuất và du lịch. Các công ty thành viên như Tata Neu, Tata Communications, Vistara và Tata Steel đều đang tích cực ứng dụng GenAI để cải thiện trải nghiệm khách hàng, tối ưu hóa hoạt động và nghiên cứu đổi mới.
Citations:
[1] https://cio.economictimes.indiatimes.com/news/artificial-intelligence/tata-group-firms-executing-over-100-genai-projects-n-chandrasekaran/110609564
- Các chuyên gia cho rằng CEO có thể dễ dàng bị thay thế bởi AI. Nhiều công ty "không ngại việc không có một CEO con người" sau đại dịch COVID-19.
- Việc thay thế sếp bằng bot là mặt trái của nỗi lo AI gây ra phá hủy việc làm diện rộng, thường tập trung vào việc nhân viên bình thường bị sa thải để nhường chỗ cho tự động hóa thông minh.
- Vì các giám đốc điều hành cấp cao thường có mức lương cao nên có động lực tài chính lớn để thay thế họ. Giáo sư Anant Agarwal ước tính 80% công việc của CEO có thể được AI đảm nhiệm.
- Một phần vai trò của CEO là lãnh đạo, nhưng họ cũng là người ra quyết định dựa trên dữ liệu. Một cỗ máy suy nghĩ vô tư có thể xử lý nhiều dữ liệu hơn và đưa ra quyết định logic nhất, không bị ảnh hưởng bởi định kiến cá nhân, cái tôi cồng kềnh và có thể cả những kìm hãm đạo đức.
- Trong một cuộc khảo sát với các lãnh đạo doanh nghiệp, 43% người được hỏi tin rằng AI có thể đảm nhận công việc của họ. 45% thừa nhận họ đã sử dụng ChatGPT để đưa ra các quyết định kinh doanh quan trọng.
- Một số công ty đã chuyển đổi, như nhà sản xuất đồ uống Ba Lan Dictador bổ nhiệm robot hình người Mika làm "CEO thử nghiệm".
- Tuy nhiên, AI vẫn có nhiều khuyết điểm và không nhất thiết ít thiên vị hơn dữ liệu mà chúng được huấn luyện. Nhưng với sự sẵn sàng gạt bỏ nhân viên của các công ty, có lẽ tất cả chúng ta đều có nguy cơ bị sa thải.
📌 43% lãnh đạo tin AI có thể thay thế họ, 45% dùng ChatGPT ra quyết định quan trọng. Các chuyên gia ước tính 80% công việc CEO có thể tự động hóa. Dù AI còn nhiều khuyết điểm, xu hướng thay người bằng máy đe dọa việc làm của mọi đối tượng, kể cả cấp cao nhất.
https://futurism.com/the-byte/ceos-easily-replaced-with-ai
- Báo cáo mới từ McKinsey cho thấy 65% tổ chức đang sử dụng AI tạo sinh thường xuyên, gần gấp đôi so với 10 tháng trước.
- AI tạo sinh không còn là điều mới lạ vào năm 2024, với tiềm năng của công nghệ này không còn bị nghi ngờ.
- 67% tổ chức dự đoán đầu tư vào AI sẽ tăng trong 3 năm tới.
- AI tạo sinh được sử dụng nhiều nhất trong marketing và bán hàng, phát triển sản phẩm và dịch vụ, và IT.
- Các tổ chức cần từ 1 đến 4 tháng để đưa AI tạo sinh vào sản xuất.
- 41% giám đốc cấp cao sử dụng AI tạo sinh thường xuyên trong công việc.
- McKinsey xác định ba mô hình triển khai AI tạo sinh: "takers" (sử dụng công cụ có sẵn), "shapers" (tùy chỉnh công cụ có sẵn), và "makers" (phát triển mô hình riêng).
- Khoảng 50% việc sử dụng AI tạo sinh là từ công cụ có sẵn, phần còn lại là tùy chỉnh hoặc phát triển từ đầu.
- Các tổ chức sẽ chuyển sang mô hình "mua, xây dựng và hợp tác" thay vì "xây dựng hoặc mua".
- 44% tổ chức đã trải qua hậu quả tiêu cực từ việc sử dụng AI tạo sinh, bao gồm sai sót trong đầu ra, an ninh mạng và thiếu giải thích.
- Chỉ 18% tổ chức có hội đồng hoặc ban quản trị AI có trách nhiệm trên toàn doanh nghiệp.
- Một phần ba tổ chức xác định nhận thức về rủi ro AI tạo sinh và kiểm soát giảm thiểu rủi ro là kỹ năng cần thiết cho nhân viên.
- Các tổ chức cần thiết lập nguyên tắc và quản trị rõ ràng cho việc áp dụng AI tạo sinh, áp dụng các biện pháp bảo vệ, đào tạo kỹ lưỡng và có hợp đồng an toàn với nhà cung cấp.
- Nhân viên cần được giáo dục để không rò rỉ dữ liệu độc quyền vào các mô hình công khai.
- Việc chuyển từ nhận thức sang hành động về AI có trách nhiệm là rất quan trọng.
📌 Báo cáo từ McKinsey cho thấy việc áp dụng AI tạo sinh đang tăng mạnh, với 65% tổ chức sử dụng thường xuyên và 67% dự đoán đầu tư sẽ tăng trong 3 năm tới. Khoảng 50% việc sử dụng AI tạo sinh là từ công cụ có sẵn, phần còn lại là tùy chỉnh hoặc phát triển từ đầu. Các tổ chức sẽ chuyển sang mô hình "mua, xây dựng và hợp tác" thay vì "xây dựng hoặc mua". 44% tổ chức đã trải qua hậu quả tiêu cực từ việc sử dụng AI tạo sinh, bao gồm sai sót trong đầu ra, an ninh mạng và thiếu giải thích.
https://venturebeat.com/ai/mckinsey-gen-ai-adoption-rockets-generates-value-for-enterprises/
- PwC sẽ trở thành khách hàng lớn nhất và đơn vị bán lại đầu tiên sản phẩm ChatGPT Enterprise của OpenAI, phiên bản chatbot dành cho doanh nghiệp lớn.
- PwC sẽ triển khai ChatGPT Enterprise cho 75.000 nhân viên tại Mỹ và 26.000 nhân viên tại Anh.
- Hơn 95% khách hàng tư vấn của PwC tại Anh và Mỹ đang tích cực tham gia vào genAI.
- PwC đang phát triển các mô hình GPT tùy chỉnh để hỗ trợ nhân viên trong các nhiệm vụ như xem xét tờ khai thuế, tạo bảng điều khiển và báo cáo.
- Thỏa thuận với OpenAI là một phần trong kế hoạch đầu tư 1 tỷ USD của PwC vào công nghệ AI tạo sinh.
- OpenAI đang nỗ lực mở rộng khách hàng doanh nghiệp vượt ra ngoài Microsoft.
- CEO OpenAI Sam Altman đã gặp gỡ hàng trăm giám đốc điều hành của các công ty Fortune 500 để giới thiệu dịch vụ AI cho sử dụng trong doanh nghiệp.
📌 PwC trở thành khách hàng doanh nghiệp lớn nhất và đối tác bán lại đầu tiên của OpenAI với sản phẩm ChatGPT Enterprise, đánh dấu bước tiến quan trọng trong việc áp dụng AI tạo sinh vào hoạt động của các tập đoàn lớn. Thỏa thuận này nằm trong kế hoạch đầu tư 1 tỷ USD của PwC vào genAI, cho thấy sự quan tâm ngày càng tăng của giới doanh nghiệp đối với công nghệ đột phá này.
https://www.reuters.com/technology/pwc-become-openai-largest-enterprise-customer-wsj-reports-2024-05-29/
https://www.reuters.com/technology/pwc-become-openai-largest-enterprise-customer-wsj-reports-2024-05-29/
- Báo cáo "The GenAI Countdown" của Genpact và HFS Research chỉ ra nhiều doanh nghiệp đang tập trung hẹp vào năng suất, có thể ảnh hưởng tiêu cực đến trải nghiệm nhân viên và kìm hãm đổi mới rộng rãi hơn.
- 52% người được hỏi lo ngại việc quá nhấn mạnh vào năng suất có thể dẫn đến tác động tiêu cực đến trải nghiệm nhân viên.
- Sreekanth Menon, trưởng bộ phận AI/ML toàn cầu của Genpact, cho rằng các công ty không nên theo đuổi năng suất chỉ như một mục tiêu cuối cùng mà như một bước quan trọng trong hành trình GenAI rộng lớn và chiến lược hơn.
- Khảo sát 550 lãnh đạo cấp cao trên toàn thế giới từ các tổ chức có doanh thu trên 1 tỷ USD ở 12 quốc gia và 8 ngành. Phỏng vấn sâu 10 lãnh đạo doanh nghiệp đi đầu trong việc áp dụng và đổi mới GenAI.
- 61% lãnh đạo phân bổ tới 10% ngân sách công nghệ cho GenAI, tăng 30% tài trợ cho AI tạo sinh trong năm tới.
- 45% đầu tư vào các nhà cung cấp công nghệ chuyên về giải pháp GenAI.
- Thách thức hàng đầu: chất lượng dữ liệu hoặc chiến lược (42% lãnh đạo IT), thiếu kế hoạch GenAI có cấu trúc (46% lãnh đạo kinh doanh).
- 36% lãnh đạo báo cáo thiếu hụt chuyên gia có kỹ năng.
- Chỉ 16% doanh nghiệp sử dụng dữ liệu độc quyền của họ.
- 80% lãnh đạo nhận ra sự cần thiết phải chuyển sang các mô hình thương mại dựa trên hiệu suất và mục đích.
- 74% tin rằng GenAI sẽ truyền cảm hứng cho các cách tạo giá trị mới và đột phá trong tổ chức của họ.
📌 Báo cáo "The GenAI Countdown" của Genpact nhấn mạnh tầm quan trọng ngày càng tăng của GenAI trong việc định hình lại chiến lược kinh doanh. 61% lãnh đạo phân bổ tới 10% ngân sách công nghệ cho GenAI. Tuy nhiên, cần có cách tiếp cận cân bằng, tích hợp công nghệ với khuôn khổ lấy con người làm trung tâm, tránh tập trung hẹp vào năng suất để không ảnh hưởng tiêu cực đến trải nghiệm nhân viên và kìm hãm đổi mới.
https://analyticsindiamag.com/genpact-report-on-the-genai-countdown-warns-against-narrow-productivity-focus-urges-innovation-and-enhanced-employee-experiences/
https://www.genpact.com/pdf/the-gen-ai-countdown
- Theo khảo sát của Bain & Company, 80% doanh nghiệp Ấn Độ dự kiến sẽ đầu tư vào AI tạo sinh trong 1-2 năm tới.
- Các lĩnh vực ứng dụng chính bao gồm dịch vụ khách hàng (71%), marketing (59%) và phát triển sản phẩm mới (58%).
- Khoảng 2/3 số doanh nghiệp tin rằng GenAI sẽ mang lại lợi thế cạnh tranh đáng kể.
- Tuy nhiên, 78% lo ngại về chi phí đầu tư ban đầu, 74% lo lắng về sự thiếu hụt nhân tài có kỹ năng về AI và 73% băn khoăn về các vấn đề đạo đức.
- Các rào cản chính trong việc áp dụng GenAI là thiếu kiến thức kỹ thuật (55%), khó tích hợp với hệ thống hiện có (53%) và thiếu ngân sách (52%).
- Để giải quyết các thách thức này, các công ty Ấn Độ cần xây dựng năng lực nội bộ, hợp tác với các đối tác công nghệ và phát triển khung đạo đức để sử dụng GenAI một cách có trách nhiệm.
📌 Đa số doanh nghiệp Ấn Độ (80%) có kế hoạch đầu tư vào AI tạo sinh trong 2 năm tới, tập trung vào dịch vụ khách hàng, marketing và phát triển sản phẩm mới. Tuy nhiên, họ cũng gặp nhiều rào cản như chi phí cao, thiếu nhân tài và lo ngại về đạo đức, cần được giải quyết thông qua xây dựng năng lực nội bộ, hợp tác và xây dựng khung đạo đức.
https://cio.economictimes.indiatimes.com/news/artificial-intelligence/80-indian-firms-to-invest-in-genai-in-next-1-to-2-yrs/110382432
- LLMWare.ai là 1 trong 11 dự án AI nguồn mở xuất sắc được chọn tham gia GitHub Accelerator 2024.
- LLMWare tập trung vào các mô hình ngôn ngữ chuyên biệt nhỏ, mang lại nhiều lợi thế như dễ tích hợp vào quy trình doanh nghiệp, bảo mật cao, chi phí thấp và tốc độ nhanh.
- Trong 8 tháng qua, LLMWare đã ra mắt nền tảng RAG cấp doanh nghiệp toàn diện (llmware) và bộ mô hình chuyên biệt cho các tác vụ tự động hóa doanh nghiệp then chốt dưới thương hiệu BLING, DRAGON, SLIM và Industry-Bert.
- Khung làm việc thống nhất đầu cuối của LLMWare.ai là lựa chọn hoàn hảo cho các nhà phát triển và doanh nghiệp xây dựng quy trình tự động hóa dựa trên LLM chất lượng cao, dựa trên dữ kiện, riêng tư, hiệu quả về chi phí.
- LLMWare.ai hiện có 2 sản phẩm chính: RAG Pipeline - các thành phần tích hợp cho toàn bộ vòng đời kết nối nguồn tri thức với mô hình AI tạo sinh; và hơn 50 mô hình chuyên biệt nhỏ được tinh chỉnh cho các tác vụ then chốt trong tự động hóa quy trình doanh nghiệp.
- Theo người sáng lập Namee Oberst, việc được chọn vào Chương trình GitHub Accelerator là một cột mốc quan trọng, cơ hội học hỏi từ GitHub và những người xuất sắc nhất trong cộng đồng nguồn mở.
📌 Với những tiến bộ đổi mới và giải pháp toàn diện, LLMWare.ai xứng đáng là 1 trong 11 dự án xuất sắc được chọn vào GitHub Accelerator 2024. Khung làm việc LLMWare, mô hình SLIMs và dòng RAG chuyên biệt DRAGON thể hiện cam kết tạo ra các giải pháp có thể mở rộng quy mô, an toàn và hiệu quả, được điều chỉnh riêng cho các tổ chức tài chính và pháp lý. Với hơn 50 mô hình chuyên biệt và pipeline dữ liệu linh hoạt, LLMWare.ai trao quyền cho các nhà phát triển ở mọi cấp độ dễ dàng xây dựng các ứng dụng doanh nghiệp tinh vi dựa trên tri thức.
https://www.marktechpost.com/2024/05/23/llmware-ai-selected-for-2024-github-accelerator-enabling-the-next-wave-of-innovation-in-enterprise-rag-with-small-specialized-language-models/
- Các doanh nghiệp vừa và nhỏ (SMB) tại Singapore hiện có thể sử dụng Copilot for Microsoft 365 với mức giá bằng một nửa so với thông thường, trong khuôn khổ các sáng kiến thúc đẩy việc áp dụng trí tuệ nhân tạo (AI).
- Cơ quan Enterprise Singapore (EnterpriseSG) sẽ hỗ trợ 50% chi phí bản quyền cho công cụ AI tạo sinh (GenAI) của Microsoft trong thời hạn đăng ký 12 tháng. Mỗi SMB có thể mua tối đa 50 giấy phép với mức giá ưu đãi.
- Các SMB phải có không quá 200 nhân viên và phải là công ty đăng ký tại địa phương có hoạt động ở Singapore. Chương trình kéo dài đến ngày 20/11.
- Ngoài ra, EnterpriseSG và AI Singapore (AISG) còn tổ chức các hội thảo đào tạo hướng dẫn SMB triển khai Copilot để nâng cao năng suất.
- EnterpriseSG cũng hỗ trợ các SMB sẵn sàng tích hợp AI phức tạp hơn hoặc cần ứng dụng AI tùy chỉnh thông qua chương trình "applied AI". Các trường đại học sẽ hợp tác với SMB để xây dựng các ứng dụng AI phù hợp.
- Các sáng kiến này nằm trong nỗ lực của Singapore nhằm giúp các công ty trong nước tiếp cận các ứng dụng AI và phát triển năng lực liên quan để cải thiện hiệu quả hoạt động và thúc đẩy tăng trưởng kinh doanh.
- IMDA cũng mở rộng hợp tác với Microsoft để giúp các tổ chức đã trưởng thành hơn về mặt kỹ thuật số xác định các trường hợp sử dụng và triển khai các ứng dụng GenAI tùy chỉnh của riêng họ.
📌 Singapore đang tích cực thúc đẩy việc áp dụng AI trong cộng đồng doanh nghiệp thông qua nhiều sáng kiến, bao gồm trợ cấp 50% chi phí sử dụng Microsoft Copilot cho SMB, hỗ trợ phát triển ứng dụng AI tùy chỉnh, và hợp tác với Microsoft để tổ chức hội thảo hướng dẫn triển khai GenAI cho hơn 200 doanh nghiệp lớn.
https://www.zdnet.com/article/singapore-smbs-can-now-run-microsoft-copilot-at-a-discount/
- Theo cuộc khảo sát của Gartner với hơn 2.500 CIO, 42% cho biết rào cản lớn nhất trong việc áp dụng AI tạo sinh là thiếu các trường hợp sử dụng có giá trị.
- 27% CIO lo ngại về tính minh bạch và đạo đức của các mô hình AI tạo sinh.
- 25% cho rằng thiếu kỹ năng nội bộ và chuyên môn về AI là một rào cản.
- 24% gặp khó khăn trong việc xác định và thu thập dữ liệu phù hợp để huấn luyện các mô hình.
- 20% cho biết ngân sách và nguồn lực hạn chế là trở ngại.
- Chỉ 3% CIO triển khai AI tạo sinh vào sản xuất, trong khi 43% đang thử nghiệm hoặc đánh giá công nghệ này.
- Các ứng dụng AI tạo sinh phổ biến nhất là chatbot hỗ trợ khách hàng (38%), tạo nội dung tiếp thị (35%) và phát triển phần mềm (34%).
- Gartner dự đoán đến năm 2025, 30% tất cả các ứng dụng và dịch vụ mới sẽ kết hợp một số dạng AI tạo sinh.
📌 Mặc dù AI tạo sinh đang thu hút sự chú ý đáng kể, cuộc khảo sát của Gartner cho thấy đa số các tổ chức vẫn đang gặp khó khăn trong việc nhận ra giá trị thực sự từ công nghệ này. 42% CIO cho biết thiếu các trường hợp sử dụng thiết thực là rào cản hàng đầu, trong khi các lo ngại về đạo đức, kỹ năng và nguồn lực cũng đang cản trở việc áp dụng rộng rãi AI tạo sinh trong doanh nghiệp.
Citations:
[1] https://www.ciodive.com/news/generative-ai-adoption-barrier-project-value/716504/
- Chỉ 11% công ty áp dụng AI tạo sinh ở quy mô lớn. Để tạo ra giá trị kinh doanh, cần tái cấu trúc cách làm việc và xây dựng nền tảng công nghệ có thể mở rộng.
- 7 sự thật khó khăn mà CIO cần biết để đưa AI tạo sinh lên quy mô lớn:
1. Loại bỏ nhiễu, tập trung vào tín hiệu: CIO cần loại bỏ các thử nghiệm không hiệu quả, tập trung nguồn lực vào các vấn đề kinh doanh quan trọng.
2. Tích hợp các thành phần quan trọng hơn từng thành phần riêng lẻ: Thách thức nằm ở việc điều phối sự tương tác và tích hợp giữa các mô hình, cơ sở dữ liệu, thư viện lời nhắc và ứng dụng ở quy mô lớn. Tự động hóa đầu cuối là rất quan trọng.
3. Kiểm soát chi phí trước khi chúng nhấn chìm bạn: Chi phí quản lý thay đổi chiếm khoảng 75% tổng chi phí dự án AI tạo sinh. Chi phí vận hành lớn hơn chi phí xây dựng. Tối ưu hóa chi phí là một quá trình liên tục.
4. Kiềm chế sự phát triển quá mức của công cụ và công nghệ: Các công ty cần giảm số lượng cơ sở hạ tầng và công cụ để triển khai quy mô lớn khả thi. Cần xây dựng cơ sở hạ tầng và ứng dụng linh hoạt để dễ dàng chuyển đổi nhà cung cấp hoặc mô hình.
5. Tạo ra các đội ngũ có thể xây dựng giá trị, không chỉ là mô hình: Cần có đội ngũ đa dạng kỹ năng để đưa AI tạo sinh vượt ra ngoài chức năng CNTT và tích hợp vào hoạt động kinh doanh. Cần có cấu trúc quản trị để đảm bảo tuân thủ các quy trình rủi ro.
6. Lấy dữ liệu đúng, không cần dữ liệu hoàn hảo: Đầu tư vào nền tảng dữ liệu và gắn nhãn có mục tiêu có tác động lớn đến chất lượng câu trả lời của AI tạo sinh.
7. Tái sử dụng mã nguồn: Mã có thể tái sử dụng có thể tăng tốc độ phát triển các trường hợp sử dụng AI tạo sinh lên 30-50%. Các công ty hiệu suất cao có xu hướng xây dựng nền tảng AI tạo sinh chiến lược để tái sử dụng.
- Có 3 cách tiếp cận chính để sử dụng AI tạo sinh:
+ Taker: Các công ty sử dụng phần mềm AI tạo sinh có sẵn từ các nhà cung cấp bên thứ ba như GitHub Copilot hay Salesforce Einstein để đạt được mục tiêu của trường hợp sử dụng.
+ Shaper: Các công ty tích hợp các khả năng AI tạo sinh riêng bằng cách kỹ thuật lời nhắc, tập dữ liệu và kết nối với hệ thống nội bộ để đạt được mục tiêu của trường hợp sử dụng.
+ Maker: Các công ty tự tạo ra các mô hình ngôn ngữ lớn (LLM) của riêng mình bằng cách xây dựng các tập dữ liệu lớn để đào tạo trước các mô hình từ đầu. Ví dụ như OpenAI, Anthropic, Cohere và Mistral AI.
- Các công ty hiệu suất cao có xu hướng xây dựng nền tảng AI tạo sinh chiến lược để tái sử dụng trên nhiều trường hợp sử dụng. Họ đầu tư vào dữ liệu chất lượng cao, gắn nhãn có mục tiêu và phát triển các tài sản có thể tái sử dụng như mã, công cụ, framework.
- Để xây dựng nền tảng AI tạo sinh chiến lược, cần có một đội ngũ đa dạng kỹ năng bao gồm: Chủ sở hữu nền tảng, kỹ sư DevOps, kiến trúc sư đám mây, nhà khoa học dữ liệu, kỹ sư dữ liệu, lập trình viên full-stack, kiến trúc sư giải pháp/dữ liệu, kỹ sư độ tin cậy trang web, DataOps.
📌 Để tạo ra giá trị đột phá từ AI tạo sinh, các công ty cần khai thác công nghệ này ở quy mô lớn. Điều này đòi hỏi CIO không chỉ thừa nhận 7 sự thật khó khăn mà còn sẵn sàng hành động để dẫn dắt doanh nghiệp tiến lên. Các công ty hiệu suất cao có xu hướng xây dựng nền tảng AI tạo sinh chiến lược, đầu tư vào dữ liệu chất lượng cao và phát triển các tài sản có thể tái sử dụng để tăng tốc triển khai lên 30-50%. Hầu hết các công ty sẽ sử dụng kết hợp cách tiếp cận Taker để nhanh chóng tiếp cận dịch vụ hàng hóa và Shaper để xây dựng năng lực độc quyền trên các mô hình nền tảng. Tuy nhiên, các sáng kiến AI tạo sinh có giá trị cao nhất thường dựa vào cách tiếp cận Shaper. Để xây dựng nền tảng AI tạo sinh chiến lược, cần có một đội ngũ đa dạng kỹ năng từ chủ sở hữu nền tảng đến các chuyên gia kỹ thuật.
Citations:
[1] https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/moving-past-gen-ais-honeymoon-phase-seven-hard-truths-for-cios-to-get-from-pilot-to-scale#/
- **Lãnh đạo không hiểu rõ cách nhân viên sử dụng AI và sự sẵn sàng của họ.** Gần một nửa (44%) các giám đốc nhân sự (CHRO) không biết tần suất nhân viên sử dụng AI trong công việc.
- **Sự thiếu hiểu biết này làm xói mòn lòng tin giữa lãnh đạo và nhân viên.** 70% nhân viên Mỹ không bao giờ sử dụng AI trong công việc, chỉ 10% sử dụng AI hàng tuần hoặc thường xuyên hơn.
- **Nhân viên tự tin hơn về khả năng sử dụng AI so với đánh giá của lãnh đạo.** 47% nhân viên cảm thấy sẵn sàng sử dụng AI, trong khi chỉ 16% CHRO tin rằng nhân viên của họ sẵn sàng.
- **Sự thiếu tin tưởng vào AI ở cấp độ xã hội.** Chỉ 10% người Mỹ tin rằng AI mang lại nhiều lợi ích hơn là hại, và 79% không tin rằng doanh nghiệp sẽ sử dụng AI một cách có trách nhiệm.
- **Sự lo ngại về việc AI sẽ giảm số lượng công việc.** 75% người Mỹ tin rằng AI sẽ giảm số lượng công việc trong thập kỷ tới, và 72% CHRO tin rằng điều này sẽ xảy ra trong ba năm tới.
- **Có sự lạc quan về tiềm năng của AI.** 93% CHRO tin rằng AI sẽ giảm khối lượng công việc và 61% tin rằng AI sẽ giúp nhân viên tập trung vào các hoạt động chiến lược hơn.
- **Chỉ 12% lãnh đạo doanh nghiệp và 14% nhân viên tin rằng công việc của họ sẽ bị loại bỏ trong năm năm tới do công nghệ mới, tự động hóa, robot hoặc AI.**
- **Khi nhân viên cảm thấy được chuẩn bị tốt để sử dụng AI, họ có khả năng tin rằng AI có thể cải thiện công việc của họ cao hơn 67%.** 47% nhân viên cảm thấy đã được đào tạo đầy đủ để sử dụng công nghệ AI.
- **Ba khuyến nghị để cân bằng giữa kiểm soát và tin tưởng trong việc áp dụng AI:**
- **Đo lường và quản lý việc sử dụng AI trong tổ chức.** Thu thập thông tin về các công nghệ và ứng dụng AI đang được triển khai và cách nhân viên sử dụng chúng.
- **Tạo lòng tin bằng cách trao quyền cho quản lý.** Quản lý ảnh hưởng đến 70% sự gắn kết của đội ngũ và có thể đảm bảo chiến lược AI hỗ trợ mục tiêu của tổ chức.
- **Sử dụng chiến lược AI dựa trên mục đích, không phải dựa trên quy tắc.** Chiến lược AI nên được liên kết với mục đích của tổ chức để đạt được hiệu quả và hiệu suất mong muốn.
📌 Nghiên cứu của Gallup cho thấy lãnh đạo không hiểu rõ cách nhân viên sử dụng AI và sự sẵn sàng của họ, gây ra sự thiếu tin tưởng. Để cân bằng giữa kiểm soát và tin tưởng, lãnh đạo cần đo lường việc sử dụng AI, trao quyền cho quản lý và áp dụng chiến lược AI dựa trên mục đích.
Citations:
[1] https://hbr.org/2024/05/research-what-companies-dont-know-about-how-workers-use-ai
- Sự kiện AI Impact Tour của VentureBeat đã đến San Francisco, tập trung vào ứng dụng thực tế của AI tạo sinh và những gì cần thiết để triển khai sáng kiến AI tạo sinh.
- Các doanh nghiệp đang chuyển từ giai đoạn thử nghiệm, hình thành ý tưởng sang giai đoạn tích hợp sức mạnh của AI tạo sinh với dữ liệu quan trọng của doanh nghiệp và đưa vào sản xuất.
- Một mô hình trưởng thành AI đang xuất hiện, cho thấy các công ty đang chuyển từ các dự án đơn lẻ sang các sáng kiến kinh doanh AI quan trọng, mang lại lợi ích lớn và khía cạnh chuyển đổi.
- AI tạo sinh hữu ích cho nhiều trường hợp sử dụng, từ back office đến front office, website công khai và di động. Các tổ chức đang xây dựng ứng dụng kiến thức, tìm cách truy xuất kiến thức một cách tương tác trong bối cảnh phù hợp.
- Đối với các ứng dụng đòi hỏi nhiều tùy chỉnh dữ liệu, như trong lĩnh vực y tế hoặc tài chính, các giải pháp có sẵn không còn phù hợp. Cần xây dựng ứng dụng RAG (tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài) tùy chỉnh dựa trên tài sản dữ liệu cốt lõi.
- Khi chuyển sang giai đoạn sản xuất, các doanh nghiệp gặp phải hai vấn đề chính: tính phù hợp của kết quả và chi phí sản xuất. Tìm cách đưa ra kết quả phù hợp và sạch sẽ đã tốn kém, sau đó cần xác định chi phí sản xuất.
- Không phải tất cả các lỗi và thiếu liên quan từ hệ thống AI đều là "hallucination". RAG là một quá trình xử lý ngôn ngữ tự nhiên kết hợp AI dựa trên truy xuất kiến thức với AI tạo sinh, giúp giảm đáng kể khả năng xảy ra hallucination.
- RAG cũng là cách để đưa dữ liệu công ty thời gian thực một cách chính xác, an toàn và bảo mật vào mô hình tại thời điểm suy luận. Sự kết hợp giữa mô hình và cơ sở dữ liệu sẽ còn tồn tại lâu dài.
📌Sự chuyển đổi từ thử nghiệm sang triển khai thực tế AI tạo sinh đang diễn ra mạnh mẽ. Các doanh nghiệp cần vượt qua thách thức về tính phù hợp và chi phí sản xuất. Kỹ thuật RAG đóng vai trò quan trọng trong việc giảm thiểu hallucination và tích hợp dữ liệu thời gian thực vào mô hình AI một cách an toàn và bảo mật.
https://venturebeat.com/ai/ai-impact-tour-how-companies-are-going-from-ideation-to-real-world-implementation/
- Sundar Pichai cho rằng Google đang ở giai đoạn sớm nhất trong cuộc đua AI và có nhiều thời gian để giành chiến thắng, mặc dù đã bỏ lỡ thời điểm chatbot bùng nổ.
- Google đã mắc sai lầm với công cụ tạo ảnh Gemini do cố gắng hạn chế sự thiên vị của AI, và đang xây dựng lại hoàn toàn tính năng này.
- Pichai cho rằng hình thức tìm kiếm tốt nhất sẽ kết hợp giữa câu trả lời dạng tường thuật và các liên kết, đáp ứng đa dạng nhu cầu của người dùng.
- Quảng cáo trong kết quả tìm kiếm đóng vai trò quan trọng với doanh thu 300 tỷ USD hàng năm của Alphabet. Pichai tin rằng các nguyên tắc cơ bản về quảng cáo sẽ vẫn đúng trong thời đại AI.
- Thách thức lớn cho các công cụ tìm kiếm là phân loại và hiển thị nội dung do AI tạo ra một cách phù hợp, tránh làm sai lệch thông tin.
- Pichai cho rằng việc các mô hình AI tự học hỏi từ dữ liệu tổng hợp do chính AI tạo ra có thể dẫn đến những đột phá nghiên cứu hữu ích.
- Ông bác bỏ những chỉ trích về phong cách lãnh đạo quá thận trọng, cho rằng cần xây dựng sự đồng thuận để tạo ra tác động tối đa.
- Google đã cắt giảm nhân sự và sa thải các kỹ sư biểu tình để tập trung vào sứ mệnh AI trong bối cảnh cạnh tranh gay gắt với Microsoft.
📌 Pichai khẳng định Google có cơ hội to lớn phía trước với AI, bất chấp những thách thức từ vụ kiện chống độc quyền và sự cạnh tranh từ Microsoft. Ông tin rằng tập trung vào sứ mệnh và xây dựng sự đồng thuận nội bộ sẽ giúp Google duy trì vị thế dẫn đầu trong lĩnh vực tìm kiếm và AI, với doanh thu quảng cáo 300 tỷ USD/năm.
Citations:
[1]https://www.bloomberg.com/news/articles/2024-05-08/video-alphabet-ceo-sundar-pichai-lays-out-google-s-ai-roadmap
- Theo báo cáo State of Service mới nhất của Salesforce, 83% nhà ra quyết định dự đoán sẽ tăng đầu tư vào trí tuệ nhân tạo (AI) trong năm tới.
- Nghiên cứu toàn diện này khảo sát hơn 5.500 chuyên gia dịch vụ trên toàn cầu, bao gồm các nhà ra quyết định, nhân viên vận hành, đại lý dịch vụ và chuyên gia dịch vụ di động.
- Báo cáo chỉ ra xu hướng khách hàng mong muốn dịch vụ tốt hơn, nhanh hơn và được cá nhân hóa theo nhu cầu riêng. 82% đại lý và 76% nhân viên di động ghi nhận sự gia tăng này.
- Mặc dù việc áp dụng AI diện rộng vẫn còn sơ khai, 93% chuyên gia dịch vụ tại các tổ chức đầu tư vào AI đã chứng kiến việc tiết kiệm thời gian trong công việc.
- Các tổ chức ngày càng chuyển sang sử dụng AI và tự động hóa vì nhiều lợi ích: loại bỏ quy trình thủ công, nâng cao hiệu quả, kết nối các bộ phận, giảm lỗi và chuẩn bị cho các dự án mới.
- 92% lãnh đạo phân tích và IT thừa nhận nhu cầu ngày càng tăng về dữ liệu đáng tin cậy.
- Hơn 90% tổ chức áp dụng AI báo cáo tiết kiệm chi phí và thời gian. 5 trường hợp sử dụng AI hàng đầu trong dịch vụ bao gồm trợ lý thông minh tương tác khách hàng, tóm tắt tự động...
📌 Báo cáo State of Service của Salesforce cho thấy 83% nhà ra quyết định tại các tổ chức dịch vụ dự kiến tăng đầu tư AI trong năm tới. Khảo sát 5.500 chuyên gia dịch vụ toàn cầu, báo cáo nhấn mạnh xu hướng dịch vụ khách hàng nhanh, cá nhân hóa và lợi ích của AI như tiết kiệm thời gian (93%), chi phí (90%) cùng 5 trường hợp sử dụng hàng đầu.
Citations:
[1] https://www.zdnet.com/article/83-of-decision-makers-at-service-organizations-are-increasing-their-ai-investments/
- Red Hat giới thiệu RHEL AI, một nền tảng mô hình nền tảng đa năng để phát triển và chạy các mô hình ngôn ngữ nguồn mở, cùng với InstructLab, một dự án cộng đồng cho phép các chuyên gia tinh chỉnh mô hình AI.
- CEO Matt Hicks nhấn mạnh cam kết nguồn mở và cách tiếp cận hybrid của Red Hat, cho rằng AI không khác biệt cơ bản so với các ứng dụng, cần huấn luyện ở một số nơi và chạy ở những nơi khác, đồng thời trung lập với cơ sở hạ tầng phần cứng.
- Red Hat có kinh nghiệm lâu năm trong tối ưu hóa hiệu suất trên nhiều stack phần cứng khác nhau như Nvidia, AMD, Intel và Gaudi.
- Cách tiếp cận nguồn mở của Red Hat đảm bảo khách hàng giữ quyền sở hữu IP của mình khi làm việc với công ty.
📌 Red Hat đang dẫn đầu cuộc cách mạng dân chủ hóa AI trong doanh nghiệp với RHEL AI và InstructLab, kết hợp sức mạnh của nguồn mở, tối ưu đa nền tảng và bảo vệ IP khách hàng, hứa hẹn mang AI tạo sinh đến nhiều tổ chức hơn bao giờ hết.
Citations:
[1] https://venturebeat.com/ai/red-hat-unveils-rhel-ai-and-instructlab-to-democratize-enterprise-ai/
- Theo khảo sát mới nhất của Gartner trên 644 tổ chức, tỷ lệ doanh nghiệp tích hợp AI vào nhiều quy trình kinh doanh tăng từ 13% năm 2021 lên 28% năm 2022.
- Khoảng 49% tổ chức được khảo sát cho biết thách thức chính là xác định và nhận ra giá trị từ các sáng kiến dựa trên AI.
- Gartner xác định 5 kết quả kinh doanh tiềm năng mà AI có thể hỗ trợ: tăng trưởng doanh thu, tối ưu hóa chi phí, giảm rủi ro, nâng cao trải nghiệm khách hàng và cải thiện năng suất nhân viên.
- Chỉ 9% tổ chức được khảo sát có quy trình AI trưởng thành. Các tổ chức này có cách tiếp cận hệ thống để xây dựng và triển khai dự án AI, bao gồm giám sát mô hình AI và thực hiện chương trình quản lý thay đổi.
- Sử dụng GenAI được nhúng trong các ứng dụng hiện có như Microsoft Copilot cho 365 hoặc Adobe Firefly là phương pháp phổ biến nhất để đáp ứng các trường hợp sử dụng GenAI.
📌 Khảo sát của Gartner cho thấy việc triển khai AI đang gia tăng mạnh mẽ trong doanh nghiệp, với 28% tích hợp AI vào nhiều quy trình. Tuy nhiên, chỉ 9% có quy trình AI trưởng thành và 49% gặp khó khăn trong việc nhận ra giá trị từ AI.
Citations:
[1] https://www.computerweekly.com/news/366583348/Gartner-Few-organisations-have-mature-AI-processes
- Generative AI đang được các đội ngũ trong các công ty áp dụng để thúc đẩy năng suất và sáng tạo lên tầm cao mới. Marketer sử dụng AI tạo sinh để tạo ra hành trình khách hàng cá nhân hóa. Designer dùng công nghệ này để kích thích brainstorm và lặp lại giữa các bố cục nội dung nhanh hơn.
- Tương lai của công nghệ rất thú vị, nhưng có thể có hệ lụy nếu các đổi mới này không được xây dựng một cách có trách nhiệm. CIO của Adobe nhận được nhiều câu hỏi từ cả đội ngũ nội bộ và các nhà lãnh đạo công nghệ khác về cách AI tạo sinh có thể mang lại giá trị thực sự cho người lao động tri thức ở quy mô doanh nghiệp.
- Adobe vừa là nhà sản xuất vừa là người tiêu dùng công nghệ AI tạo sinh, nên câu hỏi này rất cấp thiết với họ ở cả hai khía cạnh. CIO của các công ty lớn có vị thế độc đáo để trả lời câu hỏi này vì có cái nhìn sâu rộng về các đội ngũ khác nhau trong tổ chức.
- Bài viết tập trung vào 3 cách cụ thể mà AI tạo sinh đã và đang giúp nhân viên của Adobe làm việc thông minh hơn và cải thiện năng suất trong lĩnh vực tài liệu số:
1. Rút ngắn thời gian tiếp cận kiến thức:
- Nhân viên sử dụng AI Assistant để thu hẹp khoảng cách giữa hiểu biết và hành động đối với các tài liệu lớn, phức tạp.
- Công cụ AI tạo sinh tự động tạo tóm tắt để giúp người đọc nhanh chóng nắm bắt nội dung.
- Giao diện hội thoại cho phép nhân viên "trò chuyện" với tài liệu và đưa ra danh sách câu hỏi gợi ý.
2. Tự động hóa các tác vụ lặp đi lặp lại:
- Nhân viên sử dụng AI tạo sinh để tự động hóa các tác vụ tạo nội dung lặp đi lặp lại như viết email, báo cáo trạng thái, ghi chú cuộc họp.
- Công cụ AI có thể tạo bản nháp ban đầu dựa trên các mẫu và dữ liệu có sẵn, giúp tiết kiệm thời gian và công sức.
- Nhân viên có thể tập trung vào việc chỉnh sửa, cá nhân hóa nội dung thay vì phải bắt đầu từ con số 0.
3. Mở rộng khả năng sáng tạo:
- AI tạo sinh giúp nhân viên khám phá ý tưởng và giải pháp mới cho các thách thức trong công việc.
- Công cụ AI có thể đề xuất các ý tưởng dựa trên thông tin đầu vào, kích thích sự sáng tạo của con người.
- Nhân viên có thể sử dụng AI để tạo ra nhiều phiên bản khác nhau của một ý tưởng, sau đó lựa chọn và tinh chỉnh phiên bản tốt nhất.
📌Nhờ áp dụng AI tạo sinh vào quy trình làm việc, nhân viên Adobe có thể tiếp cận kiến thức nhanh hơn, tự động hóa các tác vụ tẻ nhạt và mở rộng không gian sáng tạo. Kết quả là năng suất và chất lượng công việc được cải thiện đáng kể, giúp Adobe duy trì vị thế tiên phong trong lĩnh vực công nghệ.
Citations:
[1] https://www.technologyreview.com/2024/05/08/1092147/the-top-3-ways-to-use-generative-ai-to-empower-knowledge-workers/
- Theo khảo sát mới của Oliver Wyman với 400 lãnh đạo cấp C ở châu Âu và châu Mỹ, 70% công ty đã triển khai hoặc lên kế hoạch áp dụng công nghệ AI, chi trung bình 2,2% doanh thu hàng năm.
- Để tận dụng tối đa AI tạo sinh, doanh nghiệp cần chọn đúng người lãnh đạo, chấp nhận sự phức tạp để chuyển đổi tổ chức, xây dựng mô hình quản trị mới, cải thiện đào tạo và đạt được những chiến thắng nhanh để khuyến khích sự ủng hộ rộng rãi.
- Lãnh đạo phải có niềm tin mạnh mẽ rằng tổ chức và đội ngũ lãnh đạo sẵn sàng thay đổi cách vận hành kinh doanh hàng ngày.
- Khi mở rộng quy mô chuyển đổi, cần có cách tiếp cận mới, kỹ năng và nguồn lực mới. Lãnh đạo phải quản lý sự cân bằng giữa đổi mới từ dưới lên và chỉ đạo từ trên xuống.
- Quản lý cần liên tục đánh giá lại cách quản trị năng lực AI tạo sinh. Kiểm soát hiệu quả đòi hỏi sử dụng cẩn thận các nguyên tắc thiết kế lấy con người làm trung tâm.
- 98% nhân viên nói họ sẽ cần đào tạo lại hoặc nâng cao kỹ năng về AI tạo sinh trong 5 năm tới. Đào tạo phải liên tục và bao gồm làm việc trên các dự án thực tế.
- Áp dụng AI cho các lĩnh vực dễ và ghi điểm thắng lợi sớm, các nhà quản lý có thể chỉ ra thành công cụ thể khi thuyết phục cho những chuyển đổi lớn hơn trong tương lai.
📌 Doanh nghiệp cần có lãnh đạo phù hợp, mô hình quản trị mới, tư duy toàn diện và bắt đầu với những chiến thắng nhanh để chuyển đổi thành công sang AI tạo sinh. Khảo sát của Oliver Wyman cho thấy 70% công ty đã hoặc đang lên kế hoạch áp dụng AI, chi trung bình 2,2% doanh thu. Các chuyển đổi tập trung vào cắt giảm chi phí thường thành công hơn. Chỉ 4% chuyển đổi do IT dẫn dắt thành công, so với 61% do các đơn vị kinh doanh và IT cùng lãnh đạo.
https://www.weforum.org/agenda/2024/05/5-strategies-to-make-the-generative-ai-transformation-a-business-success/
- Fulcrum Digital ra mắt nền tảng Ryze, hướng đến việc giảm bớt các rào cản về chi phí và mô hình giá phức tạp cho doanh nghiệp vừa và nhỏ trong việc áp dụng AI tạo sinh.
- Ryze tích hợp các thư viện nguồn mở như OpenCV, lớp OCR do Google Tesseract cung cấp, tầm nhìn máy tính, LLMs và tìm kiếm ngữ nghĩa, phục vụ giải pháp cho 6 ngành công nghiệp.
- Mô hình giá dựa trên bits của Ryze cho phép doanh nghiệp chỉ trả tiền cho lượng dữ liệu xử lý chính xác, tăng tính minh bạch và khả năng mở rộng.
- Ryze sử dụng các phương pháp huấn luyện hiệu quả, kỹ thuật hợp nhất mô hình như nội suy tuyến tính cầu và "model soups", giúp kết hợp sức mạnh của nhiều mô hình đã được huấn luyện trước mà không cần huấn luyện lại từ đầu.
- Nền tảng này phù hợp với cả việc triển khai quy mô doanh nghiệp và dự án cá nhân, khác biệt so với các nền tảng như IBM Watson và Microsoft Azure, chú trọng vào khách hàng doanh nghiệp với giải pháp cụ thể cho ngành.
- Ryze tập trung vào sáu ngành chính: dịch vụ tài chính, bảo hiểm, sản phẩm tiêu dùng, công nghệ thực phẩm, giáo dục đại học và thương mại điện tử.
- Trong ngành bảo hiểm, Ryze đã được sử dụng để "số hóa các yêu cầu đã được che khuất và trích xuất dữ liệu từ hóa đơn", đạt "trên 95% độ chính xác trong việc phân loại đồ nội thất thông qua các động cơ xử lý hình ảnh và tài liệu".
- Công nghệ của Ryze bao gồm thị giác máy tính, OCR, LLMs, một động cơ tìm kiếm ngữ nghĩa, và các thành phần phụ như một trình tạo LLM mã thấp cho chatbots tương tác và một giao diện để tự động chọn LLM phù hợp dựa trên truy vấn.
- Nền tảng hoàn toàn được xây dựng trên công nghệ nguồn mở, phản ánh tầm nhìn của Sachin Panicker, người ủng hộ mạnh mẽ việc sử dụng nguồn mở.
- Ryze hứa hẹn không chỉ thúc đẩy việc áp dụng AI trong các doanh nghiệp Ấn Độ mà còn hỗ trợ mục tiêu lớn hơn là biến Ấn Độ thành cường quốc AI.
📌 Ryze của Fulcrum Digital đánh dấu bước tiến quan trọng trong việc làm cho AI tạo sinh trở nên dễ tiếp cận và tiết kiệm cho doanh nghiệp vừa và nhỏ. Với mô hình giá dựa trên bits, phương pháp huấn luyện hiệu quả và sự tập trung vào giải pháp cho các ngành cụ thể, Ryze không chỉ giúp giảm bớt các rào cản về chi phí và kỹ thuật mà còn mở ra cơ hội mới cho việc áp dụng AI một cách rộng rãi.
https://analyticsindiamag.com/fulcrum-digitals-ryze-knocks-down-barriers-to-genai-adoption-for-smbs/
- Nabil Bukhari cho rằng nhiều công ty đang tự làm khó mình khi nghĩ rằng phải thay đổi toàn bộ văn hóa, nâng cao kỹ năng của mọi người và làm sạch dữ liệu thì mới có thể áp dụng AI. Điều này khiến họ bị tụt hậu.
- Thay vào đó, ông đề xuất bắt đầu bằng cách xác định những thứ muốn tăng tốc bằng AI. Các use case này rất rõ ràng và có tiêu chí thành công cụ thể.
- Khi bắt đầu bằng việc tăng tốc, cơ hội thành công cao hơn. Qua đó, năng lực và sự tự tin vào AI tăng lên, niềm tin vào AI cũng tăng lên.
- Quan trọng nhất là tạo ra giá trị ngay từ đầu, dù là giá trị nhỏ. Điều này sẽ biện minh cho việc đầu tư thêm vào AI sau này.
- Hãy tìm thứ muốn tăng tốc, tìm ra một hoặc hai use case đơn giản, rồi bắt đầu từ đó. Học hỏi và cải thiện dần.
📌 Giám đốc Công nghệ Extreme Networks khuyên các công ty nên bắt đầu hành trình AI bằng cách xác định các use case đơn giản để tăng tốc, qua đó tạo giá trị sớm và học hỏi dần thay vì cố gắng thay đổi toàn bộ văn hóa công ty ngay từ đầu.
Citations:
[1] https://www.rcrwireless.com/20240502/featured/create-value-from-the-start-what-makes-a-successful-ai-strategy
- Lamini, một công ty khởi nghiệp đang xây dựng nền tảng AI tạo sinh cho doanh nghiệp, đã huy động được 5,1 triệu đô la trong vòng gây quỹ hạt giống.
- Vòng gây quỹ do Basis Set Ventures dẫn đầu, với sự tham gia của các nhà đầu tư thiên thần như CEO Dropbox Drew Houston và CEO Figma Dylan Field.
- Lamini đang phát triển một nền tảng cho phép các doanh nghiệp tích hợp các mô hình ngôn ngữ lớn vào quy trình làm việc và ứng dụng hiện có của họ.
- Nền tảng của Lamini sẽ cung cấp các công cụ để xây dựng và triển khai các ứng dụng AI tạo sinh, cũng như quản lý dữ liệu và đào tạo mô hình.
- Lamini nhắm đến thị trường doanh nghiệp, với mục tiêu giúp các công ty tận dụng sức mạnh của AI tạo sinh để cải thiện hiệu quả và đổi mới.
- Công ty tin rằng việc tích hợp AI tạo sinh vào các ứng dụng doanh nghiệp sẽ trở thành xu hướng quan trọng trong tương lai.
- Lamini được thành lập bởi CEO Dávid Karich, người trước đây từng làm việc tại Apple và Microsoft, và CTO Jozef Karich.
- Công ty hiện có trụ sở tại Bratislava, Slovakia và San Francisco, Mỹ.
📌 Lamini, một công ty khởi nghiệp xây dựng nền tảng AI tạo sinh cho doanh nghiệp, đã gây quỹ được 5,1 triệu đô la từ Basis Set Ventures cùng các nhà đầu tư thiên thần như CEO Dropbox và Figma. Lamini nhắm đến việc tích hợp các mô hình ngôn ngữ lớn vào quy trình làm việc và ứng dụng hiện có, với tầm nhìn AI tạo sinh sẽ trở thành xu hướng quan trọng trong tương lai của các ứng dụng doanh nghiệp.
- Stardog, công ty chuyên về quản lý tri thức, ra mắt Karaoke, giải pháp large language model (LLM) triển khai tại chỗ, không gây ảo giác cho doanh nghiệp.
- Karaoke tích hợp dữ liệu nội bộ của doanh nghiệp với các nguồn tri thức đáng tin cậy như Wikipedia, PubMed, SEC filings và hơn 100 nguồn khác.
- Giải pháp này giúp doanh nghiệp tạo ra các ứng dụng AI an toàn, tuân thủ và hữu ích, tránh các vấn đề về ảo giác và an ninh mạng.
- Karaoke sử dụng kỹ thuật retrieval augmented generation, kết hợp các mô hình ngôn ngữ lớn với cơ sở tri thức có cấu trúc để tạo ra văn bản chính xác và đáng tin cậy.
- Các tính năng của Karaoke bao gồm: tùy chỉnh mô hình, tích hợp dữ liệu, kiểm soát nội dung, triển khai đa dạng và khả năng mở rộng.
- Karaoke có thể được triển khai trên cloud hoặc tại chỗ, đáp ứng các yêu cầu về quyền riêng tư, bảo mật và tuân thủ của doanh nghiệp.
- Giải pháp này nhắm đến các ngành như tài chính, bảo hiểm, chăm sóc sức khỏe, sản xuất và chính phủ, nơi cần sự chính xác và tuân thủ cao.
- Karaoke đã được thử nghiệm bởi một số đối tác của Stardog và sẽ được mở rộng trong những tháng tới.
📌Stardog, công ty chuyên về quản lý tri thức, ra mắt Karaoke, giải pháp large language model (LLM) triển khai tại chỗ, không gây ảo giác cho doanh nghiệp. Tạo ra các ứng dụng AI an toàn, chính xác và tuân thủ bằng cách tích hợp dữ liệu nội bộ với hơn 100 nguồn tri thức đáng tin cậy.
- Các ứng dụng AI tạo sinh thú vị như tạo hình ảnh hay viết văn bản đang thu hút sự chú ý, nhưng tương lai thực sự của công nghệ này nằm ở các ứng dụng doanh nghiệp ít hấp dẫn hơn.
- Các doanh nghiệp đang tích hợp AI vào quy trình làm việc để tự động hóa các nhiệm vụ nhàm chán, cải thiện hiệu quả và năng suất.
- Ví dụ, một công ty bảo hiểm sử dụng AI để xử lý 30.000 email mỗi ngày, tiết kiệm 34.000 giờ làm việc mỗi năm. Ngân hàng dùng chatbot AI để trả lời các câu hỏi của khách hàng.
- Các công ty như Anthropic đang phát triển các hệ thống AI an toàn, đáng tin cậy để triển khai trong doanh nghiệp. Adept AI Labs tạo ra các trợ lý ảo thực hiện nhiệm vụ như một con người.
- Thị trường ứng dụng AI doanh nghiệp được dự báo đạt 31 tỷ USD vào năm 2025, tăng từ 16 tỷ USD năm 2022. Gartner ước tính 70% các tổ chức sẽ sử dụng các ứng dụng AI vào năm 2030.
- Tuy nhiên, việc triển khai AI trong doanh nghiệp cũng đặt ra nhiều thách thức như đào tạo nhân viên, tích hợp vào hệ thống hiện có, đảm bảo an toàn và đáng tin cậy.
📌 Tương lai của AI tạo sinh nằm ở các ứng dụng "không hấp dẫn" trong doanh nghiệp, tự động hóa quy trình làm việc, tiết kiệm hàng nghìn giờ lao động. Thị trường này được dự báo đạt 31 tỷ USD vào năm 2025 với 70% doanh nghiệp áp dụng AI, bất chấp những thách thức về triển khai và đảm bảo độ tin cậy.
- Bài học 1: Cân nhắc kỹ lưỡng giữa triển khai AI trên đám mây và on-premise. Đám mây mang lại khả năng mở rộng, sức mạnh tính toán lớn và tiết kiệm chi phí, nhưng cũng có nhược điểm như chi phí cao hơn và phụ thuộc vào nhà cung cấp. Đám mây hybrid có thể là giải pháp.
- Bài học 2: Khi phát triển các ứng dụng Gen AI, việc truy cập và chuẩn bị dữ liệu nội bộ để sử dụng AI có thể là một thách thức, đặc biệt khi phần lớn dữ liệu nằm trên các hệ thống cũ. Cần có chiến lược để xử lý vấn đề này.
- Bài học 3: Đảm bảo độ tin cậy của AI là rất quan trọng, đặc biệt với các hoạt động then chốt như quản lý chuỗi cung ứng. Sự ảo giác và khiếm khuyết của Gen AI có thể gây ra sự không chắc chắn. Cần liên tục cải thiện mô hình, làm sạch dữ liệu và so sánh với hiện trạng.
- Bài học 4: Tích hợp AI vào các hệ thống, quy trình và luồng công việc hiện có của doanh nghiệp là một thách thức lớn. Cần có kế hoạch rõ ràng để chuyển đổi từ từ, tránh gây xáo trộn hoạt động.
- Bài học 5: Đào tạo và nâng cao kỹ năng cho nhân viên là yếu tố then chốt để triển khai AI thành công. Cần giúp nhân viên hiểu về AI, cách sử dụng công cụ mới và thích ứng với sự thay đổi trong công việc.
📌 5 bài học để triển khai AI thành công: cân nhắc kỹ đám mây hay tại chỗ (on-premise), xử lý thách thức dữ liệu nội bộ, đảm bảo độ tin cậy, tích hợp với hệ thống cũ và đào tạo nhân viên. Áp dụng các chiến lược phù hợp sẽ giúp doanh nghiệp vượt qua những rào cản và tận dụng tối đa tiềm năng của AI.
https://techmonitor.ai/tech-monitor-events/the-hidden-complexities-of-deploying-ai-in-your-business
- MongoDB công bố chương trình MongoDB for AI Applications, cung cấp bộ công cụ và tài nguyên để xây dựng ứng dụng AI trên nền tảng dữ liệu MongoDB.
- Chương trình bao gồm bản xem trước kỹ thuật của Atlas, công cụ lập chỉ mục véc-tơ, giúp truy vấn và tìm kiếm dữ liệu hiệu quả hơn cho các ứng dụng AI.
- MongoDB cũng cung cấp tài liệu hướng dẫn, mẫu code, hướng dẫn triển khai và đào tạo để giúp các nhà phát triển xây dựng ứng dụng AI.
- Các ứng dụng AI đòi hỏi khả năng lưu trữ và truy xuất dữ liệu phi cấu trúc, đa dạng với hiệu suất cao, điều mà MongoDB đáp ứng tốt.
- Gần 70% khách hàng doanh nghiệp của MongoDB sử dụng nền tảng này cho các dự án AI, machine learning.
- Chương trình mới hỗ trợ các trường hợp sử dụng như tìm kiếm tri thức, gợi ý nội dung, phân tích quan điểm.
- Cơ sở dữ liệu véc-tơ Atlas giúp đơn giản hóa việc xây dựng các ứng dụng AI như chatbot, công cụ hỗ trợ quyết định, hệ thống gợi ý.
- Tính năng Atlas Search cải thiện việc tìm kiếm văn bản cho các ứng dụng như tìm kiếm tài liệu, phân tích quan điểm.
- MongoDB cung cấp khả năng mở rộng linh hoạt, hiệu suất cao và tính sẵn sàng cho các ứng dụng AI quy mô lớn.
📌 MongoDB giới thiệu chương trình MongoDB for AI Applications, cung cấp công cụ, tài nguyên và hướng dẫn để xây dựng ứng dụng AI trên nền tảng dữ liệu MongoDB, hỗ trợ các trường hợp sử dụng như tìm kiếm tri thức, gợi ý nội dung, phân tích quan điểm với khả năng mở rộng và hiệu suất cao.
Citations:
[1] https://venturebeat.com/ai/mongodb-unveils-ai-application-program-for-enterprise/
- Anthropic đã ra mắt trợ lý AI Claude trên Microsoft Teams và ứng dụng iOS, hướng tới đối tượng doanh nghiệp.
- Claude hỗ trợ nhiều ngôn ngữ như tiếng Anh, Pháp, Đức, Tây Ban Nha, Nhật Bản, Hàn Quốc và sắp tới là tiếng Trung.
- Tích hợp sâu vào các quy trình làm việc và ứng dụng như Slack, Notion, Gmail, Google Docs, v.v.
- Tuân thủ các tiêu chuẩn bảo mật cao nhất như SOC 2 Type 2, HIPAA và GDPR.
- Anthropic cam kết không sử dụng dữ liệu khách hàng để đào tạo mô hình.
- Người dùng có thể truy cập Claude trên điện thoại thông qua ứng dụng iOS.
- Claude có khả năng hỗ trợ các tác vụ như tóm tắt, viết lách, lập trình, phân tích dữ liệu và trả lời câu hỏi.
- Doanh nghiệp có thể triển khai Claude một cách an toàn, bảo mật và có thể mở rộng quy mô.
- Anthropic đang phát triển các tính năng mới như tùy chỉnh nhân vật, đào tạo và tinh chỉnh mô hình.
📌 Anthropic đã ra mắt trợ lý AI Claude trên Microsoft Teams và ứng dụng iOS, mang đến giải pháp AI an toàn, đa ngôn ngữ và có thể mở rộng quy mô cho doanh nghiệp. Claude tích hợp sâu vào quy trình làm việc, tuân thủ các tiêu chuẩn bảo mật cao nhất và hỗ trợ nhiều tác vụ như tóm tắt, viết lách, lập trình và phân tích dữ liệu.
Citations:
[1] https://venturebeat.com/ai/anthropic-claude-teams-and-ios-app-the-secure-scalable-solution-for-enterprise-ai-adoption/
- Trong kỷ nguyên trực quan, khái niệm về sáng tạo đang được định nghĩa lại. AI tạo sinh đang thay đổi cách mọi người thể hiện sự sáng tạo.
- AI giúp mọi người tự tin hơn khi đảm nhận các công việc sáng tạo mà trước đây họ chưa từng thử. Nó cũng đưa sự sáng tạo vào các công việc hàng ngày đơn giản như gửi email.
- 97% người được khảo sát trong Báo cáo Marketing và AI của Canva thoải mái với sự trỗi dậy của AI tạo sinh vì nó giúp họ bỏ lại những công việc tẻ nhạt.
- Đội ngũ 4.500 người của Canva đã tận dụng AI trong công việc hàng ngày, như tóm tắt các buổi động não, dịch tài liệu sang nhiều ngôn ngữ.
- Trong 6 tháng qua, hơn 1.000 nhân viên HubSpot đã sử dụng Canva như một mô hình "sáng tạo tự phục vụ", tạo ra hơn 1.000 tài sản.
- Công ty Obvious Brand Partners đã sử dụng AI của Canva để tạo chiến dịch gây quỹ cho Alzheimer's New Zealand, thu về gấp 4 lần số tiền thông thường.
- Trong 6 tháng tới, các nhà lãnh đạo doanh nghiệp sẽ phải tìm cách nâng cao kỹ năng cho lực lượng lao động và triển khai AI an toàn. Kỹ năng chỉnh sửa sẽ trở nên rất có giá trị.
- 94% giám đốc CNTT được khảo sát có kế hoạch tăng chi tiêu cho AI trong năm nay. Canva cam kết trao quyền cho các doanh nghiệp biến mọi nhân viên trở thành nhà thiết kế.
📌 Canva và HubSpot nhận thấy AI tạo sinh đang mở ra cơ hội to lớn để nâng tầm sáng tạo trong mọi ngành nghề. Với 97% người dùng thoải mái với AI và 94% giám đốc CNTT tăng đầu tư, năm 2024 là thời điểm then chốt để AI chứng minh giá trị thực sự trong doanh nghiệp. Canva đang nỗ lực cung cấp các công cụ AI giúp mọi nhân viên trở thành nhà thiết kế.
Citations:
[1]https://www.canva.com/newsroom/news/canva-generative-ai
- Atlassian, công ty phát triển các công cụ hợp tác cho nhóm, đã giới thiệu Rovo - một công cụ khám phá kiến thức sử dụng AI.
- Rovo giúp nhân viên tìm kiếm thông tin từ nhiều nguồn dữ liệu khác nhau của công ty như Google Drive, Confluence, Jira và Trello.
- Công cụ này sử dụng các mô hình ngôn ngữ lớn và công nghệ tìm kiếm tri thức để hiểu ngữ cảnh truy vấn và cung cấp kết quả phù hợp.
- Rovo hỗ trợ hơn 30 ngôn ngữ và có thể tích hợp với các ứng dụng khác của Atlassian như Jira Service Management và Confluence.
- Công ty đã thử nghiệm Rovo với hơn 500 khách hàng và nhận được phản hồi tích cực về khả năng cải thiện năng suất và tiết kiệm thời gian.
- Rovo sẽ được tích hợp vào các sản phẩm của Atlassian và cũng có thể được truy cập thông qua trình duyệt và ứng dụng di động.
- Atlassian tin rằng Rovo sẽ giúp các nhóm làm việc hiệu quả hơn bằng cách giảm thời gian tìm kiếm thông tin và tăng cường chia sẻ kiến thức.
📌 Atlassian đã giới thiệu Rovo, một công cụ khám phá kiến thức sử dụng AI, giúp nhân viên tìm kiếm thông tin từ nhiều nguồn dữ liệu của công ty. Với khả năng hỗ trợ hơn 30 ngôn ngữ và tích hợp với các ứng dụng của Atlassian, Rovo hứa hẹn cải thiện đáng kể năng suất và hiệu quả làm việc của các nhóm.
Citations:
[1] https://venturebeat.com/ai/atlassian-introduces-rovo-an-ai-powered-knowledge-discovery-tool-for-the-enterprise/
- Amazon vừa công bố chatbot AI dành cho doanh nghiệp có tên Amazon Q đã chính thức có sẵn rộng rãi.
- Q cho phép các doanh nghiệp xây dựng trợ lý ảo tùy chỉnh của riêng mình mà không cần kiến thức chuyên sâu về AI.
- Chatbot này tích hợp với nhiều dịch vụ của Amazon như S3 để lưu trữ dữ liệu, Kendra để tìm kiếm thông tin và SageMaker để huấn luyện mô hình.
- Q hỗ trợ nhiều ngôn ngữ như tiếng Anh, Tây Ban Nha, Pháp, Đức, Ý, Nhật và Hàn.
- Người dùng có thể tương tác với chatbot thông qua giao diện trò chuyện tự nhiên, giúp tiết kiệm thời gian và công sức.
- Một số khách hàng lớn như Twilio, Intuit, Esri đã sử dụng Q trong giai đoạn beta và đánh giá cao tính năng cũng như sự dễ dàng triển khai của nó.
- Amazon Q cạnh tranh trực tiếp với các nền tảng xây dựng chatbot khác như Microsoft Azure và Google Cloud.
- Giá sử dụng Q dao động từ 0,25 USD đến 2 USD cho 1.000 yêu cầu, tùy thuộc vào mô hình ngôn ngữ được chọn.
📌 Amazon Q là chatbot AI dành cho doanh nghiệp, cho phép xây dựng trợ lý ảo tùy chỉnh một cách dễ dàng. Q tích hợp nhiều dịch vụ của Amazon, hỗ trợ đa ngôn ngữ và được các khách hàng lớn đánh giá cao. Với mức giá cạnh tranh từ 0,25-2 USD/1.000 yêu cầu, Q hứa hẹn sẽ là đối thủ đáng gờm trên thị trường chatbot doanh nghiệp.
Citations:
[1] https://venturebeat.com/ai/amazon-q-enterprise-ai-chatbot-is-now-generally-available/
- Walmart, nhà bán lẻ lớn nhất thế giới, đang ứng dụng trí tuệ nhân tạo (AI) để giải quyết vấn đề lãng phí thực phẩm và thời trang lỗi mốt.
- Hệ thống AI trong cửa hàng được phát triển nội bộ, hướng dẫn nhân viên về độ chín của chuối và quyết định thời trang theo mùa, nhằm giảm thiểu lãng phí.
- Công nghệ AI cho phép nhân viên quét sản phẩm như chuối và đưa ra khuyến nghị xử lý tối ưu. Hệ thống sử dụng AI tạo sinh, gợi ý các hành động như thay đổi giá, trả hàng cho nhà cung cấp hoặc quyên góp dựa trên phân tích.
- Máy quét không chỉ giới hạn ở sản phẩm tươi sống mà còn có thể được sử dụng cho các mặt hàng theo mùa như quần áo.
- Nỗ lực giảm lãng phí của Walmart không chỉ dừng lại ở AI. Công ty có các chương trình như "Take Back", cho phép khách hàng gửi quần áo không mong muốn đến Walmart, và hợp tác với Goodwill để tái chế hàng dệt.
- Nhiều startup như Winnow và Shelf Engine cũng đang sử dụng AI để giải quyết vấn đề lãng phí trong cửa hàng.
- Các quyết định dựa trên AI của Walmart có thể dẫn đến tiết kiệm, từ đó công ty có thể chuyển lợi ích cho khách hàng và đầu tư mở rộng.
📌 Walmart đang tận dụng sức mạnh của AI để giảm lãng phí thực phẩm và thời trang trong cửa hàng. Hệ thống AI nội bộ hướng dẫn nhân viên đưa ra quyết định tối ưu, tiết kiệm hàng tỷ đô la mỗi năm. Ngoài ra, các chương trình tái chế và hợp tác với các đối tác cũng góp phần giảm thiểu lãng phí. Nhờ đó, Walmart có thể mang lại lợi ích cho khách hàng và đầu tư phát triển.
Citations:
[1] https://www.cnbc.com/2024/04/30/a-new-walmart-in-store-ai-is-giving-employees-advice-on-how-to-sell.html
- Nhiều doanh nghiệp vội vàng áp dụng AI nhưng thất bại do chiến lược kém. Bài viết đưa ra cẩm nang để thành công.
- Trước hết, doanh nghiệp cần tập trung vào khách hàng, xác định đối tượng phục vụ, nhu cầu, điểm đau của họ.
- Cần trả lời các câu hỏi: Điều gì giúp cuộc sống khách hàng dễ dàng hơn? Trải nghiệm liền mạch là gì? Nhu cầu chưa được đáp ứng là gì?
- Liệt kê chiến lược, đòn bẩy, ưu tiên của doanh nghiệp là bước quan trọng nhất để quyết định "giải quyết vấn đề gì" và "giải quyết cho ai".
- Sau đó mới đến câu hỏi "làm thế nào để giải quyết". Liệu AI có phải giải pháp tốt để giải quyết vấn đề kinh doanh này không?
- Tác giả đề xuất khung "PRS" để quyết định các trường hợp sử dụng AI phù hợp. PRS là viết tắt của "Patterns that Repeat at Scale" (Các mẫu lặp lại ở quy mô lớn).
- Chiến lược AI luôn là hàm số của chiến lược kinh doanh và phù hợp với chiến lược dữ liệu.
- Cần liên tục cải tiến lộ trình AI, đồng thời chuẩn bị và nâng cao cơ sở hạ tầng dữ liệu để tối đa hóa tiềm năng của AI.
- Hầu hết các dự án và chiến lược AI gặp khó khăn do thiếu truyền thông kịp thời. Truyền thông đúng lúc là rất quan trọng.
📌 Bài viết cung cấp cẩm nang chiến lược AI toàn diện, nhấn mạnh tầm quan trọng của việc tập trung vào khách hàng, xây dựng chiến lược kinh doanh trước, sau đó mới đến công nghệ AI. Khung PRS (Các mẫu lặp lại ở quy mô lớn) được đề xuất để xác định các trường hợp sử dụng AI phù hợp. Lộ trình AI cần được cải tiến liên tục, song song với việc nâng cấp cơ sở hạ tầng dữ liệu. Truyền thông kịp thời cũng là yếu tố then chốt để thành công.
Citations:
[1] https://www.kdnuggets.com/the-ultimate-ai-strategy-playbook
- Yelp đang thử nghiệm sử dụng công nghệ AI để tạo ra các video đánh giá nhà hàng ngắn kết hợp hình ảnh, video và mô tả văn bản do người dùng tải lên.
- Trong một bản demo, Yelp đã trình diễn các video được tạo bởi AI với lời thoại, phụ đề và nhạc nền sôi động, cung cấp thông tin về món ăn, không gian của nhà hàng Ý và gợi ý các món ăn phổ biến tại nhà hàng bít tết Hàn Quốc.
- Sáng kiến này là một phần nỗ lực liên tục của Yelp trong việc xử lý lượng lớn đánh giá bằng AI mô hình ngôn ngữ lớn, giúp người dùng khám phá các doanh nghiệp địa phương phù hợp với nhu cầu của họ.
- Khả năng AI của Yelp thể hiện cam kết của công ty trong việc kết hợp nội dung hình ảnh và video, vốn đang rất phổ biến trên mạng xã hội, đặc biệt trong lĩnh vực nhà hàng.
- Yelp kỳ vọng rằng những video này sẽ khuyến khích người dùng chia sẻ nhiều hình ảnh và video hơn, đồng thời duy trì sự khôn ngoan tập thể của cộng đồng.
- Hiện chưa có lịch trình cụ thể cho việc ra mắt công khai tính năng video AI, Yelp đang thử nghiệm các phiên bản khác nhau để xác định loại video và lời nhắc AI tối ưu sẽ được tích hợp vào ứng dụng của họ.
📌 Yelp đang tận dụng sức mạnh của AI để tạo ra các video đánh giá nhà hàng sinh động dựa trên nội dung do người dùng tạo. Điều này không chỉ cải thiện trải nghiệm người dùng mà còn thúc đẩy sự tương tác và chia sẻ trong cộng đồng. Mặc dù chưa có lịch trình cụ thể, Yelp đang thử nghiệm để tìm ra cách tốt nhất để tích hợp tính năng video AI vào nền tảng của mình.
Citations:
[1] https://www.fastcompany.com/91114979/yelp-restaurant-review-videos-directed-ai
- Oracle, một nhà cung cấp hạ tầng đám mây hàng đầu của Mỹ, đang tăng cường khả năng AI tạo sinh khi cuộc cạnh tranh đám mây leo thang và ngày càng nhiều công ty áp dụng công nghệ AI.
- Sự gia tăng áp dụng AI, được thúc đẩy bởi việc ra mắt chatbot ChatGPT vào tháng 11/2022, đang thúc đẩy nhu cầu về dịch vụ điện toán đám mây và trung tâm dữ liệu tăng vọt, đòi hỏi một lượng lớn dữ liệu để đào tạo mô hình AI.
- Oracle đã tích hợp khả năng AI tạo sinh vào cơ sở hạ tầng và ứng dụng đám mây để bổ sung cho AI truyền thống. Rondy Ng, Phó chủ tịch điều hành phát triển ứng dụng của Oracle, giải thích rằng AI cổ điển giỏi phát hiện mẫu và dự đoán số nhưng kém trong việc tạo ngôn ngữ. Do đó, Oracle kết hợp dự đoán số với khả năng giải thích bằng lời, tạo ra một cặp đôi mạnh mẽ.
- Vào tháng 3, Oracle đã công bố thêm các tính năng AI tạo sinh được tích hợp trên toàn bộ stack công nghệ của mình. Sau thông báo về AI tạo sinh trên toàn bộ stack công nghệ vào tháng 1, Oracle đã sẵn sàng cho sự tăng trưởng trong cuộc cách mạng AI.
- Dịch vụ AI tạo sinh mang lại lợi thế đáng kể so với đối thủ cạnh tranh, vì Oracle tích hợp các khả năng này vào một stack tích hợp, trong khi các đối thủ phải hợp tác với nhiều công ty và nhà cung cấp đám mây khác nhau để có cơ sở hạ tầng và dịch vụ.
- Mặc dù Oracle đã tụt lại so với các đối thủ cạnh tranh như Amazon, Microsoft và Google về thị phần dịch vụ cơ sở hạ tầng đám mây, nhưng sự bùng nổ AI đã làm tăng nhu cầu về công nghệ AI của Oracle.
📌 Oracle đang tận dụng lợi thế về lượng dữ liệu khổng lồ và cơ sở khách hàng để tích hợp AI tạo sinh vào cơ sở hạ tầng và ứng dụng đám mây, nhằm đáp ứng nhu cầu ngày càng tăng. Điều này giúp Oracle có vị thế cạnh tranh mạnh mẽ trong cuộc đua công nghệ đám mây đang nóng lên từng ngày.
Citations:
[1] https://www.cnbc.com/2024/04/29/oracle-boosts-generative-ai-capabilities-as-cloud-competition-intensifies.html
- Perplexity đang tìm cách mang đà phát triển mới từ tìm kiếm tạo sinh (generative search) vào thế giới AI doanh nghiệp, đồng thời khám phá quảng cáo trong tương lai.
- Tuần trước, Perplexity thông báo gia nhập thị trường công nghệ doanh nghiệp với nguồn vốn mới.
- Việc khởi nghiệp một công ty tìm kiếm mới luôn là một thử thách cực kỳ khó khăn, vì phải đối đầu với "ngọn Everest" Google.
- Tuy nhiên, Perplexity đặt mục tiêu chinh phục cả người dùng doanh nghiệp và người dùng thông thường với công cụ tìm kiếm AI của mình.
- Perplexity muốn tận dụng đà phát triển từ xu hướng tìm kiếm tạo sinh để thâm nhập vào thị trường AI doanh nghiệp đầy tiềm năng.
- Bên cạnh đó, công ty cũng đang khám phá khả năng triển khai quảng cáo trong tương lai, mở ra cơ hội kinh doanh mới.
📌 Perplexity đang nỗ lực chinh phục thị trường tìm kiếm AI với đà phát triển mới từ tìm kiếm tạo sinh, nhắm tới cả khách hàng doanh nghiệp và người dùng phổ thông. Công ty vừa gia nhập lĩnh vực công nghệ doanh nghiệp với nguồn vốn mới, đồng thời khám phá tiềm năng quảng cáo trong tương lai để mở rộng cơ hội kinh doanh.
Citations:
[1] https://digiday.com/media/ai-briefing-how-perplexity-plans-to-win-over-enterprise-and-regular-users-with-ai-search/
- Vào một ngày thứ Ba đầu tháng Tư, Phó chủ tịch nghiên cứu AI của Nvidia, đã có mặt tại khuôn viên Đại học Toronto để chuẩn bị cho kỳ thi cuối kỳ.
- Bà Fidler, người được Jensen Huang - đồng sáng lập và CEO của Nvidia - chọn mặt gửi vàng để dẫn dắt phòng thí nghiệm của Nvidia tại Toronto từ năm 2018.
- Bà Fidler đã giữ vững vị trí giảng dạy tại đại học trong khi làm việc tại Nvidia, điều này là một phần không thể thiếu trong thỏa thuận của bà với Huang.
- Bà được hỏi liệu việc được thù lao bằng cổ phiếu Nvidia có phải là điều kiện tiên quyết không, và bà đã trả lời, “Đừng lo, tôi ổn.”
- Nvidia không chỉ là một công ty khởi nghiệp công nghệ thông thường khi Fidler gia nhập làm nhân viên số một tại chi nhánh nghiên cứu của Canada. Công ty này đã được thành lập từ những năm 1990 và nổi tiếng trong cộng đồng game thủ với các đơn vị xử lý đồ họa (GPU) làm nổi bật đồ họa trò chơi với hình ảnh độ phân giải cao.
- Nvidia đã đầu tư hàng tỷ đô vào công nghệ AI, cùng với các công ty khác tạo nên "Bảy kỳ quan tuyệt vời" mà mọi người từ các geek đến nhà đầu tư đều đam mê.
- Stacy Rasgon, một nhà phân tích công nghệ cao cấp tại Bernstein Research, nhận định, “Nvidia đang định hình thị trường, và mọi người khác đang cố gắng bắt kịp một mục tiêu đang di chuyển.”
- Thời điểm đó, các gã khổng lồ công nghệ đang tích cực "chôm chỉa" các chuyên gia AI từ các trường đại học, bao gồm cả Hinton, người đã chuyển sang làm việc cho Google.
- Nvidia không phải là công ty tư nhân duy nhất mà Fidler đang nói chuyện, nhưng Huang là CEO duy nhất đã cá nhân gọi điện cho bà để thông báo công việc tại Toronto là của bà và bà có thể giữ học sinh của mình, một số trong số họ hiện đang làm việc cho công ty.
📌 Phó chủ tịch nghiên cứu AI của Nvidia, bà Fidler, đã kết hợp thành công vai trò giảng dạy và dẫn dắt phòng thí nghiệm AI tại Toronto, được Jensen Huang cá nhân lựa chọn. Nvidia, với lịch sử từ những năm 1990, đã đầu tư mạnh mẽ vào AI, định hình thị trường và thu hút sự chú ý của cả giới công nghệ và nhà đầu tư.
Citations:
[1] https://financialpost.com/feature/nvidia-ai-secret-weapon-canada
- Viện SAS (Hoa kỳ) khuyến nghị các doanh nghiệp Malaysia đặt trí tuệ nhân tạo (AI) làm ưu tiên hàng đầu để cải thiện khả năng cạnh tranh và thúc đẩy tăng trưởng kinh tế.
- Việc áp dụng AI được dự đoán sẽ mang lại lợi ích đáng kể cho các ngành công nghiệp chủ chốt tại Malaysia, bao gồm sản xuất, dịch vụ tài chính và y tế.
- Các chuyên gia từ Viện SAS nhấn mạnh rằng AI có thể giúp các doanh nghiệp tối ưu hóa quy trình, tăng hiệu quả sản xuất và cung cấp dịch vụ khách hàng tốt hơn.
- Để hỗ trợ việc triển khai AI, Viện SAS đề xuất chính phủ Malaysia nên tạo môi trường thuận lợi bằng cách đầu tư vào cơ sở hạ tầng số và giáo dục kỹ thuật số.
- Viện SAS cũng khuyến khích các doanh nghiệp tìm kiếm sự hợp tác với các tổ chức giáo dục và nghiên cứu để phát triển tài năng AI trong nước.
- Một số thách thức được nhận diện bao gồm thiếu hụt kỹ năng công nghệ cao và sự chậm trễ trong việc áp dụng các công nghệ mới do thiếu hỗ trợ từ chính phủ.
- Viện SAS tin rằng việc nâng cao nhận thức và hiểu biết về AI trong cộng đồng doanh nghiệp là yếu tố then chốt để thúc đẩy sự chấp nhận và ứng dụng công nghệ này một cách hiệu quả.
📌 Viện SAS khuyến nghị các doanh nghiệp Malaysia đặt AI làm ưu tiên hàng đầu để cải thiện khả năng cạnh tranh và thúc đẩy tăng trưởng kinh tế. Việc áp dụng AI sẽ tăng hiệu quả sản xuất và cải thiện dịch vụ khách hàng, đồng thời cần sự hỗ trợ từ chính phủ trong đầu tư cơ sở hạ tầng và giáo dục kỹ thuật số.
Citations:
[1] https://www.nst.com.my/business/corporate/2024/04/1043642/malaysian-enterprises-urged-make-ai-top-priority-sas-institute
- Walmart bắt đầu thử nghiệm đội ngũ xe nâng điện được trang bị AI tại bốn trung tâm phân phối, với kế hoạch triển khai 19 xe nâng FoxBot Class 1.
- Các xe nâng tự động này được thiết kế để thực hiện các công việc nặng như tải và dỡ hàng tại các bến tàu trong kho hàng.
- Walmart có kế hoạch tự động hóa mạnh mẽ vào năm 2026 và sẽ theo dõi sát sao tiến trình của các xe nâng AI này.
- Trong khi các hãng xe hơi lớn đang vật lộn với xe tự lái trên đường công cộng, nhiều công ty đã thành công trong việc tự động hóa môi trường kho hàng.
- HP chào mừng Tuần lễ Doanh nghiệp Nhỏ Quốc gia (từ ngày 28 tháng 4 đến ngày 4 tháng 5) bằng cách trưng bày sản phẩm và dịch vụ cho các doanh nghiệp nhỏ.
- Ikea đầu tư vào việc đào tạo 3.500 nhân viên về trí tuệ nhân tạo, không chỉ giải quyết mối quan ngại về AI mà còn giúp họ làm việc hiệu quả hơn.
- Laticia Austin giới thiệu iThinkContent, một nền tảng được hỗ trợ bởi AI dành cho doanh nhân và doanh nghiệp nhỏ.
- Forbes Advisor tổng hợp danh sách phần mềm ống nước tốt nhất cho việc quản lý lịch trình, hóa đơn, hàng tồn kho và thông tin khách hàng, đặc biệt trong thời kỳ công việc cao điểm.
📌 Walmart đang thử nghiệm xe nâng AI để tự động hóa công việc tại các trung tâm phân phối, HP và Ikea đẩy mạnh công nghệ AI hỗ trợ doanh nghiệp nhỏ, và Laticia Austin ra mắt nền tảng AI mới cho doanh nhân.
Citations:
[1] https://www.forbes.com/sites/quickerbettertech/2024/04/28/business-tech-roundup-walmart-rolls-out-ai-forklifts/
- Mô hình ngôn ngữ lớn (LLM) đang thay đổi cách các doanh nghiệp cạnh tranh. Để tận dụng sức mạnh của LLM, cần có sự pha trộn giữa dữ liệu, tài năng và chiến lược.
- Dữ liệu là thành phần quan trọng đầu tiên. Doanh nghiệp cần thu thập và sử dụng dữ liệu độc quyền để huấn luyện các mô hình AI. Điều này giúp tạo ra các giải pháp được cá nhân hóa và khác biệt so với đối thủ.
- Tài năng là yếu tố then chốt thứ hai. Các nhà lãnh đạo cần tuyển dụng và phát triển đội ngũ có kỹ năng về AI, đồng thời thúc đẩy văn hóa đổi mới và thử nghiệm.
- Chiến lược là thành phần cuối cùng. Doanh nghiệp cần xác định các cơ hội ứng dụng LLM phù hợp với mục tiêu kinh doanh, đồng thời đầu tư vào cơ sở hạ tầng và quy trình cần thiết.
- Tác giả nhấn mạnh tầm quan trọng của việc kết hợp cả ba yếu tố trên. Chỉ riêng dữ liệu hay tài năng không đủ để tạo ra lợi thế cạnh tranh bền vững.
- Các nhà lãnh đạo cần chủ động tìm hiểu và áp dụng LLM, nếu không sẽ bị đối thủ vượt mặt. Tuy nhiên, việc triển khai cần được thực hiện một cách có trách nhiệm và đạo đức.
📌 Mô hình ngôn ngữ lớn đang mở ra cơ hội cho các doanh nghiệp tạo ra lợi thế cạnh tranh mới. Để thành công, các nhà lãnh đạo cần pha trộn đúng tỷ lệ giữa dữ liệu độc quyền, tài năng về AI và chiến lược kinh doanh sáng tạo, đồng thời triển khai một cách có trách nhiệm và đạo đức.
Citations:
[1] https://venturebeat.com/ai/how-to-use-llms-to-lose-your-competitors-a-mixology-for-enterprise-leaders/
- Theo nghiên cứu mới của Lenovo, 48% CIO cho biết nỗ lực chuyển đổi số đang bị giảm ưu tiên do tập trung chi tiêu nhiều hơn vào AI.
- 38% CIO tiết lộ việc tăng đầu tư AI khiến các công ty phải phân bổ lại chi tiêu từ các lĩnh vực quan trọng của doanh nghiệp, bao gồm cả nỗ lực bền vững.
- Trung bình 41% đồng ý rằng "việc khám phá và áp dụng AI đang rút nguồn lực và sự chú ý khỏi các lĩnh vực IT quan trọng khác".
- Báo cáo nhấn mạnh sự mất kết nối đáng lo ngại giữa các ưu tiên trước mắt, mục tiêu IT của CIO và xu hướng đầu tư vào AI của toàn ngành.
- Mặc dù 96% CIO được khảo sát dự kiến tăng đầu tư AI trong năm tới, chỉ 1/5 kỳ vọng ngân sách IT tổng thể tăng tương ứng trên 10%.
- AI hiện là ưu tiên hàng đầu của CIO, với 51% coi đây là một trong những lĩnh vực cơ sở hạ tầng IT mà họ "cảm thấy áp lực cấp bách nhất để giải quyết", ngang bằng với an ninh mạng.
- Tuy nhiên, một số lượng đáng kể CIO được khảo sát không kỳ vọng nhiều vào lợi nhuận đầu tư (ROI) từ AI trong tương lai gần.
- Nếu đầu tư AI đang rút tiền từ các nỗ lực chuyển đổi số mà không hứa hẹn nhiều giá trị, các doanh nghiệp có thể đang quản lý không hiệu quả các ưu tiên tài chính của mình.
- Chỉ hơn một nửa (51%) coi AI dẫn đến giảm chi phí back-end trong các lĩnh vực như chuỗi cung ứng, trong khi nhiều hơn dẫn ra tăng khả năng cạnh tranh của người tiêu dùng (77%) hoặc nâng cao năng suất (83%) như những động lực giá trị chính của AI trong 2 năm tới.
- Nghiên cứu chỉ ra rằng "phần lớn" các công ty chưa sẵn sàng để bắt đầu mở rộng quy mô AI nhanh chóng, chỉ 24% CIO đề cập đến chính sách doanh nghiệp về sử dụng hoạt động và đạo đức như một lĩnh vực sẵn sàng mở rộng quy mô.
📌 Gần một nửa CIO thất vọng khi các công ty ưu tiên đầu tư AI hơn dự án chuyển đổi số. 38% cho biết điều này dẫn đến phân bổ lại chi tiêu từ các lĩnh vực quan trọng, bao gồm cả nỗ lực bền vững. Mặc dù 96% dự kiến tăng đầu tư AI, chỉ 20% kỳ vọng ngân sách IT tăng trên 10%. Nhiều CIO không mong đợi nhiều về ROI từ AI trong tương lai gần và hầu hết các công ty chưa sẵn sàng mở rộng AI.
Citations:
[1] https://www.itpro.com/technology/artificial-intelligence/cio-frustration-grows-as-firms-prioritize-ai-investment-over-digital-transformation-projects
- DeepL, công ty công nghệ dịch thuật nổi tiếng, đã chính thức ra mắt một trợ lý viết AI mới dành riêng cho các doanh nghiệp.
- Sản phẩm mới này được thiết kế để giúp các nhân viên trong doanh nghiệp tăng cường hiệu quả công việc bằng cách tự động hóa các nhiệm vụ viết lách.
- Trợ lý viết AI của DeepL không chỉ giúp soạn thảo các email, báo cáo, và tài liệu khác mà còn có khả năng tùy chỉnh theo ngữ cảnh và yêu cầu cụ thể của từng doanh nghiệp.
- Công nghệ AI mà DeepL sử dụng được biết đến với khả năng hiểu ngữ nghĩa phức tạp và sản xuất văn bản một cách tự nhiên và chính xác.
- Trợ lý viết này cũng tích hợp được với nhiều nền tảng và công cụ khác nhau, cho phép người dùng dễ dàng chuyển đổi giữa các tác vụ và tăng cường tính linh hoạt trong công việc.
- DeepL cũng nhấn mạnh rằng dữ liệu của người dùng sẽ được bảo mật tuyệt đối, với các biện pháp bảo mật nghiêm ngặt để đảm bảo thông tin không bị rò rỉ hoặc bị lạm dụng.
- Sản phẩm này đã được thử nghiệm bởi một số doanh nghiệp lớn trước khi ra mắt chính thức và nhận được phản hồi tích cực về khả năng cải thiện năng suất và giảm thiểu áp lực công việc cho nhân viên.
- DeepL cũng cung cấp một gói dịch vụ hỗ trợ khách hàng toàn diện, bao gồm cả đào tạo sử dụng công cụ mới và hỗ trợ kỹ thuật liên tục.
📌 DeepL đã ra mắt trợ lý viết AI mới cho doanh nghiệp, nhằm mục đích cải thiện hiệu quả công việc bằng cách tự động hóa các nhiệm vụ viết lách. Sản phẩm này tích hợp được với nhiều nền tảng, đảm bảo bảo mật thông tin và đã nhận được phản hồi tích cực từ các doanh nghiệp lớn trong giai đoạn thử nghiệm.
- Snowflake AI đã phát triển một mô hình mới có tên là Arctic 128, được thiết kế để cải thiện hiệu quả và độ chính xác trong các ứng dụng AI.
- Arctic 128 sử dụng các thuật toán tiên tiến để xử lý dữ liệu lớn một cách nhanh chóng, giúp giảm đáng kể thời gian cần thiết cho việc huấn luyện mô hình.
- Mô hình này cũng tích hợp các công nghệ mới nhất về bảo mật dữ liệu, đảm bảo an toàn thông tin trong quá trình xử lý.
- Các chuyên gia AI như Moe đã đánh giá cao khả năng của Arctic 128 trong việc xử lý các tác vụ phức tạp và đưa ra dự đoán chính xác hơn.
- Arctic 128 cũng được trang bị khả năng tự học hỏi và tự điều chỉnh, cho phép nó cải thiện hiệu suất qua thời gian mà không cần sự can thiệp thường xuyên của con người.
- Mô hình này đã được thử nghiệm trong nhiều lĩnh vực khác nhau, bao gồm y tế, tài chính và an ninh mạng, và cho thấy kết quả hứa hẹn.
- Snowflake AI cũng đã công bố kế hoạch hợp tác với các tổ chức giáo dục và nghiên cứu để tiếp tục phát triển và cải tiến Arctic 128.
- Công ty hy vọng rằng mô hình mới này sẽ mở ra những cơ hội mới trong việc áp dụng AI vào giải quyết các vấn đề xã hội và kinh tế.
📌 Snowflake AI đã giới thiệu mô hình Arctic 128, một bước tiến đáng kể trong công nghệ AI với khả năng xử lý dữ liệu lớn nhanh chóng và chính xác. Mô hình này nhận được sự đánh giá cao từ các chuyên gia và đã được thử nghiệm trong nhiều lĩnh vực, hứa hẹn mở ra cơ hội mới cho ứng dụng AI.
• Một nghiên cứu gần đây của Lenovo cho thấy mặc dù chi tiêu cho AI tăng 61% trong năm 2024 tại khu vực EMEA, nhưng doanh nghiệp vẫn đối mặt với những thách thức khi áp dụng AI tạo sinh.
• 97% doanh nghiệp đã hoặc dự định đầu tư vào AI trong năm tới, nhưng gặp trở ngại về sức mạnh tính toán và tài nguyên dữ liệu khổng lồ cần thiết để huấn luyện mô hình.
• Các nhà lãnh đạo CNTT lo ngại về khả năng lạm dụng và "ảo giác AI" - khi AI tạo sinh đưa ra kết quả sai lệch.
• Giám đốc công nghệ thông tin cũng gặp khó khăn trong việc tìm nền tảng dữ liệu đáng tin cậy và phải dựa vào nền tảng bên thứ ba cho phát triển AI tạo sinh.
• Mặc dù vậy, nhiệt huyết vẫn cao với các cơ quan chính phủ, công ty viễn thông, ngân hàng và dịch vụ tài chính đã đầu tư vào AI tạo sinh.
• Khu vực Bắc Mỹ cũng dự kiến sẽ tăng đầu tư tương tự, nhưng số tiền dự kiến chi cho công nghệ này ở khu vực Châu Á-Thái Bình Dương thấp hơn một chút.
• Chỉ 13% người tham gia khảo sát ở Châu Á-Thái Bình Dương xác nhận đã áp dụng AI tạo sinh (do tỷ lệ áp dụng cao hơn ở Hàn Quốc và Ấn Độ).
• Nghiên cứu nhấn mạnh tầm quan trọng của chiến lược vững chắc để giải quyết các rào cản tiềm tàng trước khi doanh nghiệp bị ảnh hưởng.
📌 Doanh nghiệp đang tăng chi tiêu mạnh cho AI tạo sinh nhưng vẫn vấp phải trở ngại cũ về sức mạnh tính toán, dữ liệu khổng lồ, lo ngại lạm dụng và sai sót, khó tìm nền tảng đáng tin cậy, phải dựa vào bên thứ 3, mặc dù nhiệt huyết vẫn cao.
- Mặc dù các sản phẩm và nền tảng AI như ChatGPT, Microsoft CoPilot, Google Gemini, Anthropic, LLaMA, Nvidia đang thu hút sự chú ý, nhưng ứng dụng AI thực sự mang lại hiệu quả cho doanh nghiệp năm 2024 là chatbot dịch vụ khách hàng.
- Các tập đoàn lớn đang đầu tư mạnh vào chatbot, các công ty phần mềm cũng đang phát triển trong lĩnh vực này. Doanh nghiệp ở mọi quy mô nên tập trung vào chatbot.
- Các công nghệ AI khác như xe tự lái, robot, drone tự hành... vẫn đang trong giai đoạn phát triển ban đầu, chưa sẵn sàng để ứng dụng rộng rãi.
- Klarna, nền tảng mua ngay trả sau, đã xây dựng chatbot có khả năng thay thế 700 nhân viên dịch vụ khách hàng. Bank of America cho biết chatbot Erica của họ đã vượt 1.5 tỷ tương tác.
- Starbucks triển khai chatbot mới để hỗ trợ khách hàng chọn và đặt cà phê.
- Trong 2 năm qua, các công ty phần mềm hàng đầu như NICE, Salesforce, ServiceNow, Zendesk và HubSpot đã giới thiệu chatbot AI hoặc hợp tác để cung cấp chức năng này cho doanh nghiệp vừa và nhỏ.
📌 Chatbot dịch vụ khách hàng đang nổi lên như ứng dụng AI đầu tiên mang lại lợi ích thiết thực cho doanh nghiệp. Các tập đoàn lớn và công ty phần mềm đang đầu tư mạnh vào lĩnh vực này. Ví dụ, chatbot của Klarna có thể thay thế 700 nhân viên, chatbot Erica của Bank of America đạt 1,5 tỷ tương tác.
Citations:
[1] https://www.forbes.com/sites/quickerbettertech/2024/04/26/chatbots-emerge-as-the-first-killer-ai-app-for-businesses/?sh=3d53989677b9
- LinkedIn, với hơn 1 tỷ người dùng toàn cầu, liên tục vượt qua giới hạn của những gì khả thi về mặt kỹ thuật trong doanh nghiệp ngày nay.
- Kết nối ứng viên đủ điều kiện với nhà tuyển dụng tiềm năng để lấp đầy các vị trí tuyển dụng và đảm bảo rằng nguồn cấp dữ liệu trên nền tảng phù hợp với thành viên là hoạt động kinh doanh cốt lõi của LinkedIn.
- Vào mùa hè năm 2023, LinkedIn bắt đầu tự hỏi liệu việc kết nối ứng viên với nhà tuyển dụng và làm cho nguồn cấp dữ liệu hữu ích hơn có thể được phục vụ tốt hơn với sự trợ giúp của các mô hình ngôn ngữ lớn (LLM) hay không.
- LinkedIn đã khởi động hành trình AI tạo sinh và hiện đang báo cáo kết quả trải nghiệm tận dụng Dịch vụ Azure OpenAI của Microsoft.
- Một trong những bài học đầu tiên của LinkedIn là tầm quan trọng của việc điều chỉnh LLM phù hợp với kỳ vọng của người dùng và giúp LLM hiểu cách đưa ra phản hồi phù hợp, có tính người.
- Mặc dù LinkedIn có hơn 1 tỷ thành viên, hầu hết các tính năng tìm kiếm việc làm dựa trên LLM của LinkedIn ban đầu sẽ nhắm mục tiêu đến các thành viên cao cấp, một nhóm nhỏ hơn nhiều.
- Ngay cả khi chỉ nhắm đến vài triệu thành viên cao cấp, giá cả cũng tăng vọt do giá cả LLM - ít nhất là thỏa thuận cấp phép mà LinkedIn đã ký.
📌 LinkedIn đã rút ra nhiều bài học quý giá khi tận dụng LLM cho hơn 1 tỷ người dùng, bao gồm tầm quan trọng của việc điều chỉnh LLM phù hợp với kỳ vọng của người dùng, giúp LLM đưa ra phản hồi phù hợp, và đối mặt với thách thức về giá cả khi mở rộng quy mô các tính năng dựa trên LLM cho hàng triệu thành viên cao cấp.
Citations:
[1] https://www.cio.com/article/2095140/what-linkedin-learned-leveraging-llms-for-its-billion-users.html?amp=1
- K Krithivasan, CEO của Tata Consultancy Services (TCS), công ty CNTT lớn thứ 2 Ấn Độ, cảnh báo rằng AI tạo sinh sẽ dẫn đến nhu cầu "tối thiểu" về trung tâm cuộc gọi.
- Ngành công nghiệp trung tâm hỗ trợ khách hàng hiện đang tuyển dụng khoảng 17 triệu người theo báo cáo của Gartner năm 2022.
- Krithivasan cho rằng trong tương lai lý tưởng, công nghệ AI có thể dự đoán cuộc gọi và chủ động giải quyết vấn đề của khách hàng mà không cần đến nhân viên.
- Một số công ty đã sa thải nhân viên trung tâm cuộc gọi để chuyển sang sử dụng AI, giúp giảm thời gian phản hồi, giải quyết vấn đề và chi phí hỗ trợ khách hàng.
- Các khảo sát ước tính AI tạo sinh sẽ thay thế 2 triệu việc làm ở Mỹ vào năm 2030, trong khi IMF tin rằng 40% công việc trên toàn cầu có nguy cơ bị thay thế.
📌 AI tạo sinh được dự báo sẽ sớm tàn phá ngành công nghiệp trung tâm cuộc gọi với nhu cầu tối thiểu trong vòng 1 năm tới. Công nghệ này có thể tự động dự đoán và xử lý vấn đề của khách hàng, dẫn đến nguy cơ mất việc cho 17 triệu nhân viên ngành này trên toàn cầu.
Citations:
[1] https://www.techspot.com/news/102749-generative-ai-could-soon-decimate-call-center-industry.html
- BCG (Boston Consulting Group) dự báo dịch vụ tư vấn AI sẽ đóng góp 20% tổng doanh thu của họ trong năm nay, tương đương khoảng 1 tỷ USD.
- Điều này cho thấy sự tăng trưởng vượt bậc của mảng kinh doanh này, vốn chỉ chiếm 5% doanh thu của BCG vào năm 2022. BCG hy vọng con số này tăng lên 40% vào năm 2026.
- Các công ty tư vấn hàng đầu như McKinsey, Bain, Accenture cũng đang đẩy mạnh đầu tư vào AI để đáp ứng nhu cầu ngày càng tăng từ khách hàng.
- Khách hàng đang tìm kiếm sự hỗ trợ từ các công ty tư vấn để tận dụng sức mạnh của AI trong việc cải thiện hiệu quả kinh doanh, giảm chi phí và đưa ra quyết định thông minh hơn.
- BCG đã thành lập một đơn vị chuyên biệt về AI với hơn 1.000 chuyên gia để cung cấp các giải pháp toàn diện cho khách hàng.
- Họ cũng hợp tác với các công ty công nghệ lớn như Microsoft, Google để phát triển các công cụ và nền tảng AI tiên tiến.
- Tuy nhiên, sự cạnh tranh trong lĩnh vực tư vấn AI đang trở nên gay gắt hơn khi ngày càng có nhiều công ty tham gia thị trường này.
📌 BCG dự báo doanh thu tư vấn AI sẽ tăng vọt lên 20% trong năm 2024, đạt khoảng 1 tỷ USD, so với chỉ 5% năm 2022. BCG hy vọng con số này tăng lên 40% vào năm 2026. Điều này phản ánh xu hướng các doanh nghiệp đang đẩy mạnh ứng dụng AI và tìm kiếm sự hỗ trợ từ các công ty tư vấn hàng đầu để chuyển đổi số thành công.
Citations:
[1] https://www.ft.com/content/33dfaec4-b5e7-4eca-a869-cdd33d447e65
- Salesforce giới thiệu Einstein Copilot, một công cụ AI tạo sinh dành cho doanh nghiệp với khả năng lập luận và hành động.
- Einstein Copilot tích hợp vào các ứng dụng của Salesforce như Sales Cloud, Service Cloud, Marketing Cloud và Slack.
- Công cụ này sử dụng mô hình ngôn ngữ lớn và công nghệ tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (retrieval augmented generation) để tạo ra nội dung phù hợp với ngữ cảnh.
- Einstein Copilot có thể thực hiện các tác vụ như tạo email, viết mô tả sản phẩm, tóm tắt cuộc họp và đưa ra đề xuất dựa trên dữ liệu của khách hàng.
- Công cụ này cũng có khả năng lập luận và đưa ra quyết định dựa trên dữ liệu, giúp tăng năng suất và hiệu quả công việc.
- Salesforce đã thử nghiệm Einstein Copilot với một số khách hàng và nhận được phản hồi tích cực về khả năng tiết kiệm thời gian và cải thiện trải nghiệm khách hàng.
- Einstein Copilot tuân thủ các nguyên tắc đạo đức và an toàn, đảm bảo tính riêng tư và bảo mật dữ liệu của khách hàng.
- Salesforce cam kết phát triển AI có trách nhiệm và minh bạch, hợp tác với các đối tác và khách hàng để tạo ra giá trị bền vững.
📌 Salesforce Einstein Copilot là công cụ AI tạo sinh tiên phong dành cho doanh nghiệp, với khả năng lập luận và hành động mới. Tích hợp vào các ứng dụng của Salesforce, Einstein Copilot giúp tăng năng suất, cải thiện trải nghiệm khách hàng và đưa ra quyết định thông minh dựa trên dữ liệu, đồng thời tuân thủ các nguyên tắc đạo đức và an toàn.
Citations:
[1] https://venturebeat.com/ai/salesforce-einstein-copilot-brings-new-reasoning-and-actions-to-enterprise-generative-ai/
- Tredence, một công ty hàng đầu trong lĩnh vực tư vấn và giải pháp dữ liệu, đã chính thức ra mắt nền tảng GenAI-as-a-Service.
- Nền tảng này được thiết kế để dân chủ hóa công nghệ AI trong các doanh nghiệp, cho phép họ triển khai các giải pháp AI một cách nhanh chóng và hiệu quả.
- GenAI-as-a-Service của Tredence cung cấp khả năng tùy chỉnh cao, giúp các doanh nghiệp có thể phát triển các giải pháp AI phù hợp với nhu cầu và đặc thù riêng.
- Nền tảng này hỗ trợ một loạt các ứng dụng AI, từ phân tích dữ liệu, tự động hóa quy trình, đến tối ưu hóa hoạt động.
- Tredence nhấn mạnh rằng GenAI-as-a-Service sẽ giúp các doanh nghiệp giảm thiểu chi phí phát triển AI, đồng thời tăng cường khả năng cạnh tranh trên thị trường.
- Nền tảng cũng bao gồm các công cụ và hỗ trợ để giúp các doanh nghiệp triển khai và quản lý các giải pháp AI một cách hiệu quả.
- Tredence cũng cung cấp đào tạo và hỗ trợ kỹ thuật cho các doanh nghiệp để họ có thể tận dụng tối đa công nghệ AI mới này.
- Mục tiêu của Tredence là không chỉ cung cấp công nghệ, mà còn giúp các doanh nghiệp hiểu và áp dụng AI một cách hiệu quả, từ đó thúc đẩy sự đổi mới và tăng trưởng.
📌 Tredence đã ra mắt nền tảng GenAI-as-a-Service, nhằm dân chủ hóa AI trong doanh nghiệp bằng cách cung cấp các giải pháp AI tùy chỉnh, hiệu quả. Nền tảng này hỗ trợ đa dạng ứng dụng, giúp giảm chi phí và tăng cường khả năng cạnh tranh cho các doanh nghiệp.
Citations:
[1] https://venturebeat.com/ai/tredence-launches-genai-as-a-service-platform-aims-to-democratize-enterprise-ai/
- Moderna sẽ công bố mối quan hệ hợp tác đột phá với OpenAI, một công ty hàng đầu về trí tuệ nhân tạo, vào thứ Tư.
- Liên minh chiến lược này nhằm tự động hóa phần lớn hoạt động kinh doanh của Moderna và mở rộng ảnh hưởng của OpenAI trong lĩnh vực doanh nghiệp.
- Khoảng 3.000 nhân viên Moderna dự kiến sẽ được tiếp cận ChatGPT Enterprise, dựa trên mô hình ngôn ngữ tiên tiến nhất GPT-4 của OpenAI, vào cuối tuần này.
- Việc tích hợp AI vào nhiều quy trình hơn của Moderna có thể đẩy nhanh đáng kể mục tiêu đầy tham vọng của công ty là ra mắt 15 sản phẩm mới trong 5 năm tới.
- Công ty có trụ sở tại Cambridge, Massachusetts này đang nỗ lực vượt xa tiến độ ra mắt sản phẩm đề ra.
📌 Hãng dược Moderna hợp tác với OpenAI, trang bị ChatGPT Enterprise dựa trên GPT 4 cho 3.000 nhân viên, nhằm tự động hóa quy trình và đẩy nhanh mục tiêu ra mắt 15 sản phẩm mới trong 5 năm tới, thể hiện tham vọng lớn của công ty dược phẩm này.
Citations:
[1] https://www.wsj.com/articles/at-moderna-openais-gpts-are-changing-almost-everything-6ff4c4a5
- Snowflake, công ty điện toán đám mây, giới thiệu Arctic LLM - mô hình AI tạo sinh cấp doanh nghiệp.
- Arctic LLM là bước đầu tiên của Snowflake vào lĩnh vực AI tạo sinh, được phát triển dành riêng cho khối lượng công việc doanh nghiệp.
- Mô hình được tối ưu hóa để tạo mã cơ sở dữ liệu, có sẵn theo giấy phép Apache 2.0 và miễn phí cho nghiên cứu và sử dụng thương mại.
- CEO Sridhar Ramaswamy cho biết Arctic LLM sẽ là nền tảng để Snowflake và khách hàng xây dựng các sản phẩm cấp doanh nghiệp và khai thác tiềm năng của AI.
- Thị trường mô hình AI tạo sinh đang bão hòa với nhiều mô hình mới được phát hành thường xuyên để tạo sự phấn khích và đóng vai trò là điểm vào hệ sinh thái sản phẩm của các nhà cung cấp.
- Arctic LLM nối tiếp các mô hình tập trung vào doanh nghiệp khác như DBRX của Databricks.
📌 Snowflake gia nhập thị trường AI tạo sinh với Arctic LLM - mô hình dành riêng cho doanh nghiệp, tối ưu tạo mã cơ sở dữ liệu, miễn phí nghiên cứu và thương mại. CEO kỳ vọng Arctic LLM sẽ là nền tảng để Snowflake và khách hàng xây dựng sản phẩm cấp doanh nghiệp, khai thác tiềm năng AI.
Citations:
[1] https://techcrunch.com/2024/04/24/snowflake-releases-a-flagship-generative-ai-model-of-its-own/
- Bước 1: Xác định các cơ hội cải tiến trong hoạt động kinh doanh hiện tại, nơi mà AI có thể mang lại tác động tích cực nhất. Tập trung vào các lĩnh vực như tự động hóa quy trình, cải thiện trải nghiệm khách hàng, tối ưu hóa chuỗi cung ứng.
- Bước 2: Đánh giá năng lực AI hiện tại của doanh nghiệp, xác định các khoảng trống về kỹ năng, công nghệ và tài nguyên cần được bổ sung để triển khai chiến lược AI hiệu quả.
- Bước 3: Thiết lập tầm nhìn và mục tiêu rõ ràng cho việc ứng dụng AI, đảm bảo phù hợp với chiến lược tổng thể của doanh nghiệp. Xác định các chỉ số đo lường thành công quan trọng.
- Bước 4: Xây dựng lộ trình triển khai chi tiết, ưu tiên các sáng kiến AI mang lại giá trị cao nhất và có thể thực hiện trong ngắn hạn. Phân bổ nguồn lực và ngân sách hợp lý.
- Bước 5: Đầu tư vào việc phát triển năng lực AI, bao gồm tuyển dụng nhân tài, đào tạo đội ngũ và xây dựng cơ sở hạ tầng công nghệ cần thiết. Hợp tác với các đối tác chiến lược để bổ sung chuyên môn.
- Bước 6: Triển khai các sáng kiến AI theo lộ trình, đảm bảo sự phối hợp nhịp nhàng giữa các bộ phận. Thường xuyên theo dõi tiến độ, đánh giá kết quả và điều chỉnh linh hoạt.
- Bước 7: Thúc đẩy văn hóa đổi mới và học hỏi liên tục trong tổ chức. Khuyến khích nhân viên làm chủ các kỹ năng AI, tích cực đóng góp ý tưởng và cải tiến quy trình làm việc.
- Bước 8: Liên tục đo lường và tối ưu hóa hiệu quả của các sáng kiến AI. Chia sẻ câu chuyện thành công, mở rộng quy mô các giải pháp hiệu quả và không ngừng cải tiến chiến lược AI để duy trì lợi thế cạnh tranh.
📌 Bài viết hướng dẫn 8 bước xây dựng chiến lược ứng dụng AI thành công trong doanh nghiệp. Trong đó lưu ý cần hợp tác với các đối tác chiến lược để bổ sung chuyên môn. Ưu tiên các sáng kiến AI mang lại giá trị cao nhất và có thể thực hiện trong ngắn hạn.
https://www.eweek.com/artificial-intelligence/ai-business-strategy/
- Báo cáo Cloud Complexity 2024 của NetApp phân tích trải nghiệm của các nhà ra quyết định công nghệ toàn cầu trong việc triển khai AI quy mô lớn.
- Báo cáo cho thấy sự khác biệt rõ rệt giữa các quốc gia dẫn đầu AI và những quốc gia chậm chạp trong lĩnh vực này trên nhiều khía cạnh như khu vực, ngành công nghiệp và quy mô công ty.
- 60% các quốc gia dẫn đầu về AI (Ấn Độ, Singapore, Vương quốc Anh, Hoa Kỳ) có các dự án AI đang hoạt động hoặc trong giai đoạn thử nghiệm, so với 36% ở các quốc gia chậm chạp về AI (Tây Ban Nha, Úc/New Zealand, Đức, Nhật Bản).
- Công nghệ dẫn đầu với 70% dự án AI đang hoạt động hoặc trong giai đoạn thử nghiệm, tiếp theo là Ngân hàng & Dịch vụ Tài chính (55%) và Sản xuất (50%). Tuy nhiên, Y tế (38%) và Truyền thông & Giải trí (25%) đang tụt hậu.
- Các công ty lớn (hơn 250 nhân viên) có nhiều khả năng triển khai dự án AI, với 62% báo cáo có dự án đang hoạt động hoặc trong giai đoạn thử nghiệm, so với 36% ở các công ty nhỏ hơn (dưới 250 nhân viên).
- 67% công ty ở các quốc gia dẫn đầu về AI báo cáo có môi trường IT hybrid, trong đó Ấn Độ dẫn đầu (70%) và Nhật Bản tụt hậu (24%).
- Các nhà lãnh đạo AI cũng có nhiều khả năng báo cáo lợi ích từ AI, bao gồm tăng 50% tốc độ sản xuất, tự động hóa 46% các hoạt động thường xuyên và cải thiện 45% trải nghiệm khách hàng.
- Mặc dù có sự phân chia, vẫn có tiến bộ đáng kể ở các quốc gia chậm chạp về AI trong việc chuẩn bị môi trường IT cho AI, nhưng cửa sổ để bắt kịp đang đóng lại nhanh chóng.
- Chi phí IT tăng và đảm bảo an ninh dữ liệu là hai thách thức lớn nhất trong kỷ nguyên AI, nhưng chúng sẽ không cản trở sự phát triển của AI.
- Các công ty báo cáo họ dự kiến sẽ tăng triển khai đám mây dựa trên AI thêm 19% từ năm 2024 đến năm 2030.
- 85% các nhà lãnh đạo AI dự định tăng cường tự động hóa CloudOps trong năm tới.
- Tăng đầu tư bảo mật dữ liệu là ưu tiên toàn cầu, tăng 25% từ 33% năm 2023 lên 58% năm 2024.
📌 Báo cáo Cloud Complexity 2024 của NetApp cho thấy sự chênh lệch đáng kể giữa các quốc gia dẫn đầu và chậm chạp trong lĩnh vực AI. 60% các quốc gia dẫn đầu về AI (gồm Ấn Độ, Singapore, Vương quốc Anh, Hoa Kỳ) có các dự án AI đang hoạt động hoặc trong giai đoạn thử nghiệm, so với 36% ở các quốc gia chậm chạp về AI (như Tây Ban Nha, Úc/New Zealand, Đức, Nhật Bản).
https://www.businesswire.com/news/home/20240423896186/en/
- Các công ty đang phải đối mặt với một bức tranh phức tạp khi triển khai GenAI, bao gồm nhiều nhà cung cấp mô hình nền tảng, nền tảng AI, quản lý dữ liệu và công cụ tùy chỉnh mô hình.
- Các công ty điện toán đám mây lớn chưa đóng vai trò trung tâm như kỳ vọng ban đầu trong GenAI, nhưng điều này có thể sắp thay đổi.
- Google vừa ra mắt nhiều tính năng AI mới tích hợp vào Google Workspace, công cụ GenAI để tạo và chỉnh sửa video, cùng các cải tiến khác nhờ mô hình ngôn ngữ lớn Gemini Pro 1.5.
- Amazon AWS giới thiệu nhiều tính năng và cải tiến mới cho dịch vụ Bedrock GenAI, giúp đơn giản hóa quá trình lựa chọn và triển khai công cụ phù hợp cho ứng dụng GenAI.
- Bedrock cho phép nhập các mô hình nền tảng tùy chỉnh và tận dụng các khả năng của dịch vụ trên các mô hình tùy chỉnh đó.
- Các tổ chức nhận ra tầm quan trọng của việc đặt phần mềm và dịch vụ GenAI gần với nguồn dữ liệu, vì vậy các tính năng mới của Bedrock rất hấp dẫn với các công ty muốn nâng cao khả năng GenAI.
- Trong tương lai, chúng ta có thể chứng kiến sự xuất hiện của các triển khai GenAI đa nền tảng, tương tự như chiến lược đa nhà cung cấp điện toán đám mây.
📌 Amazon AWS đang tìm cách định vị vai trò của mình trong xu hướng AI tạo sinh bằng cách ra mắt nhiều tính năng mới cho dịch vụ Bedrock, cho phép nhập mô hình tùy chỉnh và triển khai gần nguồn dữ liệu. Điều này diễn ra trong bối cảnh cạnh tranh gay gắt với Google Cloud và xu hướng triển khai đa nền tảng AI tạo sinh trong tương lai tương tự như chiến lược đa nhà cung cấp điện toán đám mây.
Citations:
[1] https://www.techspot.com/news/102711-cloud-computing-evolves-amazon-aws-looks-role-generative.html
- Theo số liệu mới nhất từ Gartner, thị trường trung tâm dữ liệu tăng 10%, chủ yếu do các hyperscaler đầu tư vào máy chủ AI.
- Triển khai AI trong hệ thống doanh nghiệp được quảng cáo là cách để tăng năng suất và hiệu quả, nhưng việc triển khai đi kèm với gánh nặng tài chính.
- Trung bình, một máy chủ AI có giá 32.000 USD, nghĩa là một giá đỡ máy chủ này sẽ vượt quá 1 triệu USD.
- Các hyperscaler có thể xây dựng cơ sở hạ tầng AI rộng lớn và giữ giá dịch vụ AI cạnh tranh, nhưng các nhà cung cấp SaaS không có khả năng này.
- Salesforce và NetSuite thừa nhận chi phí liên quan đến việc quản lý cơ sở hạ tầng AI và đang xem xét liệu có nên tăng giá để biện minh cho việc đầu tư thêm vào AI hay không.
- Các công ty bắt đầu cung cấp chức năng AI miễn phí hoặc như một tính năng bổ sung, nhưng các công ty phần mềm dựa trên đám mây sẽ phải hấp thụ chi phí này, dẫn đến tăng chi phí hoạt động.
- SAP đang cung cấp các tính năng AI độc quyền cho nền tảng đám mây Rise của mình, nhưng hiện cung cấp giảm giá 50% để chuyển từ ERP tại chỗ.
📌 Cuộc đua triển khai AI trong phần mềm doanh nghiệp đang nóng lên, với các công ty cung cấp chức năng AI miễn phí hoặc như một tính năng bổ sung. Tuy nhiên, việc triển khai AI đi kèm với gánh nặng tài chính đáng kể, buộc các nhà cung cấp SaaS phải cân nhắc tăng giá để bù đắp chi phí đầu tư.
Citations:
[1] https://www.computerweekly.com/news/366581752/Enterprise-AI-Free-premium-or-a-bolt-on
- Perplexity đã công bố ra mắt sản phẩm mới Enterprise Pro vào ngày 23 tháng 4 năm 2024, đánh dấu bước tiến mới trong việc cung cấp dịch vụ AI từ cốt lõi cho các doanh nghiệp.
- Kể từ khi công bố vòng gọi vốn Series B vào tháng 1 năm 2024, Perplexity đã phát triển nhanh chóng, hiện đang phục vụ 169 triệu truy vấn mỗi tháng.
- Perplexity Enterprise Pro là dịch vụ B2B đầu tiên của công ty, tập trung vào an ninh và kiểm soát, nhằm đáp ứng nhu cầu ngày càng tăng của các doanh nghiệp.
- Công ty đã triển khai Enterprise Pro cho một số công ty lựa chọn thuộc nhiều ngành công nghiệp khác nhau như Stripe, Zoom, Bridgewater, Snowflake, Cleveland Cavaliers, Universal...
- CEO của Databricks, Ali Ghodsi, cho biết Enterprise Pro giúp tiết kiệm khoảng 5.000 giờ làm việc hàng tháng cho đội ngũ của họ.
- Hiroyuki Terao, Phó Chủ tịch điều hành, Trưởng bộ phận Xúc tiến Kinh doanh Khách hàng tại SoftBank Corp., bày tỏ sự hài lòng khi hợp tác với Perplexity, đồng thời nhấn mạnh sự phù hợp với triết lý "Cách mạng Thông tin - Hạnh phúc cho mọi người" của SoftBank.
- Perplexity đang trở thành đối tác lựa chọn của các nhà lãnh đạo viễn thông toàn cầu trong việc cung cấp công cụ AI cho khách hàng của họ.
- Với những cập nhật mới, Perplexity đang mở rộng khả năng tiếp cận của công cụ trả lời câu hỏi AI của mình cho nhiều người dùng hơn.
📌 Perplexity đã ra mắt Enterprise Pro, một dịch vụ B2B mới nhằm đáp ứng nhu cầu mở rộng của các doanh nghiệp với nguồn vốn 62,7 triệu đô la và sự hợp tác từ SoftBank và Deutsche Telekom. CEO của Databricks, Ali Ghodsi, cho biết Enterprise Pro giúp tiết kiệm khoảng 5.000 giờ làm việc hàng tháng cho đội ngũ của họ. Perplexity đang trở thành đối tác lựa chọn của các nhà lãnh đạo viễn thông toàn cầu trong việc cung cấp công cụ AI cho khách hàng của mình.
Citations:
[1] https://www.perplexity.ai/hub/blog/perplexity-launches-enterprise-pro
• Theo Gartner, 95% quyết định dựa trên dữ liệu trong hoạt động chuỗi cung ứng dự kiến sẽ được tự động hóa một phần vào năm tới, và 25% báo cáo chỉ số hiệu suất chính (KPI) sẽ được hỗ trợ bởi mô hình GenAI vào năm 2028.
• Oracle vừa tích hợp khả năng AI tạo sinh vào Oracle Fusion Cloud Supply Chain & Manufacturing (SCM) để giúp doanh nghiệp quản lý chuỗi cung ứng hiệu quả hơn.
• "Chúng tôi đang hợp tác với khách hàng để giúp họ tối ưu hóa chuỗi cung ứng, điều này có tác động trực tiếp đến các KPI tài chính," - Sunil Wahi, Phó Chủ tịch JAPAC của Oracle.
• Chuỗi cung ứng là nơi ẩn chứa nhiều chi phí và lợi nhuận. Một chuỗi cung ứng hoàn hảo là khi nó vô hình.
• Oracle SCM mang lại cái nhìn toàn diện, cho phép ra quyết định nhanh chóng hơn bằng cách tập hợp dữ liệu, thông tin và đề xuất.
• AWS Supply Chain và Google Cloud cũng đang phát triển các giải pháp AI tạo sinh cho chuỗi cung ứng.
• AI tạo sinh trong Oracle SCM được thiết kế để tự động hóa và tối ưu hóa các tác vụ như quản lý hàng tồn kho, thực hiện đơn hàng và đưa ra khuyến nghị nhà cung cấp dựa trên mô tả sản phẩm và danh mục mua hàng.
📌 Oracle tích hợp AI tạo sinh vào chuỗi cung ứng đám mây, giúp tự động hóa 95% quyết định dựa trên dữ liệu và 25% báo cáo KPI theo dự báo của Gartner.
Citations:
[1] https://analyticsindiamag.com/oracle-integrates-genai-to-enhance-supply-chain-and-automate-kpis/
• Klarna đã hợp tác với OpenAI để phát triển Trợ lý AI, có khả năng xử lý khối lượng công việc tương đương 700 nhân viên, giảm 25% yêu cầu lặp lại và giải quyết yêu cầu trong 2 phút.
• Dự kiến Trợ lý AI sẽ mang lại 40 triệu đô la lợi nhuận cho Klarna trong năm 2024.
• Các công ty ngày càng nhận ra giới hạn của AI tạo sinh, vẫn cần chuyển giao cho nhân viên khi không thể trả lời câu hỏi phức tạp.
• Có lo ngại về bảo mật dữ liệu khi sử dụng thông tin khách hàng để đào tạo mô hình AI.
• Đầu tư toàn cầu vào AI dịch vụ khách hàng đang tăng mạnh.
📌 Klarna dự kiến Trợ lý AI sẽ mang lại 40 triệu đô la lợi nhuận trong năm 2024, nhưng vẫn phải chuyển giao cho nhân viên khi không thể trả lời câu hỏi phức tạp và có lo ngại về bảo mật dữ liệu.
Citations:
[1] https://techmonitor.ai/technology/ai-and-automation/ai-customer-service-llm
- Meta Llama 3, sản phẩm mới nhất từ Meta, đã được ra mắt và hiện đã có sẵn trên nền tảng Databricks, hướng đến các doanh nghiệp mọi quy mô.
- Mô hình này có hai phiên bản ban đầu: một mô hình với 8 tỷ tham số và một mô hình với 70 tỷ tham số, cả hai đều cung cấp hiệu suất vượt trội so với các mô hình nguồn mở hiện có như Gemma và Mistral, và ngang hàng với các mô hình độc quyền hàng đầu như GPT-4 và Gemini.
- Databricks Model Serving sẽ cung cấp quyền truy cập tức thì vào Meta Llama 3 thông qua Foundation Model APIs, cho phép người dùng thử nghiệm, chuyển đổi và triển khai các mô hình nền tảng một cách dễ dàng trên tất cả các nhà cung cấp đám mây.
- Khách hàng có thể trải nghiệm trực tiếp Meta Llama 3 từ Databricks AI Playground trong những ngày tới.
- Naveen Rao, Phó Chủ tịch về AI tạo sinh tại Meta, nhấn mạnh tầm quan trọng của việc phát hành này, cho biết họ đang tận dụng các đổi mới vượt trội mà Meta đã tích hợp vào các mô hình mới nhất của họ với Databricks.
- Meta Llama 3 sẽ được triển khai theo khu vực trong những ngày tới và có thể truy cập thông qua cùng một API thống nhất trên Databricks Model Serving mà hàng ngàn doanh nghiệp đã sử dụng để truy cập các mô hình mở và bên ngoài.
- Ngoài Databricks, các mô hình Llama 3 cũng đang được triển khai trên Amazon SageMaker, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM và Snowflake.
- Các mô hình này cũng tương thích với các nền tảng phần cứng do AMD, AWS, Dell, Intel, NVIDIA và Qualcomm cung cấp.
- Tháng trước, Databricks cũng đã công bố ra mắt DBRX, một mô hình mới vượt trội hơn các mô hình nguồn mở hiện tại như Llama 2 70B, Mixtral-8x7B và Grok-1.
📌 Meta Llama 3, với hai phiên bản 8 tỷ và 70 tỷ tham số, đã được ra mắt trên Databricks, hứa hẹn hiệu suất ngang hàng với GPT-4 và Gemini. Mô hình này sẽ sớm có mặt trên các nền tảng lớn như Amazon SageMaker và Google Cloud, cũng như tương thích với phần cứng từ AMD và NVIDIA.
Citations:
[1] https://analyticsindiamag.com/meta-llama-3-now-available-on-databricks-for-enterprise/
https://venturebeat.com/ai/zendesk-unveils-ai-powered-- Zendesk đã ra mắt nền tảng dịch vụ khách hàng mới được hỗ trợ bởi AI, bao gồm các tính năng như Proactive Agents, AI Copilot và quản lý lực lượng lao động.
- Proactive Agents sử dụng AI để chủ động tiếp cận khách hàng, dự đoán nhu cầu và đề xuất giải pháp, giúp cải thiện trải nghiệm và giảm tải cho đội ngũ hỗ trợ.
- AI Copilot đóng vai trò như một trợ lý ảo, hỗ trợ nhân viên dịch vụ khách hàng trong các cuộc trò chuyện, đưa ra gợi ý và tự động hóa một số tác vụ.
- Tính năng quản lý lực lượng lao động giúp tối ưu hóa việc phân bổ nhân sự, dự báo khối lượng công việc và lên lịch làm việc hiệu quả hơn.
- Nền tảng mới tích hợp dữ liệu từ nhiều nguồn như email, điện thoại, chat, mạng xã hội, tạo ra một cái nhìn toàn diện về khách hàng.
- Zendesk cũng cung cấp các công cụ tùy chỉnh và mở rộng nền tảng thông qua Zendesk Marketplace và Zendesk Sunshine.
- Các tính năng AI mới sẽ giúp doanh nghiệp tiết kiệm thời gian, tăng năng suất và cải thiện sự hài lòng của khách hàng.
- Nền tảng Zendesk mới đánh dấu bước tiến quan trọng trong việc ứng dụng AI vào lĩnh vực dịch vụ khách hàng, đem lại lợi ích cho cả doanh nghiệp và người tiêu dùng.
📌 Zendesk giới thiệu nền tảng dịch vụ khách hàng mới với các tính năng AI tiên tiến như Proactive Agents, AI Copilot và quản lý lực lượng lao động, hứa hẹn tự động hóa quy trình, tiết kiệm thời gian và nâng cao trải nghiệm của khách hàng, đồng thời tối ưu hóa hiệu quả làm việc của nhân viên.
Citations:
[1] https://venturebeat.com/ai/zendesk-unveils-ai-powered-customer-service-platform-proactive-agents-ai-copilot-workforce-management/
- Upstage đã huy động thành công 72 triệu USD trong vòng gọi vốn Series B, nâng tổng vốn của công ty lên 100 triệu USD.
- Công ty cung cấp công cụ xử lý tài liệu và mô hình ngôn ngữ lớn Solar, có thể điều chỉnh theo nhu cầu cụ thể của khách hàng doanh nghiệp trong các lĩnh vực thương mại điện tử, y tế, tài chính và pháp lý.
- Giải pháp "Document AI" của Upstage sử dụng công nghệ nhận dạng ký tự quang học (OCR) để số hóa nhanh chóng và hiểu các tài liệu viết tay và đánh máy, trích xuất thông tin với tỷ lệ chính xác phân loại 99%.
- Upstage đã gặt hái thành công tại Hàn Quốc và tin rằng đây là thời điểm thích hợp để bắt đầu mở rộng toàn cầu với văn phòng mới tại San Jose, California.
- Khoản tài trợ sẽ giúp công ty xây dựng mô hình AI tạo sinh tốt nhất thế giới và cung cấp giải pháp "AGI for work" cho các doanh nghiệp trên toàn cầu.
- Giải pháp của Upstage đang có nhu cầu cao trong các ngành công nghiệp tăng trưởng mạnh như tài chính và y tế.
📌 Upstage, một startup AI chuyên về xử lý tài liệu, đã huy động thành công 72 triệu USD, nâng tổng vốn lên 100 triệu USD. Với công nghệ OCR chính xác 99% và mô hình ngôn ngữ Solar có thể điều chỉnh, Upstage đang hướng tới mở rộng toàn cầu, cung cấp giải pháp "AGI for work" cho các doanh nghiệp trong lĩnh vực thương mại điện tử, y tế, tài chính và pháp lý.
Citations:
[1] Document AI startup Upstage raises $72M for global expansion - SiliconANGLE https://siliconangle.com/2024/04/16/document-ai-startup-upstage-raises-72m-global-expansion/
- Linux Foundation đã ra mắt dự án Open Platform for Enterprise AI (OPEA) nhằm thúc đẩy sự phát triển của các hệ thống AI tạo sinh mở, đa nhà cung cấp và có thể tổng hợp cho doanh nghiệp.
- Mục tiêu của OPEA là mở đường cho việc phát hành các hệ thống AI tạo sinh "vững chắc", "có khả năng mở rộng" và "khai thác sự đổi mới nguồn mở tốt nhất từ toàn bộ hệ sinh thái".
- Intel đã đóng góp các triển khai tham chiếu cho chatbot, công cụ tóm tắt tài liệu và trình tạo mã được tối ưu hóa cho phần cứng Xeon 6 và Gaudi 2 của họ trong kho lưu trữ OPEA.
- OPEA sẽ làm việc với cộng đồng nguồn mở để cung cấp các bài kiểm tra dựa trên tiêu chí đánh giá, cũng như cung cấp đánh giá và chấm điểm cho các triển khai AI tạo sinh theo yêu cầu.
- Các thành viên của OPEA như Cloudera, Domino và VMware đều đang đầu tư vào việc xây dựng công cụ cho AI tạo sinh trong doanh nghiệp.
- Cloudera gần đây đã ra mắt các quan hệ đối tác để tạo ra một "hệ sinh thái AI" trên đám mây, trong khi Domino cung cấp một bộ ứng dụng để xây dựng và kiểm toán AI tạo sinh cho doanh nghiệp.
📌 Dự án OPEA của Linux Foundation nhằm thúc đẩy sự phát triển của các hệ thống AI tạo sinh mở, đa nhà cung cấp và có thể tổng hợp cho doanh nghiệp. Với sự tham gia của Intel, Cloudera, VMware và Domino, OPEA hướng tới việc tạo ra các công cụ vững chắc, có khả năng mở rộng, khai thác sự đổi mới nguồn mở từ toàn bộ hệ sinh thái AI.
Citations:
[1] Intel and others commit to building open generative AI tools for the enterprise | TechCrunch https://techcrunch.com/2024/04/16/intel-and-others-commit-to-building-open-generative-ai-tools-for-the-enterprise/
- BigPanda giới thiệu công cụ AI tạo sinh Biggie, được thiết kế đặc biệt để hỗ trợ các chuyên gia ITOps xử lý sự cố hiệu quả hơn.
- Biggie phân tích nhiều loại dữ liệu liên quan đến IT, học cách vận hành của công ty và đề xuất giải pháp dựa trên các tình huống sự cố tương tự.
- BigPanda sử dụng AI từ khi thành lập và phát triển hai hệ thống riêng biệt: một để xử lý dữ liệu và một để xử lý AI, tạo tiền đề cho việc chuyển đổi sang AI tạo sinh.
- Các mô hình ngôn ngữ lớn (LLMs) được huấn luyện trước đã tiếp xúc với bộ dữ liệu rộng lớn và xuất sắc trong vai trò chuyên gia chung trên tất cả các lĩnh vực vận hành như cơ sở hạ tầng, mạng, phát triển ứng dụng, v.v.
- Biggie không chỉ là một công cụ tìm kiếm đơn thuần, mà còn có khả năng tự động hóa trong một số tình huống nhất định, phối hợp với các công cụ như Red Hat Ansible để giải quyết sự cố mà không cần sự can thiệp của con người.
- Quá trình tiếp nhận dữ liệu không phải lúc nào cũng dễ dàng đối với khách hàng, và Biggie đại diện cho bước đầu tiên trong việc cung cấp một công cụ AI hỗ trợ.
📌 BigPanda đã giới thiệu Biggie, một công cụ AI tạo sinh đột phá dành riêng cho lĩnh vực ITOps. Biggie có khả năng phân tích dữ liệu IT đa dạng, học hỏi cách vận hành của doanh nghiệp và đề xuất giải pháp cho các sự cố tương tự, đồng thời tự động hóa xử lý trong một số trường hợp, hứa hẹn nâng cao hiệu quả làm việc của các chuyên gia IT.
Citations:
[1] BigPanda launches generative AI tool designed specifically for ITOps https://techcrunch.com/2024/04/17/bigpanda-brings-generative-ai-to-itops/
- GovDash là một nền tảng được thành lập bởi Goltser, Mason và Doherty nhằm hỗ trợ các quy trình đấu thầu, phát triển và quản lý hợp đồng chính phủ.
- GovDash tự động tìm kiếm các hợp đồng có thể phù hợp với một doanh nghiệp, đọc qua các yêu cầu đề xuất và sử dụng AI tạo sinh để viết đề xuất.
- Nền tảng có thể quét qua các tài liệu yêu cầu để xác định các yêu cầu, định dạng, yếu tố đánh giá và lịch trình nộp hồ sơ cho các hợp đồng.
- GovDash cũng có thể xác định các hợp đồng mà một doanh nghiệp có thể đủ điều kiện dựa trên hiệu suất trong quá khứ và gửi thông báo đến hộp thư của khách hàng.
- Khi một nhà thầu muốn phản hồi một yêu cầu của chính phủ, họ có thể chạy nó qua GovDash để tạo ra một đề xuất trong thời gian ngắn hơn nhiều.
- GovDash xây dựng một hệ thống kiểm tra chéo thông tin của doanh nghiệp để xem mức độ phù hợp của doanh nghiệp với một hợp đồng liên bang cụ thể.
- Nền tảng cũng yêu cầu sự đánh giá của con người ở mỗi giai đoạn của quá trình tạo đề xuất để đảm bảo chất lượng.
- GovDash đang phải đối mặt với sự cạnh tranh ngày càng tăng từ các đối thủ như Govly và Hazel, những công ty cũng đang sử dụng AI để tự động hóa quá trình tìm kiếm, soạn thảo và tuân thủ hợp đồng chính phủ.
📌 GovDash là một nền tảng đầy hứa hẹn sử dụng AI tạo sinh để hỗ trợ các doanh nghiệp, đặc biệt là doanh nghiệp nhỏ, trong việc tìm kiếm và giành được các hợp đồng chính phủ. Tuy nhiên, công ty đang phải đối mặt với sự cạnh tranh ngày càng gay gắt từ các đối thủ như Govly và Hazel trong cuộc đua ứng dụng AI vào lĩnh vực này.
Citations:
[1] GovDash aims to help businesses use AI to land government contracts | TechCrunch https://techcrunch.com/2024/04/16/govdash-aims-to-help-businesses-use-ai-to-land-government-contracts/
- Poe, ứng dụng trò chuyện AI đa nền tảng, đã giới thiệu tính năng trò chuyện đa bot cho phép người dùng tương tác với nhiều chatbot trong cùng một hội thoại.
- Poe cũng công bố kế hoạch ra mắt phiên bản doanh nghiệp với các tính năng bảo mật và quản trị nâng cao, nhắm đến thị trường chatbot cho doanh nghiệp.
- Ứng dụng hiện cung cấp quyền truy cập vào các mô hình ngôn ngữ tiên tiến như GPT-4 của OpenAI, Claude của Anthropic và mô hình độc quyền của Poe.
- Poe đã thu hút hơn 500.000 người dùng kể từ khi ra mắt vào tháng 2, với 1,2 triệu cuộc trò chuyện mỗi ngày và hơn 10 triệu tin nhắn được gửi đi.
- Người dùng có thể chuyển đổi liền mạch giữa các bot khác nhau trong cùng một hội thoại, tận dụng thế mạnh của từng mô hình cho các tác vụ cụ thể.
- Phiên bản doanh nghiệp sẽ bao gồm các tính năng như kiểm soát truy cập, quản lý người dùng, tích hợp hệ thống và hỗ trợ ưu tiên, cùng với khả năng đào tạo các mô hình tùy chỉnh.
- Poe nhắm đến việc trở thành ứng dụng trò chuyện AI hàng đầu cho cả người dùng cá nhân và doanh nghiệp, cạnh tranh trực tiếp với các đối thủ như ChatGPT và Google Bard.
📌 Poe đang nhanh chóng phát triển với hơn 500.000 người dùng và 1,2 triệu cuộc trò chuyện mỗi ngày. Việc giới thiệu tính năng trò chuyện đa bot và kế hoạch ra mắt phiên bản doanh nghiệp cho thấy tham vọng của Poe trong việc thống trị thị trường chatbot AI đầy tiềm năng, cạnh tranh với các ông lớn như OpenAI và Google.
Citations:
[1] https://venturebeat.com/ai/poe-introduces-multi-bot-chat-and-plans-enterprise-tier-to-dominate-ai-chatbot-market/
- OpenAI thông báo thành lập văn phòng đầu tiên tại châu Á ở Tokyo, Nhật Bản, đánh dấu văn phòng thứ tư trên toàn cầu của công ty.
- OpenAI cũng tiết lộ kế hoạch phát triển mô hình GPT-4 được điều chỉnh đặc biệt cho ngôn ngữ tiếng Nhật.
- Sự mở rộng chiến lược của OpenAI tập trung vào các trung tâm quan trọng về tài năng AI và phát triển quy định. Nhật Bản, với tư cách là Chủ tịch G7 gần đây, đóng vai trò nổi bật trong cuộc cách mạng AI.
- Tadao Nagasaki, cựu Giám đốc khu vực của Amazon Web Services trong 12 năm qua, sẽ lãnh đạo OpenAI Japan với vai trò Chủ tịch.
- Chính quyền địa phương Nhật Bản đã sử dụng ChatGPT để hợp lý hóa dịch vụ công.
- Mô hình GPT-4 tùy chỉnh của OpenAI sẽ cung cấp khả năng hiểu sâu sắc hơn về các nét tinh tế và bối cảnh văn hóa của tiếng Nhật, giúp hiệu quả hơn trong các ứng dụng kinh doanh.
- OpenAI đang cấp quyền truy cập sớm vào mô hình GPT-4 tùy chỉnh cho một số doanh nghiệp địa phương được chọn, với kế hoạch mở rộng sẵn có thông qua API của OpenAI.
📌 OpenAI thông báo mở văn phòng đầu tiên tại châu Á ở Tokyo và kế hoạch phát triển mô hình GPT-4 tối ưu hóa cho tiếng Nhật. Văn phòng mới do Tadao Nagasaki, cựu Giám đốc khu vực của AWS, lãnh đạo. Mô hình GPT-4 tùy chỉnh sẽ hiểu sâu hơn về ngôn ngữ và văn hóa Nhật Bản, nâng cao hiệu quả trong kinh doanh. OpenAI đang cấp quyền truy cập sớm cho một số doanh nghiệp địa phương trước khi mở rộng thông qua API.
Citations:
[1] OpenAI announces Tokyo office and GPT-4 model optimized for the Japanese language https://techcrunch.com/2024/04/15/openai-announces-tokyo-office-and-gpt-4-model-optimized-for-the-japanese-language/
- Ngày càng có nhiều công ty bổ nhiệm các giám đốc AI (CAIO) để giám sát việc triển khai công nghệ AI trong tổ chức.
- Vai trò của CAIO là đảm bảo việc sử dụng AI tuân thủ các quy định, giải quyết các vấn đề đạo đức và tối đa hóa lợi ích của AI.
- Các công ty như Microsoft, Google, IBM đã bổ nhiệm CAIO từ vài năm trước. Gần đây, nhiều công ty khác cũng đang tuyển CAIO.
- CAIO cần có kiến thức chuyên sâu về AI, hiểu biết về luật pháp và đạo đức, kỹ năng lãnh đạo và giao tiếp tốt.
- Nhiệm vụ của CAIO bao gồm: xây dựng chiến lược AI, giám sát các dự án AI, đánh giá rủi ro, đào tạo nhân viên về AI.
- CAIO cũng đóng vai trò then chốt trong việc giao tiếp với các bên liên quan về chiến lược và tác động của AI.
- Sự bùng nổ của AI như ChatGPT đã thúc đẩy nhu cầu về CAIO. Các quy định về AI cũng đòi hỏi doanh nghiệp phải có người giám sát việc triển khai AI.
- Lương của CAIO dao động từ 200.000 - 800.000 USD/năm tùy theo quy mô công ty và kinh nghiệm của ứng viên.
📌 Sự phát triển của AI đang thúc đẩy các công ty bổ nhiệm giám đốc AI với mức lương lên tới 800.000 USD/năm để giám sát chiến lược, đạo đức và tuân thủ pháp lý trong triển khai công nghệ này, qua đó tối đa hóa lợi ích và giảm thiểu rủi ro.
Citations:
[1] The rise of the chief AI officer https://www.ft.com/content/4c5d823e-004b-4f00-9536-9fea93330453
- IKEA, nhà bán lẻ nội thất toàn cầu, đang đi đầu trong việc ứng dụng công nghệ AI tạo sinh để cải thiện trải nghiệm và dịch vụ khách hàng, đồng thời nâng cao hiệu quả hoạt động nội bộ.
- Công ty đã ra mắt chatbot AI tạo sinh dựa trên công nghệ ChatGPT, giúp khách hàng có được trợ lý thiết kế AI cá nhân. Chatbot có khả năng trả lời các câu hỏi về sản phẩm, theo dõi đơn hàng và đưa ra các gợi ý thiết kế phù hợp với sở thích và nhu cầu riêng của từng khách hàng.
- IKEA cũng tạo ra "hộp công cụ AI" để nhân viên có thể dễ dàng sử dụng AI tạo sinh trong công việc hàng ngày, chẳng hạn như tạo ra các hình ảnh sản phẩm mới cho các chiến dịch quảng cáo và tiếp thị.
- Để đảm bảo việc triển khai AI tạo sinh một cách có trách nhiệm và đạo đức, IKEA đã thành lập một lực lượng đặc nhiệm AI đạo đức, bao gồm các chuyên gia từ khắp các bộ phận khác nhau của công ty.
- IKEA cũng đang đầu tư mạnh mẽ vào việc đào tạo kỹ năng cho nhân viên, nhằm giúp toàn bộ lực lượng lao động có thể sử dụng AI một cách hiệu quả để giải quyết vấn đề, đưa ra quyết định và thúc đẩy hiệu suất làm việc.
- Với việc áp dụng AI tạo sinh, IKEA kỳ vọng sẽ mang đến cho khách hàng trải nghiệm mua sắm và thiết kế nội thất cá nhân hóa vượt trội, đồng thời nâng cao năng suất và sự hài lòng của nhân viên.
📌 IKEA đang tận dụng sức mạnh của AI tạo sinh để mang đến trải nghiệm cá nhân hóa tối ưu cho khách hàng và nâng cao hiệu quả công việc của nhân viên. Với việc triển khai chatbot AI thiết kế, "hộp công cụ AI", thành lập lực lượng đặc nhiệm đạo đức, và đầu tư mạnh vào đào tạo nhân viên, IKEA đang dẫn đầu xu hướng ứng dụng AI tạo sinh một cách có trách nhiệm và hiệu quả trong ngành bán lẻ nội thất toàn cầu, hứa hẹn mang đến những đột phá trong trải nghiệm khách hàng và vận hành doanh nghiệp.
- Nhiều công ty đang cố gắng áp dụng AI vào mọi khía cạnh hoạt động, từ chatbot đến NFT, để trở thành "công ty AI"
- Tuy nhiên, việc này có thể gây ra sự mệt mỏi và thiếu hiệu quả, vì không phải mọi vấn đề đều cần giải pháp AI
- Thay vì cố gắng trở thành "công ty AI", các doanh nghiệp nên tập trung vào việc giải quyết các vấn đề cụ thể bằng công nghệ AI
- Ví dụ, một công ty bán lẻ có thể sử dụng AI để tối ưu hóa chuỗi cung ứng, trong khi một ngân hàng có thể dùng AI để phát hiện gian lận
- Điều quan trọng là xác định rõ vấn đề cần giải quyết và đánh giá xem AI có phải là giải pháp phù hợp hay không
- Áp dụng AI một cách có chọn lọc và hiệu quả sẽ mang lại lợi ích thiết thực, thay vì chạy theo trào lưu một cách mù quáng
📌 Việc các công ty cố gắng trở thành "công ty AI" bằng cách áp dụng công nghệ này vào mọi khía cạnh có thể gây ra sự mệt mỏi và kém hiệu quả. Thay vào đó, họ nên tập trung sử dụng AI để giải quyết các vấn đề cụ thể một cách có chọn lọc, từ đó mang lại lợi ích thiết thực cho doanh nghiệp.
Citations:
[1] https://www.fastcompany.com/91076730/ai-first-fatigue-company-artificial-intelligence-nft
- Theo các chuyên gia của IBM và Dell, các doanh nghiệp cần đánh giá nỗ lực triển khai AI và cân nhắc lợi ích của việc triển khai tại chỗ hoặc trên đám mây.
- John Roese, Giám đốc Công nghệ Toàn cầu của Dell cho rằng nếu hơn 50% năng lực CNTT của doanh nghiệp phục vụ cho công nghệ dựa trên AI, cần phải xây dựng lại toàn bộ kiến trúc CNTT và tối ưu hóa cho AI.
- Theo Bloomberg Intelligence, AI tạo sinh dự kiến sẽ tạo ra 1.3 nghìn tỷ USD doanh thu và mở rộng tác động từ dưới 1% lên 10% tổng chi tiêu cho phần cứng, phần mềm, dịch vụ CNTT, quảng cáo và gaming vào năm 2032.
- Các doanh nghiệp có thể lựa chọn triển khai AI tạo sinh hoàn toàn trên đám mây công cộng, mang lại lợi ích cho các nhà cung cấp như Meta, Microsoft và Amazon.
- Tuy nhiên, các chuyên gia CNTT cho rằng triển khai AI tùy chỉnh trên phần cứng sở hữu hoặc thuê có thể mang lại lợi ích về chi phí và khả năng tiếp cận.
- Việc sử dụng đám mây công cộng có thể khiến doanh nghiệp phải trả phí cho mỗi giao dịch AI, dẫn đến chi phí cao hơn.
📌 AI tạo sinh được dự báo tạo ra 1,3 nghìn tỷ USD doanh thu vào năm 2032. Các chuyên gia IBM và Dell khuyến nghị doanh nghiệp cân nhắc triển khai AI tại chỗ để tối ưu hóa cơ sở hạ tầng CNTT, giảm chi phí so với sử dụng đám mây công cộng nếu AI chiếm hơn 50% năng lực CNTT.
Citations:
[1] https://www.itbrew.com/stories/2024/04/12/ibm-dell-pros-consider-on-prem-options-for-generative-ai
- AI tạo sinh đang thu hút sự chú ý khi công nghệ này tiến bộ vượt bậc trong những năm gần đây, mang đến những cách mới để giải quyết vấn đề của người dùng.
- Xây dựng với LLM (large language models) có thể là một thách thức do đây là lĩnh vực tương đối mới về ứng dụng thực tế.
- Discord chia sẻ cách tiếp cận của họ để giải quyết vấn đề với AI tạo sinh, cùng với những hiểu biết về việc ra mắt nhanh chóng các tính năng mới tận dụng công nghệ này.
- Quá trình xây dựng với LLM được chia thành một vài giai đoạn: lên ý tưởng sản phẩm và xác định yêu cầu, phát triển nguyên mẫu, học hỏi từ các thử nghiệm quy mô nhỏ, lặp lại quá trình cho đến khi tính năng đạt trạng thái tốt, cuối cùng là ra mắt và triển khai sản phẩm ở quy mô lớn.
- Bài viết sẽ đi sâu vào từng giai đoạn của quá trình này, bắt đầu từ việc tìm ra những gì cần xây dựng và làm thế nào nó có thể mang lại lợi ích cho người dùng.
📌 Discord chia sẻ cách tiếp cận giải quyết vấn đề với AI tạo sinh qua các giai đoạn: lên ý tưởng, xác định yêu cầu, phát triển nguyên mẫu, thử nghiệm nhỏ, lặp lại đến khi tốt, rồi triển khai rộng rãi. Bài viết đi sâu vào từng bước, giúp xây dựng nhanh các tính năng mới tận dụng công nghệ tiên tiến này.
Citations:
[1] Developing Rapidly with Generative AI https://discord.com/blog/developing-rapidly-with-generative-ai
- Trong bài phát biểu tại Intel Vision, CEO Pat Gelsinger phác thảo kịch bản AI sẽ tự động hóa toàn bộ văn phòng hoặc thậm chí cả doanh nghiệp.
- Ông mô tả đây là kỷ nguyên của các hàm AI, trong đó các đại lý AI (mô hình chuyên biệt cho từng ứng dụng) tương tác với nhau để hoàn thành nhiệm vụ.
- Gelsinger hình dung cả bộ phận sẽ trở thành giải pháp tự động hóa AI, dẫn đến sự ra đời của công ty tỷ đô chỉ với một nhân sự (Unicorn).
- Intel mong muốn phần cứng để huấn luyện và chạy các đại lý và hàm AI này sẽ do họ sản xuất.
- Intel đã cam kết đào tạo 30 triệu người làm việc với AI đến năm 2030 và tham gia liên minh các công ty công nghệ để xác định công việc nào sẽ bị loại bỏ đầu tiên bởi AI.
- Gelsinger dự đoán bước tiếp theo sẽ là sự trỗi dậy của các đại lý AI xử lý các tác vụ phức tạp hơn và tự động hóa quy trình làm việc, sau đó kết hợp chúng thành các hàm AI.
📌 CEO Intel Pat Gelsinger dự báo AI sẽ tự động hóa toàn bộ văn phòng và doanh nghiệp, tạo ra công ty tỷ đô chỉ với 1 nhân sự. Intel đang đẩy mạnh phát triển phần cứng AI và đào tạo 30 triệu người làm việc với AI đến 2030 để chuẩn bị cho kỷ nguyên của các đại lý và hàm AI.
Citations:
[1] Intel CEO predicts AI will deliver a one-person Unicorn https://www.theregister.com/2024/04/10/intel_ceo_ai_automation/
- Hiện nay, sự quan tâm về AI tập trung vào các dịch vụ AI tạo sinh quy mô lớn dựa trên đám mây như ChatGPT của OpenAI hay Microsoft Copilot.
- Tuy nhiên, các chuyên gia cho rằng trong tương lai gần, nhiều tổ chức có thể tự chạy dịch vụ AI tùy chỉnh trên phần cứng sở hữu hoặc thuê một cách dễ dàng và khả thi.
- Các yếu tố chi phí ban đầu đắt đỏ nhất của AI là dữ liệu huấn luyện và học sâu. Khi đã có cả hai, trọng tâm chuyển sang làm cho quá trình suy luận (đầu ra thực tế của AI) rẻ hơn và hiệu quả hơn.
- Nếu có dữ liệu riêng và xây dựng mô hình tùy chỉnh, nó sẽ rất hiệu quả về chi phí và mang lại nhiều giá trị hơn cho lĩnh vực vấn đề mà nó giải quyết.
- Các AI mã nguồn mở như Llama 2 hay Gemma có thể chạy tại chỗ đang tiệm cận về hiệu suất với các AI độc quyền phổ biến hơn và có thể sớm không thể phân biệt được từ góc nhìn của người dùng trung bình.
- Dell lạc quan rằng triển khai tại chỗ là tương lai của AI doanh nghiệp, mặc dù họ không thiên vị về kiến trúc bán dẫn cụ thể sẽ chạy nó.
- IBM đang xây dựng các mạch tích hợp chuyên dụng tập trung vào AI, và PC/laptop với chip AI chuyên dụng cuối cùng có thể tự xử lý một số tính toán AI.
- Khi chi phí đào tạo giảm, các công ty khởi nghiệp AI có thể cạnh tranh sòng phẳng hơn với các ông lớn công nghệ.
📌 Các yếu tố chi phí ban đầu đắt đỏ nhất của AI là dữ liệu huấn luyện và học sâu. Khi đã có cả hai, trọng tâm chuyển sang làm cho quá trình suy luận (đầu ra thực tế của AI) rẻ hơn và hiệu quả hơn. Trong tương lai gần, AI doanh nghiệp có thể chuyển dịch mạnh sang hướng mã nguồn mở và triển khai tại chỗ nhờ giảm chi phí đào tạo, sự tiệm cận về hiệu suất giữa AI mã nguồn mở và độc quyền, cũng như sự phát triển của phần cứng chuyên dụng cho AI. Điều này mở ra cơ hội cho các tổ chức tự triển khai dịch vụ AI tùy chỉnh hiệu quả.
Citations:
[1] https://www.itbrew.com/stories/2024/04/11/the-future-of-enterprise-ai-could-be-open-source-and-on-prem
- Tốc độ phát triển nhanh của AI đã đặt nhiều sự chú ý hơn vào các cá nhân đóng góp ở cấp điều hành.
- Grant Gillary từ Capital One chia sẻ về những thách thức độc đáo khi vừa là một lãnh đạo kỹ thuật cấp cao, vừa là một cá nhân đóng góp chính.
- Truyền thống, thăng tiến trong tổ chức đồng nghĩa với việc lãnh đạo các nhóm ngày càng lớn, cùng với các nhiệm vụ kinh doanh và vận hành.
- Tuy nhiên, sự phát triển nhanh của AI và machine learning đã làm tăng nhu cầu về các lãnh đạo kỹ thuật tạo ra tác động lớn với vai trò cá nhân đóng góp.
- Với tư cách cá nhân đóng góp, bạn có thể linh hoạt di chuyển qua các bộ phận khác nhau của tổ chức, giải quyết các vấn đề đòi hỏi chuyên môn từ nhiều lĩnh vực kỹ thuật, và cập nhật kỹ năng theo sát những tiến bộ mới nhất.
- Trong vai trò lãnh đạo kỹ thuật cấp điều hành, tác giả tạo ra tác động sâu rộng bằng cách xem xét sự giao thoa của các hệ thống trên các ranh giới tổ chức, ưu tiên các vấn đề thực sự cần giải quyết, sau đó tập hợp các bên liên quan để tạo ra giải pháp tốt nhất.
- Vai trò của một cá nhân đóng góp cấp điều hành trong kỹ thuật là kết hợp chuyên môn kỹ thuật sâu rộng với tư duy chiến lược.
- Để nhận ra tiềm năng của AI, các tổ chức cần thay đổi cách nghĩ về vai trò lãnh đạo.
- Tác giả mong muốn thấy nhiều kỹ sư theo đuổi con đường cá nhân đóng góp và áp dụng sự kết hợp kỹ năng độc đáo của họ để giải quyết những thách thức khó khăn nhất trong AI/ML.
📌 Sự phát triển nhanh chóng của AI đã làm nổi bật vai trò của các cá nhân đóng góp ở cấp điều hành. Với chuyên môn sâu rộng và tư duy chiến lược, họ có thể tạo ra tác động lớn bằng cách giải quyết các vấn đề xuyên suốt tổ chức. Để tận dụng tiềm năng của AI, các tổ chức cần thay đổi tư duy về vai trò lãnh đạo và hỗ trợ một thế hệ lãnh đạo cá nhân đóng góp mới.
Citations:
[1] https://www.technologyreview.com/2024/04/11/1090504/scaling-individual-impact-insights-from-an-ai-engineering-leader/
- L'Oreal, với 37 thương hiệu toàn cầu, đang tận dụng AI tạo sinh để cải tiến cách thức tiếp cận khách hàng.
- Công ty đã hợp tác với các đối tác công nghệ như Nvidia và thử nghiệm với hơn 800 hình ảnh làm đẹp được tạo ra bởi AI.
- L'Oreal hình dung một tương lai nơi gương được kết nối kỹ thuật số, sản phẩm làm đẹp được thúc đẩy bởi đổi mới công nghệ và robot vận hành các salon.
- Khi tích hợp AI tạo sinh vào hoạt động, L'Oreal tập trung vào 3 lĩnh vực chính: khoa học, công nghệ và sáng tạo.
- Công ty đã thành lập Generative AI Task Force và GenAI Content Lab để đưa ra khuôn khổ và thúc đẩy sáng tạo thông qua công nghệ.
- Bằng cách thử nghiệm với AI tạo sinh, L'Oreal tạo ra nội dung tiếp thị phù hợp và hấp dẫn, giảm đáng kể nguồn lực cần thiết cho việc chụp ảnh truyền thống.
- L'Oreal cũng đang khám phá khả năng tạo video để nâng cao tiếp thị trực quan.
📌 L'Oreal đang dẫn đầu trong việc ứng dụng AI tạo sinh vào ngành công nghiệp làm đẹp, hợp tác với các đối tác công nghệ, thử nghiệm hơn 800 hình ảnh AI và hình dung tương lai công nghệ cao cho ngành. Việc tích hợp AI giúp công ty tạo nội dung marketing hấp dẫn, giảm nguồn lực chụp ảnh và mở ra tiềm năng to lớn cho sự đổi mới.
Citations:
[1] https://siliconangle.com/2024/04/11/loreal-tapping-generative-ai-transform-marketing/
- Mô hình Command R+ mới nhất của Cohere đã vượt qua GPT-4 trên bảng xếp hạng Arena và hiện có sẵn trên HuggingChat.
- Cohere tập trung vào khách hàng doanh nghiệp thay vì chatbot giao tiếp với người tiêu dùng. COO Martin Kon khẳng định họ sẽ không bao giờ có chatbot tiêu tốn tiền mặt cho người dùng.
- Cohere cung cấp nhiều mô hình trong 3 hạng mục: Embed, Command và Rerank, có thể điều chỉnh theo nhu cầu cụ thể.
- Command R+ sẽ sớm có mặt trên Oracle Cloud Infrastructure, Microsoft Azure và Amazon Sagemaker.
- Cohere độc lập với bất kỳ nhà cung cấp dịch vụ đám mây nào, cho phép triển khai mô hình trên mọi nền tảng đám mây, khác với OpenAI bị giới hạn trong Azure.
- Doanh thu của Cohere thấp hơn đáng kể so với đối thủ, nhưng đường ống bán hàng với các hợp đồng tiềm năng dự kiến đóng trước cuối năm 2024 trị giá hơn 300 triệu USD.
- Oracle ghi nhận doanh thu 13,3 tỷ USD trong quý 3/2024, tăng 7%. Họ cũng ký hợp đồng cơ sở hạ tầng đám mây thế hệ 2 lớn với NVIDIA.
- Oracle đang phát triển mạnh mẽ mảng kinh doanh cơ sở hạ tầng AI Gen2, bán hạ tầng để đào tạo các mô hình ngôn ngữ lớn.
- Oracle đang tái thiết kế hoàn toàn các ứng dụng chuyên biệt theo ngành để tận dụng tối đa AI tạo sinh.
- Oracle đã phát triển Trợ lý Kỹ thuật số Lâm sàng tự động tạo ghi chú của bác sĩ và cập nhật Hồ sơ Sức khỏe Điện tử, dự kiến ra mắt trong quý 4.
📌 Cohere đang nổi lên như một đối thủ đáng gờm trong lĩnh vực AI với mô hình Command R+ vượt trội, doanh thu bán hàng trị giá hơn 300 triệu USD và quan hệ hợp tác rộng rãi với các nền tảng đám mây. Trong khi đó, Oracle cũng đang đẩy mạnh đầu tư vào cơ sở hạ tầng AI, ký hợp đồng lớn với NVIDIA và phát triển các ứng dụng tận dụng AI tạo sinh như Trợ lý Kỹ thuật số Lâm sàng.
Citations:
[1] https://analyticsindiamag.com/the-secret-superstar-of-llms/
- Google đã giới thiệu phiên bản nâng cấp của siêu máy tính AI TPU (Tensor Processing Unit) tại sự kiện Cloud Next.
- Hệ thống mới có tên gọi TPU v5e, được tối ưu hóa cho các mô hình ngôn ngữ lớn và tính toán đa phương thức.
- TPU v5e có hiệu suất gấp 2,7 lần so với thế hệ trước (TPU v4) và khả năng mở rộng lên tới 256 chip trong một pod duy nhất.
- Hệ thống này được thiết kế để xử lý các mô hình AI khổng lồ với hàng nghìn tỷ tham số.
- TPU v5e hỗ trợ các framework phổ biến như TensorFlow, PyTorch và JAX, giúp đơn giản hóa việc triển khai và đào tạo mô hình.
- Google cũng đang phát triển một phiên bản TPU v5e dựa trên nền tảng nguồn mở RISC-V.
- Các khách hàng doanh nghiệp có thể sử dụng TPU v5e thông qua dịch vụ Google Cloud TPU và tích hợp với các công cụ khác như Vertex AI.
- Siêu máy tính AI mới này sẽ giúp các doanh nghiệp đẩy nhanh quá trình phát triển và triển khai các ứng dụng AI tiên tiến.
📌 Google đã ra mắt TPU v5e - siêu máy tính AI thế hệ mới với hiệu suất gấp 2,7 lần và khả năng mở rộng lên tới 256 chip. Hệ thống này được tối ưu hóa cho các mô hình ngôn ngữ lớn và tính toán đa phương thức, hỗ trợ các framework phổ biến, giúp đẩy nhanh quá trình phát triển AI cho doanh nghiệp.
Citations:
[1] https://venturebeat.com/ai/google-upgrades-its-ai-hypercomputer-for-enterprise-use-at-cloud-next/
PwC đã hợp tác với Google Cloud để phát triển một giải pháp thuế doanh nghiệp sử dụng trí tuệ nhân tạo (AI) tạo sinh. Giải pháp này tích hợp các công cụ phân tích thuế toàn cầu của PwC với kho dữ liệu doanh nghiệp BigQuery và nền tảng phát triển mô hình Vertex AI của Google Cloud. Nó cũng sẽ tích hợp với SAP S/4 HANA ERP và các ứng dụng kinh doanh doanh nghiệp khác.
Ngoài ra, PwC cũng đang xây dựng các giải pháp pháp lý, chăm sóc sức khỏe và các công cụ bảo mật, tuân thủ và bền vững cho doanh nghiệp bằng cách sử dụng các mô hình Gemini và nền tảng Vertex AI của Google.
PwC có chiến lược AI hai mũi nhọn: phát triển khả năng sử dụng nội bộ đồng thời hợp tác với các nhà xây dựng mô hình để xây dựng các giải pháp doanh nghiệp có thể tiếp thị cho khách hàng.
PwC đã thử nghiệm một công cụ ngôn ngữ tự nhiên nội bộ dựa trên ChatGPT có tên ChatPwC và làm việc với các nhà xây dựng mô hình OpenAI và Harvey để phát triển một mô hình nền tảng cho đơn vị dịch vụ thuế và pháp lý của mình.
Số lượng nhân viên được chứng nhận của PwC về Google Cloud đã tăng nhanh từ 400 người bán thời gian lên 1.800 người trong 2 năm qua.
https://www.ciodive.com/news/pwc-google-cloud-alliance-generative-ai-tax-solution/712871/
- Trí tuệ nhân tạo tạo sinh (Gen AI) và các mô hình ngôn ngữ lớn (LLM) như ChatGPT đã thu hút hàng triệu người dùng chỉ trong thời gian ngắn.
- Các LLM có thể hiểu và đáp ứng yêu cầu của người dùng một cách gần giống con người, tạo ra nội dung mới chưa từng thấy trước đây.
- Sự phát triển nhanh chóng của Gen AI và LLM đã khiến chúng trở thành công cụ không thể thiếu trong hoạt động hàng ngày của doanh nghiệp.
- Các ứng dụng của LLM bao gồm: tạo nội dung, hỗ trợ khách hàng tự động, đề xuất sản phẩm cá nhân hóa, phân tích thị trường và tăng năng suất của nhân viên.
- LLM giúp tạo ra trải nghiệm mua sắm siêu cá nhân hóa, tăng tỷ lệ chuyển đổi bằng cách phân tích dữ liệu khách hàng và đưa ra đề xuất phù hợp.
- LLM không thay thế nhân viên mà nâng cao năng lực của họ bằng cách đảm nhận các công việc lặp đi lặp lại, cho phép con người tập trung vào tư duy chiến lược.
📌 Trí tuệ nhân tạo tạo sinh và các mô hình ngôn ngữ lớn đang mang lại giá trị vượt trội cho doanh nghiệp thông qua tối ưu hóa vận hành, tăng trưởng bền vững và trải nghiệm khách hàng xuất sắc. Với hơn 180 triệu người dùng chỉ riêng ChatGPT, Gen AI đã chứng minh sức mạnh thay đổi cuộc chơi của mình trên quy mô toàn cầu.
https://www.forbes.com/sites/forbesbusinessdevelopmentcouncil/2024/04/08/the-transformative-power-of-generative-ai-and-large-language-models/
- Công ty thuốc lá Reynolds American đang thử nghiệm AI tạo sinh một cách hạn chế, chủ yếu để cải thiện phân tích dữ liệu lớn, nhưng không áp dụng trong các ứng dụng tài chính rủi ro cao hoặc vai trò tiếp xúc với khách hàng.
- Giám đốc CNTT Aaron Gwinner cho rằng cần thiết lập nền tảng và cơ bản trước khi triển khai các dự án AI.
- Các công ty như Microsoft, Google, OpenAI đang nỗ lực đưa AI tạo sinh vào thế giới kinh doanh. Công ty fintech Thụy Điển Klarna cho biết ChatGPT đã thay thế công việc của 700 nhân viên dịch vụ khách hàng.
- Tuy nhiên, nhiều doanh nghiệp vẫn thận trọng. Dữ liệu của Cục Thống kê Dân số Hoa Kỳ cho thấy chỉ 5.4% doanh nghiệp sử dụng AI để sản xuất hàng hóa hoặc dịch vụ.
- Theo báo cáo của Gartner, các công ty dự định áp dụng AI tạo sinh nhiều nhất là khoa học đời sống, dầu khí và nhà cung cấp dịch vụ truyền thông, với 42% đến 49%. Tuy nhiên, hầu hết các công ty tuyên bố sẽ áp dụng AI cuối cùng lại không làm.
- Các tổ chức vẫn đang cố gắng xem liệu AI tạo sinh có thực sự hữu ích hay không. Một số lo ngại rằng chi phí không xứng đáng. Nhiều tổ chức chưa thấy được trường hợp sử dụng cụ thể.
- Công ty luật Luminos Law chuyên tư vấn về quản lý rủi ro AI cho khách hàng, nhưng bản thân họ chưa áp dụng AI tạo sinh vì quy mô nhỏ và đẳng cấp cao.
📌 Mặc dù các công cụ AI tạo sinh như ChatGPT đã thu hút hàng triệu người dùng, nhiều doanh nghiệp, từ 94.6% theo khảo sát, vẫn chưa sẵn sàng áp dụng công nghệ này vào hoạt động kinh doanh do lo ngại về rủi ro, chi phí và chưa thấy được lợi ích thiết thực.
https://www.wsj.com/articles/generative-ai-isnt-ubiquitous-in-the-business-worldat-least-not-yet-07c07f01
#WSJ
- Chi phí dự án AI bao gồm phần mềm, phần cứng, dịch vụ và dữ liệu. Trong đó, chi phí thu thập, chuẩn bị và làm sạch dữ liệu có thể rất lớn do dữ liệu ngày càng tăng và không phải lúc nào cũng sẵn sàng sử dụng ở dạng thô.
- Các nhà quản lý dự án AI thường đánh giá thấp tổng chi phí của hệ thống AI. Cần xem xét việc xây dựng hay mua mô hình AI, sử dụng mô hình của người khác, tập trung vào kỹ thuật tạo lời nhắc hoặc tinh chỉnh, xây dựng giải pháp RAG, địa điểm kiểm tra và sử dụng mô hình (đám mây hay cục bộ), cách huấn luyện mô hình.
- Để giảm chi phí dự án AI, hãy nghĩ lớn, bắt đầu nhỏ và lặp lại thường xuyên. Mỗi lần lặp nên kéo dài khoảng 2 tuần. Kiểm soát phạm vi dự án bằng cách sử dụng và xây dựng dựa trên mô hình đã có sẵn của người khác thông qua API hoặc giao diện trò chuyện. Có thể xây dựng giải pháp tăng cường trên API như RAG hoặc tinh chỉnh, điều chỉnh mô hình.
- Sử dụng mô hình của người khác có thể giảm đáng kể chi phí và thời gian triển khai ứng dụng AI. Tuy nhiên, luôn cần kiểm tra kết quả, đặc biệt với các mô hình ngôn ngữ lớn (LLM) vì chúng có thể đưa ra kết quả không tốt.
- Khi xây dựng mô hình của riêng mình, hãy bắt đầu nhỏ để giảm chi phí đáng kể. Cần xác định ai trong nhóm sẽ quản lý và giám sát chất lượng dữ liệu, theo dõi việc sử dụng mô hình và chất lượng đầu vào, đầu ra. Nếu xây dựng mô hình riêng, cần có đội ngũ kỹ sư dữ liệu và chuẩn bị, vận hành mô hình, liên tục theo dõi sự trôi dạt dữ liệu và hiệu suất mô hình.
📌 Kiểm soát chi phí dự án AI đòi hỏi tư duy đúng đắn, bắt đầu nhỏ, lặp lại nhanh và liên tục. Tận dụng các mô hình, API có sẵn, xây dựng giải pháp RAG hoặc tinh chỉnh mô hình có thể tiết kiệm đáng kể. Dù sử dụng mô hình của người khác hay tự xây dựng, luôn cần có nhóm theo dõi chất lượng dữ liệu, giám sát hiệu suất và trôi dạt của mô hình.
Citations:
[1] https://www.forbes.com/sites/cognitiveworld/2024/04/05/what-are-the-real-costs-of-ai-projects/
#hay
- Cách tiếp cận truyền thống đối với AI tạo sinh dựa trên các mô hình nền tảng của bên thứ ba, được tiền huấn luyện trên dữ liệu phi cấu trúc chung và sử dụng kỹ thuật tạo lời nhắc tùy chỉnh.
- Các mô hình nền tảng tùy chỉnh mới, như từ SAP, Meta và Google, cung cấp cho doanh nghiệp khả năng kiểm soát chi tiết hơn đối với cách họ sử dụng AI tạo sinh bằng cách đưa các tham số riêng và huấn luyện lại mô hình trên dữ liệu tùy chỉnh.
- Việc sử dụng dữ liệu có cấu trúc đang nổi lên như một trường hợp sử dụng quan trọng, cho phép AI tạo sinh truy vấn thông tin được lưu trữ trong cơ sở dữ liệu, cải thiện khả năng diễn giải khối lượng dữ liệu lớn của doanh nghiệp.
- Công cụ điều phối dữ liệu sẽ giúp doanh nghiệp xác định hiệu quả dữ liệu nào là phù hợp nhất cho từng trường hợp sử dụng cụ thể, trở thành người gác cổng mới trong lĩnh vực AI tạo sinh.
- Những thay đổi này hứa hẹn sẽ làm cho AI tạo sinh trở nên dân chủ hơn, trao quyền kiểm soát cho doanh nghiệp trong khi đồng thời nhấn mạnh tầm quan trọng của dữ liệu độc quyền.
- Để phát triển trong thế giới mới này, khả năng quản lý và quản trị dữ liệu hiệu quả sẽ là chìa khóa, đòi hỏi doanh nghiệp phải có mức độ kiểm soát chưa từng có đối với dữ liệu.
📌 Sự chuyển đổi trong cách tiếp cận AI tạo sinh, với sự xuất hiện của các mô hình nền tảng tùy chỉnh, sử dụng dữ liệu có cấu trúc và công cụ điều phối dữ liệu, đang mở ra kỷ nguyên mới của sự kiểm soát và dân chủ hóa trong doanh nghiệp. Để tận dụng cơ hội này, doanh nghiệp cần phải nâng cao khả năng quản lý và quản trị dữ liệu ở mức độ chưa từng có.
https://www.dataversity.net/why-its-time-to-rethink-generative-ai-in-the-enterprise/
- McKinsey hợp tác với Google Cloud để giúp khách hàng thúc đẩy thay đổi sáng tạo quy mô lớn thông qua sức mạnh của AI tạo sinh với Gemini for Google Cloud.
- Liên minh này đóng vai trò quan trọng trong hệ sinh thái mở của McKinsey gồm các nhà đổi mới AI tạo sinh hàng đầu.
- McKinsey đã giúp các công ty hàng đầu chuyển đổi cách hoạt động với cơ sở hạ tầng và công nghệ đáng tin cậy của Google Cloud, bao gồm cả AI tạo sinh.
- Google Cloud cung cấp nhiều công nghệ đám mây và AI hàng đầu trong ngành, giúp các doanh nghiệp lớn nhất thế giới chuyển đổi hoạt động kinh doanh và cải thiện hoạt động ở quy mô toàn cầu.
- McKinsey mang đến một nhóm nhân tài sâu rộng với 7.000 chuyên gia công nghệ, nhà thiết kế và quản lý sản phẩm phục vụ khách hàng tại hơn 50 quốc gia.
- McKinsey ước tính có hơn 4 nghìn tỷ đô la giá trị có thể được mở khóa bởi AI tạo sinh và các công nghệ đám mây.
- Liên minh giữa McKinsey và Google Cloud giúp khách hàng nắm bắt giá trị này thông qua chuyển đổi kinh doanh dựa trên đám mây, chương trình hiện đại hóa công nghệ, giải pháp AI tạo sinh và các trường hợp sử dụng cụ thể của ngành.
- Các nhà khoa học dữ liệu của QuantumBlack đã hợp tác với đội ngũ giải pháp AI tạo sinh của Google Cloud để xây dựng hai chatbot AI tạo sinh cho đua xe Formula E chỉ trong vài tuần.
📌 Liên minh giữa McKinsey và Google Cloud tận dụng sức mạnh của AI tạo sinh để giúp các doanh nghiệp mở khóa hơn 4 nghìn tỷ đô la giá trị thông qua chuyển đổi kỹ thuật số, tăng năng suất lao động, tăng tốc độ phát triển và hợp lý hóa hoạt động kinh doanh.
https://www.mckinsey.com/about-us/new-at-mckinsey-blog/mckinsey-and-google-cloud-partner-to-help-industry-leaders-tap-into-4-trillion-of-business-value-with-generative-ai
- Cohere giới thiệu Command R+, mô hình ngôn ngữ lớn tiên tiến nhất được thiết kế riêng cho các ứng dụng kinh doanh thực tế.
- Command R+ vượt trội hơn các mô hình tương tự về khả năng truy xuất và tạo sinh, hỗ trợ đa ngôn ngữ và sử dụng công cụ, đồng thời duy trì cam kết bảo mật dữ liệu của Cohere.
- Command R+ đạt điểm cao hơn GPT-4 Turbo, Claude 3 và Mistral Large trên các bài kiểm tra đánh giá AI doanh nghiệp hàng đầu như ToolTalk (Hard) và Berkeley Function Calling.
- Cohere vẫn độc lập và không phụ thuộc vào đám mây, với Command R+ và các mô hình truy xuất khác hiện có sẵn trên Microsoft Azure.
- Hơn 200 tính năng hỗ trợ AI do mô hình ngôn ngữ lớn của Cohere cung cấp đã có mặt trong các ứng dụng NetSuite và Fusion của Oracle.
- Doanh thu của Cohere tăng trưởng ấn tượng 60% chỉ trong 10 tuần đầu năm 2024, phần lớn nhờ sự mong đợi xung quanh việc ra mắt Command R và R+.
📌 Command R+ của Cohere vượt trội hơn GPT-4 Turbo và các mô hình khác về khả năng truy xuất, tạo sinh, hỗ trợ đa ngôn ngữ và sử dụng công cụ. Với hơn 200 tính năng AI đã triển khai trên các ứng dụng của Oracle và mức tăng trưởng doanh thu 60% trong năm 2024, Cohere đang củng cố vị thế dẫn đầu thị trường AI doanh nghiệp.
https://venturebeat.com/ai/cohere-launches-command-r-a-powerful-llm-optimized-for-enterprise-ai/
- Các làn sóng công nghệ trước đây như dây chuyền lắp ráp của Henry Ford hay phát triển Agile đều củng cố cấu trúc tổ chức truyền thống. Nhưng AI tạo sinh và mô hình ngôn ngữ lớn (LLM) lại khác biệt.
- Khảo sát năm 2023 cho thấy hơn 50% người dùng AI tại nơi làm việc làm vậy mà không xin phép, 64% đã đưa công việc do AI làm như của chính mình.
- Tại Wharton Interactive, họ đã tích hợp AI vào nhiều quy trình như hỗ trợ khách hàng, lập trình, thiết kế đồ họa, viết tài liệu... giúp giảm thời gian làm việc từ 1 tuần xuống còn 1-2 ngày.
- Tương lai của tổ chức khi có AI có thể theo hướng tích cực hoặc tiêu cực. AI có thể giám sát và kiểm soát chặt chẽ người lao động, hoặc ngược lại giúp họ loại bỏ công việc tẻ nhạt, tập trung vào việc có ý nghĩa hơn.
- Để tái tổ chức công việc quanh AI, lãnh đạo cần: Xác định và tuyển dụng người dùng AI hiện tại, giảm nỗi sợ liên quan đến việc sử dụng AI; Để các nhóm tự phát triển phương pháp riêng; Xây dựng cho tương lai xa chứ không chỉ công nghệ hiện tại.
📌Bài báo từ MIT Sloan Review: Sự xuất hiện của AI tạo sinh và LLM đang thách thức mô hình tổ chức truyền thống tồn tại hàng trăm năm qua. Các nhà lãnh đạo cần chủ động tái cấu trúc công việc xoay quanh AI theo hướng giúp con người phát triển chứ không phải kiểm soát họ. Tốc độ thay đổi là cấp số nhân, chậm trễ sẽ khiến tổ chức tụt hậu. Đây là thời điểm then chốt để các doanh nghiệp thích ứng và đón đầu xu hướng mới.
Citations:
[1]https://sloanreview.mit.edu/article/reinventing-the-organization-for-genai-and-llms/
#MIT
- Generative AI đã thúc đẩy các CIO xem xét lại đường ống dữ liệu khi doanh nghiệp chuyển sang áp dụng AI tạo sinh.
- Alon Amit, Phó Chủ tịch sản phẩm, phân tích, AI và dữ liệu tại Intuit cho biết: "Đưa tất cả dữ liệu này đến đúng nơi vào đúng thời điểm không phải là một nhiệm vụ dễ dàng".
- Các CIO đang dựa vào nhiều nguồn dữ liệu khác nhau, nhấn mạnh việc tuyển chọn có chủ đích các bộ dữ liệu huấn luyện.
- Shawna Cartwright, Giám đốc thông tin kinh doanh và SVP công nghệ doanh nghiệp tại Cushman & Wakefield cho biết: "Một trong những điều quan trọng nhất đã thay đổi đối với chúng tôi là biết rằng không sao khi chạy thử nghiệm và nó không hoạt động chính xác như chúng tôi nghĩ".
- Mục tiêu của Cushman & Wakefield là nhúng AI vào toàn bộ vòng đời giao dịch bất động sản thương mại, cải thiện năng suất và hỗ trợ nhân viên trong các công việc hàng ngày.
- Các công ty đang khai thác giá trị từ dữ liệu phi cấu trúc trước đây bị bỏ qua. Intuit sử dụng các bài đăng trên blog của công ty để đào tạo các mô hình nói nhiều hơn về lĩnh vực fintech.
- Cushman & Wakefield đang khám phá việc sử dụng tài liệu viết không chính thức để cung cấp cho các công cụ AI tạo sinh kiến thức tổ chức sâu hơn.
- Trong ngành ngân hàng, các tổ chức đang tìm cách đẩy nhanh hợp đồng và kiểm toán bằng các công cụ AI tạo sinh. Generative AI đã mở ra cánh cửa mới cho các vấn đề dữ liệu phi cấu trúc.
📌 AI tạo sinh đang mở ra tiềm năng to lớn từ dữ liệu phi cấu trúc chưa được khai thác trong doanh nghiệp. Các CIO đang tái định hình đường ống dữ liệu, tận dụng các nguồn dữ liệu mới để đào tạo mô hình AI, với mục tiêu nhúng AI vào quy trình làm việc và cải thiện năng suất đáng kể trong 5-10 năm tới.
https://www.ciodive.com/news/generative-ai-unstructured-data-strategy/711904/
- Việc Anthropic phát hành dòng mô hình Claude 3 vào tháng 3/2024 và hoạt động thành công trên nhiều bài kiểm tra benchmark là tin tốt cho doanh nghiệp, cho thấy khách hàng doanh nghiệp sẽ có thể đánh giá và lựa chọn từ nhiều công cụ AI và GenAI chất lượng cao từ nhiều nhà cung cấp.
- Tuy nhiên, điều quan trọng cần nhớ là tất cả đều bắt đầu từ dữ liệu. Bước đầu tiên là chuẩn bị dữ liệu để phù hợp với AI, bao gồm đánh giá, hợp nhất, bảo mật và quản lý dữ liệu phân tán sao cho có thể truy cập được bởi các công cụ và dịch vụ AI.
- Bước tiếp theo là thiết lập pipeline hiệu quả giữa dữ liệu và các dịch vụ AI trên đám mây. Nếu dữ liệu nằm trong bucket Amazon S3, bạn nên tận dụng S3 API để truy cập dữ liệu toàn diện và nhanh chóng.
- Một khi dữ liệu đã phù hợp với AI và pipeline đã được thiết lập, đã đến lúc xem các công cụ này thực sự có thể làm gì cho tổ chức của bạn. Các trường hợp sử dụng thú vị đang được khách hàng áp dụng như:
+ Trong sản xuất: xây dựng mô hình ML để phân tích dữ liệu quét và IoT, tìm cách cải thiện quy trình, phát hiện và sửa lỗi sản phẩm nhanh hơn.
+ Trong tiếp thị: sử dụng AWS Rekognition/Kendra để phân tích và tìm kiếm nội dung video/hình ảnh, giúp đội ngũ sáng tạo dễ dàng tìm cảm hứng từ các dự án trước đây.
+ Giao diện trò chuyện: cho hỗ trợ khách hàng, tiếp thị hoặc nghiên cứu nội bộ để tạo điều kiện cho việc lan truyền kiến thức.
- Các công cụ AI, GenAI và ML cuối cùng có thể cung cấp cho các tổ chức cơ hội biến dữ liệu phân tán thành tài sản giúp thúc đẩy hiệu quả, tăng tốc quy trình kinh doanh và tạo ra lợi thế cạnh tranh lớn.
📌 Việc chuẩn bị dữ liệu phù hợp với AI và xây dựng pipeline kết nối dữ liệu với các công cụ và dịch vụ AI là yếu tố then chốt để doanh nghiệp tận dụng sức mạnh của AI tạo sinh. Các tổ chức hàng đầu trong tương lai sẽ là những tổ chức bắt đầu quá trình này ngay từ hôm nay, áp dụng AI vào các lĩnh vực như sản xuất, tiếp thị và hỗ trợ khách hàng để thúc đẩy hiệu quả và tạo lợi thế cạnh tranh.
https://www.forbes.com/sites/forbestechcouncil/2024/04/02/how-genai-changes-the-enterprise-approach-to-data/
- Các công ty đang tích hợp AI vào các công cụ quen thuộc như Zoom, Teams để hỗ trợ ghi chép, tóm tắt, đo lường mức độ tham gia của nhân viên trong các cuộc họp trực tuyến.
- AI có thể giúp cải thiện năng suất và đưa ra phản hồi hữu ích, nhưng cũng tiềm ẩn rủi ro như làm giảm sự chủ động lắng nghe, suy nghĩ của nhân viên.
- Việc ứng dụng AI có thể ảnh hưởng đến việc ai được phát biểu và được lắng nghe trong cuộc họp, nội dung gì được chia sẻ hay bị kiểm duyệt, thời điểm và địa điểm trao đổi...
- Các chỉ số đo lường sự tham gia, cảm xúc của AI chưa thực sự chính xác do chưa tính đến sự đa dạng văn hóa, tính cách của từng cá nhân.
- Nhân viên có thể e ngại bày tỏ ý kiến thẳng thắn nếu bị ghi âm, giám sát. Họ có xu hướng "diễn" theo kỳ vọng của AI.
- Việc phụ thuộc quá nhiều vào AI có thể khiến chúng ta mất dần kỹ năng lắng nghe, đối thoại, học hỏi lẫn nhau.
- Tác động tích cực hay tiêu cực của AI phụ thuộc vào văn hóa quyền lực trong tổ chức, cách tiếp nhận tri thức và sự chủ động học hỏi, điều chỉnh khi triển khai công nghệ mới.
📌 Ứng dụng AI trong giao tiếp công việc mang lại cả cơ hội và thách thức. Để phát huy hiệu quả, cần chủ động tạo không gian học hỏi, thử nghiệm có kiểm soát, tránh phụ thuộc thụ động vào công nghệ. Các chỉ số đo lường sự tham gia, cảm xúc của AI chưa thực sự chính xác do chưa tính đến sự đa dạng văn hóa, tính cách của từng cá nhân. Nhân viên có thể e ngại bày tỏ ý kiến thẳng thắn nếu bị ghi âm, giám sát. Họ có xu hướng "diễn" theo kỳ vọng của AI
Citations:
[1] https://hbr.org/2024/04/how-ai-features-can-change-team-dynamics
#HBR
- Việc áp dụng AI trong doanh nghiệp đã tăng gấp đôi kể từ năm 2017 với đầu tư tăng mỗi năm. AI sẽ tiếp tục tạo ra sự khác biệt cho các tổ chức có thể tận dụng sức mạnh của nó ở quy mô lớn.
- Thách thức không phải là công nghệ phù hợp có tồn tại hay không, mà là có chuyên môn và con người để hiện thực hóa tầm nhìn AI. Triển khai công cụ AI cần sự phối hợp, đòi hỏi một danh mục các chuyên gia AI trên tất cả các bộ phận, do một người đứng đầu AI rõ ràng lãnh đạo.
- Head of AI được coi là công việc "hot" nhất hiện nay vì AI được coi là trách nhiệm cấp CEO và ưu tiên cấp hội đồng quản trị. Một người báo cáo trực tiếp để quản lý và định hướng chiến lược là rất quan trọng.
- Đội ngũ báo cáo cho Head of AI nên bao gồm các nhà khoa học dữ liệu, kỹ sư machine learning làm việc cùng với các nhóm quản lý pháp lý, IT và nhân sự để đảm bảo hướng dẫn, đào tạo và triển khai rõ ràng trên toàn tổ chức.
- Đánh giá khả năng và năng lực của tất cả nhân viên hiện tại cũng là một bước quan trọng. Có thể có tài năng tiềm ẩn hoặc người lao động đã sẵn sàng nâng cao kỹ năng.
📌 Head of AI được coi là công việc "hot" nhất hiện nay vì AI được coi là trách nhiệm cấp CEO và ưu tiên cấp hội đồng quản trị. Một người báo cáo trực tiếp để quản lý và định hướng chiến lược là rất quan trọng. Dưới sự dẫn dắt của Head of AI với một đội ngũ chuyên trách từ mọi mặt của tổ chức, AI sẽ trở thành ưu tiên, được hiểu và triển khai an toàn, tác động lớn, là công nghệ chuyển đổi cho thành công lâu dài của doanh nghiệp trong tương lai.
https://www.techradar.com/pro/who-should-lead-your-ai-initiative
- Theo nghiên cứu của Trung tâm Nghiên cứu Pew, 20% người trưởng thành Mỹ đã sử dụng ChatGPT cho công việc, tăng mạnh so với 12% cách đây 6 tháng.
- Mặc dù 1/3 người Mỹ chưa từng nghe đến ChatGPT và chỉ dưới 1/4 đã sử dụng nó, nhưng sự gia tăng nhanh chóng trong sử dụng ChatGPT cho công việc cho thấy tiềm năng to lớn của công nghệ này.
- Các công ty công nghệ lớn như OpenAI, Microsoft, Google đang đẩy mạnh tích hợp AI hội thoại vào mọi dòng sản phẩm. Các startup như Sierra cũng đang phát triển các công cụ AI cho khách hàng doanh nghiệp.
- Sự phát triển của bảng tính điện tử trong quá khứ có thể giúp hiểu về quỹ đạo phát triển của AI. Phải mất vài năm để bảng tính được áp dụng rộng rãi trong kinh doanh, nhưng chúng đã mang lại tác động đột phá.
- Nghiên cứu của Pew cho thấy sự chấp nhận nhanh chóng của AI có thể xảy ra nhanh hơn so với các công nghệ trước đây. Điều này có thể dẫn đến sự thay đổi lớn trong nền kinh tế và thị trường lao động.
📌 Dữ liệu mới cho thấy 20% người Mỹ đã dùng ChatGPT cho công việc, tăng 66% so với 6 tháng trước. Các công ty công nghệ lớn đang đẩy mạnh tích hợp AI, báo hiệu một cuộc cách mạng sắp tới có thể thay đổi sâu sắc cách chúng ta làm việc và cấu trúc nền kinh tế, tương tự như tác động đột phá của bảng tính điện tử trong quá khứ.
https://www.wired.com/story/plaintext-proof-the-ai-boom-is-people-tapping-chatgpt-at-work/
- MineOS ra mắt module Khám phá Tài sản AI và Đánh giá Rủi ro để giải quyết vấn đề "hộp đen" của AI, giúp các công ty có tầm nhìn cần thiết để quản lý công nghệ AI
- Thông báo này đến sau những tiến bộ lớn của AI như ChatGPT và Gemini, dẫn đến nhu cầu giám sát ngày càng tăng
- Trong khi các hệ thống AI như mô hình ngôn ngữ lớn (LLM) mang lại lợi ích to lớn, cách thức hoạt động bên trong của chúng thường không rõ ràng với người dùng, dẫn đến lo ngại về các tác hại tiềm ẩn liên quan đến bảo mật, đạo đức, quyền riêng tư, v.v.
- Các khuôn khổ và giải pháp để doanh nghiệp quản lý hiệu quả việc phát triển và sử dụng AI vẫn chậm xuất hiện
- Khoảng trống quản trị này đã thu hút sự chú ý của các nhà lập pháp, với các quy định như Đạo luật AI của EU áp đặt các yêu cầu đánh giá mới
- MineOS sử dụng kết hợp quét hệ thống và phân tích siêu dữ liệu email để phát hiện gần như tất cả các hệ thống dữ liệu và công cụ AI được sử dụng trong một tổ chức
- Khách hàng của MineOS có thể phân tích rủi ro, tạo quy tắc quản trị phù hợp với luật mới và chạy kiểm toán để chứng minh tuân thủ
- MineOS đang bước vào một không gian ngày càng đông đúc, đối mặt với các gã khổng lồ công nghệ như IBM, Microsoft và Google
- Công ty tin rằng DNA tập trung vào quyền riêng tư mang lại lợi thế cho họ
- Với 42.5 triệu USD tài trợ từ các nhà đầu tư hàng đầu như quỹ AI của Google, Gradient Ventures, MineOS hy vọng cách tiếp cận lấy quyền riêng tư làm trọng tâm sẽ giúp họ trở thành người dẫn đầu trong việc làm sáng tỏ "hộp đen" AI cho các doanh nghiệp trên toàn thế giới
📌 MineOS ra mắt giải pháp giúp doanh nghiệp quản lý rủi ro và tuân thủ quy định liên quan đến AI bằng cách phát hiện và đánh giá các hệ thống AI đang sử dụng. Với 42,5 triệu USD tài trợ, công ty đang cạnh tranh với các ông lớn công nghệ để trở thành người dẫn đầu trong lĩnh vực quản trị AI đầy thách thức này.
https://venturebeat.com/ai/mineos-aims-to-illuminate-the-ai-black-box-for-enterprise/
- Việc sử dụng công cụ AI/ML trong doanh nghiệp tăng gần 600% từ 521 triệu giao dịch/tháng (4/2023) lên 3,1 tỷ (1/2024).
- 18,5% giao dịch AI/ML bị chặn do lo ngại về bảo mật, tăng 577% trong 9 tháng.
- Tin tặc đã "vũ khí hóa" các mô hình ngôn ngữ lớn (LLM) để tấn công các tổ chức.
- Các ngành sản xuất, tài chính, bảo hiểm, dịch vụ áp dụng nhiều công cụ AI/ML nhất nhưng chưa sẵn sàng đối phó với các cuộc tấn công.
- ChatGPT là công cụ AI bị chặn nhiều nhất, theo sau là OpenAI, Fraud.net, Forethought, Hugging Face.
- Ngành tài chính, bảo hiểm chặn nhiều giao dịch AI nhất (37,16%), ngành sản xuất chỉ chặn 15,65%.
- Chặn giao dịch chỉ là giải pháp tạm thời, cần phân tích dữ liệu telemetry để phát hiện mối đe dọa mới.
- Các nhà cung cấp bảo mật hàng đầu đang huấn luyện LLM của họ trên dữ liệu tấn công AI.
- Bảo vệ sở hữu trí tuệ, kiểm soát "shadow AI", đảm bảo quyền riêng tư và bảo mật dữ liệu là then chốt.
- Tin tặc dùng AI để tự động hóa các cuộc tấn công ransomware nhắm vào các lỗ hổng cụ thể.
📌 Việc áp dụng AI trong doanh nghiệp tăng vọt 600% chỉ trong 9 tháng, khiến 18,5% giao dịch bị chặn vì lo ngại bảo mật. Tin tặc đã tận dụng AI để tự động hóa các cuộc tấn công ransomware tinh vi hơn. Các doanh nghiệp cần chiến lược bảo mật toàn diện, phân tích dữ liệu telemetry và hợp tác với các nhà cung cấp bảo mật hàng đầu để đối phó với mối đe dọa mới từ AI.
Citations:
[1] https://venturebeat.com/security/zscaler-finds-enterprise-ai-adoption-soars-600-in-less-than-a-year-putting-data-at-risk/
- Nghiên cứu của IBM Institute for Business Value (IBV) cho thấy 63% lãnh đạo cấp cao được khảo sát tin rằng AI tạo sinh (GenAI) sẽ quan trọng cho nỗ lực bền vững của họ.
- 76% lãnh đạo dự định tăng đầu tư vào GenAI cho bền vững.
- GenAI có thể là một bước ngoặt cho bền vững dựa trên dữ liệu, giúp tổ chức biến xung đột lợi ích thành cơ hội, xác định cơ hội cải thiện và thúc đẩy đổi mới nhanh chóng và quy mô lớn.
- Nghiên cứu dựa trên khảo sát 5.000 lãnh đạo cấp cao tại 22 ngành và 22 quốc gia, bao gồm Mỹ, Anh và Nhật Bản.
- Tổ chức nhúng bền vững chi ít hơn cho nỗ lực bền vững chuyên biệt so với doanh thu so với tổ chức không nhúng bền vững.
- Tại Ấn Độ, tổ chức nhúng bền vững có 41% khả năng cao hơn ghi nhận cải thiện doanh thu từ nỗ lực bền vững và 90% khả năng cao hơn vượt trội về lợi nhuận so với đối thủ cạnh tranh.
- Nhiều tổ chức vẫn coi bền vững là hoạt động kế toán hoặc báo cáo thay vì chuyển đổi toàn diện.
- Chi phí báo cáo bền vững tại Ấn Độ vượt 38% so với chi phí đổi mới bền vững.
- 78% lãnh đạo Ấn Độ được khảo sát đồng ý bền vững mang lại kết quả kinh doanh tốt hơn, 68% cho rằng bền vững là trọng tâm chiến lược kinh doanh.
- Tuy nhiên, gần một nửa (47%) tổ chức Ấn Độ vẫn gặp khó khăn trong tài trợ đầu tư bền vững.
📌 47% doanh nghiệp Ấn Độ gặp khó khăn tài trợ đầu tư bền vững, nhưng 76% lãnh đạo toàn cầu dự định tăng đầu tư vào AI tạo sinh cho bền vững. Nghiên cứu của IBM cho thấy AI tạo sinh có thể là bước ngoặt, giúp tổ chức biến xung đột lợi ích thành cơ hội, xác định cơ hội cải thiện và thúc đẩy đổi mới nhanh chóng, quy mô lớn.
https://www.business-standard.com/companies/news/executives-plan-to-invest-more-in-genai-for-sustainability-ibm-study-124032600538_1.html
- NetApp và NVIDIA công bố bước tiến đột phá trong ứng dụng AI tạo sinh, cho phép tương tác dữ liệu an toàn và riêng tư trên đa đám mây lai.
- Giải pháp này tận dụng NVIDIA NeMo Retriever, một thành phần của nền tảng phần mềm NVIDIA AI Enterprise, để mở khóa hàng exabyte dữ liệu được lưu trữ trên cơ sở hạ tầng dữ liệu thông minh của NetApp.
- Doanh nghiệp có thể truy vấn an toàn bất kỳ dữ liệu nào được lưu trữ trên NetApp ONTAP thông qua các lời nhắc đơn giản, đồng thời duy trì quyền kiểm soát dữ liệu và hưởng lợi từ thông tin chi tiết do AI cung cấp.
- Giải pháp này giải quyết thách thức của doanh nghiệp trong việc tận dụng các mô hình ngôn ngữ lớn cho các ứng dụng nội bộ mà không gây rủi ro phơi nhiễm dữ liệu.
- Hơn 500 khách hàng chung đã tận dụng các giải pháp này để đào tạo và suy luận mô hình AI.
- Khả năng "Nói chuyện với dữ liệu của bạn" cũng được giới thiệu tại NVIDIA GTC, thể hiện cam kết của NetApp và NVIDIA trong việc thúc đẩy đổi mới AI và bảo mật dữ liệu cho doanh nghiệp trên toàn thế giới.
📌 Sự hợp tác giữa NetApp và NVIDIA mang đến bước đột phá trong ứng dụng AI tạo sinh, cho phép truy vấn an toàn hàng exabyte dữ liệu doanh nghiệp thông qua NVIDIA NeMo Retriever. Giải pháp này giúp doanh nghiệp duy trì quyền kiểm soát dữ liệu, giảm ma sát, chi phí và thời gian triển khai, đồng thời thúc đẩy đổi mới AI và bảo mật dữ liệu trên quy mô toàn cầu với hơn 500 khách hàng đã áp dụng.
https://analyticsindiamag.com/netapp-unlocks-exabytes-of-enterprise-data-for-genai-with-nvidia/
- Năm 1998, Steve Jobs cho rằng chiến lược dài hạn của Apple là "chờ đợi điều lớn lao tiếp theo". Hiện nay, hầu hết bằng chứng cho thấy AI chính là điều đó.
- 5 bước giúp doanh nghiệp quyết định có nên đầu tư vào AI:
• Xác định rõ ý nghĩa của AI với doanh nghiệp, tìm ra trường hợp sử dụng thực tế. Tránh coi AI như giải pháp công nghệ chờ vấn đề.
• Đánh giá liệu công nghệ hiện tại có thể đáp ứng trường hợp sử dụng không. Tập trung vào công nghệ sẵn có hoặc sắp có.
• Xác định cách tiếp cận công nghệ cần thiết (xây dựng, mua, hợp tác). Cần dữ liệu huấn luyện và bảo trì cho mô hình AI.
• Đánh giá mức độ sẵn sàng với AI (thử nghiệm, đẩy mạnh chiến lược, đầu tư lớn).
• Đánh giá năng lực thực thi (văn hóa, kỹ năng, tư duy lãnh đạo). Yếu tố con người quyết định thành bại của chiến lược tăng trưởng AI.
- Quyết định cuối cùng phụ thuộc vào việc AI có phù hợp với chiến lược kinh doanh hiện tại không. Nếu có, đầu tư vào AI có thể đưa doanh nghiệp lên tầm cao mới.
📌Bài báo trên Harvard Business Review về quyết định đầu tư vào AI cho tăng trưởng doanh nghiệp đòi hỏi phân tích kỹ lưỡng 5 bước, xác định ý nghĩa thực tế của AI, đánh giá công nghệ, năng lực tiếp cận và thực thi. Yếu tố then chốt là AI phải phù hợp với chiến lược kinh doanh hiện tại.
https://hbr.org/2024/03/how-to-decide-if-ai-should-be-part-of-your-growth-strategy
#HBR
- Gartner đã phát triển AI Opportunity Radar để giúp các doanh nghiệp xác định tham vọng và cơ hội ứng dụng AI. Công cụ này chia thành 4 lĩnh vực chính: sản phẩm/dịch vụ, năng lực cốt lõi, trải nghiệm khách hàng/bộ phận tiền sảnh và bộ phận hậu sảnh.
- Các doanh nghiệp nên bắt đầu với các thử nghiệm AI quy mô nhỏ nhưng có tầm nhìn tác động rộng khắp doanh nghiệp. Hiểu phản ứng của khách hàng với AI là rất quan trọng.
- AI nên được tích hợp một cách chiến lược, phù hợp với mục tiêu doanh nghiệp và nhận thức của công chúng. Nó không chỉ là công nghệ mà còn là tài sản chiến lược ảnh hưởng đến khả năng cạnh tranh và nhận thức về thương hiệu.
- Trục X của radar phân biệt giữa AI thường ngày cải thiện mô hình kinh doanh hiện tại và AI đột phá tạo ra mô hình mới. Trục Y phân biệt giữa AI hướng tới khách hàng bên ngoài và AI dùng cho hoạt động nội bộ.
- AI ở bộ phận tiền sảnh tập trung vào tương tác khách hàng, nâng cao trải nghiệm qua chatbot và nội dung do AI tạo ra. AI sản phẩm/dịch vụ tích hợp AI vào sản phẩm để nâng cao giá trị.
- AI năng lực cốt lõi có thể mang lại lợi thế cạnh tranh đáng kể, như việc Swedbank dùng mạng nơ-ron đối kháng (GAN) để ngăn chặn gian lận và rửa tiền. AI ở bộ phận hậu sảnh tập trung vào hỗ trợ nhân viên và tự động hóa các tác vụ tài chính, nhân sự, IT.
- Gartner khuyến nghị kết hợp khám phá thử nghiệm và lập kế hoạch chiến lược để củng cố tham vọng AI của doanh nghiệp. Nghiên cứu của họ đưa ra các trường hợp sử dụng AI cho từng ngành như bán lẻ, ngân hàng, chăm sóc sức khỏe.
📌AI Opportunity Radar của Gartner chia thành 4 lĩnh vực chính: sản phẩm/dịch vụ, năng lực cốt lõi, trải nghiệm khách hàng/bộ phận tiền sảnh và bộ phận hậu sảnh. Đây là công cụ quan trọng giúp doanh nghiệp xác định và thực hiện chiến lược ứng dụng AI.
Citations:
[1] https://www.gartner.com/en/information-technology/topics/ai-readiness
#Gartner
- AWS, Accenture và startup AI Anthropic hợp tác để giúp các tổ chức trong các lĩnh vực nghiêm ngặt như y tế, chính phủ và ngân hàng áp dụng mô hình AI tùy chỉnh một cách nhanh chóng nhưng có trách nhiệm.
- Liên minh ba bên này sẽ cho phép doanh nghiệp tiếp cận các mô hình AI tiên tiến nhất của Anthropic, bao gồm cả dòng Claude 3, thông qua nền tảng Bedrock của Amazon.
- Accenture sẽ đóng vai trò tận dụng chuyên môn kỹ thuật và kinh nghiệm ngành để tinh chỉnh các mô hình này cho các ứng dụng cụ thể của ngành.
- Hơn 1.400 kỹ sư của Accenture sẽ được đào tạo để sử dụng mô hình của Anthropic trên AWS để cung cấp hỗ trợ triển khai toàn diện.
- Mục tiêu chính là giúp doanh nghiệp áp dụng và tích hợp công nghệ AI tạo sinh cho các lĩnh vực và ngành công nghiệp cụ thể.
- Liên minh này kết hợp sức mạnh của ba công ty, với AWS cung cấp đám mây, Anthropic cung cấp mô hình AI đạo đức và Accenture đóng góp chuyên môn ngành.
- Đã có ứng dụng thực tế như chatbot "Knowledge Assist" thông minh tùy chỉnh cho Sở Y tế Quận Columbia.
- Liên minh nhằm cung cấp con đường thuận lợi để doanh nghiệp áp dụng AI một cách có trách nhiệm, giải quyết lo ngại về tác động đạo đức.
- Đây là bước đi chiến lược quan trọng trong việc thúc đẩy áp dụng AI tạo sinh trong doanh nghiệp bằng cách kết hợp các nhà cung cấp hàng đầu.
📌 Liên minh AWS, Accenture và Anthropic mang đến giải pháp AI tạo sinh tùy chỉnh, đạo đức cho doanh nghiệp, đặc biệt trong các lĩnh vực nghiêm ngặt, giúp áp dụng nhanh chóng nhưng có trách nhiệm công nghệ mới này với hơn 1.400 kỹ sư được đào tạo.
https://venturebeat.com/ai/exclusive-aws-accenture-and-anthropic-partner-to-accelerate-enterprise-ai-adoption/
#hay
• Khoảng 32% doanh nghiệp đã triển khai công nghệ AI tạo sinh như ChatGPT và Bard trong ứng dụng hoặc quy trình doanh nghiệp.
• 20% doanh nghiệp đang thử nghiệm công nghệ này, 16% có dự án lớn đang triển khai và 14% đang ở giai đoạn nguyên mẫu.
• Mối quan ngại lớn nhất khi triển khai AI tạo sinh là vấn đề bảo mật, được 60% doanh nghiệp đề cập.
• Đa số (58%) doanh nghiệp sử dụng GPT-4 của OpenAI, 21% sử dụng GPT-3.5 và 5% sử dụng PaLM2 của Google AI.
• 75% doanh nghiệp khảo sát hiện đang sử dụng mô hình ngôn ngữ lớn (LLM), 20% chưa triển khai và 5% không chắc chắn.
• 19% doanh nghiệp có 60% tải công việc ứng dụng trên đám mây thương mại, 17% có 70% tải công việc trên đám mây.
📌 Khảo sát cho thấy 32% doanh nghiệp đã triển khai AI tạo sinh, với GPT-4 là mô hình được ưa chuộng nhất, phản ánh xu hướng ứng dụng AI ngày càng tăng trong doanh nghiệp.
Citations:
[1] https://www.ndtvprofit.com/technology/32-organisations-deploy-generative-ai-in-enterprise-applications-gpt-4-preferred-llm-survey
- AI hội thoại cho phép doanh nghiệp tương tác với dữ liệu và khách hàng một cách trực quan và giống con người hơn, từ chatbot hỗ trợ khách hàng đến giao diện hội thoại phân tích dữ liệu.
- Watson của IBM từng hứa hẹn những bước tiến lớn trong phân tích dữ liệu phức tạp, nhưng đã gặp trục trặc và bị ngừng trong nhiều dự án. IBM quyết định đưa Watson trở lại như một nền tảng huấn luyện mô hình học máy khác.
- Alexa của Amazon là người tiên phong trong việc tích hợp công nghệ kích hoạt bằng giọng nói vào môi trường kinh doanh và tiêu dùng hàng ngày. Gần đây, Amazon thông báo kết hợp Alexa với công nghệ LLM để tạo trải nghiệm chatbot hấp dẫn hơn.
- Tuy nhiên, cả Watson và Alexa đều gặp phải những thách thức. Amazon đang cân nhắc giới thiệu mô hình đăng ký trả phí cho Alexa, cho thấy khó khăn trong việc tạo doanh thu từ công nghệ này.
- Doanh nghiệp cần điều chỉnh sự nhiệt tình với công nghệ mới bằng đánh giá khả năng và hạn chế hiện tại, đồng thời liên tục đánh giá công cụ khi chúng phát triển.
- Khi tích hợp AI hội thoại, doanh nghiệp cần xem xét phân tích chi phí-lợi ích, kỳ vọng thực tế, vấn đề đạo đức và quyền riêng tư, hỗ trợ kỹ thuật, khả năng mở rộng và linh hoạt.
📌 Watson và Alexa cho thấy cả cơ hội và thách thức khi tích hợp AI hội thoại vào hoạt động kinh doanh. Bằng cách thẩm định kỹ lưỡng và duy trì cái nhìn phê phán, doanh nghiệp có thể khai thác sức mạnh của AI để thúc đẩy đổi mới và tăng trưởng, đồng thời tránh các cạm bẫy mà những người khác đã mắc phải.
https://www.inc.com/srini-pagidyala/what-alexa-watson-show-us-about-ai-in-business-strategies.html
- Các nhà đầu tư và công ty đang đổ vốn vào AI tạo sinh, với hy vọng tự động hóa quy trình làm việc và tăng năng suất.
- Cơ sở hạ tầng tính toán chuyên biệt với GPU hiệu năng cao là nền tảng để xây dựng và chạy mô hình AI tạo sinh.
- Dữ liệu quy mô internet được sử dụng để huấn luyện mô hình AI, với nguồn dữ liệu từ Common Crawl, Wikipedia và các nguồn khác.
- Mô hình cơ sở là mạng nơ-ron được huấn luyện trên bộ dữ liệu lớn mà không tối ưu cho nhiệm vụ cụ thể nào.
- Các mô hình tinh chỉnh và RAG (retrieval-augmented generation) giúp cải thiện hiệu suất cho các nhiệm vụ cụ thể.
- Các ứng dụng LLM có thể được xây dựng trên mô hình cơ sở hoặc mô hình tinh chỉnh để phục vụ các trường hợp sử dụng cụ thể.
- Các công ty công nghệ lớn và các nhà đầu tư mạo hiểm đã đầu tư mạnh vào mỗi tầng của AI tạo sinh.
- Thị trường mô hình cơ sở có thể sẽ tập trung vào một số người chơi lớn giống như thị trường dịch vụ đám mây.
- Các công ty cần quyết định liệu họ có nên xây dựng ứng dụng trên mô hình cơ sở của bên thứ ba hay xây dựng mô hình LLM riêng của họ.
- Các công ty có quyền truy cập vào dữ liệu chuyên ngành lớn có thể có lợi thế trong việc tạo ra mô hình chuyên biệt cho lĩnh vực của họ.
- Giao diện người dùng cuối cùng, nơi trí tuệ máy móc gặp người dùng, có thể là điểm khác biệt quan trọng.
- Các vấn đề bản quyền nội dung đã được đưa ra khi các tác giả nội dung đặt câu hỏi về việc sử dụng tác phẩm của họ để huấn luyện mô hình LLM.
- Các công ty cung cấp sản phẩm và dịch vụ AI tạo sinh cần xác định cách thức cạnh tranh không chỉ dựa trên hiệu suất mô hình mà còn xây dựng hệ sinh thái và công cụ cho mỗi tầng của AI tạo sinh.
📌 AI tạo sinh đang thu hút đầu tư lớn từ các công ty và nhà đầu tư mạo hiểm, với cơ sở hạ tầng tính toán và dữ liệu quy mô lớn làm nền tảng. Mô hình cơ sở và các mô hình tinh chỉnh/RAG đóng vai trò quan trọng trong việc cải thiện hiệu suất cho các nhiệm vụ cụ thể. Các ứng dụng LLM đa dạng hóa cách thức cung cấp dịch vụ. Thị trường có xu hướng tập trung vào một số người chơi lớn, và các công ty có dữ liệu chuyên ngành có thể tận dụng lợi thế này để tạo ra mô hình chuyên biệt. Giao diện người dùng và vấn đề bản quyền nội dung là những thách thức cần được giải quyết trong khi phát triển chiến lược AI tạo sinh.
Citations:
[1] https://sloanreview.mit.edu/article/who-profits-the-most-from-generative-ai/
#MIT
- Các nhà lãnh đạo chăm sóc khách hàng đang phải đối mặt với thách thức lớn nhất trong nhiều thập kỷ: chuẩn bị cho tương lai được hỗ trợ bởi AI, đồng thời đáp ứng các mục tiêu kinh doanh khó khăn và kỳ vọng ngày càng tăng của khách hàng.
- Khảo sát toàn cầu mới nhất cho thấy nhiều công ty đang gặp khó khăn trên tất cả các mặt trận này. Việc chuyển đổi từ mô hình chăm sóc do con người điều khiển sang mô hình do công nghệ AI định hướng có thể là sự gián đoạn lớn nhất trong lịch sử dịch vụ khách hàng.
- Các ưu tiên của lãnh đạo chăm sóc khách hàng đang thay đổi, từ tập trung vào trải nghiệm khách hàng sang cách tiếp cận đa chiều nhấn mạnh mục tiêu doanh thu và chuyển đổi công nghệ. Họ đang nỗ lực xây dựng hệ sinh thái được hỗ trợ bởi AI, sẵn sàng cho tương lai.
- Khách hàng thuộc mọi thế hệ ưu tiên hỗ trợ từ con người thực, nhưng họ cũng muốn linh hoạt sử dụng các kênh khác nhau tùy theo nhu cầu. Dịch vụ chat kỹ thuật số đã đạt được mức chấp nhận cao ở tất cả các thế hệ.
- Chỉ 8% người được hỏi từ Bắc Mỹ và 5% từ châu Phi, châu Âu và Trung Đông báo cáo mức độ hài lòng cao hơn mong đợi với hiệu suất chăm sóc khách hàng. Hơn 80% tổ chức có hiệu suất thấp hơn hoặc ngang bằng kỳ vọng cho biết mức độ tích hợp kỹ thuật số của họ là một phần hoặc thấp.
- Hơn 80% người được hỏi đã đầu tư hoặc dự kiến sẽ đầu tư vào AI tạo sinh (gen AI) trong những tháng tới. Tuy nhiên, việc triển khai và mở rộng quy mô AI là thách thức lớn nhất đối với các nhà lãnh đạo chăm sóc khách hàng.
- Các tổ chức chăm sóc khách hàng thiếu nhiều kỹ năng quan trọng cần thiết để cung cấp dịch vụ xuất sắc. 2/3 lãnh đạo cho biết nâng cao kỹ năng và đào tạo lại là ưu tiên quan trọng. Công nghệ AI đang thay đổi các chương trình nâng cao kỹ năng.
- 55% công ty thuê ngoài một phần hoạt động chăm sóc khách hàng và 47% trong số đó dự kiến sẽ tăng thuê ngoài trong 2 năm tới để bổ sung năng lực và đổi mới.
📌 Các tổ chức chăm sóc khách hàng hàng đầu đã tận dụng cơ hội từ công nghệ kỹ thuật số tiên tiến, đầu tư để thúc đẩy hiệu quả và dịch vụ xuất sắc. Trong khi đó, nhiều công ty vẫn đang vật lộn để tích hợp các giải pháp kỹ thuật số vào hệ thống cũ. Năm 2024, AI tạo sinh đang nâng cao tiêu chuẩn hiệu suất, năng suất và cá nhân hóa trong chăm sóc khách hàng, đòi hỏi các nhà lãnh đạo phải có tầm nhìn táo bạo và lộ trình thay đổi mạnh mẽ.
AI tạo sinh (generative AI hay GenAI) đang tạo ra những tác động đáng kể đối với lĩnh vực chăm sóc khách hàng trong năm 2024 và những năm tới:
- Hơn 80% các tổ chức đã đầu tư hoặc dự kiến sẽ đầu tư vào AI tạo sinh trong những tháng tới để ứng dụng vào các hoạt động chăm sóc khách hàng.
- AI tạo sinh, đặc biệt là các mô hình ngôn ngữ lớn (LLMs), mở ra nhiều khả năng mới cho công nghệ trong chăm sóc khách hàng như chatbot, hệ thống trả lời email tự động, hỗ trợ đào tạo nhân viên, phân tích dữ liệu, hỗ trợ ra quyết định.
- Một ngân hàng châu Âu đã thay thế chatbot dựa trên quy tắc bằng hệ thống mới dựa trên AI tạo sinh, chỉ sau 7 tuần ra mắt, chatbot AI đã hiệu quả hơn 20% trong việc trả lời thắc mắc của khách hàng so với công cụ cũ.
- Các công ty tiên phong rất tham vọng về tiềm năng của AI tạo sinh. Một tổ chức toàn cầu lớn kỳ vọng 100% tương tác với khách hàng sẽ được hỗ trợ bởi AI trong tương lai gần, sử dụng trợ lý ảo, công cụ hỗ trợ nhân viên và phân tích giọng nói AI.
- Tuy nhiên, với đa số công ty, cuộc cách mạng AI tạo sinh trong chăm sóc khách hàng vẫn đang ở giai đoạn đầu. Các thách thức lớn bao gồm triển khai và mở rộng quy mô, vấn đề an toàn, bảo mật, quản trị, và khó xác định được lợi ích kinh doanh từ đầu tư vào AI tạo sinh.
- AI đang trở thành công cụ quan trọng để đào tạo và hỗ trợ nhân viên chăm sóc khách hàng. Một công ty thiết bị xây dựng toàn cầu sử dụng AI tạo sinh để hỗ trợ nhân viên tìm kiếm thông tin kỹ thuật, giảm thời gian giải quyết từ 125 phút xuống vài giây.
- Các công ty cũng đang sử dụng AI để tối ưu hóa dự báo lượng cuộc gọi, quản lý nhân sự và lịch trình, giúp cải thiện mức độ phục vụ khách hàng và giảm chi phí.
Tóm lại, AI tạo sinh đang nâng cao tiêu chuẩn về hiệu suất, năng suất và cá nhân hóa trong chăm sóc khách hàng, buộc các nhà lãnh đạo phải có tầm nhìn táo bạo và kế hoạch thay đổi mạnh mẽ để thích ứng với tương lai được hỗ trợ bởi AI.
Citations:
[1]https://www.mckinsey.com/capabilities/operations/our-insights/where-is-customer-care-in-2024#/
#Mckinsey
- AI tạo sinh hứa hẹn giúp việc thiết lập và tích hợp hệ thống phần mềm doanh nghiệp nhanh hơn nhiều. Các nhà thầu tích hợp hệ thống (systems integrators) có thể tăng hiệu quả đáng kể.
- Tuy nhiên, một số CIO lo ngại rằng các nhà thầu này sẽ tiết kiệm chi phí nhờ AI như trợ lý mã hóa (giúp tăng tốc một số tác vụ lên 50%), nhưng vẫn tính phí như cũ cho doanh nghiệp.
- Chi tiêu toàn cầu cho dịch vụ tích hợp hệ thống dự kiến đạt 153.8 tỷ USD năm 2024, tăng 6.4% so với 2023, và 183.42 tỷ USD vào năm 2027.
- Chi phí tích hợp thường tương đương với chi phí mua phần mềm. CIO có thể yêu cầu nhà thầu minh bạch hơn về đội ngũ và thách thức về giá cả.
- Tác động của AI lên giá cả vẫn đang được tranh luận. Nó có thể làm tăng chi phí do chất lượng cao hơn, giao hàng nhanh hơn, hoặc giảm giá nhờ cạnh tranh.
- Một số công ty đang chuyển sang tự tích hợp nội bộ bằng AI. Rocket Mortgage đạt hiệu quả sớm 50% khi dùng AI hỗ trợ quy trình.
- Kịch bản lý tưởng là tích hợp hoàn toàn tự động, và đã có một số tiến bộ, nhưng vẫn chưa thực hiện được.
📌 AI tạo sinh hứa hẹn cải thiện đáng kể hiệu quả tích hợp hệ thống phần mềm doanh nghiệp, giúp tiết kiệm thời gian đến 50%. Tuy nhiên, tác động lên chi phí vẫn chưa rõ ràng do phụ thuộc vào chiến lược định giá của nhà thầu. Một số công ty đang chuyển sang tự tích hợp nội bộ bằng AI để kiểm soát tốt hơn.
https://www.wsj.com/articles/ai-will-transform-one-of-corporate-techs-biggest-cost-areasactual-savings-tbd-a6c7306d?mod=djemCIO
- AI tạo sinh (generative AI - gen AI) mang lại cơ hội lớn cho các công ty, với tiềm năng tác động mạnh mẽ đến đổi mới, tăng trưởng và năng suất. Nghiên cứu của McKinsey ước tính gen AI có thể đóng góp tới 4.4 nghìn tỷ USD vào nền kinh tế toàn cầu.
- Tuy nhiên, 91% doanh nghiệp trong khảo sát của McKinsey không cảm thấy sẵn sàng triển khai gen AI một cách có trách nhiệm. Các rủi ro liên quan đến gen AI bao gồm: kết quả không chính xác, thiên vị trong dữ liệu huấn luyện, khả năng lan truyền thông tin sai lệch quy mô lớn.
- Để triển khai gen AI một cách nhanh chóng và an toàn, doanh nghiệp cần: 1) Đánh giá rủi ro từ bên ngoài liên quan đến gen AI; 2) Xây dựng cái nhìn toàn diện về mức độ trọng yếu của rủi ro và các biện pháp quản lý; 3) Thiết lập cơ cấu quản trị cân bằng giữa chuyên môn, giám sát và ra quyết định nhanh; 4) Lồng ghép cơ cấu quản trị vào mô hình vận hành, kết hợp chuyên môn xuyên suốt tổ chức và đào tạo người dùng cuối.
- Các nguồn rủi ro chính từ bên ngoài bao gồm: các mối đe dọa an ninh mạng, rủi ro từ bên thứ ba, sử dụng sai mục đích, vi phạm sở hữu trí tuệ. Doanh nghiệp cần đánh giá định kỳ để hiểu rõ mức độ phơi nhiễm và sự sẵn sàng của hệ thống phòng thủ.
- Khi triển khai các use case gen AI, cần lập bản đồ rủi ro tiềm ẩn để đánh giá mức độ nghiêm trọng. Sau đó, phát triển chiến lược quản lý rủi ro thông qua giảm thiểu và quản trị mạnh mẽ, kết hợp các biện pháp kỹ thuật và phi kỹ thuật trong toàn bộ vòng đời của quy trình.
- Quản trị gen AI đòi hỏi: 1) Nhóm chỉ đạo gen AI có trách nhiệm đa chức năng; 2) Hướng dẫn và chính sách AI có trách nhiệm; 3) Nhân tài và văn hóa AI có trách nhiệm. Bốn vai trò then chốt để triển khai thành công là: Nhà thiết kế, Kỹ sư, Người quản trị và Người dùng.
📌 AI tạo sinh có tiềm năng thay đổi cách con người làm việc và sống. Mặc dù công nghệ đang phát triển nhanh chóng, nó đi kèm với nhiều rủi ro từ dữ liệu huấn luyện không đầy đủ đến khả năng tạo ra kết quả không chính xác hoặc độc hại. Các nhà lãnh đạo doanh nghiệp cần tích hợp quản lý rủi ro hiệu quả ngay từ đầu khi tương tác với gen AI, cho phép ứng dụng công nghệ mới thú vị này một cách an toàn và có trách nhiệm.
Citations:
[1]https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/implementing-generative-ai-with-speed-and-safety#/
#Mckinsey
- RAG và fine-tuning đều là các phương pháp để cải thiện kiến thức của LLM với dữ liệu mới. RAG phù hợp hơn khi truy xuất thông tin và tìm kiếm từ khóa, trong khi fine-tuning tốt hơn cho tính ngắn gọn và phong cách.
- Nghiên cứu của Microsoft cho thấy RAG đáng tin cậy hơn trong việc tiêm kiến thức, trong khi fine-tuning hoạt động tốt hơn khi sử dụng dữ liệu tổng hợp.
- RAG trải qua độ trễ cao hơn một chút so với fine-tuning do quy trình 2 bước, nhưng xuất sắc trong các tác vụ nặng về ngữ cảnh. Fine-tuning lý tưởng cho các ứng dụng thời gian thực như chatbot.
- RAG vượt trội về độ chính xác và sự phong phú về ngữ cảnh, đặc biệt là đối với các tác vụ phức tạp đòi hỏi thông tin bên ngoài. Fine-tuning thường thể hiện hiệu suất vượt trội trong các tác vụ chuyên biệt.
- Các chuyên gia tin rằng RAG đang vượt trội hơn fine-tuning trong nhiều ứng dụng LLM khi ngày càng phát triển.
- Việc lựa chọn giữa RAG và fine-tuning phụ thuộc vào yêu cầu cụ thể của ứng dụng, chẳng hạn như quyền truy cập vào dữ liệu bên ngoài, nhu cầu sửa đổi hành vi và động lực của dữ liệu huấn luyện được gắn nhãn.
- Các mô hình lai, kết hợp điểm mạnh của cả hai phương pháp, có thể mở đường cho những tiến bộ trong tương lai. Tuy nhiên, việc triển khai chúng đòi hỏi phải vượt qua những thách thức như tải tính toán và sự phức tạp của kiến trúc.
Dưới đây là tóm tắt nội dung bài viết:
Meta description: Bài viết so sánh hai phương pháp tiêm kiến thức mới vào các mô hình ngôn ngữ lớn (LLM): tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) và tinh chỉnh (fine-tuning), đồng thời chỉ ra khi nào nên sử dụng phương pháp nào.
Meta keywords: tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài, tinh chỉnh, mô hình ngôn ngữ lớn, tiêm kiến thức, truy xuất thông tin, tính toán nặng, hiệu suất, khả năng mở rộng, độ chính xác
SEO title: so sánh rag và fine-tuning: phương pháp nào tốt hơn để tiêm kiến thức vào llm?
Tóm tắt chi tiết:
- RAG và fine-tuning đều là các phương pháp để cải thiện kiến thức của LLM với dữ liệu mới. RAG phù hợp hơn khi truy xuất thông tin và tìm kiếm từ khóa, trong khi fine-tuning tốt hơn cho tính ngắn gọn và phong cách.
- Nghiên cứu của Microsoft cho thấy RAG đáng tin cậy hơn trong việc tiêm kiến thức, trong khi fine-tuning hoạt động tốt hơn khi sử dụng dữ liệu tổng hợp.
- RAG trải qua độ trễ cao hơn một chút so với fine-tuning do quy trình 2 bước, nhưng xuất sắc trong các tác vụ nặng về ngữ cảnh. Fine-tuning lý tưởng cho các ứng dụng thời gian thực như chatbot.
- RAG vượt trội về độ chính xác và sự phong phú về ngữ cảnh, đặc biệt là đối với các tác vụ phức tạp đòi hỏi thông tin bên ngoài. Fine-tuning thường thể hiện hiệu suất vượt trội trong các tác vụ chuyên biệt.
- Các chuyên gia tin rằng RAG đang vượt trội hơn fine-tuning trong nhiều ứng dụng LLM khi ngày càng phát triển.
- Việc lựa chọn giữa RAG và fine-tuning phụ thuộc vào yêu cầu cụ thể của ứng dụng, chẳng hạn như quyền truy cập vào dữ liệu bên ngoài, nhu cầu sửa đổi hành vi và động lực của dữ liệu huấn luyện được gắn nhãn.
- Các mô hình lai, kết hợp điểm mạnh của cả hai phương pháp, có thể mở đường cho những tiến bộ trong tương lai. Tuy nhiên, việc triển khai chúng đòi hỏi phải vượt qua những thách thức như tải tính toán và sự phức tạp của kiến trúc.
📌 Mặc dù fine-tuning vẫn là một lựa chọn khả thi cho các tác vụ cụ thể, RAG thường cung cấp giải pháp toàn diện hơn. Với sự cân nhắc kỹ lưỡng về các nét tinh tế và yêu cầu ngữ cảnh, việc tận dụng RAG được tăng cường bởi kỹ thuật tạo lời nhắc nổi lên như một mô hình đầy hứa hẹn, theo các chuyên gia.
- Tác giả chia sẻ rằng cha mẹ ông từng là chủ doanh nghiệp nhỏ, sớm áp dụng công nghệ thẻ đục lỗ tiên tiến vào thời điểm đó. Điều này cho thấy SMB luôn cần công cụ hỗ trợ phù hợp.
- SMB có nhu cầu đặc thù khác biệt so với doanh nghiệp lớn và người tiêu dùng. Công nghệ phải "vừa vặn" với họ.
- 5 yếu tố quyết định việc SMB áp dụng công nghệ mới:
• Tác động: SMB đánh giá công nghệ dựa trên ROI, cân nhắc giữa giá trị tạo ra và chi phí bỏ ra.
• Sự đơn giản: SMB không có nhiều thời gian học công nghệ mới. Họ cần công cụ dễ tích hợp, không đòi hỏi đào tạo nhiều.
• Khả năng kiểm soát: Công nghệ phải giúp SMB ra quyết định tốt hơn, cung cấp thông tin chính xác, hữu ích đúng lúc, đúng chỗ.
• Khách hàng: SMB xem xét kỹ liệu công nghệ có giúp củng cố mối quan hệ, mở rộng tiếp cận, thấu hiểu sâu sắc và nâng cao trải nghiệm khách hàng.
• Sự tin tưởng: Niềm tin là yếu tố không thể thiếu, đặc biệt liên quan đến bảo mật, quyền riêng tư và tuân thủ.
- Thị trường cung cấp AI cho SMB rất lớn và đang phát triển. AI tạo sinh có tiềm năng giúp SMB:
• Phân tích dữ liệu khách hàng, đưa ra đề xuất sản phẩm cá nhân hóa, quảng cáo và ưu đãi để thúc đẩy tái mua hàng.
• Cải thiện trải nghiệm khách hàng với công cụ tương tác 24/7.
- Tuy nhiên, SMB sẽ đặt câu hỏi về độ tin cậy của AI tạo sinh trong mối quan hệ khách hàng. Họ cần công nghệ đáng tin cậy, hoạt động ổn định mọi lúc.
- Cơ hội lớn nhất để SMB tận dụng AI tạo sinh là các công cụ được xây dựng ngay từ đầu hướng tới lợi ích của họ, giúp họ thực hiện các công việc tẻ nhạt, tốn thời gian một cách đơn giản, thân thiện, đáng tin cậy và tích hợp.
📌 Tóm lại, thị trường cung cấp AI cho 30 triệu SMB tại Mỹ rất tiềm năng. Để thúc đẩy áp dụng AI tạo sinh, các công ty công nghệ cần xây dựng công cụ "vừa vặn" với SMB, dựa trên 5 yếu tố: tác động, đơn giản, kiểm soát, khách hàng và sự tin tưởng. Nếu làm tốt, đây sẽ là tin tốt lành cho SMB và nền kinh tế.
https://www.forbes.com/sites/forbesbusinesscouncil/2024/03/14/the-smb-dilemma-how-to-build-ai-that-smbs-actually-need/
• 68% CEO dự đoán AI tạo sinh (GenAI) sẽ thay đổi đáng kể cách công ty tạo ra, cung cấp và thu giá trị trong 3 năm tới.
• 77% CEO đồng ý rằng GenAI có khả năng làm gia tăng lo ngại về an ninh mạng.
• Cạnh tranh từ đối thủ mới và hiện hữu cũng như nhu cầu nâng cao kỹ năng lao động là những rủi ro khác mà CEO cần xem xét.
• Minh bạch về GenAI là một phần quan trọng của quản lý rủi ro, bao gồm: 1) xây dựng câu chuyện AI bao quát tương lai của công việc, 2) trao quyền cho nhân viên, 3) ưu tiên quản trị, chiến lược rủi ro và chính sách sử dụng có trách nhiệm.
• 65% CEO Mỹ cho rằng trong 3 năm tới, GenAI sẽ làm tăng cường độ cạnh tranh trong ngành của họ.
• Tăng biên lợi nhuận là một cách để có vốn đầu tư vào phân tích dữ liệu và GenAI.
• 52% CEO cho biết mục tiêu hàng đầu trong 3 năm tới là tạo ra các dòng doanh thu mới, có thể dẫn đến thị trường tăng trưởng mạnh mẽ năm nay.
• Các nhà lãnh đạo có thể tìm kiếm các thương vụ sáp nhập và mua lại để định hình tương lai của doanh nghiệp.
📌 Với 68% CEO dự đoán GenAI sẽ thay đổi đáng kể cách tạo giá trị, an ninh mạng và cạnh tranh là mối quan tâm hàng đầu, các công ty cần tập trung vào minh bạch GenAI, tăng biên lợi nhuận và tìm kiếm dòng doanh thu mới.
https://www.fastcompany.com/91047616/genai-and-cybersecurity-top-ceo-concerns-in-new-pwc-survey
- P&G Nhật Bản sẽ áp dụng hệ thống AI dự báo nhu cầu sản phẩm vào cuối năm 2024, với mục tiêu bao phủ khoảng 70% lượng giao hàng vào năm 2025.
- Hiện P&G Nhật Bản sử dụng khoảng 180.000 xe tải/năm, việc cắt giảm 30% sẽ giảm khoảng 54.000 xe.
- Từ tháng 4, Nhật Bản sẽ hạn chế tài xế làm thêm giờ tối đa 960 giờ/năm, gây thiếu hụt nghiêm trọng. Chính phủ kêu gọi bán lẻ và bán buôn đảm bảo thời gian đủ dài từ đặt hàng đến giao hàng.
- Hệ thống dự báo nhu cầu sẽ liên kết với hệ thống quản lý hàng tồn kho của bán lẻ và bán buôn, cho phép xem thông tin tồn kho cửa hàng, trạng thái đơn hàng, biện pháp khuyến mãi theo thời gian thực.
- AI sẽ được huấn luyện về sự thay đổi doanh số do yếu tố mùa vụ và khuyến mãi để dự báo tốt hơn nhu cầu sản phẩm và ước tính số lượng xe tải cần thiết.
- Trong thử nghiệm, nhà bán lẻ sử dụng hệ thống đã đặt hàng trước 1,5 tháng so với ngày giao hàng dự kiến, có đủ thời gian lên kế hoạch tải xe hiệu quả.
- Hiện P&G không có thông tin chi tiết như xu hướng bán hàng tại từng cửa hàng và nhận nhiều đơn hàng vào phút chót. Đôi khi xe tải phải điều động gấp hoặc không đủ tải.
- Ước tính đến năm 2030, 30% hàng hóa toàn quốc sẽ không được vận chuyển do giảm nhân lực từ hạn chế làm thêm giờ.
- Theo Hiệp hội vận tải đường bộ Nhật Bản, 4,5% hàng hóa vận chuyển bằng xe tải trong năm tài chính 2021 là hàng tiêu dùng thiết yếu. P&G chiếm 30% thị phần chất tẩy rửa và 20% bỉm trong nước.
- Kao, một nhà sản xuất hàng tiêu dùng khác, đã mở kho hàng mới ở tỉnh Aichi vào năm 2023. Sử dụng hệ thống đặt chỗ mới, công ty đã giảm thời gian dỡ hàng xe tải từ vài giờ xuống dưới 1 giờ.
📌 P&G Nhật Bản sẽ ứng dụng AI dự báo nhu cầu, kết nối bán lẻ và bán buôn để cắt giảm 30% xe tải, tương đương 54.000 xe/năm vào 2025. Bước đi này nhằm đối phó tình trạng thiếu tài xế trầm trọng do quy định giới hạn giờ làm thêm từ tháng 4 và nâng cao hiệu quả logistics trước thách thức 30% hàng hóa có nguy cơ tồn đọng vào 2030.
https://asia.nikkei.com/Business/Transportation/P-G-Japan-to-cut-delivery-trucks-30-using-AI-demand-forecast
• Tích hợp AI vào tuyển dụng đang cải thiện khả năng nhận diện nhân tài, giải quyết khoảng cách kỹ năng và tạo ra môi trường tuyển dụng công bằng, đa dạng hơn.
• AI hỗ trợ nhân viên tuyển dụng tự động hóa các tác vụ lặp đi lặp lại, cho phép họ tập trung vào các khía cạnh chiến lược và sáng tạo hơn.
• Phân tích dữ liệu, nhận dạng mẫu và phân tích dự đoán của AI giúp xác định, thu hút và giữ chân ứng viên tốt hơn.
• AI đóng vai trò quan trọng trong việc giải quyết khoảng cách kỹ năng bằng cách phân tích xu hướng và dự đoán nhu cầu ngành nghề trong tương lai.
• Tích hợp AI đòi hỏi phải có cách tiếp cận cẩn trọng để tránh định kiến và phân biệt đối xử trong quá trình tuyển dụng.
• Thúc đẩy nâng cao kiến thức về AI trong nhân viên tuyển dụng và nhà tuyển dụng là điều cần thiết.
• Với thế hệ Z, AI không chỉ là công cụ mà còn là đối tác hợp tác trong hành trình nghề nghiệp của họ.
• Để thu hút và giữ chân thế hệ Z, các tổ chức cần đi đầu trong việc áp dụng công nghệ AI.
📌 Tích hợp AI vào tuyển dụng đang cách mạng hóa cách nhận diện nhân tài, giải quyết khoảng cách kỹ năng và tạo ra môi trường tuyển dụng công bằng hơn. Điều này cho phép nhân viên tuyển dụng tập trung vào các khía cạnh chiến lược, sáng tạo trong khi AI tự động hóa các tác vụ lặp đi lặp lại.
https://www.cryptopolitan.com/how-ai-is-revolutionizing-recruitment/
- Các hệ thống AI tạo sinh cho doanh nghiệp đang đưa ra các phản hồi gây hiểu lầm, không đúng với yêu cầu của người dùng hoặc hoàn toàn sai lệch.
- Vấn đề nằm ở chất lượng dữ liệu được sử dụng để huấn luyện mô hình AI. Dữ liệu kém chất lượng tạo ra mô hình AI kém.
- Các lỗi trong hệ thống AI tạo sinh có thể dẫn đến mất doanh thu hàng triệu đô la hoặc kiện tụng pháp lý.
- Người dùng thường coi kết quả từ AI tạo sinh là chân lý tuyệt đối, dẫn đến việc sai lầm không được phát hiện kịp thời.
- Hầu hết các vấn đề của doanh nghiệp với AI tạo sinh là do dữ liệu chất lượng kém hoặc dữ liệu không nên được sử dụng ngay từ đầu.
- Khắc phục vấn đề dữ liệu tốn hàng triệu đô la và nhiều tháng hoặc năm, nhưng doanh nghiệp lại chi tiền cho AI thay vì dữ liệu.
- Các hệ thống AI tạo sinh dễ bị thiên vị nếu dữ liệu huấn luyện chứa sai lệch hoặc không chính xác.
- Thiếu hiểu biết thực tế và nhạy cảm với cách diễn đạt đầu vào cũng dẫn đến kết quả "ngớ ngẩn" từ AI.
- Khả năng phân biệt dữ liệu kinh doanh với dữ liệu có thể vi phạm bản quyền hoặc sở hữu trí tuệ là một vấn đề đáng quan tâm.
📌 Các hệ thống AI tạo sinh trong kinh doanh đang gặp phải nhiều vấn đề nghiêm trọng do chất lượng dữ liệu kém, thiên vị, thiếu hiểu biết thực tế và khả năng vi phạm bản quyền. Khắc phục những vấn đề này đòi hỏi thời gian và chi phí đáng kể, nhưng lại cần thiết để tránh hậu quả tài chính và pháp lý nghiêm trọng. Doanh nghiệp cần tập trung vào việc cải thiện dữ liệu trước khi đầu tư vào AI tạo sinh.
https://www.infoworld.com/article/3714362/why-your-genai-systems-are-stupid.html
- Các công ty muốn khai thác generative AI phải tập trung vào cách công nghệ này mang lại lợi ích cho khách hàng.
- Việc cải thiện trải nghiệm khách hàng bằng generative AI đòi hỏi phải tái thiết kế các quy trình cũ và tối ưu hóa cách truy cập, phân tích và áp dụng dữ liệu.
- Các công ty cần đảm bảo dữ liệu được sử dụng bởi generative AI là chính xác và các quy trình dịch vụ khách hàng được thiết kế có thể thành công với generative AI.
- Chatbot tích hợp generative AI có thể trả lời đến 75% yêu cầu của khách hàng và con số này có thể tăng lên 95% trong tương lai.
- Các công ty cần giáo dục khách hàng để xây dựng niềm tin vào công nghệ generative AI mới.
- Tương lai của dịch vụ khách hàng là sử dụng generative AI trong toàn bộ quy trình bán hàng, tiếp thị và dịch vụ.
📌 AI tạo sinh mang lại cuộc cách mạng trong dịch vụ khách hàng, cho phép tự động hóa và tối ưu hóa các quy trình, trả lời đến 75% yêu cầu của khách hàng và con số này có thể tăng lên 95% trong tương lai nhưng đòi hỏi dữ liệu chính xác, thiết kế quy trình phù hợp và giáo dục khách hàng.
Citations:
[1] https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/131695/6e7fa4a8-73b6-4933-ad29-0dc00589ae49/paste.txt
https://www.zdnet.com/article/generative-ai-will-change-customer-service-forever-heres-how-we-get-there/
- Chi tiêu cho cơ sở hạ tầng điện toán đám mây sẽ tăng mạnh, một phần nhờ sự phổ biến của các ứng dụng AI tạo sinh như ChatGPT và Bard.
- Các tổ chức sẽ chuyển các ứng dụng quan trọng vào môi trường đa đám mây, đòi hỏi giải pháp kết nối riêng tư an toàn.
- Các công ty lớn sẽ tìm cách đơn giản hóa cơ sở hạ tầng mạng thông qua giải pháp SDCI và NaaS.
- AI sẽ trở thành hiện thực phổ biến, thúc đẩy nhu cầu về AIaaS cho các doanh nghiệp thiếu nguồn lực và chuyên môn.
- Các quy định mới và chặt chẽ hơn về AI sẽ được áp dụng, như Đạo luật AI của EU, tác động đến toàn cầu.
- Bảo mật dữ liệu là ưu tiên hàng đầu, các cuộc tấn công mạng sử dụng AI sẽ gia tăng.
- Chi phí đám mây vẫn đắt đỏ, thúc đẩy nhu cầu về dịch vụ kết nối trực tiếp và mô hình trả phí theo lượng sử dụng của NaaS.
- Thiếu hụt nhân lực có kỹ năng về phân tích dữ liệu và đào tạo mô hình AI sẽ là thách thức lớn.
📌 Năm 2024 sẽ chứng kiến sự bùng nổ của AI, thúc đẩy chi tiêu cho điện toán đám mây, chuyển đổi sang đa đám mây và nhu cầu về AIaaS. Tuy nhiên, các quy định mới về AI, thách thức bảo mật, chi phí cao và thiếu hụt nhân lực kỹ năng sẽ là những rào cản cần vượt qua. Giải pháp quản lý dịch vụ tích hợp sẽ trở nên hấp dẫn hơn cho các doanh nghiệp.
https://www.datacenterdynamics.com/en/opinions/seven-cloud-computing-trends-that-will-define-2024/
- Zapier Central Beta là một không gian thử nghiệm cho phép người dùng dạy các bot AI xử lý tác vụ trên các ứng dụng yêu thích mà không cần viết mã phức tạp.
- Công cụ này kết hợp trí tuệ nhân tạo với nền tảng tự động hóa, giúp tự động hóa các tác vụ phức tạp trên hơn 6.000 ứng dụng khác nhau.
- Người dùng có thể thiết lập các hành vi cho bot AI, quy định cách bot phản ứng với các trình kích hoạt nhất định.
- Các bot có thể kéo thông tin từ cơ sở dữ liệu bên ngoài như Google Sheets để đảm bảo luôn hoạt động trên dữ liệu mới nhất.
- Người dùng có thể tự động hóa bot AI thực hiện hành động mà không cần can thiệp thủ công bằng cách định cấu hình các điều kiện cụ thể.
- Zapier Central cung cấp giao diện trò chuyện thân thiện để tùy chỉnh bot, bao gồm các tùy chọn thêm nguồn dữ liệu, dạy hành vi và bắt đầu tương tác.
- Người dùng có thể tạo nhiều bot trong Central, mỗi bot tập trung vào các tác vụ hoặc lĩnh vực công việc khác nhau.
- Zapier đã mua lại Vowel, một công ty có chuyên môn sâu về AI, cho thấy cam kết thúc đẩy tự động hóa AI tại nơi làm việc.
📌 Zapier Central Beta là một bước tiến quan trọng trong lĩnh vực tự động hóa AI, cung cấp nền tảng mạnh mẽ và trực quan giúp người dùng dễ dàng kiểm soát quy trình làm việc. Với khả năng tạo bot AI tương tác với hơn 6.000 ứng dụng, Central mở ra tiềm năng to lớn để cải thiện hiệu quả và năng suất công việc mà không đòi hỏi kiến thức lập trình.
https://www.geeky-gadgets.com/zapier-central/
- Nghiên cứu của McKinsey chỉ ra hệ thống dựa trên AI có thể xử lý tới 70% các yêu cầu thường gặp trong nhân sự.
- Chatbot và trợ lý ảo AI giúp quy trình tuyển dụng trở nên tương tác hơn, xử lý hiệu quả các truy vấn ban đầu của ứng viên, lên lịch phỏng vấn và sàng lọc sơ bộ.
- Trong quá trình onboarding, AI hỗ trợ nhân viên tiếp cận dễ dàng các hướng dẫn tuân thủ, cập nhật và trả lời các thắc mắc thường gặp khác.
- Công cụ AI hội thoại tạo ra nền tảng đối thoại và phản hồi liên tục, được chứng minh là tăng mức độ gắn kết của nhân viên lên tới 30%.
- AI tạo ra các mô hình học tập động cho phép học viên khám phá các nền tảng phản hồi phù hợp với sở thích học tập cụ thể của họ.
- Tích hợp AI vào hệ thống nhân sự giúp đảm bảo tuân thủ hiệu quả các luật lao động và quy định phức tạp.
- 44% công ty sử dụng AI trong nhân sự báo cáo cải thiện tuân thủ theo nghiên cứu của PwC.
📌 Trí tuệ nhân tạo hội thoại đang mang lại cuộc cách mạng trong nhân sự, từ tuyển dụng, onboarding, gắn kết nhân viên đến đào tạo và tuân thủ. Với khả năng xử lý tới 70% yêu cầu thường gặp, AI giúp giải phóng nguồn lực cho các lĩnh vực quan trọng, tăng năng suất và sự hài lòng của nhân viên. Tuy nhiên, cần có sự cân bằng giữa tự động hóa và duy trì sự tương tác của con người trong quá trình triển khai AI.
https://www.inc.com/srini-pagidyala/how-to-use-power-of-conversational-ai-in-hr.html
- Báo cáo của McKinsey ước tính AI tạo sinh có thể mang lại từ 2.600 tỷ đến 4.400 tỷ USD giá trị kinh tế hàng năm, tăng 15-40% tác động của AI so với trước đây.
- Trong lĩnh vực công nghệ, truyền thông và viễn thông, AI tạo sinh dự kiến mang lại từ 380 tỷ đến 690 tỷ USD giá trị mới.
- Viễn thông có thể đạt từ 60 tỷ đến 100 tỷ USD tác động từ AI tạo sinh.
- AI tạo sinh có khả năng tự động hóa đến 60% hoạt động lao động trong vòng 20 năm tới.
- Công nghệ này có thể thúc đẩy tăng trưởng năng suất lao động toàn cầu từ 0,5% đến 3,4% mỗi năm từ 2023-2040.
- Các trường hợp sử dụng hàng đầu bao gồm: tiếp thị & bán hàng, dịch vụ khách hàng, phát triển phần mềm và nghiên cứu & phát triển.
- AI tạo sinh có thể tạo ra các sản phẩm và dịch vụ hoàn toàn mới chưa từng có.
📌 AI tạo sinh đang mở ra kỷ nguyên sản xuất và tăng trưởng mới, có khả năng mang lại hàng nghìn tỷ USD giá trị kinh tế hàng năm, đặc biệt trong lĩnh vực công nghệ, truyền thông và viễn thông.
Tác động kinh tế tiềm năng của AI tạo sinh trong viễn thông:
- AI tạo sinh dự kiến mang lại từ 60 tỷ đến 100 tỷ USD giá trị mới cho ngành viễn thông.
- Trong tổng tác động của AI tạo sinh, lĩnh vực dịch vụ khách hàng và marketing/bán hàng chiếm tỷ trọng lớn nhất, khoảng 70% tổng tác động.
- Các lĩnh vực khác như vận hành mạng, IT và các chức năng hỗ trợ chiếm khoảng 30% tổng tác động.
Các trường hợp sử dụng chính của AI tạo sinh trong viễn thông:
Dịch vụ khách hàng:
- Chatbot khách hàng siêu cá nhân hóa, có thể giảm 30-45% chi phí chức năng
- Phân tích nguyên nhân gốc rễ, hỗ trợ đào tạo nhân viên tăng 10-15% hiệu quả
- Tự động hóa ghi chép sau cuộc gọi, giảm 50-60% công việc sau cuộc gọi
Marketing & Bán hàng:
- Tạo nội dung siêu cá nhân hóa, tăng 15-30% tỷ lệ chuyển đổi
- Tạo nội dung marketing thông minh, tăng 10% tỷ lệ chuyển đổi
- Phân tích phản hồi khách hàng, tăng 10 điểm hài lòng khách hàng
Vận hành mạng:
- Tự phục hồi mạng, tăng 20-30% năng suất nhân viên
- Xác định nguyên nhân gốc rễ, giảm 6-12% phiếu yêu cầu chăm sóc khách hàng
- Quản lý sự cố di động, giảm 30-35% cuộc gọi liên quan đến sự cố
IT:
- Đồng hành phát triển phần mềm, tăng 25-30% năng suất
- Tối ưu hóa mã, tăng 40-55% năng suất
- Di chuyển mã di sản, tăng 20-30% năng suất
Các yếu tố thành công chính:
- Xây dựng chiến lược rõ ràng về khi nào xây dựng, mua hay điều chỉnh giải pháp AI tạo sinh
- Nâng cao năng lực nhân viên về AI tạo sinh thông qua đào tạo và tuyển dụng
- Áp dụng mô hình vận hành cho việc triển khai AI tạo sinh quy mô
- Xây dựng kiến trúc công nghệ cho tốc độ và đổi mới với AI tạo sinh
- Quản lý dữ liệu chất lượng cao và trách nhiệm để huấn luyện mô hình
- Thực hiện quản lý thay đổi để đảm bảo áp dụng và nhân rộng AI tạo sinh
Tóm lại, AI tạo sinh mở ra nhiều cơ hội giúp các nhà khai thác viễn thông tăng năng suất, cải thiện trải nghiệm khách hàng và tạo ra các dịch vụ/sản phẩm mới. Tuy nhiên, để khai thác hiệu quả, cần có chiến lược rõ ràng, nâng cao năng lực nhân sự, xây dựng kiến trúc công nghệ và quy trình phù hợp.
Citations:
[1] https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/beyond-the-hype-capturing-the-potential-of-ai-and-gen-ai-in-tmt#/
#Mckinsey
- Năm 2024 sẽ là năm gen AI chứng minh giá trị của mình. Các công ty cần phải tái cấu trúc tổ chức để tận dụng tiềm năng to lớn của gen AI.
- Để tạo lợi thế cạnh tranh, doanh nghiệp nên tập trung vào việc xây dựng các ứng dụng "shaper" sử dụng dữ liệu độc quyền.
- Cần đào tạo nâng cao kỹ năng gen AI cho nhân sự hiện có như kỹ sư dữ liệu, nhà khoa học dữ liệu. Kỹ năng gen AI không chỉ là lập trình mà còn cần các kỹ năng thiết kế, hiểu ngữ cảnh, hợp tác.
- Một đội ngũ trung tâm cần được thành lập để thiết lập các tiêu chuẩn, quy trình nhằm hỗ trợ mở rộng quy mô gen AI.
- Kiến trúc công nghệ cần tập trung vào tái sử dụng, kết nối hiệu quả giữa mô hình gen AI và hệ thống nội bộ, nâng cao năng lực kiểm thử và đảm bảo chất lượng.
- Chất lượng dữ liệu, đặc biệt là dữ liệu phi cấu trúc, rất quan trọng với hiệu suất của mô hình gen AI.
- Xây dựng niềm tin và khả năng tái sử dụng là then chốt để thúc đẩy việc áp dụng và mở rộng quy mô gen AI.
📌 Năm 2024, gen AI cần chứng minh giá trị thực tế. Để tận dụng tiềm năng to lớn của gen AI, các công ty phải tái cấu trúc tổ chức trên 6 năng lực cốt lõi: ưu tiên lĩnh vực, nâng cao kỹ năng, thiết lập tiêu chuẩn, kiến trúc công nghệ, chất lượng dữ liệu và xây dựng niềm tin.
Citations:
[1] https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/a-generative-ai-reset-rewiring-to-turn-potential-into-value-in-2024
#Mckinsey
- CEO Walmart Doug McMillon đã ca ngợi khả năng tìm kiếm AI tạo sinh của công ty, cho phép người dùng tìm kiếm dựa trên chủ đề như bữa tối hay buổi hẹn hò thay vì từng mặt hàng riêng lẻ.
- Đây là một mối đe dọa mới đối với sự thống trị của Google trên Internet. Alphabet, công ty mẹ của Google, đang là một trong những công ty công nghệ thua lỗ lớn trên thị trường chứng khoán năm nay.
- Đồng sáng lập Google Sergey Brin thừa nhận những sai lầm trong việc ra mắt chatbot Gemini, nhưng tin rằng công ty sẽ tìm ra mô hình kinh doanh phù hợp.
- Các nhà bán lẻ trực tuyến như Walmart, Amazon, Instacart đang đầu tư mạnh vào tìm kiếm AI, cho phép khách hàng tìm sản phẩm dựa trên chủ đề, trò chuyện với trợ lý ảo.
- Các chuyên gia nhận định xu hướng này sẽ trở thành chuẩn mực cho các nhà bán lẻ trực tuyến và có thể gây áp lực lên mô hình tìm kiếm truyền thống của Google, mặc dù Google vẫn đang thống trị thị trường tìm kiếm tổng thể.
📌 Walmart và các nhà bán lẻ trực tuyến khác đang đầu tư mạnh vào công nghệ tìm kiếm AI tạo sinh, cho phép người dùng tìm sản phẩm theo chủ đề, trò chuyện với trợ lý ảo thay vì dùng từ khóa đơn lẻ. Xu hướng này đặt ra thách thức cho mô hình tìm kiếm và quảng cáo truyền thống của Google, buộc gã khổng lồ công nghệ phải thích ứng nhanh với kỷ nguyên AI mới.
Citations:
[1] https://www.cnbc.com/2024/03/10/why-walmarts-quick-success-in-gen-ai-search-should-worry-google.html
#hay
- Cuộc khảo sát 600 nhà lãnh đạo CNTT của Salesforce cho thấy áp lực lớn từ cấp lãnh đạo trong việc tích hợp AI tạo sinh vào hệ thống công nghệ.
- Tuy nhiên, 9/10 chuyên gia CNTT không đủ năng lực đáp ứng lượng yêu cầu liên quan đến AI tăng vọt.
- 87% tin rằng AI tạo sinh đã đáp ứng hoặc vượt quá kỳ vọng.
- 86% cho rằng công việc của họ trở nên quan trọng hơn kể từ khi AI tạo sinh ra đời.
- 68% cho biết lãnh đạo kỳ vọng họ trở thành chuyên gia về AI tạo sinh.
- Lãnh đạo cấp cao là nhóm đòi hỏi triển khai AI tạo sinh nhanh nhất.
- Gần 3/5 chuyên gia CNTT cho rằng các bên liên quan có kỳ vọng không hợp lý về tốc độ và khả năng triển khai công nghệ mới.
- 9/10 chuyên gia CNTT nói AI tạo sinh đã thay đổi cách nhìn nhận việc triển khai công nghệ mới.
- Có sự bất đồng giữa ưu tiên của lãnh đạo và nhóm CNTT: lãnh đạo ưu tiên tốc độ, còn CNTT ưu tiên an ninh và chất lượng dữ liệu.
- 48% chuyên gia CNTT thừa nhận khó cân bằng tốc độ, giá trị kinh doanh và an ninh khi triển khai công nghệ mới.
- 31% thiếu thời gian để triển khai và đào tạo mô hình, thuật toán AI.
- 48% lo ngại cơ sở hạ tầng an ninh không theo kịp nhu cầu đổi mới.
- 45% lo lắng hạ tầng quản lý dữ liệu không đáp ứng nhu cầu đổi mới.
📌 Nghiên cứu cho thấy 9/10 tổ chức CNTT không đủ năng lực đáp ứng nhu cầu triển khai AI tạo sinh ngày càng tăng, dẫn đến áp lực lớn từ lãnh đạo doanh nghiệp đòi hỏi triển khai nhanh chóng nhưng thiếu cân nhắc về an ninh, chất lượng dữ liệu và hạ tầng.
https://www.zdnet.com/article/generative-ai-is-the-technology-that-it-feels-most-pressure-to-exploit/
- Gần 1,5 năm kể từ khi ChatGPT 3.5 ra mắt, các doanh nghiệp và cá nhân đã đổ xô khám phá công nghệ AI tạo sinh (GenAI) vì lo sợ bị bỏ lỡ, bị đối thủ vượt mặt.
- Nhiều báo cáo ca ngợi sức mạnh cải tổ của GenAI và ảnh hưởng của nó đến tương lai việc làm. Báo chí cũng liên tục nhắc nhở về nguy cơ mất việc hàng loạt.
- Đến nay, cơn sốt GenAI có vẻ đã lắng xuống phần nào. Nhiều công ty vẫn loay hoay với câu hỏi làm thế nào để tận dụng GenAI để tiết kiệm chi phí và tăng hiệu quả đáng kể.
- Có vài lý do khiến các công ty gặp khó khăn trong việc áp dụng GenAI: 1) Nhiều doanh nghiệp vẫn đang vật lộn với việc tích hợp AI truyền thống vào hoạt động; 2) GenAI phức tạp hơn nhiều và phục vụ các mục đích cụ thể; 3) Hàm ý dài hạn của việc áp dụng GenAI vẫn còn bất định.
- Thị trường GenAI đang trở nên đông đúc với sự tham gia của cả các ông lớn công nghệ và các công ty mới nổi. Cạnh tranh giữa các công ty GenAI gợi nhớ đến những ngày đầu của cuộc đấu giữa iOS và Android.
- Để tận dụng GenAI, các công ty nên: 1) Chọn hiệu suất hơn tính mới lạ; 2) Kết hợp GenAI với các công cụ như cơ sở dữ liệu vector; 3) Đừng quên yếu tố con người; 4) Truy xuất dữ liệu; 5) Có kỳ vọng thực tế.
📌 Bài viết trên Harvard Business Review cho rằng có 3 lý do khiến các công ty gặp khó khăn trong việc áp dụng AI tạo sinh: 1) Nhiều doanh nghiệp vẫn đang vật lộn với việc tích hợp AI truyền thống vào hoạt động; 2) GenAI phức tạp hơn nhiều và phục vụ các mục đích cụ thể; 3) Hàm ý dài hạn của việc áp dụng GenAI vẫn còn bất định. Để tận dụng AI tạo sinh, các công ty nên: 1) Chọn hiệu năng hơn tính mới lạ; 2) Kết hợp AI tạo sinh với các công cụ như cơ sở dữ liệu vector; 3) Đừng quên yếu tố con người; 4) Truy xuất dữ liệu; 5) Có kỳ vọng thực tế.
Citations:
[1] https://hbr.org/2024/03/why-adopting-genai-is-so-difficult
- Accenture, tập đoàn tư vấn toàn cầu, đã hợp tác với Cohere, startup AI hàng đầu, để cung cấp giải pháp AI tạo sinh cho doanh nghiệp.
- Mô hình ngôn ngữ lớn (LLM) Command của Cohere cùng công nghệ tìm kiếm doanh nghiệp tiên tiến như Embed và Rerank sẽ là nền tảng cho các giải pháp AI.
- Hợp tác nhằm giúp doanh nghiệp tích hợp AI vào hoạt động kinh doanh một cách quy mô, đồng thời ưu tiên bảo mật và quyền riêng tư dữ liệu.
- Công nghệ của Cohere có khả năng Tạo sinh được tăng cường bởi truy xuất dữ liệu (RAG), giúp tăng cường độ chính xác và kịp thời của nội dung do AI tạo ra.
- Mô hình Command của Cohere đã được áp dụng thành công trong việc hỗ trợ đội ngũ Tài chính và Kho bạc của Accenture.
- Aidan Gomez, đồng sáng lập và CEO của Cohere, cho biết hợp tác sẽ ảnh hưởng ngay lập tức đến hơn 9.000 khách hàng doanh nghiệp của Accenture.
- Accenture đã đầu tư 3 tỷ đô la vào AI và cùng với công nghệ đổi mới của Cohere, hợp tác này hứa hẹn sẽ chiếm lĩnh một phần lớn thị trường AI doanh nghiệp đang mở rộng.
- Cuộc đua mang AI tạo sinh đến doanh nghiệp đang nóng lên với sự tham gia của các ông lớn công nghệ và startup sáng tạo.
- Báo cáo Tương lai Công việc 2023 của Diễn đàn Kinh tế Thế giới dự đoán gần một phần tư tất cả công việc sẽ thay đổi trong 5 năm tới, và 50% tất cả nhân viên sẽ cần được đào tạo lại.
📌 Accenture, tập đoàn tư vấn toàn cầu, đã hợp tác với Cohere, startup AI hàng đầu, để cung cấp giải pháp AI tạo sinh cho doanh nghiệp. Hợp tác sẽ ảnh hưởng ngay lập tức đến hơn 9.000 khách hàng doanh nghiệp của Accenture. Accenture đã đầu tư 3 tỷ đô la vào AI cùng với công nghệ của Cohere có khả năng tạo sinh được tăng cường bởi truy xuất dữ liệu (RAG), giúp tăng cường độ chính xác và kịp thời của nội dung do AI tạo ra.
https://venturebeat.com/ai/accenture-partners-with-cohere-to-bring-generative-ai-to-enterprises/
- Năm 2024 là điểm nổi bật cho việc tích hợp AI tạo sinh (Gen AI) vào dịch vụ đám mây, đặc biệt quan trọng đối với các doanh nghiệp nhỏ và vừa (SMMEs).
- Các công ty đang chuyển dần sang đám mây và cần đảm bảo các biện pháp bảo mật mạnh mẽ để tránh rủi ro an ninh mạng.
- Việc kết hợp Gen AI và công nghệ đám mây cần được xem xét một cách tổng thể, không phải như hai thực thể riêng biệt.
- Các chuyên gia ngành công nghiệp nhấn mạnh tầm quan trọng của việc tối ưu hóa sự kết hợp giữa Gen AI và đám mây để thúc đẩy đổi mới và nâng cao hiệu quả hoạt động.
- Các vấn đề chính như chiến lược dữ liệu, di chuyển dữ liệu sang đám mây, phát triển mô hình và sử dụng kết quả AI cần được xem xét kỹ lưỡng.
- Sự chuyển đổi này dẫn đến việc áp dụng chiến lược đa đám mây, mang lại sự linh hoạt không giới hạn cho các doanh nghiệp để tối ưu hóa cơ sở hạ tầng đám mây theo yêu cầu riêng.
📌 Năm 2024 chứng kiến sự tích hợp mạnh mẽ giữa AI tạo sinh và dịch vụ đám mây, tạo ra một bước ngoặt trong lĩnh vực công nghệ cho các SMMEs. Việc kết hợp chặt chẽ giữa hai công nghệ này không chỉ thúc đẩy đổi mới và hiệu quả hoạt động mà còn yêu cầu các doanh nghiệp phải tập trung vào việc xây dựng chiến lược dữ liệu và bảo mật mạnh mẽ. Chiến lược đa đám mây đang mở ra sự linh hoạt và cá nhân hóa cho cơ sở hạ tầng công nghệ của các tổ chức.
Citations:
[1] https://www.cryptopolitan.com/unlocking-cloud-potential-gen-ai-integration/
• Google Cloud đang tích hợp AI vào công cụ phân tích dữ liệu của mình, bao gồm việc kết hợp BigQuery với Vertex AI.
• Quy trình làm việc từ dữ liệu đến AI được tạo điều kiện thông qua BigQuery Studio, giúp người dùng dễ dàng tạo mô hình máy học trong BigQuery ML.
• Cải tiến cũng được mở rộng đến Looker và Looker Studio, thể hiện cam kết của Google trong việc phát triển trí tuệ doanh nghiệp.
• Gerrit Kazmaier, Phó Chủ tịch và Tổng quản lý về Cơ sở dữ liệu, Phân tích dữ liệu, và Looker tại Google Cloud, nhấn mạnh vai trò quan trọng của AI trong việc khai thác giá trị từ dữ liệu doanh nghiệp.
• AI có khả năng nhanh chóng kết hợp dữ liệu có cấu trúc và không có cấu trúc, vượt qua tốc độ phân tích của con người.
• Google sử dụng nền tảng công nghệ tìm kiếm và chuyên môn về mô hình transformer để tái định nghĩa tìm kiếm dữ liệu doanh nghiệp, mục tiêu là tạo ra một giao diện thân thiện cho mỗi điểm dữ liệu công ty.
• Chiến lược phân tích dữ liệu của Google không chỉ giới hạn ở big data mà còn bao gồm việc tích hợp nhiều điểm dữ liệu vào phân tích.
📌 Google Cloud đang thực hiện bước tiến quan trọng trong việc tích hợp AI vào chiến lược phân tích dữ liệu của mình, với mục tiêu cầu nối giữa dữ liệu có cấu trúc và không có cấu trúc. Sự kết hợp giữa BigQuery và Vertex AI, cùng với việc tạo điều kiện cho quy trình làm việc từ dữ liệu đến AI trong BigQuery Studio, mở ra cơ hội mới cho người dùng trong việc tạo mô hình máy học. Với việc tận dụng công nghệ tìm kiếm và chuyên môn về mô hình transformer, Google không chỉ tái định nghĩa tìm kiếm dữ liệu doanh nghiệp mà còn nhấn mạnh mục tiêu tạo ra một giao diện thân thiện cho mỗi điểm dữ liệu công ty, mở ra hướng tiếp cận mới trong việc khai thác giá trị từ dữ liệu doanh nghiệp.
Citations:
[1] https://www.cryptopolitan.com/google-cloud-integrates-ai-in-data-analytics/
- Microsoft công bố ra mắt Copilot AI dành cho nhân viên tài chính, có khả năng thực hiện các công việc cụ thể trong Excel và Outlook.
- Công cụ mới này đã được thử nghiệm bởi bộ phận tài chính của Microsoft và đã chứng minh giúp tiết kiệm thời gian.
- Copilot AI sẽ được cung cấp đầu tiên dưới dạng bản xem trước công cộng, với chi tiết giá cả sẽ được công bố sau.
- Các nhà cung cấp phần mềm doanh nghiệp khác như HubSpot và Salesforce cũng đang nỗ lực tích hợp AI tạo sinh vào sản phẩm của họ sau khi OpenAI ra mắt ChatGPT vào năm 2022.
- Copilot AI cho tài chính sẽ ban đầu hỗ trợ phân tích biến động, đối chiếu dữ liệu trong Excel và tăng tốc quá trình thu hồi nợ trong Outlook.
- Phần mềm có thể sử dụng thông tin từ SAP và Microsoft Dynamics 365, và sẽ có thêm tính năng mới trong năm nay.
- Công ty quảng cáo Nhật Bản Dentsu sẽ sử dụng Copilot AI cho các nhiệm vụ tài chính.
- Mục tiêu là giảm thời gian làm việc mệt mỏi cho nhân viên và tạo điều kiện cho họ tham gia vào công việc thú vị hơn, đóng góp nhiều hơn cho công ty.
📌 Microsoft đã chính thức giới thiệu Copilot AI, một công cụ chatbot dành cho nhân viên tài chính trong Excel và Outlook. Với việc thử nghiệm thành công tại bộ phận tài chính của chính Microsoft, công cụ này hứa hẹn sẽ mang lại lợi ích đáng kể cho người dùng, giúp họ giảm bớt thời gian dành cho các công việc lặp đi lặp lại và tập trung vào những nhiệm vụ có giá trị cao hơn. Copilot AI sẽ được cung cấp trước tiên dưới dạng bản xem trước công cộng và sẽ được tích hợp với các dữ liệu từ SAP và Microsoft Dynamics 365, cùng với việc triển khai thêm tính năng mới trong năm nay, mở ra triển vọng mới cho việc áp dụng AI trong lĩnh vực tài chính.
Citations:
[1] https://www.cnbc.com/2024/02/29/microsoft-introduces-copilot-ai-chatbot-for-finance-workers.html
- Các công ty tư vấn đang thử nghiệm với công nghệ AI để đáp ứng nhu cầu của khách hàng và tối ưu hóa công việc của chính họ.
- Fiona Czerniawska từ Source Global nhận định rằng AI sẽ giúp các công ty tư vấn hiệu quả và lợi nhuận hơn nhờ tiết kiệm thời gian thu thập và phân tích dữ liệu.
- McKinsey đã triển khai nền tảng Lilli, giúp tìm kiếm và tổng hợp kiến thức sâu rộng của công ty, bao gồm các nghiên cứu và trường hợp trước đây.
- EY đầu tư 1.4 tỷ đô la vào nền tảng AI của mình, EY.ai, kết hợp mô hình ngôn ngữ lớn độc quyền với các công nghệ khác và chuyên môn của con người.
- KPMG hợp tác với Microsoft để phát triển công cụ AI cho nhân viên và khách hàng của mình.
- Czerniawska nhấn mạnh rằng các công ty tư vấn cần có chính sách rõ ràng về việc sử dụng AI, có thể thông qua việc tạo ra "hiến chương AI" hoặc hướng dẫn sử dụng.
- Vương quốc Anh và Liên minh Châu Âu đang tăng cường quy định về AI, với UK đang tham vấn về một bản trắng quy định AI và EU đồng ý về điều khoản của Đạo luật AI quan trọng.
- Tổng thống Hoa Kỳ Joe Biden đã ban hành một sắc lệnh hành pháp về AI với mục tiêu tương tự.
- Các công ty cần minh bạch về cách sử dụng AI, đặc biệt là khi viết báo cáo cho khách hàng, với 35% khách hàng muốn công ty tư vấn công khai phần nào của báo cáo được tạo ra bởi AI.
- Các rủi ro cụ thể của AI bao gồm lỗi chương trình có thể gây ra thiệt hại đắt giá và vấn đề về độ chính xác của dữ liệu.
📌 Các công ty tư vấn đang chuyển mình để thích ứng với kỷ nguyên AI, không chỉ để cải thiện hiệu quả và lợi nhuận của chính họ mà còn để cung cấp dịch vụ tư vấn cho khách hàng. Việc đầu tư lớn vào công nghệ AI như EY với 1,4 tỷ đô la vào EY.ai và sự hợp tác giữa KPMG và Microsoft cho thấy xu hướng này đang ngày càng phổ biến. Tuy nhiên, sự minh bạch và quản lý rủi ro, đặc biệt là trong việc sử dụng AI để tạo ra sản phẩm và dịch vụ, trở nên quan trọng hơn bao giờ hết. 35% khách hàng muốn công ty tư vấn công khai phần nào của báo cáo được tạo ra bởi AI. Các công ty cần phải chuẩn bị cho các quy định mới từ các chính phủ, như Đạo luật AI của EU dự kiến có hiệu lực vào năm 2026 và các sắc lệnh từ Tổng thống Hoa Kỳ.
Citations:
[1] https://www.ft.com/content/a1c73efe-96bb-4ab8-9766-3960f0080925
- CEO Salesforce, Marc Benioff, đã chia sẻ với CNBC's Jim Cramer rằng sản phẩm Einstein Copilot của công ty có sự khác biệt so với các chương trình AI khác bởi cách thức nó sử dụng dữ liệu của khách hàng để đưa ra quyết định.
- Salesforce đã đưa ra hướng dẫn doanh thu yếu khi báo cáo thu nhập vào thứ Tư.
- Benioff nhấn mạnh rằng Salesforce sở hữu các giao diện người dùng xuất sắc như Sales Cloud, Service Cloud, Marketing Cloud, Tableau và Slack, đều là những phương tiện tuyệt vời để tương tác với dữ liệu.
- Điểm đặc biệt của Einstein Copilot là khả năng đi sâu vào dữ liệu với trí tuệ nhân tạo và cung cấp cái nhìn độc đáo nhờ vào việc dữ liệu được tích hợp và sống động hàng ngày trong hệ thống của Salesforce.
- Salesforce được xây dựng trên nền tảng dữ liệu và metadata phong phú, cho phép tạo ra những hiểu biết độc đáo từ dữ liệu đó.
📌 CEO Marc Benioff của Salesforce đã làm rõ về sự độc đáo của Einstein Copilot, nhấn mạnh vào khả năng sử dụng dữ liệu khách hàng một cách sâu sắc để đưa ra quyết định. Điểm nổi bật của sản phẩm này không chỉ là việc tích hợp với các giao diện người dùng hiện có như Sales Cloud hay Slack mà còn ở khả năng phân tích và cung cấp cái nhìn sâu sắc từ dữ liệu, điều mà được thực hiện nhờ vào cơ sở dữ liệu và metadata phong phú của Salesforce.
Citations:
[1] https://www.cnbc.com/2024/02/28/salesforce-ceo-explains-why-the-einstein-copilot-product-is-unique.html
- GitHub, nền tảng hàng đầu cho phát triển phần mềm nguồn mở, đã giới thiệu Copilot Enterprise, một sản phẩm mới nhằm giúp các doanh nghiệp lớn tận dụng sức mạnh của trí tuệ nhân tạo trong các dự án lập trình của họ.
- Copilot Enterprise là một trợ lý AI có khả năng tạo ra gợi ý mã, trả lời truy vấn và tóm tắt các thay đổi dựa trên cơ sở mã và tiêu chuẩn của tổ chức.
- Sản phẩm mới này đánh dấu một sự thay đổi lớn trong cách thức hoạt động của các đội ngũ kỹ sư phần mềm, đặt một lập trình viên AI bên cạnh mỗi nhà phát triển.
- Mario Rodriguez, Phó Chủ tịch Sản phẩm của GitHub, nhấn mạnh sự chuyển đổi từ kỹ thuật số sang AI cho các công ty doanh nghiệp, và cho rằng Copilot Enterprise sẽ tạo ra một sự chênh lệch năng suất đáng kể giữa những người sử dụng và không sử dụng nó.
- Copilot Enterprise không chỉ là một công cụ mở rộng so với phiên bản Copilot miễn phí mà còn tích hợp sâu vào quy trình phát triển phần mềm, thúc đẩy việc tuân thủ các phương pháp tốt nhất của tổ chức và doanh nghiệp.
- GitHub đã vượt qua 100 triệu người dùng, khẳng định vị thế tiêu chuẩn ngành cho sự hợp tác phần mềm. Các đối tác thử nghiệm đầu tiên như Accenture đã chứng kiến những lợi ích năng suất đáng kể từ các công cụ lập trình AI như Copilot Enterprise, với việc tăng 50% số lần xây chỉ từ tính năng tự động hoàn thành mã.
- Mặc dù có sự hoài nghi về việc mã do AI tạo ra có thể thiếu tính sáng tạo hoặc thậm chí giới thiệu các lỗi mới, Rodriguez đã mạnh mẽ bác bỏ quan điểm này, khẳng định rằng sự sáng tạo của con người sẽ tiếp tục được tăng tốc nhờ Copilot, với con người ở trung tâm của quá trình sử dụng công cụ.
📌 GitHub Copilot Enterprise không chỉ là một bước tiến trong việc áp dụng AI vào lập trình mà còn là một minh chứng cho sự chuyển đổi từ kỹ thuật số sang AI trong các doanh nghiệp. Sản phẩm này hứa hẹn sẽ tạo ra một sự chênh lệch năng suất đáng kể giữa những người sử dụng và không sử dụng nó, với khả năng tăng 50% số lần xây chỉ từ tính năng tự động hoàn thành mã. Điều này không chỉ thúc đẩy việc tuân thủ các phương pháp tốt nhất của tổ chức mà còn khẳng định vai trò của con người trong quá trình sáng tạo, với AI là công cụ hỗ trợ chứ không thay thế.
Citations:
[1] https://venturebeat.com/ai/github-launches-copilot-enterprise-an-ai-coding-assistant-for-businesses/
- Báo cáo thu nhập gần đây của Nvidia cho thấy sự sẵn lòng chi tiêu lớn của các công ty cho AI, với doanh thu quý đạt 22.1 tỷ USD và dự báo 24 tỷ USD cho quý tiếp theo.
- Nvidia chiếm thị phần hơn 80% trong lĩnh vực AI, với GPU của họ là nền tảng cho các hệ thống AI tiên tiến nhất.
- Các công ty công nghệ là nguồn cầu lớn, sử dụng GPU của Nvidia để xây dựng cơ sở hạ tầng vật lý cho AI, đáp ứng nhu cầu tăng cao từ khách hàng doanh nghiệp.
- Eli Lilly thiết lập quỹ đặc biệt cho AI, với Diogo Rau, Giám đốc Thông tin và Kỹ thuật số, là người quản lý quỹ này mà không ảnh hưởng đến các khoản đầu tư khác của bộ phận công nghệ.
- 72% CEO tại Mỹ xem generative AI là ưu tiên đầu tư hàng đầu, theo khảo sát của KPMG.
- Generative AI trở nên phổ biến sau khi OpenAI phát hành chatbot ChatGPT vào cuối năm 2022.
- CarMax sử dụng AI trong chiến lược kinh doanh kết hợp trực tuyến và cửa hàng truyền thống, cũng như trong việc cải thiện trải nghiệm khách hàng và nhân viên.
- Travelers, nhà cung cấp bảo hiểm, tăng chi tiêu công nghệ trong 5 năm qua, với hơn 1.5 tỷ USD vào năm 2023, bao gồm đầu tư vào AI và công nghệ đám mây hiện đại.
📌 72% CEO tại Mỹ xem AI tạo sinh là ưu tiên đầu tư hàng đầu, theo khảo sát của KPMG. Báo cáo thu nhập gần đây của Nvidia là minh chứng cho thấy sự sẵn lòng chi tiêu lớn của các công ty cho AI, với doanh thu quý đạt 22.1 tỷ USD và dự báo 24 tỷ USD cho quý tiếp theo, phản ánh sức mạnh của làn sóng AI. Sự phổ biến của generative AI, đặc biệt sau khi OpenAI phát hành ChatGPT, đã mở ra một không gian ứng dụng mới và thúc đẩy sự tăng trưởng của Nvidia. Các công ty như Eli Lilly, CarMax và Travelers đã tích cực đầu tư vào AI, từ việc thiết lập quỹ đặc biệt cho AI đến việc tích hợp công nghệ vào các chiến lược kinh doanh, cho thấy AI đang trở thành ưu tiên hàng đầu trong chiến lược đầu tư công nghệ của doanh nghiệp.
https://www.wsj.com/articles/corporate-ai-investment-is-surging-to-nvidias-benefit-5611ffc5?mod=djemCIO
- 38% nhà lãnh đạo doanh nghiệp xem trải nghiệm và giữ chân khách hàng là mục tiêu chính của việc đầu tư vào AI tạo sinh.
- Việc sử dụng mô hình ngôn ngữ lớn (LLM) sẵn có có thể gặp phải các thách thức như trải nghiệm khách hàng quá chung chung, chi phí tăng do phải nhúng mô hình từ bên ngoài, và lo ngại về bảo mật dữ liệu.
- Đào tạo một mô hình AI nội bộ có thể giải quyết những lo ngại này, đồng thời khuyến khích sự sáng tạo và đổi mới trong nhóm để sử dụng mô hình cho các dự án khác.
- Trước khi bắt đầu tạo mô hình AI nội bộ, cần xác định rõ vấn đề kinh doanh và các nhiệm vụ ngôn ngữ tự nhiên cần giải quyết.
- Quá trình đào tạo và tinh chỉnh mô hình AI nội bộ bao gồm việc kiểm tra kỹ lưỡng, xác định điểm yếu, và phân tích mô hình, có thể mất nhiều thời gian nhưng sẽ đáng giá lâu dài.
- Dữ liệu của tổ chức là tài sản quan trọng nhất cần được đánh giá trước khi đào tạo LLM của riêng mình.
- Cần có đủ chuyên gia sẵn có để đào tạo mô hình AI, vì con người vẫn cần tạo ra dữ liệu đáng tin cậy sử dụng trong quá trình đào tạo.
- Đào tạo một mô hình AI nội bộ là một quá trình tốn kém và mất thời gian, phụ thuộc vào vấn đề kinh doanh, chất lượng dữ liệu sẵn có, và số lượng chuyên gia và kỹ sư AI tham gia.
📌 Khi xem xét việc tích hợp AI tạo sinh vào chiến lược kinh doanh, các nhà lãnh đạo cần cân nhắc liệu việc tạo một mô hình ngôn ngữ lớn nội bộ có phù hợp với tổ chức của họ hay không. Việc đào tạo một mô hình AI nội bộ đòi hỏi sự đầu tư lớn về thời gian và nguồn lực nhưng có thể giải quyết các vấn đề về trải nghiệm khách hàng chung chung, chi phí cao từ việc nhúng mô hình từ bên ngoài, và lo ngại về bảo mật dữ liệu. Điều quan trọng là phải xác định rõ vấn đề kinh doanh cần giải quyết và đánh giá kỹ lưỡng dữ liệu sẵn có cũng như nguồn lực chuyên môn trước khi bắt đầu. Mặc dù quá trình này có thể mất nhiều thời gian, nó sẽ mang lại giá trị lâu dài cho tổ chức bằng cách tạo ra một giải pháp AI phù hợp với nhu cầu cụ thể của họ.
Citations:
[1] https://www.infoworld.com/article/3713183/is-creating-an-in-house-llm-right-for-your-organization.html
- Sự phổ biến của trí tuệ nhân tạo và AI tạo sinh khiến nhiều tổ chức tự hỏi liệu có cần một giám đốc AI (CAIO) hay không.
- Gartner nhận định rằng mỗi khi có một sự gián đoạn hoặc kỷ nguyên công nghệ mới, không nhất thiết phải tạo thêm một vai trò C-suite.
- Thay vì tập trung vào việc tạo ra một chức danh hoặc vai trò mới, các tổ chức nên tập trung vào giá trị của AI.
- Các tổ chức nên có một người đứng đầu AI thay vì một CAIO vì một vị trí ở cấp C-suite mất nhiều năm để xây dựng, chấp nhận và biện minh.
- Các CIO của tổ chức đã trở thành người đứng đầu AI mặc định, với 51% CEO kỳ vọng CIO hoặc lãnh đạo công nghệ của họ khai thác giá trị của AI tạo sinh cho doanh nghiệp.
- Người đứng đầu AI nên xây dựng một câu chuyện giá trị gắn liền với chiến lược kinh doanh của tổ chức, minh họa tiến trình hướng tới kết quả kinh doanh.
📌 Các tổ chức cần nhận thức rằng việc áp dụng AI vào chiến lược kinh doanh là quan trọng hơn việc tạo ra một vị trí Giám đốc AI mới. Việc này đòi hỏi một sự chuyển đổi trong cách tiếp cận, từ việc tập trung vào công nghệ sang việc tập trung vào giá trị kinh doanh mà AI mang lại. Các CIO và lãnh đạo công nghệ khác đang dần trở thành những người đứng đầu AI mặc định, với trách nhiệm khai thác giá trị của AI tạo sinh cho doanh nghiệp. Điều này cho thấy sự cần thiết của việc tích hợp AI vào chiến lược kinh doanh chung của tổ chức, thay vì xem xét nó như một lĩnh vực riêng biệt cần được quản lý bởi một Giám đốc AI.
Citations:
[1] Organizations need a business-driven AI strategy, not a CAIO - SiliconANGLE https://siliconangle.com/2024/02/23/organizations-need-business-driven-ai-strategy-not-caio/
- AI tạo sinh (genAI) dựa trên Mô hình Ngôn Ngữ Lớn (LLMs) ra mắt vào năm 2022, thu hút sự chú ý của giới lãnh đạo doanh nghiệp và người tiêu dùng.
- GenAI mở ra kỷ nguyên công nghệ mới, tạo cơ hội và thách thức cho các doanh nghiệp trong việc tận dụng công nghệ để tạo ra sự khác biệt.
- Các nhà cung cấp đang đưa ra thị trường các sản phẩm và công cụ hỗ trợ genAI, khiến các nhà lãnh đạo và nhà phát triển phần mềm cảm thấy quá tải.
- Mô hình dữ liệu dựa trên tài liệu của MongoDB Atlas giúp kết hợp dữ liệu độc quyền với hiểu biết từ LLMs, tạo ra trải nghiệm AI độc đáo.
- Dữ liệu độc quyền, cả cấu trúc và không cấu trúc, có thể được chuyển đổi thành vector embeddings, giúp nắm bắt ý nghĩa ngữ nghĩa và thông tin ngữ cảnh.
- Gradient, công ty AI được sáng lập bởi cựu lãnh đạo các đội ngũ AI tại Google, Netflix, và Splunk, cung cấp nền tảng cho doanh nghiệp xây dựng và triển khai giải pháp AI tùy chỉnh.
- Gradient sử dụng LLMs tiên tiến và vector embeddings kết hợp với MongoDB Atlas Vector Search để lưu trữ, lập chỉ mục và truy xuất dữ liệu vector chiều cao, và LlamaIndex cho tích hợp dữ liệu.
📌 Để tạo sự khác biệt trên thị trường khi AI tạo sinh ngày càng phổ biến, việc tận dụng dữ liệu độc quyền và áp dụng mô hình dữ liệu mới như MongoDB Atlas là chìa khóa. Công ty Gradient đã minh chứng cho điều này bằng cách cung cấp một nền tảng cho phép doanh nghiệp xây dựng các ứng dụng AI tùy chỉnh hiệu suất cao và tiết kiệm chi phí. Sự kết hợp giữa LLMs, vector embeddings, và công cụ tìm kiếm vector của MongoDB Atlas cùng với LlamaIndex cho phép doanh nghiệp tạo ra những trải nghiệm AI độc đáo, tận dụng triệt để ý nghĩa ngữ nghĩa và thông tin ngữ cảnh từ dữ liệu của họ, từ đó tạo ra lợi thế cạnh tranh trên thị trường.
Citations:
[1] https://www.infoworld.com/article/3713060/how-to-stand-out-from-the-crowd-when-everyone-uses-generative-ai.html
- Email truyền thống tốn thời gian và làm chậm quá trình hoạt động kinh doanh, với các đồng nghiệp thường phải chờ đợi nhiều ngày để nhận thông tin từ người khác.
- Các giám đốc điều hành tin rằng AI có thể giúp giảm bớt sự cần thiết của hầu hết các giao tiếp qua email và tối ưu hóa quy trình làm việc.
- Email hiện tại giải quyết vấn đề phối hợp nhưng không hiệu quả. Trái ngược với các công cụ tìm kiếm mất vài giây, việc nhận câu trả lời qua email có thể mất vài giờ hoặc vài ngày.
- Lợi ích của việc AI thay thế email có thể rất lớn. Dữ liệu cho thấy một đồng nghiệp trung bình phải chờ khoảng 2 giờ để nhận phản hồi từ một email, trong khi đó AI có thể giải quyết vấn đề chỉ trong vài giây.
- AI có thể trở thành nguồn thông tin duy nhất của giám đốc điều hành, tổng hợp tất cả thông tin doanh nghiệp và xử lý qua hệ thống AI tiên tiến.
📌 Kết thúc kỷ nguyên của email và sự chuyển đổi sang tìm kiếm AI như một nguồn thông tin duy nhất đánh dấu một bước tiến quan trọng trong việc tối ưu hóa quy trình làm việc và tăng cường hiệu quả công việc. Việc giảm thiểu sự phụ thuộc vào email không chỉ giúp giảm bớt thời gian chờ đợi thông tin mà còn mở ra cơ hội cho việc sử dụng thông tin doanh nghiệp một cách hiệu quả hơn thông qua AI. Lợi ích của việc AI thay thế email có thể rất lớn. Dữ liệu cho thấy một đồng nghiệp trung bình phải chờ khoảng 2 giờ để nhận phản hồi từ một email, trong khi đó AI có thể giải quyết vấn đề chỉ trong vài giây.
Citations:
[1] https://venturebeat.com/business/the-end-of-emails-executives-want-ai-search-to-act-as-a-single-source-of-truth/
- Google có kế hoạch cập nhật các gói đăng ký cho khách hàng doanh nghiệp Google Workspace sau hơn một tuần tái định vị thương hiệu AI của mình thành Gemini.
- Các gói đăng ký mới, được gọi là Gemini Business và Gemini Enterprise, sẽ cho phép khách hàng Workspace truy cập vào mô hình Gemini 1.0 Ultra và hơn thế nữa.
- Gemini Business và Gemini Enterprise sẽ thay thế Duet AI, dịch vụ đăng ký hiện tại cho các tính năng AI trong Workspace, với giá 30 USD mỗi tháng cho mỗi người dùng tính đến thời điểm thông báo vào tháng 8 năm 2023.
- Cả hai gói đăng ký mới đều được tối ưu hóa bằng tiếng Anh và sẽ có sẵn tại hơn 100 quốc gia và vùng lãnh thổ.
- Tuy nhiên, Google chưa cung cấp lịch trình cụ thể cho việc khi nào các tính năng Gemini cho Workspace sẽ trở nên khả dụng cho người đăng ký Google One AI Premium.
📌 Google đang mở rộng dịch vụ Workspace của mình bằng cách giới thiệu hai gói đăng ký mới: Gemini Business và Gemini Enterprise, nhằm cung cấp quyền truy cập vào một trong những mô hình AI mạnh mẽ nhất của Google, Gemini 1.0 Ultra, cùng với các biện pháp bảo vệ dữ liệu cấp doanh nghiệp. Sự thay đổi này không chỉ đánh dấu sự kết thúc của Duet AI như một dịch vụ đăng ký cho các tính năng AI trong Workspace mà còn mở ra một kỷ nguyên mới với các gói đăng ký được tối ưu hóa và mở rộng, hỗ trợ khách hàng doanh nghiệp trên hơn 100 quốc gia và vùng lãnh thổ.
Citations:
[1] https://www.androidcentral.com/apps-software/google-gemini-business-enterprise-workspace-plans-may-launch-soon
- Gần một nửa số doanh nghiệp đang đầu tư vào AI tạo sinh (GenAI), nhưng họ thận trọng với tốc độ triển khai công nghệ này.
- 43% trong số 1.405 doanh nghiệp được khảo sát đang đầu tư vào GenAI, trong khi 38% tiến lên với một "cách tiếp cận từng bước, có đo lường".
- Doanh nghiệp đang thận trọng triển khai GenAI do lo ngại về rủi ro tiềm ẩn mà công nghệ này đặt ra và mong muốn cải thiện quản lý dữ liệu.
- 46% người trả lời cho biết cần cải thiện quản lý dữ liệu để giải quyết các rủi ro liên quan đến độ chính xác và đạo đức dữ liệu.
- Có một khoảng cách kiến thức trong các doanh nghiệp về cách sử dụng AI, với 73% muốn hiểu rõ hơn về các khái niệm và ứng dụng của GenAI.
- Các ứng dụng GenAI hàng đầu mà doanh nghiệp tập trung vào bao gồm đào tạo nhân viên (36%) và khả năng đối diện với khách hàng như bán hàng, dịch vụ và hỗ trợ (35%).
- Phát triển phần mềm và kiểm thử là lựa chọn phổ biến thứ ba với 34% cho rằng đây là ứng dụng AI và GenAI quan trọng nhất cho doanh nghiệp.
📌 Các doanh nghiệp đang tiếp cận việc triển khai AI tạo sinh (GenAI) một cách thận trọng, chủ yếu do lo ngại về các rủi ro tiềm ẩn và mong muốn cải thiện quản lý dữ liệu. Một phần lớn các doanh nghiệp (43%) đã bắt đầu đầu tư vào công nghệ này, nhưng một tỷ lệ đáng kể (38%) đang tiến hành một cách từng bước và có đo lường. Sự thận trọng này phản ánh mối quan tâm đến độ chính xác và đạo đức dữ liệu, cũng như một khoảng cách kiến thức về cách sử dụng AI hiệu quả. Các ứng dụng hàng đầu của GenAI trong doanh nghiệp bao gồm đào tạo nhân viên, khả năng đối diện với khách hàng, và phát triển phần mềm.
Citations:
[1] https://www.lightreading.com/ai-machine-learning/enterprises-hesitant-to-go-all-in-on-genai-ey-report
- McKinsey ước tính AI tạo sinh (GAI) có thể thêm 4,4 nghìn tỷ USD vào nền kinh tế toàn cầu.
- Có nguy cơ doanh nghiệp bị cuốn vào cuộc cách mạng công nghệ và đầu tư mà không xem xét cách GAI hỗ trợ mục tiêu kinh doanh.
- Lĩnh vực GAI đang phát triển nhanh chóng, với các phương pháp và ứng dụng mới được điều chỉnh liên tục.
- Hiểu biết về cách GAI mang lại giá trị cho doanh nghiệp không tiến triển cùng tốc độ.
- GAI có thể trở thành công cụ không hiệu quả nếu lãnh đạo không nâng cao kiến thức về công nghệ trước khi áp dụng vào nhiệm vụ kinh doanh.
- Các doanh nghiệp thường chi nhiều tiền cho công nghệ mới ngay khi nó xuất hiện và sau đó phải tốn thêm nguồn lực và thời gian để tích hợp nó vào tổ chức.
- Với GAI, doanh nghiệp nên áp dụng phương pháp thử nghiệm khoa học, không nhắm vào mục tiêu xa vời ngay từ đầu mà tìm kiếm tiến bộ dần dần từ những chiến thắng nhanh chóng và từ bỏ những hướng không mang lại kết quả nhanh chóng.
📌 Khi AI tạo sinh (GAI) đang trở thành một xu hướng không thể tránh khỏi trong kinh doanh, việc hiểu rõ và áp dụng nó một cách có chiến lược sẽ quyết định sự thành công của doanh nghiệp trong tương lai. Bài viết nhấn mạnh tầm quan trọng của việc tiếp cận GAI một cách cẩn thận, với việc đầu tư dựa trên sự hiểu biết sâu sắc về công nghệ và cách nó có thể hỗ trợ đạt được mục tiêu kinh doanh. Điều này không chỉ giúp tránh lãng phí nguồn lực mà còn tối ưu hóa lợi ích mà GAI mang lại, từ đó đảm bảo rằng doanh nghiệp không chỉ "đi trên sóng" mà còn có thể tận dụng tối đa sức mạnh của công nghệ này.
Citations:
[1] https://www.forbes.com/sites/forbestechcouncil/2024/02/16/four-steps-to-ride-the-generative-ai-wave-instead-of-drowning-under-it/
- Ngày 30 tháng 11 năm 2022, OpenAI đã ra mắt ChatGPT, một chatbot sử dụng trí tuệ nhân tạo, thu hút sự chú ý rộng rãi.
- 4.9% doanh nghiệp cho biết họ đã sử dụng AI để sản xuất hàng hóa hoặc dịch vụ trong hai tuần qua, trong khi 6.7% nói rằng họ có kế hoạch áp dụng AI trong sáu tháng tới.
- Washington D.C. là khu vực có tỷ lệ cao nhất với 13.7% doanh nghiệp dự định áp dụng AI trong sáu tháng tới, tiếp theo là Maryland, Alaska, New Mexico, Rhode Island và Florida với khoảng 9%.
- Alabama và Delaware ít hứng thú nhất với việc áp dụng AI, chỉ có 3.3% doanh nghiệp trong hai bang này báo cáo kế hoạch áp dụng AI.
- Có mối liên hệ mạnh mẽ giữa số lượng công ty trong lĩnh vực công nghệ của một bang và sự sẵn lòng áp dụng AI vào thực tiễn kinh doanh trong tương lai gần.
- Xu hướng tương tự được tìm thấy khi xem xét các bang có lực lượng lao động có trình độ học vấn cao, nói chung, càng nhiều cư dân của một bang có bằng cấp đại học, các doanh nghiệp càng có khả năng cho biết họ đang lên kế hoạch áp dụng AI.
📌 Phân tích từ dữ liệu Điều tra Dân số cho thấy sự áp dụng AI trong các doanh nghiệp Mỹ đang tăng lên, với 4,9% doanh nghiệp đã sử dụng AI và 6,7% dự định áp dụng trong 6 tháng tới. Washington D.C. dẫn đầu với tỷ lệ kế hoạch áp dụng AI cao nhất là 13,7%. Mối liên hệ mạnh mẽ giữa số lượng công ty trong lĩnh vực công nghệ và sự sẵn lòng áp dụng AI, cũng như mối liên hệ giữa trình độ học vấn cao và kế hoạch áp dụng AI, cho thấy một xu hướng rõ ràng: các bang có nền tảng công nghệ và giáo dục mạnh mẽ hơn có xu hướng tiếp nhận AI nhanh chóng hơn.
Citations:
[1] https://verbit.ai/where-companies-have-adopted-ai-and-where-they-are-planning-to-do-so-in-the-near-future/
- Gong, công ty hàng đầu về phần mềm trí tuệ doanh thu, đã tiết lộ rằng công nghệ AI của họ đang biến đổi các đội ngũ bán hàng doanh nghiệp và dẫn đến sự cải thiện đáng kể về năng suất và tăng trưởng doanh thu.
- Phân tích sâu rộng được thực hiện bởi bộ phận nghiên cứu của Gong đã xem xét hơn 1 triệu cơ hội bán hàng qua gần 1.500 khách hàng, cho thấy những người đại diện bán hàng sử dụng các tính năng AI như Smart Trackers và Ask Anything có tỷ lệ thắng cao hơn đáng kể.
- Cụ thể, các đội sử dụng Smart Trackers, công cụ xác định các đặc điểm quan trọng của thỏa thuận thông qua xử lý ngôn ngữ tự nhiên, có tỷ lệ thắng cao hơn 35%.
- Ask Anything, cho phép người đại diện nhanh chóng tìm kiếm thông tin sâu sắc bằng cách truy vấn về tài khoản và thỏa thuận, mang lại tỷ lệ thắng cao hơn 26%.
- Kể từ khi ChatGPT được phát hành vào tháng 11 năm 2022, Gong đã ghi nhận sự tăng trưởng 2.200% trong các cuộc trò chuyện bán hàng liên quan đến AI.
- Email được soạn thảo sử dụng trợ lý viết AI của Gong tăng 464% kể từ tháng 2 năm 2023, cho thấy các đội ngũ bán hàng đang nhanh chóng tích hợp AI vào quy trình làm việc hàng ngày để tăng năng suất.
📌Công ty Gong đã chứng minh rằng việc áp dụng AI vào quy trình bán hàng có thể mang lại những cải thiện đáng kể về tỷ lệ thắng và năng suất. Với việc sử dụng Smart Trackers và Ask Anything, các đội ngũ bán hàng đã ghi nhận sự tăng trưởng ấn tượng với tỷ lệ thắng lần lượt là 35% và 26% cao hơn so với những người không sử dụng công nghệ này. Email được soạn thảo sử dụng trợ lý viết AI của Gong tăng 464% kể từ tháng 2 năm 2023, cho thấy các đội ngũ bán hàng đang nhanh chóng tích hợp AI vào quy trình làm việc hàng ngày để tăng năng suất.
Citations:
[1] https://venturebeat.com/ai/how-gongs-ai-tools-are-increasing-win-rates-for-sales-teams/
- Chỉ có 14% doanh nghiệp trên toàn cầu sẵn sàng tận dụng và triển khai trí tuệ nhân tạo theo Chỉ số Sẵn sàng AI của Cisco năm 2023.
- Các công ty châu Âu đặc biệt gặp khó khăn trong việc đào tạo nhân viên sử dụng AI và phát triển chiến lược rõ ràng cho AI có trách nhiệm.
- David Shrier, một nhà tương lai học và là người đứng đầu Visionary Futures LLC, khuyên rằng doanh nghiệp cần xây dựng kỹ năng mới, thiết lập quy trình để có thể thực hiện quy mô lớn, và thay đổi cách thức hoạt động.
- Một bước quan trọng là đảm bảo kiểm toán thuật toán định kỳ và thiết lập quản trị, bao gồm một ủy ban AI do một AI Officer đứng đầu.
- Các công ty cần đầu tư vào nguồn nhân lực và tái cấu trúc lực lượng lao động để sẵn sàng cho AI.
- Một khi hệ thống này được thiết lập, doanh nghiệp có thể tận dụng AI để tăng cường năng suất và mở rộng quy mô. AI có thể giúp kết hợp trí tuệ tập thể, bao gồm dự đoán của chuyên gia và trí tuệ của đám đông.
- Một phương án khác là tạo ra một "corporate GPT," một AI được tùy chỉnh theo nhu cầu của công ty.
📌 Trong bối cảnh chỉ có 14% doanh nghiệp toàn cầu sẵn sàng cho sự chuyển đổi bởi AI, việc xây dựng kỹ năng mới, thiết lập quy trình và tái cấu trúc nguồn nhân lực trở nên cực kỳ quan trọng. Các công ty cần phải đầu tư vào việc đào tạo nhân viên và phát triển chiến lược AI có trách nhiệm. Việc kiểm toán thuật toán định kỳ và thiết lập quản trị với một AI Officer là bước không thể thiếu để đảm bảo sự minh bạch và hiệu quả trong việc triển khai AI. Cuối cùng, việc tận dụng AI để tăng cường năng suất và mở rộng quy mô doanh nghiệp thông qua việc kết hợp trí tuệ tập thể và phát triển các giải pháp AI tùy chỉnh như "corporate GPT" sẽ mở ra những cơ hội tăng trưởng đáng kể cho các doanh nghiệp trong thời đại số.
Citations:
[1] https://thenextweb.com/news/3-ways-businesses-should-prepare-ai-transformation
- Christian Stegh, CTO và VP Chiến lược tại eGroup, đề cập đến khả năng AI tạo ra kết quả không ngờ như AlphaZero của DeepMind tự học cách chơi cờ vua với chiến thuật không truyền thống và dự án halicin của MIT tiêu diệt các chủng vi khuẩn kháng thuốc.
- AI đã chứng minh khả năng vượt trội so với phương pháp nghiên cứu và phát triển truyền thống, giúp tiết kiệm chi phí đáng kể.
- Có sự gia tăng ngân sách cho AI, nhưng câu hỏi đặt ra là liệu chi phí này nên được gánh vác hoàn toàn bởi ngân sách IT hay từ các nguồn tài chính không truyền thống.
- Các tổ chức sử dụng AI hoặc đang xem xét sử dụng AI cần phải nhanh chóng đánh giá để không mất lợi thế so với đối thủ cạnh tranh.
- Việc phân bổ chi phí AI qua các lĩnh vực kinh doanh khác nhau có thể giúp tổ chức nắm bắt lợi thế cạnh tranh.
📌 Bài viết nhấn mạnh tầm quan trọng của việc phân bổ ngân sách cho các sáng kiến AI một cách linh hoạt và hiệu quả. Việc phân bổ chi phí không chỉ giới hạn trong ngân sách IT mà còn cần sự đóng góp từ các nguồn tài chính khác trong doanh nghiệp. Điều này không chỉ giúp tiết kiệm chi phí mà còn tạo điều kiện cho các tổ chức nhanh chóng áp dụng AI, từ đó nắm bắt được lợi thế cạnh tranh và không bị tụt hậu so với đối thủ.
Citations:
[1] https://www.forbes.com/sites/forbestechcouncil/2024/02/16/budgeting-for-enterprise-ai-initiatives/?sh=144d6ea37de6
📌 Walmart là một hình mẫu tiên phong trong việc ứng dụng công nghệ mới một cách linh hoạt. Cách tiếp cận toàn diện của Walmart khi triển khai AI tạo sinh trên nhiều khía cạnh khác nhau – từ trải nghiệm khách hàng đến vận hành nội bộ – mang đến hiệu quả ấn tượng. Ví dụ ứng dụng chatbot AI tạo sinh để đàm phán với các nhà cung cấp, thành công tiết kiệm hơn 1,5% chi phí và có thêm 35 ngày gia hạn. Các doanh nghiệp chắc chắn có thể học hỏi cách Walmart thúc đẩy đổi mới và tối ưu hóa hoạt động kinh doanh bằng cách đưa AI tạo sinh vào chiến lược của mình.
Citations:
[1] https://www.forbes.com/sites/bernardmarr/2024/02/15/the-amazing-ways-walmart-is-using-generative-ai/?sh=470cc46ba2f9
- Eric Siegel, cựu giáo sư tại Đại học Columbia và chuyên gia khoa học dữ liệu, nhận định rằng phần lớn các dự án AI ở các ngân hàng không đạt đến giai đoạn triển khai.
- Các ngân hàng đang sử dụng và thử nghiệm nhiều hình thức AI truyền thống và tiên tiến như machine learning, deep learning và generative AI.
- Siegel có niềm đam mê suốt đời với phân tích dự đoán và AI, đến mức ông đã viết và thực hiện một video âm nhạc về phân tích dự đoán.
- Ông cho rằng việc học từ dữ liệu để dự đoán và sử dụng những dự đoán này để cải thiện các hoạt động quy mô lớn là điều thú vị và cần thiết, bao gồm tiếp thị mục tiêu, phát hiện gian lận, quản lý điểm tín dụng, bảo hiểm, giá cả và lựa chọn.
- Siegel đặt câu hỏi liệu việc thất bại trong triển khai các dự án machine learning có phải là điều phù hợp do không phải mọi thứ đều phù hợp với machine learning hay đây là vấn đề cần được giải quyết.
- Ông nhấn mạnh rằng bước đầu tiên là phải lên kế hoạch cho việc tích hợp và vận hành từ đầu, để thay đổi thực sự các hoạt động.
- Eric Siegel là tác giả của cuốn sách "The AI Playbook", nơi ông giải thích những gì cần thiết để đưa các dự án AI truyền thống và tiên tiến từ ý tưởng đến thực thi.
📌 Việc triển khai thành công các dự án AI trong ngân hàng là một thách thức lớn, với phần lớn các dự án không thể vượt qua giai đoạn phát triển vì tầm quan trọng của việc học từ dữ liệu để cải thiện các hoạt động quy mô lớn như tiếp thị, phát hiện gian lận và quản lý điểm tín dụng. Để vượt qua thách thức này, Siegel khuyến nghị rằng các tổ chức cần lên kế hoạch tích hợp và vận hành ngay từ bước đầu tiên của dự án. Cuốn sách "The AI Playbook" của ông cung cấp cái nhìn sâu sắc về cách thức thực hiện điều này, từ ý tưởng đến thực thi, nhằm thay đổi thực sự các hoạt động kinh doanh thông qua AI.
Citations:
[1] https://www.americanbanker.com/news/most-ai-projects-fail-to-reach-deployment-eric-siegel
📌 Trong khi AI tạo sinh đang thay đổi cách chúng ta tiếp cận và xử lý thông tin, việc áp dụng nó vào doanh nghiệp đòi hỏi sự cẩn trọng để đảm bảo độ chính xác, tin cậy và quyền hạn. Theo nghiên cứu tháng 4 năm 2023, chỉ có 51.5% câu tạo ra từ các công cụ tìm kiếm AI tạo sinh phổ biến được hỗ trợ hoàn toàn bằng trích dẫn, trong khi 74.5% trích dẫn hỗ trợ các câu liên quan, cho thấy mức độ chính xác cần được cải thiện trước khi triển khai rộng rãi trong môi trường doanh nghiệp.
- Năm thứ hai của kỷ nguyên AI tạo sinh bắt đầu vào tháng 11 năm 2023, nhưng nhiều doanh nghiệp vẫn đang tìm cách triển khai công nghệ này.
- Zylon, một startup mới thành lập tại Madrid, Tây Ban Nha, đã công bố vòng gọi vốn pre-seed trị giá 3,2 triệu đô la và ra mắt không gian làm việc trực tuyến dành cho doanh nghiệp.
- Vòng gọi vốn do Felicis Ventures dẫn đầu, với sự tham gia của LifeX Ventures, Zypsy và một số nhà đầu tư thiên thần chiến lược.
- Zylon nhằm mục tiêu cung cấp khả năng xây dựng một không gian làm việc AI tạo sinh hoàn toàn riêng tư cho mọi doanh nghiệp, đặc biệt là SMEs.
- Các doanh nghiệp này thường phụ thuộc vào phần mềm nhưng không tự xây dựng phần mềm.
- Zylon tập trung vào đối tượng khách hàng thường bị lãng quên bởi các sản phẩm AI khác, đó là các chuyên gia không thuộc lĩnh vực công nghệ.
- Beta đóng của Zylon cung cấp cơ hội độc quyền cho những người tiếp nhận sớm để trải nghiệm và định hình tương lai của AI tạo sinh trong môi trường làm việc.
📌 Zylon đang mở ra một hướng đi mới cho việc áp dụng AI tạo sinh trong các doanh nghiệp vừa và nhỏ, với việc huy động được 3,2 triệu đô la trong vòng gọi vốn pre-seed. Sự ra đời của không gian làm việc trực tuyến dễ sử dụng và linh hoạt này hứa hẹn sẽ giúp các doanh nghiệp không có chuyên môn kỹ thuật có thể tận dụng công nghệ AI một cách hiệu quả.
Citations:
[1] https://venturebeat.com/ai/zylon-launches-to-take-away-the-pain-of-generative-ai-adoption-for-smbs/
- Tránh lời khuyên khiến bạn tin rằng dự án AI giống như bất kỳ dự án IT nào khác và phương pháp bạn sử dụng cho các dự án ERP / MRP / BFA / CRM sẽ hoạt động ở đây.
- Hãy cẩn thận với lời khuyên "bắt đầu nhỏ". Thay vào đó, hãy nghĩ: Bắt đầu nhỏ, nhưng bắt đầu nhỏ và chiến lược, không phải nhỏ và ngẫu nhiên.
- Các dự án AI đòi hỏi đầu tư đáng kể về dữ liệu, công nghệ, kỹ năng con người và văn hóa để thành công.
- Để bắt đầu hành trình AI thành công, tổ chức của bạn cần đầu tư vào bốn lĩnh vực chính: dữ liệu, công nghệ, kỹ năng con người và biến đổi văn hóa.
- Dữ liệu là nhiên liệu cho AI, công nghệ là động cơ, kỹ năng con người là người lái xe, và biến đổi văn hóa là bản đồ đường đi.
- Đầu tư vào các lĩnh vực này, bạn có thể giải phóng sức mạnh của AI để tạo ra giá trị, đổi mới và biến đổi tổ chức của bạn.
📌 Bài viết khuyên rằng để bắt đầu hành trình AI thành công, tổ chức cần bắt đầu nhỏ và chiến lược, không phải nhỏ và ngẫu nhiên. Đầu tư đáng kể vào dữ liệu, công nghệ, kỹ năng con người và biến đổi văn hóa là cần thiết. Các lĩnh vực này tương hỗ và cần phải được điều chỉnh đồng bộ với tầm nhìn và mục tiêu chiến lược của bạn. Bằng cách đầu tư vào các lĩnh vực này, tổ chức có thể tận dụng sức mạnh của AI để tạo ra giá trị, đổi mới và biến đổi tổ chức.
Citations:
[1] https://www.datasciencecentral.com/your-ai-journey-start-small-and-strategic-part-1/
- Bắt đầu hành trình AI của bạn bằng cách tập trung vào việc cung cấp giá trị kinh doanh và hoạt động đáng kể và đo lường là cần thiết.
- Các dự án AI đòi hỏi đầu tư dữ liệu, công nghệ, kỹ năng con người và văn hóa đáng kể để thành công.
- Bạn sẽ cần sự hỗ trợ của cấp quản lý cao để thực hiện những khoản đầu tư này và tiếp tục theo đuổi khi tổ chức của bạn học cách áp dụng AI để tìm ra và thúc đẩy nguồn giá trị mới từ khách hàng, sản phẩm, dịch vụ và hoạt động.
- Không cố gắng xây dựng tất cả khả năng và kiến trúc dữ liệu và phân tích của bạn ngay từ đầu – cách tiếp cận "Big Bang" đáng sợ. Thay vào đó, tập trung vào việc cung cấp giá trị kinh doanh và hoạt động có thể đo lường một cách tăng tiến (và khai thác lợi ích của việc học hỏi).
- Bắt đầu nhỏ, nhưng bắt đầu nhỏ và chiến lược, không phải nhỏ và ngẫu nhiên.
- Để thu hút sự chú ý và cam kết hỗ trợ và tham gia vào hành trình AI của bạn từ cấp quản lý cao, bạn phải liên kết sáng kiến AI của mình với những gì quan trọng với tổ chức – một Sáng kiến Kinh doanh Chiến lược.
- Một Sáng kiến Kinh doanh Chiến lược được đặc trưng bởi: quan trọng với hiệu suất ngắn hạn (12 đến 16 tháng) của tổ chức; được ghi chép (truyền đạt nội bộ hoặc công khai); liên ngành (liên quan đến nhiều hơn một chức năng kinh doanh).
- Các tổ chức nắm vững chu kỳ này không chỉ tồn tại mà còn phát triển, biến thách thức thành cơ hội để phát triển và phân biệt.
📌 Trong phần 2 của loạt bài "Hành trình AI của bạn: Bắt đầu nhỏ và chiến lược", chúng ta đã hiểu rằng việc bắt đầu hành trình AI bằng cách tập trung vào việc cung cấp giá trị kinh doanh và hoạt động đáng kể và đo lường là cần thiết. Điều này đòi hỏi sự đầu tư đáng kể về dữ liệu, công nghệ, kỹ năng con người và văn hóa. Để thu hút sự chú ý và cam kết hỗ trợ từ cấp quản lý cao, chúng ta cần liên kết sáng kiến AI với những gì quan trọng với tổ chức – một Sáng kiến Kinh doanh Chiến lược. Các tổ chức nắm vững chu kỳ này sẽ không chỉ tồn tại mà còn phát triển, biến thách thức thành cơ hội để phát triển và phân biệt.
Citations:
[1] https://www.datasciencecentral.com/your-ai-journey-start-small-and-strategic-part-2/
- Bài viết nêu lên vấn đề về "ảo giác" trong mô hình AI, đó là những phản hồi có thể sai lệch, gây hiểu lầm hoặc không có ý nghĩa[1].
- Để giảm thiểu vấn đề này, có một số kỹ thuật có thể được áp dụng để tinh chỉnh mô hình AI của bạn, từ đó nâng cao độ tin cậy của kết quả đầu ra[1].
- Một kỹ thuật như vậy là "temperature prompting", liên quan đến việc đặt một tham số "nhiệt độ" để quản lý mức độ sáng tạo của AI. Nhiệt độ thấp hơn mang lại các phản hồi dự đoán được, dựa trên sự thật, trong khi nhiệt độ cao hơn khuyến khích sự sáng tạo nhưng có thể làm giảm độ chính xác[1].
- Một chiến lược khác là phân công vai trò, nơi bạn yêu cầu AI hành động như một loại chuyên gia nhất định. Điều này có thể giúp làm cho các phản hồi của nó chính xác và kỹ thuật hơn[1].
- Bạn cũng có thể cung cấp cho AI dữ liệu chi tiết hơn và hướng dẫn rõ ràng hơn, điều này giúp nó hoạt động tốt hơn trong các tác vụ đòi hỏi độ chính xác, như vấn đề toán học hoặc lập trình[1].
- "Instruction Tuning": Tinh chỉnh mô hình bằng cách sử dụng tập dữ liệu của các lệnh và kết quả mong muốn để dạy mô hình cách phản hồi chính xác hơn đối với các hướng dẫn[1].
- "Post-Processing and Validation": Thực hiện kiểm tra sau xử lý có thể bắt và sửa chữa các "ảo giác" trước khi kết quả đầu ra được trình bày cho người dùng[1].
📌 Bài viết trên trang web Geeky Gadgets hướng dẫn cách tinh chỉnh mô hình AI để giảm hiện tượng "ảo giác". Các kỹ thuật tinh chỉnh bao gồm "temperature prompting", phân công vai trò, cung cấp dữ liệu chi tiết và hướng dẫn rõ ràng, "Instruction Tuning" và "Post-Processing and Validation". Việc áp dụng những kỹ thuật này không chỉ giúp cải thiện trải nghiệm người dùng, ngăn chặn sự lan truyền thông tin sai lệch, giảm rủi ro pháp lý mà còn tăng lòng tin vào mô hình AI tạo sinh[1].
Citations:
[1] https://www.geeky-gadgets.com/fine-tuning-ai-models/
- Dịch bệnh COVID-19 là một ví dụ về sự gián đoạn chuỗi cung ứng, nhưng AI không thể dự đoán chính xác hoặc phản ứng hiệu quả với những sự kiện bất ngờ và không thể dự đoán này.
- AI có thể xây dựng và phân tích các bản sao số (digital twins) của toàn bộ chuỗi cung ứng và đề xuất thay đổi ở hầu hết mọi bước.
- Mặc dù AI đóng vai trò lớn trong quản lý chuỗi cung ứng, con người vẫn cần thiết bởi AI còn có những hạn chế đáng kể, như tạo ra thông tin sai lệch (hallucinations) từ 3% đến 27%.
- Nếu hệ thống quản lý chuỗi cung ứng hoàn toàn tự động, nó có thể tự động phản ứng với các yếu tố không có cơ sở thực tế, dẫn đến hết hàng, chậm trễ và chi phí lớn.
- Các quyết định về chuỗi cung ứng có ảnh hưởng rộng lớn, do đó chuyên gia con người nên luôn có tiếng nói cuối cùng.
- Việc đặt quá nhiều vào tay AI cũng có những hệ quả đạo đức đáng ngờ, bao gồm nguy cơ rò rỉ thông tin nhạy cảm do sử dụng dữ liệu lớn.
- Công việc của người quản lý chuỗi cung ứng sẽ thay đổi, có thể cần ít nhân viên hơn nhưng họ vẫn đóng vai trò quan trọng, với ít phân tích hơn và cần hiểu biết nhiều hơn về AI.
📌 Bài viết từ HackerNoon nhấn mạnh rằng, mặc dù AI có thể thực hiện nhiều công việc của người quản lý chuỗi cung ứng hiện nay, nó không thể hoàn toàn thay thế con người. Các hạn chế của AI, bao gồm việc tạo ra thông tin sai lệch và không thể phản ứng linh hoạt với các sự kiện bất ngờ như đại dịch COVID-19, cho thấy rằng sự can thiệp và quyết định cuối cùng của con người vẫn cực kỳ quan trọng. Mặc dù AI đóng vai trò lớn trong quản lý chuỗi cung ứng, con người vẫn cần thiết bởi AI còn có những hạn chế đáng kể, như tạo ra thông tin sai lệch (hallucinations) từ 3% đến 27%.
Citations:
[1] https://hackernoon.com/will-ai-remove-humans-from-supply-chain-management
- Cisco tự tin rằng các tính năng AI mới cho Webex sẽ thu hút người dùng, nhưng vẫn đối mặt với sự cạnh tranh gay gắt từ các đối thủ lớn trong lĩnh vực năng suất.
- Cisco công bố nhiều khả năng AI mới cho Webex tại hội nghị Cisco Live 2024 ở Amsterdam, bao gồm trợ lý AI với các tính năng như dịch ngôn ngữ theo từng tin nhắn hoặc theo thời gian thực, tóm tắt tin nhắn, tóm tắt cuộc họp, và chức năng viết lại tin nhắn.
- Tính năng tóm tắt cuộc họp sử dụng AI tạo sinh để tóm tắt nội dung cuộc họp với các liên kết đến thời điểm cụ thể mỗi vấn đề được thảo luận.
- Bola Rotibi từ CCS Insight khen ngợi việc Cisco tích hợp AI vào toàn bộ nền tảng Webex, coi đó là bước tiến quan trọng trong việc cải thiện sự hiểu biết của người dùng về cách AI có thể hỗ trợ họ trong công việc.
- Tuy nhiên, Rotibi cũng đặt câu hỏi về việc liệu điều này có thể cải thiện đáng kể số lượng người dùng Webex hay không, khi mà nghiên cứu mới nhất cho thấy thị phần của Webex vẫn còn thấp, đối mặt với sự cạnh tranh từ các nền tảng UCaaS của Microsoft và Zoom.
📌 Cisco đang nỗ lực tăng cường các tính năng AI cho Webex để cạnh tranh trong thị trường do Google, Zoom và Microsoft thống lĩnh. Với việc giới thiệu các khả năng mới như dịch ngôn ngữ, tóm tắt tin nhắn và cuộc họp, cũng như chức năng viết lại tin nhắn, Cisco đang cố gắng cải thiện trải nghiệm người dùng và tăng cường hiệu quả công việc. Tuy nhiên, mặc dù nhận được sự đánh giá cao từ các chuyên gia về việc tích hợp AI, vẫn còn nhiều thách thức khi thị phần của Webex chưa thể sánh ngang với Teams và Zoom.
Citations:
[1] https://www.itpro.com/software/cisco-is-ramping-up-ai-features-in-webex-but-in-a-market-dominated-by-google-zoom-and-microsoft-it-may-struggle-to-boost-user-uptake
- 60% công ty trên toàn cầu dự định tăng cường sử dụng tự động hóa trong công việc, trong đó có 59% ở Hoa Kỳ và 55% ở Trung Quốc.
- HR đang cố gắng bắt kịp với đầu tư mà các bộ phận kinh doanh khác đã thực hiện.
- 88% công ty toàn cầu đã sử dụng AI cho HR, 100% công ty Trung Quốc và 83% công ty Hoa Kỳ sử dụng công nghệ này.
- Các ứng dụng phổ biến của AI trong HR bao gồm: sử dụng chatbot để tra cứu thông tin (56%), xác định ứng viên tốt nhất dựa trên dữ liệu công khai như hồ sơ mạng xã hội (44%), cung cấp khuyến nghị đào tạo cho nhân viên (43%), sử dụng chatbot trong quá trình tuyển dụng (41%), và sàng lọc đánh giá ứng viên (40%).
- Có nhu cầu cao cho tự động hóa trong quy trình HR để HR có thể đóng vai trò đối tác trong nỗ lực chuyển đổi, theo Kate Bravery từ Mercer.
- Hoa Kỳ và Trung Quốc, cả hai đều đầu tư mạnh vào AI cho HR, nhưng có những cách tiếp cận khác nhau.
📌88% công ty toàn cầu đã sử dụng AI cho HR, 100% công ty Trung Quốc và 83% công ty Hoa Kỳ sử dụng công nghệ này. Các ứng dụng phổ biến của AI trong HR bao gồm: sử dụng chatbot để tra cứu thông tin (56%), xác định ứng viên tốt nhất dựa trên dữ liệu công khai như hồ sơ mạng xã hội (44%), cung cấp khuyến nghị đào tạo cho nhân viên (43%), sử dụng chatbot trong quá trình tuyển dụng (41%), và sàng lọc đánh giá ứng viên (40%).
Citations:
[1] https://www.shrm.org/topics-tools/news/employers-embrace-artificial-intelligence-hr
- Mô hình AI có nhiều kích cỡ khác nhau và được thiết kế để xử lý các nhiệm vụ khác nhau. Một số mô hình chuyên biệt cho các chức năng cụ thể, trong khi những mô hình khác lại đa năng hơn.
- Quan trọng là phải xem xét những mô hình đã thành công trong các nhiệm vụ tương tự với nhiệm vụ của bạn.
- Một yếu tố quan trọng khác là cách bạn dự định triển khai mô hình đã chọn. Bạn cần quyết định liệu sử dụng dịch vụ đám mây công cộng, cung cấp khả năng mở rộng và tiếp cận, hay lựa chọn triển khai tại chỗ, mang lại nhiều kiểm soát và an ninh hơn.
- Quyết định này phụ thuộc lớn vào bản chất của ứng dụng của bạn, đặc biệt nếu nó liên quan đến việc xử lý dữ liệu nhạy cảm.
- Lựa chọn mô hình AI phù hợp là một quá trình đa mặt, đòi hỏi sự hiểu biết về yêu cầu cụ thể của dự án, đánh giá khả năng của các mô hình khác nhau, và xem xét ngữ cảnh hoạt động mà mô hình sẽ được triển khai.
📌 Bài viết cung cấp một hướng dẫn chi tiết về cách lựa chọn mô hình AI phù hợp với nhu cầu cụ thể. Quá trình này bao gồm việc xác định mục tiêu và sử dụng trường hợp, khám phá các mô hình AI khác nhau, và cân nhắc ngữ cảnh hoạt động mà mô hình sẽ được triển khai. Trong giai đoạn thử nghiệm, bạn nên tập trung đánh giá độ chính xác, độ tin cậy và tốc độ xử lý của từng mô hình. Bạn sẽ cần phải quyết định xem nên sử dụng các dịch vụ đám mây công cộng, cung cấp khả năng mở rộng và khả năng truy cập hay chọn triển khai tại chỗ , cung cấp nhiều quyền kiểm soát và bảo mật hơn.
Citations:
[1] https://www.geeky-gadgets.com/choosing-the-right-ai-model/
- GenAI là một trong những công nghệ hấp dẫn nhất hiện nay nhưng cũng là một trong những công nghệ phát triển nhanh nhất, tạo thách thức cho các doanh nghiệp muốn triển khai nó.
- Các công ty phải không chỉ theo kịp xu hướng mà còn phải xác nhận những gì đang hoạt động, đồng thời duy trì độ chính xác, tuân thủ và an ninh.
- Có một nhóm các startup đang tùy chỉnh công cụ GenAI để phù hợp với nhu cầu của doanh nghiệp. Ví dụ, Arcee đang tạo ra các giải pháp để giúp doanh nghiệp đào tạo, đánh giá và quản lý mô hình GenAI một cách an toàn.
- Crux, do Himank Jain, Atharva Padhye và Prabhat Singh đồng sáng lập, tạo ra các mô hình AI có khả năng trả lời các câu hỏi về dữ liệu kinh doanh bằng ngôn ngữ tự nhiên tương tự như ChatGPT của OpenAI.
- Crux chuyển đổi schema, cấu trúc của cơ sở dữ liệu, thành "lớp ngữ nghĩa" mà các mô hình AI có thể hiểu.
- Crux cho phép khách hàng tùy chỉnh mô hình trả lời câu hỏi theo nhu cầu thông minh kinh doanh, điều khoản và chính sách của họ, từ đó cải thiện chất lượng đầu ra.
- Crux đang hướng tới việc ra mắt "động cơ quyết định được hỗ trợ bởi AI" cho các doanh nghiệp và thách thức các công cụ trí tuệ doanh nghiệp hiện hành bằng cách lặp lại nhanh hơn và tái cấu trúc ngăn xếp phân tích dữ liệu thành ngăn xếp quyết định.
📌 Crux đang tạo ra một bước tiến lớn trong lĩnh vực trí tuệ doanh nghiệp với việc phát triển công cụ hỗ trợ AI tạo sinh, đáp ứng nhu cầu cấp thiết của các doanh nghiệp trong việc quản lý và triển khai các mô hình AI một cách an toàn và hiệu quả. Sự chuyển đổi từ bảng điều khiển tĩnh và báo cáo thủ công sang thông tin tình báo chính xác, kịp thời và có thể hành động ngay lập tức là một phần của sự biến đổi mà Crux đang thúc đẩy. Với khả năng tùy chỉnh cao và việc tập trung vào việc cung cấp thông tin BI dựa trên yêu cầu cụ thể của doanh nghiệp, Crux không chỉ đơn thuần là một công cụ phân tích dữ liệu mà còn là một đối tác chiến lược, giúp các doanh nghiệp đưa ra quyết định thông minh hơn dựa trên dữ liệu.
Citations:
[1] https://techcrunch.com/2024/02/08/crux-is-building-genai-powered-business-intelligence-tools/
- AI đang giúp tăng tốc độ tăng trưởng cho các công ty công nghệ và nâng cao giới hạn về mức độ lớn mà họ có thể trở nên theo thời gian[1].
- Các mức giá mới cho các sản phẩm phần mềm được hỗ trợ bởi AI sẽ tăng thị trường tiềm năng tổng thể (TAM) cho các sản phẩm công nghệ và giúp tăng tốc độ tăng trưởng tại các công ty công nghệ lớn và nhỏ[1].
- Cuối năm 2023, Battery Ventures đã ghi nhận rằng sự giảm tốc độ tăng trưởng doanh thu tại các startup phần mềm đã đạt đến mức thấp nhất và mức độ tăng trưởng đã bắt đầu ổn định trong quý 4[1].
- Đồng thời, Scale Venture Partners báo cáo rằng sau nhiều năm giảm tốc, các công ty phần mềm giai đoạn đầu được dự kiến sẽ tái tạo đà tăng trưởng vào năm 2024[1].
- Các công ty đang báo cáo kết quả Q4 2023 của họ, và các công ty Big Tech đã đăng ký doanh thu và lợi nhuận tốt hơn mong đợi. Microsoft đã làm tốt, Meta đã tạo ra sự bùng nổ, và Amazon cũng đã có một quý tốt[1].
- Thị trường dường như sẵn lòng chấp nhận rằng phần mềm được trang bị các khả năng mới của AI sẽ có giá cao hơn. Vì vậy, các công ty phần mềm của mọi kích cỡ sẽ có thêm một cái gì đó mới để bán thêm cho khách hàng hiện tại và có khả năng thu hút khách hàng mới, và điều này có nghĩa là TAM của các công ty phần mềm đang mở rộng[1].
📌 AI đang đóng vai trò quan trọng trong việc tăng tốc độ tăng trưởng cho các công ty công nghệ. Với việc tận dụng AI, các công ty này không chỉ có thể tăng tốc độ tăng trưởng mà còn có thể mở rộng thị trường tiềm năng của mình. Điều này đã được chứng minh qua việc các công ty công nghệ lớn như Microsoft, Meta và Amazon đều đạt được doanh thu và lợi nhuận tốt hơn mong đợi trong quý 4 năm 2023. Thị trường cũng đang sẵn lòng chấp nhận giá cao hơn cho các sản phẩm phần mềm được trang bị AI, mở ra cơ hội cho các công ty phần mềm mở rộng thị trường tiềm năng của họ.
Citations:
[1] https://techcrunch.com/2024/02/08/ai-is-going-to-save-software-companies-dreams-of-growth/
- Acceldata đã giới thiệu AI copilot mới, một công cụ giúp tăng cường khả năng quan sát dữ liệu.
- AI copilot được thiết kế để hoạt động trên nền tảng Acceldata, hỗ trợ các tác vụ liên quan đến quan sát dữ liệu, từ việc giám sát các pipeline dữ liệu cho đến việc xác định các quy tắc chính sách.
- Công cụ này giúp loại bỏ các rắc rối cấu hình thủ công, giảm thời gian thiết lập, cho phép giám sát tự động các sự bất thường của dữ liệu và thúc đẩy sự cộng tác và đóng góp từ người dùng không chuyên môn.
- AI copilot cho phép người dùng tự động hóa và tăng tốc các tác vụ thủ công trước đây bằng cách nhập các đầu vào ngôn ngữ tự nhiên đơn giản.
- Công cụ này giúp người dùng dễ dàng nghiên cứu và khắc phục những vấn đề về tươi mới, hồ sơ và chất lượng dữ liệu, cũng như học hỏi các mô hình tiêu thụ để thay đổi và ngăn chặn việc tiêu thụ quá mức.
📌 Acceldata đã giới thiệu AI copilot, một công cụ mới giúp tăng cường khả năng quan sát dữ liệu. Công cụ này được thiết kế để hoạt động trên nền tảng Acceldata, giúp tự động hóa và tăng tốc các tác vụ thủ công trước đây. AI copilot giúp người dùng dễ dàng nghiên cứu và khắc phục những vấn đề về tươi mới, hồ sơ và chất lượng dữ liệu, cũng như học hỏi các mô hình tiêu thụ để thay đổi và ngăn chặn việc tiêu thụ quá mức.
Citations:
[1] https://venturebeat.com/data-infrastructure/acceldata-supercharges-data-observability-with-new-ai-copilot/
- Microsoft đã ra mắt công cụ Microsoft 365 Copilot cho nhân viên của mình, nhằm mục tiêu khuyến khích nhiều nhà phát triển hơn sử dụng trí tuệ nhân tạo.
- Công ty đã tiến hành các bài kiểm tra pilot để tăng cường sử dụng công cụ AI trong cộng đồng nhà phát triển của mình và đang lên kế hoạch mở rộng việc phát hành Microsoft 365 cho các đội ngũ của mình lần đầu tiên.
- Microsoft không ngay lập tức phản hồi yêu cầu bình luận từ Reuters.
- Sự đầu tư và quan hệ đối tác của Microsoft với OpenAI, cùng với sự phát triển nhanh chóng của kinh doanh đám mây nhờ khách hàng tìm cách xây dựng ứng dụng AI, đã giúp Microsoft trở thành công ty có giá trị nhất thế giới, vượt qua Apple.
- Công cụ Copilot là trợ lý AI tạo sinh của Microsoft, được xây dựng dựa trên các mô hình ngôn ngữ lớn của OpenAI.
- Sản phẩm Microsoft 365 Copilot là một phiên bản của công cụ trong bộ sản phẩm năng suất của công ty, bao gồm Word, Outlook và Teams.
- Vào tháng 11, Microsoft đã bắt đầu bán Copilot, một trợ lý AI có thể tóm tắt hộp thư đến hoặc tạo một bản trình bày slide, với giá 30 đô la mỗi tháng.
📌 Microsoft đã chính thức ra mắt công cụ Microsoft 365 Copilot cho nhân viên, đánh dấu một bước tiến quan trọng trong việc thúc đẩy sử dụng trí tuệ nhân tạo trong cộng đồng nhà phát triển của mình.
Citations:
[1] https://www.reuters.com/technology/microsoft-launches-copilot-internally-boost-ai-adoption-by-developers-business-2024-02-07/
- Bí mật để thực hiện AI tạo sinh một cách trách nhiệm là đặt con người lên hàng đầu, suy nghĩ vượt ra khỏi năng suất và không bỏ qua 'lý do của bạn cho AI'[1].
- Tốc độ thực hiện AI tạo sinh đáng kinh ngạc, với ChatGPT đạt được sự thực hiện rộng rãi trong chưa đầy một năm, trong khi internet mất 17 năm[1].
- Công cụ Microsoft Copilot đã đặt sức mạnh của AI ngay tại ngón tay của nhân viên, tạo ra sự hào hứng trong cộng đồng[1].
- Con đường đến giá trị AI tại nơi làm việc không chỉ là bật công nghệ, mà còn liên quan đến con người, nâng cao kỹ năng và thay đổi tổ chức[1].
- Microsoft Copilot đã tăng tốc trong năm 2024, hành động như một chất xúc tác để các nhà lãnh đạo nhanh chóng hiểu rõ những xem xét chiến lược này[1].
- Giá trị AI không bắt đầu từ công nghệ, mà bắt đầu từ điều quan trọng nhất: con người[1].
- 52% nhân viên thấy công việc của họ có chất lượng tốt hơn sau khi sử dụng Microsoft Copilot, 70% cho rằng họ có khả năng tạo ra cách tiếp cận sáng tạo hơn với công việc, và 31% báo cáo ít mệt mỏi hơn[1].
- Để đưa ra quyết định thực hiện một cách công bằng, tổ chức nên áp dụng lăng kính đa dạng và bao gồm. Điều này tránh rủi ro của 'sự chia rẽ AI' không mong muốn và thay vào đó giúp bạn đóng khe hở kỹ năng số để trao quyền cho nhân viên với nhu cầu cụ thể[1].
- 58% giám đốc điều hành cấp cao rất tự tin về hiểu biết của họ về AI tạo sinh và nhu cầu quản lý của nó, chỉ có 39% quản lý cấp trung chia sẻ cảm giác tương tự[1].
📌 AI tạo sinh đang được thực hiện với tốc độ đáng kinh ngạc, với Microsoft Copilot đóng vai trò chất xúc tác trong việc thúc đẩy sự thay đổi này. Tuy nhiên, để thực hiện AI một cách trách nhiệm, các tổ chức cần đặt con người lên hàng đầu, suy nghĩ vượt ra khỏi năng suất. 52% nhân viên thấy công việc của họ có chất lượng tốt hơn sau khi sử dụng Microsoft Copilot, 70% cho rằng họ có khả năng tạo ra cách tiếp cận sáng tạo hơn với công việc, và 31% báo cáo ít mệt mỏi hơn.
Citations:
[1] https://www.forbes.com/sites/avanade/2024/02/06/generative-ai-in-the-workplace-5-takeaways-from-pioneers-in-microsoft-copilot-adoption/?sh=79f3977968f8
- Cimba.AI, một startup AI thế hệ mới, đã thu hút được sự chú ý và tài trợ từ các tên tuổi lớn như Ripple Ventures, SeaChange, PackVC, cùng với các nhà đầu tư thiên thần như Chad Sanderson và Chris Riccomini.
- Công ty có trụ sở tại Seattle, cung cấp một nền tảng dựa trên web cho phép các doanh nghiệp tạo ra các đại lý AI tùy chỉnh để hỗ trợ nhân viên trong quy trình làm việc của họ, kéo dữ liệu dưới các hình thức hữu ích như bảng điều khiển và biểu đồ.
- Cimba.AI cho phép nhân viên doanh nghiệp không có kỹ năng kỹ thuật xây dựng các đại lý AI tự học, được cá nhân hóa theo cơ sở kiến thức độc đáo của tổ chức, trong vài phút thay vì hàng giờ hoặc ngày và cần lao động phát triển kỹ năng trước đây.
- Công ty hiện đang trong giai đoạn beta riêng tư và đã bắt đầu làm việc với các doanh nghiệp vừa và lớn.
- Cimba.AI được đồng sáng lập bởi Biswas, cựu quản lý kỹ thuật tại Airbnb, và Vishal Das, cựu nhà khoa học ứng dụng tại AWS.
📌 Cimba.AI đánh dấu sự khởi đầu ấn tượng với việc huy động được 1,25 triệu USD trong vòng gọi vốn pre-seed, nhấn mạnh sự cần thiết của việc tự động hóa và cá nhân hóa trong quy trình làm việc doanh nghiệp thông qua AI. Với đội ngũ sáng lập có kinh nghiệm từ Airbnb và AWS, Cimba.AI hứa hẹn mang lại giải pháp cho phép nhân viên không chuyên kỹ thuật dễ dàng xây dựng và triển khai các tác nhân AI (trợ lý ảo AI) tự học, tối ưu hóa hiệu suất làm việc và nâng cao năng suất thông qua tự động hóa các nhiệm vụ phân tích dữ liệu lặp đi lặp lại.
Citations:
[1] https://venturebeat.com/ai/cimba-ai-emerges-from-stealth-with-1-25m-pre-seed-to-help-enterprises-build-ai-agents/
📌 Năm 2024, ngành dịch vụ tài chính dự kiến sẽ chứng kiến sự biến đổi mạnh mẽ nhờ vào AI tạo sinh, với các công ty lớn như JPMorgan Chase, Morgan Stanley, Citi và Visa đã bắt đầu hoặc đang phát triển các dự án AI tạo sinh với ngân sách hàng trăm triệu USD. Sự xuất hiện của trợ lý AI tạo sinh giống ChatGPT trong các ứng dụng và website dịch vụ tài chính không chỉ là một xu hướng mà còn là một nhu cầu cấp thiết để cải thiện trải nghiệm và dịch vụ khách hàng. Điều này đánh dấu sự chuyển mình từ các chatbot cơ bản, chỉ có khả năng xử lý các câu hỏi dịch vụ khách hàng đơn giản, sang các trợ lý ảo có khả năng tương tác tự nhiên, cung cấp lời khuyên tài chính chính xác và hỗ trợ kế hoạch tài chính cá nhân.
📌 AI tạo sinh đang trở thành một xu hướng không thể bỏ qua trong ngành thời trang, với 73% giám đốc thời trang toàn cầu đánh giá cao tầm quan trọng của nó cho doanh nghiệp trong tương lai. Sự áp dụng rộng rãi của AI tạo sinh, từ hỗ trợ mua sắm trực tuyến đến viết mô tả sản phẩm, cho thấy công nghệ này đang tạo ra những thay đổi đáng kể trong cách thức hoạt động và tương tác với khách hàng của các thương hiệu thời trang.
Meta tập trung vào 3 yếu tố chính trong chiến lược AI của mình:
1. Sức mạnh tính toán:
Meta có lợi thế về sức mạnh tính toán với 350k H100 và tổng cộng 600k H100 tương đương. Điều này giúp Meta có thể đào tạo các mô hình AI lớn hơn và phức tạp hơn, cũng như xử lý khối lượng dữ liệu khổng lồ. Meta cũng đang đầu tư vào việc thiết kế các trung tâm dữ liệu mới và phát triển chip tùy chỉnh để tối ưu hóa hiệu suất AI.
2. Chiến lược nguồn mở:
Meta theo đuổi chiến lược nguồn mở để thúc đẩy sự đổi mới và thu hút nhân tài. Meta đã phát hành nhiều công cụ và mô hình AI nguồn mở, bao gồm PyTorch, TorchVision và Llama. Chiến lược này giúp Meta xây dựng cộng đồng các nhà nghiên cứu và phát triển AI toàn cầu, đồng thời thu hút những nhân tài hàng đầu trong lĩnh vực AI.
3. Dữ liệu đào tạo:
Meta sở hữu lượng dữ liệu đào tạo AI khổng lồ từ các bài đăng và bình luận công khai trên Facebook và Instagram. Đây là một lợi thế lớn vì dữ liệu đào tạo chất lượng và số lượng lớn là yếu tố quan trọng để phát triển các mô hình AI hiệu quả. Meta cũng đang tích cực thu thập dữ liệu từ các sản phẩm và dịch vụ khác của mình, chẳng hạn như WhatsApp và Messenger, để đa dạng hóa nguồn dữ liệu đào tạo.
Với sự tập trung vào sức mạnh tính toán, chiến lược nguồn mở và dữ liệu đào tạo, Meta đang đặt mục tiêu dẫn đầu cuộc đua AI. Meta tin rằng AI sẽ đóng vai trò quan trọng trong việc xây dựng các sản phẩm và dịch vụ mới, cải thiện trải nghiệm người dùng và giải quyết các vấn đề toàn cầu.
📌 Meta tập trung vào sức mạnh tính toán, chiến lược nguồn mở và dữ liệu đào tạo để dẫn đầu cuộc đua AI. Với 350 nghìn chip H100 và tổng cộng 600 nghìn chip H100 về sức mạnh tính toán, Meta có lợi thế trong việc đào tạo các mô hình AI lớn và phức tạp. Chiến lược nguồn mở của Meta đã giúp xây dựng cộng đồng các nhà nghiên cứu và phát triển AI toàn cầu, thu hút những nhân tài hàng đầu trong lĩnh vực AI. Meta cũng sở hữu lượng dữ liệu đào tạo AI khổng lồ từ các bài đăng và bình luận công khai trên Facebook và Instagram. Meta tin rằng AI sẽ đóng góp doanh thu 1 nghìn tỷ đô la cho công ty trong 5 năm tới.
📌 99,9% doanh nghiệp ở Mỹ là doanh nghiệp nhỏ, với tổng số 33,2 triệu và tạo công ăn việc làm cho 62 triệu người Mỹ, chiếm 46% lực lượng lao động, đóng góp 40% GDP. Các doanh nghiệp nhỏ ở Mỹ được dự báo sẽ dẫn đầu trong việc đầu tư vào AI vào năm 2024, với 60% kỳ vọng tăng ngân sách, nhằm cải thiện năng suất và giao tiếp, trong bối cảnh họ đối mặt với những thách thức về lạm phát và cạnh tranh.
📌 Doanh nghiệp châu Âu đang ngày càng nhận ra tiềm năng của trí tuệ nhân tạo và áp dụng các công nghệ AI để cải thiện hiệu quả hoạt động. Theo khảo sát của AWS, 38% doanh nghiệp châu Âu đã áp dụng công nghệ AI vào năm 2023.
📌AI tạo sinh có thể giúp doanh nghiệp tăng hiệu quả hoạt động và lợi nhuận, nhưng cần triển khai đúng cách. ROI trung bình cho dự án AI tạo sinh năm ngoái chỉ là 5,9%, thấp hơn nhiều so với mức vốn đầu tư 10%. Bài viết này cung cấp thông tin về những thách thức và cơ hội khi sử dụng AI tạo sinh trong doanh nghiệp.
📌 Cohere là một công ty AI tập trung vào việc phát triển và triển khai các mô hình ngôn ngữ lớn (LLM) để giúp các doanh nghiệp hợp lý hóa hoạt động và cải thiện hiệu quả chung. Cohere cung cấp một bộ giải pháp AI tạo sinh, bao gồm Command và Embed. Các trợ lý ảo được đào tạo theo yêu cầu có thể xử lý và hiểu một cách tự nhiên các tập dữ liệu phức tạp và gửi phản hồi giống con người. Các ứng dụng được đào tạo có thể hiểu và phản hồi các truy vấn kinh doanh phổ biến và cung cấp thông tin chi tiết và phân tích.
📌 Các nền tảng hợp tác dữ liệu giúp giải quyết ba thách thức chính trong quá trình tinh chỉnh mô hình AI: thiếu nguồn dữ liệu chất lượng, loại bỏ định kiến trong mô hình AI và đảm bảo quyền riêng tư khi sử dụng dữ liệu cá nhân. Điều này tạo điều kiện cho việc tinh chỉnh AI một cách hiệu quả, đem lại lợi ích thiết thực cho các tổ chức thông qua việc sử dụng dữ liệu chất lượng cao và đa dạng mà vẫn đảm bảo tuân thủ các quy định về bảo mật dữ liệu.
📌 Các nhà lãnh đạo IT đang đặt cược lớn vào AI tạo sinh với dự kiến tăng gấp ba lần ngân sách dành cho các dự án AI tạo sinh từ 1.5% lên 4.3% ngân sách IT trong khoảng thời gian từ năm 2023 đến 2025. Các công ty có doanh thu trên 5 tỷ USD dự kiến chi tiêu hơn 10% ngân sách cho AI tạo sinh vào năm 2025. Mặc dù có nhận thức cao về rủi ro an ninh và sự thiếu hụt dữ liệu cụ thể về ROI, họ vẫn tiến hành triển khai nhanh chóng, kỳ vọng vào sự tăng trưởng GDP toàn cầu 7% và tăng 40% năng suất lao động trong 10 năm. Điều này cho thấy sự lạc quan mạnh mẽ về tiềm năng của AI tạo sinh, dù còn nhiều thách thức cần giải quyết trong quản lý rủi ro và đánh giá hiệu quả đầu tư.
📌 Mặc dù Generative AI (GenAI) đang nhận được sự chú ý lớn do sự xuất hiện của các công cụ như ChatGPT, nhưng việc áp dụng AI trong doanh nghiệp vẫn đang tiến triển chậm chạp. Các thách thức về kỹ năng, quy định, độ tin cậy và cơ sở hạ tầng đang là những rào cản lớn. Chỉ có 10% tổ chức đã đưa GenAI vào quá trình sản xuất, và 58% có mức độ tích hợp AI thấp, với việc chạy ít hơn 5 mô hình. Tuy nhiên, với sự cải thiện về cơ sở hạ tầng và dịch vụ, cùng với sự phát triển của kỹ năng, có khả năng sẽ thấy sự tăng trưởng mạnh mẽ hơn trong việc áp dụng AI trong các doanh nghiệp trong năm tới.
📌 Nghiên cứu IBM về người tiêu dùng năm 2024 phơi bày sự không hài lòng đối với trải nghiệm mua sắm hiện tại, với chỉ 9% và 14% người tiêu dùng cảm thấy hài lòng khi mua sắm tại cửa hàng và trực tuyến. Yếu tố AI trong mua sắm đang được 59% người tiêu dùng mong đợi, trong khi 86% muốn AI giúp họ tìm kiếm sản phẩm và 73% sẵn lòng chi trả thêm cho các sản phẩm bền vững. Báo cáo kêu gọi các thương hiệu bán lẻ nhanh chóng áp dụng AI để cung cấp trải nghiệm mua sắm cá nhân hóa, liền mạch và đa kênh, đồng thời làm tăng lòng trung thành của khách hàng và thúc đẩy tăng trưởng.
📌 AI tạo sinh đang mang lại cơ hội biến đổi lớn cho ngành bất động sản. Công nghệ này không chỉ giúp tối ưu hóa vận hành và tăng cường hiệu quả quyết định thông qua việc phân tích dữ liệu mà còn hỗ trợ trong việc thiết kế và xây dựng các công trình. Các tổ chức trong ngành cần nhanh chóng thích nghi với sự thay đổi này, đầu tư vào tài năng dữ liệu và công nghệ, và tái cấu trúc quy trình kinh doanh để tận dụng lợi thế cạnh tranh từ AI tạo sinh. McKinsey Global Institute ước tính rằng AI tạo sinh có thể tạo ra giá trị từ 110 tỷ đến 180 tỷ USD hoặc hơn cho ngành bất động sản, tùy thuộc vào việc triển khai và sử dụng công nghệ một cách hiệu quả.
📌 Sự đổi mới của Bắc Kinh trong việc đăng ký doanh nghiệp cho người nước ngoài qua nhận diện khuôn mặt có thể được xem là một bước ngoặt quan trọng trong việc thu hút và hỗ trợ đầu tư nước ngoài. Emilia Mpwo Bywaters đã chứng minh hiệu quả của hệ thống này khi đăng ký công ty của mình chỉ trong 10 phút, thể hiện sự cải thiện đáng kể so với quá trình cũ. Sự chuyển đổi này không chỉ làm giảm bớt thủ tục hành chính mà còn phản ánh cam kết của Bắc Kinh trong việc tạo môi trường kinh doanh thuận lợi cho nhà đầu tư nước ngoài, đồng thời cũng đặt ra câu hỏi về khả năng áp dụng công nghệ tương tự ở các trung tâm kinh doanh toàn cầu khác.
📌 Theo dữ liệu từ Hội Đồng Doanh Nghiệp Nhỏ và Khởi Nghiệp Hoa kỳ, AI có thể nâng cao hiệu suất của doanh nghiệp nhỏ lên đến 40% và đã được 41% doanh nghiệp nhỏ áp dụng trong việc tự động hóa công việc hàng ngày. Đặc biệt, trong bối cảnh lạm phát, AI giúp doanh nghiệp nhỏ duy trì sự ổn định về giá cả cho người tiêu dùng. Dự đoán của GlobalData về sự tăng trưởng của thị trường AI lên đến hơn 909 tỷ USD vào năm 2030, với CAGR là 35% từ năm 2022 đến 2030, cho thấy cơ hội và tầm quan trọng của AI trong tương lai của doanh nghiệp nhỏ.
📌 AI tạo sinh đang dần thay đổi cách thức kinh doanh và đòi hỏi sự đào tạo nội bộ, tái cấu trúc trong doanh nghiệp. 81% lãnh đạo tin rằng AI tạo sinh sẽ tạo ra công việc mới, trong khi 74% cho rằng sẽ có nhiều thay đổi cần quản lý. Nghiên cứu từ MIT và BCG chỉ ra rằng 90% nhân viên ở các công ty tiên tiến về công nghệ cảm thấy được đánh giá cao, hạnh phúc và sẵn sàng cho công việc. Thách thức lớn hiện nay là vượt qua các rào cản để sử dụng rộng rãi AI tạo sinh, giúp doanh nghiệp tận dụng sức mạnh này cho sự thành công lớn hơn.
📌 Cuộc họp tại Nhà Trắng đã đề cập đến những thách thức và cơ hội mà AI mang lại cho các doanh nghiệp nhỏ, cũng như sự cần thiết của việc quản lý đối với các mối quan hệ AI quan trọng như giữa Microsoft và OpenAI. Điều này phản ánh mối quan tâm rộng lớn đến việc đảm bảo cạnh tranh công bằng và tránh độc quyền trong ngành công nghiệp AI đang phát triển nhanh chóng. Thông tin không phải là lời khuyên đầu tư và trang web không chịu trách nhiệm về các quyết định đầu tư dựa trên thông tin cung cấp.
📌 Với doanh thu $95 tỷ và lợi nhuận ròng $25 tỷ trong ba quý đầu năm 2023, Meta đang chứng tỏ sức mạnh của AI trong việc cải thiện giao tiếp kinh doanh. Tích hợp AI vào các nền tảng như Facebook và Instagram đã tăng thời gian tương tác của người dùng lên 7% và 6% tương ứng. Công cụ Advantage+ shopping cũng góp phần đáng kể với doanh thu hàng năm là $10 tỷ. Chiến lược này không chỉ củng cố vị thế của Meta trong việc tối ưu hóa quảng cáo và tương tác người dùng mà còn nâng cấp trải nghiệm kinh doanh thông qua WhatsApp, đặc biệt là tại thị trường Ấn Độ. Meta đang hướng tới việc đơn giản hóa việc thiết lập giao diện AI cho các doanh nghiệp, đánh dấu một bước ngoặt quan trọng trong việc áp dụng công nghệ vào giao tiếp kinh doanh.
📌 Để không bị tụt hậu trong cuộc đua công nghệ, các nhà lãnh đạo cần chủ động hành động ngay lập tức. Generative AI hay AI sáng tác, được dự báo sẽ tạo ra thị trường 1,3 nghìn tỷ USD vào năm 2032, đang thay đổi cách tổ chức làm việc và tạo doanh thu. Với trên 20% CEO coi AI là công nghệ quan trọng nhất và 80% nhân viên tin vào sự nâng cao năng suất từ AI, việc xây dựng năng lực và mô hình vận hành là chìa khóa để tận dụng lợi ích to lớn từ AI sáng tác.
📌 DigitalOcean đã định hình một bước tiến lớn trong việc cung cấp công nghệ AI cho các doanh nghiệp nhỏ bằng việc tích hợp GPU Nvidia H100 vào nền tảng Paperspace của họ. Sản phẩm này không chỉ giúp mở rộng khả năng xây dựng ứng dụng AI ngoài việc tạo ra chatbot mà còn hỗ trợ mạnh mẽ cho việc đào tạo mô hình AI. Với chiến lược làm cho công nghệ AI cao cấp dễ tiếp cận và chi phí hợp lý, DigitalOcean hứa hẹn sẽ là đối tác quan trọng trong việc đưa AI đến với quy mô doanh nghiệp nhỏ và vừa.
📌 SAP Joule đang đặt nền móng cho việc cung cấp dịch vụ AI tạo sinh trong khi tập trung vào việc tạo ra AI có trách nhiệm và bảo vệ dữ liệu cá nhân. AI tạo sinh chưa được triển khai rộng rãi, nhưng đã đem đến những ứng dụng thực tế như tự động hóa CRM, cải thiện giao tiếp khách hàng, và giảm tải công việc thủ công cho nhân viên bán hàng. SAP tiếp tục đổi mới và phát triển công nghệ AI tạo sinh dựa trên nguyên tắc 3R và nhấn mạnh vào bảo mật dữ liệu.
📌 AI tạo sinh đang biến đổi bản chất của khởi nghiệp, hỗ trợ nhà sáng lập từ việc lập kế hoạch, tạo nội dung cho đến quản lý các hoạt động hàng ngày. Ethan Mollick đã chứng minh khả năng của AI trong việc tạo ra kế hoạch ra mắt sản phẩm, chiến dịch email và website chỉ trong vòng 30 phút. Sự linh hoạt và tiết kiệm thời gian này làm nổi bật tiềm năng của AI, không chỉ là công cụ hỗ trợ mà còn có thể coi là đối tác đồng hành cùng các nhà khởi nghiệp trong việc định hình và phát triển doanh nghiệp của họ.
📌AI tạo sinh không phù hợp cho việc dự đoán do bộ dữ liệu mà công cụ này được huấn luyện không ở định dạng thích hợp cho mô hình dự đoán. Với việc ra mắt Predictive GenAI, Pecan AI đưa ra một giải pháp đột phá trong việc kết hợp AI dự đoán và AI tạo sinh, hứa hẹn mở ra cánh cửa mới cho việc sử dụng AI trong doanh nghiệp. Công ty không chỉ tập trung vào việc cung cấp công nghệ mà còn hướng đến việc làm cho AI dễ tiếp cận với người dùng kinh doanh, đồng thời tiếp tục phát triển công nghệ để cải thiện khả năng dự đoán và giảm thiểu rủi ro rò rỉ dữ liệu.
📌 Báo cáo từ Capgemini Research Institute cung cấp thông tin chi tiết về hướng đầu tư AI của các lãnh đạo doanh nghiệp: 88% dự định tăng cường đầu tư vào AI trong 12-18 tháng tới, và 83% mong muốn tăng đầu tư vào công nghệ kỹ thuật số. Điều này không chỉ phản ánh niềm tin mà còn là chiến lược đối phó với những thách thức kinh tế toàn cầu. Bên cạnh đó, 76% lãnh đạo thừa nhận rằng AI sẽ trở thành một phần không thể thiếu trong các quyết định kinh doanh. Trong khuôn khổ của việc áp dụng AI, các công ty cũng đang tập trung vào việc đào tạo và phát triển kỹ năng cho nhân viên, để chuẩn bị cho một tương lai công nghệ định hình. Ngoài ra, vấn đề bảo mật thông tin và dữ liệu cũng được ưu tiên cao với 71% lãnh đạo xem xét đến việc đầu tư mạnh mẽ vào an ninh mạng.
📌 Kết quả từ cuộc khảo sát hàng năm về dữ liệu, phân tích và AI tiết lộ rằng AI tạo sinh có ảnh hưởng đáng kể tới cách các công ty lớn tiếp cận và coi trọng dữ liệu. Công nghệ này, đặc biệt sau khi ChatGPT được công bố, đã góp phần làm tăng số lượng phản hồi tích cực về việc thiết lập một văn hóa dữ liệu và phân tích nội bộ. Điều này đánh dấu một bước ngoặt quan trọng, với 2023 là năm chứng kiến sự bùng nổ của AI tạo sinh. Các công ty cần chủ động đầu tư vào việc thử nghiệm, triển khai sản xuất và giáo dục liên quan để có thể tận dụng triệt để những cơ hội mà AI tạo sinh mang lại, đặc biệt là trong việc nâng cao nhận thức và kỹ năng làm việc với dữ liệu.
📌 Bài viết từ MIT Technology Review phân tích làm thế nào tổ chức có thể nâng cao hiệu suất kinh doanh và giành lợi thế cạnh tranh bền vững nhờ vào việc trở thành một tổ chức dẫn dắt bằng dữ liệu. Tổ chức dẫn dắt bằng dữ liệu không chỉ tăng trưởng EBITDA lên đến 25% mà còn giúp khai thác tiềm năng chưa được tận dụng. Với 76% lãnh đạo cấp cao áp dụng AI tạo sinh, việc xây dựng nền tảng dữ liệu vững chắc và phá bỏ silos để tạo ra quyết định dựa trên dữ liệu là chìa khóa cho sự thành công. Điều quan trọng là phải liên tục vượt qua các rào cản như nền tảng dữ liệu lỗi thời và sự kháng cự văn hóa để duy trì lợi thế cạnh tranh trong kỷ nguyên số.
📌 Báo cáo Hiện trạng AI tạo sinnh trong doanh nghiệp của Deloitte cho quý 1, phát hành tháng 1/2024, cung cấp cái nhìn sâu sắc về sự áp dụng AI tạo sinh tại các doanh nghiệp. Kết quả khảo sát chỉ ra rằng, 62% lãnh đạo bày tỏ cảm xúc hứng thú cao đối với AI tạo sinh, trong khi 30% cảm thấy không chắc chắn. Các tổ chức có xu hướng tìm kiếm giải pháp AI tạo sinh sẵn có thay vì phát triển sâu rộng, với sự tập trung nhiều hơn vào hiệu suất và tiết kiệm chi phí. Tuy nhiên, vẫn cần đầu tư mạnh mẽ hơn vào nhân tài, quản trị và chuẩn bị cho rủi ro liên quan. Lãnh đạo dự đoán rằng trong vòng ba năm tới, AI tạo sinh sẽ tạo ra những thay đổi đột phá và đang kêu gọi sự điều chỉnh từ pháp luật và hợp tác toàn cầu để đối phó với những thách thức và áp lực đi kèm.
📌 Với việc ra mắt Khu trải nghiệm AI, TCS không chỉ nâng cao kỹ năng AI cho hơn 150.000 nhân viên mà còn tạo cơ hội để họ tương tác với công nghệ AI tạo sinh hàng đầu. Khu vực này sẽ thúc đẩy sự hợp tác và thử nghiệm với công nghệ nguồn mở và mô hình ngôn ngữ lớn từ các đối tác như AWS, Google và Microsoft. TCS đang tận dụng mạng lưới đổi mới toàn cầu để phát triển các giải pháp AI, từ việc tạo ra các trung tâm xuất sắc và phòng thí nghiệm đổi mới, đến việc triển khai các ứng dụng AI trong chuỗi giá trị ngành và phát triển hệ thống. Đây là bước đi quan trọng trong cam kết hướng tới một tương lai "AI-first", không chỉ trong hoạt động kinh doanh mà còn trong cách TCS dẫn đầu và đổi mới trong một thế giới đang thay đổi nhanh chóng.
📌 GPT đang tạo ra một cuộc cách mạng trong lĩnh vực tư vấn, không chỉ làm tăng năng suất mà còn giúp các công ty tư vấn chiếm lĩnh lợi thế cạnh tranh. Nó cho phép tạo nhanh chóng các tài liệu quan trọng và hỗ trợ trong việc phân tích dữ liệu cũng như trong quyết định chiến lược. Công ty nào sớm áp dụng công nghệ này sẽ vượt lên, trong khi những công ty chần chừ có thể mất cơ hội và bị tụt hậu. Với sự phát triển không ngừng của công nghệ AI và tầm quan trọng của việc áp dụng nó vào các dịch vụ tư vấn, việc tích hợp GPT vào hoạt động kinh doanh không chỉ là xu hướng mà còn là yêu cầu cấp thiết để không bị lỗi thời.
📌 Bài viết từ Cryptopolitan phác họa một bức tranh rõ ràng về sự trỗi dậy của Generative AI (GenAI) và ảnh hưởng đối với doanh nghiệp. Bài viết làm nổi bật sự tiến bộ trong công nghệ AI nhờ vào mô hình nền tảng và kiến trúc transformer, cho phép máy hiểu và xử lý ngôn ngữ tự nhiên một cách chính xác. Mọi doanh nghiệp đều có thể tìm thấy giải pháp GenAI thích hợp, từ việc tích hợp API sẵn có đến phát triển mô hình tùy chỉnh, dựa trên yêu cầu về chi phí, độ phức tạp và độ chính xác. Việc tinh chỉnh mô hình để phù hợp với nội dung chuyên ngành cũng đang trở nên phổ biến, giúp các doanh nghiệp cải thiện độ chính xác và nắm bắt lợi thế cạnh tranh trong thị trường.
📌 Sự chấp nhận nhanh chóng của ChatGPT Enterprise bởi 260 doanh nghiệp trong vòng chỉ 4 tháng kể từ khi ra mắt cho thấy sức hút mạnh mẽ của sản phẩm này trong thế giới doanh nghiệp. Tính năng nâng cao và bảo vệ quyền riêng tư, cùng với khả năng tùy chỉnh giá cả, làm cho ChatGPT Enterprise trở thành một công cụ hấp dẫn và linh hoạt cho các doanh nghiệp lớn. Việc hơn 150,000 nhân viên từ các công ty này đăng ký sử dụng sản phẩm càng chứng minh giá trị và tiềm năng của ChatGPT trong việc cải thiện hoạt động kinh doanh và tăng cường giao tiếp nội bộ.
📌 Trong bối cảnh các doanh nghiệp như Walmart mở rộng ứng dụng trợ lý AI tạo sinh mở rộng cho 10 quốc gia và Zillow thử nghiệm giải pháp tự phát triển với tỷ lệ chấp nhận 50%, có thể thấy AI tạo sinh đang dần trở thành một phần không thể thiếu trong quá trình số hóa doanh nghiệp. Với hơn 40% các nhà điều hành đang thực hiện các dự án thử nghiệm và chỉ 10% chuyển sang sản xuất, năm 2024 có thể là bước ngoặt quan trọng cho việc áp dụng AI tạo sinh ở quy mô lớn.
📌 Mastercard Small Business AI, với nền tảng GPT4 của OpenAI, là một bước tiến quan trọng trong việc hỗ trợ doanh nghiệp nhỏ và vừa. Cung cấp tư vấn đa ngôn ngữ, chatbot này giúp giảm khoảng cách thông tin và tài nguyên, đặc biệt cho các nhà sáng lập đa văn hóa và thiểu số. Với nguồn dữ liệu đa dạng và ít thiên vị từ Mastercard và đối tác, công cụ này không chỉ giúp doanh nghiệp tìm kiếm thông tin và hỗ trợ cần thiết mà còn góp phần tạo ra một môi trường kinh doanh công bằng và toàn diện hơn. Sự ra mắt của Mastercard Small Business AI không chỉ là một công cụ hữu ích mà còn là minh chứng cho cam kết của Mastercard trong việc hỗ trợ và phát triển cộng đồng doanh nghiệp nhỏ và vừa.
📌 Trong báo cáo của Accenture, sự tiến hóa của AI từ việc xử lý nhiệm vụ đơn lẻ sang việc hỗ trợ các agent thông minh có khả năng tự hành động đang dần thay đổi cấu trúc hoạt động doanh nghiệp và cách mà chúng ta tương tác với công nghệ. Nhấn mạnh vai trò của con người trong việc hướng dẫn và quản lý các agent này, báo cáo kêu gọi sự phát triển kỹ năng, thiết lập quy tắc và kiểm tra nghiêm ngặt để đảm bảo sự tin cậy trong hệ thống tự động. Đội ngũ nhân viên không chỉ cần được trang bị kiến thức để xây dựng niềm tin mà còn cần có khả năng phát triển và thích ứng với công nghệ, đặc biệt là khi AI đang dần chiếm lĩnh các vị trí quản lý và vận hành công ty. Điều quan trọng là phải bắt đầu tích hợp các agent vào hoạt động kinh doanh ngay từ bây giờ để đảm bảo không bị bỏ lại phía sau trong cuộc cách mạng công nghệ mà AI đang dẫn dắt.
📌 Tiểu bang Pennsylvania đang tiên phong trong việc áp dụng AI tạo sinh vào quản lý chính phủ, thông qua sự hợp tác với OpenAI và các chuyên gia từ Đại học Carnegie Mellon. Sáng kiến này không chỉ tập trung vào việc nâng cao hiệu suất công việc mà còn đặt ra các tiêu chuẩn bảo mật để bảo vệ dữ liệu. Hội đồng AI Tạo Sinh đóng vai trò quan trọng trong việc đánh giá và khuyến nghị, đảm bảo rằng chương trình thử nghiệm phản ánh các giá trị như minh bạch và công bằng. Kỳ vọng từ chương trình này cao, với mục tiêu lâu dài là tạo ra một mô hình có thể được nhân rộng khắp cả nước, đưa AI trở thành công cụ hữu ích cho các nhân viên chính phủ, từ đó phục vụ cộng đồng một cách tốt nhất.
📌 AI.g, trợ lý ảo của Air India tích hợp trên WhatsApp, đánh dấu bước tiến đáng kể trong dịch vụ hỗ trợ khách hàng của hãng hàng không. Sự ra đời của AI.g, không chỉ giúp giải quyết yêu cầu của khách hàng về hơn 1300 chủ đề du lịch mà còn nâng cao khả năng tiếp cận dịch vụ của Air India bằng việc hỗ trợ nhiều ngôn ngữ như Hindi, Anh, Pháp, và Đức. Khách hàng có thể dễ dàng thực hiện các thao tác như kiểm tra trạng thái chuyến bay, thông tin hành lý, tải thẻ lên máy bay, chọn chỗ ngồi và liên hệ trực tiếp với đại lý thông qua một cuộc trò chuyện WhatsApp đơn giản. Đối thủ cạnh tranh, IndiGo, cũng không kém cạnh với việc triển khai chatbot 6Eskai của riêng mình, cho thấy sự cạnh tranh trong lĩnh vực hàng không đang diễn ra trên mặt trận công nghệ AI tạo sinh.
📌 HPE mua lại Juniper Networks với giá 14 tỷ đô la, đánh dấu một bước ngoặt lớn trong chiến lược của họ để củng cố vị thế trong ngành công nghệ AI và đám mây. Thương vụ này dự kiến sẽ làm tăng gấp đôi kinh doanh mạng của HPE và mở rộng cơ hội tiếp cận với giải pháp đám mây lai, đồng thời tận dụng nền tảng AI của Juniper. Việc sát nhập này cũng sẽ tạo điều kiện cho HPE tối ưu hóa cung cấp các giải pháp công nghệ từ edge đến đám mây, gia tăng giá trị cho cả doanh nghiệp và cổ đông, đồng thời cung cấp nền tảng cho các ứng dụng AI tương lai.
📌 Trong quý vừa qua, Dukaan đã sa thải 90% đội ngũ nhân viên hỗ trợ và áp dụng chatbot AI Lina, dẫn đến việc giảm chi phí nhân sự từ 2 triệu USD xuống còn 200 nghìn USD. Tuy nhiên, sự cố kỹ sư mua xe với giá 1 USD cho thấy rõ ràng rằng AI vẫn cần được giám sát cẩn thận. Các chuyên gia nhấn mạnh sự cần thiết của việc kết hợp AI với nhân viên để đạt hiệu quả cao nhất, với 75% các trường hợp hỗ trợ khách hàng được giải quyết mà không cần can thiệp của con người, nhưng 25% còn lại vẫn đòi hỏi sự nhạy bén và sáng suốt chỉ có ở nhân viên sống.
📌 Sự hợp nhất giữa AI và Agile không chỉ mở ra cánh cửa cho sự hợp tác chặt chẽ, giữa các đội ngũ kỹ thuật và kinh doanh mà còn hứa hẹn giải phóng nhà phát triển và chuyên gia IT, giúp họ dành nhiều thời gian hơn cho việc điều hành doanh nghiệp. Trong tương lai, chúng ta có thể chứng kiến một loại AI mới - Trí tuệ Agile (Agile Intelligence). AI không chỉ tác động đến Agile mà Agile cũng cần cho xây dựng và vận hành hệ thống dựa trên AI. Khi kết hợp AI và Agile, doanh nghiệp có thể tăng cường quá trình thiết kế và phát triển phần mềm. AI còn được xem là "người cộng tác siêu năng lực", giúp mở rộng quan điểm và hiểu biết, dẫn đến sản phẩm và kết quả tốt hơn.
📌 Deloitte đang định hình lại ngành dịch vụ chuyên nghiệp với việc triển khai chatbot AI tạo sinh PairD cho 75.000 nhân viên ở châu Âu và Trung Đông để cải thiện năng suất, nhấn mạnh sự cần thiết của việc xác minh thông tin để duy trì độ chính xác. Cùng với việc EY sử dụng AI phát hiện gian lận và KPMG tăng cường năng lực cho nhân viên mới, các công ty lớn đang thể hiện sự cam kết với công nghệ AI. Deloitte và các "Big Four" tiếp tục mở rộng việc sử dụng AI không chỉ để tối ưu hóa hoạt động nội bộ mà còn để cung cấp dịch vụ tư vấn nâng cao cho khách hàng, hướng tới việc cải thiện toàn diện ngành dịch vụ chuyên nghiệp.
- AI đang chiếm lĩnh môi trường làm việc, và người lao động vẫn chưa chắc chắn về cách công ty của họ sử dụng công cụ tự động hóa để tăng năng suất hoặc bổ sung cho các nhiệm vụ cụ thể trong công việc của mình.
- Nhiều công ty đã đầu tư hết mình vào AI mà không xem xét đến tác động ngắn hạn và dài hạn đối với tinh thần nhân viên. Kết quả là, những ảnh hưởng tiêu cực đã bắt đầu xuất hiện.
- Các nghiên cứu đã chỉ ra rằng nhân viên cảm thấy căng thẳng và lo lắng hơn kể từ khi công ty triển khai các dự án tập trung vào AI, nhằm tăng cường năng suất chung.
- Một nghiên cứu bởi Hiệp hội Tâm lý Mỹ (APA) cho thấy khoảng 38% người lao động Mỹ lo lắng rằng AI sẽ thay thế một phần hoặc toàn bộ công việc của họ.
- Khoảng 32% nhân viên biết rằng sếp của họ đang theo dõi hoạt động của họ báo cáo rằng sức khỏe tinh thần của họ là "trung bình" hoặc "kém".
- Trong một nghiên cứu khác của APA, hơn một nửa số nhân viên cho biết họ biết rằng sếp hoặc quản lý của họ đang sử dụng một số hình thức AI để giám sát hoạt động của họ trong giờ làm việc.
- Một khảo sát của The Conference Board cho thấy 1 trong 10 nhà tuyển dụng hiện đang sử dụng công cụ AI tạo sinh hàng ngày. Tuy nhiên, chỉ có 23% cho biết công ty của họ đang phát triển chính sách AI và 26% cho biết tổ chức của họ đã có chính sách.
- Theo Pew Research Center, khoảng 19% người lao động Mỹ đang làm việc trong những vị trí có nguy cơ cao bị tự động hóa bởi AI.
- AI đã góp phần gây ra khoảng 4,000 việc làm bị cắt giảm vào tháng Năm năm nay.
📌 Trong bối cảnh AI ngày càng chiếm lĩnh thị trường lao động, những nghiên cứu mới chỉ ra rằng mặc dù 1 trong 10 nhà tuyển dụng sử dụng công cụ AI tạo sinh hàng ngày, chỉ có 23% tổ chức đang phát triển chính sách AI và 26% đã có chính sách cụ thể. Các nhân viên thì ngày càng lo lắng về vấn đề mất việc và sự giám sát từ AI, với 38% công nhân Mỹ bày tỏ lo ngại AI có thể thay thế công việc của họ và 32% báo cáo sức khỏe tâm thần không tốt khi biết rằng họ đang được giám sát. Trong khi đó, 19% người lao động Mỹ đang làm việc trong lĩnh vực có nguy cơ cao bị tự động hóa bởi AI và đã có khoảng 4.000 vụ sa thải liên quan đến AI chỉ trong tháng 5 năm nay. Các vấn đề về quyền riêng tư, an ninh dữ liệu và phân biệt đối xử nơi làm việc tiếp tục là những chủ đề nóng hổi, yêu cầu một sự cân nhắc sâu sắc từ phía nhà tuyển dụng để tích hợp AI một cách hiệu quả và đạo đức.
📌 Trong bối cảnh AI đang định hình lại môi trường kinh doanh hiện đại, các doanh nghiệp cần chuyển đổi để trở thành "công ty không giới hạn", khai thác triệt để tiềm năng của AI. IDC dự đoán chi tiêu toàn cầu cho AI tăng 26,9% trong năm 2023. 86% lãnh đạo IT tin rằng AI tạo sinh sẽ đóng vai trò quan trọng trong tổ chức của họ trong tương lai gần, và Gartner dự đoán 40% ứng dụng doanh nghiệp sẽ có giao diện AI giao tiếp vào năm 2024, rõ ràng AI không chỉ là xu hướng mà còn là một yếu tố then chốt cho sự thành công. Các doanh nghiệp cần xây dựng một nền tảng dữ liệu vững chắc, với 92% nhà phân tích và lãnh đạo IT nhấn mạnh tầm quan trọng của dữ liệu đáng tin cậy.
📌 Các ứng dụng AI tạo sinh mới có tác động lớn đến năng suất nhưng cũng đi kèm với rủi ro, bao gồm nguy cơ về an ninh dữ liệu và sự nhầm lẫn do thêm ứng dụng mới vào quy trình làm việc. Một giải pháp có thể là sử dụng nền tảng chấp nhận kỹ thuật số (DAP) để hướng dẫn nhân viên thông qua quy trình làm việc thực tế và xuyên suốt các ứng dụng mà không làm tăng độ phức tạp của quy trình. Bằng cách tập trung vào việc chấp nhận kỹ thuật số và sử dụng các nền tảng hỗ trợ như DAP, doanh nghiệp có thể hướng dẫn nhân viên sử dụng công cụ AI một cách an toàn và hiệu quả, đồng thời giải quyết các vấn đề liên quan đến an ninh dữ liệu và quản lý thay đổi công nghệ. Tập trung vào việc chấp nhận nền tảng chấp nhận kỹ thuật số sẽ giúp giải quyết nhiều vấn đề: loại bỏ rủi ro do "AI bóng tối", ngăn chặn sự bực bội của nhân viên và cải thiện trải nghiệm và năng suất của nhân viên.
Theo Dan Ives, chuyên gia công nghệ cấp cao của công ty chứng khoán Wedbush Securities, năm 2024 được dự báo là "Năm của trí tuệ nhân tạo (AI)". Ông cho biết các ứng dụng của AI trong doanh nghiệp đang tăng trưởng nhanh chóng trên toàn thế giới.
Để có được nhận định này, Wedbush đã phối hợp với GBK Collective tiến hành khảo sát 672 công ty. Kết quả cho thấy hơn 50% số công ty tham gia khảo sát nhìn thấy hơn 20 ứng dụng tiềm năng của AI sinh tạo, và trên 80% nhìn thấy ít nhất 10 ứng dụng có thể đem lại lợi ích thiết thực để cải thiện các hoạt động kinh doanh của họ, như phân tích dữ liệu, tự động hóa nội dung marketing, chỉnh sửa văn bản,...
Các chuyên gia dự đoán chi tiêu cho AI sẽ chiếm từ 8-10% tổng ngân sách CNTT của doanh nghiệp vào năm 2024, tăng đáng kể so với mức dưới 1% vào năm 2023. Thu nhập từ các ứng dụng AI cũng được kỳ vọng sẽ xuất hiện sớm hơn so với dự kiến ban đầu của giới đầu tư.
Trong cuộc đua phát triển AI hiện nay, Microsoft được đánh giá là đang dẫn đầu, tiếp đến là Google với những bước đi mạnh mẽ để trở thành một trong những "ông lớn" của AI trong tương lai. Nhiều công ty công nghệ khác như Amazon, Meta, Nvidia, Apple cùng các các công ty nhỏ hơn cũng được dự báo sẽ đầu tư hàng tỷ USD vào cuộc đua AI trong những năm tới.
Nhìn chung, AI được kỳ vọng sẽ đem lại nhiều lợi ích to lớn cho các doanh nghiệp như tăng hiệu quả hoạt động, tiết kiệm chi phí, mở ra cơ hội kinh doanh và mô hình dịch vụ mới. AI cũng được dự báo sẽ định hình lĩnh vực tài chính doanh nghiệp trong năm 2024.
📌 Các ứng dụng AI trong doanh nghiệp đang tăng trưởng nhanh chóng trên phạm vi toàn cầu. Hơn 50% số công ty tham gia khảo sát nhìn thấy hơn 20 ứng dụng tiềm năng của AI sinh tạo, và trên 80% nhìn thấy ít nhất 10 ứng dụng có thể đem lại lợi ích thiết thực để cải thiện các hoạt động kinh doanh của họ, như phân tích dữ liệu, tự động hóa nội dung marketing, chỉnh sửa văn bản,... Các chuyên gia dự đoán chi tiêu cho AI sẽ chiếm từ 8-10% tổng ngân sách CNTT của doanh nghiệp vào năm 2024, tăng đáng kể so với mức dưới 1% vào năm 2023. Thu nhập từ các ứng dụng AI cũng được kỳ vọng sẽ xuất hiện sớm hơn so với dự kiến ban đầu của giới đầu tư. Microsoft, Google là những cái tên dẫn đầu trong cuộc đua phát triển AI hiện nay.
📌 Trong bối cảnh công nghệ AI phát triển, doanh nghiệp Ấn Độ đang dần chuyển mình để áp dụng RAI một cách có trách nhiệm. Với việc 60% doanh nghiệp đã có hoặc đang hình thành thực hành RAI, và cam kết từ lãnh đạo cao nhất, quá trình này không chỉ thể hiện sự chín muồi trong quản lý mà còn phản ánh nỗ lực hướng tới sự minh bạch và tuân thủ đạo đức trong sử dụng AI.
📌Khoảng 71% doanh nghiệp trên toàn cầu đang thử nghiệm với các trường hợp sử dụng thực tế của AI tạo sinh và trong thập kỷ tới, AI tạo sinh sẽ là trọng tâm thúc đẩy tăng trưởng kinh doanh. Các mô hình cơ bản là công cụ mạnh mẽ nhưng có thể truy cập được bởi tất cả mọi người. Để tạo ra sự khác biệt, các tổ chức nên dựa vào dữ liệu kinh doanh của chính họ để xây dựng mô hình và ứng dụng AI tạo sinh
📌 Báo cáo của EY phản ánh sự cam kết mạnh mẽ của các CEO Ấn Độ đối với AI tạo sinh nhằm đạt được lợi thế cạnh tranh. Mặc dù đối mặt với thách thức từ sự thay đổi nhanh chóng của công nghệ và môi trường quy định, các nhà lãnh đạo doanh nghiệp vẫn tích cực huy động vốn và tối ưu hóa chiến lược để tận dụng cơ hội từ AI tạo sinh, với kỳ vọng lớn vào tác động của nó đối với tăng trưởng doanh thu trong tương lai gần.
📌 Brandon từ UiPath nhấn mạnh AI tạo sinh là công nghệ làm thay đổi cuộc chơi, đặc biệt sau một năm ChatGPT ra đời. Các CIOs đứng trước thách thức lớn trong việc triển khai công nghệ này do yêu cầu cao về bảo mật, tuân thủ, và đào tạo nhân viên để đạt hiệu quả và an toàn tối ưu.
📌 Sự chấp nhận công cụ tương tự ChatGPT trong doanh nghiệp dường như không đạt được như kỳ vọng mặc dù có sự tăng trưởng gần đây. Dữ liệu từ Cục Điều tra Dân số Hoa Kỳ cho thấy chỉ có một tỷ lệ nhỏ các doanh nghiệp sử dụng AI, nhưng mức sử dụng AI có xu hướng tăng ở cả doanh nghiệp lớn lẫn nhỏ sau khi ChatGPT ra mắt.
📌 Bài viết từ Forbes nhấn mạnh bốn thách thức chính khi áp dụng AI trong doanh nghiệp: dữ liệu, kỹ thuật, quy định và đạo đức, đồng thời khuyến nghị việc chuẩn bị kỹ lưỡng để tận dụng hiệu quả lợi ích của AI.
📌 Kirin Holdings của Nhật Bản đang mở rộng sự sáng tạo trong lĩnh vực đồ uống thông qua sự hợp tác với AI tạo sinh, nhắm đến việc nhanh chóng phát triển sản phẩm đáp ứng nhu cầu thị trường và duy trì chất lượng sản phẩm qua kiểm định của con người.
Bài báo của HBR nêu rõ sự cần thiết của việc hiểu và sử dụng hiệu quả Generative AI trong môi trường làm việc hiện đại. Đồng thời, nó cũng nhấn mạnh vào việc đào tạo và nâng cao nhận thức về an toàn, quyền riêng tư, và các nguy cơ liên quan đến công nghệ này.
- AI tạo sinh giúp doanh nghiệp mới chọn tên: từ Amazon đến Zoopla, việc tìm tên doanh nghiệp phản ánh USP, ngành và mục tiêu là quan trọng.
- Các công cụ tạo tên doanh nghiệp miễn phí dựa trên AI ngày càng phổ biến, cung cấp danh sách tên tức thì khi nhập từ khoá.
- Hostinger by Zyro tốt nhất cho doanh nghiệp ecommerce, cung cấp tùy chọn mua tên miền và lập cửa hàng trực tuyến.
- Brandcrowd tốt nhất cho logo, cung cấp trực quan tên doanh nghiệp qua các màu sắc và phong cách.
- Namelix tốt nhất cho tên doanh nghiệp theo xu hướng, cung cấp lựa chọn tùy chỉnh từ phong cách đến cách viết.
- Hootsuite tốt nhất cho sự tùy chỉnh, cho phép lựa chọn dựa trên tông, ngôn ngữ, và phân loại doanh nghiệp.
- Looka cung cấp nhiều lựa chọn nhất với 60 tên doanh nghiệp dựa trên từ khoá và tính cách mong muốn.
- Đăng ký tên doanh nghiệp qua Checker tên công ty của chính phủ UK, quan trọng với sự gia tăng 202.130 doanh nghiệp mới trong 12 tuần đầu năm 2023, tăng 6,5% so với năm trước.
- Rủi ro pháp lý: việc sử dụng AI có thể dẫn đến vi phạm thương hiệu, gây hậu quả pháp lý nếu tên giống hoặc gây nhầm lẫn với thương hiệu đã đăng ký.
Kết luận: Sử dụng các công cụ tạo tên doanh nghiệp dựa trên AI miễn phí đem lại nhiều lợi ích và tiện lợi, nhưng các doanh nghiệp cần cẩn trọng với các rủi ro pháp lý liên quan đến vi phạm thương hiệu, nhất là trong bối cảnh số lượng doanh nghiệp mới tại Anh tăng 6,5% chỉ trong 12 tuần đầu năm 2023.
- Solix Technologies, có trụ sở tại Santa Clara, đã công bố ra mắt nền tảng Solix Common Data Platform (CDP) 3.0, một giải pháp "multi-cloud, data fabric" cho các công ty trong nhiều lĩnh vực như ngân hàng, bảo hiểm và y tế.
- CDP 3.0 nhằm quản lý "dữ liệu quy mô petabyte," đáp ứng quy định về quyền riêng tư ngày càng phát triển và hỗ trợ phân tích nâng cao cùng ứng dụng AI trong môi trường đa đám mây.
- Nền tảng này tích hợp dữ liệu có cấu trúc, không cấu trúc, dữ liệu từ ứng dụng và dữ liệu dựa trên đám mây thông qua kết nối tùy chỉnh và APIs.
- Solix CDP 3.0 cung cấp các khả năng quản trị và bảo mật thống nhất như kiểm soát truy cập, lập danh mục dữ liệu và phân loại tự động, đặc biệt quan trọng trong việc tuân thủ GDPR hay CCPA.
- Các khả năng mới bao gồm bảo mật nâng cao, hiệu suất cải thiện và lựa chọn triển khai đa đám mây, với việc sử dụng công nghệ nguồn mở đã được chứng minh và kiến trúc bản địa đám mây.
- Đối với ngành y tế, CDP của Solix giúp tập trung hóa hồ sơ sức khỏe điện tử cũ, lưu trữ và kết nối với nguồn dữ liệu mới, qua đó cải thiện hiệu suất hệ thống lâm sàng và giảm chi phí cơ sở hạ tầng.
Kết luận: Solix Common Data Platform (CDP) 3.0 được triển khai nhằm đáp ứng nhu cầu quản lý dữ liệu lớn và đa dạng của các doanh nghiệp trong kỷ nguyên AI tạo sinh, với nhiều cải tiến về bảo mật, hiệu suất và khả năng tương thích đa đám mây, hứa hẹn cải thiện đáng kể hiệu quả quản lý dữ liệu.