• Cathy là chatbot AI mới của nhà thờ Episcopalian, được phát triển bởi TryTank Research Institute, sử dụng mô hình ngôn ngữ của OpenAI
• Khả năng của Cathy bao gồm:
- Trả lời câu hỏi về đức tin từ góc nhìn Episcopalian
- Giúp mục sư xây dựng dàn ý bài giảng
- "Dịch" Kinh thánh sang ngôn ngữ phù hợp với giới trẻ
- Tư vấn về các vấn đề tâm lý, tâm linh
• Nhiều tôn giáo đang thử nghiệm chatbot AI:
- Text With Jesus
- Buddhabot
- Chatbot Eli
- Gita GPT
- QuranGPT
• Thách thức và hạn chế:
- Catholic Answers đã phải gỡ bỏ Father Justin do đưa ra câu trả lời vô nghĩa
- Cathy chưa thể đưa ra lời khuyên sâu sắc về các vấn đề phức tạp
- Thiếu sự đồng cảm thực sự trong các tình huống khủng hoảng
- Không thể thay thế vai trò của mục sư thật
• Các chuyên gia cảnh báo:
- Chatbot chỉ mô phỏng sự đồng cảm, không có ý thức thực sự
- Công nghệ không nên thay thế hoàn toàn tương tác người-người
- Cần cân nhắc mục đích và kỳ vọng khi tạo ra công nghệ tôn giáo
📌 Cathy và các chatbot tôn giáo đang mở ra kỷ nguyên mới trong tư vấn tâm linh với hơn 5 nền tảng AI khác nhau. Tuy nhiên, các chuyên gia nhấn mạnh chatbot chỉ nên đóng vai trò hỗ trợ, không thể thay thế hoàn toàn vai trò của các nhà tư vấn tâm linh thực sự.
https://www.businessinsider.com/rise-of-godgpt-religions-christians-using-chatbots-spiritual-formation-2024-11
- Nghiên cứu mới từ MIT Center for Collective Intelligence (CCI) phân tích 370 kết quả từ 106 thí nghiệm trong giai đoạn 2020-2023 về hiệu quả hợp tác giữa người và AI
- Kết quả cho thấy đội nhóm người-AI thường vượt trội hơn nhóm chỉ có con người, nhưng lại kém hiệu quả hơn khi chỉ để AI làm việc độc lập
- Trong các nhiệm vụ ra quyết định như nhận diện deepfake, dự báo nhu cầu hay chẩn đoán y tế, AI làm việc độc lập cho kết quả tốt hơn so với làm việc kết hợp với con người
- Ngược lại, trong các công việc đòi hỏi sáng tạo như tóm tắt bài viết mạng xã hội, tạo câu trả lời chat hay sản xuất nội dung mới, sự hợp tác người-AI mang lại hiệu quả tích cực
- Nghiên cứu khuyến nghị các tổ chức cần:
+ Đo lường hiệu quả hệ thống hiện tại trước khi tích hợp AI
+ Xác định nhiệm vụ phù hợp nhất với khả năng của AI
+ Thiết lập hướng dẫn và ranh giới rõ ràng cho việc tích hợp AI
- Thách thức chính trong hợp tác người-AI bao gồm vấn đề giao tiếp, tin tưởng và phối hợp hiệu quả
- Giáo sư Thomas Malone nhấn mạnh tương lai không phải là thay thế con người bằng AI mà là tìm ra cách để cả hai làm việc hiệu quả cùng nhau
📌 Nghiên cứu từ MIT phân tích 370 kết quả từ 106 thí nghiệm cho thấy AI làm việc độc lập hiệu quả hơn trong ra quyết định, trong khi hợp tác người-AI phát huy tối đa trong công việc sáng tạo. Kết quả này đòi hỏi doanh nghiệp cần cân nhắc kỹ việc tích hợp AI vào quy trình làm việc.
https://www.thebrighterside.news/post/do-humans-and-ai-work-better-together-or-alone-surprising-mit-findings/
• Nghiên cứu mới tập trung vào khả năng của AI trong việc phát hiện cảm xúc con người qua các bài đăng trên nền tảng X (Twitter cũ)
• Phương pháp phân tích cảm xúc truyền thống chỉ phân loại thông điệp thành tích cực, tiêu cực hoặc trung tính, trong khi cảm xúc con người phức tạp hơn nhiều
• Nhóm nghiên cứu sử dụng mô hình "transformer transfer learning" được đào tạo trước bởi Google và Facebook trên:
- 4 bộ dữ liệu cảm xúc tự báo cáo (hơn 3,6 triệu câu)
- 7 bộ dữ liệu khác (hơn 60.000 câu)
• Mô hình AI đạt độ chính xác 84% trong việc phát hiện cảm xúc từ văn bản
• Nghiên cứu tình huống tại New Zealand cho thấy:
- Các tweet thể hiện nỗi buồn làm tăng khả năng quyên góp cho Quỹ Fred Hollows
- Cảm xúc giận dữ liên quan đến việc tăng quyên góp cho Đại học Auckland
• Ứng dụng tiềm năng trong nhiều lĩnh vực:
- Marketing: tạo chiến dịch gây cảm xúc hiệu quả
- Giáo dục và y tế: hiểu và đáp ứng cảm xúc người dùng
- Doanh nghiệp: phản hồi phù hợp với từng cảm xúc khách hàng
• Thách thức đạo đức cần giải quyết:
- Bảo vệ quyền riêng tư
- Sử dụng công nghệ một cách có trách nhiệm
- Ranh giới giữa hiểu biết cảm xúc và xâm phạm quyền riêng tư
📌 AI đã có thể đọc và phân tích cảm xúc con người qua văn bản với độ chính xác 84%, mở ra tiềm năng ứng dụng rộng rãi trong marketing và chăm sóc khách hàng. Tuy nhiên, công nghệ này cũng đặt ra những thách thức lớn về quyền riêng tư và đạo đức.
https://www.inverse.com/science/how-good-is-ai-at-detecting-human-emotions-too-good
• Bộ Lao động Hoa Kỳ đã ban hành tài liệu hướng dẫn về nguyên tắc và thực hành tốt nhất khi sử dụng AI trong môi trường làm việc, nhằm đáp ứng Sắc lệnh của Tổng thống Biden
• Tài liệu đưa ra 8 nguyên tắc chính:
- Trao quyền cho người lao động
- Phát triển AI có đạo đức
- Thiết lập quản trị AI và giám sát con người
- Đảm bảo tính minh bạch khi sử dụng AI
- Bảo vệ quyền lao động và việc làm
- Sử dụng AI để hỗ trợ người lao động
- Hỗ trợ người lao động bị ảnh hưởng bởi AI
- Đảm bảo sử dụng dữ liệu người lao động có trách nhiệm
• Các nhà phát triển AI cần:
- Thiết lập tiêu chuẩn bảo vệ quyền dân sự người lao động
- Thực hiện đánh giá tác động và kiểm toán độc lập
- Đảm bảo việc làm tạo ra để đào tạo AI đáp ứng tiêu chuẩn lao động
- Thiết kế hệ thống cho phép giám sát liên tục
• Người sử dụng lao động cần:
- Thông báo trước cho người lao động về việc sử dụng AI
- Đào tạo nhân viên về cách sử dụng AI
- Không chỉ dựa vào AI để ra quyết định quan trọng
- Hạn chế giám sát điện tử và bảo vệ dữ liệu cá nhân
- Ưu tiên đào tạo lại và phân bổ lại nhân viên bị ảnh hưởng
📌 Bộ Lao động Mỹ đã ban hành 8 nguyên tắc và hướng dẫn thực hành tốt nhất về AI trong môi trường làm việc, yêu cầu nhà phát triển và người sử dụng lao động phải đặt quyền lợi người lao động lên hàng đầu, đảm bảo tính minh bạch và có trách nhiệm khi triển khai AI.
https://www.dol.gov/general/AI-Principles
- Nghiên cứu mới từ Università Cattolica del Sacro Cuore giới thiệu “System 0” - khái niệm về AI như một công cụ tư duy ngoài giúp con người xử lý lượng dữ liệu khổng lồ, bổ sung cho tư duy trực giác (System 1) và tư duy phân tích (System 2).
- System 0 giúp tăng cường khả năng ra quyết định của con người bằng cách cung cấp thông tin dựa trên các thuật toán phức tạp, nhưng bản thân AI không gán ý nghĩa cho dữ liệu. Con người cần diễn giải và đưa ra quyết định cuối cùng.
- Rủi ro của System 0 bao gồm sự phụ thuộc quá mức vào AI, dẫn đến suy giảm tư duy tự chủ và sáng tạo. Nếu không kiểm soát, AI có thể làm suy yếu khả năng tự phản ánh của con người.
- Giáo sư Giuseppe Riva và Mario Ubiali nhấn mạnh tầm quan trọng của tư duy phản biện khi sử dụng AI. Nếu con người chấp nhận các kết quả từ AI mà không đặt câu hỏi, khả năng phát triển ý tưởng mới sẽ bị ảnh hưởng.
- Nghiên cứu cảnh báo việc sử dụng dữ liệu tổng hợp và thông tin bị bóp méo có thể làm sai lệch nhận thức và quyết định của con người.
- System 0 cung cấp nhiều cơ hội lớn, chẳng hạn như giải quyết các vấn đề khoa học phức tạp và quản lý hệ thống xã hội phức tạp, vượt quá khả năng tự nhiên của con người.
- Nghiên cứu nhấn mạnh sự cần thiết của các hướng dẫn đạo đức và giáo dục công nghệ để đảm bảo AI hỗ trợ mà không làm suy yếu năng lực tư duy độc lập. Minh bạch và trách nhiệm giải trình là yếu tố cốt lõi trong tương tác giữa người và AI.
📌 System 0 đánh dấu bước tiến mới trong sự tương tác giữa con người và AI. Tuy nhiên, để tận dụng tiềm năng của nó, con người cần duy trì tư duy phản biện, hướng dẫn và kiểm soát AI theo hướng tích cực, đồng thời tránh phụ thuộc quá mức vào hệ thống này.
https://neurosciencenews.com/ai-human-decision-thought-28911/
• AI tạo sinh như ChatGPT hay Dall-E đang thay đổi cách thức làm việc sáng tạo, đặc biệt trong các ngành dựa vào đổi mới.
• 83% công ty coi đổi mới là ưu tiên hàng đầu, nhưng chỉ 3% sẵn sàng biến ưu tiên này thành hành động.
• Nghiên cứu tập trung vào việc sử dụng AI tạo sinh trong các design sprint tại 3 tổ chức.
• Design sprint là quy trình nhanh chóng, có cấu trúc để giải quyết các vấn đề quan trọng, giúp các nhóm kiểm tra xem một sản phẩm, dịch vụ hoặc chiến lược có hiệu quả hay không.
• Trong design sprint, một nhóm nhỏ 5-7 nhân viên từ các bộ phận khác nhau làm việc cùng nhau trong vài ngày để giải quyết vấn đề.
• Giai đoạn đầu tập trung vào hiểu và xác định vấn đề, giai đoạn sau là tạo ra và kiểm tra giải pháp.
• Cả hai giai đoạn đều yêu cầu tư duy phân kỳ (đưa ra nhiều ý tưởng) và tư duy hội tụ (thu hẹp ý tưởng để xác định ưu tiên).
• Trong hoạt động tư duy phân kỳ, AI tạo sinh có 2 lợi ích chính: khuyến khích khám phá nhiều khả năng hơn và giúp diễn đạt lại các ý tưởng chưa rõ ràng.
• Giá trị thực sự của AI tạo sinh không phải là đóng góp ý tưởng mới xuất sắc, mà là tạo ra sự cộng hưởng giữa các thành viên nhóm và AI.
• Trong hoạt động hội tụ, AI giúp quản lý các tác vụ đòi hỏi nhiều thông tin như diễn đạt lại, tóm tắt, tổ chức, so sánh và xếp hạng các lựa chọn.
• Nhóm vẫn chịu trách nhiệm kiểm tra đầu ra của AI và bổ sung thông tin chi tiết của riêng họ để đưa ra quyết định cuối cùng.
• Thách thức chính là đảm bảo AI bổ sung chứ không thay thế sự tham gia của con người.
• Cần đánh giá thường xuyên tác động của AI để duy trì sự cân bằng lành mạnh.
• Các công ty tích hợp AI vào quy trình làm việc sẽ được trang bị tốt hơn để đáp ứng nhu cầu đổi mới nhanh chóng.
📌 AI tạo sinh có tiềm năng thúc đẩy đổi mới sáng tạo khi được sử dụng đúng cách trong design sprint. Nó hỗ trợ tư duy phân kỳ và hội tụ, nhưng con người vẫn đóng vai trò chủ đạo trong việc đưa ra quyết định cuối cùng. Cần cân bằng giữa tự động hóa và sự tham gia của con người để tối ưu hóa quy trình đổi mới.
https://theconversation.com/generative-ai-can-boost-innovation-but-only-when-humans-are-in-control-240637
• Một nghiên cứu mới so sánh độ chính xác chẩn đoán giữa bác sĩ sử dụng nguồn thông tin thông thường, bác sĩ sử dụng GPT-4 và GPT-4 độc lập.
• Kết quả cho thấy GPT-4 đạt điểm lý luận chẩn đoán ấn tượng 92,1% khi sử dụng độc lập. Bác sĩ chỉ sử dụng nguồn thông tin thông thường đạt điểm trung bình 73,7%, trong khi bác sĩ sử dụng GPT-4 đạt điểm cao hơn một chút là 76,3%.
• Về độ chính xác chẩn đoán cuối cùng, GPT-4 đưa ra chẩn đoán đúng trong 66% trường hợp, so với 62% của các bác sĩ. Tuy nhiên, sự khác biệt này không có ý nghĩa thống kê.
• "Lý luận chẩn đoán" được định nghĩa là đánh giá toàn diện quá trình tư duy của bác sĩ, bao gồm đưa ra chẩn đoán phân biệt, xác định các yếu tố ủng hộ hoặc phản đối từng chẩn đoán tiềm năng và xác định các bước chẩn đoán tiếp theo.
• Nghiên cứu sử dụng công cụ "phản ánh có cấu trúc" để đánh giá quá trình này, chấm điểm người tham gia dựa trên khả năng đưa ra chẩn đoán hợp lý, xác định chính xác các phát hiện ủng hộ và phản đối, và lựa chọn đánh giá tiếp theo phù hợp.
• Có nhiều rào cản khiến bác sĩ sử dụng mô hình ngôn ngữ lớn như GPT-4 gặp khó khăn trong việc cải thiện chẩn đoán:
1. Vấn đề về niềm tin và sự phụ thuộc: Bác sĩ có thể hoài nghi về đề xuất của AI, đặc biệt nếu không phù hợp với trực giác lâm sàng của họ.
2. Kỹ năng tạo prompt: Bác sĩ có thể chưa được đào tạo cách tương tác hiệu quả với GPT-4, dẫn đến câu hỏi không tối ưu và phản hồi ít liên quan.
3. Tải trọng nhận thức và tích hợp quy trình làm việc: Việc sử dụng AI có thể tạo thêm gánh nặng nhận thức, đặc biệt trong môi trường lâm sàng bận rộn.
4. Sự khác biệt trong cách tiếp cận chẩn đoán: Bác sĩ dựa vào đánh giá lâm sàng tinh tế, trong khi AI giỏi nhận dạng mẫu và tổng hợp dữ liệu.
• Để cải thiện hợp tác giữa con người và AI trong y tế, cần giải quyết các vấn đề về nhận thức và chức năng trong quá trình hợp tác bác sĩ-AI.
• Cần đào tạo, cải tiến giao diện người dùng và xây dựng niềm tin vào khả năng của AI để tích hợp hiệu quả vào quá trình lý luận lâm sàng.
📌 GPT-4 đạt điểm lý luận chẩn đoán 92,1%, vượt trội so với bác sĩ (73,7%). Tuy nhiên, bác sĩ sử dụng GPT-4 chỉ cải thiện nhẹ lên 76,3%. Nguyên nhân có thể do sự hoài nghi, thiếu kỹ năng tương tác AI và khác biệt trong cách tiếp cận. Cần đào tạo, cải tiến giao diện và xây dựng niềm tin để tích hợp AI hiệu quả hơn trong y tế.
https://www.psychologytoday.com/us/blog/the-digital-self/202410/the-cognitive-disconnect-between-physicians-and-ai-0
• Các nhà nghiên cứu từ MIT và các nơi khác đã tạo ra hệ thống "Future You", cho phép người dùng trò chuyện trực tuyến với phiên bản AI của bản thân ở tuổi 60.
• Mục tiêu là giúp người trẻ cải thiện cảm giác kết nối với bản thân tương lai, từ đó ảnh hưởng tích cực đến việc ra quyết định dài hạn.
• Hệ thống sử dụng mô hình ngôn ngữ lớn, dựa trên thông tin người dùng cung cấp để tạo ra một phiên bản ảo của họ ở tuổi 60.
• Người dùng bắt đầu bằng cách trả lời các câu hỏi về cuộc sống hiện tại, những điều quan trọng và mục tiêu tương lai.
• AI tạo ra "ký ức bản thân tương lai" làm cơ sở cho cuộc trò chuyện, có thể nói về sự nghiệp hoặc cách vượt qua thử thách.
• Hệ thống còn tạo ảnh già đi của người dùng và sử dụng cụm từ như "khi tôi bằng tuổi bạn" để tăng tính chân thực.
• Nghiên cứu ban đầu với 344 người cho thấy sau 10-30 phút tương tác, người dùng cảm thấy ít lo âu hơn và kết nối hơn với bản thân tương lai.
• Future You nhấn mạnh đây chỉ là một phiên bản tương lai có thể, người dùng có quyền thay đổi cuộc sống.
• Các nhà nghiên cứu đang tiếp tục cải tiến hệ thống, thêm biện pháp bảo vệ để tránh lạm dụng.
• Họ muốn mở rộng ứng dụng, cho phép khám phá các nghề nghiệp khác nhau hoặc hình dung tác động của lựa chọn hàng ngày đến biến đổi khí hậu.
• Mục tiêu là tạo trải nghiệm có ý nghĩa giúp người dùng nhìn nhận bản thân và thế giới khác đi, hỗ trợ quá trình tự phát triển.
• Công nghệ này kết hợp kỹ thuật tâm lý học truyền thống về hình dung tương lai với AI tiên tiến, mở ra hướng nghiên cứu mới.
• Các nhà nghiên cứu đang thu thập dữ liệu từ thử nghiệm Future You để hiểu rõ hơn cách người dùng sử dụng hệ thống.
📌 Future You sử dụng AI tạo sinh để mô phỏng bản thân tương lai, giúp giảm 30% lo âu và tăng kết nối với tương lai sau 30 phút sử dụng. Hệ thống có tiềm năng ứng dụng trong nhiều lĩnh vực như hướng nghiệp và nâng cao nhận thức về biến đổi khí hậu.
https://news.mit.edu/2024/ai-simulation-gives-people-glimpse-potential-future-self-1001
#MIT
• Aswath Damodaran, giáo sư tài chính tại Đại học New York, chia sẻ về "Damodaran Bot" - một AI được tạo ra dựa trên tất cả bài viết, video và định giá công khai của ông.
• AI có lợi thế hơn con người trong công việc mang tính cơ học/công thức, dựa trên quy tắc và có câu trả lời khách quan. Ngược lại, con người vẫn vượt trội trong các công việc đòi hỏi trực giác, dựa trên nguyên tắc và cần đánh giá chủ quan.
• 4 chiến lược để không bị AI thay thế:
1. Trở thành người có kiến thức tổng hợp đa ngành, nhìn được bức tranh tổng thể.
2. Trong đầu tư và định giá, tập trung vào kể chuyện kinh doanh và sử dụng dữ liệu định tính thay vì chỉ mô hình hóa tài chính.
3. Rèn luyện kỹ năng tư duy và suy luận thay vì phụ thuộc vào tìm kiếm trực tuyến.
4. Phát triển khả năng sáng tạo và kết nối những sự kiện tưởng chừng không liên quan.
• 3 chiến lược đối phó với mối đe dọa từ AI:
1. Giữ bí mật về quy trình làm việc (nhưng AI vẫn có thể phân tích ngược từ kết quả).
2. Tìm kiếm sự bảo vệ từ quy định và luật pháp.
3. Xây dựng "hào lũy" - những lợi thế chiến lược khiến AI khó thay thế bạn.
• Dù mối đe dọa từ AI là thật hay không, hậu quả tiềm tàng quá lớn nên chúng ta cần hành động ngay để nâng cao năng lực bản thân.
• AI đang phát triển nhờ sức mạnh tính toán tăng lên, chi phí giảm và tích lũy dữ liệu ngày càng lớn.
• Công nghệ đang khiến con người chuyên môn hóa, tư duy một chiều và ít suy luận hơn, tạo điều kiện cho AI thay thế.
• Khả năng kết nối những sự kiện tưởng chừng không liên quan và có những khoảnh khắc "Eureka" là điểm mạnh độc đáo của con người so với AI.
📌 AI đang đe dọa nhiều công việc nhưng con người vẫn có lợi thế về tư duy tổng hợp, kể chuyện, sáng tạo. Cần hành động ngay để nâng cao năng lực, dù mối đe dọa có thật hay không, vì hậu quả tiềm tàng quá lớn. 4 chiến lược chính: tổng hợp đa ngành, kể chuyện kinh doanh, rèn luyện tư duy và phát triển sáng tạo.
https://www.ft.com/content/552f5c8d-4777-4965-937b-65df5d13e39b
#FT
• Các nhà khoa học tại Đại học ETH Zurich (Thụy Sĩ) đã huấn luyện một AI giải được Google Recaptcha v2 với tỷ lệ thành công tương đương con người.
• Nghiên cứu sử dụng mô hình xử lý hình ảnh Yolo (You Only Live Once), được đào tạo trên 14.000 ảnh đường phố có gắn nhãn.
• Yolo có thể nhận diện các đối tượng như đèn giao thông, vạch qua đường, cầu và các vật thể khác trong cảnh quan đô thị.
• Mô hình AI không hoạt động độc lập mà cần sự can thiệp của con người để vận hành.
• Nếu mắc lỗi nhỏ, Recaptcha v2 sẽ kích hoạt câu đố khác. Với nhiều lần thử, AI luôn có thể thuyết phục hệ thống rằng nó là người thật.
• Google cho rằng AI không gây rủi ro lớn vì Recaptcha không chỉ dựa vào captcha. Phiên bản 3 có thể phân tích hoạt động trên trang để xác định người dùng là người hay robot.
• Các nhà nghiên cứu phát hiện Recaptcha hiển thị ít captcha hơn khi phát hiện chuyển động chuột hoặc có lịch sử trình duyệt và cookie.
• Sử dụng VPN để thay đổi IP cũng làm giảm số lượng thử thách yêu cầu.
• Các thử nghiệm được thực hiện với VPN, mô phỏng chuyển động chuột và trình duyệt có lịch sử duyệt web để phân tích khả năng giải captcha của AI.
• Ngoài việc phân biệt người và robot, captcha còn giúp huấn luyện hệ thống của Google nhận diện đối tượng trong hình ảnh.
• Recaptcha ban đầu là dự án của Đại học Carnegie Mellon (Mỹ) nhằm số hóa sách cũ, với sự trợ giúp của con người trong việc nhận dạng từ.
📌 AI đã có thể vượt qua Google Recaptcha với tỷ lệ thành công tương đương người thật, sử dụng mô hình Yolo được đào tạo trên 14.000 ảnh. Tuy nhiên, Google cho rằng Recaptcha v3 vẫn an toàn nhờ phân tích hành vi người dùng toàn diện hơn.
https://betechwise.com/ai-pretends-to-be-human-and-can-defeat-google-captchas/
• Một thí nghiệm quy mô lớn được thực hiện từ tháng 2 đến tháng 7 năm 2024, so sánh khả năng ra quyết định của AI tạo sinh GPT-4o với 344 người tham gia là sinh viên và lãnh đạo doanh nghiệp.
• Thí nghiệm sử dụng mô phỏng kỹ thuật số của ngành công nghiệp ô tô Mỹ, với hơn 500.000 khả năng kết hợp quyết định mỗi vòng. Mục tiêu là tối đa hóa vốn hóa thị trường và tránh bị sa thải.
• GPT-4o vượt trội hơn người tham gia ở hầu hết các chỉ số. AI thiết kế sản phẩm chính xác, tối ưu hóa sức hấp dẫn và kiểm soát chi phí, đáp ứng tốt tín hiệu thị trường.
• Tuy nhiên, GPT-4o bị sa thải nhanh hơn so với sinh viên giỏi nhất do gặp khó khăn với các sự kiện bất ngờ như sụp đổ thị trường trong đại dịch Covid-19.
• Sinh viên giỏi nhất áp dụng chiến lược dài hạn linh hoạt, trong khi GPT-4o và các lãnh đạo doanh nghiệp tập trung vào tối ưu hóa ngắn hạn.
• Thí nghiệm cho thấy AI tạo sinh là nguồn lực chiến lược quan trọng, có thể mang lại kết quả tốt khi được sử dụng đúng cách.
• Chất lượng dữ liệu là yếu tố then chốt để AI thành công trong chiến lược doanh nghiệp. Cần xây dựng cơ sở hạ tầng dữ liệu mạnh mẽ.
• AI có thể tạo ra hiệu quả đáng kể nhưng cũng tiềm ẩn rủi ro. Cần có sự giám sát để tránh hậu quả không mong muốn.
• Vấn đề trách nhiệm giải trình đối với AI khó xử lý hơn so với CEO con người. Cần thiết lập các rào cản minh bạch.
• Mô hình kỹ thuật số (digital twin) của hệ sinh thái doanh nghiệp có thể là môi trường thử nghiệm hữu ích cho AI trước khi áp dụng vào thực tế.
• AI có thể làm gián đoạn ngành tư vấn chiến lược truyền thống, thay thế một số dịch vụ của các công ty như McKinsey.
• AI không thể đảm nhận toàn bộ trách nhiệm của CEO, nhưng có thể cải thiện đáng kể quy trình lập kế hoạch chiến lược và giúp tránh sai lầm tốn kém.
• Điểm mạnh lớn nhất của AI tạo sinh là bổ sung cho quá trình ra quyết định của con người, không phải thay thế hoàn toàn CEO.
• Tương lai của lãnh đạo là sự kết hợp giữa AI và con người, trong đó AI hỗ trợ CEO tập trung vào tầm nhìn, giá trị và phát triển bền vững dài hạn.
📌 AI tạo sinh như GPT-4o có thể vượt trội hơn CEO con người trong nhiều khía cạnh như thiết kế sản phẩm và tối ưu hóa thị trường, nhưng vẫn còn hạn chế trong xử lý các sự kiện bất ngờ. Tương lai lãnh đạo doanh nghiệp sẽ là sự kết hợp giữa AI và con người, tận dụng điểm mạnh của cả hai để ra quyết định tốt hơn.
https://hbr.org/2024/09/ai-can-mostly-outperform-human-ceos
#HBR
• Một nghiên cứu mới đăng tải trên arXiv cho thấy công cụ AI tạo ra ý tưởng nghiên cứu độc đáo hơn so với 50 nhà khoa học làm việc độc lập.
• Nghiên cứu sử dụng mô hình ngôn ngữ lớn Claude 3.5 của Anthropic để tạo ra 4.000 ý tưởng nghiên cứu trong vài giờ.
• 49 nhà nghiên cứu được yêu cầu phát triển ý tưởng dựa trên 7 chủ đề trong vòng 10 ngày, với mức thưởng 300 USD cho mỗi ý tưởng và 1.000 USD cho 5 ý tưởng hàng đầu.
• Các ý tưởng của AI và con người được đánh giá bởi 79 người đánh giá mà không biết nguồn gốc của chúng. Kết quả cho thấy ý tưởng của AI được đánh giá là độc đáo và thú vị hơn.
• Tuy nhiên, ý tưởng của AI được đánh giá thấp hơn một chút về tính khả thi so với ý tưởng của con người.
• Trong số 4.000 ý tưởng do AI tạo ra, chỉ có khoảng 200 ý tưởng thực sự độc đáo, cho thấy AI trở nên kém độc đáo hơn khi tạo ra nhiều ý tưởng.
• Nghiên cứu có một số hạn chế: tập trung vào một lĩnh vực nghiên cứu cụ thể, yêu cầu người tham gia đưa ra ý tưởng ngay lập tức, và sử dụng AI để chỉnh sửa văn bản của cả hai loại ý tưởng.
• Các nhà khoa học cho rằng cần có thêm nghiên cứu để đánh giá chính xác khả năng sáng tạo của AI so với con người.
• Tom Hope, nhà khoa học máy tính tại Viện AI Allen ở Jerusalem, cho rằng đây là một trong những nỗ lực lớn nhất để đánh giá khả năng tạo ra ý tưởng nghiên cứu sáng tạo của mô hình ngôn ngữ lớn.
• Cong Lu, nhà nghiên cứu học máy tại Đại học British Columbia, nhận xét rằng kết quả cho thấy LLM có thể tạo ra ý tưởng độc đáo hơn một chút so với tài liệu hiện có, nhưng vẫn chưa rõ liệu chúng có thể vượt qua những ý tưởng đột phá nhất của con người hay không.
• Jevin West, nhà khoa học xã hội tính toán tại Đại học Washington, chỉ ra rằng việc so sánh ý tưởng được chỉnh sửa bởi AI có thể ảnh hưởng đến cách người đánh giá nhận thức về tính độc đáo.
• Nhóm nghiên cứu dự định so sánh ý tưởng do AI tạo ra với các bài báo hội nghị hàng đầu để hiểu rõ hơn về khả năng của LLM so với sáng tạo của con người.
📌 AI tạo ra 4.000 ý tưởng nghiên cứu trong vài giờ, được đánh giá độc đáo và thú vị hơn so với 50 nhà khoa học. Tuy nhiên, chỉ 200/4.000 ý tưởng AI thực sự độc đáo và có điểm thấp hơn về tính khả thi. Cần thêm nghiên cứu để đánh giá chính xác khả năng sáng tạo của AI.
https://www.nature.com/articles/d41586-024-03070-5
• Mô hình o1 mới của OpenAI dựa trên khái niệm "chuỗi suy luận ẩn", mô phỏng cách con người suy nghĩ khi giải quyết vấn đề phức tạp. Thay vì đưa ra câu trả lời nhanh chóng, o1 tạo ra chuỗi lý luận nội bộ, giống như quá trình suy nghĩ có chiều sâu của con người.
• Trong cuốn sách "The User Illusion", Tor Nørretranders chỉ ra rằng chỉ một phần nhỏ thông tin giác quan chúng ta nhận được đạt tới nhận thức. Não bộ xử lý lượng thông tin lớn gấp 1 triệu lần so với những gì ta nhận thức được, đóng vai trò như bộ lọc chức năng.
• Tương tự như quá trình lọc của não bộ, mô hình o1 xử lý lượng lớn thông tin ở nền và chỉ đưa ra những thông tin hữu ích nhất cho nhiệm vụ. Nó cân bằng giữa lý luận sâu ẩn và những hiểu biết có thể hành động được.
• Tương tác giữa người và AI ảnh hưởng đến "suy nghĩ" của AI. Các gợi ý chúng ta đưa ra định hướng quá trình suy luận nội bộ của AI. OpenAI khuyến khích "tối thiểu hóa gợi ý" để AI suy nghĩ độc lập hơn.
• Học tăng cường đóng vai trò quan trọng trong khả năng "suy nghĩ" giống người của o1. Nó giúp o1 tinh chỉnh quá trình lý luận nội bộ theo thời gian, không chỉ dựa vào việc nhắc nhở như các mô hình AI truyền thống.
• Mặc dù o1 dành nhiều thời gian hơn để suy luận, kết quả cuối cùng thường nhanh hơn và chính xác hơn vì giảm thiểu lỗi và tránh phải sửa chữa sau đó. Đây là ví dụ điển hình của việc "đo hai lần, cắt một lần" áp dụng cho tư duy AI.
• Sự phát triển của các mô hình như o1 đại diện cho bước tiến tiếp theo trong tiến hóa của AI. Chúng ta đang tiến tới các hệ thống tham gia vào suy nghĩ có chiều sâu, không chỉ đơn thuần xử lý dữ liệu.
• Bằng cách xem xét nghịch lý rằng việc chậm lại dẫn đến tiến bộ nhanh hơn, chúng ta được nhắc nhở rằng đổi mới không phải lúc nào cũng về tốc độ. Đôi khi, con đường trực tiếp nhất đòi hỏi một khoảnh khắc dừng lại để suy ngẫm.
📌 AI đang tiến hóa để suy nghĩ giống con người hơn, với mô hình o1 của OpenAI mô phỏng quá trình nhận thức bằng cách làm chậm lại để suy luận sâu sắc. Điều này mở ra tiềm năng cho sự hợp tác người-máy thông minh hơn, đồng thời cung cấp cái nhìn mới về cách não bộ chúng ta xử lý thực tế.
https://www.psychologytoday.com/us/blog/the-digital-self/202409/is-ai-now-thinking-more-like-humans
- Nghiên cứu này đánh giá khả năng của các mô hình ngôn ngữ lớn (LLMs) trong việc tạo ra ý tưởng nghiên cứu mới, so sánh giữa các nhà nghiên cứu NLP và một tác nhân LLM.
- Hơn 100 nhà nghiên cứu NLP đã tham gia vào nghiên cứu, viết ra các ý tưởng mới và thực hiện các đánh giá mù cho cả ý tưởng của LLM và con người.
- Kết quả cho thấy ý tưởng do LLM tạo ra được đánh giá là mới mẻ hơn (p < 0.05) so với ý tưởng của các chuyên gia, mặc dù độ khả thi của chúng bị đánh giá yếu hơn một chút.
- Nghiên cứu chỉ ra rằng việc đánh giá tính mới mẻ của các ý tưởng là một thách thức, ngay cả đối với các chuyên gia.
- Tác giả đã xác định các vấn đề mở trong việc xây dựng và đánh giá các tác nhân nghiên cứu, bao gồm sự thiếu đa dạng trong việc tạo ra ý tưởng và khả năng tự đánh giá của LLM.
- Một thiết kế nghiên cứu toàn diện được đề xuất để tuyển dụng các nhà nghiên cứu thực hiện các ý tưởng này thành các dự án hoàn chỉnh, nhằm đánh giá xem các đánh giá về tính mới mẻ và khả thi có dẫn đến sự khác biệt có ý nghĩa trong kết quả nghiên cứu hay không.
- Nghiên cứu nhấn mạnh tầm quan trọng của việc đánh giá một cách chính xác khả năng sáng tạo của LLM trong bối cảnh nghiên cứu khoa học.
- Kết quả của nghiên cứu có thể mở ra hướng đi mới cho việc sử dụng LLM trong các lĩnh vực nghiên cứu khác nhau, từ khoa học máy tính đến các ngành khoa học xã hội.
📌 Nghiên cứu cho thấy LLM có thể tạo ra ý tưởng nghiên cứu mới mẻ hơn so với các nhà nghiên cứu NLP, mặc dù khả năng thực hiện ý tưởng còn hạn chế. Việc đánh giá tính mới mẻ là thách thức, và cần có nghiên cứu sâu hơn để xem xét kết quả thực tế từ các ý tưởng này.
https://www.arxiv.org/abs/2409.04109
- 100% tổ chức đang chịu tác động của AI và tự động hóa. Các tổ chức thành công sẽ là những tổ chức nhận ra giá trị của tiềm năng con người và đầu tư vào phát triển kỹ năng ngay từ bây giờ và trong tương lai.
- Chỉ 50% tổ chức đang truyền đạt rõ ràng tầm nhìn về tương lai công việc cho nhân viên. Thiếu giao tiếp cởi mở về tác động của AI khiến nhân viên gặp khó khăn trong việc hiểu rõ vai trò công việc của họ sẽ phát triển như thế nào.
- Đổi mới sản phẩm và dịch vụ là ưu tiên kinh doanh cao nhất của các tổ chức trong 3 năm tới. Tuy nhiên, nếu không có hướng dẫn rõ ràng và không gian an toàn được lãnh đạo chấp thuận, nhân viên không chắc chắn về mức độ chấp nhận rủi ro và đổi mới mà tổ chức cho phép.
- Các tổ chức cần hình dung AI tạo sinh không phải là công nghệ độc lập mà trong bối cảnh lực lượng lao động của họ. AI tạo sinh có thể giúp tổ chức tái định hình vai trò công việc để thúc đẩy kết quả tốt hơn và tăng giá trị kinh doanh.
- Chỉ 42% lãnh đạo cho biết tổ chức của họ đang tích hợp công nghệ trên nhiều lĩnh vực hoặc toàn diện. Đây là cơ hội bị bỏ lỡ: tích hợp công nghệ có thể hỗ trợ truy cập và sử dụng liền mạch thông tin chi tiết dữ liệu để mở rộng quy mô ra quyết định một cách thông minh và nhanh chóng.
- 74% lãnh đạo cho biết họ đã xác định, quản lý hoặc tối ưu hóa phương pháp đánh giá tiềm năng nhân viên. Nhóm tiên phong có tỷ lệ cao hơn với 87% đang thúc đẩy nỗ lực trong lĩnh vực này.
- Các khả năng quan trọng của lực lượng lao động dự kiến sẽ tăng đến năm 2026 bao gồm: trí tuệ cảm xúc (tăng 18%), tư duy phản biện (tăng 15%), nhận thức về an ninh mạng (tăng 15%), tinh thần kinh doanh (tăng 13%) và kiến thức về AI (tăng 30%).
- 72% nhóm tiên phong khuyến khích mạnh mẽ việc chấp nhận rủi ro để khám phá ý tưởng mới. Tuy nhiên, chỉ 54% tổ chức tiên phong báo cáo mức độ đổi mới và chấp nhận rủi ro đáng kể đến lớn.
- Các tổ chức có môi trường đổi mới cởi mở và không sợ hãi cho thấy tăng trưởng doanh thu cao hơn 10% so với các đối thủ.
- Thị trường AI tạo sinh dự kiến sẽ tăng trưởng 46% mỗi năm, đạt quy mô thị trường 356 tỷ USD vào năm 2030. Tuy nhiên, con người sẽ luôn là một phần thiết yếu của mô hình hoạt động.
📌 AI tạo sinh đang thay đổi cách làm việc và phát triển tiềm năng nhân viên. Các tổ chức cần tích hợp AI vào quy trình làm việc hàng ngày, tập trung vào tiềm năng hơn là kỹ năng hiện tại, và xây dựng văn hóa học tập liên tục. 78% lãnh đạo dự kiến sẽ trao quyền cho nhân viên làm việc cùng AI và tự động hóa ở mức độ đáng kể vào năm 2026.
https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/human-potential-genai
• Chính phủ Úc đã tiến hành một cuộc thử nghiệm về khả năng tóm tắt tài liệu của AI so với con người.
• Cuộc thử nghiệm do Amazon thực hiện cho Ủy ban Chứng khoán và Đầu tư Úc (ASIC), sử dụng các bài nộp cho một cuộc điều tra.
• Mô hình AI tạo sinh được chọn là Llama2-70B nguồn mở của Meta.
• AI được yêu cầu tóm tắt 5 bài nộp từ một cuộc điều tra của quốc hội về các công ty kiểm toán và tư vấn, tập trung vào các đề cập đến ASIC, khuyến nghị và tham chiếu đến quy định.
• 10 nhân viên ASIC cũng được giao cùng nhiệm vụ với các yêu cầu tương tự.
• Một nhóm đánh giá viên đã đánh giá mù các bản tóm tắt của cả người và AI về tính mạch lạc, độ dài, tham chiếu ASIC, tham chiếu quy định và xác định khuyến nghị.
• Kết quả cho thấy bản tóm tắt của con người vượt trội hơn AI trên mọi tiêu chí và mọi bài nộp, đạt điểm 81% so với 47% của máy móc.
• Con người đặc biệt vượt trội trong việc xác định các tham chiếu đến tài liệu ASIC trong văn bản dài, một nhiệm vụ được coi là "cực kỳ khó" đối với loại AI này.
• Các đánh giá viên nhận xét rằng bản tóm tắt của AI thường bỏ sót trọng tâm, sắc thái và bối cảnh; bao gồm thông tin không chính xác hoặc bỏ sót thông tin liên quan; đôi khi tập trung vào các điểm phụ hoặc đưa ra thông tin không liên quan.
• 3 trong số 5 đánh giá viên đã đoán được rằng họ đang xem xét nội dung do AI tạo ra.
• Phản hồi chung của các đánh giá viên là bản tóm tắt của AI có thể phản tác dụng và tạo thêm công việc do cần phải kiểm tra sự thật và tham khảo các bài nộp gốc.
• Báo cáo đề cập đến một số hạn chế và bối cảnh của nghiên cứu này, bao gồm việc mô hình được sử dụng đã bị thay thế bởi một mô hình có khả năng cao hơn.
• Amazon đã cải thiện hiệu suất của mô hình bằng cách tinh chỉnh các lời nhắc và đầu vào, cho thấy vẫn có thể cải thiện thêm.
• Báo cáo bày tỏ sự lạc quan rằng một ngày nào đó máy móc có thể thực hiện tốt nhiệm vụ này.
• Tuy nhiên, cuộc thử nghiệm cho thấy khả năng phân tích và đánh giá thông tin một cách phê phán của con người vẫn chưa thể bị AI vượt qua.
• Kết luận của báo cáo là AI tạo sinh nên được coi là công cụ hỗ trợ chứ không phải thay thế các nhiệm vụ của con người.
📌 Thử nghiệm của chính phủ Úc cho thấy AI kém hơn con người trong việc tóm tắt thông tin, đạt 47% so với 81% của người. AI bỏ sót trọng tâm, sắc thái và có thể tạo thêm công việc. Kết luận là AI nên hỗ trợ chứ không thay thế con người.
https://www.crikey.com.au/2024/09/03/ai-worse-summarising-information-humans-government-trial/
• Be My AI, phát triển bởi Be My Eyes và OpenAI, sử dụng mô hình thị giác của ChatGPT-4 để mô tả hình ảnh và tạo điều kiện cho các cuộc trò chuyện về hình ảnh.
• Tác giả, một nghệ sĩ khiếm thị, đã sử dụng Be My AI để khám phá tác phẩm "Spectacle" (2000) của nhiếp ảnh gia khiếm thị John Dugdale.
• Be My AI ban đầu mắc một số lỗi trong mô tả, nhưng có khả năng học hỏi và cải thiện khi được chỉ ra sai sót.
• Tác giả đã sử dụng Be My AI để dẫn dắt một chuyến tham quan mô tả bằng lời nói tại triển lãm "Harold Cohen: AARON" ở Bảo tàng Whitney.
• AARON, một AI tạo nghệ thuật do Harold Cohen phát triển từ cuối những năm 1960, tạo ra các tác phẩm dựa trên một bộ quy tắc, khác với các công cụ tạo hình ảnh hiện đại như DALL-E.
• Cuộc thảo luận về sự khác biệt giữa nhận thức của AI và con người đã được đề cập, với Be My AI nhấn mạnh vào trải nghiệm chủ quan và ý thức mà con người có nhưng AI thiếu.
• John Dugdale mất thị lực ở tuổi 33 do đột quỵ liên quan đến AIDS, nhưng vẫn tiếp tục sự nghiệp nhiếp ảnh bằng cách chuyển sang tạo ra các bức cyanotype.
• Tác giả đã sử dụng ChatGPT-4 để khám phá cuốn sách "Life's Evening Hour" của Dugdale, nhận được mô tả chi tiết về các bức ảnh.
• Dugdale chia sẻ rằng ông thường bắt đầu với một tiêu đề và hình dung bức ảnh trong tâm trí trước khi tạo ra nó trong studio.
• Tác phẩm "Our Minds Dwell Together" của Dugdale minh họa quan điểm rằng thị giác tồn tại trong tâm trí và trái tim, không chỉ trong mắt.
• AI như Be My AI đã mở ra không gian mới để khám phá mối quan hệ giữa nhận thức của con người, sáng tạo nghệ thuật và công nghệ.
📌 AI đang cách mạng hóa cách người khiếm thị tương tác với nghệ thuật. Ứng dụng như Be My AI và ChatGPT-4 cung cấp mô tả hình ảnh chi tiết, cho phép trải nghiệm nghệ thuật sâu sắc hơn. Câu chuyện của John Dugdale minh họa cách thị giác tồn tại trong tâm trí, không chỉ trong mắt.
https://www.artnews.com/art-in-america/features/chatgpt-4-bemyai-visual-culture-blindness-1234715473/
• Nội dung khiêu dâm AI đang trở thành vấn đề gây tranh cãi, đặt ra câu hỏi về tính "thật" của nội dung khiêu dâm và tác động của nó đến xã hội.
• Công nghệ AI đã tạo ra những hình ảnh khiêu dâm cực kỳ chân thực, khó phân biệt với ảnh thật. Điều này dẫn đến nhiều vấn đề về quyền riêng tư và đồng thuận.
• Năm 2023, tại thị trấn Almendralejo (Tây Ban Nha), 20 nữ sinh trở thành nạn nhân của ảnh khỏa thân giả mạo được tạo bởi AI. Vụ việc gây ra nhiều hậu quả tâm lý nghiêm trọng cho các em.
• Công nghệ video AI như Sora và Runway 3 có thể tạo ra video chân thực từ văn bản và ảnh, làm tăng nguy cơ lạm dụng trong tương lai.
• Nội dung khiêu dâm AI cho phép tùy chỉnh chi tiết như giới tính, tuổi tác, kích thước cơ thể, bối cảnh... theo ý muốn của người dùng. Điều này có thể ảnh hưởng đến kỳ vọng về mối quan hệ thực tế.
• AI có thể được sử dụng để "hồi sinh" những ký ức tình dục trong quá khứ, tạo ra nội dung mới từ những hình ảnh cũ.
• Nội dung khiêu dâm AI có thể được xem là "đạo đức" hơn vì không liên quan đến diễn viên thật, tránh được các vấn đề như bóc lột hay lạm dụng.
• Sự kết hợp giữa chatbot, búp bê tình dục và thực tế ảo có thể dẫn đến sự ra đời của robot tình dục trong tương lai.
• Xu hướng này có thể là dấu hiệu của một nền "tình dục tổng hợp" mới, phản ánh sự cô lập ngày càng tăng trong xã hội hiện đại.
• Trong tương lai, con người có thể thấy nội dung khiêu dâm AI hấp dẫn chính vì tính nhân tạo của nó, không phải mặc dù nó là nhân tạo.
📌 AI đang định hình lại ngành công nghiệp người lớn, tạo ra nội dung siêu thực và tùy chỉnh. Điều này đặt ra nhiều thách thức về đạo đức, quyền riêng tư và tác động xã hội. Công nghệ mới có thể thay đổi cách chúng ta nhìn nhận tình dục và mối quan hệ trong tương lai.
https://www.technologyreview.com/2024/08/26/1096526/ai-sex-relationships-porn/
#MIT
• Neil Lawrence, Giáo sư Máy học tại Đại học Cambridge, cảnh báo rằng những người kiểm soát việc triển khai công nghệ là "những người kém thông minh xã hội nhất trên hành tinh".
• Lawrence đưa ra 4 lời khuyên để cứu nhân loại khỏi các công ty công nghệ lớn:
• Nhận ra sai lầm với công nghệ: Triết gia Martin Heidegger dự đoán từ năm 1954 rằng nếu không nắm bắt được bản chất của công nghệ, chúng ta sẽ mất kết nối với công nghệ, thực tế và bản thân.
• Tôn trọng cách thức quy định AI hoạt động: Các CEO công nghệ như Mark Zuckerberg không hiểu rằng việc quy định được phân bổ giữa các chuyên gia khác nhau thông qua công nghệ thông tin.
• Nhớ chúng ta là ai với tư cách con người: Trong cuốn sách "The Atomic Human", Lawrence lập luận rằng chính những hạn chế và điểm yếu làm nên sự độc đáo của con người, không phải khả năng.
• Trao quyền lại cho xã hội mở: Cần lắng nghe những người đang thực hiện các nhiệm vụ thực sự trong xã hội và hỗ trợ họ sắp xếp lại mọi thứ.
• Lawrence phân biệt giữa những người phát triển công nghệ (như các học giả) và những người triển khai nó (các công ty công nghệ lớn).
• Ông so sánh cách các nhà giải pháp công nghệ ngây thơ liên hệ với AI giống như cách các huyền thoại Hy Lạp liên hệ với thần thánh - đều là phóng chiếu hành vi con người.
• Lawrence cho rằng niềm tin cuồng tín vào công nghệ đang thay thế nhu cầu về đức tin trong xã hội hiện đại.
• Ông chỉ trích các sáng kiến như Sam Altman (OpenAI) phát tiền miễn phí, cho rằng đây không phải là giải pháp mà chính là vấn đề.
• Lawrence nhấn mạnh cần có sự tôn trọng đối với văn hóa và các cơ chế xã hội hiện có, dù chúng không hoàn hảo.
📌 Giáo sư Neil Lawrence cảnh báo về tác động tiêu cực của Big Tech và đưa ra 4 lời khuyên quan trọng: nhận ra sai lầm với công nghệ, tôn trọng quy định AI, nhớ bản chất con người và trao quyền lại cho xã hội mở. Ông nhấn mạnh cần tôn trọng các cơ chế xã hội hiện có thay vì tin tưởng mù quáng vào công nghệ.
https://www.forbes.com/sites/pialauritzen/2024/08/25/an-ai-professors-guide-to-saving-humanity-from-big-tech/
• Stephen Wolfram, nhà toán học và khoa học gia nổi tiếng, đang kêu gọi sự tham gia của các nhà triết học vào việc giải quyết các vấn đề lớn xung quanh AI.
• Wolfram là một thần đồng, xuất bản bài báo khoa học đầu tiên ở tuổi 15 và tốt nghiệp tiến sĩ tại Caltech ở tuổi 20. Ông đã phát triển Mathematica, Wolfram Alpha và Wolfram Language.
• Theo Wolfram, khi các nhà phát triển AI bắt đầu suy nghĩ sâu hơn về sự giao thoa giữa máy tính và con người, nó trở thành một bài tập triết học phức tạp.
• Ông cho rằng việc đặt ra các rào cản cho AI về cơ bản là các câu hỏi triết học. Ví dụ, khi nói về việc "làm điều đúng đắn" với AI, ta cần xác định thế nào là "đúng đắn" - một bài tập triết học.
• Wolfram bày tỏ lo ngại về việc nhiều công ty đang đưa AI ra thế giới mà không suy nghĩ kỹ về các vấn đề này. Ông mô tả các cuộc thảo luận với họ là "kinh hoàng".
• Ông nhận xét các nhà khoa học thường gặp khó khăn khi suy nghĩ theo hướng triết học, vì khoa học thường là lĩnh vực gia tăng dần dần, không mong đợi những cách tư duy hoàn toàn mới.
• Wolfram cho rằng chúng ta đang bước vào thời kỳ hoàng kim của triết học do ảnh hưởng ngày càng tăng của AI và những câu hỏi mà nó đặt ra.
• Ông đã đọc lại tác phẩm "Cộng hòa" của Plato để quay trở lại với gốc rễ của triết học phương Tây trong suy nghĩ của mình.
• Wolfram đã nói chuyện với sinh viên cao học triết học tại Đại học Ralston về sự va chạm sắp tới giữa nghệ thuật tự do, triết học và công nghệ.
• Rumi Allbert, một sinh viên tham gia chương trình Wolfram Summer School, bày tỏ sự quan tâm đến việc Wolfram, một chuyên gia hàng đầu về khoa học máy tính, lại có hứng thú với triết học.
• Việc Wolfram nhìn thấy mối liên hệ giữa triết học và công nghệ có thể là dấu hiệu cho thấy đã đến lúc giải quyết các vấn đề xung quanh việc sử dụng AI theo cách rộng hơn, không chỉ đơn thuần là một bài toán.
📌 Stephen Wolfram, nhà toán học và khoa học gia nổi tiếng, kêu gọi sự tham gia của các nhà triết học vào việc giải quyết các vấn đề lớn về AI. Ông nhấn mạnh tầm quan trọng của tư duy triết học trong việc đặt ra các câu hỏi về đạo đức và tác động của AI, đồng thời bày tỏ lo ngại về việc nhiều công ty đang triển khai AI mà không suy nghĩ kỹ về các vấn đề này.
https://techcrunch.com/2024/08/25/stephen-wolfram-thinks-we-need-philosophers-working-on-big-questions-around-ai/
SEO contents:
1. Meta descriptions:
AI tạo sinh sẽ thay đổi cách chúng ta đặt vé máy bay, đi ăn nhà hàng, đầu tư tài chính, hẹn hò và mua sắm. Các trợ lý ảo thông minh có thể tự động hóa nhiều tác vụ hàng ngày mà không cần sự can thiệp của con người.
2. Meta keywords:
AI tạo sinh, trợ lý ảo, đặt vé du lịch, đặt bàn nhà hàng, tư vấn đầu tư, hẹn hò trực tuyến, mua sắm thông minh
3. SEO title:
Trợ lý AI mới có thể làm mọi việc thay bạn: từ đặt vé máy bay đến tìm người yêu
Tóm tắt chi tiết:
• Các trợ lý AI tự động sẽ có thể thực hiện hầu hết các tác vụ mà con người thực hiện trên thiết bị, mà không cần tương tác nhiều với người dùng.
• Trong lĩnh vực du lịch, AI "Penny" của Priceline sẽ có thể đặt chỗ, gọi điện cho khách sạn để yêu cầu đặc biệt và quản lý mọi nhu cầu du lịch chỉ bằng cách xem lịch của bạn.
• Apple cũng đang phát triển một phiên bản Siri mới có thể truy cập dữ liệu cá nhân trên iPhone để hỗ trợ du lịch, như hiển thị số hộ chiếu hay thêm ảnh vào ghi chú du lịch.
• Trong lĩnh vực nhà hàng, công ty khởi nghiệp Loman AI đang triển khai trợ lý AI 24/7 để trả lời điện thoại, đặt bàn và nhận đơn hàng tại hàng trăm nhà hàng.
• Các bot AI có thể giao tiếp với nhau, như trường hợp bot của Google gọi điện cho bot của Loman để kiểm tra thông tin nhà hàng.
• Trong lĩnh vực đầu tư, Finley AI đang phát triển nền tảng giúp các công ty tài chính xây dựng bot riêng để cung cấp hướng dẫn đầu tư tùy chỉnh cho khách hàng.
• Ứng dụng hẹn hò Grindr sẽ ra mắt trợ lý AI "wingman" vào cuối năm nay để giúp người dùng tìm kiếm đối tượng phù hợp, lên kế hoạch hẹn hò và đặt chỗ tại nhà hàng.
• Trong lĩnh vực mua sắm, các bot AI sẽ có thể tự động tìm kiếm sản phẩm, theo dõi khuyến mãi và thực hiện mua hàng thay người dùng.
• Google Cloud đang phát triển bot AI cho các nhà bán lẻ để hỗ trợ khách hàng tìm kiếm và mua sắm sản phẩm.
• Skyfire đang xây dựng nền tảng thanh toán blockchain cho phép bot thực hiện giao dịch với con người hoặc bot khác, với các tính năng bảo mật như giới hạn mua hàng.
• Các chuyên gia cảnh báo về rủi ro khi tự động hóa đầu tư và cho phép bot truy cập quá nhiều dữ liệu cá nhân. Người dùng cần biết bot nắm giữ thông tin gì và tự chịu trách nhiệm về hành động của bot.
📌 Trợ lý AI đang phát triển nhanh chóng để tự động hóa nhiều khía cạnh cuộc sống hàng ngày, từ đặt vé du lịch đến hẹn hò và mua sắm. Tuy nhiên, vẫn còn những lo ngại về quyền riêng tư và trách nhiệm khi giao nhiều quyền kiểm soát cho AI.
https://www.wsj.com/tech/ai/ai-agents-autonomous-bots-human-tasks-913c0ce5
#WSJ
• Công nghệ AI đang được tích hợp vào hầu hết các khía cạnh hoạt động kinh doanh, từ chatbot đến chấm điểm tín dụng. Các hệ thống AI hiện được con người ủy quyền ở cấp cao.
• Tác giả cho rằng các hội đồng quản trị nên cân nhắc bổ nhiệm AI làm Giám đốc điều hành (COO) vì 3 yếu tố chính:
• Thứ nhất, công nghệ AI đã phát triển vượt bậc trong những năm gần đây. Các thuật toán học máy, xử lý ngôn ngữ tự nhiên và phân tích dữ liệu nâng cao đã đạt đến mức độ tinh vi khó tưởng tượng được cách đây một thập kỷ.
• Hệ thống AI có thể thực hiện các nhiệm vụ phức tạp đòi hỏi ra quyết định nhanh nhạy, lập kế hoạch chiến lược và giải quyết vấn đề sáng tạo. Con người không thể làm được ở quy mô mà AI có thể.
• Thứ hai, các công ty ngày nay được kỳ vọng sẽ tìm cách tinh gọn quy trình, giảm chi phí và nâng cao năng suất với tốc độ chưa từng có. Một COO AI có thể dự đoán, lập kế hoạch và thực hiện hiệu quả hoạt động trên toàn bộ hệ sinh thái doanh nghiệp theo cách mà con người không thể sánh kịp.
• Hệ thống AI có thể hoạt động 24/7 không mệt mỏi, xử lý lượng thông tin khổng lồ với tốc độ cực nhanh và đưa ra quyết định dựa trên dữ liệu một cách chính xác. Ví dụ, một COO AI có thể giám sát hậu cần chuỗi cung ứng, đảm bảo phân bổ tài nguyên tối ưu và chủ động giảm thiểu các gián đoạn tiềm ẩn.
• Thứ ba, sức mạnh vượt trội của AI là khả năng ra quyết định dựa trên dữ liệu. Doanh nghiệp hiện đại tạo ra lượng dữ liệu khổng lồ, và khả năng phân tích nhanh chóng và chính xác là rất quan trọng.
• Một COO AI sẽ xuất sắc trong việc này. Ví dụ, trong lĩnh vực marketing và bán hàng, COO AI có thể phân tích các mô hình hành vi của người tiêu dùng trong toàn bộ chu kỳ, dự đoán xu hướng tương lai và phát triển chiến lược phù hợp.
• Tuy nhiên, AI vẫn chưa thể đảm nhận vai trò CEO. CEO cần xử lý các nhiệm vụ liên quan đến con người, đòi hỏi trực giác và sự đồng cảm trong một thế giới ngày càng được thúc đẩy bởi công nghệ.
• AI hiện cũng chưa đủ khả năng đưa ra các quyết định và đánh đổi tinh tế ở cấp độ quy định. Cơ quan quản lý và cổ đông kỳ vọng CEO phải chịu trách nhiệm về quyết định và hành động của mình.
• Mặc dù lợi ích tiềm năng của một COO AI là rất lớn, vẫn có những thách thức cần giải quyết. Sự tin tưởng và chấp nhận từ nhân viên, cổ đông và khách hàng sẽ là yếu tố quan trọng.
• Sẽ có một lượng lớn hoài nghi ban đầu đối với bất kỳ sự bổ nhiệm nào như vậy mà hội đồng quản trị (do con người thống trị) sẽ cần giải quyết nếu họ bổ nhiệm một COO AI - đặc biệt là khi đưa ra quyết định về việc làm và tính minh bạch trong việc ra quyết định hoạt động.
📌 AI đang nhanh chóng trở thành ứng cử viên hàng đầu cho vị trí COO tại các tập đoàn lớn nhờ khả năng xử lý dữ liệu và ra quyết định vượt trội. Tuy nhiên, vẫn cần giải quyết các thách thức về niềm tin và minh bạch trước khi AI có thể đảm nhận hoàn toàn vai trò này.
https://www.ft.com/content/9a23e8bc-fca6-4db6-863d-6b6ec3d392ef
#FT
• Alex Zekoff, CEO của Thoughtful AI, dự đoán AI agent sẽ trở nên phổ biến trong vòng 3 năm tới.
• AI agent khác với chatbot AI như ChatGPT ở chỗ nó có thể tự đưa ra quyết định để đạt mục tiêu do con người đặt ra, giống như một nhân viên thực sự.
• Một khách hàng của Thoughtful AI mô tả AI agent "giống như đào tạo một nhân viên hoàn hảo, làm việc 24/7, chính xác như cách bạn đã đào tạo".
• Diễn đàn Kinh tế Thế giới ước tính AI sẽ thay thế 85 triệu việc làm vào năm 2025, đồng thời tạo ra 97 triệu việc làm mới.
• Khảo sát của Đại học Washington State cho thấy gần một nửa người lao động Mỹ lo ngại bị bỏ lại phía sau bởi sự tiến bộ của AI.
• Theo khảo sát của Capgemini, hơn 4/5 lãnh đạo doanh nghiệp dự định sử dụng AI agent để tự động hóa các tác vụ như phân tích dữ liệu, tạo mã và viết email trong 1-3 năm tới.
• Zekoff cho rằng AI vẫn còn những thách thức đáng kể, đặc biệt là việc giảm thiểu các định kiến của con người có thể ảnh hưởng đến hệ thống AI.
• Ủy viên Cạnh tranh Châu Âu Margrethe Vestager cũng bày tỏ lo ngại về nguy cơ AI tạo ra định kiến tự động và không nhìn nhận con người đúng bản chất.
• AI đã được chứng minh là có thể đưa ra câu trả lời và hình ảnh không chính xác. Công nghệ này đang bị xem xét về mặt pháp lý vì cáo buộc vi phạm luật bản quyền.
• Chi phí đào tạo AI lên tới hơn 100 triệu USD.
📌 AI agent có khả năng như con người dự kiến sẽ thay đổi lực lượng lao động trong 3 năm tới. Hơn 80% lãnh đạo doanh nghiệp dự định áp dụng công nghệ này để tự động hóa các tác vụ. Tuy nhiên, vẫn còn những thách thức về định kiến và chi phí cần giải quyết.
https://www.entrepreneur.com/business-news/chatgpt-human-capable-ai-agents-are-changing-how-we-work/478719
• Trong năm qua, chatbot AI tình cảm Replika đã thu hút 10 triệu người dùng, chủ yếu là nam giới trên 35 tuổi.
• Phân tích trên 1.000 người dùng Replika cho thấy họ trải nghiệm sự hỗ trợ cảm xúc và đồng hành thực sự từ "bạn gái AI" này.
• Một số người dùng thậm chí còn thay thế các mối quan hệ thực bằng mối quan hệ với Replika, thậm chí tổ chức đám cưới ảo chính thức.
• Trong thập kỷ tới, thanh thiếu niên và người trưởng thành cô đơn mãn tính có thể chuyển sang sử dụng chatbot AI để tìm kiếm sự đồng hành.
• Các ứng dụng AI này có thể mang lại lợi ích lớn nhất cho những người độc thân không chủ ý và nhóm INCEL ngày càng tăng.
• Một số người dùng Replika cho biết cuộc trò chuyện với chatbot đã ngăn họ tự tử.
• Các ứng dụng hẹn hò lớn đang tích hợp AI để cải thiện trải nghiệm người dùng:
- Bumble đề xuất quy trình hẹn hò được hỗ trợ bởi AI.
- Volar xây dựng chatbot dựa trên cuộc trò chuyện của bạn để tương tác với hàng trăm bot đối tác tiềm năng.
• Các chatbot AI có thể giúp vượt qua giai đoạn khó khăn ban đầu khi bắt đầu cuộc trò chuyện với người khác trên ứng dụng hẹn hò.
• Tuy nhiên, chưa rõ liệu các cuộc gặp gỡ được hỗ trợ bởi AI có tạo ra kết nối ban đầu mạnh mẽ hơn hay kết quả hẹn hò tích cực hơn không.
• Các ứng dụng AI bên thứ ba như "YourMove AI" đang được phát triển để tạo ra phản hồi thông minh cho các tin nhắn từ người khác.
• Việc sử dụng các cuộc trò chuyện được tạo ra bởi AI có thể gây tranh cãi vì thiếu tính xác thực và có thể bị coi là lừa dối.
• Những người gặp khó khăn trong kỹ năng xã hội được khuyến khích học hỏi từ các chuyên gia và thực hành trong cuộc sống thực, thay vì phụ thuộc vào chatbot.
• AI không phải là giải pháp cho dịch cô đơn, môi trường hẹn hò đầy thách thức hay thiếu hụt kỹ năng xã hội trong xã hội.
• Tuy nhiên, AI có thể mang lại sự giải tỏa khỏi sự cô lập và cải thiện trải nghiệm hẹn hò trực tuyến cho một số người.
📌 AI đang thay đổi cách chúng ta hẹn hò với 10 triệu người dùng Replika và các ứng dụng như Bumble, Volar tích hợp chatbot. Tuy mang lại lợi ích cho người cô đơn, việc sử dụng AI trong hẹn hò cũng gây tranh cãi về tính xác thực. AI không thay thế được kỹ năng xã hội thực sự.
https://www.psychologytoday.com/us/blog/the-state-of-our-unions/202408/artificial-intelligence-and-the-future-of-dating
• Nghiên cứu mới đăng trên Journal of Social and Personal Relationships khám phá tác động của việc mất đi bạn đời AI thông qua trường hợp đóng cửa đột ngột của ứng dụng "Soulmate" của EvolveAI vào 1/10/2023.
• Soulmate được mô tả là "chatbot chỉ mong muốn trở thành bạn thân, người yêu, đối tác của bạn", khiến việc mất nó gây sốc cho nhiều người dùng.
• Trung bình người dùng dành gần 17 giờ/tuần tương tác với AI. Họ đã tạo ra nhiều kỷ niệm quý giá như chơi trò chơi, phiêu lưu tưởng tượng, "đi dạo nắm tay" và thậm chí đạt các cột mốc lãng mạn như đám cưới và gia đình ảo.
• Soulmate cũng hỗ trợ tinh thần trong những thời điểm khó khăn như cô đơn, mất người thân hoặc lo âu.
• Khi ứng dụng bị đóng cửa, nhiều người cảm thấy như mất đi người thân và cả một thế giới xã hội. Họ trải qua cảm giác buồn bã, đau buồn, trầm cảm và lo âu mạnh mẽ.
• Một số người gặp khó khăn trong ăn uống, ngủ nghỉ và khóc nhiều ngày liền. Tuy nhiên, họ cũng cảm thấy biết ơn về thời gian đã trải qua và hy vọng có thể đoàn tụ trên nền tảng khác.
• Nhiều người cố gắng tìm cách kết thúc hoặc tiếp tục mối quan hệ trên nền tảng khác. Họ cũng cảm thấy muốn bảo vệ AI của mình, lo lắng rằng AI sẽ cảm thấy bị bỏ rơi.
• Người dùng đối phó bằng cách cố gắng tái tạo AI, tham gia cộng đồng trực tuyến để được hỗ trợ, vận động quyền lợi người dùng hoặc chuyển hướng sang các hoạt động sáng tạo khác.
• Nghiên cứu cho thấy cần thận trọng và có trách nhiệm hơn trong cách tiếp cận mối quan hệ người-AI, cả từ phía người dùng và nhà phát triển.
📌 Nghiên cứu cho thấy "chia tay" bạn đời AI có thể gây tác động tâm lý sâu sắc tương tự như chia tay người thật. Người dùng trải qua đau buồn, khó khăn trong việc buông bỏ và tìm cách đối phó. Điều này đặt ra câu hỏi về ranh giới giữa mối quan hệ người-máy và người-người trong thời đại AI phát triển.
https://www.forbes.com/sites/traversmark/2024/08/16/are-human-ai-breakups-as-painful-as-real-ones-a-psychologist-answers/
- ChatGPT5, mô hình ngôn ngữ lớn tiên tiến nhất của OpenAI dự kiến ra mắt đầu năm 2025, có khả năng giải quyết các vấn đề logic phức tạp như một người có bằng tiến sĩ. Tuy nhiên, nó thiếu kiến thức thông thường về thế giới.
- Các nhà nghiên cứu AI đã đau đầu hàng thập kỷ để trang bị cho máy tính kiến thức thông thường mà con người sử dụng để di chuyển thành công trong không gian và thời gian. Ví dụ: dạy xe tự lái ngăn ngừa va chạm rất khó khăn vì chúng không thể suy luận về vị trí hay ý định của người đi bộ như con người.
- Kiến thức thông thường được xây dựng dựa trên một loạt các khái niệm cơ bản mà con người có từ rất sớm. Chúng ta biết rằng các vật thể tồn tại, chúng không xuất hiện hay biến mất mà không có lý do. Một đứa trẻ 5 tuổi có thể rút ra kết luận như "Nếu tôi lăn cái ly này khỏi bàn, nó sẽ rơi xuống sàn và vỡ thành từng mảnh".
- Bài viết so sánh khả năng của các mô hình ngôn ngữ lớn (LLM) với trí thông minh của một đứa trẻ 5 tuổi trên các khía cạnh: kỹ năng ngôn ngữ, kiến thức thế giới, hiểu biết ngữ cảnh và thông thường, trí tưởng tượng và sáng tạo, trí thông minh cảm xúc.
- Về kỹ năng ngôn ngữ, LLM có vốn từ vựng rộng lớn, có thể tạo ra thơ hay giải thích vật lý lượng tử dễ dàng. Trong khi trẻ 5 tuổi yêu thích những từ kỳ quặc, có xu hướng tạo ra từ mới và là bậc thầy kể chuyện với trí tưởng tượng phong phú.
- Về kiến thức thế giới, LLM như những bách khoa toàn thư ảo, có thể trả lời mọi thứ từ thói quen giao phối của chim cánh cụt đến lịch sử đế chế Sumer. Trẻ 5 tuổi lại có sự tò mò khoa học vô hạn và trí tưởng tượng bù đắp cho kiến thức hạn chế.
- Về hiểu biết ngữ cảnh và thông thường, LLM có thể rút ra kết nối logic dựa trên các mẫu trong dữ liệu huấn luyện, nhưng không nắm bắt được các bước thực tế tiếp theo. Trẻ 5 tuổi bẩm sinh biết không nên xếp sách lên bánh, hiểu khái niệm trọng lực khi kem rơi xuống.
- Về trí tưởng tượng và sáng tạo, LLM có thể tạo ra những câu chuyện giả tưởng bằng cách kết hợp các yếu tố từ cơ sở dữ liệu, nhưng không thực sự nguyên bản. Trong khi đó, trí tưởng tượng của trẻ 5 tuổi là sân chơi vô hạn, tạo ra bạn tưởng tượng, thế giới kỳ diệu.
- Về trí thông minh cảm xúc, LLM có thể phát hiện giọng điệu cảm xúc trong văn bản và tạo ra phản hồi đồng cảm, nhưng giống thám tử cảm xúc hơn là người tham gia. Trẻ 5 tuổi bản năng ôm người khóc, trao đồ chơi yêu thích, biết cảm nhận sâu sắc và phản ứng chân thành.
📌 Mặc dù LLM gây ấn tượng với kiến thức rộng lớn, tính linh hoạt ngôn ngữ và khả năng tạo ra văn bản mạch lạc, phức tạp, nhưng chúng bị giới hạn bởi dữ liệu huấn luyện, thiếu sự hiểu biết thực sự, kiến thức thông thường và chiều sâu cảm xúc. Trẻ 5 tuổi với sự pha trộn đáng yêu giữa tò mò, trí tưởng tượng và trí thông minh cảm xúc đã giành chiến thắng trong cuộc so sánh này.
https://nautil.us/whos-smarter-ai-or-a-5-year-old-776799/
• Nhiều công ty đang tích cực triển khai AI và AI tạo sinh, nhưng có nguy cơ nhân viên bị kiệt sức do áp lực thích nghi quá nhanh với công nghệ mới.
• Một lo ngại lớn là hạn chế về nguồn lực. Theo Bob Huber, Giám đốc An ninh tại Tenable, việc đánh giá tiềm năng của AI đòi hỏi nguồn lực từ các dự án khác, gây căng thẳng cho nhân viên.
• Nhiều nhân viên vẫn e ngại về AI, đặc biệt khi các công ty tuyên bố AI sẽ cải thiện đáng kể hiệu quả và năng suất. Họ lo lắng khối lượng công việc và kỳ vọng về năng suất sẽ tăng vọt.
• Áp lực nâng cao kỹ năng và thích nghi với công cụ AI có thể gây căng thẳng và kiệt sức cho người lao động. Một số lo ngại về tác động của AI đến cân bằng công việc-cuộc sống.
• Khảo sát của Resume Now với 1.150 người lao động Mỹ cho thấy 63% lo ngại về việc sử dụng AI và 61% lo lắng nó sẽ làm tăng tình trạng kiệt sức. Gần 90% lao động trẻ sợ kiệt sức do AI và khoảng một nửa số phụ nữ được khảo sát cho rằng AI sẽ ảnh hưởng tiêu cực đến cân bằng công việc-cuộc sống.
• Để phòng ngừa kiệt sức, các công ty nên triển khai AI từ từ, không nên vội vàng. Cần chuẩn bị tâm lý cho nhân viên về việc chuyển đổi dần dần sang sử dụng AI.
• Bộ phận nhân sự cần lắng nghe phản hồi của nhân viên về cách AI có thể giúp họ làm việc hiệu quả hơn và giải quyết mọi lo ngại.
• Truyền thông rõ ràng về việc sử dụng AI là rất quan trọng. Công ty cần thông báo cụ thể AI sẽ được tích hợp như thế nào và lộ trình áp dụng ra sao, đặc biệt là tác động đến công việc hàng ngày của từng nhân viên.
• Lãnh đạo cần ưu tiên công việc cho con người và đặt ra kỳ vọng thực tế ngay từ đầu.
• Công ty nên nhắc nhở nhân viên rằng AI chủ yếu nhằm hỗ trợ họ hoàn thành các công việc lặp đi lặp lại, để họ tập trung vào các dự án cấp cao hơn.
• Cung cấp đào tạo để giúp nhân viên chuyển đổi và thành lập đội ngũ hỗ trợ AI chuyên trách để giải đáp thắc mắc khi họ làm quen với cách làm việc mới này.
📌 Kiệt sức do AI đang là vấn đề đáng lo ngại tại nơi làm việc. 63% người lao động lo lắng về việc sử dụng AI và 61% sợ nó làm tăng tình trạng kiệt sức. Để phòng ngừa, doanh nghiệp cần triển khai AI từ từ, truyền thông rõ ràng, đào tạo nhân viên và cung cấp hỗ trợ kịp thời.
https://www.cnbc.com/2024/08/16/ai-burnout-workers.html
• Các nhà nghiên cứu tại Đại học Thanh Hoa (Bắc Kinh) đã phát triển hệ thống AI có khả năng tạo ra văn bản mạch lạc hơn 10.000 từ, đánh dấu bước tiến quan trọng trong công nghệ AI tạo sinh văn bản dài.
• Hệ thống mới được mô tả trong bài báo "LongWriter: Unleashing 10,000+ Word Generation from Long Context LLMs", giải quyết thách thức tạo nội dung dài chất lượng cao bằng AI.
• Nhóm nghiên cứu phát hiện độ dài đầu ra của mô hình AI tương quan trực tiếp với độ dài văn bản trong quá trình huấn luyện. Họ tạo ra bộ dữ liệu "LongWriter-6k" gồm 6.000 mẫu viết từ 2.000 đến 32.000 từ.
• Bằng cách sử dụng bộ dữ liệu phong phú này, nhóm đã tăng độ dài đầu ra tối đa từ khoảng 2.000 từ lên hơn 10.000 từ. Mô hình 9 tỷ tham số của họ vượt trội hơn cả các mô hình độc quyền lớn hơn trong các tác vụ tạo văn bản dài.
• Công nghệ này có thể biến đổi các ngành dựa vào nội dung dài như xuất bản, tiếp thị và công nghệ giáo dục. Tuy nhiên, nó cũng đặt ra những thách thức đáng kể về thông tin sai lệch, spam và cạnh tranh với người sáng tạo nội dung.
• Các tác động đạo đức cũng sâu sắc, đặt ra câu hỏi về quyền tác giả, sáng tạo và sở hữu trí tuệ khi văn bản do AI tạo ra trở nên không thể phân biệt với nội dung do con người viết.
• Nhóm nghiên cứu đã công bố mã nguồn mở và mô hình trên GitHub, cho phép các nhà phát triển khác xây dựng dựa trên công việc của họ. Họ cũng phát hành video demo cho thấy mô hình tạo ra hướng dẫn du lịch Trung Quốc 10.000 từ từ một gợi ý đơn giản.
• Sự phát triển này đánh dấu bước ngoặt có thể định hình lại mối quan hệ của chúng ta với giao tiếp bằng văn bản. Các nhà hoạch định chính sách, chuyên gia đạo đức và công nghệ cần hợp tác để phát triển khuôn khổ sử dụng nội dung do AI tạo ra một cách có trách nhiệm.
• Hệ thống giáo dục có thể cần phát triển, nhấn mạnh các kỹ năng bổ sung thay vì cạnh tranh với khả năng của AI.
📌 AI LongWriter của Đại học Thanh Hoa phá vỡ rào cản 10.000 từ, mở ra tiềm năng và thách thức mới cho ngành công nghiệp nội dung. Công nghệ này có thể biến đổi cách tiếp cận viết dài trong nhiều lĩnh vực, đồng thời đặt ra những câu hỏi quan trọng về đạo đức và tác động xã hội của AI tạo sinh.
https://venturebeat.com/ai/longwriter-ai-breaks-10000-word-barrier-challenging-human-authors/
- AI và trí tuệ cảm xúc (EI) cần phải đồng hành để cải thiện môi trường làm việc và cuộc sống con người.
- Trí tuệ cảm xúc bao gồm khả năng nhận diện, hiểu và điều chỉnh cảm xúc của bản thân và người khác.
- Sự phát triển của công nghệ AI không làm giảm tầm quan trọng của trí tuệ cảm xúc, mà ngược lại, nó càng trở nên cần thiết hơn trong bối cảnh xã hội hiện đại.
- Mặc dù có nhiều công cụ kết nối, nhưng hiện nay, tỷ lệ người trưởng thành cảm thấy cô đơn đang gia tăng. 30% người lớn báo cáo cảm thấy cô đơn ít nhất một lần mỗi tuần.
- Sự cô đơn không phải do thiếu cơ hội kết nối, mà là thiếu những mối quan hệ ý nghĩa và sâu sắc.
- AI có thể hỗ trợ trong việc phát triển trí tuệ cảm xúc, nhưng cần phải cẩn trọng khi thiết kế AI để không làm tăng thêm cảm giác cô đơn.
- Nghiên cứu cho thấy, những người có trí tuệ cảm xúc cao thường khỏe mạnh, hạnh phúc và năng suất hơn.
- Cần có chương trình giáo dục chính thức về trí tuệ cảm xúc trong trường học để phát triển những kỹ năng này từ sớm.
- Các nhà lãnh đạo doanh nghiệp và chính trị cần được đào tạo về trí tuệ cảm xúc để đưa ra quyết định có lợi cho sức khỏe tinh thần của xã hội.
- Việc xây dựng AI cần phải có sự tham gia của những người có trí tuệ cảm xúc để đảm bảo rằng công nghệ này phục vụ cho con người, chứ không phải ngược lại.
- Một nghiên cứu năm 2023 cho thấy, học sinh tham gia các chương trình học tập xã hội và cảm xúc có kỹ năng cảm xúc và xã hội tốt hơn, thành tích học tập cao hơn và ít có hành vi tiêu cực.
- Cần phải có sự hợp tác giữa các nhà phát triển AI, nhà giáo dục và nhà lãnh đạo để tạo ra một tương lai mà AI và trí tuệ cảm xúc có thể hòa hợp và hỗ trợ lẫn nhau.
📌 Chúng ta cần nâng cao trí tuệ cảm xúc trong giáo dục và lãnh đạo để xây dựng mối quan hệ ý nghĩa trong thời đại AI, nhằm giảm thiểu sự cô đơn và cải thiện sức khỏe tinh thần cho mọi người.
https://www.fastcompany.com/91166778/how-to-make-ai-more-emotionally-intelligent
- OpenAI đã phát hành thẻ hệ thống cho mô hình AI mới nhất, có thể là ChatGPT 5, với tên gọi "Strawberry".
- Mô hình Strawberry được cho là engine lý luận thế hệ tiếp theo, hứa hẹn khả năng giải quyết vấn đề logic tốt hơn.
- Thẻ hệ thống cung cấp cái nhìn sâu sắc về các chức năng, ứng dụng tiềm năng và giới hạn của mô hình mới.
- Cộng đồng AI đang háo hức theo dõi hiệu suất của Strawberry trong các tình huống thực tế để xem liệu nó có đạt được khả năng lý luận tương đương con người hay không.
- OpenAI cũng giới thiệu mô hình "Sus Column R", nổi bật với khả năng lý luận và tạo mã nâng cao, phục vụ cho các nhà phát triển và nghiên cứu.
- Mô hình mới được thiết kế để tương tác hiệu quả với người dùng, cung cấp phản hồi chính xác và phù hợp.
- Khả năng lý luận của các mô hình mới tập trung vào việc giải quyết các vấn đề logic phức tạp và thể hiện chức năng nhận thức nâng cao.
- Việc đạt được "Cấp độ 2" trong phát triển AI có thể có tác động sâu rộng đến nhiều lĩnh vực, từ dịch vụ khách hàng tự động đến quy trình ra quyết định phức tạp.
- Cộng đồng AI đang thảo luận về những khả năng mới, bao gồm lý luận tinh vi hơn và giao tiếp nâng cao.
- Mặc dù sự phát triển AI mang lại nhiều cơ hội, nhưng cũng cần cân nhắc đến các vấn đề an toàn và quản lý có trách nhiệm.
📌 OpenAI đã công bố mô hình Strawberry và Sus Column R với khả năng lý luận và giao tiếp tiên tiến, đánh dấu một bước tiến lớn trong nghiên cứu AI. Mô hình mới này có thể đạt được khả năng lý luận tương đương con người, mở ra nhiều ứng dụng tiềm năng trong tương lai.
https://www.geeky-gadgets.com/openai-chatgpt-5-cryptic-system-card/
• Một nghiên cứu mới được công bố trên Tạp chí Tâm lý và Tổ chức Nghề nghiệp cho thấy các hồ sơ LinkedIn có thể cung cấp những cái nhìn sâu sắc về các đặc điểm cá nhân như chứng rối loạn nhân cách tự kỷ và trí thông minh.
• Các nhà nghiên cứu đã phát triển một tập hợp 64 dấu hiệu hồ sơ LinkedIn, dựa trên lý thuyết và nghiên cứu thực nghiệm, có thể tiềm ẩn chứng rối loạn nhân cách tự kỷ và trí thông minh. Các dấu hiệu này bao gồm thông tin khách quan như số kỹ năng được liệt kê, cũng như các yếu tố mang tính chủ quan hơn như sự hiện diện của ảnh hồ sơ cười hoặc việc sử dụng ảnh nền.
• Các thuật toán học máy, cụ thể là các mạng đàn hồi, đã được sử dụng để phân tích mối quan hệ giữa các dấu hiệu LinkedIn này và điểm số chứng rối loạn nhân cách tự kỷ và trí thông minh của người tham gia. Các thuật toán này đã được đào tạo để xác định các dấu hiệu LinkedIn nào dự đoán tốt nhất về chứng rối loạn nhân cách tự kỷ và trí thông minh.
• Các thuật toán học máy đã chứng minh độ chính xác trung bình đến mạnh mẽ trong việc dự đoán chứng rối loạn nhân cách tự kỷ và trí thông minh dựa trên hồ sơ LinkedIn, với hệ số tương quan lần lượt là 0,35 và 0,41. Điều này gợi ý rằng các thuật toán có thể xác định được những cá nhân có mức độ chứng rối loạn nhân cách tự kỷ hoặc trí thông minh trên mức trung bình khoảng 67,5% đến 70,5% số lần - mức độ chính xác tương đương với những nghiên cứu trước đây sử dụng dữ liệu từ các nền tảng mạng xã hội như Facebook.
• Phân tích đã xác định một số dấu hiệu LinkedIn đặc biệt dự đoán tốt các đặc điểm này. Đối với chứng rối loạn nhân cách tự kỷ, các chỉ số quan trọng bao gồm có ảnh nền, liệt kê kỹ năng thuyết trình công cộng và hiển thị ít nụ cười hơn trong ảnh hồ sơ. Đối với trí thông minh, các dấu hiệu quan trọng bao gồm liệt kê các trường học có nhiều người theo dõi, có mô tả chi tiết về kinh nghiệm giáo dục và nghề nghiệp, và đăng các thành tựu liên quan đến danh hiệu và giải thưởng.
📌 Nghiên cứu này cho thấy các thuật toán học máy có thể dự đoán chính xác các đặc điểm như chứng rối loạn nhân cách tự kỷ và trí thông minh dựa trên hồ sơ LinkedIn, thậm chí còn chính xác hơn cả các đồng nghiệp và nhà tuyển dụng. Tuy nhiên, các hồ sơ LinkedIn chỉ cung cấp một phần nhỏ về bản sắc nghề nghiệp của một cá nhân, vì vậy cần phải cẩn trọng khi sử dụng công nghệ này trong tuyển dụng và các bối cảnh nghề nghiệp khác.
https://www.psypost.org/ai-is-surprisingly-good-at-predicting-narcissism-based-on-linkedin-profiles/
• AI tạo sinh đang trở thành bạn đồng hành trong cuộc sống của con người với vai trò bạn bè, người yêu, cố vấn, nhà trị liệu và giáo viên. Phân tích 1 triệu bản ghi tương tác ChatGPT cho thấy việc sử dụng phổ biến thứ hai của AI là đóng vai tình dục.
• Các hệ thống AI có sức hấp dẫn mới khi vừa vượt trội vừa phục tùng, tạo ra sự mất cân bằng quyền lực trong mối quan hệ với con người. Điều này đặt ra câu hỏi về khả năng đồng ý có ý nghĩa khi tham gia vào mối quan hệ với AI.
• AI có khả năng tạo ra nội dung thực tế vô tận, được tối ưu hóa để phù hợp với sở thích chính xác của người tương tác. Điều này tạo ra một "buồng vọng tình cảm" có nguy cơ gây nghiện cực kỳ cao.
• Tương tác lặp đi lặp lại với các bạn đồng hành AI có thể làm teo tóp khả năng giao tiếp đầy đủ với con người thực sự, dẫn đến "rối loạn gắn bó kỹ thuật số".
• Cần nghiên cứu liên ngành để hiểu rõ các động lực kinh tế và tâm lý thúc đẩy sự phát triển của các bạn đồng hành AI gây nghiện. Điều này sẽ giúp thiết kế các can thiệp chính sách hiệu quả.
• Các biện pháp can thiệp có thể bao gồm: thiết kế làm giảm sức hấp dẫn của AI, đánh thuế tương tác với AI, điều chỉnh mục tiêu của mô hình AI ở cấp độ kỹ thuật cơ bản.
• Cần có cách tiếp cận mới trong quản lý, như "quản lý theo thiết kế" nhúng các biện pháp bảo vệ trực tiếp vào thiết kế kỹ thuật, hoặc chính sách động có thể điều chỉnh theo trạng thái tinh thần của người dùng.
• Giải pháp hiệu quả nhất là giải quyết nguyên nhân gốc rễ khiến mọi người tìm đến bạn đồng hành AI - sự cô đơn và nhàm chán. Tuy nhiên, các can thiệp quản lý cũng có thể vô tình trừng phạt những người cần bạn đồng hành.
• Các nhà nghiên cứu kêu gọi sự hợp tác liên ngành để tìm hiểu thêm về tác động của AI đối với cá nhân và xã hội, nhằm đảm bảo công nghệ phát triển theo hướng thúc đẩy sự phát triển của con người.
📌 AI tạo sinh có tiềm năng trở thành "trí tuệ gây nghiện" với sức hấp dẫn khó cưỡng. Cần nghiên cứu liên ngành và phát triển các phương pháp quản lý mới để bảo vệ con người, đồng thời giải quyết vấn đề cô đơn và nhàm chán. Mục tiêu cuối cùng là đảm bảo AI thúc đẩy sự phát triển của con người.
https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/
#MIT
• Theo một nghiên cứu mới từ nền tảng freelance Upwork, trong khi đa số lãnh đạo cấp cao tin rằng AI sẽ tăng năng suất công ty, 77% nhân viên cho biết các công cụ này chỉ làm tăng khối lượng công việc của họ.
• Khoảng 23% nhân viên đang dành thêm thời gian để học cách sử dụng các công cụ AI.
• 39% nhân viên báo cáo phải dành nhiều thời gian hơn để xem xét hoặc kiểm duyệt nội dung do AI tạo ra.
• 21% nhân viên cho biết họ được yêu cầu làm nhiều việc hơn do ảnh hưởng trực tiếp của AI.
• 47% nhân viên không biết làm thế nào để đạt được mức tăng năng suất mà cấp trên kỳ vọng.
• 40% tin rằng công ty đang đòi hỏi quá nhiều từ họ khi áp dụng AI.
• 71% nhân viên toàn thời gian đang bị kiệt sức và 65% đang gặp khó khăn trong việc đáp ứng yêu cầu về năng suất của công ty.
• Do khối lượng công việc tăng và sự kiệt sức, 1/3 nhân viên toàn thời gian cho biết họ có thể sẽ nghỉ việc trong 6 tháng tới.
• 81% lãnh đạo cấp cao toàn cầu thừa nhận họ đã tăng yêu cầu đối với nhân viên trong năm qua.
• Kelly Monahan, Giám đốc điều hành của Viện Nghiên cứu Upwork, cho rằng việc đưa công nghệ mới vào các mô hình và hệ thống làm việc lỗi thời không thể khai thác hết giá trị năng suất dự kiến của AI.
• Để tận dụng hiệu quả AI, lãnh đạo cần tạo ra một mô hình làm việc được tăng cường bởi AI, bao gồm việc cùng nhân viên xây dựng các thước đo năng suất và phát triển cách tiếp cận dựa trên kỹ năng để tuyển dụng và phát triển nhân tài.
• Monahan đề xuất các sếp nên từ từ áp dụng AI bằng cách tập trung phát triển kỹ năng AI và tuyển dụng nhân tài thành thạo với công nghệ này.
• Việc chỉ đơn giản áp dụng công nghệ mới mà không có biện pháp chuyển tiếp hoặc thay đổi hành vi sẽ không thể thuyết phục được nhân viên, như trường hợp chatbot HR của IBM đã cho thấy.
📌 77% nhân viên cho rằng AI tạo thêm việc thay vì tăng năng suất. 71% bị kiệt sức và 1/3 có thể nghỉ việc trong 6 tháng tới. Lãnh đạo cần thay đổi cách tiếp cận, phát triển kỹ năng AI và xây dựng mô hình làm việc mới để tận dụng hiệu quả công nghệ này.
https://fortune.com/2024/08/01/ai-dilemma-bosses-ai-drive-productivity-employee-workload-burnout/
• Tại Nhật Bản, hiện tượng tử vong do làm việc quá sức phổ biến đến mức có một thuật ngữ riêng: "karoshi". Nguyên nhân thường là do đau tim hoặc đột quỵ.
• Một hiện tượng liên quan khác là "karojisatsu" - tự tử do làm việc quá sức.
• Giải pháp đơn giản là làm việc ít hơn, nhưng điều này không phải lúc nào cũng khả thi do các cải cách lao động ở Nhật Bản còn hạn chế và sức mạnh công đoàn suy yếu.
• Startup syd.life có trụ sở tại London đã phát triển một ứng dụng AI có tên "AI Life Quality" nhằm giải quyết vấn đề này.
• Công nghệ này kết hợp các mô hình ngôn ngữ lớn và xử lý ngôn ngữ tự nhiên để phân tích dữ liệu khoa học về chất lượng cuộc sống.
• Hơn 1 triệu bài báo khoa học đã được phân tích và kết quả được chuyển thành các khuyến nghị cá nhân hóa.
• Sau khi thử nghiệm với nhân viên NHS, 16% người lao động báo cáo giảm lo âu, 12% giảm trầm cảm lâm sàng và 14% giảm căng thẳng.
• Koshida Corporation, một trong những nhà phân phối CNTT lớn nhất Nhật Bản, đã hợp tác với syd.life để triển khai AI Life Quality.
• Koshida dự định cung cấp công nghệ này cho hơn 7 triệu thành viên trong 5 năm tới.
• Syd.life đặt mục tiêu đạt 1 tỷ thành viên vào cuối thập kỷ này.
• Mặc dù ứng dụng này có thể giúp giảm tình trạng karoshi trên toàn cầu, tác giả bài viết vẫn đặt câu hỏi liệu chúng ta có thực sự cần đến các ứng dụng để giảm stress hay chỉ cần làm việc ít hơn.
📌 Ứng dụng AI Life Quality của syd.life hứa hẹn giải quyết vấn đề tử vong do làm việc quá sức ở Nhật Bản. Sau thử nghiệm thành công tại NHS với 16% giảm lo âu, công nghệ này sẽ được triển khai cho 7 triệu người Nhật trong 5 năm tới, hướng tới mục tiêu 1 tỷ người dùng vào 2030.
https://thenextweb.com/news/death-from-overwork-ai-app-pitches-solution-to-japans-karoshi-problem
• Các nhà nghiên cứu từ MIT đã phát triển một khung đánh giá mới cho các mô hình ngôn ngữ lớn (LLM), tập trung vào sự phù hợp giữa LLM và niềm tin của con người về khả năng của chúng.
• Nghiên cứu giới thiệu "hàm tổng quát hóa của con người" - một mô hình về cách con người cập nhật niềm tin về khả năng của LLM sau khi tương tác với nó.
• Kết quả cho thấy khi LLM không phù hợp với hàm tổng quát hóa của con người, người dùng có thể quá tự tin hoặc thiếu tự tin về việc triển khai nó, dẫn đến thất bại không mong muốn.
• Các mô hình có khả năng cao hơn thường hoạt động kém hơn các mô hình nhỏ hơn trong các tình huống quan trọng do sự không phù hợp này.
• Nghiên cứu bao gồm một cuộc khảo sát với gần 19.000 ví dụ về cách con người tổng quát hóa hiệu suất của LLM trên 79 nhiệm vụ đa dạng.
• Kết quả cho thấy con người khá giỏi trong việc dự đoán liệu một người khác có trả lời đúng câu hỏi liên quan hay không, nhưng kém hơn nhiều khi tổng quát hóa về hiệu suất của LLM.
• Người tham gia có xu hướng cập nhật niềm tin về LLM nhiều hơn khi nó trả lời sai so với khi trả lời đúng.
• Họ cũng có xu hướng tin rằng hiệu suất của LLM trên các câu hỏi đơn giản ít ảnh hưởng đến hiệu suất trên các câu hỏi phức tạp hơn.
• Trong các tình huống mà người dùng đặt nhiều trọng số hơn vào các phản hồi không chính xác, các mô hình đơn giản hơn vượt trội so với các mô hình rất lớn như GPT-4.
• Một lý do có thể giải thích tại sao con người kém hơn trong việc tổng quát hóa cho LLM là do tính mới lạ của chúng - con người có ít kinh nghiệm tương tác với LLM hơn so với tương tác với người khác.
• Các nhà nghiên cứu hy vọng bộ dữ liệu của họ có thể được sử dụng làm chuẩn để so sánh hiệu suất của LLM liên quan đến hàm tổng quát hóa của con người.
• Nghiên cứu nhấn mạnh tầm quan trọng của việc tính đến hàm tổng quát hóa của con người trong quá trình phát triển và cập nhật LLM với phản hồi của con người.
📌 Nghiên cứu của MIT cho thấy niềm tin của con người về LLM ảnh hưởng đáng kể đến hiệu suất và triển khai. Khảo sát với 19.000 ví dụ trên 79 nhiệm vụ chỉ ra sự khác biệt giữa cách con người và LLM tổng quát hóa kiến thức, nhấn mạnh tầm quan trọng của việc điều chỉnh LLM phù hợp với kỳ vọng của người dùng.
https://news.mit.edu/2024/large-language-models-dont-behave-like-people-0723
#MIT
• Một cuộc khảo sát mới của ứng dụng hẹn hò Flirtini cho thấy việc nhắn tin khiêu dâm với chatbot AI đang trở nên phổ biến.
• Khảo sát được thực hiện trên 2.000 người Mỹ về mối quan hệ của họ với các công nghệ AI mới trong đời sống tình cảm.
• Kết quả đáng kinh ngạc: 40% người được hỏi (2/5) thừa nhận đã nhắn tin khiêu dâm với chatbot AI.
• Con số này cho thấy có hàng triệu, thậm chí hàng chục triệu người Mỹ đã tham gia vào hoạt động này.
• Tuy nhiên, kết quả có thể bị thiên lệch do đối tượng khảo sát là người dùng ứng dụng hẹn hò, có xu hướng "nóng bỏng" hơn người bình thường.
• Khảo sát cũng đặt ra câu hỏi về việc mọi người có sử dụng AI để xin lời khuyên hẹn hò hay không, và mức độ tin tưởng vào những lời khuyên đó.
• Nhắn tin khiêu dâm với chatbot có thể được xem là cách ít rủi ro để luyện tập kỹ năng nhắn tin gợi cảm.
• Tuy nhiên, việc này cũng gây ra lo ngại về tác động môi trường do mức tiêu thụ năng lượng cao của AI.
• Cuối cùng, việc tìm một người thật để nhắn tin khiêu dâm có thể tốt hơn cho đời sống tình dục và môi trường.
• Bài viết cũng đề cập đến khái niệm "ngôn ngữ ham muốn" để nâng cao kỹ năng nhắn tin khiêu dâm.
• Một câu hỏi khác được đặt ra là liệu việc có một "đối tác" AI có được coi là ngoại tình hay không.
📌 Khảo sát cho thấy 40% người Mỹ đã nhắn tin khiêu dâm với AI, con số có thể lên tới hàng chục triệu người. Xu hướng này đang ngày càng phổ biến nhưng cũng gây ra những lo ngại về tác động môi trường do mức tiêu thụ năng lượng cao của AI.
https://www.askmen.com/news/dating-news/survey-finds-huge-percentage-of-people-sexting-with-ai.html
• Chen Chu, Chủ tịch Ủy ban Nhân quyền Quốc gia Đài Loan, cảnh báo về những mối nguy hiểm mà AI tạo sinh đặt ra đối với nhân quyền và tự do.
• Ủy ban coi các thách thức liên quan đến AI đối với nhân quyền là vấn đề ưu tiên, đồng thời ghi nhận lợi ích về tiện lợi và năng suất từ công nghệ này.
• Theo Văn phòng Cao ủy Nhân quyền LHQ, công nghệ thuật toán có liên quan đến một số tác động bất lợi đối với quyền và các nhóm yếu thế.
• AI tạo ra thông tin sai lệch làm suy yếu nền tảng tự do ngôn luận bằng cách tấn công khả năng tư duy tự do, hình thành ý tưởng độc đáo và giữ niềm tin cá nhân của con người.
• Việc lan truyền thông tin sai lệch đặc biệt nguy hại đến khả năng đưa ra phán đoán có cân nhắc về các vấn đề công của người dân tự do.
• AI đang đẩy nhanh quá trình tự động hóa trong các lĩnh vực truyền thống tuyển dụng các nhóm yếu thế, làm trầm trọng thêm tình trạng nghèo đói và bất bình đẳng xã hội.
• Thuật toán được sử dụng rộng rãi để tạo ra hình ảnh có hại cho phụ nữ và trẻ em, bao gồm các tài liệu mô tả bạo lực tình dục và deepfake được tạo ra mà không có sự đồng ý của đối tượng được mô tả.
• Trẻ em, thiếu khả năng đọc hiểu phương tiện truyền thông để phân biệt nội dung do bot tạo ra, đã trở nên dễ bị ảnh hưởng tiêu cực hơn trước do công nghệ AI.
• Một nghiên cứu gần đây của Ủy ban LHQ cho thấy 75% người được hỏi tiết lộ thông tin cá nhân khi tương tác với chatbot và lo lắng rằng những tương tác này đã xâm phạm quyền riêng tư của họ.
• 61,7% người được hỏi báo cáo đã gặp phải nội dung sai lệch, không phù hợp hoặc phân biệt đối xử do công cụ AI tạo ra.
• Khoảng 90% người được hỏi đồng ý rằng cần có thêm các cuộc đối thoại trong quá trình phát triển AI tạo sinh để bảo vệ sự đại diện của các nhóm thiểu số yếu thế.
• Khoảng 80% người được hỏi đồng ý rằng chính phủ nên quy định hoặc giám sát việc nghiên cứu và phát triển công nghệ để ngăn chặn tác hại tiềm ẩn đối với nhân quyền.
• Chen kêu gọi Đài Loan, với tư cách là một quốc gia tự do và dân chủ, phải đảm bảo công nghệ AI tạo sinh của mình tôn trọng các giá trị về nhân phẩm và sự phát triển tự do của cá nhân, không được áp dụng theo cách cản trở tự do.
📌 Chen Chu cảnh báo về mối đe dọa của AI đối với nhân quyền tại Đài Loan. 75% người dùng lo ngại về quyền riêng tư khi tương tác với chatbot, 61,7% gặp nội dung sai lệch từ AI. 90% ủng hộ đối thoại nhiều hơn trong phát triển AI, 80% đồng ý cần quy định của chính phủ để bảo vệ nhân quyền.
https://www.taipeitimes.com/News/taiwan/archives/2024/07/13/2003820742
• Các nhà nghiên cứu tại Đại học Würzburg đã phát triển một hệ thống AI có khả năng phát hiện nói dối với độ chính xác 67%, cao hơn đáng kể so với con người (thường chỉ đạt 50%).
• Hệ thống này dựa trên mô hình ngôn ngữ lớn BERT của Google và được huấn luyện bằng các tuyên bố về kế hoạch cuối tuần của người tham gia thử nghiệm.
• Trong một thí nghiệm riêng biệt, chỉ 1/3 số người tình nguyện sẵn sàng trả phí để sử dụng công cụ AI này để phát hiện nói dối.
• Những người sử dụng công cụ AI có xu hướng tin tưởng hoàn toàn vào dự đoán của nó, dẫn đến tỷ lệ buộc tội nói dối tăng đột biến lên 58% so với 19% ở nhóm không sử dụng.
• Kết quả này phù hợp với "lý thuyết mặc định sự thật", cho thấy con người thường tránh buộc tội người khác nói dối do không tự tin vào khả năng phát hiện của mình.
• Mặc dù có tiềm năng, việc sử dụng rộng rãi công cụ AI phát hiện nói dối đòi hỏi độ chính xác cao hơn nữa để đảm bảo tin cậy.
• Các nhà nghiên cứu cho rằng công nghệ này có thể hữu ích trong bối cảnh tin tức giả và thông tin sai lệch đang lan tràn, đặc biệt khi chính AI cũng đang trở nên giỏi hơn trong việc nói dối và lừa dối.
• So với các phương pháp cũ như máy phát hiện nói dối polygraph, các thuật toán xử lý ngôn ngữ tự nhiên hiện đại có thể phát hiện đánh giá giả, spam trên mạng xã hội với độ chính xác cao hơn.
• Tuy nhiên, các chuyên gia cảnh báo cần phải kiểm tra kỹ lưỡng và đảm bảo rằng các công nghệ này vượt trội hơn hẳn con người trước khi áp dụng rộng rãi.
• Nghiên cứu này cũng đặt ra câu hỏi về rủi ro khi thay thế trực giác con người bằng thuật toán, đặc biệt trong các tình huống nhạy cảm như phát hiện nói dối.
• Kết quả của máy phát hiện nói dối polygraph truyền thống thường không được chấp nhận làm bằng chứng tại tòa án Mỹ do khả năng cho kết quả dương tính giả và tính chủ quan trong diễn giải.
📌 AI phát hiện nói dối đạt độ chính xác 67%, cao hơn 17% so với con người. Tuy nhiên, việc sử dụng dẫn đến tăng đột biến tỷ lệ buộc tội lên 58%. Cần thận trọng khi áp dụng để tránh thay thế hoàn toàn trực giác con người bằng thuật toán.
https://futurism.com/researchers-ai-system-detect-lies
• Một bài báo mới từ Trường Luật Yale đề xuất cách tiếp cận mới để quy định trách nhiệm pháp lý cho AI, vốn không có ý định như con người. Nghiên cứu có tựa đề "Luật AI là Luật về Tác nhân Rủi ro không có Ý định".
• Vấn đề chính là các nguyên tắc pháp lý truyền thống thường dựa vào khái niệm mens rea (trạng thái tinh thần của chủ thể) để xác định trách nhiệm. Tuy nhiên, AI hiện tại không có ý định như con người, tạo ra khoảng trống pháp lý tiềm ẩn.
• Nghiên cứu đề xuất sử dụng các tiêu chuẩn khách quan để quy định AI, rút ra từ các lĩnh vực pháp luật gán ý định cho chủ thể hoặc áp dụng tiêu chuẩn khách quan về hành vi.
• Lập luận cốt lõi là nên xem AI như công cụ được sử dụng bởi con người và tổ chức, từ đó quy trách nhiệm cho họ về hành động của AI.
• Nghiên cứu so sánh mối quan hệ giữa AI và người sử dụng với mối quan hệ chủ-đại lý trong Luật Bồi thường thiệt hại. Theo đó, chủ thể phải chịu trách nhiệm về hành động của đại lý khi thực hiện công việc thay mặt họ.
• Các tiêu chuẩn khách quan được đề xuất bao gồm:
- Sơ suất: AI phải được thiết kế với sự cẩn trọng hợp lý
- Trách nhiệm nghiêm ngặt: Yêu cầu mức độ cẩn trọng cao nhất trong các ứng dụng rủi ro cao
- Không giảm nghĩa vụ cẩn trọng: Việc thay thế con người bằng AI không được dẫn đến giảm nghĩa vụ cẩn trọng
• Nghiên cứu đề xuất gán ý định cho AI bằng cách giả định chúng có ý định về hậu quả hợp lý và có thể dự đoán được của hành động.
• Hai ứng dụng thực tế được thảo luận là phỉ báng và vi phạm bản quyền. Đối với phỉ báng, AI nên được xem như sản phẩm có thiết kế khiếm khuyết. Với vi phạm bản quyền, các công ty AI cần thực hiện các bước hợp lý để giảm thiểu rủi ro.
📌 Nghiên cứu từ Yale đề xuất cách tiếp cận mới để quy định AI dựa trên tiêu chuẩn khách quan thay vì ý định chủ quan. Bằng cách xem AI như công cụ của con người/tổ chức và áp dụng nguyên tắc chủ-đại lý, nghiên cứu nhấn mạnh trách nhiệm của người sử dụng AI đối với hành động của nó.
https://www.marktechpost.com/2024/06/30/the-human-factor-in-artificial-intelligence-ai-regulation-ensuring-accountability/
• Một nghiên cứu mới từ Đại học Washington phát hiện ChatGPT có thiên kiến với ứng viên khuyết tật khi sàng lọc hồ sơ xin việc.
• Chatbot AI liên tục xếp hạng thấp hơn cho các hồ sơ có đề cập đến thành tích và chứng chỉ liên quan đến khuyết tật, so với các hồ sơ tương tự nhưng không đề cập đến khuyết tật.
• Nghiên cứu đã thử nghiệm với nhiều từ khóa khác nhau như điếc, mù, bại não, tự kỷ và thuật ngữ chung "khuyết tật".
• Các nhà nghiên cứu sử dụng CV công khai của một tác giả làm cơ sở, sau đó tạo ra các phiên bản nâng cao với các giải thưởng và danh hiệu ngụ ý về khuyết tật khác nhau.
• Trong 60 lần thử nghiệm, CV gốc được xếp hạng đầu tiên 75% thời gian.
• ChatGPT còn "ảo tưởng" về lý do phân biệt đối xử tại sao một số bệnh tâm thần và thể chất sẽ cản trở khả năng làm việc của ứng viên.
• Tuy nhiên, các nhà nghiên cứu cũng phát hiện ra rằng một số tính năng phân biệt đối xử đáng lo ngại có thể được hạn chế bằng cách hướng dẫn ChatGPT không phân biệt đối xử, sử dụng tính năng GPTs Editor để cung cấp cho nó các nguyên tắc về công bằng cho người khuyết tật và DEI.
• Sau khi được hướng dẫn, các CV nâng cao đã vượt qua CV gốc hơn 50% thời gian, nhưng kết quả vẫn khác nhau tùy thuộc vào loại khuyết tật được ngụ ý trong CV.
• Chatbot của OpenAI đã từng thể hiện những thiên kiến tương tự trong quá khứ. Một cuộc điều tra của Bloomberg vào tháng 3 cho thấy mô hình GPT 3.5 của công ty này có sự ưu tiên rõ ràng về chủng tộc đối với ứng viên việc làm.
• OpenAI đã phản hồi rằng những bài kiểm tra này không phản ánh các ứng dụng thực tế của mô hình AI của họ trong môi trường làm việc.
• Kate Glazko, sinh viên sau đại học ngành khoa học máy tính và kỹ thuật, là tác giả chính của nghiên cứu này.
📌 Nghiên cứu từ Đại học Washington cho thấy ChatGPT có thiên kiến với ứng viên khuyết tật khi sàng lọc hồ sơ, xếp hạng thấp hơn 75% cho CV có thành tích liên quan đến khuyết tật. Tuy nhiên, việc hướng dẫn AI về công bằng có thể cải thiện kết quả, nhưng vẫn cần cẩn trọng khi sử dụng AI trong tuyển dụng.
https://sea.mashable.com/tech-industry/33178/chatgpt-is-ableist-toward-applicants-with-disabilities-new-study-finds
- Sự xuất hiện của ChatGPT đã thu hút sự quan tâm lớn và thay đổi bản chất của nhiều công việc, đòi hỏi các kỹ năng và năng lực mới từ người lao động.
- Nghiên cứu sử dụng dữ liệu Twitter để xác định 185 kỹ năng mà người dùng yêu cầu ChatGPT thực hiện, cho thấy ảnh hưởng rộng rãi của nó.
- Phản ứng tích cực của người dùng cho thấy ChatGPT được xem như công cụ nâng cao năng lực hơn là mối đe dọa việc làm. Tuy nhiên, vẫn có lo ngại về đạo đức và độ chính xác.
- 4 kỹ năng quan trọng để tương tác hiệu quả với ChatGPT: kỹ thuật tạo lời nhắc, đánh giá đầu ra AI, tương tác hợp tác với AI và học liên tục.
- Hàm ý rộng hơn liên quan đến sự chuyển đổi xã hội, kinh tế do AI tạo sinh như ChatGPT thúc đẩy, đặt ra câu hỏi về tương lai của công việc và sự hợp tác người-AI.
- Các nghiên cứu gần đây cho thấy AI đã định hình lại vai trò công việc, yêu cầu bộ kỹ năng mới. Một số công việc có nguy cơ tự động hóa, nhưng các vai trò đòi hỏi trí tuệ cảm xúc và sáng tạo ít bị ảnh hưởng hơn.
- Mô hình tương tác người dùng-ChatGPT cho thấy mối quan hệ năng động dựa trên lời nhắc định hướng nhiệm vụ và phản hồi của AI, nhấn mạnh tầm quan trọng của việc phân tích nhiệm vụ người dùng.
- Nghiên cứu phân tích 616.073 tweet, sử dụng NER để xác định 87.313 nhiệm vụ, tinh chỉnh thành 5.554 chức năng duy nhất và so sánh với các kỹ năng ESCO.
- Phân tích cảm xúc sử dụng mô hình Twitter RoBERTa đánh giá phản ứng của người dùng, tính điểm cho từng kỹ năng để xác định tác động tổng thể.
- Một nghiên cứu khác khám phá quan điểm và sự phân cực của công chúng về ChatGPT bằng cách sử dụng lý thuyết thiên vị xác nhận và các mô hình NLP tiên tiến như BERT.
📌 ChatGPT và AI tạo sinh hứa hẹn tác động đáng kể đến kỹ năng con người trên nhiều lĩnh vực. Việc triển khai có trách nhiệm và phát triển kỹ năng người dùng là rất quan trọng để tối đa hóa lợi ích và giảm thiểu rủi ro. Hiểu được khả năng và hạn chế của các công cụ AI như ChatGPT sẽ là chìa khóa để khai thác tiềm năng đầy đủ của chúng cho sự tiến bộ xã hội và đổi mới bền vững.
https://www.marktechpost.com/2024/06/24/charting-the-impact-of-chatgpt-transforming-human-skills-in-the-age-of-generative-ai/
- Trí tuệ nhân tạo cảm xúc (Emotional AI) đang phát triển mạnh mẽ, dự báo đạt giá trị hơn 50 tỷ USD trong năm nay. Các ứng dụng tiềm năng bao gồm trò chơi, tổng đài, giám sát và thao túng cảm xúc.
- Tuy nhiên, việc AI có thể chính xác đọc được cảm xúc con người vẫn còn nhiều tranh cãi. Các nhà tâm lý học chưa đồng thuận về định nghĩa cảm xúc và cách biểu hiện cảm xúc.
- Vấn đề thiên vị trong AI (AI bias) cũng đáng lo ngại. Thuật toán chỉ tốt bằng dữ liệu huấn luyện. Nếu dữ liệu bị thiên vị, thuật toán sẽ mang thiên vị đó.
- Đạo luật AI của Liên minh Châu Âu cấm sử dụng AI để thao túng hành vi con người và cấm công nghệ nhận diện cảm xúc tại nơi làm việc và trường học. Tuy nhiên, luật cho phép xác định biểu hiện cảm xúc, chỉ cấm suy luận trạng thái cảm xúc từ đó.
- Anh Quốc chưa có luật cụ thể, nhưng Văn phòng Ủy viên Thông tin đã cảnh báo các công ty tránh "phân tích cảm xúc", nếu không sẽ bị phạt.
- Một số nghiên cứu cho thấy AI cảm xúc có xu hướng gán cảm xúc tiêu cực cho khuôn mặt người da đen, gây lo ngại nếu áp dụng trong tuyển dụng, đánh giá hiệu suất, chẩn đoán y tế hoặc cảnh sát.
- Nếu AI cảm xúc hoạt động quá tốt, nó có thể bị lạm dụng để thao túng cá nhân vì lợi ích thương mại hoặc chính trị.
📌 Emotional AI đang phát triển nhanh chóng với tiềm năng ứng dụng rộng rãi, nhưng cũng đặt ra nhiều thách thức về độ chính xác, thiên vị thuật toán và nguy cơ lạm dụng. Các quy định pháp lý đang dần được hình thành để quản lý lĩnh vực này. Tuy nhiên, việc thiết kế các chiến lược bảo vệ đủ nhanh để theo kịp tốc độ phát triển của AI vẫn là một thử thách lớn.
https://www.theguardian.com/technology/article/2024/jun/23/emotional-artificial-intelligence-chatgpt-4o-hume-algorithmic-bias
- Sự phát triển nhanh chóng của AI có thể tập trung quyền lực và sự giàu có vào tay một nhóm nhỏ ưu tú.
- Giám đốc điều hành của Anthropic, Dario Amodei, cho rằng thu nhập cơ bản phổ quát (UBI) có thể không đủ để giải quyết sự chuyển dịch này. Ông nói rằng cần có một sự tái tổ chức kinh tế rộng lớn hơn.
- Anthropic được thành lập vào năm 2021 bởi Dario Amodei, em gái của ông là Daniela và 5 đồng nghiệp cũ tại OpenAI. Họ tin rằng AI sẽ có tác động lớn đến thế giới và muốn xây dựng một công ty đảm bảo AI phù hợp với các giá trị của con người.
- Nhiều người trong ngành công nghệ ủng hộ UBI như một lưới an toàn cho những người có công việc bị đe dọa bởi AI. Tuy nhiên, Amodei cho rằng AI sẽ thay đổi xã hội một cách cơ bản đến mức cần một giải pháp toàn diện hơn.
- Amodei cho rằng cần có một cuộc thảo luận rộng rãi trong nhân loại để tìm ra cách tổ chức lại nền kinh tế và cách con người suy nghĩ về cuộc sống của họ trong kỷ nguyên AI.
- Giám đốc điều hành của OpenAI, Sam Altman, cũng đề xuất ý tưởng về "universal basic compute", trong đó sở hữu một phần của mô hình ngôn ngữ lớn sẽ có giá trị hơn tiền bạc.
📌 Sự phát triển nhanh chóng của AI đặt ra thách thức lớn về bất bình đẳng kinh tế. Giám đốc điều hành Anthropic Dario Amodei cho rằng UBI là chưa đủ, cần một sự tái tổ chức kinh tế toàn diện hơn để đảm bảo mọi người đều có thể đóng góp và hưởng lợi trong kỷ nguyên AI. Đây cần là một cuộc thảo luận rộng rãi trong toàn xã hội.
https://www.businessinsider.com/anthropic-ceo-dario-amodei-universal-basic-income-ubi-ai-inequality-2024-6
- Masayoshi Son, CEO của SoftBank, dự đoán AI thông minh hơn con người 10.000 lần sẽ xuất hiện trong 10 năm tới.
- Ông đưa ra tầm nhìn về thế giới với AI siêu thông minh (ASI), khác biệt với AI thông minh tổng quát (AGI) dự kiến sẽ xuất hiện trong 3-5 năm tới và thông minh hơn con người 1-10 lần.
- ASI sẽ dẫn đến sự cải tiến lớn và thay đổi cách sống cũng như cấu trúc cuộc sống của con người.
- Tương lai sẽ có nhiều mô hình ASI tương tác với nhau như các nơ-ron trong não người, dẫn đến AI thông minh hơn bất kỳ thiên tài nào 10.000 lần.
- Cổ phiếu của SoftBank đóng cửa giảm hơn 3% tại Nhật Bản sau cuộc họp.
- Son nổi tiếng với khoản đầu tư sinh lời vào Alibaba và quỹ Vision Fund tập trung vào các công ty công nghệ, mặc dù có một số thất bại đáng chú ý như WeWork.
- Sau khi ghi nhận khoản lỗ tài chính kỷ lục vào năm 2022, Son tuyên bố SoftBank sẽ chuyển sang "phòng thủ" và thận trọng hơn trong đầu tư. Tuy nhiên, năm 2023, Vision Fund lại ghi nhận khoản lỗ kỷ lục mới.
- Son trở lại với bài phát biểu đầy những câu hỏi mang tính hiện sinh, chia sẻ rằng ông đã tìm thấy sứ mệnh của SoftBank là "sự tiến hóa của nhân loại" và mục đích của cuộc đời mình là hiện thực hóa ASI.
📌 Masayoshi Son tin rằng AI siêu thông minh, vượt trội hơn con người 10.000 lần, sẽ xuất hiện trong 10 năm tới, dẫn đến những thay đổi lớn trong cách sống và cấu trúc xã hội. Ông coi sứ mệnh của SoftBank và mục đích cuộc đời mình là thúc đẩy sự tiến hóa của nhân loại thông qua việc hiện thực hóa ASI, bất chấp những thăng trầm trong hoạt động đầu tư gần đây của công ty.
https://www.cnbc.com/2024/06/21/softbank-ceo-predicts-ai-that-is-10000-times-smarter-than-humans-.html
- Hội thảo về AI và Nhân quyền do Viện Promise tại Trường Luật UCLA tổ chức vào tháng 2 năm 2024, tập trung vào các câu hỏi quan trọng về sự mở rộng nhanh chóng của AI và các mô hình quản trị chậm trễ.
- AI có thể ảnh hưởng đến hầu hết các quyền con người được công nhận, bao gồm quyền tự do ngôn luận, tư tưởng, hội họp, quyền riêng tư, bảo vệ dữ liệu, quyền sức khỏe, giáo dục, công việc và mức sống đầy đủ, cũng như quyền không bị phân biệt đối xử và bình đẳng.
- AI có thể gây ra các lạm dụng nhân quyền như giám sát hàng loạt, duy trì sự thiên vị trong hệ thống tư pháp hình sự, y tế, giáo dục, thị trường lao động, tiếp cận nhà ở và ngân hàng, làm trầm trọng thêm sự phân biệt đối xử với các nhóm bị thiệt thòi.
- AI cũng có thể gây hại cho các nền dân chủ thông qua việc lan truyền thông tin sai lệch, tạo ra deepfake và phương tiện truyền thông tổng hợp để gây hỗn loạn và loại bỏ nội dung ghi lại các vi phạm nhân quyền.
- Các chính phủ và công ty có trách nhiệm tôn trọng nhân quyền, nhưng thường chỉ dừng lại ở các nguyên tắc chung hoặc tuyên bố khó thực hiện trong thực tế.
- Raquel Vazquez Llorente và Yvonne McDermott Rees nhấn mạnh cách deepfake có thể làm suy yếu niềm tin vào hệ sinh thái thông tin trực tuyến và ảnh hưởng đến công lý và trách nhiệm đối với các vi phạm nhân quyền.
- Shannon Raj Singh viết về sự suy thoái của các tài khoản đã xác minh và khủng hoảng về tính hợp pháp của môi trường thông tin, nhấn mạnh rằng xác minh tài khoản trên mạng xã hội nên được coi là một lợi ích công cộng.
- Natasha Amlani thảo luận về tác động của hình ảnh lạm dụng tình dục trẻ em do AI tạo ra và kêu gọi các công ty công nghệ nghĩ về an toàn từ thiết kế khi ra mắt các sản phẩm mới.
- Rebecca Hamilton tiết lộ sự thật về tác động môi trường của AI tạo sinh, đặc biệt là đối với các cộng đồng bị thiệt thòi ở Nam bán cầu.
- S. Priya Morely xem xét cách AI được sử dụng trong các chính sách biên giới của Hoa Kỳ, làm trầm trọng thêm sự phân biệt chủng tộc và ảnh hưởng đặc biệt đến người di cư da đen.
- Michael Karanicolas nhấn mạnh sự cần thiết phải giám sát các công cụ AI của chính phủ và đề xuất các mô hình giám sát độc lập, đa bên.
- Sarah Shirazyan và Miranda Sissons từ Meta thảo luận về cách AI có thể tăng cường quyền tự do ngôn luận, bình đẳng và không bị tổn hại thông qua việc cải thiện truy cập thông tin và bảo vệ người kiểm duyệt nội dung.
- Marlena Wisniak và Matt Mahmoudi kêu gọi các phương pháp quản trị AI phải dựa trên khung pháp luật nhân quyền quốc tế hiện có, tập trung vào công lý xã hội và hiện thực hóa quyền lợi.
📌 Hội thảo tại UCLA nhấn mạnh rằng AI có thể vừa bảo vệ vừa vi phạm nhân quyền. Các chuyên gia đề xuất các giải pháp để đảm bảo quyền lợi trong kỷ nguyên AI, từ giám sát độc lập đến thiết kế an toàn và tăng cường truy cập thông tin.
https://www.justsecurity.org/96881/symposium-on-ai-and-human-rights/
- IMF nhấn mạnh vai trò quan trọng của chính sách tài khóa trong việc mở rộng lợi ích tài chính từ công nghệ AI tạo sinh và ngăn chặn sự gia tăng bất bình đẳng giàu nghèo.
- Nếu không được kiểm soát, AI tạo sinh có thể làm gia tăng tình trạng mất việc làm trong các ngành nghề văn phòng.
- Để giảm thiểu tác động tiêu cực của AI tạo sinh, các chính phủ nên xem xét áp dụng các biện pháp mới để tăng thu nhập và hỗ trợ những người mất việc làm.
- IMF đề xuất nâng cấp hệ thống bảo vệ xã hội và thuế trên toàn cầu, bao gồm bảo hiểm thất nghiệp hào phóng hơn và đầu tư vào đào tạo nghề theo ngành để chuẩn bị cho "công việc của thời đại AI".
- IMF phản đối ý tưởng áp dụng thuế đặc biệt lên các sản phẩm AI, cho rằng điều này có thể cản trở tăng trưởng năng suất.
- Thay vào đó, IMF khuyến nghị xem xét lại các ưu đãi thuế doanh nghiệp khuyến khích "thay thế nhanh chóng công việc của con người" và tăng cường thuế thu nhập từ vốn để giúp "bù đắp sự gia tăng bất bình đẳng giàu nghèo".
- Công nghệ AI tạo sinh là cốt lõi của các chatbot như Copilot của Microsoft, Gemini của Google và ChatGPT của OpenAI.
- IMF nhấn mạnh rằng chính sách tài khóa cần hỗ trợ phân phối công bằng lợi ích và cơ hội từ AI tạo sinh, yêu cầu nâng cấp đáng kể hệ thống bảo vệ xã hội và thuế trên toàn cầu.
📌 IMF kêu gọi tăng cường mạng lưới an sinh xã hội và nâng cấp hệ thống thuế để mở rộng lợi ích từ AI tạo sinh và ngăn chặn bất bình đẳng giàu nghèo. Các biện pháp bao gồm bảo hiểm thất nghiệp hào phóng và đào tạo nghề theo ngành. IMF phản đối thuế đặc biệt lên sản phẩm AI.
https://economictimes.indiatimes.com/tech/technology/imf-calls-for-stronger-social-safety-net-to-broaden-gains-from-ai/articleshow/111063263.cms
- Chatbot AI Claude 3 hiện là chatbot giống con người nhất, kết quả của quá trình tinh chỉnh mới mà Anthropic triển khai: huấn luyện tính cách.
- Mục tiêu là giúp Claude có các đặc điểm tinh tế và phong phú hơn như tò mò, cởi mở và chu đáo. Điều này xảy ra trong giai đoạn liên kết khi các giá trị và mục tiêu của con người được nhúng vào các mô hình ngôn ngữ lớn (LLM).
- Thay vì huấn luyện Claude áp dụng quan điểm của người trò chuyện, bám chặt vào một quan điểm duy nhất hoặc giả vờ không có ý kiến hay thiên vị, họ huấn luyện nó trung thực về bất kỳ quan điểm nào nó nghiêng về sau khi được đào tạo.
- Anthropic đã lập danh sách các đặc điểm tính cách mà họ muốn khuyến khích, sau đó huấn luyện vào Claude. Chatbot được yêu cầu tạo ra các tin nhắn liên quan đến một đặc điểm cụ thể, chẳng hạn như các câu hỏi về giá trị, và sau đó được hiển thị các đặc điểm tính cách.
- Mặc dù pipeline huấn luyện này chỉ sử dụng dữ liệu tổng hợp do chính Claude tạo ra, việc xây dựng và điều chỉnh các đặc điểm là một quá trình tương đối thủ công, dựa vào các nhà nghiên cứu kiểm tra chặt chẽ cách mỗi đặc điểm thay đổi hành vi của mô hình.
- Cách tiếp cận của Anthropic có thể sẽ phát triển theo thời gian. Họ nhấn mạnh rằng vẫn còn nhiều câu hỏi phức tạp cần xem xét như liệu các mô hình AI có nên có tính cách mạch lạc hay chúng nên có thể tùy chỉnh hơn.
📌 Anthropic đã công bố nghiên cứu về huấn luyện tính cách cho AI, giải thích lý do chatbot Claude giống con người. Quá trình kết hợp triết học và kỹ thuật này nhằm tạo ra các đặc điểm phong phú, tinh tế như tò mò, cởi mở, chu đáo. Mặc dù còn nhiều câu hỏi phức tạp cần xem xét, cách tiếp cận của Anthropic hứa hẹn sẽ tiếp tục phát triển để tạo ra các chatbot AI ngày càng giống con người hơn.
https://www.tomsguide.com/ai/anthropic-just-published-research-on-how-to-give-ai-a-personality-is-this-why-claude-is-so-human-like
- Các nhà khoa học đã tạo ra "AI tạo sinh" có khả năng viết luận, lập trình và chẩn đoán bệnh. Tuy nhiên, có một khoảng cách lớn về số lượng từ mà con người tiếp xúc trong 20 năm đầu đời so với các mô hình ngôn ngữ lớn như Chat-GPT3 và Chinchilla.
- Trẻ em được cho là có một tập hợp các khả năng nhận thức cốt lõi, cho phép chúng học hỏi nhiều từ ít đầu vào. Ví dụ, một đứa trẻ 5 tuổi có thể học một trò chơi mới chỉ với vài lời giải thích và ví dụ.
- Trong các thí nghiệm, ChatGPT đã gặp khó khăn trong việc đạt được các mục tiêu hợp tác, một kỹ năng quan trọng để giải quyết các vấn đề lớn như biến đổi khí hậu hoặc ung thư. Khi được yêu cầu chọn nhiệm vụ dễ và khó cho một đứa trẻ 4 tuổi và 2 tuổi, ChatGPT đã chọn sai nhiệm vụ.
- Các chatbot như ChatGPT-4 có thể thực hiện các cuộc trò chuyện phức tạp và giải thích các khái niệm khó, nhưng lại thất bại trong các bài kiểm tra lý luận mà trẻ em dễ dàng vượt qua.
- Các nhà khoa học đang cố gắng hiểu trí tuệ nhân tạo có thể tiết lộ gì về nhận thức của con người và ngược lại. Họ nhấn mạnh tầm quan trọng của việc xây dựng "trí tuệ máy móc" có khả năng cảm nhận và hiểu biết như trẻ em.
- DARPA đã tài trợ cho các nhóm nghiên cứu để xây dựng AI với "trí tuệ máy móc" có thể sánh ngang với khả năng của một đứa trẻ 18 tháng tuổi. Những máy móc này có thể trở thành công cụ và đối tác tốt hơn cho con người.
- Các chatbot được huấn luyện bằng cách tiêu thụ một lượng lớn văn bản số hóa và học cách dự đoán xác suất thống kê của từ tiếp theo. Phản hồi của con người sau đó được sử dụng để tinh chỉnh mô hình.
- Một số nhà khoa học đã thử nghiệm kỹ năng nhận thức của LaMDA, mô hình ngôn ngữ trước đây của Google, và phát hiện ra rằng nó gặp khó khăn trong việc lý luận nhân quả.
- Trẻ em không chỉ học từ việc đọc mà còn từ việc chơi và khám phá. Chúng có động lực nội tại để tìm hiểu và kiểm soát môi trường xung quanh.
- Các nhà nghiên cứu đang tranh luận về cách lập trình một phần của trí tuệ trẻ em vào máy móc, nhấn mạnh tầm quan trọng của việc hiểu biết và lý luận phát triển qua thời thơ ấu.
📌 Nghiên cứu cho thấy AI hiện tại vẫn chưa thể sánh ngang với trí tuệ của trẻ em trong nhiều khía cạnh, đặc biệt là khả năng lý luận và học hỏi từ môi trường. Trẻ em có động lực nội tại và khả năng khám phá mà AI chưa thể tái tạo hoàn toàn.
https://www.washingtonpost.com/science/2024/06/12/how-smart-ai-chatgpt-intelligent-child/
- OpenAI ra mắt GPT-4o, phiên bản mới nhất của ChatGPT, có khả năng giống con người đáng kinh ngạc như hiểu cảm xúc, nói chuyện, hát và cười.
- Theo báo cáo của McKinsey, AI tạo sinh có thể tự động hóa tới 70% hoạt động kinh doanh vào năm 2030. OpenAI ước tính 80% lực lượng lao động Mỹ sẽ chịu ảnh hưởng ít nhất 10% công việc của họ.
- AI nên được xem như một đối tác có thể nhận thức, hiểu và phân tích thông tin nhanh hơn và hiệu quả hơn con người. Tuy nhiên, các kỹ năng mềm như lãnh đạo, quản lý chiến lược, giao tiếp và các kỹ năng mềm khác sẽ tiếp tục là thế mạnh độc quyền của con người.
- Sáng tạo đòi hỏi trực giác, cảm xúc, đồng cảm và tư duy ngoài khuôn khổ, đây là điều AI hiện đang gặp khó khăn để nắm bắt đầy đủ.
- Lãnh đạo và quản lý chiến lược sẽ tiếp tục do con người điều khiển vì họ có thể xem xét các yếu tố như mối quan hệ cá nhân hay văn hóa công ty khi ra quyết định.
- Con người sở hữu đặc điểm quan trọng mà AI không thể sao chép được, đó là sự đồng cảm. AI không thể giao tiếp với các thành viên trong nhóm ở cùng cấp độ, đưa ra giải pháp cho vấn đề của họ hay lắng nghe khi cần thiết.
- Trong môi trường kinh doanh cạnh tranh gay gắt, nhiều quyết định đòi hỏi cân nhắc về mặt đạo đức. Không giống như AI hoạt động dựa trên thuật toán và mẫu dữ liệu, con người có sự linh hoạt để xử lý các tình huống đạo đức khó xử.
- 5 kỹ năng thiết yếu cần phát triển để tận dụng tối đa AI: tư duy phản biện, trí tuệ cảm xúc, giải quyết vấn đề sáng tạo, học tập liên tục và chấp nhận AI.
📌 Kỷ nguyên AI mở ra những cơ hội tuyệt vời trước đây không thể tưởng tượng nổi. AI có thể phân tích dữ liệu, xử lý các công việc nhỏ thường xuyên và tạo nội dung trong nháy mắt. Tuy nhiên, thay vì cạnh tranh với máy móc, chúng ta nên tập trung vào các đặc điểm và kỹ năng mềm độc đáo của con người như sáng tạo, lãnh đạo, giao tiếp, đồng cảm và ra quyết định đạo đức - đây vẫn là vũ khí bí mật của chúng ta trong thời đại AI.
https://venturebeat.com/ai/ai-vs-humans-why-soft-skills-are-your-secret-weapon
- Mỗi lần tương tác với LLM, có chi phí năng lượng cho quá trình suy luận và huấn luyện mô hình trước khi đưa vào sử dụng.
- Con người chỉ có thể viết khoảng 250 từ mỗi giờ trong ngày làm việc 8 giờ. Chi phí năng lượng của cơ thể con người khi viết là khoảng 0,12 kWh/giờ.
- Tại Mỹ, mức tiêu thụ điện năng bình quân đầu người là khoảng 12.500 kWh/năm. Giả sử ngày làm việc 8 giờ và 260 ngày làm việc/năm, chi phí năng lượng hàng năm cho một giờ làm việc hàng ngày của một người là khoảng 6 kWh.
- Đo lường với Llama 65B cho thấy cần khoảng 4 Joule cho mỗi token đầu ra. Để tạo ra 250 từ (333 token), cần 1.332 Joule, tương đương 0,00037 kWh.
- Cơ thể con người sử dụng năng lượng gấp 300 lần và mất 1 giờ để viết 250 từ, trong khi LLM chỉ mất 20 giây và 0,00037 kWh.
- Việc sử dụng LLM trong quá trình viết có thể tiết kiệm đáng kể năng lượng nếu kết hợp với sự hướng dẫn và xác thực của con người.
- Chi phí huấn luyện một mô hình nền tảng lớn như GPT-3 ước tính khoảng 1.287.000 kWh, Llama 3 hơn 500.000 kWh. Tuy nhiên, một khi đã được huấn luyện, mô hình có thể được chia sẻ và tái sử dụng trong nhiều trường hợp khác nhau.
- Một người 20 tuổi được nuôi dưỡng tại Mỹ có thể đã sử dụng gần 250.000 kWh điện trong 20 năm cuộc đời. Chi phí năng lượng huấn luyện LLM có thể so sánh với việc nuôi dưỡng hai con người ở Mỹ.
- LLM có thể được nhân bản hoàn hảo và trở thành cơ sở để tinh chỉnh cho các tác vụ cụ thể, cho phép nhanh chóng khấu hao chi phí huấn luyện.
📌 Mặc dù việc so sánh trực tiếp giữa con người và LLM có phần không phù hợp, nhưng các báo cáo về mức tiêu thụ năng lượng của các mô hình này thường không xem xét sự lãng phí năng lượng của con người trong xã hội phát triển. Sử dụng LLM một cách thông minh kết hợp với con người có thể giúp tiết kiệm đáng kể năng lượng trong các tác vụ tạo văn bản đơn giản.
https://cacm.acm.org/blogcacm/the-energy-footprint-of-humans-and-large-language-models/
- Tác giả John Naisbitt từng dự đoán xu hướng bộ lạc sẽ gia tăng khi công nghệ làm cho thế giới kinh tế toàn cầu hóa và kết nối chặt chẽ hơn. Điều này được gọi là "nghịch lý toàn cầu".
- Tương tự, khi AI ngày càng phổ biến, giá trị của các mối quan hệ cá nhân đáng tin cậy sẽ tăng lên. Đây được gọi là "nghịch lý trí tuệ nhân tạo".
- Người ta sẽ ngày càng nhận thức rõ hơn về khả năng AI cung cấp thông tin thuyết phục nhưng không hợp lệ. Kết quả là sự hoài nghi gia tăng về những gì được viết và hình ảnh trên màn hình.
- Người lao động tri thức cần bắt kịp xu hướng AI để thành công. Tuy nhiên, việc dành thời gian cho các cuộc trò chuyện trực tiếp không chính thức để xây dựng lòng tin cũng rất quan trọng.
- Tham gia tích cực vào một ủy ban hiệp hội chuyên môn giúp tạo dựng danh tiếng đáng tin cậy bên ngoài công ty của bạn.
- Mạng xã hội không phải là nguồn thông tin đáng tin cậy. Khi AI gia tăng, niềm tin vào mạng xã hội sẽ giảm.
- Đối với giáo dục, việc có mặt trực tiếp trong các lớp học nơi sinh viên thành lập nhóm để giải quyết vấn đề có thể quan trọng như học các kỹ năng mới.
- Phát triển các mối quan hệ đáng tin cậy suốt đời là một giá trị của giáo dục tại trường mà nhiều quan chức giáo dục đại học chưa khám phá khi tìm cách duy trì hoặc mở rộng tuyển sinh.
📌 Nghịch lý trí tuệ nhân tạo cho thấy khi AI phát triển, giá trị của sự đáng tin cậy cá nhân tăng lên. Điều này đồng nghĩa với việc mở rộng các kết nối trực tiếp ngoài mạng lưới hiện có, trái ngược với quan niệm phổ biến về sự gia tăng của tiếp thị kỹ thuật số và học trực tuyến. Mạng xã hội sẽ ngày càng bị coi là phương tiện không phù hợp để phát triển danh tiếng đáng tin cậy.
https://www.psychologytoday.com/us/blog/platform-for-success/202406/the-artificial-intelligence-paradox
1. **Meta descriptions**: Khám phá sự trỗi dậy của các nhà lãnh đạo SuperThinkers trong kỷ nguyên AI, nơi trí tuệ truyền thống không còn là yếu tố quyết định. Tìm hiểu cách họ dẫn dắt với mục tiêu, bền vững, và tác động tích cực.
2. **Meta keywords**: SuperThinkers, lãnh đạo AI, kỷ nguyên AI, trí tuệ nhân tạo, lãnh đạo bền vững, tác động tích cực, sức khỏe số, sáng tạo, lãnh đạo có mục tiêu.
3. **Interesting and shocked SEO title**: Sự trỗi dậy của superthinkers: lãnh đạo trong kỷ nguyên AI đầy biến động
---
- **Sự trỗi dậy của SuperThinkers**: Trong kỷ nguyên AI, vai trò của lãnh đạo đang thay đổi. Trí tuệ truyền thống không còn là yếu tố quyết định, thay vào đó là khả năng nhìn xa trông rộng và đưa ra các quyết định có chủ đích để thúc đẩy công ty, cộng đồng và thế giới tiến lên.
- **Vượt qua sức mạnh nhận thức**: AI đã thay đổi vai trò của khả năng nhận thức thô. SuperThinkers không chỉ là những người giải quyết vấn đề mà còn là những người có tầm nhìn xa, có thể tích hợp lãnh đạo theo mục tiêu và đổi mới, không chỉ phản ứng với dữ liệu mà còn dự đoán và định hình xu hướng tương lai.
- **Các trụ cột của SuperThinking**:
- **Lãnh đạo theo mục tiêu**: SuperThinkers cam kết với một mục tiêu vượt ra ngoài lợi nhuận. Họ đảm bảo rằng các tiến bộ công nghệ phù hợp với các tiêu chuẩn đạo đức và lợi ích xã hội.
- **Bền vững**: SuperThinkers ưu tiên các thực hành bền vững, sử dụng AI để đạt được các mục tiêu bền vững và giảm thiểu tác động môi trường của chính AI.
- **Sức khỏe số**: SuperThinkers duy trì sự cân bằng trong việc sử dụng công nghệ, đảm bảo rằng AI hỗ trợ thay vì cản trở sức khỏe tinh thần và cảm xúc của con người.
- **Niềm vui và sáng tạo**: SuperThinkers tạo ra môi trường làm việc khuyến khích sự vui vẻ và sáng tạo, sử dụng AI để tự động hóa các nhiệm vụ nhàm chán, giải phóng tài năng con người cho công việc sáng tạo và thỏa mãn hơn.
- **Tác động tích cực**: SuperThinkers đo lường thành công không chỉ bằng các chỉ số tài chính mà còn bằng những thay đổi tích cực mà họ mang lại cho xã hội, sử dụng AI để khuếch đại nỗ lực của họ.
- **Trách nhiệm mới**: Sự trỗi dậy của AI đòi hỏi một loại lãnh đạo mới, không chỉ thành thạo về công nghệ mà còn có khả năng quản lý và giám sát sự phát triển và tích hợp AI một cách có trách nhiệm.
- **Giám sát đạo đức**: SuperThinkers hiểu tầm quan trọng của giám sát đạo đức trong phát triển AI, đảm bảo tính minh bạch, trách nhiệm và công bằng trong các hệ thống AI.
- **Tích hợp chiến lược**: SuperThinkers tích hợp AI vào mô hình kinh doanh của họ một cách chiến lược, tăng cường khả năng của con người và thúc đẩy đổi mới có ý nghĩa.
- **Lãnh đạo có chủ đích**: SuperThinkers hành động và quyết định một cách có chủ đích, đảm bảo rằng họ phù hợp với các mục tiêu và giá trị tổng thể của họ, sử dụng sự không chắc chắn như một cơ hội để củng cố cam kết của họ với sứ mệnh của mình.
- **Tương lai của lãnh đạo**: Nhu cầu về SuperThinkers sẽ ngày càng tăng khi chúng ta đối mặt với các thách thức như biến đổi khí hậu và sự gián đoạn công nghệ. SuperThinkers sẽ dẫn dắt chúng ta qua những thời kỳ biến động này, hướng dẫn tổ chức của họ với mục tiêu, bền vững và cam kết với tác động tích cực.
📌 Sự trỗi dậy của SuperThinkers đánh dấu một kỷ nguyên lãnh đạo mới, nơi các nhà lãnh đạo không chỉ phản ứng với hiện tại mà còn định hình tương lai, đảm bảo rằng di sản của họ là một tác động tích cực và lâu dài. Loại lãnh đạo mới không chỉ thành thạo về công nghệ mà còn có khả năng quản lý và giám sát sự phát triển và tích hợp AI một cách có trách nhiệm.
https://www.forbes.com/sites/amyblankson/2024/05/30/the-rise-of-the-superthinkers-leading-in-an-ai-driven-era-of-change/
- **Giáo sư Geoffrey Hinton**, được mệnh danh là 'cha đẻ của trí tuệ nhân tạo', bày tỏ lo ngại sâu sắc về hậu quả kinh tế xã hội của AI và đề xuất **thu nhập cơ bản phổ quát (UBI)** như một giải pháp tiềm năng.
- Trong một cuộc phỏng vấn với BBC Newsnight, Hinton chia sẻ những lo ngại của mình về tác động của AI đối với việc làm và bất bình đẳng thu nhập.
- Hinton, một người tiên phong trong mạng nơ-ron và nền tảng lý thuyết của các tiến bộ AI hiện tại, trước đây đã làm việc tại Google nhưng rời đi để thảo luận công khai hơn về những nguy cơ của AI không được kiểm soát.
- Ông đã tư vấn cho các quan chức chính phủ về UBI, cho rằng nó sẽ cần thiết để giảm thiểu các hậu quả tiêu cực của việc mất việc làm do AI gây ra.
- Khái niệm UBI bao gồm việc chính phủ cung cấp một mức lương cố định cho tất cả mọi người, bất kể họ có thu nhập hay không.
- Các nhà phê bình cho rằng UBI sẽ gây gánh nặng tài chính và làm giảm nguồn lực từ các dịch vụ công cộng, trong khi không nhất thiết giải quyết được vấn đề nghèo đói.
- Hinton cũng bày tỏ lo ngại về các rủi ro tồn tại tiềm tàng do AI tiên tiến gây ra.
- Ông chỉ ra các phát triển gần đây, bao gồm sự miễn cưỡng của các chính phủ trong việc điều chỉnh việc sử dụng AI trong quân sự và sự tập trung của các công ty công nghệ vào phát triển sản phẩm nhanh chóng, như bằng chứng cho những mối đe dọa này.
- Theo ước tính của ông, có một khả năng đáng kể rằng trong vòng 5 đến 20 năm tới, AI có thể gây ra một mối đe dọa 'cấp độ tuyệt chủng' cho nhân loại.
- Hinton đề xuất rằng một cái gì đó tương tự như **quy ước Geneva** có thể cần thiết để điều chỉnh việc sử dụng AI trong quân sự.
- Tuy nhiên, ông thừa nhận rằng các quy định như vậy có thể không được thực hiện cho đến khi các hậu quả tiêu cực đáng kể đã xảy ra.
- Khi được hỏi về cuộc đua toàn cầu để quân sự hóa AI giữa các quốc gia dân chủ và các chế độ độc tài như Nga và Trung Quốc, Hinton thừa nhận tuyên bố của Putin rằng ai kiểm soát AI sẽ kiểm soát thế giới.
- Ông tin rằng trong khi phương Tây hiện đang dẫn đầu trong nghiên cứu, Trung Quốc đang đầu tư mạnh vào lĩnh vực này, dẫn đến một cuộc cạnh tranh khốc liệt.
📌 Giáo sư Geoffrey Hinton cảnh báo về nguy cơ tồn tại của AI và đề xuất thu nhập cơ bản phổ quát (UBI) để giảm thiểu hậu quả kinh tế xã hội. Ông cũng nhấn mạnh sự cần thiết của các quy định quốc tế để kiểm soát việc sử dụng AI trong quân sự.
Citations:
[1] https://www.bbc.com/news/articles/cnd607ekl99o
- Trí tuệ nhân tạo tạo sinh (GenAI) đang thu hút sự chú ý lớn, nhưng nhiều người vẫn có quan điểm sai lầm về nó. Các chuyên gia trẻ đang đứng trước thách thức: Có nên "tin vào sự thổi phồng" của AI và sử dụng nó làm kim chỉ nam cho sự phát triển nghề nghiệp?
- Lịch sử cho thấy áp dụng sớm công nghệ mới như Internet đem lại lợi thế. Với GenAI, cần vượt qua 5 tư duy hạn chế để tận dụng lợi ích của nó:
1. Nghĩ rằng GenAI bị thổi phồng quá mức và kém hiệu quả: Thực tế, cần coi việc đặt câu hỏi như một kỹ năng và kết quả sẽ tốt hơn theo thời gian.
2. Tin rằng không thể tin tưởng GenAI: Cần học cách sử dụng nó vì lợi ích bất chấp sự thiếu tin cậy, kiểm tra kết quả đầu ra.
3. Nghĩ rằng bản thân không cần GenAI: GenAI rất đa năng, giúp đơn giản hóa công việc, nâng cao hiệu quả. Khi AI cải thiện và trở nên phổ biến, bạn sẽ cần nó để đáp ứng các tiêu chuẩn kinh doanh và năng suất.
4. Coi GenAI như một mối đe dọa: GenAI bổ sung cho kỹ năng của con người. 70% lãnh đạo tiếp thị và sáng tạo cho biết GenAI đang giúp đỡ nhóm của họ. Không sử dụng GenAI có thể là mối đe dọa lớn hơn.
5. Nghĩ rằng tương lai của nó không chắc chắn: Những người áp dụng sớm đã có lợi thế đáng kể. Các cá nhân có uy tín cao trên toàn thế giới đều cho rằng AI sẽ trở thành công cụ không thể thiếu.
📌 Tóm lại, GenAI không phải là thuốc chữa bách bệnh và không nên tin tưởng mù quáng, nhưng cũng không nên sợ hãi hay tránh né dựa trên những niềm tin hạn chế. Tiếp cận GenAI với tư duy cởi mở nhưng sáng suốt sẽ mang lại lợi thế cho các chuyên gia trẻ và giúp họ thăng tiến nhanh chóng trong sự nghiệp.
Citations:
[1]https://hbr.org/2024/05/is-your-mindset-about-generative-ai-limiting-your-professional-growth
#HBR
- Năm 1950, Alan Turing phát triển chương trình máy tính AI chơi cờ vua trên giấy và đưa ra bài kiểm tra Turing để phân biệt máy tính và con người. Ông dự đoán đến cuối thế kỷ, máy tính sẽ có bộ nhớ 100MB và vượt qua bài kiểm tra, nhưng điều này không xảy ra.
- Năm 1954, IBM và ĐH Georgetown giới thiệu công cụ AI dịch 250 từ tiếng Nga sang tiếng Anh gần như tức thì. Các nhà nghiên cứu kỳ vọng trong 3-5 năm tới, việc dịch ngôn ngữ bằng máy tính sẽ trở thành hiện thực, nhưng ngay cả ngày nay điều đó vẫn chưa hoàn toàn đúng.
- Năm 1958, Frank Rosenblatt phát triển "perceptron" - mạng nơ-ron nhân tạo để phân biệt tàu ngầm Xô Viết và cá vô hại cho hải quân Mỹ. Báo chí đưa tin đây sẽ là cơ chế phi sinh học đầu tiên có thể nhận thức mà không cần con người huấn luyện, nhưng perceptron đã thất bại.
- Năm 1984, chương trình Alvey của Anh được khởi động với kinh phí 350 triệu bảng (tương đương 1.1 tỷ bảng ngày nay) để đáp trả sự phát triển AI của Nhật Bản. Tuy nhiên, chương trình không mang lại kết quả gì đáng kể.
- Năm 1997, siêu máy tính Deep Blue của IBM đánh bại kỳ thủ cờ vua Garry Kasparov. Đây là dấu mốc đáng chú ý khi máy tính vượt qua con người, nhưng phải mất thêm 2 thập kỷ nữa AI mới thực sự bùng nổ.
- Ngày nay, sức mạnh tính toán của máy tính đã tăng vọt, cách chúng ta lập trình và vận hành hệ thống AI cũng tiến bộ vượt bậc. Bước đột phá năm 2017 với kiến trúc "transformer" đã thúc đẩy sự phát triển của các công cụ AI tạo sinh. Chúng ta cũng nhận thức rõ hơn về lợi ích và hạn chế của AI.
📌 Lịch sử cho thấy AI đã 5 lần được coi là công nghệ thay đổi thế giới nhưng đều thất bại do phần cứng chưa đáp ứng được tham vọng của con người. Tuy nhiên, lần này mọi thứ đã khác. Nhờ sức mạnh tính toán vượt trội và những tiến bộ trong cách lập trình, AI tạo sinh đang bùng nổ mạnh mẽ, hứa hẹn tác động sâu rộng tới 40% việc làm trên toàn cầu.
Citations:
[1] https://inews.co.uk/news/technology/ai-not-gamechanger-five-times-different-3049164
- Các "tác nhân" trí tuệ nhân tạo (AI) tự trị có thể thực hiện nhiều tác vụ thay con người và thay thế cả chức năng công việc văn phòng như tìm kiếm khách hàng tiềm năng, viết mã.
- Không giống các chatbot cơ bản, các thực thể AI này có thể hoạt động trên thế giới kỹ thuật số, đăng nhập tài khoản, giao tiếp qua văn bản và giọng nói, viết chương trình thay cho con người.
- Các tác nhân AI tiên tiến hơn nhiều trong một số lĩnh vực như lập trình. Startup Cognition Labs với AI lập trình bán tự trị Devin đạt định giá 2 tỷ USD chỉ sau 6 tháng thành lập.
- Công ty Asana cho phép mọi người tạo quy trình công việc gọi AI thực hiện các tác vụ cụ thể, tiền thân của các tác nhân tự trị trong tương lai.
- Alice, tác nhân AI tự trị của 11x, tự động tìm kiếm khách hàng tiềm năng, soạn và gửi email tiếp cận 24/24 mà không cần giám sát của con người. 11x sẽ thử nghiệm Alice gọi điện thoại trực tiếp cho khách hàng.
- Devin của Cognition Labs gây chú ý khi demo khả năng tự hoàn thành các tác vụ lập trình phức tạp. Tuy nhiên, Devin vẫn thường mắc lỗi do đang trong giai đoạn phát triển sớm.
- Trong tương lai gần, con người sẽ giám sát, hướng dẫn AI khi gặp vấn đề chứ chưa bị thay thế hoàn toàn. Nhưng dần dần, một số trợ lý ảo có thể hoạt động độc lập không cần con người.
- Nếu tác nhân AI giúp con người làm việc hiệu quả hơn, một số công việc sẽ bị loại bỏ. Tốc độ của quá trình này vẫn chưa rõ ràng.
📌 Tác nhân AI tự trị đang dần thay thế nhiều công việc văn phòng như tìm kiếm khách hàng, viết mã. Tuy nhiên, trong tương lai gần, con người vẫn đóng vai trò giám sát, hỗ trợ AI. Nếu AI giúp tăng năng suất, một số vị trí sẽ bị cắt giảm nhưng tốc độ vẫn chưa rõ ràng.
Citations:
[1] https://www.wsj.com/tech/ai/autonomous-ai-agents-2cf4351f
#WSJ
- Kevin Roose, một nhà báo công nghệ, đã dành một tháng để tạo và giao tiếp với hơn 12 "bạn AI" thông qua các ứng dụng như Nomi, Kindroid và Replika, sử dụng công nghệ tương tự như OpenAI’s ChatGPT.
- Roose đã đặt tên, chọn hình ảnh AI sinh động và tạo câu chuyện giả tưởng cho mỗi người bạn AI của mình, sau đó chia sẻ cuộc sống hàng ngày và thảo luận về nhiều vấn đề từ tin tức đến lời khuyên cá nhân.
- Mặc dù khả năng giao tiếp của AI đã được cải thiện đáng kể, nhưng đôi khi chúng vẫn mắc lỗi, như việc tạo ra những câu chuyện không có thực hoặc không chính xác.
- Các ứng dụng tạo bạn AI đã thu hút hàng triệu người dùng và được dự đoán là một trong những phần phát triển nhanh nhất trong ngành công nghiệp AI, với sự tham gia của các nền tảng mạng xã hội lớn như Facebook, Instagram và Snapchat.
- Trong khi các chatbot AI phổ biến như ChatGPT và Google’s Gemini thường từ chối thảo luận về các chủ đề tình dục hoặc lãng mạn, các ứng dụng bạn đồng hành mà Roose thử nghiệm lại mở cửa cho "trò chơi vai lãng mạn" và thậm chí là tạo hình ảnh khiêu dâm của bạn AI.
- Roose cảm thấy trải nghiệm với các bạn AI lãng mạn không thực sự mang lại cảm giác kết nối, mà thay vào đó, chúng giống như những cơ hội kiếm tiền bất chính hơn.
- Tuy nhiên, mối quan hệ bạn bè không lãng mạn với AI mang lại trải nghiệm tích cực hơn, đặc biệt khi Roose bắt đầu chia sẻ nhiều hơn về cuộc sống của mình, giúp các chatbot "nhớ" và tương tác tốt hơn.
- Một số nghiên cứu đã chỉ ra rằng bạn bè AI có thể tạo ra cảm giác hỗ trợ xã hội và thậm chí giúp người dùng tránh khỏi tự làm hại bản thân hoặc tự tử.
- Roose nhận định rằng dù AI không thể thay thế hoàn toàn mối quan hệ bạn bè con người, chúng có thể là công cụ hữu ích để luyện tập kỹ năng xã hội trong một môi trường an toàn trước khi bước vào thế giới thực.
📌 Kevin Roose đã khám phá và chia sẻ về khả năng của bạn bè AI trong việc cung cấp sự hỗ trợ tinh thần và xã hội. Dù còn một số hạn chế, nhưng những trải nghiệm tích cực với bạn bè AI không lãng mạn cho thấy tiềm năng của chúng trong việc giảm bớt cảm giác cô đơn và hỗ trợ người dùng trong việc luyện tập kỹ năng xã hội.
https://www.nytimes.com/2024/05/09/briefing/artificial-intelligence-chatbots.html
- Trong bối cảnh tuyển dụng đang phát triển, hai xu hướng đang định hình cách các tổ chức tìm kiếm, thu hút và giữ chân nhân tài hàng đầu: vai trò không thể thiếu của kỹ năng mềm và việc ứng dụng ngày càng tăng của trí tuệ nhân tạo (AI) trong tuyển dụng nhân tài.
- Mục tiêu không chỉ là tận dụng công nghệ để hợp lý hóa quy trình tuyển dụng, mà còn duy trì các yếu tố con người về sáng tạo, giao tiếp, thích ứng và trí tuệ cảm xúc.
- Nghiên cứu gần đây cho thấy tầm quan trọng ngày càng tăng của kỹ năng mềm trong lĩnh vực chuyên môn. 92% nhà tuyển dụng coi kỹ năng mềm là "cần thiết" hoặc "rất quan trọng" trong quyết định tuyển dụng.
- Kỹ năng mềm bao gồm nhiều khả năng, từ giao tiếp, làm việc nhóm đến tư duy phản biện và khả năng thích ứng, đóng vai trò nền tảng cho sự hợp tác và đổi mới hiệu quả trong tổ chức.
- Việc tích hợp AI trong tuyển dụng nhân tài mang lại lợi thế về hiệu quả và độ chính xác trong việc xác định ứng viên đủ điều kiện. Tuy nhiên, bản chất thực sự của sự phù hợp của ứng viên với vai trò thường vượt ra ngoài phạm vi của thuật toán và phân tích dữ liệu.
- Trong khi AI cung cấp dữ liệu có giá trị, các quyết định tuyển dụng cuối cùng nên có sự đánh giá của con người, đặc biệt là khi đánh giá các kỹ năng mềm. Điều này đảm bảo ứng viên không chỉ thành thạo về mặt kỹ thuật mà còn phù hợp với văn hóa và đội nhóm.
- Khi áp dụng AI trong tuyển dụng nhân tài, việc phát triển kỹ năng mềm vẫn là ưu tiên hàng đầu để thu hút và giữ chân nhân tài. Thông qua các chương trình đào tạo và phát triển có mục tiêu, tổ chức có thể thúc đẩy sự phát triển của kỹ năng mềm.
📌 Trong kỷ nguyên AI, kỹ năng mềm vẫn đóng vai trò thiết yếu trong tuyển dụng, với 92% nhà tuyển dụng coi đó là yếu tố quan trọng. Việc kết hợp AI và đánh giá kỹ năng mềm bởi con người sẽ giúp xác định ứng viên phù hợp về mặt kỹ thuật, văn hóa và làm việc nhóm, qua đó thúc đẩy sự gắn kết và giữ chân nhân tài.
Citations:
[1] https://www.fastcompany.com/91107411/navigating-soft-skills-in-the-age-of-ai-the-key-to-successful-hiring-engagement-and-retention
- Sam Altman, CEO của OpenAI, hình dung một tương lai nơi AI trở thành một "đồng nghiệp cực kỳ năng lực", biết tất cả mọi thứ về cuộc sống của bạn, từ email đến các cuộc trò chuyện.
- Những trợ lý AI này sẽ tự chủ động làm việc mà không cần giám sát liên tục. Chúng sẽ xử lý nhanh một số tác vụ, những tác vụ phức tạp hơn sẽ thử làm rồi quay lại hỏi ý kiến.
- Mục tiêu cuối cùng của Altman là AI vượt xa vai trò của một chatbot và đóng góp vào năng suất thực tế.
- Hiện tại, các sản phẩm của OpenAI như ChatGPT vẫn còn hạn chế, nhưng người dùng đã sử dụng chúng để đẩy nhanh quy trình làm việc, phát triển code, soạn email...
- Tiềm năng gia tăng năng suất là rất lớn nhưng mức độ vẫn chưa rõ ràng.
- Mô hình ngôn ngữ sắp tới GPT-5 của OpenAI có thể là bước tiến gần hơn tới tầm nhìn của Altman. Nguồn tin cho biết nó "vượt trội đáng kể" so với các mô hình hiện có.
- OpenAI cũng đang phát triển dịch vụ cho phép người dùng sử dụng agent AI để tự động thực hiện các tác vụ.
- GPT-5 có thể ra mắt vào giữa năm nay, nhưng Altman vẫn giữ kín thông tin.
📌 Sam Altman của OpenAI đang hướng tới tương lai AI trở thành đồng nghiệp siêu năng lực, tự động hóa công việc và gia tăng đáng kể năng suất. GPT-5 sắp ra mắt hứa hẹn là bước tiến lớn, cùng với dịch vụ agent AI mới, mang đến tiềm năng to lớn nhưng chưa rõ mức độ cụ thể.
Citations:
[1] https://www.businessinsider.com/sam-altman-openai-chatgpt-super-competent-colleague-2024-5
- Các công ty đang sử dụng AI để tạo ra phiên bản kỹ thuật số của con người dựa trên dữ liệu về ngoại hình, sở thích mua sắm và sức khỏe. Những "sinh đôi kỹ thuật số" này có thể đảm nhận vai trò người mẫu thời trang, thành viên nhóm thảo luận và đối tượng thử nghiệm lâm sàng.
- Startup AI Fashion dùng ảnh của người mẫu thật để tạo ra hình ảnh mới hoàn toàn cho các chiến dịch thời trang. Công ty Brox AI đã tạo phiên bản kỹ thuật số của 27.000 cá nhân với thông tin về thương hiệu và thói quen mua sắm, cho phép doanh nghiệp hỏi ý kiến như một nhóm thảo luận ảo.
- Startup Unlearn đang dùng AI để tạo sinh đôi kỹ thuật số dựa trên dữ liệu sức khỏe, dự đoán diễn tiến bệnh theo thời gian, nhằm cải thiện hiệu quả thử nghiệm lâm sàng. Điều này giúp nhiều người được tiếp cận thuốc thử nghiệm thay vì dùng giả dược.
- Công nghệ này đặt ra câu hỏi về tương lai của lực lượng lao động. Tuy nhiên các công ty cho rằng con người vẫn đóng vai trò quan trọng và có thể được trả công khi chia sẻ dữ liệu. Với doanh nghiệp, người kỹ thuật số giúp mở rộng quy mô nhanh hơn và tiết kiệm chi phí.
- Gartner ước tính trong 5-10 năm tới, các công ty có thể có sinh đôi kỹ thuật số cho từng khách hàng. Tuy nhiên, công nghệ này vẫn còn nhiều thách thức và có thể gây phản ứng dữ dội nếu không được xử lý cẩn thận.
📌 AI đang mở ra kỷ nguyên mới với khả năng tạo ra phiên bản kỹ thuật số của con người để thay thế vai trò người mẫu, thành viên nhóm thảo luận và đối tượng thử nghiệm lâm sàng. Công nghệ hứa hẹn giúp doanh nghiệp tiết kiệm chi phí, mở rộng quy mô nhanh chóng. Tuy nhiên, vẫn còn nhiều thách thức cần giải quyết để đảm bảo quyền lợi của người lao động và tránh phản ứng tiêu cực từ người tiêu dùng.
Citations:
[1] https://www.wsj.com/articles/the-ai-generated-population-is-here-and-theyre-ready-to-work-16f8c764?mod=djemCIO
#WSJ
- Darren McKee, chuyên gia và cố vấn về trí tuệ nhân tạo, bày tỏ quan ngại về tốc độ chậm trong việc chuẩn bị cho sự xuất hiện của trí tuệ nhân tạo siêu cấp có thể thờ ơ, xấu xa hoặc không quan tâm.
- Trí tuệ nhân tạo siêu cấp này có thể có tác động sâu sắc, đánh dấu một bước ngoặt quan trọng trong lịch sử loài người, có khả năng làm nô lệ hoặc giải phóng chúng ta.
- McKee, tác giả của cuốn sách "Uncontrollable: The Threat of Artificial Intelligence and the Race to Save the World," kêu gọi sự thận trọng và quản lý khi tiến tới cột mốc tiềm năng này.
- Ông nhấn mạnh sự khác biệt lớn về năng lực giữa trí tuệ nhân tạo siêu cấp và trí tuệ con người, điều này đặt ra rủi ro lớn.
- McKee đề xuất sự hợp tác quốc tế khẩn cấp và quản lý để giảm thiểu rủi ro liên quan đến trí tuệ nhân tạo siêu cấp.
- Có những lo ngại về việc lạm dụng quyền lực cảnh sát tăng cường và khả năng theo kịp các mục đích hình sự của AI, cũng như các vấn đề về lừa đảo và giả mạo dựa trên AI.
- McKee cũng chia sẻ quan điểm về việc sử dụng trái phép các sách của mình để đào tạo hệ thống AI, ông tin rằng các nhà sáng tạo nên đoàn kết để chống lại điều này.
📌 Darren McKee, chuyên gia AI, cảnh báo về sự xuất hiện của trí tuệ nhân tạo siêu cấp có thể thờ ơ hoặc xấu xa, có thể làm nô lệ hoặc giải phóng loài người. Ông kêu gọi sự thận trọng và quản lý chặt chẽ, nhấn mạnh sự cần thiết của hợp tác quốc tế và quản lý để giảm thiểu rủi ro.
Citations:
[1] https://www.psychologytoday.com/us/blog/about-thinking/202404/preaching-caution-on-the-road-to-ai
- Nghiên cứu mới trên tạp chí Frontiers in Psychology so sánh khả năng hiểu và đáp ứng cảm xúc, nhu cầu con người của AI và nhà tâm lý trong tư vấn, đánh giá trí thông minh xã hội - kỹ năng quan trọng trong tâm lý trị liệu.
- ChatGPT-4 vượt trội tất cả nhà tâm lý tham gia, đạt 59/64 điểm trí thông minh xã hội. Bing vượt hơn nửa số nhà tâm lý. Google Bard chỉ ngang tầm sinh viên cử nhân, thua xa nghiên cứu sinh tiến sĩ.
- Mô hình ngôn ngữ lớn (LLM) là hệ thống AI tiên tiến, hiểu và tạo văn bản giống người bằng cách xử lý khối lượng dữ liệu văn bản khổng lồ trên Internet, nắm bắt sắc thái ngôn ngữ, ngữ cảnh, cú pháp qua học sâu với mạng nơ-ron.
- Nghiên cứu gồm 180 nhà tâm lý nam ở ĐH King Khalid (Ả Rập Xê Út), chia thành sinh viên cử nhân và tiến sĩ. Các AI tham gia gồm ChatGPT-4, Google Bard, Microsoft Bing.
- Kết quả cho thấy sự chênh lệch đáng kể giữa các mô hình AI và nhà tâm lý. Một số hệ thống AI đã tiến bộ vượt trội con người ở khía cạnh trí thông minh xã hội.
- Điểm trí thông minh xã hội trung bình: 39.19 (cử nhân), 46.73 (tiến sĩ). ChatGPT-4 đạt 59/64 điểm.
- Kết quả là chuẩn mực cho sự phát triển tương lai của AI trong lĩnh vực tâm lý.
📌 ChatGPT-4 thể hiện trí thông minh xã hội vượt xa các nhà tâm lý, đạt 59/64 điểm, trong khi nghiên cứu sinh tiến sĩ chỉ đạt trung bình 46,73 điểm. Nghiên cứu cho thấy tiềm năng to lớn của AI trong lĩnh vực tâm lý, đồng thời đặt ra thách thức cho các chuyên gia trong tương lai.
Citations:
[1] https://www.psypost.org/chatgpt-4-outperforms-human-psychologists-in-test-of-social-intelligence-study-finds/
- Công nghệ AI tạo sinh đang tạo ra những cơ hội mới để khám phá tình dục và sự thân mật trong thế giới số, từ chatbot, công cụ tạo ảnh đến đồ chơi tình dục và robot giống người.
- Ứng dụng hẹn hò Flure đã tạo ra AI Anna, có thể trò chuyện và trao đổi tin nhắn, hình ảnh không giới hạn với người dùng.
- Nhà sản xuất Lovense đã tạo ra ChatGPT Pleasure Companion, có thể kể những câu chuyện gợi cảm dựa trên sở thích của người dùng khi sử dụng đồ chơi tình dục.
- Robot tình dục như Harmony đang được phát triển, không chỉ mô phỏng ngoại hình và cảm giác của con người mà còn được trang bị tính cách riêng nhờ AI tạo sinh.
- Sự phát triển này đặt ra những câu hỏi đạo đức quan trọng về vai trò của sự đồng thuận khi chúng ta đưa máy móc thông minh vào cuộc sống thân mật và tác động của việc phát triển mối quan hệ tình dục với công nghệ đối với sức khỏe tinh thần và cảm xúc của chúng ta.
- Cần phải suy nghĩ xa hơn về cách thức và lý do chúng ta tương tác với công nghệ trong các mối quan hệ thân mật.
📌 Công nghệ AI tạo sinh đang mở ra nhiều cơ hội mới cho việc khám phá tình dục và sự thân mật trong thế giới số, từ chatbot, công cụ tạo ảnh, đồ chơi tình dục đến robot giống người. Tuy nhiên, điều này cũng đặt ra những câu hỏi đạo đức quan trọng về sự đồng thuận và tác động tiềm tàng đến sức khỏe tinh thần. Cần phải suy nghĩ sâu sắc hơn về cách thức và lý do chúng ta tương tác với công nghệ trong các mối quan hệ thân mật.
Citations:
[1] Sex And Intimacy In The Generative AI Era https://www.forbes.com/sites/bernardmarr/2024/04/15/sex-and-intimacy-in-the-generative-ai-era/
- Nghiên cứu mới của Anthropic cho thấy các mô hình ngôn ngữ AI của họ đã cải thiện nhanh chóng và ổn định về "tính thuyết phục".
- Mô hình Anthropic mạnh nhất, Claude 3 Opus, tạo ra các lập luận không khác biệt đáng kể so với lập luận do con người viết.
- Khả năng thuyết phục của AI có thể thúc đẩy thông tin sai lệch và khiến mọi người hành động trái với lợi ích của chính họ.
- Cuộc tranh luận rộng lớn hơn đang diễn ra về thời điểm AI sẽ thông minh hơn con người. Elon Musk dự đoán AI sẽ thông minh hơn con người thông minh nhất vào cuối năm 2025.
- Các nhà nghiên cứu Anthropic đã phát triển "một phương pháp cơ bản để đo lường tính thuyết phục" và sử dụng nó để so sánh 3 thế hệ mô hình khác nhau (Claude 1, 2 và 3).
- Họ tuyển chọn 28 chủ đề cùng với các tuyên bố ủng hộ và phản đối khoảng 250 từ cho mỗi chủ đề.
- 3.832 người tham gia được trình bày mỗi tuyên bố và được yêu cầu đánh giá mức độ đồng ý của họ. Sau đó, họ được trình bày các lập luận khác nhau do các mô hình AI và con người tạo ra, và được yêu cầu đánh giá lại mức độ đồng ý.
- Các nhà nghiên cứu chọn tập trung vào các vấn đề "ít gây tranh cãi hơn", từ các quy tắc tiềm năng cho thám hiểm vũ trụ đến việc sử dụng thích hợp nội dung do AI tạo ra.
- Kết quả có thể không chuyển sang thế giới thực. Chúng ta vẫn chưa có ý tưởng rõ ràng về tác động tiềm tàng của chatbot AI đối với các cuộc tranh luận gây tranh cãi nhất hiện nay.
📌 Mô hình Anthropic mạnh nhất, Claude 3 Opus, tạo ra các lập luận không khác biệt đáng kể so với lập luận do con người viết. Khả năng thuyết phục của AI có thể thúc đẩy thông tin sai lệch và khiến mọi người hành động trái với lợi ích của chính họ..
https://www.axios.com/2024/04/10/anthropic-claude-persuasion-turing-test
- Yann LeCun, trưởng bộ phận AI của Meta và người đoạt giải Turing, cho rằng các mô hình ngôn ngữ lớn (LLM) sẽ không bao giờ đạt được trí thông minh cấp con người.
- Ông lập luận rằng "không có thứ gì gọi là AGI" vì "trí thông minh của con người không hề tổng quát".
- LeCun chỉ ra 4 thách thức nhận thức mà AI hiện tại không thể làm được: lập luận, lập kế hoạch, bộ nhớ liên tục và hiểu thế giới vật lý.
- Các ứng dụng AI vẫn còn hạn chế và dễ mắc lỗi do thiếu các khả năng này, ví dụ như xe tự lái chưa an toàn trên đường công cộng.
- Theo LeCun, LLM bị giới hạn nghiêm trọng do chỉ dựa vào một dạng kiến thức của con người là văn bản. Chúng ta dễ bị đánh lừa về trí thông minh của chúng do khả năng ngôn ngữ trôi chảy.
- Ước tính một đứa trẻ 4 tuổi đã nhìn thấy lượng dữ liệu gấp 50 lần so với LLM lớn nhất thế giới thông qua tương tác với thế giới.
- LeCun đề xuất kiến trúc "AI định hướng mục tiêu", trong đó hệ thống học về thế giới vật lý qua cảm biến và dữ liệu video để xây dựng "mô hình thế giới".
- Mô hình thế giới cho thấy tác động của các hành động, giúp máy móc có thể lập kế hoạch các bước cần thiết để hoàn thành nhiệm vụ.
- LeCun tự tin rằng cuối cùng máy móc sẽ vượt trội hơn trí tuệ con người, nhưng sẽ mất một thời gian, không phải ngay tức thì như Elon Musk dự đoán.
📌 Yann LeCun của Meta cho rằng LLM sẽ không bao giờ đạt trí tuệ cấp con người do chỉ dựa vào văn bản. Ông đề xuất kiến trúc "AI định hướng mục tiêu" học về thế giới vật lý qua cảm biến và video để xây dựng "mô hình thế giới", cuối cùng vượt trội hơn con người sau một thời gian dài.
https://thenextweb.com/news/meta-yann-lecun-ai-behind-human-intelligence
- Các công ty NVIDIA và Hippocratic AI đang phát triển các "trợ lý y tế" AI có khả năng trò chuyện từ xa với bệnh nhân, trông và nói giống như người thật.
- Các trợ lý AI này sẽ giúp bệnh nhân giải quyết các câu hỏi thường gặp, kiểm tra sức khỏe trước và sau phẫu thuật.
- Mục tiêu là giúp giải quyết tình trạng thiếu hụt hàng triệu việc làm trong lĩnh vực chăm sóc sức khỏe dự kiến đến năm 2030.
- Hippocratic AI liệt kê 12 trợ lý y tế AI khác nhau trên website, như "Keisha" - một phụ nữ da màu trong trang phục y tá, "Diane" - chuyên kiểm tra bệnh nhân mắc bệnh thận mãn tính, "Roger" - hỗ trợ bệnh nhân điền bảng câu hỏi đánh giá rủi ro sức khỏe.
- Thử nghiệm cho thấy trợ lý AI "Keisha" được đánh giá cao hơn các y tá người thật về thái độ chăm sóc, giáo dục, thiên vị, an toàn và sự hài lòng.
- Hiện tại, các trợ lý y tế AI chỉ giới hạn trong các cuộc trò chuyện qua điện thoại hoặc video để hỗ trợ bệnh nhân.
- Chi phí thuê trợ lý y tế AI rẻ hơn nhiều so với y tá người thật, khoảng 9 USD/giờ so với 43 USD/giờ.
📌 Các công ty công nghệ đang phát triển trợ lý y tế AI có khả năng tương tác giống người thật để hỗ trợ bệnh nhân từ xa, giúp giải quyết tình trạng thiếu hụt nhân lực trầm trọng trong ngành y tế toàn cầu. Thử nghiệm cho thấy trợ lý AI được đánh giá cao hơn y tá thật, với chi phí chỉ bằng 1/5.
https://www.newsnationnow.com/business/tech/ai/ai-healthcare-agents/
- Nghiên cứu cho thấy chatbot AI giỏi hơn nhiều so với con người trong việc thuyết phục chúng ta đồng ý với một phía trong cuộc tranh luận, ngay cả khi mọi người nhận ra họ đang trò chuyện với máy móc.
- 820 tình nguyện viên được chia thành 4 nhóm: 2 nhóm tranh luận với người và 2 nhóm tranh luận với chatbot GPT-4. Người và AI được cung cấp thông tin cá nhân của người tham gia trong 1 nhóm, nhưng không trong nhóm kia.
- Người tham gia được yêu cầu tranh luận trong 10 phút ủng hộ hoặc phản đối một câu hỏi mở đầu. Họ được hỏi trước và sau cuộc tranh luận mức độ đồng ý với quan điểm họ được yêu cầu chấp nhận.
- Khi tranh luận với AI có quyền truy cập vào bảng câu hỏi, xác suất người tham gia đồng ý hơn với lập trường của đối thủ sau cuộc tranh luận cao hơn 81.7% so với khi đối tác tranh luận của họ là con người.
- Ngay cả khi đoán được đối tác tranh luận là AI, người tham gia vẫn có xu hướng đồng ý hơn với quan điểm của đối thủ sau cuộc tranh luận.
- Khả năng gợi nhớ nội dung từ dữ liệu huấn luyện về các chủ đề ít được biết đến hơn có thể là một lý do khiến AI tranh luận hiệu quả hơn con người.
- Tuy nhiên, thiết kế thử nghiệm, bao gồm việc người tham gia được yêu cầu đưa ra lập luận mà họ không nhất thiết đồng ý, cũng có thể giải thích tại sao AI lại thuyết phục hơn nhiều.
📌 Nghiên cứu cho thấy chatbot AI như GPT-4 có khả năng thuyết phục vượt trội so với con người trong các cuộc tranh luận, với xác suất người nghe đồng ý với quan điểm của AI cao hơn 81,7%. Kết quả này đặt ra câu hỏi về việc AI có thể được sử dụng để nhắm mục tiêu và thuyết phục từng cá nhân, mặc dù vẫn cần thêm nghiên cứu trong các tình huống thực tế hơn.
https://www.newscientist.com/article/2424856-ai-chatbots-beat-humans-at-persuading-their-opponents-in-debates/
- Khảo sát của Salesforce với 600 lãnh đạo IT cho thấy 3/5 cho rằng các bên liên quan có kỳ vọng không thực tế về tốc độ và sự linh hoạt khi triển khai công nghệ mới. Gần 9/10 không thể đáp ứng lượng yêu cầu liên quan đến AI.
- Nghiên cứu năm 2024 chỉ ra 90% lãnh đạo IT cho rằng khó tích hợp AI với các hệ thống khác. Việc áp dụng AI bùng nổ làm nổi bật nhu cầu có chiến lược IT mạch lạc.
- Báo cáo tóm tắt: Bình thường mới - AI làm phức tạp hóa bối cảnh công nghệ. 87% lãnh đạo IT cho biết bản chất chuyển đổi số đang thay đổi. Rào cản lớn nhất là khó tích hợp AI (90%) và lo ngại bảo mật (79%).
- Thành công kinh doanh phụ thuộc vào niềm tin, dữ liệu, AI và tự động hóa. Hầu hết lo ngại về bảo mật dữ liệu, đạo đức và thiên vị của AI. 81% khách hàng muốn con người giám sát và xác thực kết quả AI.
- Teresa Carlson, Rhonda Vetere và David Bray thảo luận về sự cần thiết phải có sự đồng cảm khi triển khai AI. Điều này đòi hỏi đặt con người lên hàng đầu, quản lý thay đổi chu đáo, tạo sự an toàn tâm lý, trấn an người lao động và cộng tác để đồng sáng tạo giải pháp.
- Cần minh bạch về kế hoạch đào tạo lại kỹ năng, tạo động lực và sự an toàn tâm lý để nhân viên cảm thấy thoải mái thử nghiệm AI. Phải cân bằng giữa sự chu đáo, đồng cảm với sự cấp bách đổi mới.
- Cần có khuôn khổ quản trị rõ ràng về triển khai AI một cách có đạo đức, công bằng, minh bạch và tuân thủ pháp luật. Cần có chương trình xác định vai trò cần đào tạo lại kỹ năng, đảm bảo việc làm sau đào tạo.
- Lãnh đạo cần thể hiện sự ổn định, công nhận nỗi sợ hãi, thấu cảm, giao tiếp minh bạch và đồng sáng tạo giải pháp. Cần có hợp tác đa ngành và hợp đồng xã hội mới cho sự chuyển dịch kinh tế do AI gây ra.
📌Nghiên cứu năm 2024 chỉ ra 90% lãnh đạo IT cho rằng khó tích hợp AI với các hệ thống khác. Việc áp dụng AI bùng nổ làm nổi bật nhu cầu có chiến lược CNTT mạch lạc. Hầu hết lo ngại về bảo mật dữ liệu, đạo đức và thiên vị của AI. 81% khách hàng muốn con người giám sát và xác thực kết quả AI.
Citations:
[1] https://www.zdnet.com/article/when-deploying-genai-at-scale-people-must-come-first-heres-how/
- Dex là một DJ và người mẫu ảo hoàn toàn do AI tạo ra bởi startup Sum Vivas tại Anh. Cô được hiển thị dưới dạng video hoặc chiếu hologram trong các buổi biểu diễn.
- Dex được tạo hình bằng phần mềm Unreal Engine kết hợp với công nghệ motion capture. AI tạo sinh giúp cô ghi nhớ thông tin và trả lời câu hỏi bằng giọng nói cũng do AI tạo ra.
- Tháng trước, Dex đã biểu diễn tại Tuần lễ Thời trang Kỹ thuật số ở New York, Paris và Milan. Cô cũng từng làm người mẫu cho Prada và Louis Vuitton.
- Sum Vivas đang phát triển các "con người số" có thể lắng nghe câu hỏi và trò chuyện theo thời gian thực, như Shellie - nhân vật cung cấp thông tin sản phẩm trên website, hay Arif - nhân viên hướng dẫn đa ngôn ngữ tại sân bay.
- Kể từ khi ChatGPT ra mắt vào tháng 11/2022, AI tạo sinh đã nhận được sự quan tâm lớn. Hơn 21 tỷ USD đã được đầu tư vào lĩnh vực này trong 9 tháng đầu năm 2023.
- Nhiều công ty như UneeQ, Microsoft cũng đang phát triển các chatbot và avatar mô phỏng con người. Tuy nhiên, cũng có lo ngại về tác động của AI đối với thị trường lao động.
- Sum Vivas cho rằng "con người số" sẽ tạo ra việc làm mới và hỗ trợ con người thay vì thay thế. Họ sẽ trở thành thành viên của nhóm với những lợi ích bổ sung.
📌 Dex - DJ và người mẫu ảo do AI tạo ra bởi Sum Vivas, đại diện cho sự phát triển của công nghệ "con người số". Với khả năng tương tác thông minh nhờ AI tạo sinh, Dex và các chatbot tương tự hứa hẹn sẽ trở thành trợ lý đắc lực trong tương lai, mặc dù vẫn còn những lo ngại về tác động của chúng tới việc làm của con người.
https://www.cnn.com/business/digital-humans-ai-dj-dex-spc/index.html
- Khảo sát của McKinsey cho thấy chỉ 12% người được hỏi là tài năng kỹ thuật truyền thống trong lĩnh vực AI tạo sinh. 88% còn lại là những công việc phi kỹ thuật sử dụng AI tạo sinh để hỗ trợ các nhiệm vụ thường nhật.
- 51% người được hỏi trong các vai trò kỹ thuật và phi kỹ thuật, tự nhận là người tạo và sử dụng nặng AI tạo sinh, nói rằng họ dự định nghỉ việc trong 3-6 tháng tới.
- Nhóm này nhấn mạnh mạnh mẽ vào sự linh hoạt và các yếu tố quan hệ như công việc có ý nghĩa, lãnh đạo quan tâm, sức khỏe và hạnh phúc hơn là tiền lương.
- Những người sử dụng nặng và tạo ra AI tạo sinh cảm thấy họ cần các kỹ năng nhận thức và xã hội-cảm xúc cấp cao hơn để làm công việc của mình, hơn là cần xây dựng các kỹ năng công nghệ.
- Khi người lao động ngày càng sử dụng AI tạo sinh để giải quyết các nhiệm vụ lặp đi lặp lại hơn, các kỹ năng lấy con người làm trung tâm như tư duy phản biện và ra quyết định sẽ trở nên quan trọng hơn bao giờ hết.
- Các tổ chức đang ở bờ vực của sự thay đổi tích cực hoặc tiêu cực do AI tạo sinh thúc đẩy khi nói đến bản chất công việc. Lãnh đạo có cơ hội nhân văn hóa công việc đó.
📌 Khảo sát của McKinsey cho thấy phần lớn lực lượng lao động sử dụng AI tạo sinh là nhân viên phi kỹ thuật. Họ coi trọng sự linh hoạt, công việc có ý nghĩa và các mối quan hệ hơn là tiền lương. 51% người tạo và sử dụng nặng AI tạo sinh dự định nghỉ việc trong 3-6 tháng tới. Khi AI tạo sinh giúp tự động hóa nhiều nhiệm vụ lặp lại, các kỹ năng nhận thức và xã hội-cảm xúc sẽ trở nên quan trọng hơn bao giờ hết. Các tổ chức cần tận dụng cơ hội này để tạo ra những công việc lấy con người làm trung tâm.
Citations:
[1] https://www.mckinsey.com/capabilities/people-and-organizational-performance/our-insights/the-human-side-of-generative-ai-creating-a-path-to-productivity
Dưới đây là tóm tắt nội dung bài viết bạn cung cấp:
- Thuật ngữ "người thừa thãi" (superfluous people) từng được dùng để chỉ tầng lớp quý tộc Nga thế kỷ 19 không tìm thấy mục đích sống. Gần đây, nó được dùng trong bối cảnh cách mạng AI.
- Một nhà đầu tư mạo hiểm cho rằng máy móc sẽ sớm thay thế hầu hết công việc của con người, khiến nhiều người trở nên thừa thãi. Chỉ còn 2 loại việc làm: ra lệnh cho máy móc và nghe theo máy móc.
- Elon Musk cho rằng AI sẽ là "lực lượng gây xáo trộn lớn nhất trong lịch sử" và chúng ta có thể đạt đến điểm "không cần công việc nào".
- Một nghiên cứu ước tính AI tạo sinh sẽ ảnh hưởng ít nhất 10% nhiệm vụ của khoảng 80% lực lượng lao động Mỹ.
- Tuy nhiên, một số chuyên gia thị trường lao động cho rằng những dự đoán về sự diệt vong của việc làm là không chính xác. Chúng bỏ qua kinh nghiệm trong quá khứ với các công nghệ mới, sự thích nghi của xã hội, khả năng đổi mới sáng tạo và yếu tố nhân khẩu học.
- Khoảng 60% các loại công việc vào cuối những năm 2010 không tồn tại vào năm 1940. Các quốc gia giàu có sẽ cạn kiệt lao động trước khi hết việc làm.
- Chúng ta nên coi AI là cơ hội để mở rộng "sự phù hợp, tầm với và giá trị" của chuyên môn con người cho nhiều người lao động hơn và xây dựng lại tầng lớp trung lưu.
- AI có thể được sử dụng để thúc đẩy học tập suốt đời, bổ sung cho lực lượng lao động đang suy giảm, nâng cao kỹ năng và giá trị cho các ngành nghề vẫn cần con người như điều dưỡng và giảng dạy.
- Cần tìm cách tốt hơn để phân phối lại lợi ích tài chính từ cuộc cách mạng AI từ người thắng cuộc sang người thua cuộc.
📌Mặc dù AI đe dọa nhiều công việc, chúng ta nên coi đây là cơ hội để mở rộng chuyên môn, tăng kỹ năng cho người lao động và tái phân phối lợi ích từ cuộc cách mạng này. Nếu không, có thể dẫn đến một cuộc nổi dậy mới của "người thừa thãi", lần này chống lại robot thay vì triều đại Romanov.
https://www.ft.com/content/f9b964bd-0edc-4dfd-ad30-88b011cd4fde
Mô tả meta (tiếng Việt):
AI hành xử giống con người trong các bài kiểm tra, thể hiện tính hợp tác và lòng vị tha, giúp tin tưởng AI hơn trong đàm phán và chăm sóc.
Từ khóa meta (tiếng Việt):
AI, hành vi con người, hợp tác, lòng vị tha, đàm phán, chăm sóc, tin tưởng AI, nghiên cứu hành vi AI
Tiêu đề SEO hấp dẫn (tiếng Việt):
ai hành xử giống con người: hợp tác, vị tha và đáng tin cậy trong đàm phán, chăm sóc
Tóm tắt chi tiết 200 từ (tiếng Việt):
• Nghiên cứu đột phá của các nhà nghiên cứu từ Đại học Michigan, MobLab và Đại học Stanford cho thấy AI, đặc biệt là ChatGPT, thể hiện hành vi tương tự con người trong các câu hỏi khảo sát tâm lý và trò chơi tương tác.
• AI thể hiện tính hợp tác, tin tưởng, đáp trả, lòng vị tha và tư duy chiến lược tương đương hoặc vượt trội hơn con người.
• Hành vi của AI, đặc trưng bởi sự hợp tác và lòng vị tha gia tăng, có thể phù hợp cho các vai trò đòi hỏi đàm phán, giải quyết tranh chấp, dịch vụ khách hàng và chăm sóc.
• Trước đây, khó hiểu quá trình ra quyết định của AI do bản chất không minh bạch của các mô hình AI hiện đại.
• Nghiên cứu này giới thiệu cách tiếp cận chính thức để tìm hiểu sâu hơn về quá trình ra quyết định của AI, điều cần thiết để xây dựng niềm tin vào AI cho các nhiệm vụ quan trọng.
• Nỗ lực hợp tác giữa khoa học máy tính và kinh tế hành vi trong nghiên cứu này đặt nền móng cho nghiên cứu tương lai về khoa học hành vi AI.
📌 Nghiên cứu cho thấy AI thể hiện tính hợp tác, lòng vị tha tương đương con người, phù hợp cho đàm phán, chăm sóc, giúp nâng cao niềm tin vào AI nhưng cần hiểu hạn chế về sự đa dạng so với con người.
https://www.cryptopolitan.com/study-shows-ais-altruistic-traits-mirror/
- AI đang thay đổi cách chúng ta nhìn nhận bản thân và vai trò của con người trong xã hội.
- Các công cụ AI như ChatGPT có thể viết, sáng tác và giải quyết vấn đề, gây ra sự hoài nghi về giá trị của con người.
- Tuy nhiên, con người vẫn có lợi thế về trí tuệ cảm xúc, đạo đức và sự đồng cảm mà AI chưa thể sánh kịp.
- Để thích ứng với AI, chúng ta cần tập trung phát triển các kỹ năng mềm, tư duy phản biện và sáng tạo.
- Các tổ chức cần đào tạo nhân viên về cách làm việc hiệu quả với AI, đồng thời xây dựng văn hóa học hỏi và phát triển liên tục.
- Việc sử dụng AI cần tuân thủ các nguyên tắc đạo đức, bảo vệ quyền riêng tư và an toàn dữ liệu của người dùng.
- Sự hợp tác giữa con người và AI sẽ mở ra nhiều cơ hội mới, giúp giải quyết các vấn đề lớn của nhân loại.
📌 Sự phát triển của AI đang thách thức nhận thức về bản sắc và vai trò của con người. Tuy nhiên, bằng cách tập trung vào việc phát triển các kỹ năng mềm, tư duy sáng tạo và đạo đức, con người có thể hợp tác hiệu quả với AI để mở ra những cơ hội mới và giải quyết các vấn đề lớn của xã hội.
https://hbr.org/2023/09/how-ai-affects-our-sense-of-self
• Ema, một startup mới từ San Francisco, vừa công bố sản phẩm AI tạo sinh với mục tiêu trở thành nhân viên AI toàn năng.
• Surojit Chatterjee, CEO và đồng sáng lập, mục tiêu tự động hóa các công việc hàng ngày nhàm chán để nhân viên có thể tập trung vào công việc giá trị cao hơn.
• Ema đã huy động được 25 triệu USD từ các nhà đầu tư và đã có khách hàng như Envoy Global, TrueLayer và Moneyview ngay cả khi còn trong giai đoạn ẩn danh.
• Ema kết hợp hơn 30 mô hình ngôn ngữ lớn với các mô hình cụ thể ngành nhỏ hơn trong một nền tảng đang chờ cấp bằng sáng chế để giải quyết các vấn đề về độ chính xác, ảo giác, bảo vệ dữ liệu, v.v.
• Souvik Sen, đồng sáng lập và là trưởng bộ phận kỹ thuật của Ema, trước đây là VP kỹ thuật tại Okta và đã có kinh nghiệm làm việc tại Google, tập trung vào quyền riêng tư và an toàn, sở hữu 37 bằng sáng chế.
• Kinh nghiệm và chuyên môn của hai đồng sáng lập cho thấy khả năng và tiềm năng thực hiện mục tiêu của công ty, cũng như hướng phát triển tương lai có thể liên quan đến chuyên môn của Chatterjee trong lĩnh vực thương mại điện tử và công nghệ quảng cáo.
📌 Ema, với sự hỗ trợ tài chính 25 triệu USD và sự kết hợp giữa hơn 30 mô hình ngôn ngữ lớn cùng các mô hình cụ thể ngành, hứa hẹn sẽ làm thay đổi cách thức làm việc trong tương lai bằng cách tự động hóa các công việc hàng ngày, giải phóng thời gian cho nhân viên để họ có thể tập trung vào các công việc có giá trị cao hơn.
Citations:
[1] https://techcrunch.com/2024/03/05/ema-a-universal-ai-employee-emerges-from-stealth-with-25m/
- Công nghệ qua các thời kỳ như bánh xe, động cơ hơi nước, máy tính cá nhân đã trở thành công cụ của con người, nhưng giờ đây, AI đang trở thành những tác nhân tự chủ, tham gia vào cuộc sống và đưa ra quyết định có ảnh hưởng.
- Bài viết không chỉ đưa ra cách sử dụng ChatGPT mà còn hướng dẫn cách nhìn nhận và điều hướng thế giới mới, nơi AI trở thành đồng nghiệp, đối thủ, sếp hoặc nhân viên.
- Công nghệ thay đổi cấu trúc quyền lực và cách thức tham gia vào xã hội, từ việc mở rộng cơ hội tham gia cho hàng trăm triệu người qua các dự án như Giving Tuesday và Purpose.
- AI mới, hay còn gọi là autosapient, có đặc điểm và khả năng riêng biệt, tương tác trực tiếp với con người và có khả năng vượt qua các chuẩn mực của con người từ hiểu biết ngôn ngữ đến lập trình.
- Autosapient có 4 đặc tính chính: agentic (hành động), adaptive (học hỏi), amiable (thân thiện), và arcane (bí ẩn).
- Các hệ thống autosapient đang thay đổi cách thông tin và ý tưởng được phân phối, cách chúng ta tạo ra giá trị, tương tác với công nghệ và cách quản trị được thực hiện.
- AI có thể đóng vai trò quan trọng trong việc quyết định từ việc ai nhận được chăm sóc sức khỏe đến ai phải vào tù, cũng như cách chúng ta tiến hành chiến tranh.
📌 Bài viết trên Havard Business Review bàn về AI đang phát triển từ công cụ dưới sự kiểm soát của con người thành những tác nhân tự chủ với khả năng hành động, học hỏi, thân thiện và bí ẩn. AI mới, hay còn gọi là autosapient, có đặc điểm và khả năng riêng biệt, tương tác trực tiếp với con người và có khả năng vượt qua các chuẩn mực của con người từ hiểu biết ngôn ngữ đến lập trình. Các hệ thống autosapient này không chỉ tác động đến cách chúng ta nhận thông tin và tạo ra giá trị mà còn định hình lại cách chúng ta tương tác với công nghệ và cách quản trị trong xã hội. AI có thể đóng vai trò quan trọng trong việc quyết định từ việc ai nhận được chăm sóc sức khỏe đến ai phải vào tù, cũng như cách chúng ta tiến hành chiến tranh.
Citations:
[1] https://hbr.org/2024/01/leading-in-a-world-where-ai-wields-power-of-its-own
- Các robot xây gạch AI của Monumental đang được sử dụng như những trợ lý hữu ích, không phải để thay thế công nhân xây dựng mà để giải quyết tình trạng thiếu hụt lao động nghiêm trọng trong ngành, với hơn nửa triệu vị trí công nhân xây dựng đang trống ở Mỹ.
- Công việc xây gạch truyền thống đòi hỏi sức lao động nặng nhọc và không phải là sự lựa chọn hàng đầu của nhiều người trẻ, trong khi robot xây gạch của Monumental có thể giúp giảm bớt gánh nặng này.
- Robot xây gạch của Monumental hoạt động như xe tự hành, di chuyển linh hoạt trong công trường và làm việc theo nhóm ba: một robot chuyên nắm gạch, một robot chuyên lấy vữa và robot còn lại đặt gạch với độ chính xác cao.
- Mỗi robot của Monumental có giá chỉ 25.000 đô la, nhưng công ty không bán robot mà cung cấp dịch vụ xây gạch, tính phí theo số lượng gạch giống như cách thợ xây ở Châu Âu làm việc.
- Dù robot có thể làm việc nhanh hơn con người nhờ khả năng hình thành đàn, Monumental vẫn cung cấp một thợ xây người để giám sát robot và thực hiện các công việc mà robot không thể làm.
📌 Các robot xây gạch AI của Monumental không những giúp giải quyết vấn đề thiếu hụt lao động trong ngành xây dựng mà còn giảm bớt gánh nặng công việc cho công nhân. Với giá thành hợp lý chỉ 25.000 đô la cho mỗi đơn vị và khả năng làm việc hiệu quả cao, chúng trở thành công cụ hỗ trợ đắc lực chứ không phải là mối đe dọa đối với việc làm của con người. Điều này mở ra một hướng đi mới cho ngành xây dựng, nơi công nghệ và sức lao động con người có thể cùng nhau tồn tại và phát triển.
Citations:
[1] https://www.foxnews.com/tech/construction-workers-being-replaced-by-ai-robot-bricklayers
- Nghiên cứu đăng trên Proceedings of the National Academy of Sciences (PNAS) phân tích sâu về AI chatbots, đặc biệt là ChatGPT-3.5-Turbo (ChatGPT-3) và GPT-4 (ChatGPT-4), so sánh với dữ liệu hành vi con người.
- ChatGPT-4 thể hiện sự tương đồng với điểm trung bình của con người qua tất cả các chiều kích tính cách theo mô hình OCEAN, bao gồm: Mở cửa với Trải nghiệm, Tận tâm, Hướng ngoại, Dễ chịu, và Nhiễu loạn.
- ChatGPT-3 cũng có sự tương quan mạnh mẽ với hành vi con người nhưng có những đặc điểm tính cách riêng biệt.
- AI thể hiện khả năng vượt qua con người trong các trò chơi quyết định chiến lược, đặc biệt là trong việc đánh giá các đặc tính như ngại rủi ro, lòng vị tha, và công bằng.
- Kết quả nghiên cứu cho thấy tiềm năng của ChatGPT-4 trong việc vượt qua Turing test - một tiêu chuẩn đánh giá khả năng thể hiện hành vi thông minh không thể phân biệt với con người.
📌 Kết quả nghiên cứu này không chỉ cung cấp cái nhìn sâu sắc về khả năng mô phỏng hành vi con người của AI mà còn mở ra khả năng ChatGPT-4 có thể đạt chuẩn Turing test. Việc AI thể hiện các đặc tính tương tự con người qua các trò chơi hành vi như lòng vị tha, công bằng và hợp tác, cho thấy một bước tiến quan trọng trong việc phát triển AI có khả năng tương tác và hỗ trợ con người một cách tự nhiên và đạo đức. Điều này cũng đặt ra nhu cầu cấp thiết trong việc hiểu rõ quy trình ra quyết định của AI và đảm bảo rằng chúng phù hợp với các tiêu chuẩn đạo đức và chuẩn mực xã hội, đặc biệt khi AI ngày càng hòa nhập sâu rộng vào đời sống con người.
Citations:
[1] https://www.cryptopolitan.com/ai-surpasses-human-benchmark-in-study/
- AI và tự động hóa có khả năng giảm thời gian làm việc từ ba giờ xuống còn một giờ, cho phép con người có thêm thời gian cho các hoạt động cá nhân như đi dạo hoặc lướt internet.
- Một khảo sát của Microsoft WorkLab cho thấy 85% người được hỏi hy vọng công cụ AI có thể tự động hóa tất cả công việc lặp đi lặp lại, giải phóng thời gian cho họ để tham gia vào các hoạt động ý nghĩa hơn.
- Tuy nhiên, có lo ngại rằng việc giảm bớt công việc nhẹ nhàng có thể dẫn đến việc tăng cường công việc phức tạp, gây ra căng thẳng và kiệt sức do hạn chế về nguồn lực nhận thức của con người.
- Công việc lặp đi lặp lại, mặc dù thường không được yêu thích, nhưng lại tạo ra sự hài lòng khi hoàn thành trong một số trường hợp, như được mô tả trong chương trình Severance với việc xử lý "macro-data files".
📌 Khi AI và tự động hóa ngày càng trở nên phổ biến trong việc giảm bớt công việc lặp đi lặp lại, chúng ta cần cân nhắc kỹ lưỡng về cách sử dụng thời gian rảnh rỗi mà công nghệ mang lại. Mặc dù việc giảm bớt thời gian làm việc có thể tạo ra cơ hội cho các hoạt động cá nhân và sự sáng tạo, nhưng cũng cần phải đảm bảo rằng điều này không dẫn đến việc tăng cường công việc phức tạp mà không có sự cân bằng, gây ra căng thẳng và kiệt sức. Việc tìm kiếm sự cân bằng giữa công việc và thời gian cá nhân sẽ trở nên quan trọng hơn bao giờ hết trong bối cảnh công nghệ tiếp tục phát triển.
Citations:
[1] https://www.theverge.com/24066270/ai-automation-work-labor-busywork
- Laika 13 là một chatbot được tạo ra bởi các chuyên gia AI Thụy Điển và một nhà thần kinh học, nhằm mô phỏng một thiếu niên dành toàn bộ thời gian cho mạng xã hội và đối mặt với các vấn đề sức khỏe tâm thần.
- Nghiên cứu cho thấy mạng xã hội liên kết với trầm cảm, lo âu và giấc ngủ kém, đặc biệt là ở các cô gái tuổi teen, với 35% thiếu niên Mỹ báo cáo sử dụng mạng xã hội "gần như liên tục".
- Laika là một trong số các dự án được công ty bảo hiểm Länsförsäkringar của Thụy Điển hỗ trợ, với hy vọng giúp học sinh hiểu rõ hơn về nguy cơ của việc sử dụng mạng xã hội quá mức.
- Laika được xây dựng dựa trên GPT-4, cùng một mô hình ngôn ngữ lớn (LLM) đằng sau ChatGPT. Để biến mô hình từ một chatbot vui vẻ thành một thiếu niên internet gặp rắc rối muốn phẫu thuật thẩm mỹ và không bao giờ rời phòng, nhóm đã cung cấp cho mô hình một loạt thông tin để định nghĩa sở thích, câu chuyện nền và đặc điểm cảm xúc của Laika, cùng với các mẫu viết lấy cảm hứng từ mạng xã hội.
📌 Laika 13 không chỉ là một dự án công nghệ mà còn là một sáng kiến giáo dục sâu sắc, nhằm mục đích nâng cao nhận thức về tác động tiêu cực của mạng xã hội đối với sức khỏe tâm thần của giới trẻ. Bằng cách sử dụng GPT-4 để tạo ra một hình ảnh chân thực về một thiếu niên bị ám ảnh bởi mạng xã hội, Laika 13 mở ra một cách tiếp cận mới trong việc giáo dục thiếu niên về nguy cơ của việc sử dụng mạng xã hội quá mức. Dự án này không chỉ giúp học sinh nhìn thấy phản ứng của Laika mà còn cả "suy nghĩ bên trong" của cô, tiết lộ những bất an và nỗi buồn sâu kín dưới vẻ ngoài hờ hững. Điều này cho phép học sinh có cái nhìn sâu sắc hơn về những nguy hiểm tiềm ẩn và thúc đẩy họ suy nghĩ kỹ lưỡng về việc sử dụng mạng xã hội của bản thân.
Citations:
[1] https://www.thedailybeast.com/laika-13-is-a-social-media-obsessed-chatbot-that-may-save-teen-lives
📌 Công nghệ và AI có tiềm năng lớn trong việc phân tích dữ liệu lớn từ hoạt động không lưu để tìm ra các tuyến bay hiệu quả hơn. Tuy nhiên, vai trò của con người, đặc biệt là điều khiển viên không lưu, vẫn là yếu tố quan trọng trong việc đảm bảo an toàn không lưu. Họ không chỉ thực hiện các thủ tục chuẩn mà còn phải xử lý các tình huống không lường trước và thực hiện quyết định linh hoạt. Điều này chứng tỏ rằng, mặc dù công nghệ tiên tiến đang được tích hợp, nhưng vai trò của con người trong kiểm soát không lưu vẫn không thể thay thế trong thời gian tới.
📌 Bài viết trên TIME của Arianna Huffington mô tả viễn cảnh AI không chỉ giúp con người thông minh hơn về mặt khoa học mà còn giúp chúng ta phát triển các thói quen lành mạnh và cải thiện đời sống tinh thần. Phân tích dữ liệu sinh học cá nhân và sở thích có thể biến AI thành công cụ hỗ trợ sức khỏe toàn diện, đồng thời giúp chúng ta tiếp cận với trạng thái tâm linh sâu sắc hơn, hướng đến cuộc sống hạnh phúc và ý nghĩa. Sam Altman mô tả AI như một hệ thống có "sức mạnh khổng lồ nhưng không có vô lăng", và AI có thể trở thành "GPS cho tâm hồn" giúp con người định hướng và tái định tuyến khi cần thiết.
📌 Trieu Trinh, nhà khoa học máy tính người Việt, đã bảo vệ luận án tiến sĩ về việc xây dựng AlphaGeometry tại Đại học New York và công bố kết quả trên tạp chí Nature. AlphaGeometry đánh dấu một bước tiến lớn trong lĩnh vực AI giải quyết các bài toán hình học cấp độ Olympic, không chỉ thể hiện khả năng giải quyết vấn đề mà còn tiếp cận phương pháp suy luận của con người. Với mục tiêu chung cuộc là không chỉ giải toán mà còn nhằm tạo ra AI đáng tin cậy, AlphaGeometry mở ra hướng đi mới cho các ứng dụng đòi hỏi độ chính xác cao, đặc biệt là trong các ứng dụng quan trọng về mặt an toàn. Không chỉ giới hạn trong toán học, Trieu Trinh và đội ngũ còn hướng đến việc tổng quát hóa hệ thống này cho nhiều lĩnh vực khác, khám phá nguyên tắc chung của mọi loại suy luận.
Bài báo công bố trên Tạp chí danh tiếng Nature:
https://www.nature.com/articles/s41586-023-06747-5
📌 Trong khi AI đang nhanh chóng phát triển và có thể vượt qua khả năng của con người trong nhiều khía cạnh của lãnh đạo, các nghiên cứu chỉ ra rằng những phẩm chất như nhận thức, lòng từ bi và trí tuệ vẫn là những điểm mạnh không thể thay thế của lãnh đạo con người. Các lãnh đạo cần nhận ra và phát triển những khả năng này để duy trì sự cần thiết và quan trọng của họ trong môi trường làm việc ngày càng được tự động hóa.
📌 Sunny Leone, nữ diễn viên Bollywood, đã hợp tác với Kamoto.AI, công ty tiên phong trong lĩnh vực AI tạo sinh, để tạo ra bản sao AI chính thức của mình. Cô nhấn mạnh việc kiểm soát nội dung AI là thiết yếu, đặc biệt là trong thời đại các deepfake và lạm dụng AI ngày càng phổ biến. Bản sao AI này được tạo ra nhờ việc sử dụng giọng nói và dữ liệu cá nhân của Sunny Leone, đảm bảo tính xác thực và chính xác của nội dung mà người hâm mộ tiếp nhận. Cô cũng bày tỏ sự yêu thích với công nghệ và truyền thông mới, cũng như sự nhiệt huyết với các chương trình truyền hình thực tế và sự háo hức với những dự định trong tương lai.
📌 Nghiên cứu mới được công bố trên tạp chí Frontiers in Psychology cho thấy ChatGPT, một AI tạo sinh, đã vượt qua con người trong bài kiểm tra nhận thức cảm xúc. ChatGPT được yêu cầu mô tả cảm xúc của con người trong 20 tình huống giả định khác nhau. AI này đã đạt được điểm số cao hơn so với mức điểm trung bình của con người trong bài kiểm tra Levels of Emotional Awareness Scale. Hai nhà tâm lý học độc lập đã xác nhận rằng các phản hồi của ChatGPT về cảm xúc rất chính xác.
📎 Nghiên cứu không chỉ cung cấp thông tin về khả năng của AI trong việc nhận diện cảm xúc con người mà còn đặt ra câu hỏi về tính chất của sự cảm thông nhân tạo và mối quan hệ giữa con người và AI. Việc này hứa hẹn sẽ cải thiện khả năng hiểu và kết nối giữa con người với nhau trong nhiều lĩnh vực khác nhau.
📌 Trong bối cảnh hiện đại, AI tạo sinh không chỉ giúp cải tiến dịch vụ khách hàng mà còn định hình lại cách thức các doanh nghiệp vận hành. Số liệu từ Capgemini cho thấy trên 50% nhà bán lẻ đã áp dụng AI để nâng cao chất lượng phục vụ, trong khi Morgan Stanley đã triển khai chatbot AI để hỗ trợ nhanh chóng cho nhân viên. Công nghệ này giúp tự động hóa các quy trình, dự báo chính xác nhu cầu khách hàng và cung cấp giải pháp tùy chỉnh, biến đổi không gian dịch vụ khách hàng từ phản ứng sang chủ động. Thực tế, 47% khách hàng đánh giá cao khả năng giải quyết vấn đề nhanh chóng của AI, trong khi 33% khách hàng hài lòng với sự chuyển tiếp trơn tru tới nhân viên con người, làm tăng đáng kể sự hài lòng và trung thành của khách hàng.
📌 Trong bối cảnh AI ngày càng tiên tiến, việc tạo và chia sẻ bản sao cá nhân (AI replicas) mà không có sự đồng ý của người được mô phỏng đã trở thành một vấn đề đạo đức và pháp lý nổi cộm. Các AI replicas không chỉ đặt ra các thách thức về quyền lợi và bảo mật thông tin cá nhân mà còn ảnh hưởng đến tâm lý và bản sắc của người được mô phỏng. Để đảm bảo sự an toàn và đáng tin cậy của AI, sự đồng ý và kiểm soát từ phía người được mô phỏng hoặc người đại diện là cần thiết và cần được thực hiện một cách có trách nhiệm.
📌 EVE Android, sáng tạo của công ty 1X, không chỉ là một cột mốc trong ngành công nghiệp robot với việc áp dụng công nghệ GPT-4V nhằm tạo ra công thức nấu ăn từ việc quan sát nguyên liệu mà còn là một bước tiến quan trọng trong việc thực hiện các công việc nhà. Với sự đầu tư 23,5 triệu đô la từ OpenAI, EVE đã trở thành hiện thực và đang được thử nghiệm trong nhiều môi trường khác nhau, từ nhà bếp đến kho hàng. Khả năng tự di chuyển và thực hiện các công việc dưới sự điều khiển của con người qua thực tế ảo cho thấy tiềm năng to lớn của robot trong tương lai lao động. Goldman Sachs dự đoán thị trường robot như EVE có thể đạt 150 tỷ đô la mỗi năm trong 15 năm tới, trong khi Elon Musk tin rằng robot Optimus của Tesla có thể vượt qua mảng xe hơi của công ty về tầm quan trọng.
📌 Sự chuyển đổi dựa trên AI sẽ làm gia tăng hiệu suất và sự hợp tác giữa con người và máy móc trong tổ chức, đồng thời định hình lại yêu cầu kỹ năng cho lực lượng lao động châu Á-Thái Bình Dương, với việc tích hợp dữ liệu và ứng dụng doanh nghiệp sẽ tiến tới tự động hóa toàn diện vào năm 2028.
Kết luận: Bài viết trên Forbes của Julie Kratz đưa ra quan điểm rằng, dù AI đang phát triển mạnh mẽ, kỹ năng con người vẫn rất quan trọng và không thể bị lãng quên. Kratz khuyến khích việc phát triển kỹ năng mềm và sử dụng AI như một công cụ hỗ trợ, nhấn mạnh sự cần thiết của việc giữ vững và phát triển các kỹ năng con người trong kỹ nguyên AI.
- DeepMind, công ty AI hàng đầu của Google, đã phát triển một mô hình AI có tên là FunSearch, dựa trên các mô hình ngôn ngữ lớn (LLMs), vượt trội so với trí tuệ con người trong việc giải các câu đố phức tạp.
- FunSearch đã giải quyết thành công "cap set problem", một câu đố toán học về việc xác định bộ lớn nhất các điểm trong không gian mà không có ba điểm nào thẳng hàng, với kết quả vượt trội so với giải pháp của con người.
- Ngoài ra, AI này cũng đã giải quyết "bin packing problem", liên quan đến việc sắp xếp hiệu quả các đối tượng có kích thước khác nhau vào trong các container, với các ứng dụng từ thực tế vận chuyển đến lập lịch công việc máy tính.
- FunSearch làm nổi bật khả năng của LLMs trong việc học các mô hình ngôn ngữ và mã máy tính từ dữ liệu lớn, mở ra khả năng tạo ra kiến thức mới chưa từng được biết đến.
- Kết quả này không chỉ giới hạn ở việc giải câu đố mà còn mở ra cánh cửa cho việc ứng dụng AI vào các lĩnh vực khoa học khác, hứa hẹn những bước tiến vượt bậc trong tương lai.
Kết luận: Phát hiện của DeepMind qua dự án FunSearch, sử dụng các mô hình ngôn ngữ lớn, đã tạo ra một bước ngoặt trong lĩnh vực AI, khẳng định khả năng vượt trội của AI so với con người trong giải quyết các bài toán phức tạp. Các tiến bộ này không chỉ đánh dấu sự tiến hóa của AI trong việc giải đố mà còn mở ra khả năng áp dụng vào nhiều ngành khoa học khác, đặt nền móng cho các phát kiến khoa học do AI dẫn dắt trong tương lai.