- Microsoft vừa công bố tích hợp tính năng Copilot Pro vào gói Microsoft 365, áp dụng cho các ứng dụng Word, Excel, PowerPoint, Outlook
- Trước đây Microsoft thu phí Copilot Pro là 20 USD/tháng như một gói bổ sung cho Microsoft 365
- Sau 9 tháng triển khai và lắng nghe phản hồi từ khách hàng, Microsoft quyết định thay đổi chiến lược
- Thị trường thử nghiệm đầu tiên bao gồm: Australia, New Zealand, Malaysia, Singapore, Đài Loan và Thái Lan
- Microsoft sẽ tăng nhẹ giá gói Microsoft 365 khi tích hợp thêm Copilot Pro và ứng dụng Microsoft Designer, nhưng mức tăng thấp hơn nhiều so với phí 20 USD/tháng trước đây
- Bài học kinh nghiệm cho Apple:
+ Mức phí 20 USD/tháng là quá cao cho tính năng AI đối với người dùng phổ thông
+ ChatGPT Plus có thể duy trì mức này vì OpenAI không tập trung vào số lượng người đăng ký
+ Apple nên cân nhắc tích hợp các tính năng AI cao cấp vào gói Apple One và chỉ tăng giá nhẹ
- Chiến lược thử nghiệm ở thị trường nhỏ giúp Microsoft tránh sai lầm khi triển khai ở các thị trường lớn như Mỹ
📌 Microsoft từ bỏ chiến lược thu phí riêng Copilot Pro 20 USD/tháng sau 9 tháng triển khai. Tích hợp vào Microsoft 365 với mức tăng giá nhẹ. Bài học cho Apple: người dùng không sẵn sàng trả phí cao cho tính năng AI độc lập.
https://9to5mac.com/2024/11/07/microsoft-just-learned-its-lesson-about-overcharging-for-ai-features/
- Microsoft bắt đầu cho phép người dùng Xbox Insider tại Mỹ trải nghiệm chatbot AI mới tại support.xbox.com
- Chatbot có tên "Xbox Support Virtual Agent", được thiết kế để hỗ trợ người chơi giải quyết các vấn đề liên quan đến console Xbox và game một cách hiệu quả
- Giao diện chatbot thể hiện dưới dạng nhân vật AI có khả năng chuyển động khi phản hồi hoặc dưới dạng quả cầu Xbox nhiều màu sắc
- Megha Dudani, trưởng nhóm quản lý sản phẩm cấp cao tại Xbox cho biết mọi phản hồi từ Xbox Insider sẽ được sử dụng để cải thiện trải nghiệm với chatbot
- Đây là một phần trong nỗ lực lớn của Microsoft nhằm áp dụng AI vào nền tảng và dịch vụ Xbox, trước khi ra mắt các tính năng AI trên console Xbox
- So với các bộ phận khác của Microsoft, Xbox thận trọng hơn trong việc triển khai các tính năng AI, mặc dù CEO Satya Nadella đã có chỉ đạo rõ ràng về việc tập trung phát triển AI
- Microsoft hiện tập trung vào phát triển công cụ AI cho developers và đang mở rộng sang hỗ trợ người dùng thông qua chatbot
- Công ty cũng đang phát triển các tính năng AI cho việc tạo nội dung game, vận hành game và nền tảng Xbox
- Microsoft đã hợp tác với Inworld để phát triển NPC sử dụng AI tạo sinh và đang thử nghiệm tạo hình ảnh, tài nguyên game bằng AI
📌 Microsoft mở rộng ứng dụng AI vào Xbox thông qua chatbot hỗ trợ mới dành cho người dùng Mỹ, đánh dấu bước đi quan trọng trong chiến lược AI toàn diện. Công ty thận trọng triển khai từng bước, bắt đầu với công cụ hỗ trợ kỹ thuật trước khi mở rộng sang các tính năng AI trong game.
https://www.theverge.com/2024/11/4/24288066/microsoft-xbox-chatbot-ai-support
- Elon Musk và công ty xAI, một nhánh của mạng xã hội X, vừa chính thức mở cửa API xAI cho công chúng và cung cấp 25 USD miễn phí mỗi tháng cho các nhà phát triển đến hết năm nay. Các nhà phát triển sẽ nhận tổng cộng 50 USD nếu sử dụng từ nay đến hết năm.
- API xAI đang hướng đến việc cạnh tranh trong cuộc đua giành sự ủng hộ của các nhà phát triển giữa các nền tảng AI tạo sinh khác nhau, nhấn mạnh sự cạnh tranh này không chỉ nhằm vào người dùng cuối mà còn vào các lập trình viên và nhà phát triển ứng dụng.
- API xAI áp dụng mô hình giá 5 USD cho mỗi triệu tokens đầu vào và 15 USD cho mỗi triệu tokens đầu ra. Mức giá này cao hơn so với OpenAI GPT-4o (2,5 USD/10 USD) và Anthropic Claude 3.5 Sonnet (3 USD/15 USD). Với 25 USD tín dụng, nhà phát triển có thể sử dụng khoảng hai triệu tokens đầu vào và một triệu tokens đầu ra hàng tháng, tương đương với dung lượng văn bản của khoảng 7-8 quyển tiểu thuyết.
- Giới hạn ngữ cảnh cho API xAI là khoảng 128.000 tokens cho mỗi tương tác, ngang với GPT-4o của OpenAI nhưng thấp hơn mức 200.000 của Anthropic và khá thấp so với 1 triệu của Gemini 1.5 Flash từ Google.
- Các tính năng của xAPI hiện nay chỉ bao gồm các mô hình văn bản như grok-beta, không hỗ trợ tạo hình ảnh như Grok 2, vốn sử dụng mô hình Flux.1 của Black Forest Labs.
- xAI cho biết một phiên bản Grok mới đang trong giai đoạn phát triển cuối cùng, và một mô hình thị giác mới sẽ ra mắt trong tuần tới. Tính năng này hứa hẹn mở rộng khả năng của xAI trong các ứng dụng AI đa phương tiện.
- API xAI cũng hỗ trợ “function calling,” tức là cho phép mô hình AI thực hiện lệnh từ người dùng để truy cập và thực hiện các chức năng của các ứng dụng hoặc dịch vụ liên kết.
- Đáng chú ý, API xAI tương thích với các SDK của OpenAI và Anthropic, giúp nhà phát triển dễ dàng thay thế các mô hình hiện tại bằng Grok trên nền tảng xAI, từ đó nâng cao tính linh hoạt trong việc chuyển đổi mô hình.
- xAI đã triển khai “Colossus,” một siêu máy tính chứa 100.000 GPU Nvidia H100 tại Memphis, Tennessee. Đây là một trong những cụm máy tính lớn nhất thế giới và hiện đang phục vụ huấn luyện các mô hình Grok mới của xAI.
📌 xAI của Elon Musk triển khai chiến lược thu hút nhà phát triển với tín dụng API 25 USD/tháng và hỗ trợ SDK của OpenAI và Anthropic. Cùng với đó, xAI tăng cường khả năng qua siêu máy tính Colossus chứa 100.000 GPU, cùng hứa hẹn các mô hình Grok mới sắp ra mắt, bao gồm cả Grok vision model, nhằm nâng cao trải nghiệm và tính linh hoạt cho các nhà phát triển.
https://venturebeat.com/ai/xai-woos-developers-with-25-month-worth-of-api-credits-support-for-openai-anthropic-sdks/
- Google và Microsoft đang tích cực tích hợp chatbot AI vào công cụ tìm kiếm của họ, hứa hẹn mang đến trải nghiệm tìm kiếm thuận tiện hơn cho người dùng
- Các nhà nghiên cứu từ đại học California, Berkeley phát hiện chatbot hiện tại có xu hướng:
+ Phụ thuộc quá mức vào độ liên quan bề nổi của thông tin
+ Ưu tiên nội dung chứa nhiều từ khóa kỹ thuật
+ Bỏ qua các yếu tố đánh giá độ tin cậy như trích dẫn khoa học
- Một ngành công nghiệp mới nổi là tối ưu hóa động cơ tạo sinh (GEO) đang phát triển:
+ Các công ty marketing cung cấp dịch vụ tối ưu nội dung cho chatbot
+ Mục tiêu là tăng khả năng hiển thị trong kết quả của chatbot
+ Tương tự nguyên tắc SEO nhưng phức tạp hơn
- Nghiên cứu từ đại học Princeton cho thấy:
+ Sử dụng ngôn ngữ có thẩm quyền có thể tăng 40% khả năng hiển thị
+ Việc xác định quy luật điều khiển chatbot rất khó khăn
+ Các động cơ tạo sinh không cố định và hoạt động như "hộp đen"
- Các nhà nghiên cứu Harvard phát hiện:
+ Có thể điều khiển chatbot bằng chuỗi văn bản chiến lược
+ Chuỗi này có thể bỏ qua các biện pháp bảo vệ an toàn của AI
+ Người dùng không nhận biết được sự thao túng này
📌 Chatbot AI đang được tích hợp vào công cụ tìm kiếm nhưng tồn tại nhiều rủi ro về độ tin cậy. Nghiên cứu cho thấy có thể tăng 40% khả năng hiển thị thông qua thao túng. Người dùng cần thận trọng khi tin tưởng hoàn toàn vào kết quả tìm kiếm từ AI.
https://www.theguardian.com/technology/2024/nov/03/the-chatbot-optimisation-game-can-we-trust-ai-web-searches
SEO Contents:
- Google vừa âm thầm ra mắt công cụ AI thử nghiệm mới có tên "Learn About", hứa hẹn thay đổi cách thức học tập của cả trẻ em và người lớn
- Learn About là trợ lý AI đàm thoại thông minh có khả năng:
+ Tùy chỉnh theo mục tiêu học tập của từng người dùng
+ Trả lời mọi câu hỏi từ đơn giản đến phức tạp
+ Xử lý tài liệu người dùng tải lên
+ Cung cấp các chủ đề được tuyển chọn
- Công cụ này giúp người dùng tiếp cận kiến thức phức tạp thông qua:
+ Hướng dẫn tương tác
+ Công cụ hỗ trợ giáo dục giúp kết nối các khái niệm
+ Giao diện đàm thoại thông minh kết hợp với nguồn tài nguyên internet
- Learn About cung cấp nội dung đa dạng bao gồm:
+ Giải thích đơn giản hóa
+ Hình ảnh minh họa
+ Video hướng dẫn
+ Bài viết từ các nguồn uy tín
- Người dùng có thể:
+ Tìm hiểu tổng quan hoặc đi sâu vào chi tiết theo nhu cầu
+ Học tập theo tốc độ và mức độ phù hợp với bản thân
+ Khám phá không giới hạn dựa trên sự tò mò cá nhân
📌 Google Learn About là bước tiến mới trong lĩnh vực giáo dục cá nhân hóa, tích hợp trợ lý AI đàm thoại với kho tài nguyên internet phong phú. Công cụ này phù hợp với mọi đối tượng từ học sinh, chuyên gia đến người đam mê học tập suốt đời, giúp việc tiếp cận kiến thức trở nên dễ dàng và hấp dẫn hơn.
https://aitoolsclub.com/google-quietly-releases-learn-about-a-genius-new-ai-tool-for-personalized-learning/
- Anthropic vừa giới thiệu tính năng Visual PDF cho Claude 3.5 Sonnet, cho phép phân tích các yếu tố trực quan trong tệp PDF dưới 100 trang
- Tính năng mới giúp Claude có thể:
+ Đọc và hiểu hình ảnh trong PDF
+ Phân tích biểu đồ và đồ thị
+ Xử lý tài liệu nghiên cứu và tài liệu kỹ thuật phức tạp
- Anthropic đã tăng giới hạn dung lượng tệp:
+ Từ 10MB lên 30MB
+ Cho phép tải lên tối đa 5 hình ảnh hoặc tài liệu
+ Mỗi tệp có thể lên đến 30MB
- Cách kích hoạt tính năng:
+ Truy cập banner trên trang chủ
+ Chọn Visual PDFs trong tab Feature Preview
+ Bật tính năng cho các cuộc hội thoại trong tương lai
- Các cập nhật gần đây của Anthropic:
+ Ra mắt tính năng Computer Use
+ Hợp tác với GitHub tích hợp Claude 3.5 Sonnet vào GitHub Copilot
+ Thêm khả năng thực thi mã JavaScript thông qua Analysis Tool
+ Tạo trực quan hóa dữ liệu
+ Hỗ trợ LaTex để tạo phương trình toán học
- Claude 3.5 Sonnet được đánh giá là mô hình AI tốt nhất để chạy mã, vượt trội hơn so với GPT của OpenAI và Canvas
📌 Anthropic tiếp tục khẳng định vị thế dẫn đầu khi nâng cấp Claude 3.5 Sonnet với khả năng phân tích PDF trực quan, tăng giới hạn dung lượng lên 30MB và bổ sung nhiều tính năng mạnh mẽ như thực thi JavaScript, tạo trực quan hóa dữ liệu.
https://analyticsindiamag.com/ai-news-updates/anthropic-introduces-claude-3-5-sonnet-with-visual-pdf-analysis-for-images-charts-and-graphs-under-100-pages/
- OpenAI vừa ra mắt sản phẩm tìm kiếm AI mới "ChatGPT Search" với khả năng cung cấp câu trả lời theo thời gian thực cho các tìm kiếm hội thoại.
- Tính năng này hiện đang được thử nghiệm với người dùng ChatGPT Plus và Team, dự kiến sẽ mở rộng cho tất cả người dùng trong những tuần tới.
- Tiện ích mở rộng Chrome "ChatGPT Search" sẽ thay đổi cài đặt Chrome để mọi tìm kiếm từ thanh địa chỉ đều chuyển qua URL "https://chatgpt.com/?q=".
- CEO OpenAI Sam Altman đã quảng bá tiện ích này trên X (Twitter), khuyến khích mọi người đăng ký ChatGPT Plus và cài đặt tiện ích.
- Chuyên gia bảo mật Tal Be'ery chỉ ra rằng tiện ích này không có gì đặc biệt, chỉ đơn thuần là một công cụ chiếm quyền tìm kiếm thông thường.
- Người dùng có thể tự tạo công cụ tìm kiếm trong Chrome để gửi tìm kiếm đến ChatGPT mà không cần cài đặt tiện ích, bằng cách:
- Vào Settings > Search engine > Manage search engines
- Đặt tên: ChatGPT Search
- Shortcut: @cgpt
- URL: https://chatgpt.com/?q=%s
- Việc cài đặt quá nhiều tiện ích mở rộng có thể khiến Chrome tiêu tốn nhiều tài nguyên và gây xung đột.
📌 Tiện ích ChatGPT Search của OpenAI chỉ đơn giản thay đổi cài đặt tìm kiếm mặc định của Chrome. Người dùng có thể tự tạo lối tắt tìm kiếm thay vì cài đặt tiện ích để tránh rủi ro về quyền riêng tư và tối ưu hiệu suất trình duyệt.
https://www.bleepingcomputer.com/news/security/openais-new-chatgpt-search-chrome-extension-feels-like-a-search-hijacker/
- Google Maps tích hợp AI Gemini, cho phép người dùng Mỹ tìm kiếm địa điểm và trả lời câu hỏi về các vị trí bằng ngôn ngữ tự nhiên
- Người dùng có thể hỏi các câu như "những việc có thể làm với bạn bè vào ban đêm", AI sẽ đề xuất danh sách phù hợp như quán bar hoặc địa điểm nghe nhạc sống
- Tính năng điều hướng mới hiển thị chi tiết các làn đường, lối đi bộ và biển báo trên bản đồ, giúp người lái xe dễ dàng chọn làn đường phù hợp
- Ứng dụng cung cấp thông tin về:
+ Các điểm tham quan và ăn uống dọc đường
+ Bãi đỗ xe gần điểm đến
+ Tính năng lưu vị trí đỗ xe
+ Chỉ đường đi bộ từ xe đến điểm đến với Street View hoặc AR
- Người dùng có thể báo cáo các điều kiện thời tiết ảnh hưởng đến giao thông như ngập lụt, tuyết chưa dọn, tầm nhìn hạn chế
- Tính năng Immersive View mở rộng đến 150 thành phố toàn cầu, bao gồm Brussels, Kyoto và Frankfurt
- Waze cũng được tích hợp Gemini, cho phép người dùng báo cáo tình trạng giao thông bằng giọng nói
- Các tính năng mới sẽ ra mắt tại Mỹ trên cả Android và iOS trong tuần này
📌 Google Maps đang thực hiện bước tiến lớn với việc tích hợp AI Gemini vào 150 thành phố, cải thiện trải nghiệm người dùng từ tìm kiếm địa điểm đến điều hướng thông minh. Tính năng mới giúp người dùng dễ dàng khám phá và di chuyển với sự hỗ trợ của AI.
https://techcrunch.com/2024/10/31/google-maps-is-getting-new-ai-features-powered-by-gemini/
- Google vừa ra mắt công cụ AI thử nghiệm mới có tên Illuminate, cho phép chuyển đổi các bài báo nghiên cứu và sách thành các cuộc trò chuyện âm thanh do AI tạo ra
- Illuminate sử dụng 2 giọng nói AI để thảo luận về các điểm chính và kết luận của bài báo, hiện đang tối ưu hóa cho các bài báo học thuật về khoa học máy tính
- Công cụ này tương tự như NotebookLM của Google nhưng tập trung vào nội dung kỹ thuật và định dạng giới hạn hơn
- Cách sử dụng Illuminate:
+ Đăng nhập bằng tài khoản Google tại illuminate.google.com/home
+ Vào tab Generate để tìm kiếm chủ đề trên arxiv.org hoặc dán URL của file PDF
+ Chờ vài phút để AI tạo cuộc trò chuyện âm thanh
+ Nghe và lưu vào thư viện cá nhân trong vòng 30 ngày
- Các tính năng chính:
+ Giới hạn 5 lần tạo âm thanh mỗi ngày
+ Có thể xem bản ghi cuộc trò chuyện
+ Chia sẻ nội dung với người khác
+ Tự động cài đặt giọng nói phù hợp với đối tượng chung
- Đối tượng sử dụng chính: học giả, sinh viên và nhà văn làm việc với các bài báo nghiên cứu dài
- Illuminate có thể đóng vai trò trợ lý nghiên cứu, giúp nắm bắt các điểm chính và bổ sung thông tin có thể bị bỏ sót khi đọc
📌 Google Illuminate là công cụ AI miễn phí biến bài báo nghiên cứu thành podcast, giới hạn 5 lần tạo/ngày. Công cụ này đặc biệt hữu ích cho việc nghiên cứu học thuật, giúp người dùng tiếp cận nội dung phức tạp dễ dàng hơn thông qua âm thanh.
https://www.zdnet.com/article/how-googles-new-ai-tool-turns-research-papers-into-audio-conversations-try-it-free/
- Google vừa công bố tính năng mới cho phép nhà phát triển sử dụng Gemini API và Google AI Studio có thể kết nối kết quả với dữ liệu từ Google Search
- Nhà phát triển có thể dùng thử tính năng grounding miễn phí trên AI Studio, trong khi người dùng Gemini API phải trả phí 35 USD/1.000 truy vấn có grounding
- AI Studio cung cấp chế độ so sánh để người dùng thấy sự khác biệt giữa câu trả lời có và không có grounding
- Ví dụ thực tế: Khi hỏi về giải Emmy 2024 cho phim hài xuất sắc nhất
+ Không có grounding: Model trả lời sai là "Ted Lasso"
+ Có grounding: Model trả lời đúng là "Hacks" với thông tin bổ sung và trích dẫn nguồn
- Việc bật grounding đơn giản chỉ cần gạt công tắc và điều chỉnh cài đặt "dynamic retrieval"
+ Có thể bật cho mọi prompt
+ Hoặc để model nhỏ hơn đánh giá và quyết định khi nào cần bổ sung dữ liệu
- Khi Google làm phong phú kết quả bằng dữ liệu từ Google Search, hệ thống sẽ cung cấp các đường link dẫn đến nguồn gốc
- AI Studio đã phát triển từ công cụ điều chỉnh prompt thành nền tảng toàn diện hơn, giúp nhà phát triển:
+ Thử nghiệm các model Gemini
+ Khám phá các trường hợp sử dụng tiềm năng
+ Lấy mã để bắt đầu xây dựng ứng dụng
📌 Google tích hợp Search vào Gemini API và AI Studio để tạo câu trả lời chính xác hơn với chi phí 35 USD/1.000 truy vấn. Tính năng grounding giúp tránh ảo tưởng AI bằng cách kết nối với dữ liệu thực từ Google Search, đồng thời cung cấp trích dẫn nguồn minh bạch.
https://techcrunch.com/2024/10/31/googles-gemini-api-and-ai-studio-get-grounding-with-google-search/
- Google đang triển khai tính năng AI Overviews đến hơn 100 quốc gia, phục vụ hơn 1 tỷ người dùng hàng tháng
- Tính năng này sử dụng mô hình AI Gemini để tạo các bản tóm tắt ngắn gọn kèm theo đường dẫn đến nguồn tham khảo
- AI Overviews hỗ trợ 6 ngôn ngữ chính: tiếng Anh, Hindi, Indonesia, Nhật, Bồ Đào Nha và Tây Ban Nha
- Google đã cập nhật giao diện hiển thị liên kết mới, tối ưu cho cả máy tính để bàn và thiết bị di động
- Theo Srinivasan Venkatachary, phó chủ tịch bộ phận chất lượng tìm kiếm của Google, người dùng đánh giá tích cực về AI Overviews và thấy kết quả tìm kiếm hữu ích hơn
- Google bắt đầu thử nghiệm quảng cáo trong AI Overviews cho người dùng di động tại Mỹ
- Quảng cáo được gắn nhãn riêng để phân biệt với kết quả tìm kiếm thông thường
- Động thái mở rộng toàn cầu cho thấy Google không hề giảm bớt đầu tư vào AI Overviews như một số đồn đoán trước đó
- Tính năng này vẫn là trọng tâm chiến lược của Google bất chấp các vụ kiện chống độc quyền
📌 Google mở rộng AI Overviews đến hơn 100 quốc gia với 6 ngôn ngữ chính, phục vụ hơn 1 tỷ người dùng hàng tháng. Tính năng này sử dụng AI Gemini để tóm tắt thông tin và bắt đầu thử nghiệm tích hợp quảng cáo cho người dùng di động tại Mỹ.
https://www.techradar.com/computing/search-engines/googles-ai-overviews-are-now-available-to-help-a-billion-people-avoid-reading-full-articles
• Meta đang phát triển công cụ tìm kiếm dựa trên AI để giảm sự phụ thuộc vào Google và Microsoft Bing
• Công cụ tìm kiếm mới sẽ tích hợp vào chatbot Meta AI trên các nền tảng WhatsApp, Instagram và Facebook
• Meta hiện đang phụ thuộc vào Google và Bing để cung cấp thông tin về tin tức, chứng khoán và thể thao cho người dùng
• Thị trường công cụ tìm kiếm AI đang nóng lên với sự cạnh tranh từ các "ông lớn":
- OpenAI với ChatGPT (được hỗ trợ bởi Microsoft)
- Google với mô hình AI Gemini
- Microsoft với công cụ Bing
• Google đang tích cực tích hợp mô hình AI Gemini vào các sản phẩm cốt lõi như Search để mang lại trải nghiệm tìm kiếm trực quan và tương tác hơn
• OpenAI sử dụng công cụ Bing của Microsoft để truy cập web và trả lời các câu hỏi thời sự
• Vấn đề thu thập dữ liệu web để huấn luyện mô hình AI và công cụ tìm kiếm đang gây lo ngại về:
- Vi phạm bản quyền
- Bồi thường công bằng cho người tạo nội dung
• Meta đã công bố hợp tác với Reuters để sử dụng nội dung tin tức trong chatbot AI, giúp trả lời câu hỏi về tin tức và sự kiện thời sự theo thời gian thực
📌 Meta tham gia cuộc đua công cụ tìm kiếm AI với việc phát triển web crawler riêng, nhằm cạnh tranh trực tiếp với Google và Microsoft. Động thái này sẽ tích hợp vào Meta AI trên WhatsApp, Instagram và Facebook, đồng thời hợp tác với Reuters để cung cấp nội dung tin tức thời sự.
https://indianexpress.com/article/technology/tech-news-technology/meta-builds-ai-search-engine-to-cut-google-bing-reliance-report-9643379/
• Embedding văn bản đóng vai trò quan trọng trong xử lý ngôn ngữ tự nhiên (NLP), chuyển đổi văn bản thành vector số để máy tính có thể hiểu và xử lý
• Thách thức lớn nhất là việc tạo ra lượng lớn dữ liệu huấn luyện chất lượng cao, khi các phương pháp hiện tại phụ thuộc vào các mô hình độc quyền như GPT-4 với chi phí rất cao
• Các nhà nghiên cứu từ Trường Trí tuệ nhân tạo Gaoling và Microsoft đã phát triển framework SPEED, sử dụng mô hình nguồn mở nhỏ để tạo dữ liệu embedding chất lượng cao
• SPEED hoạt động thông qua 3 thành phần chính:
- Generator cấp thấp tạo dữ liệu tổng hợp ban đầu
- Generator cấp cao tối ưu chất lượng dựa trên tín hiệu đánh giá từ GPT-4
- Data revisor tinh chỉnh và nâng cao chất lượng đầu ra
• Kết quả ấn tượng của SPEED:
- Chỉ sử dụng 45.000 lệnh gọi API so với 500.000 của E5mistral
- Tiết kiệm hơn 90% chi phí
- Điểm trung bình 63,4 trên bộ đánh giá MTEB
- Hiệu suất cao trong nhiều tác vụ:
+ Phân loại: 78,4
+ Phân cụm: 49,3
+ Phân loại cặp: 88,2
+ Xếp hạng lại: 60,8
+ Truy xuất: 56,5
+ So sánh ngữ nghĩa: 85,5
+ Tóm tắt: 31,1
📌 Framework SPEED của Microsoft Asia đã tạo ra bước đột phá trong việc tạo dữ liệu embedding chất lượng cao với chi phí thấp, tiết kiệm 90% chi phí so với phương pháp truyền thống, đạt điểm trung bình 63,4 trên MTEB và hoạt động hiệu quả trên nhiều tác vụ NLP khác nhau.
https://www.marktechpost.com/2024/10/28/microsoft-asia-research-introduces-speed-an-ai-framework-that-aligns-open-source-small-models-8b-to-efficiently-generate-large-scale-synthetic-embedding-data/
SEO contents:
1. Meta descriptions:
Read AI gọi vốn thành công 50 triệu USD, mở rộng tích hợp với các nền tảng email và doanh nghiệp. Công ty phát triển tiện ích Chrome miễn phí và đặt mục tiêu tăng trưởng nhân sự.
2. Meta keywords:
Read AI, gọi vốn, Series B, tiện ích Chrome, tích hợp email, Slack, HubSpot, Jira, Confluence, AI bot, ghi chú cuộc họp
3. SEO title:
Startup AI ghi chú cuộc họp gọi vốn 50 triệu USD chỉ sau 6 tháng huy động vòng trước
Tóm tắt chi tiết:
• Read AI vừa huy động thành công 50 triệu USD trong vòng gọi vốn Series B do Smash Capital dẫn đầu, chỉ 6 tháng sau khi gọi vốn Series A 21 triệu USD
• Công ty ghi nhận tăng trưởng mạnh với hơn 100.000 tài khoản mới được tạo từ doanh nghiệp và người dùng cá nhân
• Trong vòng 6 tháng, Read AI đã tăng gấp đôi số lượng đăng ký, người dùng hoạt động và doanh thu định kỳ hàng tháng
• Read AI tích hợp AI bot với nhiều nền tảng như email, Slack và các công cụ doanh nghiệp như HubSpot, Jira, Confluence
• Công ty vừa ra mắt tiện ích Chrome miễn phí với các tính năng:
- Hiển thị lịch trình
- Báo cáo cuộc họp
- Tùy chọn thêm nhanh vào cuộc họp
- Phân tích từ các cuộc họp
- Tổng hợp điểm chính trong các chuỗi email dài
- Tạo bản nháp email dựa trên ngữ cảnh từ email, tin nhắn và cuộc họp trước đó
• Hiện Read AI có 40 nhân viên và đặt mục tiêu mở rộng lên 100 người vào cuối quý 1/2025
• Brad Twohig từ Smash Capital đánh giá cao mô hình tăng trưởng dựa trên sản phẩm của Read AI
• Vòng gọi vốn Series B có sự tham gia của các nhà đầu tư hiện tại là Madrona và Goodwater Capital
📌 Read AI gọi vốn thành công 50 triệu USD chỉ sau 6 tháng huy động vòng Series A 21 triệu USD. Công ty ghi nhận 100.000 tài khoản mới, tăng gấp đôi số người dùng và doanh thu trong 6 tháng. Mục tiêu tăng nhân sự từ 40 lên 100 người vào Q1/2025.
https://techcrunch.com/2024/10/28/read-ai-raises-50m-to-integrate-its-bot-with-slack-email-and-more/
- Google đang mở rộng khả năng của Gemini với các tiện ích mới cho Google Calendar, Keep và Tasks, cho phép ứng dụng không chỉ phân tích dữ liệu mà còn thực hiện hành động cụ thể.
- Với Google Calendar, Gemini có thể:
- Tạo mới sự kiện.
- Tìm kiếm sự kiện dựa trên ngày, phạm vi thời gian hoặc chi tiết sự kiện.
- Chỉnh sửa và hủy các sự kiện.
- Trong Google Tasks, Gemini hỗ trợ:
- Thêm nhiệm vụ và nhắc nhở.
- Xem và cập nhật danh sách nhiệm vụ hiện có.
- Trong Google Keep, ứng dụng có thể:
- Tạo ghi chú và danh sách.
- Thêm nội dung vào danh sách hiện tại.
- Tìm và tham chiếu ghi chú hoặc danh sách trong các cuộc trò chuyện với Gemini.
- Để kích hoạt các tiện ích này, người dùng cần truy cập hồ sơ trong ứng dụng Gemini, chọn *Extensions* và bật tích hợp với Google Workspace. Các tiện ích cho nhiều ứng dụng cần được kích hoạt đồng thời nếu yêu cầu công việc liên quan đến nhiều tác vụ cùng lúc.
- Google đã bắt đầu triển khai các tiện ích này từ ngày 21/10/2024, dự kiến mất tối đa 15 ngày để tất cả khách hàng đủ điều kiện có thể truy cập.
- Các bản cập nhật này chỉ áp dụng cho người dùng đã đăng ký các gói bổ sung: Gemini Business, Gemini Enterprise, Gemini Education và Gemini Education Premium.
- Tiện ích cho Gmail, Docs và Drive đã được phát hành vào tháng 7/2024 dưới dạng beta mở.
📌 Google Gemini mở rộng khả năng với các tiện ích cho Calendar, Keep và Tasks, hỗ trợ người dùng tạo, chỉnh sửa và quản lý sự kiện, nhiệm vụ, ghi chú hiệu quả hơn. Những tính năng này sẽ được cung cấp cho người dùng Google Workspace từ 21/10/2024 và yêu cầu các gói dịch vụ cao cấp của Gemini.
https://lifehacker.com/tech/gemini-can-now-create-google-calendar-events-notes-and-tasks
📌 Các công cụ AI năng suất nếu không được cải tiến và lắng nghe phản hồi từ người khuyết tật có thể làm tăng khoảng cách và tạo ra bất bình đẳng tại nơi làm việc. Các công ty cần đầu tư vào trợ năng AI hiệu quả và bao trùm, giúp tăng cường tương tác và hiệu quả cho tất cả người dùng.
https://www.ft.com/content/10489c19-aecc-43e4-947f-bfde497de7b9
#FT
• NotebookLM là công cụ giúp bạn hiểu sâu hơn về bất kỳ chủ đề nào bạn đang làm việc.
• Steven Johnson, tác giả nhiều cuốn sách về khoa học tư duy và lịch sử đổi mới, đã tham gia vào dự án NotebookLM từ đầu cách đây 2 năm.
• NotebookLM cho phép tạo các sổ tay riêng biệt cho từng chủ đề hoặc dự án. Bạn có thể tải lên tối đa 50 "nguồn" với tổng cộng 25 triệu từ từ PDF, Google Docs, trang web và video YouTube.
• Công cụ này sử dụng khả năng đa phương thức của Gemini 1.5 để đánh giá và kết nối các nguồn bạn đã thêm vào.
• Bạn có thể đặt câu hỏi về nội dung hoặc yêu cầu NotebookLM định dạng theo cách cụ thể, kèm theo trích dẫn liên kết đến các đoạn gốc liên quan nhất.
• Thông tin cá nhân của bạn không bao giờ được chia sẻ hoặc sử dụng để huấn luyện mô hình.
• 8 mẹo sử dụng NotebookLM hiệu quả từ Steven Johnson:
1. Thử nghiệm với các tài liệu gần đây, ngay cả khi chúng không liên quan.
2. Tạo một sổ tay chính và từ đó xác định các sổ tay theo chủ đề.
3. Sử dụng NotebookLM để kết nối thông tin từ các nguồn khác nhau.
4. Bắt đầu với các câu hỏi gợi ý.
5. Yêu cầu NotebookLM trình bày thông tin theo nhiều cách khác nhau.
6. Không ngại thử nghiệm các ứng dụng sáng tạo.
7. Chuyển đổi nguồn của bạn thành Audio Overviews.
8. Xem lại các phiên trò chuyện NotebookLM của bạn.
• NotebookLM có thể chuyển đổi nội dung tải lên thành FAQ, tài liệu tóm tắt, dòng thời gian, mục lục, hướng dẫn học tập hoặc Audio Overview.
• Công cụ này hữu ích cho cả công việc, học tập và các dự án sáng tạo như viết tiểu thuyết hay phát triển trò chơi.
• Tính năng Audio Overview mới cho phép điều chỉnh định dạng cuộc trò chuyện và tập trung vào các khía cạnh cụ thể của nguồn tài liệu.
📌 NotebookLM là trợ lý AI đa năng giúp tổng hợp và phân tích thông tin từ nhiều nguồn. Với khả năng xử lý 25 triệu từ, 50 nguồn tài liệu đa dạng và các tính năng như Audio Overview, NotebookLM hỗ trợ hiệu quả cho nghiên cứu, học tập và sáng tạo.
https://blog.google/technology/ai/notebooklm-beginner-tips/
• Perplexity giới thiệu tính năng Internal Knowledge Search cho người dùng Pro và Enterprise Pro, cho phép tìm kiếm thông tin trên web và cơ sở dữ liệu nội bộ trong một nền tảng hợp nhất.
• Tính năng này chỉ tìm kiếm trong các tệp do người dùng tải lên, không phải toàn bộ cơ sở dữ liệu nội bộ, nhằm tập trung vào dữ liệu quan trọng nhất.
• Giới hạn tải lên là 500 tệp cho người dùng Enterprise Pro, có thể mở rộng trong tương lai. Hỗ trợ các định dạng phổ biến như Excel, Word, PDF.
• Mục tiêu là cải thiện nhiều chức năng doanh nghiệp bằng cách kết hợp thông tin nội bộ và bên ngoài trong một nền tảng duy nhất.
• Các khách hàng lớn như Nvidia, Databricks, Dell đã được truy cập sớm và sử dụng tính năng cho nhiều mục đích như thẩm định, kết hợp tài liệu bán hàng cũ với thông tin mới, tìm thông tin phúc lợi nhân viên.
• Perplexity cũng ra mắt Spaces, cho phép các nhóm chia sẻ và tổ chức nghiên cứu, tùy chỉnh trợ lý AI với hướng dẫn cụ thể dựa trên dữ liệu của họ.
• Spaces cung cấp quyền kiểm soát đầy đủ về quyền truy cập thông tin và loại trừ tệp và tìm kiếm khỏi việc đào tạo chất lượng AI theo mặc định cho người dùng Enterprise Pro.
• Perplexity dự định tích hợp dữ liệu bên thứ ba từ Crunchbase và FactSet cho người dùng Enterprise Pro có đăng ký các dịch vụ này.
• Internal Knowledge Search và Spaces được xem là một hình thức của tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG), cho phép người dùng tận dụng sự thật nền tảng nội bộ trong tìm kiếm.
• Perplexity phải cạnh tranh với các công ty như Glean và Elastic, những công ty đã cung cấp nền tảng RAG cho doanh nghiệp trong một thời gian.
• Công ty đang ngày càng chiếm thị phần tìm kiếm từ các công cụ tìm kiếm truyền thống như Google và có chương trình chia sẻ doanh thu với một số đối tác, chủ yếu là các công ty truyền thông.
📌 Perplexity ra mắt Internal Knowledge Search và Spaces, kết hợp tìm kiếm web và dữ liệu nội bộ trong một nền tảng. Giới hạn 500 tệp cho Enterprise Pro, hỗ trợ nhiều định dạng. Tính năng này nhằm tăng hiệu suất nghiên cứu và tìm kiếm thông tin cho doanh nghiệp, cạnh tranh với các nền tảng RAG hiện có.
https://venturebeat.com/ai/perplexity-lets-you-search-your-internal-enterprise-files-and-the-web/
• Gartner dự đoán đến năm 2026, lượng tìm kiếm trên công cụ tìm kiếm sẽ giảm 25%, chuyển sang chatbot AI và các tác nhân ảo khác.
• AI tạo sinh đang trở thành công cụ trả lời thay thế, thay thế các truy vấn trước đây thực hiện trên công cụ tìm kiếm truyền thống.
• Ước tính có 8,5 tỷ lượt tìm kiếm được thực hiện trên Google mỗi ngày. Mục tiêu là tiếp tục chiến thắng với Google đồng thời tối ưu hóa cho tìm kiếm bằng AI.
• Google Search Central cho biết nhà xuất bản không cần làm gì mới để hưởng lợi từ AI Overviews. Điều này cũng có thể đúng với chatbot và mô hình ngôn ngữ lớn.
• Nghiên cứu của Rich Sanger và Authoritas cho thấy sự trùng lặp đáng kể giữa xếp hạng tìm kiếm truyền thống và xếp hạng trong kết quả tìm kiếm do AI điều khiển.
• 4 cách để chiến thắng trong tìm kiếm bằng AI:
1. Tiếp tục xếp hạng tốt trên SERP của Google:
- Trang web xếp hạng vị trí 1 trên SERP có 53% cơ hội được đưa vào AI Overviews của Google.
- Tạo nội dung chất lượng cao, có thẩm quyền.
- Tối ưu hóa kỹ thuật SEO và schema markup.
- Tối ưu hóa thực thể.
2. Nhắm mục tiêu từ khóa thông tin:
- Từ khóa thông tin chiến thắng từ khóa giao dịch khi được AI Overviews đưa vào.
- Từ khóa đầu phễu có nhiều khả năng xuất hiện trong tìm kiếm bằng AI hơn.
3. Sử dụng truy vấn liên quan và từ khóa đuôi dài:
- Nhắm mục tiêu truy vấn chi tiết và từ khóa đuôi dài.
- Ví dụ: "cách chọn giày đen cho nam giới" thay vì "giày đen".
4. Phù hợp với ý định tìm kiếm:
- Tạo nội dung và nhắm mục tiêu từ khóa phù hợp với ý định tìm kiếm của người dùng.
• Một số lo ngại về việc được đưa vào kết quả tìm kiếm bằng AI:
- AI đã trả lời câu hỏi, khiến người dùng không cần nhấp vào liên kết.
- AI mượn và viết lại nội dung để đưa vào kết quả.
- Có thể gây giảm lưu lượng truy cập từ 20% đến 50%.
• Tuy nhiên, vẫn nên cố gắng được đưa vào kết quả AI vì Google đang hướng tới xu hướng này.
• Hiện tại, việc xuất hiện trong tìm kiếm bằng AI không khác nhiều so với tìm kiếm thông thường.
📌 Google vẫn dẫn đầu với 8,5 tỷ lượt tìm kiếm mỗi ngày, so với 14 triệu lượt của ChatGPT. Tối ưu hóa cho tìm kiếm truyền thống vẫn là cách tốt nhất, đồng thời áp dụng 4 chiến lược trên để tăng cơ hội xuất hiện trong kết quả tìm kiếm bằng AI.
https://searchengineland.com/ai-search-visibility-guide-446740
• NVIDIA giới thiệu khung FACTS để phát triển chatbot doanh nghiệp hiệu quả dựa trên Tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG).
• Khung FACTS tập trung vào 5 yếu tố chính:
- Độ mới (Freshness): Đảm bảo phản hồi của chatbot phản ánh dữ liệu doanh nghiệp mới nhất thông qua tích hợp cơ sở dữ liệu vector hỗ trợ truy xuất nội dung thời gian thực.
- Kiến trúc (Architecture): Xây dựng nền tảng chatbot linh hoạt, mô-đun để đáp ứng nhu cầu đa dạng của doanh nghiệp. Hỗ trợ tích hợp nhiều mô hình ngôn ngữ lớn, cơ sở dữ liệu vector và các thành phần khác.
- Chi phí (Cost): Cân bằng sử dụng mô hình ngôn ngữ lớn và nhỏ để tối ưu hiệu quả kinh tế mà không ảnh hưởng hiệu suất.
- Kiểm thử (Testing): Thực hiện kiểm thử nghiêm ngặt bao gồm đánh giá tự động và xác thực có sự tham gia của con người.
- Bảo mật (Security): Bảo vệ dữ liệu nhạy cảm của doanh nghiệp, tuân thủ chính sách kiểm soát truy cập và triển khai các biện pháp bảo vệ.
• NVIDIA đã phát triển 3 chatbot doanh nghiệp sử dụng khung FACTS:
- NVInfo Bot: Quản lý khoảng 500 triệu tài liệu doanh nghiệp, đảm bảo khả năng truy cập và thực thi kiểm soát truy cập tài liệu.
- NVHelp Bot: Tập trung vào hỗ trợ IT và phúc lợi nhân sự, sử dụng nguồn dữ liệu đa phương thức để trả lời câu hỏi của nhân viên.
- Scout Bot: Cung cấp thông tin tài chính công ty bằng cách quản lý dữ liệu có cấu trúc và phi cấu trúc từ nguồn công khai.
• Kết quả cho thấy tuân thủ các nguyên tắc FACTS cải thiện đáng kể độ tin cậy và trải nghiệm người dùng của chatbot dựa trên RAG.
• Tích hợp cơ chế tìm kiếm kết hợp (vector và từ vựng) nâng cao độ liên quan khi truy xuất, trong khi kiến trúc đa agent cho phép xử lý các truy vấn phức tạp hơn.
📌 Khung FACTS của NVIDIA cung cấp giải pháp toàn diện để xây dựng chatbot doanh nghiệp hiệu quả và an toàn. Tập trung vào 5 yếu tố chính, khung này giải quyết các thách thức cốt lõi khi triển khai AI hội thoại trong doanh nghiệp, nâng cao hiệu suất và sự hài lòng của người dùng.
https://www.marktechpost.com/2024/10/07/nvidia-ai-introduces-facts-a-comprehensive-framework-for-enterprise-rag-based-chatbots/
• Agent-Q là một khung AI tự vận hành tiên tiến, có khả năng tự động hóa các tác vụ phức tạp với độ chính xác và hiệu quả cao.
• Sử dụng các công nghệ tiên tiến như học tăng cường và kỹ thuật tìm kiếm phức tạp, Agent-Q liên tục cải thiện khả năng của mình.
• Agent-Q có thể tự động hóa nhiều loại tác vụ khác nhau như lên lịch, đặt hàng và quản lý mua sắm trực tuyến bằng cách tương tác trực tiếp với các trang web.
• Công nghệ cốt lõi của Agent-Q bao gồm tìm kiếm cây Monte Carlo, tự phê bình và học tăng cường, cho phép nó thích nghi và cải thiện theo thời gian.
• Agent-Q đạt độ chính xác lên đến 95% trong các môi trường động, phản ánh thiết kế mạnh mẽ và thuật toán học tập hiệu quả của Agent-Q .
• Có hai tùy chọn triển khai: cài đặt cục bộ sử dụng Git, Python và Poetry, hoặc tiện ích mở rộng Chrome đơn giản hơn.
• Agent-Q nâng cao năng suất bằng cách xử lý các tác vụ lặp đi lặp lại với độ chính xác cao, mang lại lợi ích cho cả doanh nghiệp và cá nhân.
• Khả năng tự học của Agent-Q cho thấy tiềm năng phát triển các hệ thống tự chủ phức tạp hơn trong tương lai.
• Agent-Q có thể xử lý nhiều loại tác vụ khác nhau, từ lên lịch cuộc họp đến quản lý mua sắm trực tuyến.
• Tìm kiếm cây Monte Carlo cho phép Agent-Q khám phá và đánh giá các hành động tiềm năng một cách hiệu quả.
• Khả năng tự phê bình giúp AI đánh giá hiệu suất của chính AI và xác định các lĩnh vực cần cải thiện.
• Học tăng cường cho phép Agent-Q học hỏi từ kinh nghiệm và thích nghi với những thách thức mới.
• Độ chính xác cao của Agent-Q (lên đến 95%) dẫn đến tiết kiệm thời gian đáng kể và tăng hiệu quả cho người dùng.
• Agent-Q giảm thiểu rủi ro lỗi của con người trong các tác vụ lặp đi lặp lại và tốn thời gian.
• Tùy chọn cài đặt cục bộ phù hợp với các nhà phát triển và người đam mê công nghệ muốn tùy chỉnh và thử nghiệm.
• Tiện ích mở rộng Chrome cung cấp quy trình cài đặt dễ dàng hơn cho người dùng ưu tiên sự thuận tiện.
• Agent-Q đại diện cho tiềm năng của các ứng dụng AI trong tương lai, mở đường cho các hệ thống tự chủ phức tạp hơn.
📌 Agent-Q là khung AI tự vận hành tiên tiến, tự động hóa tác vụ phức tạp với độ chính xác lên đến 95%. Sử dụng học tăng cường và tìm kiếm Monte Carlo, Agent-Q liên tục cải thiện, xử lý nhiều tác vụ từ lên lịch đến mua sắm trực tuyến. Với tùy chọn triển khai linh hoạt, Agent-Q hứa hẹn nâng cao năng suất và mở đường cho các hệ thống AI tự chủ trong tương lai.
https://www.geeky-gadgets.com/agent-q-autonomous-self-operating-computer/
• Google vừa công bố một loạt cập nhật mới cho tính năng tìm kiếm, tập trung vào việc tích hợp AI vào mọi khía cạnh của trải nghiệm tìm kiếm.
• Google Lens giờ đây có thể hiểu nội dung video. Người dùng có thể quay video đồng thời đặt câu hỏi, và AI sẽ phân tích video để trả lời. Tính năng này hiện có sẵn trong Google app dưới dạng tính năng Labs.
• Lens cũng hỗ trợ tìm kiếm bằng giọng nói kết hợp với hình ảnh. Người dùng có thể chụp ảnh và giữ nút chụp để đặt câu hỏi bằng giọng nói cùng lúc.
• Tính năng mua sắm trong Lens được cải tiến, giúp nhận diện sản phẩm chính xác hơn và cung cấp thông tin giá cả từ nhiều nguồn khác nhau.
• Circle to Search bổ sung tính năng nhận diện bài hát đang phát trong ứng dụng hoặc từ môi trường xung quanh.
• Kết quả tìm kiếm Google sẽ được sắp xếp tự động bằng AI. Ví dụ khi tìm công thức nấu ăn, kết quả sẽ được phân loại thành các nhóm như công thức hàng đầu, nguyên liệu liên quan và hướng dẫn.
• Google sẽ thêm quảng cáo vào hộp AI Overview, điều này có thể gây tranh cãi do trước đây AI Overview từng gặp vấn đề về độ chính xác.
• Các tính năng mới hiện chỉ hỗ trợ tiếng Anh và chỉ có sẵn tại Mỹ. Người dùng có thể kích hoạt trong phần Labs của ứng dụng Google.
• Việc tích hợp AI vào tìm kiếm của Google vẫn đang trong giai đoạn đầu và cần thời gian để hoàn thiện, đặc biệt là sau sự cố "pizza keo dán" trước đó.
📌 Google đang đẩy mạnh tích hợp AI vào tìm kiếm với các tính năng mới như hiểu video, tìm kiếm bằng giọng nói kết hợp hình ảnh và sắp xếp kết quả bằng AI. Tuy nhiên, việc thêm quảng cáo vào AI Overview có thể gây tranh cãi. Các tính năng hiện chỉ hỗ trợ tiếng Anh và có sẵn tại Mỹ.
https://www.laptopmag.com/ai/google-ai-lens-circle-to-search-
• Perplexity là công cụ tìm kiếm mới nhất sử dụng AI để trả lời câu hỏi dựa trên các nguồn trực tuyến. Nó cung cấp tóm tắt ngắn gọn, phù hợp kèm trích dẫn cụ thể.
• Giá: Miễn phí cho tìm kiếm nhanh không giới hạn và 5 lần tìm kiếm Pro mỗi ngày. Gói 20 USD/tháng cho 300+ lần tìm kiếm Pro và phân tích tệp không giới hạn.
• Quyền riêng tư: Cho phép tìm kiếm ẩn danh qua tab ẩn danh, cài đặt ẩn danh cho từng tìm kiếm, tắt lưu giữ dữ liệu. Chỉ phân tích thông tin công khai.
• Tính năng nổi bật:
- Tạo trang chia sẻ kết quả tìm kiếm có thể tùy chỉnh
- Cung cấp trích dẫn nguồn để kiểm chứng thông tin
- Trả lời ngắn gọn, tiết kiệm thời gian
- Chia nhỏ câu hỏi phức tạp thành các bước
- Cho phép thu hẹp tìm kiếm vào các nguồn cụ thể
- Hỗ trợ đặt câu hỏi tiếp theo để đào sâu chủ đề
- Tạo bộ sưu tập các tìm kiếm liên quan
• Các trường hợp sử dụng hiệu quả:
- Tìm hiểu nhanh về một chủ đề
- Nghiên cứu thông tin siêu cụ thể
- Khám phá các chủ đề cá nhân quan tâm
- Thu thập dữ liệu
- Tóm tắt báo cáo chính thức
- Kiểm tra ý kiến công chúng
- Khám phá tài liệu lịch sử
- Phát hiện xu hướng
• Tính năng bổ sung:
- Bách khoa toàn thư Perplexity với so sánh công cụ
- Tiện ích mở rộng Chrome miễn phí
• Hạn chế:
- Khả năng tạo hình ảnh hạn chế
- Có thể có lỗi, cần kiểm tra lại thông tin
- Không phù hợp cho thông tin thời gian thực
- Giới hạn kích thước tệp phân tích là 25MB
- Hạn chế với PDF khó đọc
📌 Perplexity AI đang cách mạng hóa tìm kiếm trực tuyến với tóm tắt thông minh và trích dẫn cụ thể. Miễn phí cơ bản, 20 USD/tháng cho tính năng nâng cao. Ưu điểm: tìm kiếm riêng tư, trang chia sẻ, thu hẹp nguồn. Hạn chế: tạo hình ảnh, thông tin thời gian thực.
https://www.fastcompany.com/91199102/how-perplexitys-ai-is-reinventing-search
• Google vừa công bố các cập nhật mới cho công cụ ghi chú và trợ lý nghiên cứu AI NotebookLM, cho phép người dùng tóm tắt video YouTube và file âm thanh, đồng thời tạo và chia sẻ thảo luận audio được tạo bởi AI.
• NotebookLM ban đầu được sử dụng bởi giáo viên và học sinh, nhưng gần đây đã có sự chuyển dịch đáng kể trong cơ sở người dùng. Hiện tại, khoảng 50% người dùng là giáo viên và học sinh, 50% còn lại là các chuyên gia kinh doanh.
• Tính năng Audio Overview mới cho phép người dùng chuyển đổi tài liệu thành thảo luận audio hấp dẫn. Người dùng có thể chia sẻ Audio Overview được tạo ra trong NotebookLM thông qua URL công khai.
• NotebookLM đã bổ sung hỗ trợ cho video YouTube và file âm thanh (như .mp3 và .wav) làm nguồn đầu vào mới, bên cạnh Google Docs, PDF, file văn bản, Google Slides và trang web.
• Công cụ này được hỗ trợ bởi mô hình ngôn ngữ lớn đa phương thức Gemini 1.5 Pro của Google. Mọi tính năng mới đều dựa trên phản hồi của người dùng.
• Google đã mở rộng quyền truy cập NotebookLM tới hơn 200 quốc gia vào tháng 6 năm nay. Mỹ vẫn là thị trường lớn nhất, tiếp theo là Nhật Bản.
• Thông tin người dùng tải lên NotebookLM được giữ riêng tư và không được sử dụng để huấn luyện mô hình AI. Người dùng phải từ 18 tuổi trở lên mới được truy cập công cụ này.
• NotebookLM đối mặt với thách thức khi người dùng có thể quá phụ thuộc và mất thói quen đọc nội dung dài. Tuy nhiên, công cụ này cung cấp trích dẫn có thể nhấp để người dùng đi sâu vào các ghi chú được tóm tắt.
• Hiện tại NotebookLM chỉ có trên web, nhưng ứng dụng di động có thể ra mắt vào năm sau. Đội ngũ phát triển đang tập trung thêm hỗ trợ đầu vào và nguồn đầu ra mới.
📌 Google mở rộng NotebookLM với tính năng tóm tắt video YouTube và file âm thanh, chia sẻ thảo luận audio AI. Công cụ này đã phát triển từ lĩnh vực giáo dục sang môi trường làm việc, với 50% người dùng là chuyên gia kinh doanh. NotebookLM hiện có mặt tại hơn 200 quốc gia, với Mỹ và Nhật Bản là hai thị trường lớn nhất.
https://techcrunch.com/2024/09/26/googles-notebooklm-enhances-ai-note-taking-with-youtube-audio-file-sources-sharable-audio-discussions/
• Microsoft đang phát triển một phiên bản mới của ứng dụng di động Copilot, biến trợ lý AI này thành một người dẫn chương trình tin tức ảo.
• Giao diện mới của Copilot sẽ dựa trên hệ thống thẻ, với hình ảnh được tạo bởi AI để thu hút người dùng sử dụng ứng dụng nhiều hơn.
• Ứng dụng sẽ đề xuất các chủ đề dựa trên sở thích cá nhân hoặc lịch sử tương tác của người dùng với Copilot.
• Copilot có thể tạo ra một câu chuyện, đề xuất bài tập thể dục, hoặc hiển thị kết quả thể thao mới nhất mà không cần người dùng yêu cầu.
• Tính năng đọc tin tức của Copilot sẽ đọc các đoạn trích từ tiêu đề và thông tin từ các ấn phẩm, kèm theo nhạc nền, tạo cảm giác như một người dẫn chương trình radio thực sự.
• Microsoft cảnh báo rằng "có thể có sai sót" và giao diện cho phép người dùng chuyển đổi giữa các tiêu đề tin tức và truy cập liên kết đến các bài báo mà Copilot đang tham chiếu.
• Giao diện mới của Copilot có nhiều điểm tương đồng với Pi, trợ lý AI do Inflection AI tạo ra.
• Microsoft gần đây đã thuê Mustafa Suleyman, đồng sáng lập Google DeepMind, làm CEO của bộ phận AI mới của công ty, cùng với một số lượng lớn nhân viên từ Inflection AI.
• Giống như Pi, ứng dụng Copilot mới sẽ yêu cầu người dùng chọn giọng nói khi bắt đầu sử dụng.
• Phiên bản mới của Copilot khác biệt đáng kể so với các sản phẩm AI dành cho doanh nghiệp của Microsoft.
• CEO Satya Nadella gần đây đã công bố các thay đổi trong tích hợp Copilot trong các ứng dụng Office và một ứng dụng Copilot Pages mới, tập trung vào việc sử dụng Copilot cho doanh nghiệp một cách hợp tác hơn.
• Chưa rõ khi nào Microsoft sẽ ra mắt phiên bản mới này của Copilot cho iOS và Android, nhưng theo nguồn tin, nó đã rất dễ sử dụng và có vẻ hoàn thiện.
• Việc chuyển đổi này đánh dấu một bước chuyển lớn từ cảm giác doanh nghiệp của Copilot hoặc lịch sử tích hợp Bing của nó.
• Microsoft đã tách Copilot khỏi Bing để biến nó thành một ứng dụng và trải nghiệm độc lập vào cuối năm ngoái, trước khi biến Copilot thành thương hiệu chính cho các nỗ lực AI của mình.
📌 Microsoft đang chuyển đổi Copilot thành trợ lý AI cá nhân hóa với khả năng đọc tin tức. Ứng dụng di động mới có giao diện thẻ, hình ảnh AI và tính năng đọc tin tức tự động. Dự kiến sẽ ra mắt cho iOS và Android, đánh dấu bước tiến quan trọng trong chiến lược AI của Microsoft.
https://www.theverge.com/2024/9/25/24254032/microsoft-copilot-news-presenter-notepad
• AI tác nhân (agentic AI) là hệ thống AI có khả năng thực hiện các hành động tự chủ, chủ động hướng tới mục tiêu mà không cần sự giám sát trực tiếp của con người.
• AI tác nhân có thể thích ứng và phản ứng độc lập với các tình huống luôn thay đổi, với sự can thiệp tối thiểu của con người.
• Khác với các mô hình nền tảng truyền thống như GPT-4, AI tác nhân có khả năng thực hiện các tác vụ phức tạp đòi hỏi lập luận, lập kế hoạch và tương tác cấp cao hơn.
• Beam cung cấp giải pháp tự động hóa quy trình AI tác nhân cấp doanh nghiệp, với các mẫu được đào tạo sẵn và mô-đun tùy chỉnh an toàn cho các ngành như y tế và bảo hiểm.
• PixieBrix là tiện ích mở rộng trình duyệt low-code cho phép tùy chỉnh và tự động hóa ứng dụng web. Người dùng có thể xây dựng các "brick" để thêm chức năng hoặc kích hoạt hành động trên ứng dụng web.
• AutoGen Studio của Microsoft là tùy chọn nguồn mở thân thiện với người dùng, cho phép phát triển nhanh các tác nhân AI thông qua giao diện low-code.
• AgentOps là nền tảng giám sát tác nhân giúp xây dựng, theo dõi và tối ưu hóa các tác nhân AI. Nó dễ dàng tích hợp với các framework AI tác nhân phổ biến như LangChain.
• Thách thức lớn trong phát triển hệ thống AI tác nhân là xác định các khối xây dựng hiệu quả và kết hợp chúng phù hợp cho các ứng dụng khác nhau.
• Các nhà nghiên cứu đang đề xuất quy trình thiết kế tự động hệ thống tác nhân (ADAS), trong đó các tác nhân AI mới và cải tiến được "khám phá" bởi một "meta-agent".
• Kết quả ban đầu cho thấy các tác nhân mới có thể vượt trội đáng kể so với các tác nhân được thiết kế thủ công, mở ra tiềm năng cho AI tác nhân tự học và tự cải thiện liên tục.
📌 AI tác nhân đang nổi lên như xu hướng mới trong AI, với 4 công cụ hàng đầu là Beam, PixieBrix, AutoGen Studio và AgentOps. Các hệ thống này có khả năng thực hiện tác vụ phức tạp một cách tự chủ, hứa hẹn mang lại hiệu quả và tự động hóa cao cho doanh nghiệp.
https://thenewstack.io/agentic-ai-tools-for-building-and-managing-agentic-systems/
- DuckDuckGo đã ra mắt dịch vụ AI Chat miễn phí và ẩn danh vào tháng 6 năm 2024.
- Dịch vụ này cho phép người dùng tương tác với 4 mô hình ngôn ngữ lớn khác nhau mà không cần tạo tài khoản hay cung cấp thông tin cá nhân.
- Các mô hình AI Chat bao gồm: GPT-4o mini từ OpenAI, Claude 3 Haiku từ Anthropic, Llama 3.1 70B từ Meta và Mixtral 8x7B từ Mistral AI.
- DuckDuckGo cam kết không sử dụng thông tin người dùng để huấn luyện các mô hình AI, đảm bảo quyền riêng tư cho người dùng.
- Để bắt đầu sử dụng AI Chat, người dùng chỉ cần truy cập trang web duck.ai hoặc duckduckgo.com/chat và chọn mô hình chat mong muốn.
- Người dùng có thể chuyển đổi giữa các mô hình khác nhau để so sánh phản hồi và tìm ra lựa chọn phù hợp nhất cho nhu cầu của mình.
- DuckDuckGo cũng cung cấp tính năng chuyển đổi từ tìm kiếm sang AI Chat thông qua các lệnh bang như !ai hoặc !chat.
- Người dùng có thể sao chép phản hồi từ AI Chat vào clipboard của thiết bị để lưu trữ hoặc chia sẻ.
- Một số hạn chế của AI Chat là không có khả năng truy cập nội dung internet hiện tại; người dùng nên sử dụng tìm kiếm tiêu chuẩn cho thông tin mới nhất.
- DuckDuckGo khuyến nghị một số lựa chọn thay thế như OpenAI’s ChatGPT, Microsoft’s Copilot và Google’s Gemini cho những ai cần thông tin cập nhật hơn.
📌 DuckDuckGo đã giới thiệu dịch vụ AI Chat miễn phí với tính năng ẩn danh, cho phép người dùng tương tác với bốn mô hình ngôn ngữ lớn mà không cần lo lắng về quyền riêng tư. Dịch vụ này mở ra nhiều lựa chọn cho việc tìm kiếm thông tin an toàn và hiệu quả.
https://www.techrepublic.com/article/duckduckgo-joins-ai-chat/
• Microsoft giới thiệu các tính năng mới cho gói đăng ký Microsoft 365 Copilot trị giá 30 USD/người dùng/tháng, nhằm cải thiện tích hợp AI trong các ứng dụng Office.
• Excel kết hợp hỗ trợ Python với Copilot, cho phép người dùng thực hiện phân tích nâng cao như dự báo, phân tích rủi ro, học máy và trực quan hóa dữ liệu phức tạp bằng ngôn ngữ tự nhiên, không cần lập trình.
• Tính năng tích hợp Copilot và Python trong Excel bắt đầu giai đoạn xem trước công khai từ hôm nay. Microsoft cũng bổ sung hỗ trợ Copilot cho XLOOKUP, SUMIF, định dạng có điều kiện và khả năng tạo nhiều biểu đồ, PivotTable hơn.
• PowerPoint được cải thiện với công cụ xây dựng câu chuyện nâng cao, giúp tạo nhanh bản nháp đầu tiên của bài thuyết trình. Trong tương lai, AI sẽ sử dụng mẫu có thương hiệu của công ty để tạo bản nháp hoặc hình ảnh được phê duyệt từ thư viện SharePoint.
• Copilot trong Microsoft Teams sẽ tóm tắt các cuộc trò chuyện văn bản và cuộc họp nói vào cuối tháng này, giúp người tổ chức cuộc họp không bỏ lỡ các câu hỏi chưa được trả lời trong chat.
• Outlook sẽ có tính năng "ưu tiên hộp thư đến" cho phép Copilot tự động sắp xếp thứ tự ưu tiên email. Trong tương lai, người dùng có thể "dạy" Copilot về các chủ đề, từ khóa hoặc người quan trọng để đánh dấu email ưu tiên cao.
• Word sẽ cho phép tham chiếu dữ liệu từ email và cuộc họp, bên cạnh dữ liệu từ tài liệu, giúp dễ dàng đưa tệp đính kèm từ email hoặc các điểm thảo luận từ cuộc họp vào tài liệu.
• OneDrive sẽ có Copilot vào cuối tháng này, giúp tóm tắt và so sánh tối đa 5 tệp để phát hiện sự khác biệt giữa chúng.
• Microsoft cho biết 60% công ty trong Fortune 500 đang sử dụng Copilot và số người dùng Copilot hàng ngày tại nơi làm việc "gần như tăng gấp đôi so với quý trước". Tuy nhiên, các báo cáo gần đây cho thấy phản ứng không mấy tích cực với phiên bản Copilot trả phí dành cho doanh nghiệp do lỗi và sự miễn cưỡng trả 30 USD/người dùng.
• Vodafone là khách hàng lớn của Microsoft 365 Copilot, đăng ký 68.000 giấy phép cho 100.000 nhân viên sau khi thử nghiệm và thấy lợi ích ban đầu.
📌 Microsoft nâng cấp Copilot AI trong Office với các tính năng mới cho Excel, PowerPoint, Word và Outlook. 60% công ty Fortune 500 đang sử dụng Copilot, với số người dùng hàng ngày tăng gấp đôi. Vodafone đăng ký 68.000 giấy phép cho 100.000 nhân viên, cho thấy tiềm năng của AI trong môi trường văn phòng.
https://www.theverge.com/2024/9/16/24246014/microsoft-office-copilot-ai-features-excel-python-outlook-word-powerpoint
- OneGen là một khung AI mới được phát triển bởi các nhà nghiên cứu từ Đại học Chiết Giang, cho phép mô hình ngôn ngữ lớn (LLM) thực hiện đồng thời cả hai nhiệm vụ truy xuất và tạo sinh thông tin.
- Thách thức lớn trong việc triển khai LLM hiện nay là khả năng xử lý kém các tác vụ yêu cầu cả việc truy xuất và tạo sinh, dẫn đến tăng độ phức tạp tính toán và thời gian suy diễn.
- Các phương pháp trước đây như Retrieval-Augmented Generation (RAG) đã cố gắng tích hợp truy xuất vào quy trình tạo sinh, nhưng vẫn yêu cầu các mô hình riêng biệt cho từng nhiệm vụ, gây tốn kém tài nguyên.
- OneGen giải quyết vấn đề này bằng cách kết hợp các token truy xuất tự động vào mô hình, cho phép thực hiện cả hai nhiệm vụ trong một lần truyền qua duy nhất, giảm thiểu thời gian và chi phí tính toán.
- Mô hình sử dụng các token truy xuất được tạo ra trong quá trình autoregressive, cho phép truy xuất tài liệu mà không cần mô hình truy xuất riêng biệt.
- OneGen đã được đánh giá trên nhiều tập dữ liệu, bao gồm HotpotQA và TriviaQA cho các tác vụ hỏi đáp, cũng như các tập dữ liệu dựa trên Wikipedia cho việc liên kết thực thể.
- Kết quả cho thấy OneGen cải thiện độ chính xác và điểm F1 so với các mô hình hiện có như Self-RAG và GRIT, với cải thiện 3.2 điểm trong độ chính xác trên sáu tập dữ liệu liên kết thực thể.
- Mô hình duy trì hiệu suất tốt trong các tác vụ truy xuất trong khi nâng cao khả năng tạo sinh, cho thấy khả năng xử lý nhanh chóng và chính xác hơn mà không làm giảm chất lượng.
- OneGen có tiềm năng cách mạng hóa cách mà LLM xử lý các tác vụ phức tạp, làm cho chúng phù hợp hơn với các ứng dụng thực tế yêu cầu tốc độ và độ chính xác cao.
📌 OneGen là một khung AI tiên tiến cho phép mô hình ngôn ngữ lớn xử lý đồng thời truy xuất và tạo sinh, cải thiện độ chính xác lên đến 3.3 điểm F1 trong các tác vụ phức tạp, mở ra cơ hội mới cho ứng dụng thực tế hiệu quả hơn.
https://www.marktechpost.com/2024/09/14/onegen-an-ai-framework-that-enables-a-single-llm-to-handle-both-retrieval-and-generation-simultaneously/
- InfraLib là một khung AI được thiết kế đặc biệt để giải quyết các thách thức trong quản lý cơ sở hạ tầng quy mô lớn, từ bảo trì đến tối ưu hóa hoạt động.
- Hệ thống cơ sở hạ tầng bao gồm giao thông, truyền thông và phân phối năng lượng, là nền tảng cho sự phát triển bền vững và an toàn công cộng.
- Quản lý cơ sở hạ tầng gặp nhiều khó khăn do quy mô lớn và sự hư hại ngẫu nhiên của các thành phần.
- Các phương pháp quản lý truyền thống thường không đủ linh hoạt để đối phó với sự không chắc chắn trong thực tế.
- Học tăng cường (RL) là một phương pháp dựa trên dữ liệu cho phép hệ thống học hỏi từ môi trường để cải thiện quy trình ra quyết định.
- InfraLib cung cấp một nền tảng mô phỏng hệ thống cơ sở hạ tầng với cách tiếp cận phân cấp và ngẫu nhiên.
- Khung này mô phỏng sự hư hại của các thành phần theo thời gian, phản ánh sự không chắc chắn trong quản lý cơ sở hạ tầng.
- InfraLib có khả năng mô phỏng sự không khả dụng của các thành phần do bảo trì hoặc sự cố không lường trước.
- Khung này cũng xem xét chu kỳ ngân sách, điều này rất quan trọng cho các nhà quản lý cơ sở hạ tầng trong việc lập kế hoạch tài chính.
- InfraLib có khả năng mô phỏng các sự cố thảm khốc, giúp đánh giá tác động của những sự kiện này đối với toàn bộ hệ thống.
- Khung này hỗ trợ nghiên cứu và phát triển trong quản lý cơ sở hạ tầng, cung cấp công cụ thu thập dữ liệu chuyên sâu.
- Phân tích dựa trên mô phỏng cho phép người dùng nghiên cứu hiệu suất của các chiến lược quản lý khác nhau trong các kịch bản khác nhau.
- InfraLib cung cấp công cụ trực quan hóa, giúp người dùng dễ dàng hiểu và phân tích dữ liệu phức tạp.
- Hai nghiên cứu trường hợp cho thấy khả năng mô phỏng của InfraLib: một hệ thống cơ sở hạ tầng với 100.000 thành phần và một mạng lưới đường bộ thực tế.
- InfraLib giúp nâng cao khả năng phục hồi của hệ thống, tiết kiệm chi phí và tăng cường hiệu quả quản lý.
📌 InfraLib là khung AI tiên tiến hỗ trợ quản lý cơ sở hạ tầng quy mô lớn, cung cấp mô phỏng chính xác và công cụ phân tích hiệu suất, giúp tối ưu hóa hoạt động và giảm thiểu rủi ro.
https://www.marktechpost.com/2024/09/15/infralib-a-comprehensive-ai-framework-for-enabling-reinforcement-learning-and-decision-making-for-large-scale-infrastructure-management/
• GPT Excel là một trợ lý AI được xây dựng dành riêng cho Excel và Google Sheets, với hơn 500.000 người dùng. Công cụ này có phiên bản miễn phí và trả phí (7 USD/tháng).
• Các tính năng chính của GPT Excel bao gồm: AI Chat, Tạo và Hiểu Công thức, Trình tạo Tự động hóa Tác vụ, SQL, Xác thực và Lọc Dữ liệu, và khả năng tạo mẫu bảng.
• Để sử dụng GPT Excel tóm tắt dữ liệu:
- Tạo tài khoản bằng email hoặc tài khoản Google
- Chọn tab Formulas và chọn Microsoft Excel từ menu thả xuống
- Chuyển sang tab Explained
- Sao chép và dán dữ liệu Excel vào hộp văn bản
- Kết quả tóm tắt sẽ được tạo ra trong hộp văn bản bên dưới
• Ưu điểm của GPT Excel:
- Quen thuộc: Tập trung vào Excel, ít gimmick và đơn giản hơn
- Đơn giản: Giao diện dễ sử dụng với 6 chức năng chính
- Chi phí: Phiên bản miễn phí đủ dùng, không cần đăng ký trả phí
• Một số công cụ AI khác cho Excel:
- Knowt: Tập trung vào giáo dục, tạo ghi chú và flashcard từ dữ liệu Excel
- Ajelix BI: Nền tảng tổng hợp với 15 công cụ năng suất
- Julius AI: Phân tích dữ liệu lớn, tạo trực quan hóa và dự báo
- Rows: Phân tích, tóm tắt và chuyển đổi dữ liệu không cần mã
• Mặc dù ChatGPT cho Excel gặp khó khăn khi cài đặt, nhưng có nhiều giải pháp thay thế khác để tóm tắt và phân tích dữ liệu Excel bằng AI.
📌 GPT Excel là công cụ AI miễn phí hữu ích để tóm tắt dữ liệu Excel với hơn 500.000 người dùng. Nó cung cấp giao diện đơn giản, quen thuộc và các tính năng cơ bản như tạo công thức, tự động hóa tác vụ. Tuy nhiên vẫn có nhiều lựa chọn AI khác cho Excel tùy theo nhu cầu cụ thể của người dùng.
https://www.cnet.com/tech/services-and-software/ai-can-summarize-your-excel-spreadsheets-for-you-heres-how/
• Hugging Face vừa ra mắt LightEval - bộ công cụ đánh giá nhẹ giúp doanh nghiệp và nhà nghiên cứu đánh giá các mô hình ngôn ngữ lớn (LLM).
• LightEval là bước tiến quan trọng trong nỗ lực làm cho quá trình phát triển AI minh bạch và có thể tùy chỉnh hơn.
• CEO Clément Delangue nhấn mạnh đánh giá là "một trong những bước quan trọng nhất - nếu không phải là quan trọng nhất - trong AI".
• Công cụ này giải quyết nhu cầu ngày càng tăng về các công cụ đánh giá chính xác và linh hoạt khi AI ngày càng quan trọng trong hoạt động kinh doanh.
• LightEval cho phép tùy chỉnh đánh giá theo mục tiêu cụ thể của doanh nghiệp, từ đo lường tính công bằng trong ứng dụng y tế đến tối ưu hóa hệ thống đề xuất cho thương mại điện tử.
• Nó tích hợp liền mạch với các công cụ hiện có của Hugging Face như thư viện xử lý dữ liệu Datatrove và thư viện huấn luyện mô hình Nanotron.
• LightEval hỗ trợ đánh giá trên nhiều thiết bị như CPU, GPU và TPU, có thể mở rộng quy mô cho cả triển khai nhỏ và lớn.
• Công cụ này đáp ứng nhu cầu ngày càng tăng về đánh giá AI khi các mô hình trở nên lớn và phức tạp hơn.
• LightEval giúp doanh nghiệp đảm bảo mô hình của họ đáp ứng các tiêu chuẩn đạo đức và kinh doanh trước khi triển khai.
• Là mã nguồn mở, LightEval khuyến khích trách nhiệm giải trình lớn hơn trong đánh giá AI.
• Người dùng có thể đánh giá mô hình trên nhiều tiêu chuẩn phổ biến hoặc xác định các tác vụ tùy chỉnh của riêng họ.
• LightEval hỗ trợ các cấu hình đánh giá nâng cao như sử dụng trọng số khác nhau, song song hóa pipeline hoặc phương pháp dựa trên bộ điều hợp.
• Công cụ này là một phần trong xu hướng dân chủ hóa phát triển AI, giúp các công ty nhỏ hơn và nhà phát triển cá nhân tiếp cận các công cụ đánh giá mạnh mẽ.
• Thách thức lớn nhất của LightEval sẽ là quản lý độ phức tạp của đánh giá AI khi các mô hình tiếp tục phát triển.
📌 LightEval của Hugging Face mở ra kỷ nguyên mới cho đánh giá và trách nhiệm giải trình AI. Công cụ mã nguồn mở này cho phép tùy chỉnh linh hoạt, minh bạch và hỗ trợ đa nền tảng, giúp doanh nghiệp đảm bảo mô hình AI đáng tin cậy, công bằng và hiệu quả trong các ứng dụng thực tế ngày càng phức tạp.
https://venturebeat.com/ai/lighteval-hugging-faces-open-source-solution-to-ais-accountability-problem/
• IBM Research đã giới thiệu Docling, một gói phần mềm mã nguồn mở được thiết kế đặc biệt để chuyển đổi tài liệu PDF sang các định dạng có thể xử lý bằng máy.
• Docling sử dụng các mô hình AI chuyên biệt cho phân tích bố cục và nhận dạng cấu trúc bảng, bao gồm DocLayNet và TableFormer. Các mô hình này được đào tạo trên các bộ dữ liệu lớn và có thể xử lý nhiều loại tài liệu và định dạng khác nhau.
• Công cụ này hoạt động hiệu quả trên phần cứng thông thường, có thể cấu hình cho xử lý hàng loạt và sử dụng tương tác.
• Quy trình xử lý của Docling bao gồm các bước: phân tích cú pháp tài liệu PDF, trích xuất token văn bản và tọa độ hình học, áp dụng mô hình AI để phân tích bố cục, nhận dạng các phần tử như bảng và hình ảnh, tái tạo cấu trúc gốc với độ chính xác cao.
• Mô hình TableFormer của Docling có khả năng nhận dạng các cấu trúc bảng phức tạp, bao gồm cả những bảng không có đường viền, trải dài nhiều hàng hoặc cột, hoặc chứa các ô trống.
• Kết quả phân tích được tổng hợp và xử lý sau để nâng cao metadata, xác định ngôn ngữ tài liệu và sửa thứ tự đọc. Tài liệu chuyển đổi được xuất ra dưới dạng JSON hoặc Markdown.
• Trong các bài kiểm tra trên bộ dữ liệu 225 trang, Docling đã xử lý tài liệu với độ trễ dưới 1 giây/trang trên một CPU.
• Trên MacBook Pro M3 Max 16 nhân, Docling xử lý 92 trang trong 103 giây sử dụng 16 luồng, đạt thông lượng 2,45 trang/giây.
• Trên phần cứng cũ hơn như Intel Xeon E5-2690, Docling vẫn duy trì hiệu suất tốt, xử lý 143 trang trong 239 giây với 16 luồng.
• Docling giải quyết các thách thức trong chuyển đổi tài liệu PDF phức tạp, bao gồm việc mất các tính năng cấu trúc, khó khăn trong việc khôi phục bảng, hình ảnh và thứ tự đọc.
• Công cụ này khắc phục những hạn chế của các giải pháp hiện có, cả thương mại và mã nguồn mở, trong việc xử lý bố cục tài liệu phức tạp và nhận dạng bảng chính xác.
• Docling cung cấp một giải pháp mạnh mẽ và linh hoạt cho chuyển đổi tài liệu, phù hợp cho cả nhà nghiên cứu học thuật và doanh nghiệp thương mại.
📌 Docling của IBM Research là công cụ AI mã nguồn mở tiên tiến cho chuyển đổi PDF, xử lý 2,45 trang/giây trên MacBook Pro M3 Max. Nó giải quyết các thách thức về bảo toàn cấu trúc và nhận dạng bảng phức tạp, phù hợp cho cả nghiên cứu và ứng dụng thương mại.
https://www.marktechpost.com/2024/09/06/ibm-research-open-sources-docling-an-ai-tool-for-high-precision-pdf-document-conversion-and-structural-integrity-maintenance-across-complex-layouts/
• OpenPerPlex là một công cụ tìm kiếm AI nguồn mở mới được giới thiệu nhằm giải quyết các thách thức trong việc tìm kiếm thông tin trực tuyến.
• Công cụ này kết hợp nhiều công nghệ tiên tiến để cải thiện khả năng tìm kiếm và độ chính xác của kết quả:
- Sử dụng phân đoạn ngữ nghĩa để hiểu và xử lý truy vấn tìm kiếm tốt hơn
- Hệ thống xếp hạng lại để tinh chỉnh kết quả dựa trên mức độ liên quan
- Tích hợp với Google Search thông qua API chuyên biệt để mở rộng phạm vi thông tin
- Sử dụng công cụ suy luận mạnh mẽ để xử lý hiệu quả
• Các tính năng nổi bật của OpenPerPlex:
- Hỗ trợ cập nhật thời gian thực
- Cho phép truy vấn dựa trên URL để truy xuất nội dung web cụ thể
- Cung cấp gói miễn phí với 500 yêu cầu mỗi tháng
• OpenPerPlex giải quyết những hạn chế của các công cụ tìm kiếm truyền thống:
- Các công cụ hiện tại thường dựa vào tìm kiếm từ khóa và thuật toán xếp hạng không hiểu đầy đủ ngữ cảnh truy vấn
- Khó tìm thông tin chính xác cho các truy vấn phức tạp hoặc chủ đề cụ thể
- Người dùng thường gặp khó khăn trong việc truy xuất thông tin liên quan và hữu ích
• Mục tiêu của OpenPerPlex là giúp người dùng tìm câu trả lời chính xác nhanh chóng, làm cho việc tìm kiếm hiệu quả và ít gây khó chịu hơn.
• Công cụ này đại diện cho một bước tiến quan trọng trong lĩnh vực công cụ tìm kiếm được hỗ trợ bởi AI.
• OpenPerPlex có thể mang lại lợi ích cho cả cá nhân và dự án nhỏ thông qua gói miễn phí của nó.
• Việc tích hợp với Google Search giúp mở rộng phạm vi thông tin có sẵn, trong khi vẫn duy trì khả năng xử lý và phân tích nâng cao của riêng nó.
📌 OpenPerPlex là công cụ tìm kiếm AI nguồn mở mới kết hợp phân đoạn ngữ nghĩa, xếp hạng lại và tích hợp Google. Cung cấp 500 yêu cầu/tháng miễn phí, hỗ trợ cập nhật thời gian thực và truy vấn URL, giúp tìm kiếm chính xác và hiệu quả hơn.
https://www.marktechpost.com/2024/09/06/openperplex-a-new-open-source-ai-search-engine-that-leverages-cutting-edge-technologies-to-provide-search-capabilities-over-the-web/
• Aleph Alpha, một trong số ít công ty phát triển mô hình ngôn ngữ lớn (LLM) ở châu Âu, đang chuẩn bị rút lui khỏi cuộc đua này theo thông tin từ Bloomberg.
• CEO Jonas Andrulis đã chia sẻ về việc công ty chuyển hướng sang một mô hình kinh doanh rộng hơn, tập trung vào hỗ trợ AI tạo sinh.
• Tuần trước, Aleph Alpha đã ra mắt sản phẩm mới có tên PhariaAI, nhằm hỗ trợ các công ty khác hoặc khu vực công sử dụng các công cụ AI, bất kể công nghệ nền tảng do ai phát triển.
• Andrulis nhận định: "Thế giới đã thay đổi. Chỉ có một LLM châu Âu là không đủ làm mô hình kinh doanh. Nó không thể biện minh cho khoản đầu tư."
• Aleph Alpha đã huy động được 500 triệu USD trong vòng gọi vốn Series B vào tháng 11 năm ngoái.
• Tuy nhiên, công ty phải đối mặt với sự cạnh tranh gay gắt từ các "gã khổng lồ" trong ngành như OpenAI với nguồn tài chính dồi dào hơn nhiều để thúc đẩy phát triển.
• Gần đây hơn, đối thủ Mistral của Pháp cũng đã huy động được nhiều vốn đầu tư hơn, tạo thêm áp lực cạnh tranh cho Aleph Alpha.
• Quyết định chuyển hướng của Aleph Alpha phản ánh thực tế khó khăn mà các công ty AI châu Âu phải đối mặt khi cạnh tranh với các đối thủ có nguồn lực lớn hơn từ Mỹ và Trung Quốc.
• Động thái này cũng cho thấy sự thay đổi trong chiến lược của công ty, từ tập trung vào phát triển LLM sang cung cấp các giải pháp hỗ trợ AI tổng quát cho nhiều đối tượng khách hàng hơn.
• PhariaAI có thể là bước đi quan trọng giúp Aleph Alpha tìm kiếm vị thế mới trên thị trường AI đang phát triển nhanh chóng và cạnh tranh gay gắt.
📌 Aleph Alpha, công ty AI Đức từng huy động 500 triệu USD, chuyển hướng từ phát triển LLM sang hỗ trợ AI tổng quát với sản phẩm PhariaAI. Quyết định này phản ánh thực tế cạnh tranh khốc liệt trong ngành, đặc biệt với các đối thủ lớn như OpenAI và Mistral.
https://techcrunch.com/2024/09/05/german-llm-maker-aleph-alpha-pivots-to-ai-support/
• Gemini Extensions là các tính năng mở rộng cho phép chatbot AI Gemini của Google truy cập và tương tác với các dịch vụ web khác nhau như Google Maps, YouTube Music, Gmail v.v.
• Mục đích chính của Extensions là giúp Gemini có thể truy cập thông tin cá nhân hóa và thời gian thực, từ đó đưa ra các câu trả lời chính xác và đáng tin cậy hơn.
• Một số ví dụ về khả năng của Gemini Extensions:
- Lập kế hoạch chuyến đi với thông tin chuyến bay, khách sạn và địa điểm du lịch thực tế
- Tìm kiếm thông tin trong email cũ một cách nhanh chóng
- Tóm tắt nội dung video YouTube dài
- Tạo playlist nhạc dựa trên tâm trạng hiện tại
• Để sử dụng, người dùng cần bật các Extensions mong muốn trong phần Cài đặt của ứng dụng Gemini trên desktop hoặc Android. Một số Extensions như Gmail, Google Drive sẽ tắt mặc định để bảo vệ quyền riêng tư.
• Các Extensions hàng đầu và cách sử dụng:
- YouTube: Tóm tắt video, trích xuất hướng dẫn từng bước
- Google Workspace: Tìm kiếm thông tin trong email và tài liệu
- Flights & Hotels: Lên kế hoạch chuyến đi với thông tin chuyến bay và khách sạn thực tế
- Maps: Tìm kiếm địa điểm, nhà hàng dựa trên đánh giá
- YouTube Music: Tìm kiếm bài hát, nghệ sĩ, playlist
• Gemini Extensions hiện chỉ hỗ trợ các dịch vụ của Google, nhưng trong tương lai có thể mở rộng sang các ứng dụng bên thứ ba như Spotify, WhatsApp.
• Tính năng này hoàn toàn miễn phí, không yêu cầu đăng ký Gemini Advanced trả phí.
• Google đang phát triển thêm các Extensions mới như gọi điện thoại, điều khiển thiết bị thông minh, đọc tin nhắn từ các ứng dụng chat.
📌 Gemini Extensions mở rộng đáng kể khả năng của chatbot AI của Google, cho phép nó thực hiện các tác vụ thực tế hữu ích. Với 5 Extensions chính hiện có, người dùng có thể tận dụng Gemini để lên kế hoạch chuyến đi, tìm kiếm thông tin, tóm tắt video một cách nhanh chóng và hiệu quả hơn.
https://www.androidauthority.com/gemini-extensions-3477277/
• GuideLLM là một công cụ nguồn mở mạnh mẽ được phát triển bởi Neural Magic nhằm đánh giá và tối ưu hóa việc triển khai các mô hình ngôn ngữ lớn (LLM).
• Công cụ này giúp người dùng đánh giá hiệu suất, nhu cầu tài nguyên và chi phí khi triển khai LLM trên các cấu hình phần cứng khác nhau thông qua mô phỏng các khối lượng công việc suy luận trong thế giới thực.
• Các tính năng chính của GuideLLM bao gồm:
- Đánh giá hiệu suất dưới các kịch bản tải khác nhau
- Tối ưu hóa tài nguyên bằng cách đánh giá các cấu hình phần cứng khác nhau
- Ước tính chi phí cho các chiến lược triển khai khác nhau
- Kiểm tra khả năng mở rộng để xử lý số lượng lớn người dùng đồng thời
• GuideLLM hỗ trợ hệ điều hành Linux và MacOS, yêu cầu Python phiên bản 3.8 đến 3.12. Có thể cài đặt dễ dàng thông qua PyPI bằng lệnh pip.
• Để sử dụng, người dùng cần khởi động một máy chủ tương thích OpenAI như vLLM. GuideLLM cung cấp giao diện dòng lệnh để chạy đánh giá bằng cách chỉ định tên mô hình và chi tiết máy chủ.
• Công cụ này đo lường các chỉ số hiệu suất quan trọng như độ trễ yêu cầu, thời gian đến token đầu tiên (TTFT) và độ trễ giữa các token (ITL).
• GuideLLM có thể tùy chỉnh cao, cho phép người dùng điều chỉnh thời lượng chạy benchmark, số lượng yêu cầu đồng thời và tốc độ yêu cầu để phù hợp với kịch bản triển khai của họ.
• Kết quả đánh giá giúp xác định các nút thắt cổ chai về hiệu suất, tối ưu hóa tốc độ yêu cầu và lựa chọn cấu hình phần cứng hiệu quả về chi phí nhất.
• Neural Magic khuyến khích sự tham gia của cộng đồng trong việc phát triển và cải tiến GuideLLM. Dự án này là nguồn mở và được cấp phép theo Apache License 2.0.
📌 GuideLLM là công cụ nguồn mở mạnh mẽ giúp tối ưu hóa triển khai LLM. Nó đánh giá hiệu suất, tài nguyên và chi phí trên các cấu hình phần cứng khác nhau. Với các tính năng như kiểm tra khả năng mở rộng và tùy chỉnh cao, GuideLLM giúp triển khai LLM hiệu quả và tiết kiệm chi phí trong môi trường thực tế.
https://www.marktechpost.com/2024/08/31/guidellm-released-by-neural-magic-a-powerful-tool-for-evaluating-and-optimizing-the-deployment-of-large-language-models-llms/
• Tác giả gặp khó khăn khi cài đặt ChatGPT cho Excel nên đã tìm đến giải pháp thay thế là GPT Excel - một trợ lý AI với hơn 500.000 người dùng, được thiết kế riêng cho Excel và Google Sheets.
• GPT Excel có phiên bản miễn phí và trả phí (7 USD/tháng) với các tính năng như AI Chat, tạo và giải thích công thức, tự động hóa tác vụ, SQL, xác thực và lọc dữ liệu, tạo mẫu bảng.
• Để tóm tắt dữ liệu bảng tính bằng GPT Excel:
1. Tạo tài khoản miễn phí
2. Chọn trang Formulas và tab Explained
3. Nhập dữ liệu vào ô copy-paste
4. Kết quả tóm tắt sẽ được tạo ra trong ô văn bản bên dưới
• Ưu điểm của GPT Excel:
- Quen thuộc với người dùng Excel
- Giao diện đơn giản, dễ sử dụng
- Phiên bản miễn phí đủ dùng, không cần đăng ký trả phí
• Một số công cụ AI khác để tóm tắt dữ liệu Excel:
- Knowt: Tập trung vào giáo dục, tạo ghi chú và flashcard từ dữ liệu (2-13 USD/tháng)
- Ajelix BI: 15 công cụ năng suất, giảm 50% thời gian xử lý vấn đề (miễn phí - 200 USD/tháng)
- Julius AI: Phân tích dữ liệu lớn, tạo trực quan hóa, dự báo (có phiên bản miễn phí)
- Rows: Phân tích, tóm tắt và chuyển đổi dữ liệu (miễn phí - 30 USD/tháng)
• Mặc dù ban đầu không thể cài đặt ChatGPT cho Excel, tác giả đã tìm thấy nhiều giải pháp thay thế hữu ích để tóm tắt và phân tích dữ liệu bảng tính.
📌 GPT Excel là công cụ AI đơn giản nhưng hiệu quả để tóm tắt dữ liệu Excel, với hơn 500.000 người dùng. Ngoài ra còn có các lựa chọn khác như Knowt, Ajelix BI, Julius AI và Rows, giúp phân tích dữ liệu nhanh chóng với chi phí từ miễn phí đến 200 USD/tháng.
https://www.cnet.com/tech/services-and-software/how-to-use-ai-to-summarize-an-excel-sheet/
• Google vừa công bố tính năng Gems cho Gemini Advanced, Business và Enterprise. Đây là các phiên bản tùy chỉnh của Gemini có thể được điều chỉnh cho các chủ đề và vai trò cụ thể.
• Gems được xem như phản ứng của Google trước GPT Store của OpenAI. Tính năng này được công bố từ tháng 5 nhưng đến nay mới chính thức ra mắt.
• Người dùng có thể tạo Gems riêng cho các mục đích như tập gym, dạy kèm toán, nấu ăn, chạy bộ,...
• Google cung cấp sẵn 5 mẫu Gems để người dùng bắt đầu:
- Learning coach: Chia nhỏ các chủ đề, giúp dễ hiểu hơn
- Brainstormer: Đưa ra ý tưởng cho mọi thứ từ tổ chức tiệc đến quà sinh nhật
- Career guide: Đưa ra kế hoạch chi tiết để nâng cao kỹ năng và đạt mục tiêu nghề nghiệp
- Writing editor: Đưa ra phản hồi rõ ràng về bài viết, bao gồm ngữ pháp và cấu trúc
- Coding partner: Hỗ trợ xây dựng dự án và cải thiện kỹ năng lập trình
• Tính năng Gems đang được triển khai cho người đăng ký Gemini Advanced, Business và Enterprise trên cả di động và máy tính để bàn. Tuy nhiên, có thể mất vài ngày để tính năng xuất hiện với tất cả người dùng.
• Cùng ngày, Google cũng thông báo mô hình tạo hình ảnh Imagen 3 đã có sẵn trên Gemini, Gemini Advanced, Business và Enterprise.
• Gems được kỳ vọng sẽ mang lại trải nghiệm AI tùy chỉnh và chuyên biệt hơn cho người dùng Gemini, tương tự như cách GPT Store của OpenAI cho phép tạo các chatbot tùy chỉnh.
• Việc ra mắt Gems cho thấy Google đang nỗ lực cạnh tranh với OpenAI trong lĩnh vực AI tạo sinh, đặc biệt là khả năng tùy chỉnh và chuyên biệt hóa các mô hình ngôn ngữ lớn.
📌 Google ra mắt Gems - phiên bản Gemini tùy chỉnh cho các chủ đề cụ thể như tập gym, dạy kèm toán. 5 mẫu có sẵn gồm Learning coach, Brainstormer, Career guide, Writing editor và Coding partner. Tính năng đã có cho người đăng ký Gemini Advanced, Business và Enterprise.
https://www.androidauthority.com/gemini-gems-release-3475900/
• Artifacts - một trong những tính năng AI sáng tạo và hữu ích nhất năm qua, nay đã được Anthropic cung cấp miễn phí cho tất cả người dùng Claude, kể cả gói miễn phí.
• Artifacts cho phép người dùng yêu cầu Claude tạo mã, văn bản hoặc đồ họa và hiển thị chính xác trong thanh bên. Đây là cách tuyệt vời để tạo mẫu ứng dụng hoặc xây dựng trò chơi nhanh chóng.
• Tính năng này cũng đã có mặt trên ứng dụng di động iOS và Android, cho phép xem và tạo Artifacts trên thiết bị di động. Mỗi Artifact có thể được chia sẻ và chỉnh sửa lại.
• Bài viết giới thiệu 7 ý tưởng Artifact mới mà người dùng có thể thử nghiệm:
1. Máy tính đơn giản: Sử dụng React để tạo máy tính thực hiện các phép tính cơ bản.
2. Trò chơi tic-tac-toe: Thiết kế trò chơi 3x3 với AI điều khiển người chơi thứ hai.
3. Ứng dụng todo: Phát triển ứng dụng danh sách việc cần làm với các tính năng thêm, hoàn thành và xóa công việc.
4. Đồng hồ Pomodoro: Tạo ứng dụng hẹn giờ Pomodoro với thời gian làm việc và nghỉ ngơi có thể tùy chỉnh.
5. Ứng dụng vẽ: Xây dựng ứng dụng vẽ đơn giản với các công cụ vẽ tự do, thêm hình dạng và thay đổi màu sắc.
6. Bàn phím piano: Thiết kế bàn phím piano tương tác một quãng tám sử dụng SVG và React.
7. Tạo avatar: Phát triển công cụ tạo avatar tùy chỉnh với các tùy chọn cho khuôn mặt, mắt, mũi, miệng và tóc.
• Để tạo các Artifact này, người dùng cần cung cấp prompt cụ thể cho Claude, sử dụng các từ khóa như "React" và "artifact".
• Có thể nâng cấp và cải thiện các Artifact bằng cách yêu cầu Claude "make it better" hoặc "make it prettier".
• Mỗi phiên Claude mới là bắt đầu của một cuộc trò chuyện, vì vậy người dùng có thể dễ dàng thêm chi tiết và tính năng bổ sung trong các prompt tiếp theo.
📌 Claude Artifacts mở ra khả năng sáng tạo vô hạn cho người dùng, cho phép tạo ra các ứng dụng và trò chơi đơn giản chỉ bằng vài dòng prompt. Với 7 ý tưởng được giới thiệu, người dùng có thể bắt đầu khám phá tiềm năng của tính năng mới này ngay lập tức mà không mất phí.
https://www.tomsguide.com/ai/claude-artifacts-are-now-free-for-all-7-prompts-to-try-it-for-yourself
• Tính năng Artifacts của Claude AI hiện đã được phát hành chính thức và có sẵn cho tất cả người dùng trên các gói Free, Pro và Team, cả trên web và ứng dụng di động iOS/Android.
• Artifacts cho phép người dùng tạo và hiển thị kết quả được định dạng đầy đủ trong thời gian thực, bên cạnh cuộc trò chuyện với AI. Điều này giúp hợp lý hóa quy trình làm việc so với việc phải sao chép/dán kết quả vào chương trình riêng biệt.
• Tính năng này có thể được sử dụng để tạo và trực quan hóa đoạn mã, lưu đồ, đồ họa, trang web và bảng điều khiển tương tác.
• Một số ứng dụng tiềm năng bao gồm: lập trình viên tạo sơ đồ từ codebase, quản lý sản phẩm tạo nguyên mẫu tương tác, nhà thiết kế tạo trực quan hóa, nhà tiếp thị tạo bảng điều khiển chiến dịch, nhân viên bán hàng tạo đường ống bán hàng với dự báo.
• Ví dụ về tạo trang web: Người dùng có thể yêu cầu Claude tạo trang web về một chủ đề cụ thể. Claude sẽ tạo mã HTML/CSS và hiển thị trang web được định dạng để xem ngay lập tức.
• Người dùng có thể dễ dàng chỉnh sửa yêu cầu và Claude sẽ tái tạo trang web với thông tin mới. Có thể chuyển đổi giữa mã nguồn và trang hoàn chỉnh, cũng như chỉnh sửa mã trực tiếp nếu cần.
• Ban đầu, Claude hiển thị placeholder cho hình ảnh và bản đồ. Cần làm việc thêm với AI để thay thế bằng hình ảnh miễn phí bản quyền và bản đồ tương tác từ API bản đồ miễn phí.
• Khi hoàn thành, người dùng có thể xuất bản sản phẩm trên trang web Artifacts của Anthropic để mọi người có thể xem.
• Tác giả đánh giá Artifacts là một trong những tính năng AI tạo sinh thú vị nhất mà họ từng thấy, gọi nó là "thực sự tuyệt vời".
• Tính năng này đã được ra mắt dưới dạng bản xem trước trên web vào tháng 6 và hiện đã được hoàn thiện đầy đủ.
• Theo Anthropic, người dùng đã tạo ra hàng chục triệu Artifacts kể từ khi ra mắt bản xem trước.
📌 Tính năng Artifacts của Claude AI mang lại trải nghiệm tương tác mới với AI tạo sinh, cho phép hiển thị kết quả thời gian thực bên cạnh cuộc trò chuyện. Đã có sẵn trên web và di động cho tất cả người dùng, với hàng chục triệu Artifacts được tạo ra kể từ bản xem trước tháng 6.
https://www.zdnet.com/article/why-claudes-artifacts-is-the-coolest-feature-ive-seen-in-generative-ai-so-far/
• Google vừa phát hành 3 phiên bản thử nghiệm mới trong dòng mô hình Gemini 1.5:
- Gemini 1.5 Flash-8B: mô hình nhỏ hơn với 8 tỷ tham số
- Gemini 1.5 Pro cải tiến: mạnh hơn ở toán học, lập trình và xử lý yêu cầu phức tạp
- Gemini 1.5 Flash cải tiến: hiệu suất tốt hơn trên một số tiêu chuẩn đánh giá nội bộ
• Mục đích của việc phát hành các mô hình thử nghiệm là để thu thập phản hồi và đưa các cập nhật mới nhất đến tay các nhà phát triển.
• Gemini 1.5 Pro phiên bản mới (0827) sẽ thay thế phiên bản cũ (0801) từ ngày 3/9.
• Trên bảng xếp hạng Chatbot Arena, Gemini 1.5 Pro mới xếp hạng #2 và Flash xếp hạng #6, ngang ngửa với GPT-4o và GPT-4o mini. Cả hai đều vượt qua Claude 3.5 Sonnet, Grok 2, Grok 2 mini và Llama 3.1.
• Dòng Gemini 1.5 được thiết kế để xử lý ngữ cảnh rất dài, có thể xử lý đầu vào đa phương thức như toàn bộ bộ sưu tập tài liệu, nhiều giờ video và gần 5 ngày âm thanh.
• Gemini 1.5 đạt độ chính xác gần như hoàn hảo (>99%) trong truy xuất thông tin với tối đa 10 triệu token, vượt xa Claude 3.0 (200.000 token) và GPT-4 Turbo (128.000 token).
• Theo báo cáo kỹ thuật, Gemini 1.5 có thể giúp các chuyên gia tiết kiệm tới 75% thời gian cho các tác vụ trong 10 danh mục công việc.
• Một khả năng đáng chú ý của Gemini 1.5 là học dịch từ tiếng Anh sang tiếng Kalamang (ngôn ngữ chỉ có dưới 200 người nói) ở mức độ tương đương con người chỉ từ một cuốn sách ngữ pháp.
• Phản ứng của người dùng về các mô hình thử nghiệm này còn trái chiều. Một số khen ngợi tốc độ phát hành nhanh chóng của Google, trong khi số khác tỏ ra không ấn tượng và yêu cầu phát hành Gemini 2.0.
• Google dự kiến sẽ ra mắt phiên bản sản xuất trong vài tuần tới, kèm theo các đánh giá chi tiết.
• Người dùng có thể dùng thử cả 3 mô hình miễn phí trên Google AI Studio và Gemini API ngay từ hôm nay.
📌 Google mở rộng dòng Gemini 1.5 với 3 mô hình thử nghiệm mới, đạt độ chính xác truy xuất >99% với 10 triệu token, vượt xa GPT-4 Turbo (128.000 token). Gemini 1.5 Pro xếp hạng #2 trên Chatbot Arena, ngang ngửa GPT-4o. Người dùng có thể dùng thử miễn phí ngay hôm nay.
https://www.zdnet.com/article/googles-new-gemini-models-can-process-almost-five-days-of-audio/
• Google Meet vừa giới thiệu tính năng "Take notes for me" (Ghi chú cho tôi) sử dụng AI Gemini để tự động ghi chép và tạo báo cáo cuộc họp.
• Tính năng này hiện chỉ khả dụng cho một số người dùng trả phí của Google Workspace.
• Để kích hoạt, người dùng chọn biểu tượng bút chì ở góc phải màn hình Google Meet. Tất cả người tham gia sẽ thấy biểu tượng chuyển sang màu xanh để biết tính năng đang hoạt động.
• Người dùng có thể nhấp vào biểu tượng để xem ghi chú cuộc họp theo thời gian thực.
• Sau cuộc họp, một tài liệu ghi chú sẽ được đính kèm vào sự kiện Google Calendar và người quản trị cuộc họp sẽ nhận được email chứa liên kết đến tài liệu này.
• Tài liệu ghi chú cũng sẽ được lưu trong Google Drive của người tổ chức cuộc họp.
• Nếu có ai bật tính năng ghi âm hoặc phiên âm trong cùng cuộc họp, sẽ có liên kết đến nội dung này trong tài liệu ghi chú.
• Tính năng "Take notes for me" chỉ hoạt động với các cuộc họp được tiến hành bằng tiếng Anh nói.
• Đây là một trong những tính năng AI mới của Google, tương tự như công cụ tóm tắt AI cho Files và công cụ "Polish" email trong Gmail sử dụng Gemini.
• Tại sự kiện "Made For Google" gần đây, Google đã công bố nhiều cập nhật cho Gmail sử dụng Gemini, bao gồm công cụ tóm tắt email và khả năng đặt câu hỏi cho Gemini về hộp thư đến.
• Tính năng này tương tự như các giải pháp của đối thủ cạnh tranh như Zoom Notes hoặc OtterPilot.
📌 Google Meet ra mắt tính năng ghi chú tự động bằng AI Gemini cho người dùng Workspace, tạo báo cáo cuộc họp tiếng Anh. Tính năng này tương tự Zoom Notes, OtterPilot, phản ánh xu hướng ứng dụng AI vào công cụ làm việc trực tuyến.
https://sea.mashable.com/tech/34000/google-meet-will-now-take-notes-for-you
- YouTube đã công bố một công cụ chatbot AI mới nhằm hỗ trợ người dùng khôi phục tài khoản bị hack.
- Công cụ này được mô tả là một "công cụ xử lý sự cố" và có thể truy cập qua Trung tâm Trợ giúp của YouTube.
- Chatbot sẽ đặt ra một loạt câu hỏi cho các nhà sáng tạo bị hack để hướng dẫn họ bảo mật lại tài khoản Google và khôi phục các thay đổi trên kênh YouTube.
- Hiện tại, chatbot chỉ hỗ trợ bằng tiếng Anh và chỉ một số nhà sáng tạo nhất định có thể truy cập vào các tính năng xử lý sự cố.
- Google cho biết sẽ mở rộng tính năng này cho tất cả các nhà sáng tạo YouTube trong tương lai.
- Đánh giá ban đầu cho thấy chatbot hoạt động khá ổn, không có dấu hiệu của AI tạo sinh bất thường.
- Tuy nhiên, công cụ này không giải quyết được một trong những phàn nàn lớn của các nhà sáng tạo: khó khăn trong việc liên hệ với YouTube khi gặp sự cố.
- Việc tiếp cận trực tiếp với đại diện YouTube thường chỉ dành cho những nhà sáng tạo lớn trong chương trình đối tác, trong khi các tài khoản nhỏ hơn phải tự giải quyết qua các trang trợ giúp hoặc phản hồi tự động.
- Sự xuất hiện của chatbot AI có thể khiến các nhà sáng tạo thất vọng vì không thấy cải thiện trong cách YouTube giao tiếp với người dùng.
- Các vấn đề như hack tài khoản đã ảnh hưởng đến cả những nhà sáng tạo lớn như Linus Tech Tips, và việc khôi phục tài khoản thường mất nhiều thời gian cho các tài khoản nhỏ hơn.
📌 YouTube đã ra mắt chatbot AI hỗ trợ khôi phục tài khoản bị hack, hiện chỉ dành cho một số nhà sáng tạo nhất định. Công cụ này không giải quyết được vấn đề liên lạc khó khăn với YouTube, đặc biệt là cho các tài khoản nhỏ.
https://www.theverge.com/2024/8/22/24225690/youtube-support-restore-hacked-channels-ai-chatbot
- FocusLLM là một khung AI được phát triển bởi các nhà nghiên cứu từ Đại học Thanh Hoa và Đại học Xiamen, nhằm nâng cao khả năng xử lý ngữ cảnh dài cho các mô hình ngôn ngữ.
- Khung này cho phép các mô hình ngôn ngữ xử lý văn bản lên đến 400K token với chi phí đào tạo tối thiểu.
- Các mô hình truyền thống gặp khó khăn với ngữ cảnh dài do độ phức tạp bậc hai, dẫn đến chi phí đào tạo cao và khó khăn trong việc có được dữ liệu văn bản dài chất lượng cao.
- FocusLLM chia nhỏ văn bản dài thành các đoạn và sử dụng cơ chế giải mã song song để trích xuất và tích hợp thông tin liên quan.
- Phương pháp này giúp cải thiện hiệu quả đào tạo và tính linh hoạt, cho phép mô hình xử lý văn bản dài mà không gặp phải vấn đề thông tin bị mất.
- Các phương pháp trước đây như điều chỉnh cơ chế chú ý hoặc nén token thường dẫn đến mất thông tin, ảnh hưởng đến độ chính xác trong các tác vụ như xác minh và trả lời câu hỏi.
- FocusLLM sử dụng kiến trúc LLM được điều chỉnh để xử lý các chuỗi văn bản rất dài, với mỗi đoạn được xử lý bởi một bộ giải mã mở rộng có các tham số có thể đào tạo.
- Việc thêm ngữ cảnh cục bộ vào mỗi đoạn cho phép giải mã song song, nơi các token ứng cử được tạo ra đồng thời trên các đoạn.
- Khung này sử dụng hàm mất mát tự hồi quy, tập trung vào việc dự đoán token tiếp theo, cùng với hai hàm mất mát khác là Continuation và Repetition loss.
- FocusLLM đã được đào tạo hiệu quả trên 8×A100 GPUs và vượt qua các mô hình khác như LLaMA-2-7B trong các tác vụ ngôn ngữ và các tác vụ hạ nguồn.
- Nó duy trì độ perplexity ổn định ngay cả với các chuỗi dài, cho thấy hiệu suất vượt trội trong các bài kiểm tra Longbench và ∞-Bench.
- Thiết kế của FocusLLM với giải mã song song và xử lý đoạn hiệu quả cho phép nó xử lý các chuỗi dài mà không gặp phải gánh nặng tính toán của các mô hình khác.
📌 FocusLLM là một khung AI tiên tiến giúp xử lý ngữ cảnh dài lên đến 400K token với chi phí đào tạo tối thiểu. Nó vượt trội trong các tác vụ ngôn ngữ và duy trì độ perplexity thấp, trở thành giải pháp hiệu quả cho các ứng dụng ngữ cảnh dài.
https://www.marktechpost.com/2024/08/25/focusllm-a-scalable-ai-framework-for-efficient-long-context-processing-in-language-models/
• Các mô hình ngôn ngữ lớn (LLM) đang phát triển mạnh mẽ nhưng đi kèm với vấn đề ảo giác - tạo ra thông tin sai lệch hoặc gây hiểu nhầm. Điều này đặc biệt nguy hiểm trong các lĩnh vực quan trọng như y tế, tài chính và luật pháp.
• Pythia là công cụ phát hiện ảo giác AI hiện đại, sử dụng đồ thị kiến thức tiên tiến để xác minh nội dung một cách nghiêm ngặt. Nó có khả năng phát hiện và giám sát thời gian thực, đặc biệt hữu ích cho chatbot và ứng dụng RAG.
• Galileo tập trung vào việc xác minh độ chính xác thực tế của đầu ra LLM bằng cách sử dụng cơ sở dữ liệu và đồ thị kiến thức bên ngoài. Nó hoạt động theo thời gian thực và cung cấp bối cảnh cho logic đằng sau các cờ báo hiệu.
• Cleanlab tập trung vào việc làm sạch và cải thiện dữ liệu trước khi áp dụng để đào tạo mô hình. Nó có thể tự động xác định các bản sao, ngoại lệ và dữ liệu được gắn nhãn sai trong nhiều định dạng dữ liệu.
• Guardrail AI bảo vệ tính toàn vẹn và tuân thủ của hệ thống AI, đặc biệt trong các lĩnh vực được quản lý chặt chẽ. Nó sử dụng các khung kiểm toán tiên tiến để giám sát chặt chẽ các quyết định của AI.
• FacTool là phần mềm nguồn mở được thiết kế để phát hiện và xử lý ảo giác trong đầu ra của ChatGPT và các LLM khác. Nó có thể phát hiện lỗi thực tế trong nhiều ứng dụng khác nhau.
• SelfCheckGPT cung cấp một phương pháp tiềm năng để phát hiện ảo giác trong LLM, đặc biệt trong các tình huống hạn chế truy cập vào cơ sở dữ liệu bên ngoài hoặc nội bộ mô hình.
• RefChecker do Amazon Science phát triển, đánh giá và xác định ảo giác trong đầu ra của LLM bằng cách chia nhỏ câu trả lời của mô hình thành các bộ ba kiến thức.
• TruthfulQA là một tiêu chuẩn được tạo ra để đánh giá mức độ trung thực của các mô hình ngôn ngữ khi tạo ra câu trả lời. Nó bao gồm 817 câu hỏi trải rộng trên 38 lĩnh vực.
• FACTOR (Factual Assessment via Corpus TransfORmation) đánh giá độ chính xác của mô hình ngôn ngữ trong các lĩnh vực cụ thể bằng cách chuyển đổi một kho ngữ liệu thực tế thành một điểm chuẩn.
• Med-HALT cung cấp một bộ dữ liệu quốc tế lớn và không đồng nhất được lấy từ các kỳ thi y khoa được thực hiện ở nhiều quốc gia để đánh giá và giảm thiểu ảo giác trong lĩnh vực y tế.
• HalluQA (Chinese Hallucination Question-Answering) là một công cụ đánh giá ảo giác trong các mô hình ngôn ngữ lớn tiếng Trung. Nó bao gồm 450 câu hỏi đối kháng được xây dựng bởi chuyên gia, bao gồm nhiều chủ đề.
📌 Năm 2024 chứng kiến sự phát triển mạnh mẽ của 10 công cụ phát hiện ảo giác AI hàng đầu, từ Pythia đến HalluQA. Các công cụ này đóng vai trò quan trọng trong việc nâng cao độ tin cậy của hệ thống AI, đặc biệt trong các lĩnh vực nhạy cảm như y tế và tài chính, với khả năng phát hiện lỗi thời gian thực và độ chính xác cao.
https://www.marktechpost.com/2024/08/26/top-artificial-intelligence-ai-hallucination-detection-tools/
• Napkin.ai là công cụ AI mới ra mắt ngày 7/8, chuyển đổi văn bản thành các biểu đồ trực quan trong vài giây.
• Cách sử dụng: Nhập hoặc dán văn bản liên quan đến nội dung bạn đang viết/thuyết trình. Sau vài giây, công cụ sẽ tạo ra nhiều hình ảnh trực quan như sơ đồ, biểu đồ, bản đồ tư duy.
• Người dùng có thể chọn hình ảnh phù hợp, tùy chỉnh màu sắc, biểu tượng, chỉnh sửa văn bản/hình ảnh. Sau đó xuất file PNG, SVG hoặc PDF, hoặc chia sẻ link.
• Hiện đang miễn phí trong giai đoạn beta, có thể tạo không giới hạn đồ họa trên trình duyệt desktop.
• Ứng dụng: Thêm hình ảnh vào bài thuyết trình thay vì dùng bullet points, minh họa khái niệm phức tạp trong lớp học/hội thảo, bổ sung đồ họa dữ liệu cho bài viết/bản tin.
• Ví dụ sử dụng: Tạo biểu đồ về sự đánh đổi giữa chất lượng và số lượng trong báo chí, minh họa khung "Pick, Stick and Dig" về cách chọn công cụ số.
• Có 2 cách tạo đồ họa: Để AI tạo từ văn bản hoặc tự thiết kế từ đầu trên "Blank Napkin".
• Ưu điểm: Tiết kiệm thời gian tạo hình ảnh trực quan, hữu ích cho người thường xuyên giải thích/thuyết trình.
• Hạn chế: Một số đồ họa AI tạo ra có thể không phù hợp hoặc quá đơn giản, chưa tạo được biểu đồ số liệu, chưa hỗ trợ mobile, tài liệu hướng dẫn còn hạn chế.
• Các công cụ thay thế: Canva AI, ChatGPT Data Analyst, Genially.
📌 Napkin.ai là công cụ AI mới hỗ trợ tạo nhanh hình ảnh trực quan từ văn bản, miễn phí trong giai đoạn beta. Ứng dụng hữu ích cho thuyết trình, giảng dạy, viết bài với khả năng tạo đa dạng biểu đồ, sơ đồ tư duy trong vài giây. Tuy nhiên vẫn còn một số hạn chế cần cải thiện.
https://www.fastcompany.com/91178294/napkin-is-a-great-new-ai-tool-for-making-quick-visuals
- Google Cloud Run đã công bố tích hợp GPU Nvidia L4 vào dịch vụ serverless của mình, cho phép tổ chức thực hiện AI inference mà không cần duy trì các phiên bản máy chủ liên tục.
- Tính năng này giúp giảm chi phí cho việc cung cấp sức mạnh GPU cần thiết cho AI, khi mà người dùng chỉ trả tiền cho tài nguyên khi chúng được sử dụng.
- Nvidia L4 GPU có thể được triển khai với các mô hình AI như NIM, VLLM, Pytorch và Ollama, hiện đang ở giai đoạn xem trước.
- Theo Sagar Randive, Quản lý sản phẩm của Google Cloud Serverless, người dùng đang tìm kiếm sự linh hoạt và hiệu quả từ nền tảng này và đã yêu cầu hỗ trợ GPU.
- Cloud Run đã trở thành nền tảng phổ biến cho các nhà phát triển nhờ khả năng đơn giản hóa việc triển khai và quản lý container.
- Việc tích hợp GPU mở ra nhiều trường hợp sử dụng mới cho các nhà phát triển Cloud Run, bao gồm:
- Thực hiện AI inference theo thời gian thực với các mô hình nhẹ như Gemma 2B/7B hoặc Llama3 (8B), giúp tạo ra chatbot tùy chỉnh và công cụ tóm tắt tài liệu ngay lập tức.
- Phục vụ các mô hình AI tạo sinh tùy chỉnh, bao gồm ứng dụng tạo hình ảnh theo thương hiệu có thể mở rộng theo nhu cầu.
- Tăng tốc các dịch vụ yêu cầu tính toán cao như nhận diện hình ảnh, chuyển mã video và dựng 3D, với khả năng tự động giảm quy mô khi không sử dụng.
- Google Cloud đã công bố thời gian khởi động lạnh cho các phiên bản Cloud Run mới dao động từ 11 đến 35 giây cho các mô hình khác nhau, cho thấy khả năng phản hồi của nền tảng.
- Mỗi phiên bản Cloud Run có thể được trang bị một GPU Nvidia L4 với tối đa 24GB vRAM, cung cấp đủ tài nguyên cho nhiều tác vụ AI inference thông thường.
- Google Cloud cam kết không giới hạn các mô hình LLM, nhưng khuyến nghị người dùng nên chạy các mô hình dưới 13B tham số để có hiệu suất tốt nhất.
- Về chi phí, việc sử dụng AI inference serverless có thể tiết kiệm hơn so với việc duy trì các phiên bản máy chủ lâu dài, nhưng điều này phụ thuộc vào ứng dụng và lưu lượng truy cập dự kiến.
📌 Google Cloud Run đã tích hợp GPU Nvidia L4, cho phép AI inference serverless với thời gian khởi động lạnh từ 11 đến 35 giây. Điều này mở ra cơ hội mới cho các ứng dụng AI, đồng thời hứa hẹn tiết kiệm chi phí cho tổ chức.
https://venturebeat.com/ai/google-cloud-run-embraces-nvidia-gpus-for-serverless-ai-inference/
- DocChat của Cerebras đánh dấu một bước tiến lớn trong hệ thống hỏi đáp dựa trên tài liệu, với hai mô hình mới: Llama3-DocChat và Dragon-DocChat.
- Llama3-DocChat được xây dựng trên nền tảng của Llama 3, kết hợp các nghiên cứu mới nhất, bao gồm mô hình ChatQA của Nvidia.
- Mô hình Dragon-DocChat là một mô hình tìm kiếm đa lượt, được tinh chỉnh để cải thiện tỷ lệ hồi đáp.
- Quá trình huấn luyện của Llama3-DocChat chỉ mất vài giờ trên một hệ thống Cerebras, trong khi Dragon-DocChat được tinh chỉnh trong vài phút.
- Hiệu suất của các mô hình này đã được đánh giá qua nhiều tiêu chí, với Llama3-DocChat đạt kết quả cao trên các benchmark như ConvFinQA và SQA.
- Cerebras cam kết với cộng đồng nguồn mở bằng cách công bố trọng số mô hình, công thức huấn luyện và bộ dữ liệu liên quan.
- Trong các so sánh benchmark, Llama3-DocChat vượt trội hơn so với Llama3-ChatQA và GPT-4 Turbo.
- Dragon-DocChat cũng cho thấy hiệu suất tốt hơn so với Dragon+ của Facebook và Dragon Multiturn của Nvidia.
- Trong quá trình phát triển, Cerebras đã giải quyết vấn đề về khả năng xử lý các câu hỏi không thể trả lời và đã cải thiện hiệu suất toán học của mô hình.
- Việc tích hợp các kỹ thuật như Chain of Thought (CoT) đã giúp cải thiện độ chính xác trong các tác vụ toán học.
- Cerebras đang có kế hoạch phát triển DocChat với các cải tiến như hỗ trợ ngữ cảnh dài hơn và khả năng suy luận toán học tốt hơn.
- Công ty cũng đang xem xét mở rộng kích thước mô hình để củng cố vị thế của mình trong lĩnh vực AI hội thoại.
📌 Cerebras đã ra mắt DocChat với hai mô hình Llama3-DocChat và Dragon-DocChat, được huấn luyện nhanh chóng và hiệu quả. Llama3-DocChat đạt kết quả cao trên các benchmark, trong khi Dragon-DocChat cải thiện đáng kể tỷ lệ hồi đáp. Công ty cam kết phát triển nguồn mở và tiếp tục đổi mới trong lĩnh vực AI.
https://www.marktechpost.com/2024/08/24/cerebras-docchat-released-built-on-top-of-llama-3-docchat-holds-gpt-4-level-conversational-qa-trained-in-a-few-hours/
• LinkedIn vừa công bố Liger (LinkedIn GPU Efficient Runtime) Kernel - bộ Triton kernel hiệu quả cao được thiết kế riêng cho việc đào tạo mô hình ngôn ngữ lớn (LLM).
• Liger Kernel tăng thông lượng đào tạo đa GPU lên hơn 20% và giảm sử dụng bộ nhớ tới 60% thông qua kỹ thuật hợp nhất kernel, thay thế tại chỗ và phân đoạn.
• Công cụ này tương thích với Flash Attention, PyTorch FSDP và Microsoft DeepSpeed, chỉ yêu cầu Torch và Triton làm phụ thuộc.
• Liger Kernel cho phép xử lý độ dài ngữ cảnh lớn hơn, kích thước batch lớn hơn và từ vựng khổng lồ mà không ảnh hưởng hiệu suất. Nó có thể mở rộng lên đến 16K trong khi các mô hình Hugging Face truyền thống gặp lỗi hết bộ nhớ ở 4K.
• Khi đào tạo mô hình LLaMA 3-8B, Liger Kernel có thể tăng tốc độ đào tạo lên 20% và giảm 40% sử dụng bộ nhớ.
• Trong giai đoạn đào tạo lại của LLM đa đầu như Medusa, Liger Kernel giảm 80% sử dụng bộ nhớ và tăng 40% thông lượng.
• Liger Kernel tích hợp các phép toán dựa trên Triton như RMSNorm, RoPE, SwiGLU và FusedLinearCrossEntropy để nâng cao hiệu suất đào tạo LLM.
• RMSNorm trong Liger Kernel đạt tốc độ tăng gấp 3 lần và giảm bộ nhớ đỉnh. RoPE và SwiGLU được triển khai với kỹ thuật thay thế tại chỗ giúp giảm đáng kể sử dụng bộ nhớ và tăng tốc độ tính toán.
• Hàm mất mát CrossEntropy được tối ưu hóa để giảm bộ nhớ đỉnh hơn 4 lần và tăng gấp đôi tốc độ thực thi.
• Người dùng có thể dễ dàng tích hợp Liger Kernel vào quy trình làm việc hiện có bằng một dòng mã để vá các mô hình Hugging Face.
• Liger Kernel có thể cài đặt qua pip với cả phiên bản ổn định và nightly.
• LinkedIn cam kết tiếp tục cải tiến Liger Kernel và hoan nghênh sự đóng góp từ cộng đồng để thu thập các kernel tốt nhất cho đào tạo LLM.
📌 Liger Kernel của LinkedIn là bước đột phá trong đào tạo LLM, tăng hiệu suất 20% và giảm 60% bộ nhớ. Công cụ này hứa hẹn thúc đẩy phát triển các mô hình AI tiên tiến hơn, mở ra nhiều khả năng mới trong lĩnh vực trí tuệ nhân tạo.
https://www.marktechpost.com/2024/08/25/linkedin-released-liger-linkedin-gpu-efficient-runtime-kernel-a-revolutionary-tool-that-boosts-llm-training-efficiency-by-over-20-while-cutting-memory-usage-by-60/
• MagicDec là phương pháp mới do các nhà nghiên cứu từ Đại học Carnegie Mellon, Moffett AI và Meta AI phát triển, nhằm triển khai speculative decoding để suy luận với thông lượng cao cho các mô hình ngôn ngữ lớn (LLM).
• Phương pháp này dựa trên phân tích kỹ lưỡng về cách các nút thắt cổ chai thay đổi khi kích thước batch và độ dài chuỗi tăng lên. Với các chuỗi trung bình đến dài, việc giải mã LLM vẫn bị giới hạn bởi bộ nhớ ngay cả với batch lớn, với bộ nhớ đệm key-value (KV) trở thành nút thắt cổ chai chính.
• MagicDec giới thiệu hai cải tiến chính:
1) Chiến lược soạn thảo thông minh có thể cải thiện tốc độ khi tăng kích thước batch.
2) Giải quyết nút thắt cổ chai bộ nhớ đệm KV bằng cách sử dụng các mô hình nháp với bộ nhớ đệm KV thưa thớt.
• Hiệu suất của MagicDec rất ấn tượng:
- Tăng tốc lên đến 2 lần cho mô hình LLaMA-2-7B-32K
- Tăng tốc 1,84 lần cho LLaMA-3.1-8B
- Phục vụ kích thước batch từ 32 đến 256 trên 8 GPU NVIDIA A100
- Cải thiện cả thông lượng và giảm độ trễ mà không ảnh hưởng đến độ chính xác, đặc biệt với các chuỗi dài
• MagicDec thách thức quan niệm truyền thống cho rằng speculative decoding không hiệu quả để tăng thông lượng. Phương pháp này mở ra khả năng mới để tối ưu hóa suy luận LLM.
• Nghiên cứu này đánh dấu bước tiến lớn trong việc giải quyết hiệu quả các thách thức khi phục vụ mô hình ngôn ngữ lớn. Nó chứng minh có thể phá vỡ sự đánh đổi giữa độ trễ và thông lượng cho việc tạo ngữ cảnh dài.
• MagicDec sẽ đóng vai trò quan trọng trong việc triển khai rộng rãi các mô hình LLM mạnh mẽ trên nhiều trường hợp sử dụng khác nhau, khi nhu cầu phục vụ LLM hiệu suất cao tiếp tục tăng.
📌 MagicDec đạt được tốc độ tăng gấp 2 lần cho mô hình LLaMA-2-7B-32K và 1,84 lần cho LLaMA-3.1-8B, cải thiện cả thông lượng và độ trễ mà không ảnh hưởng độ chính xác. Phương pháp này mở ra khả năng mới để tối ưu hóa suy luận LLM cho các ứng dụng ngữ cảnh dài.
https://www.marktechpost.com/2024/08/24/magicdec-unlocking-up-to-2x-speedup-in-llama-models-for-long-context-applications/
• Google vừa âm thầm giới thiệu một bot mới có tên Google-CloudVertexBot trong tài liệu về crawler của họ.
• Bot mới này được thiết kế để thu thập dữ liệu cho khách hàng thương mại sử dụng sản phẩm Vertex AI của Google.
• Khác với các bot khác phục vụ cho Google Search hoặc quảng cáo, Google-CloudVertexBot tập trung vào việc thu thập nội dung website cho khách hàng Vertex AI.
• Tài liệu chính thức của Google Cloud mô tả 6 loại kho dữ liệu trong Vertex AI Agent Builder, trong đó có dữ liệu website công khai.
• Có 2 loại thu thập dữ liệu website: cơ bản và nâng cao, mỗi loại có những hạn chế riêng.
• Phần mô tả về dữ liệu website và thu thập cơ bản không đề cập đến việc xác minh quyền sở hữu tên miền.
• Tuy nhiên, phần thu thập nâng cao yêu cầu xác minh tên miền và áp dụng hạn ngạch thu thập.
• Tài liệu về bot mới nói rằng nó chỉ thu thập "theo yêu cầu của chủ website" khi xây dựng Vertex AI Agents.
• Nhưng ghi chú trong changelog lại cho thấy bot mới có thể đến thu thập dữ liệu trên website của bạn.
• Chuỗi user agent của bot mới là "Google-CloudVertexBot".
• Tài liệu còn khá mơ hồ về việc bot mới có thu thập các website công khai hay không.
• Chưa rõ liệu chủ website có nên chặn bot mới này trong robots.txt để phòng ngừa hay không, do tài liệu chưa nêu rõ nó chỉ thu thập các tên miền đã được xác minh thuộc quyền kiểm soát của đơn vị yêu cầu thu thập hay không.
📌 Google vừa ra mắt bot AI mới Google-CloudVertexBot để thu thập dữ liệu cho Vertex AI. Tài liệu còn mơ hồ về phạm vi hoạt động, gây hoang mang cho chủ website về việc có nên chặn bot này hay không. Cần thêm hướng dẫn rõ ràng từ Google.
https://www.searchenginejournal.com/google-vertex-ai-crawler/524956/
SEO contents:
• MAG-SQL là một phương pháp đa tác tử tạo sinh mới được phát triển bởi các nhà nghiên cứu từ Đại học Công nghệ Nam Trung Quốc và Đại học Thanh Hoa nhằm cải thiện quá trình chuyển đổi văn bản sang SQL.
• Chuyển đổi văn bản sang SQL là một lĩnh vực quan trọng trong xử lý ngôn ngữ tự nhiên, cho phép người dùng truy vấn cơ sở dữ liệu bằng ngôn ngữ thông thường thay vì các lệnh SQL kỹ thuật.
• Thách thức chính trong lĩnh vực này là sự phức tạp của cơ sở dữ liệu và tính đa dạng của các truy vấn người dùng, đặc biệt là với các bộ dữ liệu khó như BIRD.
• Các phương pháp hiện có như học trong ngữ cảnh (ICL) và học có giám sát thường yêu cầu tinh chỉnh mở rộng và lấy mẫu quy mô lớn từ các mô hình ngôn ngữ.
• MAG-SQL bao gồm 4 thành phần chính: Soft Schema Linker, Targets-Conditions Decomposer, Sub-SQL Generator và Sub-SQL Refiner.
• Soft Schema Linker lọc lược đồ cơ sở dữ liệu để chọn các cột liên quan nhất cho việc tạo SQL.
• Targets-Conditions Decomposer chia nhỏ các truy vấn phức tạp thành các truy vấn con dễ quản lý hơn.
• Sub-SQL Generator tạo ra các truy vấn con SQL dựa trên các truy vấn trước đó.
• Sub-SQL Refiner sửa chữa các lỗi trong các truy vấn SQL được tạo ra.
• Khi sử dụng GPT-4, MAG-SQL đạt độ chính xác thực thi 61,08% trên bộ dữ liệu BIRD, vượt trội so với độ chính xác cơ sở 46,35% của GPT-4 thông thường.
• Ngay cả khi sử dụng GPT-3.5, MAG-SQL vẫn vượt trội so với phương pháp MAC-SQL với độ chính xác 57,62%.
• Trên bộ dữ liệu Spider, MAG-SQL cải thiện 11,9% so với độ chính xác cơ sở zero-shot của GPT-4.
• MAG-SQL giải quyết các thách thức quan trọng trong việc chuyển đổi ngôn ngữ tự nhiên thành lệnh SQL, đặc biệt là trong các kịch bản phức tạp liên quan đến cơ sở dữ liệu quy mô lớn và các truy vấn phức tạp.
• Phương pháp này không chỉ cải thiện hiệu suất trên các điểm chuẩn khó như BIRD và Spider mà còn cho thấy tiềm năng của hệ thống đa tác tử trong việc nâng cao khả năng của các mô hình ngôn ngữ lớn.
📌 MAG-SQL đạt độ chính xác 61,08% trên bộ dữ liệu BIRD khi sử dụng GPT-4, vượt trội so với các phương pháp hiện có. Phương pháp đa tác tử này cải thiện đáng kể quá trình chuyển đổi văn bản sang SQL, đặc biệt với cơ sở dữ liệu phức tạp, mở ra tiềm năng ứng dụng rộng rãi trong thực tế.
https://www.marktechpost.com/2024/08/19/mag-sql-a-multi-agent-generative-approach-achieving-61-accuracy-on-bird-dataset-using-gpt-4-for-enhanced-text-to-sql-query-refinement/
• Agent Q là một khung AI đột phá được phát triển bởi các nhà nghiên cứu tại MultiOn nhằm giải quyết những thách thức của các mô hình ngôn ngữ lớn (LLM) trong các tác vụ đòi hỏi lập luận nhiều bước và ra quyết định trong môi trường tương tác động.
• Được xây dựng dựa trên nền tảng của LLaMa 3, Agent Q kết hợp các kỹ thuật tìm kiếm nâng cao, tự phê bình và học tăng cường để cải thiện cách LLM điều hướng và tương tác với web.
• Kiến trúc sáng tạo của Agent Q bao gồm nhiều thành phần chính:
- Tìm kiếm cây Monte Carlo có hướng dẫn (MCTS) để tự động khám phá các hành động và trang web khác nhau
- Cơ chế tự phê bình cung cấp phản hồi theo thời gian thực ở mỗi bước ra quyết định
- Thuật toán Tối ưu hóa Ưu tiên Trực tiếp (DPO) để tinh chỉnh mô hình
• Trong các thử nghiệm đặt chỗ trên OpenTable, Agent Q đã cải thiện hiệu suất zero-shot cơ bản của LLaMa 3 từ 18,6% lên 81,7% chỉ sau một ngày thu thập dữ liệu tự động.
• Với tìm kiếm trực tuyến thêm, tỷ lệ thành công này đã tăng lên 95,4%, tương đương mức cải thiện 340%.
• Agent Q giải quyết những hạn chế của phương pháp huấn luyện LLM truyền thống bằng cách:
- Sử dụng kết hợp MCTS và DPO thay vì chỉ dựa vào fine-tuning có giám sát
- Cho phép agent học từ cả quỹ đạo thành công và không thành công
- Cải thiện đáng kể khả năng tổng quát hóa trong các tác vụ lập luận phức tạp nhiều bước
• Cơ chế tự phê bình đặc biệt quan trọng đối với các tác vụ kéo dài, nơi phần thưởng thưa thớt có thể cản trở việc học.
• Agent Q đặt ra một tiêu chuẩn mới cho các ứng dụng AI trong thế giới thực, đặc biệt là trong lĩnh vực điều hướng web tự động.
• Khung này mở ra tiềm năng to lớn cho việc phát triển các agent AI thông minh và thích ứng hơn trong tương lai.
📌 Agent Q là khung AI đột phá giúp web agent tự cải thiện, đạt hiệu suất vượt trội 340% so với LLama 3 trong tác vụ zero-shot chỉ sau 1 ngày. Với kiến trúc sáng tạo kết hợp MCTS, tự phê bình và DPO, Agent Q mở ra tiềm năng to lớn cho các ứng dụng AI thực tế trong tương lai.
https://www.marktechpost.com/2024/08/16/agent-q-a-new-ai-framework-for-autonomous-improvement-of-web-agents-with-limited-human-supervision-with-a-340-improvement-over-llama-3s-baseline-zero-shot-performance/
- Microsoft đang tích hợp các khả năng AI vào trình duyệt Edge của mình, mở ra nhiều tính năng mới
- Tính năng mới sử dụng Copilot để quét tài liệu PDF, tìm ra các từ khóa và cụm từ quan trọng, sau đó cung cấp thông tin bổ sung về chúng
- Tính năng này hiện đang có sẵn trong phiên bản beta của Microsoft Edge, người dùng có thể truy cập bằng cách tải về phiên bản Beta Channel
- Ngoài tính năng quét PDF, Edge cũng có các tính năng AI khác như tìm kiếm thông minh, tạo chủ đề trình duyệt tùy chỉnh, đặt tên nhóm tab tự động
- Microsoft cũng đang phát triển tính năng gợi ý website dựa trên AI trong phiên bản Canary, nhưng chưa rõ chức năng cụ thể
- Tùy thuộc vào thành công của tính năng từ khóa thông minh cho PDF, Microsoft có thể mở rộng sang các loại tài liệu khác như Word, Excel, PowerPoint
📌 Tính năng mới của Microsoft Edge sử dụng AI tạo sinh để quét tài liệu PDF, cung cấp thông tin bổ sung về các từ khóa quan trọng, giúp người dùng hiểu rõ hơn nội dung của văn bản pháp lý.
https://www.techspot.com/news/104252-new-ai-feature-microsoft-edge-pdf-reader-scans.html
- Ragie vừa chính thức ra mắt nền tảng RAG-as-a-Service, nhằm giải quyết vấn đề kết nối dữ liệu doanh nghiệp với AI tạo sinh.
- Công ty đã huy động được 5,5 triệu USD từ các nhà đầu tư như Craft Ventures, Saga VC, Chapter One và Valor.
- Ragie cung cấp một nền tảng dễ dàng triển khai, giúp các doanh nghiệp xây dựng ứng dụng AI mà không cần phải lo lắng về việc thiết lập các đường ống dữ liệu phức tạp.
- Nền tảng Ragie đã được sử dụng như một phần cốt lõi của nền tảng Glue AI chat, ra mắt vào tháng 5.
- CEO Bob Remeika cho biết, Ragie giúp các nhà phát triển kết nối với các nguồn dữ liệu phổ biến như Google Drive, Notion và Confluence.
- Hệ thống của Ragie tối ưu hóa dữ liệu cho việc truy xuất vector và các ứng dụng RAG.
- Ragie cung cấp gói miễn phí cho các nhà phát triển thử nghiệm và tính phí 500 USD mỗi tháng cho các ứng dụng sản xuất, với mức giá doanh nghiệp cho khách hàng vượt quá 3.000 tài liệu.
- Ragie không chỉ là một cơ sở dữ liệu vector mà còn là một dịch vụ RAG toàn diện cho doanh nghiệp.
- Nền tảng Ragie tích hợp nhiều yếu tố cần thiết cho các ứng dụng doanh nghiệp, bao gồm thu thập dữ liệu, trích xuất và mã hóa dữ liệu.
- Ragie sử dụng phương pháp chunking và mã hóa để chia nhỏ dữ liệu thành các phần nhỏ hơn và lưu trữ chúng trong cơ sở dữ liệu vector.
- Nền tảng xây dựng nhiều loại chỉ mục để cải thiện khả năng truy xuất và độ chính xác của dữ liệu.
- Ragie nhấn mạnh tầm quan trọng của việc truy xuất và xếp hạng lại dữ liệu để đảm bảo tính chính xác và liên quan trong các kết quả.
- Công ty đang nghiên cứu khái niệm chunking ngữ nghĩa, giúp cải thiện độ chính xác trong việc phân chia dữ liệu.
- Các chỉ mục hybrid cho phép Ragie cung cấp cả phương pháp tìm kiếm dựa trên từ khóa và phương pháp dựa trên vector, mang lại sự linh hoạt trong việc xếp hạng nội dung.
📌 Ragie ra mắt nền tảng RAG-as-a-Service với 5,5 triệu USD đầu tư, giúp doanh nghiệp kết nối dữ liệu và AI dễ dàng. Nền tảng này tối ưu hóa quy trình thu thập và truy xuất dữ liệu, mang lại độ chính xác cao trong ứng dụng AI.
https://venturebeat.com/ai/ragie-debuts-enterprise-rag-as-a-service-raises-5-5m-seed/
• Hugging Face vừa công bố ra mắt dịch vụ suy luận AI được hỗ trợ bởi NVIDIA NIM, giúp các nhà phát triển dễ dàng tiếp cận khả năng suy luận AI được tăng tốc bởi NVIDIA.
• Dịch vụ mới cho phép triển khai nhanh chóng các mô hình ngôn ngữ lớn phổ biến như Llama 3 và Mistral AI, với tối ưu hóa từ vi dịch vụ NVIDIA NIM chạy trên nền tảng NVIDIA DGX Cloud.
• Nhà phát triển có thể nhanh chóng tạo nguyên mẫu với các mô hình AI nguồn mở trên Hugging Face Hub và triển khai chúng trong môi trường sản xuất.
• Dịch vụ suy luận AI trên NVIDIA DGX Cloud được hỗ trợ bởi vi dịch vụ NIM cung cấp quyền truy cập dễ dàng vào tài nguyên tính toán được tối ưu hóa cho triển khai AI.
• Nền tảng NVIDIA DGX Cloud được xây dựng chuyên biệt cho AI tạo sinh và cung cấp tài nguyên GPU có thể mở rộng, hỗ trợ mọi bước phát triển AI từ nguyên mẫu đến sản xuất.
• Để sử dụng dịch vụ, người dùng cần có quyền truy cập vào tổ chức Enterprise Hub và mã thông báo chi tiết để xác thực.
• Các điểm cuối NVIDIA NIM cho các mô hình AI tạo sinh được hỗ trợ có thể được tìm thấy trên trang mô hình của Hugging Face Hub.
• Hiện tại, dịch vụ chỉ hỗ trợ các API chat.completions.create và models.list, nhưng Hugging Face đang làm việc để mở rộng và bổ sung thêm nhiều mô hình.
• Việc sử dụng dịch vụ suy luận AI của Hugging Face trên DGX Cloud được tính phí dựa trên thời gian tính toán cho mỗi yêu cầu, sử dụng GPU NVIDIA H100 Tensor Core.
• Hugging Face cũng đang hợp tác với NVIDIA để tích hợp thư viện NVIDIA TensorRT-LLM vào framework Text Generation Inference (TGI) của Hugging Face nhằm cải thiện hiệu suất và khả năng tiếp cận suy luận AI.
• Ngoài dịch vụ suy luận AI mới, Hugging Face còn cung cấp Train on DGX Cloud, một dịch vụ đào tạo AI.
• Clem Delangue, CEO của Hugging Face, bày tỏ sự phấn khích về việc Hugging Face trở thành cổng kết nối cho tính toán AI.
• Rohan Paul, Kaggle Master, chia sẻ rằng có thể sử dụng các mô hình mở với nền tảng tính toán được tăng tốc của NVIDIA DGX Cloud cho việc phục vụ suy luận. Mã hoàn toàn tương thích với API OpenAI.
• Tại SIGGRAPH, NVIDIA cũng giới thiệu các mô hình AI tạo sinh và vi dịch vụ NIM cho framework OpenUSD để tăng tốc khả năng xây dựng thế giới ảo chính xác cao cho sự phát triển tiếp theo của AI.
📌 NVIDIA NIM trên Hugging Face mở ra kỷ nguyên mới cho triển khai AI, cho phép nhà phát triển dễ dàng tiếp cận mô hình ngôn ngữ lớn tối ưu trên NVIDIA DGX Cloud. Dịch vụ hỗ trợ các mô hình phổ biến như Llama 3 và Mistral AI, tính phí theo thời gian sử dụng GPU H100, đồng thời tích hợp với OpenAI API.
https://www.infoq.com/news/2024/08/nvidia-nim-huggingface/
- Convin đã giới thiệu một mô hình ngôn ngữ lớn (LLM) với 7 tỷ tham số, được tối ưu hóa cho các trung tâm liên lạc tại Ấn Độ.
- Mô hình này được phát triển nhằm nâng cao hiệu suất làm việc và cải thiện trải nghiệm khách hàng trong lĩnh vực dịch vụ.
- LLM của Convin có khả năng hiểu và xử lý ngôn ngữ tự nhiên, cho phép tự động hóa nhiều quy trình trong trung tâm liên lạc.
- Với việc sử dụng AI tạo sinh, mô hình này có thể cung cấp phản hồi nhanh chóng và chính xác cho các câu hỏi của khách hàng.
- Convin đã thực hiện nhiều thử nghiệm để đảm bảo rằng mô hình hoạt động hiệu quả trong môi trường đa ngôn ngữ của Ấn Độ.
- Mô hình LLM này có khả năng học hỏi từ dữ liệu thực tế, giúp cải thiện liên tục và thích ứng với các yêu cầu của khách hàng.
- Việc ra mắt mô hình này đánh dấu một bước tiến quan trọng trong việc áp dụng công nghệ AI vào ngành dịch vụ khách hàng tại Ấn Độ.
- Convin hy vọng rằng sản phẩm mới này sẽ giúp các doanh nghiệp tiết kiệm chi phí và nâng cao sự hài lòng của khách hàng.
- Mô hình cũng có thể được tích hợp dễ dàng vào các hệ thống hiện có của các trung tâm liên lạc, giúp giảm thiểu thời gian triển khai.
- Convin cam kết cung cấp hỗ trợ và đào tạo cho các doanh nghiệp trong việc triển khai và sử dụng mô hình này.
📌 Convin đã ra mắt mô hình ngôn ngữ lớn 7 tỷ tham số, tối ưu cho trung tâm liên lạc tại Ấn Độ, giúp cải thiện hiệu suất và trải nghiệm khách hàng, đồng thời tiết kiệm chi phí cho doanh nghiệp.
https://analyticsindiamag.com/ai-news-updates/convin-launches-a-7-bn-parameter-llm-tailored-for-indian-contact-centres/
• Các nhà nghiên cứu từ Viện Công nghệ Tiên tiến Thâm Quyến, Học viện Khoa học Trung Quốc và Tập đoàn Alibaba đã phát triển SENSE - một mô hình chuyên biệt cho chuyển đổi văn bản thành SQL dựa trên các mô hình ngôn ngữ lớn nguồn mở.
• SENSE sử dụng phương pháp dữ liệu tổng hợp kết hợp dữ liệu mạnh từ các mô hình lớn hơn với dữ liệu yếu từ các mô hình nhỏ hơn để cải thiện khả năng tổng quát hóa miền.
• Mô hình này cũng khám phá tiềm năng sử dụng giám sát dữ liệu yếu thông qua học từ phản hồi.
• SENSE đã đạt được kết quả hàng đầu trên các bộ dữ liệu chuẩn Spider và BIRD, hai bộ dữ liệu phổ biến cho nhiệm vụ chuyển đổi văn bản thành SQL.
• Spider chứa 7.000 cặp văn bản-SQL trong tập huấn luyện và 1.034 cặp trong tập phát triển, bao gồm 200 cơ sở dữ liệu khác nhau và 138 miền.
• BIRD là một bộ dữ liệu mới tập trung vào các cơ sở dữ liệu lớn trong thế giới thực, có 95 cơ sở dữ liệu lớn với tổng dung lượng 33,4GB trên 37 lĩnh vực.
• Kết quả cho thấy các phương pháp gợi ý hoạt động tốt hơn tinh chỉnh trong các tác vụ chuyển đổi văn bản thành SQL, nhờ vào sức mạnh của các mô hình ngôn ngữ lớn nguồn đóng và các gợi ý tùy chỉnh.
• Mô hình SENSE-13B cải thiện 21,8% so với CodeLLaMA-13B-Instruct trên tập phát triển của Spider và vượt qua nhẹ DAILSQL dựa trên GPT-4.
• Nghiên cứu chỉ ra rằng các mô hình lớn hơn thường cho kết quả tốt hơn và việc tinh chỉnh hướng dẫn cải thiện hiệu suất, nhấn mạnh giá trị của việc sử dụng dữ liệu tổng hợp.
• SENSE thiết lập một tiêu chuẩn mới cho bộ dữ liệu Spider, vượt qua DAILSQL dựa trên GPT-4.
• Tuy nhiên, do hạn chế về tài nguyên tính toán và thời gian, các nhà nghiên cứu không thể tinh chỉnh phương pháp của họ trên các mô hình ngôn ngữ lớn như LLaMA2-70B, điều này có thể cải thiện hiệu suất hơn nữa.
📌 SENSE là mô hình AI nguồn mở mới cho chuyển đổi văn bản thành SQL, kết hợp dữ liệu tổng hợp mạnh và yếu để cải thiện tổng quát hóa. Đạt kết quả hàng đầu trên Spider và BIRD, vượt qua GPT-4 trên Spider với mô hình 13B, thu hẹp khoảng cách giữa mô hình nguồn mở và đóng.
https://www.marktechpost.com/2024/08/09/sense-bridging-the-gap-between-open-source-and-closed-source-llms-for-advanced-text-to-sql-parsing/
• Audible, công ty sách nói thuộc Amazon, vừa công bố thử nghiệm tính năng tìm kiếm bằng AI có tên Maven.
• Maven là chuyên gia đề xuất cá nhân, giúp đưa ra gợi ý sách phù hợp dựa trên yêu cầu cụ thể của người dùng.
• Người dùng có thể nhập truy vấn bằng ngôn ngữ tự nhiên, ví dụ "Tôi đang tìm một cuốn tiểu thuyết viễn tưởng lạc quan với nhân vật chính là nữ".
• Tính năng hiện chỉ có sẵn cho khoảng một nửa số khách hàng Mỹ của Audible trên cả iOS và Android.
• Maven chỉ hoạt động với một "tập con" trong thư viện gần 1 triệu đầu sách của Audible.
• Audible không tiết lộ cụ thể mô hình AI nào được sử dụng, chỉ cho biết Maven tận dụng "điểm mạnh của nhiều mô hình" và sẽ "liên tục đánh giá" khi các mô hình cải thiện.
• Ngoài Maven, Audible cũng đang thử nghiệm các bộ sưu tập được AI tuyển chọn và đánh giá do AI tạo ra.
• Tính năng bộ sưu tập do AI tuyển chọn có thể là phản ứng của Audible trước danh sách phát do AI tạo ra của Spotify.
• Thông báo này được đưa ra sau báo cáo về hàng nghìn sách nói do AI lồng tiếng đang được người dùng Audible nghe.
• Tính đến tháng 5, hơn 40.000 đầu sách đã được gắn nhãn có người đọc là AI, và con số này có thể đã tăng lên.
• Xu hướng này gây ra phản ứng dữ dội từ các nghệ sĩ sáng tạo lo ngại robot sẽ chiếm mất công việc lồng tiếng sách nói.
📌 Audible thử nghiệm Maven - tính năng tìm kiếm bằng AI với 50% khách hàng Mỹ. Công ty cũng đang phát triển bộ sưu tập và đánh giá do AI tạo ra. Hơn 40.000 sách nói có người đọc là AI đã xuất hiện trên nền tảng, gây lo ngại về tương lai ngành lồng tiếng.
https://techcrunch.com/2024/08/07/audible-ai-powered-search-feature/
• Automattic, công ty sở hữu WordPress.com, vừa ra mắt công cụ AI mới có tên "Write Brief with AI" nhằm giúp các blogger viết rõ ràng và súc tích hơn.
• Công cụ này bổ sung cho trợ lý viết AI tạo sinh mà Automattic đã ra mắt cho WordPress vào năm ngoái. Nó giúp người dùng tạo nội dung bằng các lệnh dựa trên văn bản và điều chỉnh giọng điệu bài viết, ví dụ như thân mật hoặc đồng cảm hơn.
• "Write Brief with AI" hiện có sẵn ở phiên bản beta như một phần của Jetpack, bộ tính năng nâng cao chức năng cho các trang web WordPress.com. Trong giai đoạn beta ban đầu, nó chỉ khả dụng miễn phí cho các trang WordPress.com.
• Công cụ này cho người dùng biết liệu họ có đang dùng quá nhiều từ để mô tả điều gì đó không, và cho phép nhấp nút "Suggest" để tự động đơn giản hóa câu.
• Nó cũng có thể cho biết ngôn ngữ sử dụng có thiếu tự tin không - ví dụ nếu dùng quá nhiều từ như "có thể", hoặc liệu có đang dùng những từ quá phức tạp có thể khiến một số độc giả khó hiểu.
• Công cụ cung cấp điểm đánh giá khả năng đọc dựa trên 3 tiêu chí: độ phức tạp, độ dài câu và sự tự tin.
• Automattic nói rằng "Write Brief with AI" bắt nguồn từ một dự án hack week nội bộ. Sau khi triển khai nội bộ và thấy nó hữu ích và được yêu thích nhanh chóng, công ty quyết định phát hành rộng rãi.
• Trong khi trợ lý viết AI rộng hơn mà Automattic ra mắt năm ngoái có sẵn ở 12 ngôn ngữ, "Write Brief with AI" hiện chỉ giới hạn ở tiếng Anh.
• Với vị thế là động lực đằng sau phần lớn web như chúng ta biết, việc tích hợp AI vào nền tảng blog phổ biến của Automattic có khả năng sẽ được áp dụng rộng rãi.
📌 Automattic ra mắt công cụ AI "Write Brief with AI" cho WordPress, giúp viết blog rõ ràng và súc tích hơn. Công cụ đánh giá khả năng đọc dựa trên 3 tiêu chí, hiện có sẵn miễn phí trong giai đoạn beta cho các trang WordPress.com.
https://techcrunch.com/2024/08/07/automattic-launches-ai-writing-tool-that-aims-to-make-wordpress-blogs-more-readable-and-succinct/
• 9 công cụ AI hàng đầu để tạo bài thuyết trình ấn tượng trong vài phút:
• Beautiful.ai:
- Cung cấp các mẫu thông minh tự động điều chỉnh khi thêm nội dung
- AI xử lý các quyết định thiết kế như khoảng cách, căn chỉnh, bố cục
- Dễ dàng chia sẻ và cộng tác theo thời gian thực
- Phù hợp cho người dùng muốn tạo bài thuyết trình chất lượng cao nhanh chóng
• Design AI:
- Thư viện mẫu đa dạng được thiết kế chuyên nghiệp
- Dễ dàng tùy chỉnh văn bản, hình ảnh và các yếu tố khác
- AI đẩy nhanh quá trình thiết kế bằng cách gợi ý bố cục và lựa chọn thiết kế
- Lý tưởng cho người dùng cần tạo bài thuyết trình tùy chỉnh nhanh chóng và hiệu quả
• Zoho Show:
- Đưa ra gợi ý thiết kế và bố cục khi tạo bài thuyết trình
- Công cụ cộng tác thời gian thực
- Tích hợp liền mạch với các ứng dụng Zoho khác và công cụ bên thứ ba
- Phù hợp cho các nhóm cần tạo và chia sẻ bài thuyết trình nhanh chóng
• Slidebean:
- Tự động sắp xếp nội dung theo cách bắt mắt trực quan
- Dễ dàng áp dụng màu sắc và phông chữ thương hiệu
- Theo dõi cách khán giả xem và tương tác với bài thuyết trình
- Hoàn hảo cho người dùng cần tạo bài thuyết trình nhanh chóng mà không ảnh hưởng đến chất lượng
• Kroma.ai:
- Thư viện hàng nghìn mẫu và slide được thiết kế chuyên nghiệp
- AI gợi ý các yếu tố thiết kế và bố cục tốt nhất dựa trên nội dung
- Chia sẻ và cộng tác theo thời gian thực
- Lý tưởng cho người dùng cần truy cập nhiều tài nguyên thiết kế và mẫu
• Canva:
- Giao diện kéo thả dễ sử dụng
- Mẫu thông minh do AI điều khiển
- Duy trì nhất quán thương hiệu với bộ phông chữ, màu sắc và logo được cài đặt sẵn
- Phù hợp cho người dùng ở mọi trình độ muốn tạo bài thuyết trình đẹp nhanh chóng
• Visme:
- Thư viện mẫu đa dạng có thể tùy chỉnh
- AI gợi ý bố cục và yếu tố thiết kế tốt nhất dựa trên nội dung
- Thêm các yếu tố tương tác như liên kết, video và hoạt ảnh
- Lý tưởng cho người dùng muốn tạo bài thuyết trình năng động và hấp dẫn nhanh chóng
• Tome:
- AI hỗ trợ cấu trúc bài thuyết trình để kể một câu chuyện hấp dẫn
- Mẫu có thể tùy chỉnh cho các loại bài thuyết trình khác nhau
- Dễ dàng chia sẻ và cộng tác theo thời gian thực
- Hoàn hảo cho người dùng muốn tạo bài thuyết trình vượt xa các slide đơn giản
• PowerPoint Designer (Microsoft 365):
- Phân tích nội dung và gợi ý ý tưởng thiết kế, bố cục và chủ đề
- Tích hợp sẵn trong Microsoft PowerPoint
- Tiết kiệm thời gian và nâng cao chất lượng thiết kế
- Phù hợp cho người dùng Microsoft 365 muốn cải thiện bài thuyết trình nhanh chóng
📌 9 công cụ AI hàng đầu giúp tạo bài thuyết trình ấn tượng trong vài phút, tiết kiệm đến 90% thời gian thiết kế. Các tính năng như mẫu thông minh, gợi ý thiết kế và cộng tác thời gian thực giúp người dùng ở mọi trình độ dễ dàng tạo ra các bài thuyết trình chuyên nghiệp, hấp dẫn.
https://askmisswhimsical.com/2024/08/06/9-best-ai-tools-to-create-stunning-presentations-within-minutes/
• OpenSearch GPT là công cụ tìm kiếm AI nguồn mở, tập trung vào việc cung cấp kết quả tìm kiếm được cá nhân hóa bằng cách học hỏi từ tương tác của người dùng.
• Khác với Perplexity, OpenSearch GPT chú trọng đưa ra phản hồi phù hợp dựa trên sở thích và truy vấn trước đó của người dùng.
• Tính năng cá nhân hóa được thực hiện bằng cách học hỏi từ tương tác người dùng, giúp kết quả tìm kiếm ngày càng phù hợp hơn theo thời gian.
• Là nền tảng nguồn mở, OpenSearch GPT mang lại tính minh bạch, linh hoạt và khả năng đóng góp vào quá trình phát triển.
• Hệ thống trí nhớ Mem Zero ghi nhớ các tương tác trước đó để tinh chỉnh kết quả tìm kiếm trong tương lai.
• Được xây dựng trên nền tảng công nghệ mạnh mẽ bao gồm Versal AI ADK, Next.js, Tailwind CSS, Shad CN UI và Cloudflare Pages.
• Hoạt động như trợ lý viết lách và công cụ quản lý dữ liệu, giúp đa dạng hóa ứng dụng cho cá nhân và doanh nghiệp.
• Yêu cầu đăng nhập bằng tài khoản Google để dễ dàng truy cập và quản lý lịch sử tìm kiếm, tùy chọn một cách an toàn.
• Phù hợp cho nhiều ứng dụng khác nhau, nâng cao năng suất và tối ưu hóa quy trình làm việc cho nhiều đối tượng người dùng.
• OpenSearch GPT tập trung vào khả năng cá nhân hóa vượt trội. Mỗi truy vấn tìm kiếm giúp hệ thống hiểu rõ hơn về sở thích của bạn, cho phép liên tục tinh chỉnh và cải thiện độ phù hợp của kết quả tìm kiếm.
• Là nền tảng nguồn mở, OpenSearch GPT mang lại tính minh bạch và linh hoạt vượt trội. Bạn có quyền truy cập đầy đủ vào mã nguồn, cho phép sửa đổi và tùy chỉnh nền tảng theo yêu cầu cụ thể của mình.
• Hệ thống tích hợp trí nhớ tiên tiến Mem Zero cho phép công cụ tìm kiếm ghi nhớ và học hỏi từ các tương tác trước đó, đảm bảo kết quả tìm kiếm trong tương lai chính xác và phù hợp hơn.
• OpenSearch GPT không chỉ là công cụ tìm kiếm mà còn là công cụ đa năng cung cấp nhiều chức năng để nâng cao năng suất của bạn như trợ lý viết lách, quản lý dữ liệu và hỗ trợ nghiên cứu.
• Để đảm bảo trải nghiệm người dùng liền mạch và an toàn, OpenSearch GPT tích hợp với tài khoản Google của bạn để xác thực. Điều này đơn giản hóa quy trình đăng nhập và cho phép nền tảng quản lý lịch sử tìm kiếm và tùy chọn của bạn một cách an toàn.
• Ứng dụng tiềm năng của OpenSearch GPT rất rộng rãi và đa dạng, từ cá nhân hóa cách tìm kiếm và tiêu thụ thông tin đến tự động hóa các tác vụ, cải thiện hiệu quả hoạt động và rút ra những hiểu biết có giá trị từ dữ liệu trong bối cảnh kinh doanh.
📌 OpenSearch GPT là công cụ tìm kiếm AI nguồn mở cá nhân hóa, tích hợp trí nhớ Mem Zero và đa chức năng. Nó học hỏi từ tương tác người dùng, cung cấp kết quả phù hợp, hỗ trợ viết lách và quản lý dữ liệu. Được xây dựng trên nền tảng công nghệ tiên tiến, OpenSearch GPT mang lại trải nghiệm tìm kiếm thông minh và hiệu quả.
https://www.geeky-gadgets.com/ai-search-engine-2024/
• Wordware là IDE đầu tiên dành riêng để xây dựng AI sử dụng Lập trình Ngôn ngữ Tự nhiên (NLP), giúp phát triển ứng dụng AI nhanh hơn 20 lần.
• Công cụ này được thiết kế để trao quyền cho các chuyên gia lĩnh vực, nhóm và kỹ sư phần mềm, đặc biệt hữu ích cho những người không có kỹ năng lập trình truyền thống.
• Giao diện thân thiện với người dùng của Wordware cho phép tạo các agent AI phức tạp một cách dễ dàng bằng ngôn ngữ tự nhiên.
• Nền tảng cung cấp các công cụ tích hợp sẵn như chuyển đổi giọng nói thành văn bản, tạo hình ảnh và mô-đun nghiên cứu.
• Wordware hỗ trợ triển khai ứng dụng và API chỉ với một cú nhấp chuột, đơn giản hóa quá trình phát triển.
• Thư viện cộng đồng của nền tảng hoạt động giống như GitHub, cung cấp kho lưu trữ các agent sẵn sàng sử dụng.
• Khả năng kỹ thuật nâng cao bao gồm vòng lặp, phân nhánh, an toàn kiểu và thực thi mã tùy chỉnh.
• Wordware tăng tốc quá trình lặp lại bằng cách cho phép người dùng nhanh chóng đánh giá chất lượng đầu ra và tinh chỉnh agent AI.
• Giao diện giống Notion của nền tảng hỗ trợ quản lý lệnh, cộng tác liền mạch và hợp lý hóa quy trình làm việc.
• Wordware hỗ trợ nhiều nhà cung cấp mô hình ngôn ngữ lớn, cho phép tối ưu hóa quy trình làm việc với tỷ lệ chi phí-độ trễ-chất lượng tốt nhất.
• Một tính năng nổi bật của Wordware là hỗ trợ đa phương thức, cho phép tích hợp văn bản, hình ảnh, âm thanh và video trong quy trình làm việc AI.
• Người dùng có thể chuyển đổi linh hoạt giữa các phương thức dữ liệu, cải thiện tính linh hoạt và khả năng ứng dụng của các agent AI.
• Wordware loại bỏ các hạn chế của công cụ không mã truyền thống, cho phép mọi thành viên trong nhóm đóng góp độc lập vào quá trình phát triển AI.
📌 Wordware là IDE đột phá cho phép phát triển ứng dụng AI nhanh hơn 20 lần bằng lập trình ngôn ngữ tự nhiên. Với giao diện thân thiện, hỗ trợ đa phương tiện và cộng tác hiệu quả, nó trao quyền cho cả chuyên gia lĩnh vực lẫn kỹ sư phần mềm xây dựng AI phức tạp dễ dàng.
https://aitoolsclub.com/meet-wordware-an-ai-tool-that-helps-you-build-your-own-ai-agents-and-apps-using-prompts/
• Google vừa công bố các tính năng AI tạo sinh và báo cáo mới cho nền tảng Performance Max, nhằm giúp các nhà quảng cáo hiểu rõ hơn về hiệu quả của nội dung quảng cáo và tạo ra các nội dung mới đa dạng hơn.
• Performance Max đã cho phép tự động hóa việc tạo quảng cáo từ các gợi ý đơn giản, bao gồm tiêu đề, mô tả, hình ảnh và nhiều hơn nữa. Tuy nhiên, Google nhận thấy cần phải hiểu rõ hiệu quả để tối đa hóa tiềm năng của những nội dung này.
• Để giải quyết vấn đề trên, Google đang triển khai các chỉ số chuyển đổi cho báo cáo nội dung Performance Max. Điều này cho phép nhà quảng cáo xác định nội dung nào hoạt động tốt cho thương hiệu của họ, từ đó có thể tạo ra nhiều nội dung tương tự hơn bằng công cụ Performance Max.
• Các tính năng mới này sẽ giúp nhà quảng cáo tạo ra các chiến dịch quảng cáo hấp dẫn hơn, đồng thời tiếp cận chính xác hơn đối tượng mục tiêu của họ.
• Việc tạo ra nội dung đa dạng và nhắm mục tiêu chính xác được coi là chìa khóa để marketing thành công. Các công cụ AI mới của Google sẽ hỗ trợ đắc lực cho nhà quảng cáo trong việc này.
• Ngoài ra, Google cũng đang tập trung vào việc cung cấp các công cụ báo cáo và phân tích hiệu quả quảng cáo chi tiết hơn. Điều này sẽ giúp nhà quảng cáo có cái nhìn sâu sắc hơn về hiệu suất của các chiến dịch.
• Các tính năng mới này dự kiến sẽ giúp tối ưu hóa quy trình tạo và quản lý quảng cáo, tiết kiệm thời gian và nguồn lực cho nhà quảng cáo.
• Việc tích hợp AI tạo sinh vào nền tảng quảng cáo cho thấy xu hướng ngày càng tăng của việc ứng dụng AI trong lĩnh vực marketing và quảng cáo.
• Tuy nhiên, vẫn cần có sự giám sát và điều chỉnh của con người để đảm bảo nội dung quảng cáo phù hợp với thương hiệu và đạt hiệu quả cao nhất.
📌 Google tung ra các công cụ AI tạo sinh mới cho Performance Max, giúp nhà quảng cáo tạo nội dung đa dạng và nhắm mục tiêu chính xác hơn. Tính năng báo cáo chỉ số chuyển đổi mới cho phép xác định nội dung hiệu quả, tối ưu hóa chiến dịch quảng cáo.
https://www.zdnet.com/article/googles-new-gen-ai-tools-help-hyper-target-your-ad-campaigns/
• Wix vừa ra mắt công cụ AI tạo sinh có khả năng viết toàn bộ bài đăng blog được tối ưu hóa SEO, bao gồm cả hình ảnh.
• Công cụ này hiện đã có sẵn cho người dùng nói tiếng Anh của nền tảng tạo website Wix.
• Wix cho biết công cụ mới có thể tạo ra "bản nháp hoặc dàn ý do AI tạo ra" để người viết thật sử dụng làm nền tảng cho các bài đăng blog.
• Theo Wix, các trang web có blog nhận được lưu lượng truy cập tự nhiên nhiều hơn 86% so với các trang không có blog.
• Các tính năng viết blog bằng AI của Wix bao gồm:
- Gợi ý chủ đề dựa trên nội dung blog đã đăng trước đó
- Tự động thu thập thông tin website để tạo bài về sản phẩm, sự kiện hoặc dịch vụ cụ thể
- Đề xuất tiêu đề, nội dung và hình ảnh cho bài viết
- Cho phép người dùng chỉ định từ khóa SEO để đưa vào bài viết
• Đối với hình ảnh, người dùng có thể mô tả hình ảnh và phong cách mong muốn bằng các câu lệnh.
• Công cụ mới cũng cho phép người dùng doanh nghiệp kết nối blog với nền tảng giải pháp kinh doanh của Wix.
• Đây là một trong nhiều dự án liên quan đến AI của Wix trong những năm gần đây, bao gồm chatbot AI để xây dựng website và cho phép lưu trữ, tạo và bán nội dung do AI tạo ra trên DeviantArt.
• CEO của Wix, Avishai Abrahami, không lo ngại về khả năng nội dung SEO do AI tạo ra sẽ phá hủy các mô hình kinh doanh dựa trên web.
• Tuy nhiên, việc sử dụng rộng rãi các công cụ AI này có thể dẫn đến việc web bị tràn ngập bởi nội dung "rác" do AI tạo ra, gây ảnh hưởng đến thông tin hữu ích và chính đáng.
📌 Wix ra mắt công cụ AI viết blog tự động, tối ưu SEO với mục tiêu tăng 86% lưu lượng truy cập tự nhiên. Tuy nhiên, điều này có thể dẫn đến tràn lan nội dung kém chất lượng do AI tạo ra trên web, ảnh hưởng đến thông tin hữu ích thực sự.
https://www.theverge.com/2024/7/31/24210304/wix-ai-website-builder-seo-blog-posts
• Theo báo cáo mới của IDC, thị trường dịch vụ đám mây toàn cầu dự kiến sẽ vượt 800 tỷ USD trong năm 2024 và tăng gấp đôi quy mô vào năm 2028.
• Năm 2023, chi tiêu cho đám mây toàn cầu đạt 669 tỷ USD.
• IDC dự báo tốc độ tăng trưởng thị trường sẽ chậm lại đôi chút trong vài năm tới, nhưng chi tiêu cho các dịch vụ cơ sở hạ tầng, nền tảng và ứng dụng vẫn duy trì tốc độ tăng trưởng kép hàng năm là 19,4% đến năm 2028.
• Sự phát triển này được thúc đẩy một phần bởi việc doanh nghiệp tiêu thụ các công nghệ AI.
• Andrea Minonne, Giám đốc nghiên cứu dữ liệu và phân tích tại IDC, nhấn mạnh mối quan hệ ngày càng phụ thuộc lẫn nhau giữa đổi mới AI và cơ sở hạ tầng đám mây, đưa dịch vụ đám mây trở thành xương sống cho việc phát triển và triển khai AI.
• AI tạo sinh đóng vai trò chính trong câu chuyện áp dụng đám mây năm 2023, khi AWS, Microsoft và Google chạy đua thiết lập thị trường mô hình ngôn ngữ lớn và mở rộng năng lực trung tâm dữ liệu.
• Lãnh đạo doanh nghiệp thúc đẩy đám mây để hiện đại hóa, quá trình di chuyển lên đám mây lấy lại đà tăng trưởng. Các nhà cung cấp đám mây lớn cũng thu được lợi nhuận ban đầu từ hàng tỷ USD đầu tư vào AI.
• IDC dự báo dịch vụ nền tảng đám mây, bao gồm phần mềm quản lý dữ liệu và giải pháp nền tảng AI, sẽ có mức tăng trưởng kép hàng năm trên 50% trong giai đoạn 5 năm tính từ 2024.
• PaaS và IaaS dự kiến sẽ chiếm 1/5 tổng chi tiêu đám mây trong năm nay. SaaS vẫn là danh mục lớn nhất, chiếm 2/5 chi tiêu đám mây của doanh nghiệp.
• AI đã có tác động sâu sắc đến đám mây, định hình lại mô hình tiêu dùng của doanh nghiệp và thúc đẩy chi tiêu vốn của các nhà cung cấp đám mây lớn.
• Đồng thời, đám mây đang giúp định hình quỹ đạo của AI khi nó chuyển từ giai đoạn đào tạo lên stack công nghệ doanh nghiệp.
• Eileen Smith, Phó Chủ tịch nhóm dữ liệu và phân tích tại IDC, nhấn mạnh mô hình đám mây vẫn đáp ứng tốt nhu cầu đổi mới trong phát triển và triển khai ứng dụng của khách hàng, bao gồm cả dữ liệu, AI/machine learning và nhu cầu edge computing.
📌 Thị trường đám mây toàn cầu dự kiến đạt 800 tỷ USD năm 2024, tăng gấp đôi vào 2028 với tốc độ 19,4%/năm. AI là động lực chính, thúc đẩy PaaS tăng trưởng trên 50%/năm. Đám mây trở thành nền tảng cho phát triển AI, định hình lại cách doanh nghiệp tiêu thụ công nghệ.
https://www.ciodive.com/news/cloud-spend-doubles-generative-ai-platform-services/722830/
• Lean Copilot là một công cụ AI mới được thiết kế để tích hợp các mô hình ngôn ngữ lớn (LLM) vào Lean nhằm tự động hóa một phần quá trình xây dựng chứng minh toán học.
• Công cụ này giải quyết những hạn chế của các trợ lý chứng minh truyền thống, vốn đòi hỏi người dùng phải tự mình phác thảo các bước và chiến thuật cần thiết để xây dựng chứng minh.
• Lean Copilot cung cấp các tính năng chính:
- suggest_tactics: đề xuất các chiến thuật mà người dùng có thể nhấp vào để sử dụng trong chứng minh của họ.
- search_proof: kết hợp các chiến thuật do LLM tạo ra với framework aesop để tìm các chứng minh đa chiến thuật.
- select_premises: truy xuất các tiền đề có thể hữu ích từ cơ sở dữ liệu.
• Người dùng có thể sử dụng các mô hình tích hợp sẵn hoặc tự mang mô hình của riêng mình để chạy cục bộ hoặc trên đám mây.
• Công cụ này giúp quá trình xây dựng chứng minh trở nên hiệu quả hơn và ít phụ thuộc vào đầu vào thủ công.
• Lean Copilot cho phép chạy suy luận trên bất kỳ LLM nào trong Lean để xây dựng tự động hóa chứng minh tùy chỉnh hoặc các ứng dụng khác.
• Tuy nhiên, công cụ này vẫn còn một số hạn chế:
- Lean có thể bị treo đột ngột khi khởi động lại hoặc chỉnh sửa tệp, cần khởi động lại để khắc phục.
- Hàm select_premises truy xuất dạng gốc của một tiền đề, có thể không phù hợp với mong đợi của người dùng.
- Cần có các giải pháp tạm thời như đổi tên định lý để giải quyết một số thách thức.
• Lean Copilot đang thể hiện tiềm năng to lớn trong việc cải thiện đáng kể quy trình làm việc của các nhà toán học và nhà nghiên cứu trong lĩnh vực toán học hình thức và khoa học máy tính.
• Công cụ này đánh dấu một bước tiến quan trọng trong việc tự động hóa quá trình chứng minh toán học, giúp tiết kiệm thời gian và giảm thiểu sai sót.
📌 Lean Copilot tích hợp LLM vào Lean để tự động hóa chứng minh toán học với các tính năng như suggest_tactics, search_proof và select_premises. Công cụ này giúp tiết kiệm thời gian, giảm sai sót và nâng cao hiệu quả trong xây dựng chứng minh, mặc dù vẫn còn một số hạn chế cần khắc phục.
https://www.marktechpost.com/2024/07/30/lean-copilot-an-ai-tool-that-allows-large-language-models-llms-to-be-used-in-lean-for-proof-automation/
• Meta vừa công bố ra mắt AI Studio cho người dùng tại Mỹ, cho phép tạo phiên bản AI của chính mình hoặc các nhân vật AI tùy chỉnh.
• Có 2 cách để sử dụng AI Studio: truy cập ai.meta.com/ai-studio hoặc dùng trực tiếp trên ứng dụng Instagram.
• Trên Instagram, người dùng chỉ cần mở tin nhắn, bắt đầu cuộc trò chuyện mới và nhấn vào "Create an AI chat".
• Quá trình tạo nhân vật AI cho phép thiết lập tên, tính cách, giọng điệu, hình đại diện và khẩu hiệu.
• Meta cung cấp tài liệu hướng dẫn 18 trang "AI Studio Handbook" để tối ưu hóa trải nghiệm sử dụng.
• Nhân vật AI không chỉ là avatar, mà còn có kiến thức và tính cách riêng biệt.
• Người dùng có thể cài đặt các chủ đề không muốn AI đề cập hoặc tài khoản không muốn AI tương tác.
• Phản hồi từ nhân vật AI được gắn nhãn rõ ràng để tránh nhầm lẫn với người thật.
• Meta giới thiệu một số nhân vật AI do người nổi tiếng tạo ra như đầu bếp Marc Murphy và nhiếp ảnh gia Angel Barclay.
• Tính năng hiện chỉ khả dụng cho người dùng tại Mỹ. Người dùng ở các khu vực khác, đặc biệt là châu Âu, không thể tạo hoặc xem các nhân vật AI.
• Liên minh châu Âu có bộ quy tắc riêng về AI, khiến các công ty công nghệ như Meta và Apple phải thận trọng khi triển khai các tính năng AI tại đây.
📌 Meta ra mắt AI Studio trên Instagram cho người dùng Mỹ, cho phép tạo nhân vật AI tùy chỉnh. Tính năng này mở ra khả năng tương tác mới trên nền tảng, nhưng hiện chưa khả dụng tại châu Âu do các quy định nghiêm ngặt về AI.
https://sea.mashable.com/tech/33619/instagram-now-lets-you-create-an-ai-version-of-yourself
• Nvidia công bố các tiến bộ lớn cho Universal Scene Description (OpenUSD), mở rộng khả năng ứng dụng của khung trao đổi dữ liệu 3D phổ quát này trong lĩnh vực robot, thiết kế và kỹ thuật công nghiệp.
• Công ty giới thiệu các mô hình AI tạo sinh đầu tiên trên thế giới có khả năng hiểu ngôn ngữ, hình học, vật liệu, vật lý và không gian dựa trên OpenUSD.
• Các dịch vụ vi mô Nvidia NIM mới cho phép tạo ra ngôn ngữ OpenUSD để trả lời truy vấn của người dùng, tạo mã Python OpenUSD, áp dụng vật liệu cho đối tượng 3D và hiểu không gian 3D cùng vật lý để đẩy nhanh phát triển bản sao kỹ thuật số.
• Nvidia cung cấp các đầu nối USD mới cho các định dạng dữ liệu mô phỏng robot và công nghiệp, cùng công cụ cho phép truyền dữ liệu lớn được ray-traced hoàn toàn bằng Nvidia RTX tới Apple Vision Pro.
• Các dịch vụ vi mô NIM đang được cung cấp bản xem trước bao gồm: USD Code, USD Search, USD Validate. Các dịch vụ sắp ra mắt gồm: USD Layout, USD SmartMaterial, fVDB Mesh Generation, fVDB Physics Super-Res, fVDB NeRF-XL.
• Foxconn, nhà sản xuất toàn cầu với hơn 170 nhà máy trên thế giới, đang sử dụng dịch vụ vi mô NIM và Omniverse để tạo bản sao kỹ thuật số của một nhà máy đang phát triển.
• WPP, công ty dịch vụ tiếp thị và truyền thông hàng đầu thế giới, là người áp dụng sớm các dịch vụ vi mô USD Search và USD Code NIM trong quy trình sáng tạo nội dung được hỗ trợ bởi AI tạo sinh.
• Nvidia và Siemens mở rộng hợp tác để tích hợp quy trình OpenUSD với danh mục công nghệ mô phỏng Simcenter, hỗ trợ ra quyết định dựa trên bằng chứng và cộng tác giữa các bên liên quan chính.
• Nvidia phát hành đầu nối từ Unified Robotics Description Format sang OpenUSD, cho phép các nhà robot học dễ dàng mang dữ liệu robot của họ qua các ứng dụng khác nhau.
• Công ty cũng công bố bộ công cụ phát triển phần mềm OpenUSD Exchange, cho phép các nhà phát triển xây dựng các đầu nối dữ liệu OpenUSD mạnh mẽ của riêng họ.
• Các công cụ và API mới để truyền cảnh OpenUSD quy mô lớn từ ứng dụng xây dựng trên nền tảng Omniverse tới Apple Vision Pro hiện đã có sẵn trong bản truy cập sớm.
📌 Nvidia đã giới thiệu các dịch vụ vi mô NIM và AI tạo sinh cho OpenUSD, mở rộng ứng dụng trong công nghiệp và robot. Các công cụ mới giúp tạo thế giới ảo chính xác cho AI thế hệ tiếp theo, với hơn 10.000 công ty đang sử dụng Omniverse và 30 công ty đóng góp cho OpenUSD.
https://venturebeat.com/ai/nvidia-unveils-generative-ai-and-nim-microservices-for-openusd/
• Google NotebookLM là công cụ thử nghiệm mới của Google, sử dụng AI tạo sinh để hỗ trợ việc tổ chức ghi chú, tìm kiếm thông tin, tương tác với nội dung và tóm tắt.
• Cách sử dụng NotebookLM:
- Truy cập liên kết và tạo một sổ ghi chú mới
- Tải lên tài liệu muốn làm việc vào phần "Sources"
- Có thể dán văn bản, tải PDF, tài liệu Google Drive hoặc nhập URL
• Tính năng chính:
- Tự động tạo tóm tắt từ ghi chú đã nhập
- Tạo danh sách các chủ đề chính có thể khám phá thêm
- Trích xuất đoạn văn quan trọng và tạo sơ đồ theo dõi tiến độ
- Tính năng chat cho phép đặt câu hỏi về nội dung đã nhập
• Ưu điểm:
- Chỉ dựa trên tài liệu được cung cấp để trả lời, không tìm kiếm thông tin bên ngoài
- Giúp tổ chức thông tin, phân tích và đào sâu vào các chủ đề cụ thể
- Tạo tổng quan toàn diện từ nhiều nguồn tài liệu khác nhau
• Hạn chế:
- Giao diện còn lộn xộn, khó sử dụng
- Ghi chú không có liên kết trực tiếp đến nguồn
- Vẫn có thể mắc lỗi và đưa ra thông tin sai lệch
- Tổng hợp thông tin từ nhiều nguồn có thể làm tăng sai sót
- Cần kiểm chứng lại thông tin, có thể mất nhiều thời gian
• Tiềm năng trong tương lai:
- Có thể trở thành công cụ không thể thiếu cho một số tác vụ cụ thể
- Khả năng tích hợp vào Google Drive
- Cần khắc phục các hạn chế hiện tại về độ chính xác và tính dễ sử dụng
• Câu hỏi đặt ra: Làm thế nào để sử dụng một công cụ chưa thể hoàn toàn tin cậy? Liệu việc kiểm chứng thông tin có mất nhiều thời gian hơn tự làm từ đầu?
• NotebookLM hiện vẫn đang trong giai đoạn thử nghiệm, còn nhiều lỗi và chưa giải quyết được các vấn đề cố hữu của AI tạo sinh.
📌 Google NotebookLM là công cụ ghi chú thông minh sử dụng AI, giúp tổ chức và phân tích thông tin. Tuy nhiên, nó vẫn còn nhiều hạn chế về độ chính xác và tính dễ sử dụng. Tiềm năng lớn nhưng cần cải thiện để trở thành công cụ đáng tin cậy.
https://www.domusweb.it/en/news/2024/07/29/google-notebooklm-how-the-ai-powered-notepad-works.html
• RouteLLM là một framework được thiết kế để phân loại các prompt trước khi gửi chúng đến mô hình ngôn ngữ lớn (LLM), nhằm tối ưu hóa chi phí và hiệu quả bằng cách chọn mô hình phù hợp nhất cho từng prompt.
• Framework này giúp giảm đáng kể chi phí và tăng tốc độ xử lý bằng cách sử dụng các mô hình rẻ hơn cho các tác vụ đơn giản và dành các mô hình mạnh mẽ hơn cho các truy vấn phức tạp.
• Lợi ích chính của RouteLLM bao gồm:
- Giảm chi phí bằng cách sử dụng mô hình rẻ hơn cho các tác vụ đơn giản
- Tăng tốc độ xử lý và hiệu quả
- Tối ưu hóa việc sử dụng tài nguyên tính toán
- Giảm độ trễ bằng cách sử dụng mô hình cục bộ cho các trường hợp cơ bản
- Giảm rủi ro nền tảng bằng cách đa dạng hóa việc sử dụng mô hình
- Tăng cường bảo mật và quyền riêng tư thông qua lựa chọn mô hình thông minh
• Các bài kiểm tra chuẩn cho thấy RouteLLM có thể giảm chi phí lên đến 85% trong khi vẫn duy trì 95% hiệu suất của GPT-4 trên các bộ kiểm tra phổ biến như MT Bench.
• Để triển khai RouteLLM, người dùng cần thực hiện các bước sau:
1. Tạo môi trường Conda mới
2. Cài đặt RouteLLM bằng pip
3. Thiết lập biến môi trường cho các mô hình mạnh và yếu
• RouteLLM cho phép sử dụng mô hình cục bộ làm mô hình yếu cho các trường hợp sử dụng cơ bản, mang lại lợi ích như giảm độ trễ, giảm chi phí và tăng cường bảo mật.
• Tiềm năng ứng dụng của RouteLLM trong doanh nghiệp rất lớn, mang lại cơ hội tiết kiệm chi phí đáng kể và tăng hiệu quả bằng cách tối ưu hóa việc sử dụng LLM.
• Framework này cung cấp nền tảng vững chắc để xây dựng các giải pháp AI tiên tiến, khuyến khích khám phá và đổi mới trong lĩnh vực xử lý ngôn ngữ tự nhiên.
📌 RouteLLM là framework tối ưu hóa sử dụng LLM, giúp giảm chi phí đến 85% và duy trì 95% hiệu suất GPT-4. Triển khai dễ dàng qua 3 bước, mang lại lợi ích về chi phí, hiệu quả và bảo mật cho doanh nghiệp.
https://www.geeky-gadgets.com/?p=434011
• Namelix: Công cụ AI tạo tên thương hiệu ngắn gọn, dễ nhớ. Học từ sở thích của bạn để đưa ra gợi ý tốt hơn theo thời gian. Có thể tìm kiếm tên miền và tạo logo tức thì.
• Figma: Công cụ thiết kế hàng đầu cho phép các nhóm thiết kế và phát triển cùng làm việc. Cung cấp thiết kế UI đơn giản được tạo bởi AI, cho phép lặp lại nhanh chóng và chỉnh sửa hàng loạt nhiều khung hình.
• Shopify: Nền tảng thương mại điện tử số 1, hỗ trợ doanh nghiệp mọi quy mô. Có trình tạo cửa hàng kéo thả không cần code, mẫu tùy chỉnh và nhiều ứng dụng để khởi động, vận hành và phát triển cửa hàng trực tuyến hiệu quả.
• Hypefury: Tự động hóa quản lý mạng xã hội, tiết kiệm thời gian và tăng tương tác. Tự động retweet các tweet hay nhất và chuyển đổi thành bài đăng Instagram. Giúp tạo ý tưởng viral, viết bài đăng nhanh chóng và phát triển khán giả.
• Carrd: Nền tảng miễn phí để xây dựng trang web một trang đơn giản, đáp ứng mọi thiết bị. Lý tưởng cho hồ sơ cá nhân, trang đích. Cung cấp hàng chục mẫu đẹp mắt trên mọi kích thước màn hình.
• Fathom: Giải pháp báo cáo, phân tích và dự báo tài chính. Giúp đo lường và theo dõi các chỉ số KPI quan trọng. Tạo báo cáo quản lý tùy chỉnh và lên lịch gửi báo cáo kịp thời.
• Beehiiv: Nền tảng bản tin mạnh mẽ được tạo bởi đội ngũ Morning Brew. Cung cấp công cụ chỉnh sửa và thiết kế mạnh mẽ để dễ dàng khởi chạy và mở rộng quy mô bản tin mà không cần học code.
• Notion: Không gian làm việc tất cả trong một được hỗ trợ bởi AI. Giúp viết, lập kế hoạch, tổ chức và thực hiện ý tưởng. Đa ngôn ngữ và cho phép tạo nhãn, thẻ tùy chỉnh.
• Zapier: Tự động hóa quy trình làm việc trên hơn 7.000 tích hợp ứng dụng. Sử dụng AI để tăng năng suất bằng cách chuyển đổi ý tưởng thành quy trình làm việc và bot.
• Motion: Lịch AI tự động lập kế hoạch công việc dựa trên nhiệm vụ và ưu tiên của bạn. Tối ưu hóa lịch suốt cả ngày và đảm bảo bạn luôn biết nhiệm vụ tốt nhất cần làm tiếp theo.
• Copy.AI: Tự động hóa việc tạo nội dung, tìm kiếm khách hàng tiềm năng quy mô lớn và làm phong phú CRM. Nền tảng AI GTM xử lý các tác vụ tốn thời gian để nhóm tập trung vào bán hàng.
• PhantomBuster: Tăng năng suất của nhóm bán hàng, tiếp thị và tăng trưởng bằng cách tự động hóa thu thập dữ liệu và tiếp cận. Có hơn 100 tự động hóa và quy trình làm việc được xây dựng sẵn.
📌 12 công cụ AI miễn phí này bao gồm Namelix, Figma, Shopify, Hypefury, Carrd, Fathom, Beehiiv, Notion, Zapier, Motion, Copy.AI và PhantomBuster. Chúng giúp đơn giản hóa hoạt động, tăng năng suất và phát triển doanh nghiệp hiệu quả từ đặt tên thương hiệu đến tự động hóa quy trình, cho phép doanh nhân tập trung vào hoạt động kinh doanh cốt lõi.
https://aitoolsclub.com/build-your-business-from-scratch-12-free-ai-tools-to-get-you-started/
• Các nhà nghiên cứu từ Đại học Bách khoa Hồng Kông đã giới thiệu LAMBDA - hệ thống phân tích dữ liệu đa tác tử mã nguồn mở, không cần code, nhằm khắc phục khoảng cách giao tiếp giữa chuyên gia lĩnh vực và mô hình AI tiên tiến.
• LAMBDA cung cấp phương tiện tương tác hiệu quả giữa kiến thức chuyên môn và khả năng AI trong khoa học dữ liệu, giải quyết nhiều vấn đề như loại bỏ rào cản lập trình, tích hợp trí tuệ con người với AI.
• Hệ thống gồm hai tác tử chính: "lập trình viên" và "người kiểm tra". Lập trình viên viết code dựa trên hướng dẫn của người dùng và tập dữ liệu. Người kiểm tra đề xuất cải tiến nếu code gặp lỗi khi thực thi.
• Kết quả thử nghiệm cho thấy LAMBDA hoạt động hiệu quả trong các tác vụ học máy. Với bài toán phân loại, nó đạt độ chính xác cao nhất lần lượt là 89,67%, 100%, 98,07% và 98,89% trên các bộ dữ liệu AIDS, NHANES, Ung thư vú và Rượu vang.
• Đối với bài toán hồi quy, LAMBDA đạt MSE thấp nhất lần lượt là 0,2749, 0,0315, 0,4542 và 0,2528 trên các bộ dữ liệu trên.
• LAMBDA thành công trong việc vượt qua rào cản lập trình mà không cần sự can thiệp của con người trong toàn bộ quá trình thử nghiệm.
• Hệ thống kết nối khoa học dữ liệu với các chuyên gia không có kỹ năng lập trình, mở ra tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực như sinh học, y tế và kinh doanh.
• LAMBDA có thể tương thích với nhiều mô hình ngôn ngữ lớn (LLM) khác nhau như GPT-3, GPT-4, PaLM, LLaMA và Qwen, cho phép nâng cấp bằng các mô hình tiên tiến nhất.
• Hệ thống này giải quyết thách thức trong ứng dụng khoa học dữ liệu đòi hỏi chuyên môn sâu và kỹ năng lập trình nâng cao.
• LAMBDA hứa hẹn mang lại độ tin cậy và khả năng di động cao, có thể xử lý ổn định và chính xác các tác vụ phân tích dữ liệu.
• Trong tương lai, LAMBDA có thể được cải thiện thêm với các kỹ thuật lập kế hoạch và suy luận tiên tiến.
📌 LAMBDA là hệ thống phân tích dữ liệu đa tác tử mã nguồn mở, không cần code, kết nối chuyên gia và AI. Nó đạt hiệu suất cao trong các tác vụ học máy (độ chính xác lên tới 100% cho phân loại), vượt qua rào cản lập trình và mở ra tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực.
https://www.marktechpost.com/2024/07/28/lambda-a-new-open-source-code-free-multi-agent-data-analysis-system-to-bridge-the-gap-between-domain-experts-and-advanced-ai-models/
• Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) vừa tái phát hành Dioptra - một công cụ kiểm tra nhằm đo lường tác động của các cuộc tấn công độc hại, đặc biệt là tấn công "đầu độc" dữ liệu huấn luyện, đối với hiệu suất của hệ thống AI.
• Dioptra là một công cụ web mã nguồn mở, mô-đun hóa, được thiết kế để giúp các công ty huấn luyện mô hình AI và người dùng đánh giá, phân tích và theo dõi rủi ro AI.
• Công cụ này có thể được sử dụng để đánh giá và nghiên cứu các mô hình, cũng như cung cấp nền tảng chung để mô phỏng các mối đe dọa trong môi trường "red-teaming".
• Dioptra được phát hành cùng với các tài liệu từ NIST và Viện An toàn AI mới thành lập của NIST, đưa ra các cách để giảm thiểu một số nguy cơ của AI.
• Công cụ này là kết quả của sắc lệnh hành pháp về AI của Tổng thống Biden, yêu cầu NIST hỗ trợ kiểm tra hệ thống AI.
• Tuy nhiên, Dioptra chỉ hoạt động với các mô hình có thể tải xuống và sử dụng cục bộ như Meta's Llama. Các mô hình bị giới hạn bởi API như GPT-4 của OpenAI hiện không thể sử dụng được.
• Việc đánh giá AI gặp nhiều thách thức do các mô hình AI phức tạp ngày nay thường là "hộp đen" với cơ sở hạ tầng, dữ liệu huấn luyện và các chi tiết quan trọng khác được giữ bí mật bởi các công ty tạo ra chúng.
• Một báo cáo gần đây từ Viện Ada Lovelace cho thấy chỉ đánh giá là không đủ để xác định mức độ an toàn thực tế của mô hình AI, một phần vì các chính sách hiện tại cho phép nhà cung cấp AI chọn lọc các đánh giá để thực hiện.
• NIST không khẳng định Dioptra có thể loại bỏ hoàn toàn rủi ro cho các mô hình, nhưng đề xuất rằng nó có thể làm sáng tỏ những loại tấn công nào có thể khiến hệ thống AI hoạt động kém hiệu quả hơn và định lượng tác động này đến hiệu suất.
📌 NIST phát hành công cụ Dioptra giúp kiểm tra rủi ro mô hình AI, đặc biệt là tấn công "đầu độc" dữ liệu huấn luyện. Tuy chỉ hoạt động với mô hình cục bộ, Dioptra hứa hẹn giúp đánh giá và theo dõi rủi ro AI tốt hơn, đáp ứng yêu cầu của sắc lệnh hành pháp về AI.
https://techcrunch.com/2024/07/27/nist-releases-a-tool-for-testing-ai-model-risk/
• Khảo sát 105 khách hàng chung của Databricks và Snowflake, bao gồm 29 công ty trong Fortune 500 và 50 công ty trong Global 2000.
• 96% người được hỏi tham gia sâu vào quá trình ra quyết định về nền tảng dữ liệu.
• 70% cho rằng họ không đưa ra quyết định nền tảng mà không xem xét vấn đề quản trị.
• 48% có kế hoạch thay đổi cách sử dụng Databricks hoặc Snowflake, AI, ML và chi tiêu dữ liệu.
• Snowflake nổi bật hơn về kho dữ liệu và lưu trữ, trong khi Databricks mạnh hơn về AI/ML.
• Về khả năng AI tạo sinh, 65% ủng hộ Databricks, 50% ủng hộ Snowflake, và 34% cho rằng các nhà cung cấp đám mây lớn có nhiều khả năng hơn cả hai công ty.
• 48% cho rằng Databricks có khả năng thống trị AI/ML, so với 21% cho Snowflake.
• 28% có kế hoạch chuyển sang Databricks trong 24 tháng tới, 19% chuyển sang Snowflake, 44% không có kế hoạch thay đổi.
• 86% coi an ninh và 76% coi quản trị là điểm quyết định hàng đầu.
• 54% không muốn bị khóa chặt và 50% có kế hoạch sử dụng định dạng bảng mở.
• Chỉ 15% đang sử dụng định dạng bảng mở, nhưng 70% có kế hoạch đánh giá hoặc sử dụng trong tương lai gần.
• Iceberg là định dạng bảng mở được quan tâm nhất, với kế hoạch sử dụng cao nhất trong 6-12 tháng tới.
• 37% cho rằng quản trị quan trọng hơn việc áp dụng mã nguồn mở.
• Unity của Databricks có lợi thế ban đầu so với Polaris của Snowflake trong lĩnh vực quản trị dữ liệu.
• 47% đang sử dụng Unity, trong đó 43% có kế hoạch tăng cường sử dụng.
• Thị trường quản trị dữ liệu vẫn còn phân mảnh với nhiều lựa chọn từ các nhà cung cấp khác nhau.
📌 Databricks và Snowflake đang cạnh tranh gay gắt nhưng bổ sung cho nhau trong thị trường dữ liệu và AI. Databricks dẫn đầu về AI/ML với 48% ủng hộ, trong khi Snowflake mạnh về kho dữ liệu. An ninh và quản trị là ưu tiên hàng đầu với hơn 75% khách hàng.
https://siliconangle.com/2024/07/27/databricks-vs-snowflake-not-zero-sum-game/
• OpenAI vừa giới thiệu tính năng SearchGPT mới, nhưng đã gặp sự cố ngay trong video demo đầu tiên.
• SearchGPT là công cụ kết hợp các mô hình AI của OpenAI với dữ liệu web thời gian thực để cung cấp câu trả lời nhanh và chính xác hơn.
• Trong video demo, SearchGPT đã cung cấp thông tin sai về ngày diễn ra Lễ hội Mùa hè Appalachian ở Boone, North Carolina.
• SearchGPT báo cáo lễ hội diễn ra từ ngày 29/7 đến 16/8, trong khi thực tế là từ 29/6 đến 27/7.
• Ngày mà SearchGPT đưa ra thực chất là thời gian phòng vé đóng cửa, không phải ngày diễn ra lễ hội.
• Lỗi này gây nghi ngờ về độ tin cậy của SearchGPT, đặc biệt khi OpenAI nhấn mạnh tính minh bạch và đáng tin cậy của công cụ này.
• Các lỗi và "ảo tưởng" AI là vấn đề phổ biến mà hầu hết người dùng AI đều gặp phải.
• Tuy nhiên, việc lỗi xuất hiện trong video quảng cáo được quay sẵn là điều đáng ngạc nhiên, vì OpenAI có thể dễ dàng quay lại hoặc chỉnh sửa.
• Sự cố này gợi nhớ đến lỗi của Google khi ra mắt trợ lý AI Bard (nay là Gemini), khi nó cung cấp thông tin sai về kính viễn vọng James Webb.
• Lỗi của Bard được cho là nguyên nhân khiến cổ phiếu Google giảm 100 tỷ USD.
• Mặc dù vậy, OpenAI nhiều khả năng sẽ không chậm lại trong việc phát triển AI tìm kiếm.
• Nhu cầu về câu trả lời nhanh chóng và chính xác đã thúc đẩy việc tích hợp AI vào các công cụ tìm kiếm hiện có như Google và Microsoft Bing.
• Các chatbot AI tập trung vào tìm kiếm như You.com và Perplexity cũng đang phát triển.
• Nếu OpenAI có thể phát hành công cụ tìm kiếm riêng, đặc biệt là liên kết với ChatGPT, họ có thể giành được thị phần đáng kể trong thị trường AI tìm kiếm.
• Tuy nhiên, điều này phụ thuộc vào việc người dùng tin tưởng SearchGPT có thể cung cấp câu trả lời chính xác.
📌 SearchGPT của OpenAI gặp sự cố trong demo đầu tiên, cung cấp thông tin sai về ngày diễn ra lễ hội. Mặc dù lỗi AI là phổ biến, nhưng sự cố này gây nghi ngờ về độ tin cậy của công cụ mới. OpenAI vẫn có thể giành thị phần AI tìm kiếm nếu cải thiện được độ chính xác.
https://www.techradar.com/computing/artificial-intelligence/openais-searchgpt-appears-to-get-lost-on-its-first-hunt
- Microsoft chuẩn bị ra mắt Bing Generative Search, tính năng đưa AI tạo sinh vào trang kết quả tìm kiếm của Bing.
- Bing Generative Search sẽ hiển thị hộp thông tin, danh sách gạch đầu dòng, nội dung liên quan và video chiếm nửa màn hình bên trái. Kết quả tìm kiếm truyền thống chỉ xuất hiện trong thanh bên phải nhỏ.
- Ví dụ: tìm kiếm "What is a spaghetti western", Bing Generative Search sẽ giải thích về tiểu thể loại phim này, bao gồm lịch sử, nguồn gốc, các ví dụ tiêu biểu,...
- Microsoft gọi đây là "trải nghiệm do AI tạo ra", hứa hẹn sẽ dễ đọc dù trình bày nhiều thông tin. Tuy nhiên, giao diện mới có thể gây choáng ngợp và đòi hỏi người dùng phải cuộn xuống vài lần để xem hơn 10 liên kết đầu tiên.
- Chưa rõ người dùng có thể tắt Bing Generative Search hay không và thời điểm ra mắt cụ thể. Microsoft cho biết đang triển khai từ từ và lắng nghe phản hồi, sẽ cung cấp thêm thông tin trong những tháng tới.
- Bên cạnh nguy cơ cung cấp thông tin sai lệch như Google AI Overviews từng gặp phải, Bing Generative Search cũng gây lo ngại về khả năng giảm tỷ lệ click vào các trang web hoặc đạo văn nội dung.
- Microsoft cam kết Bing Generative Search sẽ duy trì số lượt click vào các trang web và hỗ trợ hệ sinh thái web lành mạnh. Tuy nhiên, liệu đây có phải là một thảm họa kiểu "squat plug" hay không vẫn còn phải chờ xem.
📌 Bing Generative Search của Microsoft đang đe dọa vị thế thống trị của Google trong lĩnh vực tìm kiếm, với việc tích hợp sâu AI tạo sinh vào trang kết quả. Tuy nhiên, tính năng mới này cũng gây lo ngại về khả năng cung cấp thông tin sai lệch, giảm tỷ lệ click và đạo văn nội dung. Microsoft hứa hẹn sẽ duy trì hệ sinh thái web lành mạnh, nhưng liệu có thành công hay không vẫn là dấu hỏi lớn.
https://lifehacker.com/tech/bing-ai-search
• Microsoft vừa công bố bản cập nhật lớn cho Bing Search, tích hợp trí tuệ nhân tạo vào trải nghiệm tìm kiếm. Hiện tính năng này đang được thử nghiệm với một số lượng nhỏ người dùng.
• Trang kết quả tìm kiếm mới sẽ hiển thị câu trả lời do AI tạo ra ở phía trên cùng. Câu trả lời này được tạo bởi các mô hình ngôn ngữ lớn và nhỏ sau khi xem xét hàng triệu nguồn thông tin.
• Bên dưới câu trả lời AI sẽ là danh sách các nguồn tham khảo mà AI đã sử dụng để tạo ra nội dung.
• Kết quả tìm kiếm truyền thống vẫn sẽ xuất hiện ở thanh bên phải cho những người không muốn trải nghiệm AI của Bing.
• Microsoft cho biết họ đang đánh giá tác động của AI trong tìm kiếm đối với lưu lượng truy cập trực tiếp và lượng độc giả của các trang web.
• Có lo ngại rằng các trang web tạo nội dung miễn phí có thể gặp khó khăn nếu các chatbot AI trích xuất nội dung để hiển thị trực tiếp trong cửa sổ chat hoặc trang tìm kiếm.
• Microsoft khẳng định trải nghiệm tìm kiếm AI mới này vẫn duy trì số lượng click vào các trang web như tìm kiếm truyền thống.
• Bing Generative Search kết hợp nền tảng kết quả tìm kiếm của Bing với sức mạnh của các mô hình ngôn ngữ lớn và nhỏ.
• Hệ thống sẽ hiểu câu truy vấn tìm kiếm, xem xét hàng triệu nguồn thông tin, kết hợp nội dung một cách linh hoạt và tạo ra kết quả tìm kiếm theo bố cục mới do AI tạo ra.
• Mục tiêu là đáp ứng hiệu quả hơn ý định truy vấn của người dùng so với tìm kiếm truyền thống.
📌 Microsoft ra mắt Bing Generative Search, tích hợp AI vào trang kết quả tìm kiếm. Tính năng mới hiển thị câu trả lời AI ở trên cùng, kèm nguồn tham khảo và kết quả truyền thống. Microsoft cam kết duy trì lưu lượng truy cập cho các trang web, nhưng vẫn cần thời gian để đánh giá tác động thực tế.
https://www.windowscentral.com/microsoft/microsoft-unveils-bing-generative-search-enhanced-with-ai-its-a-complete-overhaul-of-traditional-search
• Gigabyte vừa công bố ra mắt AI TOP - phần mềm tiện ích nội bộ cho phép người dùng huấn luyện và tinh chỉnh mô hình AI tại nhà với khả năng xử lý lên đến 236 tỷ tham số khi sử dụng phần cứng được đề xuất.
• AI TOP là giải pháp toàn diện để tinh chỉnh mô hình AI cục bộ, tăng cường bảo mật và quyền riêng tư cho dữ liệu nhạy cảm, đồng thời mang lại sự linh hoạt tối đa và khả năng điều chỉnh theo thời gian thực.
• Phần mềm có giao diện thân thiện với người dùng, được thiết kế để giúp cả người mới bắt đầu và người dùng có kinh nghiệm dễ dàng điều hướng và hiểu thông tin cũng như cài đặt.
• AI TOP Tutor được tích hợp sẵn, cung cấp các giải pháp AI TOP, hướng dẫn thiết lập và hỗ trợ kỹ thuật cho mọi loại người vận hành mô hình AI.
• Hiện tại, phần mềm hỗ trợ hơn 70 mô hình LLM nguồn mở từ Hugging Face, bao gồm các lựa chọn phổ biến như Baichuan 2, Distill-GPT2, GLM4, Llama 2 và Llama 3.
• Mặc dù Hugging Face lưu trữ hơn 770.000 mô hình, nhưng lựa chọn của AI TOP bị giới hạn bởi các ràng buộc về dung lượng bộ nhớ vốn có trong phần cứng máy tính để bàn.
• Phần mềm được tối ưu hóa cho phần cứng Gigabyte, bao gồm bo mạch chủ, SSD, card đồ họa và nguồn điện. GPU được hỗ trợ bao gồm hầu hết các dòng Nvidia GeForce RTX 40 series, AMD Radeon RX 7900 series và Radeon Pro W7900 và W7800 series của Gigabyte.
• Gigabyte đã liệt kê phần cứng mang thương hiệu AI TOP trên trang web chuyên dụng, bao gồm nguồn điện, bo mạch chủ, hai SSD và ba card đồ họa để đạt hiệu suất tối ưu.
• Huấn luyện mô hình AI cục bộ mang lại nhiều lợi ích như tăng cường quyền riêng tư và bảo mật bằng cách giữ dữ liệu trên hệ thống của bạn, tiết kiệm chi phí bằng cách tránh phí dịch vụ đám mây, và xử lý nhanh hơn với độ trễ thấp hơn.
• Phương pháp này cung cấp khả năng tùy chỉnh và kiểm soát môi trường đào tạo, cho phép hoạt động ngoại tuyến và quản lý tài nguyên phần cứng có thể mở rộng.
• Người dùng được hưởng lợi từ phản hồi và lặp lại ngay lập tức, loại bỏ giới hạn truyền dữ liệu và tận dụng tối đa phần cứng hiện có.
• AI TOP là lý tưởng cho cả người dùng mới và có kinh nghiệm tìm kiếm giải pháp đào tạo AI an toàn, linh hoạt và hiệu quả.
• Bạn có thể tải xuống tiện ích AI TOP miễn phí từ trang web chính thức của Gigabyte. Mặc dù có sẵn cho tất cả người dùng, nhưng nó chỉ được hỗ trợ trên các hệ thống Linux.
📌 Gigabyte ra mắt AI TOP - công cụ miễn phí cho phép huấn luyện mô hình AI 236 tỷ tham số tại nhà. Hỗ trợ 70+ mô hình nguồn mở, tối ưu cho phần cứng Gigabyte, tăng cường bảo mật và linh hoạt. Chỉ hỗ trợ Linux, tải miễn phí từ trang chủ Gigabyte.
https://www.digitaltrends.com/computing/ai-top-software-rollout/
• AWS vừa công bố AuditLLM, một công cụ mới giúp đánh giá toàn diện các mô hình ngôn ngữ lớn (LLM) về nhiều khía cạnh như hiệu suất, độ chính xác và tính công bằng.
• AuditLLM sử dụng phương pháp tiếp cận đa thăm dò (multiprobe approach) để kiểm tra LLM trên nhiều khía cạnh khác nhau chỉ trong một lần chạy duy nhất.
• Công cụ này có thể phát hiện các lỗ hổng tiềm ẩn trong LLM như thành kiến, độc hại và các vấn đề về bảo mật.
• AuditLLM cung cấp các bộ dữ liệu đánh giá đa dạng và toàn diện, bao gồm cả những bộ dữ liệu tùy chỉnh do người dùng tạo ra.
• Công cụ này hỗ trợ đánh giá nhiều loại LLM khác nhau, từ các mô hình mã nguồn mở cho đến các API thương mại.
• AuditLLM tạo ra các báo cáo chi tiết về hiệu suất của LLM, giúp các nhà phát triển dễ dàng xác định các lĩnh vực cần cải thiện.
• Công cụ này có thể được tích hợp vào quy trình phát triển AI để liên tục giám sát và cải thiện chất lượng của LLM.
• AuditLLM hỗ trợ nhiều ngôn ngữ và có thể đánh giá khả năng đa ngôn ngữ của các mô hình.
• Công cụ này cũng có thể kiểm tra khả năng suy luận và giải quyết vấn đề của LLM thông qua các bài kiểm tra logic và toán học.
• AuditLLM giúp các tổ chức đảm bảo rằng LLM của họ tuân thủ các tiêu chuẩn đạo đức và quy định về AI.
• Công cụ này có thể phát hiện các trường hợp LLM tạo ra nội dung không phù hợp hoặc có hại.
• AuditLLM cung cấp các chỉ số đo lường về tính nhất quán và độ tin cậy của các phản hồi từ LLM.
• Công cụ này có thể đánh giá khả năng của LLM trong việc xử lý các tác vụ cụ thể như tóm tắt văn bản, dịch thuật hay trả lời câu hỏi.
• AuditLLM hỗ trợ so sánh hiệu suất giữa các phiên bản khác nhau của cùng một mô hình hoặc giữa các mô hình khác nhau.
• Công cụ này có thể đánh giá khả năng của LLM trong việc xử lý các loại dữ liệu đầu vào khác nhau như văn bản, hình ảnh hay âm thanh.
📌 AWS ra mắt AuditLLM, công cụ đánh giá toàn diện cho LLM với phương pháp đa thăm dò. Công cụ này có thể phát hiện lỗ hổng, đánh giá hiệu suất và tạo báo cáo chi tiết, giúp cải thiện chất lượng và đảm bảo tuân thủ tiêu chuẩn đạo đức AI.
https://analyticsindiamag.com/ai-news-updates/aws-launches-auditllm-a-multiprobe-approach-tool-for-llms/
• Microsoft vừa công bố "SpreadsheetLLM", một mô hình AI mới được thiết kế để hiểu và làm việc với bảng tính, đánh dấu một bước tiến quan trọng trong lĩnh vực AI doanh nghiệp.
• Nghiên cứu có tựa đề "SpreadsheetLLM: Encoding Spreadsheets for Large Language Models" được đăng tải trên arXiv, giải quyết thách thức trong việc áp dụng AI vào định dạng bảng tính phổ biến nhưng phức tạp.
• SpreadsheetLLM kết hợp sức mạnh của mô hình ngôn ngữ lớn (LLM) với dữ liệu có cấu trúc trong bảng tính. Hệ thống sử dụng một quy trình sáng tạo để nén và mã hóa bảng tính, cho phép LLM hiểu và phân tích hiệu quả dữ liệu bảng tính phức tạp.
• Mô-đun SheetCompressor đóng vai trò quan trọng trong việc tối ưu hóa hiệu suất của AI trên các tác vụ bảng tính, đồng thời đạt được độ chính xác tốt nhất hiện nay.
• SpreadsheetLLM có khả năng tự động hóa nhiều tác vụ phân tích dữ liệu tẻ nhạt và tốn thời gian như làm sạch dữ liệu, định dạng và tổng hợp. Điều này có thể giúp doanh nghiệp tiết kiệm thời gian và nguồn lực đáng kể.
• Ứng dụng tiềm năng của SpreadsheetLLM rất rộng lớn, từ tự động hóa các tác vụ phân tích dữ liệu thông thường đến cung cấp thông tin chi tiết thông minh và đưa ra khuyến nghị dựa trên dữ liệu bảng tính.
• SpreadsheetLLM có thể giúp dữ liệu bảng tính dễ tiếp cận và dễ hiểu hơn đối với nhiều người dùng hơn. Người dùng có thể truy vấn và thao tác dữ liệu bảng tính bằng tiếng Anh đơn giản thay vì các công thức phức tạp hoặc ngôn ngữ lập trình.
• Microsoft đang đầu tư mạnh vào công nghệ AI cho doanh nghiệp. Công ty đã giới thiệu Microsoft 365 Copilot vào tháng 3 năm ngoái và công bố bản xem trước công khai của Copilot for Finance vào tháng 2.
• Sự phát triển của AI trong doanh nghiệp cũng đặt ra những câu hỏi quan trọng về tương lai của công việc và tác động tiềm tàng đối với việc làm. Các công ty cần cân nhắc kỹ lưỡng cách đào tạo lại và nâng cao kỹ năng cho lực lượng lao động để thích ứng với những thay đổi này.
• Khi SpreadsheetLLM chuyển từ nghiên cứu sang ứng dụng thực tế, nó có thể biến đổi cách chúng ta làm việc với bảng tính và mở ra những khả năng mới cho việc ra quyết định dựa trên dữ liệu trong doanh nghiệp.
📌 Microsoft ra mắt SpreadsheetLLM, hệ thống AI hiểu và phân tích bảng tính, mở ra tiềm năng tự động hóa và tối ưu hóa công việc trong doanh nghiệp. Công nghệ này kết hợp sức mạnh của mô hình ngôn ngữ lớn với dữ liệu có cấu trúc, hứa hẹn nâng cao hiệu quả phân tích và ra quyết định dựa trên dữ liệu.
https://venturebeat.com/ai/microsofts-new-ai-system-spreadsheetllm-unlocks-insights-from-spreadsheets-boosting-enterprise-productivity/
• Anthropic Console là công cụ dành cho nhà phát triển nhưng bất kỳ ai có tài khoản Claude đều có thể truy cập và nâng cao khả năng tạo prompt lên một tầm cao mới.
• Tính năng nổi bật nhất là khả năng xây dựng prompt tốt hơn, có thể sử dụng với Claude hoặc bất kỳ chatbot hay hệ thống AI nào khác, kể cả các công cụ tạo hình ảnh và video như Midjourney và Runway.
• Tất cả tính năng mới đều được xây dựng trên mô hình Claude 3.5 Sonnet và cho phép nhập liệu bằng ngôn ngữ tự nhiên - chỉ cần mô tả những gì bạn muốn, nó sẽ tạo ra một prompt mà AI có thể hiểu rõ hơn.
• Console bao gồm công cụ tạo prompt, sinh dữ liệu và kiểm thử prompt. Nó sử dụng hệ thống trả trước, tính phí theo token với giá khoảng 3 USD cho mỗi triệu token đầu vào và 15 USD cho mỗi triệu token đầu ra.
• Tính năng mạnh mẽ nhất là trình tạo prompt. Chỉ cần nhập mô tả nhiệm vụ, Claude sẽ chuyển đổi thành một prompt chất lượng cao.
• Ví dụ, khi yêu cầu tạo một câu chuyện ngắn và các prompt cần thiết để AI biên tập video minh họa, Console đã tạo ra một prompt phức tạp, nhiều lớp, phân tích cách AI nên trình bày phản hồi.
• Console khác với chatbot ở chỗ không có prompt hệ thống mặc định nên phản hồi sẽ trực tiếp và cụ thể hơn. Người dùng có thể tự đặt prompt hệ thống để yêu cầu Claude phản hồi theo cách mong muốn.
• Mặc dù chatbot dễ sử dụng hơn, Console cung cấp cách tương tác mạnh mẽ hơn với mô hình. Nó giống như làm việc trong Terminal hay Command Line - thực hiện cùng chức năng nhưng có thể chỉ định cụ thể hơn cách thực hiện.
📌 Anthropic Console là công cụ mạnh mẽ cho phép tương tác sâu hơn với AI, với các tính năng như tạo prompt tự động, sinh dữ liệu và kiểm thử. Nó sử dụng mô hình Claude 3.5 Sonnet, tính phí theo token và cung cấp khả năng tùy chỉnh cao cho người dùng chuyên nghiệp.
https://www.tomsguide.com/ai/anthropic-console-is-the-hidden-powerhouse-for-ai-and-it-just-got-a-lot-better
• Microsoft đang chuẩn bị cho phép Copilot trong OneNote đọc và phân tích các ghi chú viết tay. Tính năng này đã bắt đầu thử nghiệm beta vào cuối tháng trước.
• Người dùng OneNote có thể viết ghi chú bằng bút stylus, sau đó sử dụng Copilot để tóm tắt, đặt câu hỏi hoặc tạo danh sách việc cần làm dựa trên các ghi chú đó.
• Tính năng AI Copilot trong OneNote còn có khả năng chuyển đổi ghi chú viết tay thành văn bản để dễ dàng chỉnh sửa và chia sẻ.
• Microsoft lần đầu ra mắt Copilot trong OneNote vào tháng 11/2023. Bản nâng cấp mới này sẽ có sẵn cho người đăng ký Copilot for Microsoft 365 và người dùng Copilot Pro khi được triển khai rộng rãi hơn.
• Tác giả Tom Warren đã thử nghiệm khả năng đọc chữ viết tay của Copilot và ấn tượng với việc nó có thể giải mã được chữ viết của anh ấy.
• Tính năng tóm tắt hoạt động tốt với cả ghi chú viết tay ngắn và dài hơn. Copilot có thể viết lại toàn bộ một đoạn ghi chú viết tay thành văn bản dễ đọc, trung thực với bản gốc nhưng cũng hơi vui tươi hơn.
• Đối với những người sử dụng OneNote để tạo danh sách việc cần làm viết tay, tính năng này giúp dễ dàng chuyển đổi chúng thành văn bản ở giai đoạn sau. Tác giả đã tạo một danh sách viết tay và Copilot có thể chuyển đổi chính xác thành danh sách văn bản trong vài giây.
• Tuy nhiên, vẫn chưa rõ Copilot sẽ xử lý như thế nào với chữ viết tay còn tệ hơn. Galaxy AI của Samsung có tính năng tương tự có thể tự động định dạng danh sách viết tay, nhưng gặp khó khăn với một số chữ viết tay tệ nhất.
• Để thử nghiệm tính năng nhận dạng ghi chú viết tay của Copilot, người dùng cần là Microsoft 365 Insider chạy bản dựng OneNote trên Windows mới nhất (17628.20006 trở lên) và có đăng ký Copilot Pro hoặc Copilot for Microsoft 365.
📌 Microsoft nâng cấp Copilot AI trong OneNote, cho phép đọc và phân tích chữ viết tay, tóm tắt ghi chú và tạo danh sách việc cần làm. Tính năng mới đang trong giai đoạn beta, sẽ có sẵn cho người đăng ký Copilot for Microsoft 365 và Copilot Pro.
https://www.theverge.com/2024/7/12/24197009/microsoft-onenote-copilot-inked-notes-handwriting-recognition
• Perplexity vừa ra mắt bản nâng cấp lớn cho công cụ Pro Search AI, với khả năng hiểu khi nào một câu hỏi cần lập kế hoạch, thực hiện các mục tiêu từng bước và tổng hợp câu trả lời chuyên sâu hiệu quả hơn.
• Công ty cho biết Pro Search có thể "xác định các án lệ cho luật sư", thể hiện khả năng nghiên cứu và phân tích nâng cao.
• Một ví dụ về khả năng của Pro Search là trả lời câu hỏi về thời điểm tốt nhất để xem cực quang ở Iceland hoặc Phần Lan. Công cụ chia nhỏ quá trình nghiên cứu thành 3 tìm kiếm: thời điểm tốt nhất, địa điểm xem ở Iceland và địa điểm xem ở Phần Lan.
• Pro Search cũng có thể tạo báo cáo chi tiết dựa trên yêu cầu thông qua tính năng Pages.
• Ngoài khả năng nghiên cứu kỹ lưỡng hơn, Perplexity cho biết Search Pro giờ đây có khả năng toán học và lập trình nâng cao, cải thiện khả năng phân tích dữ liệu, gỡ lỗi mã và tạo nội dung.
• Người dùng có thể dùng thử 5 lần tìm kiếm mỗi ngày với tài khoản miễn phí. Gói đăng ký 20 USD/tháng cung cấp 600 lần tìm kiếm Pro mỗi ngày.
• Tuy nhiên, Perplexity đang phải đối mặt với những cáo buộc nghiêm trọng về đạo đức. Các báo cáo gần đây từ Wired và Forbes cáo buộc công ty phạm tội đạo văn.
• Wired gọi Perplexity là "Cỗ máy Bullshit", với các hoạt ảnh gây hiểu nhầm về những gì nó đang làm.
• Công ty cũng bị cáo buộc sử dụng các công cụ thu thập dữ liệu bỏ qua các quy tắc trong tệp robots.txt, vi phạm quyền riêng tư và quyền sở hữu trí tuệ.
• Những cáo buộc này đặt ra câu hỏi về tính minh bạch và đạo đức trong hoạt động của Perplexity, đặc biệt khi công ty tự gọi mình là "công cụ trả lời".
📌 Perplexity nâng cấp Pro Search AI với khả năng nghiên cứu và toán học nâng cao, nhưng đối mặt cáo buộc đạo văn và thu thập dữ liệu trái phép. Công ty cung cấp 5 lần tìm kiếm miễn phí/ngày và 600 lần/ngày với gói 20 USD/tháng, song vẫn cần giải quyết các vấn đề về đạo đức.
https://www.theverge.com/2024/7/3/24191431/perplexity-upgraded-pro-search-ai-research-assistant
• 1minAI là công cụ AI tổng hợp, cung cấp quyền truy cập vào nhiều mô hình AI hàng đầu như ChatGPT, Gemini Pro, Llama, Mistral AI và nhiều hơn nữa trong một giao diện duy nhất.
• Gói đăng ký trọn đời 1minAI hiện có giá chỉ 39,97 USD, giúp tiết kiệm chi phí đáng kể so với việc đăng ký riêng lẻ từng công cụ AI.
• 1minAI cung cấp đa dạng công cụ AI cho nhiều mục đích khác nhau như viết nội dung, tạo hình ảnh, ghi âm và chỉnh sửa video.
• Người dùng có thể sử dụng các phiên bản GPT-4, GPT-4 Turbo và GPT-4o thông qua 1minAI.
• Ngoài tạo nội dung, 1minAI còn hỗ trợ nghiên cứu từ khóa SEO, viết lại và tóm tắt nội dung.
• Công cụ này cũng có khả năng tạo hình ảnh, chuyển đổi giọng nói thành văn bản và ngược lại, tóm tắt nội dung file PDF.
• Gói đăng ký trọn đời cung cấp 15.000 tín dụng AI mỗi ngày khi đăng nhập, tổng cộng lên đến 450.000 tín dụng mỗi tháng.
• Với số tín dụng này, mỗi tháng người dùng có thể tạo ra tới 362.500 từ, nghiên cứu 1.933 từ khóa SEO, tạo 386 hình ảnh, xóa nền 24 ảnh, tạo văn bản thành giọng nói cho 120.833 ký tự, và chuyển đổi 4.833 giây âm thanh thành văn bản.
• Ưu điểm lớn của 1minAI là tín dụng AI không bị mất đi nếu không sử dụng, giúp người dùng linh hoạt trong việc sử dụng dịch vụ.
• 1minAI được quảng cáo là công cụ AI đa năng, dễ sử dụng, phù hợp với nhiều nhu cầu khác nhau của người dùng.
📌 1minAI cung cấp gói đăng ký trọn đời với giá 39,99 USD (giá gốc 234 USD), cho phép truy cập nhiều công cụ AI hàng đầu trong một nền tảng. Người dùng nhận 450.000 tín dụng AI mỗi tháng, có thể sử dụng cho nhiều tác vụ như tạo nội dung, hình ảnh và xử lý âm thanh.
https://www.cultofmac.com/861323/1minai-all-in-one-ai-tool/
• Google vừa ra mắt NotebookLM - một trợ lý AI mới được thiết kế để hỗ trợ sinh viên học tập hiệu quả hơn. Đây là sản phẩm được phát triển bởi Google Labs dưới sự chỉ đạo của Steven Johnson - tác giả nổi tiếng về đổi mới sáng tạo.
• NotebookLM có 5 tính năng nổi bật khiến sinh viên yêu thích:
• Trích dẫn nguồn đáng tin cậy: Cho phép người dùng tải lên các tài liệu nguồn và đảm bảo câu trả lời của AI dựa trên những nguồn đáng tin cậy này. Điều này giúp tránh được vấn đề "ảo giác" của AI.
• Hệ thống trích dẫn nâng cao: Cung cấp trích dẫn inline cho từng câu, người dùng có thể di chuột qua hoặc nhấp vào để xem nguồn gốc. Tính năng này thúc đẩy tính trung thực học thuật và dạy sinh viên tầm quan trọng của việc trích dẫn đúng cách.
• Hỗ trợ đa ngôn ngữ: Hỗ trợ 38 ngôn ngữ, cho phép người dùng tương tác với tài liệu bằng ngôn ngữ mẹ đẻ của họ. Ví dụ, người dùng Nhật Bản có thể tải tài liệu tiếng Anh và trò chuyện với AI bằng tiếng Nhật.
• Tối ưu hóa cho việc học: NotebookLM được thiết kế để giúp người dùng hiểu tài liệu phức tạp thông qua giao diện trò chuyện, tính năng ghi chú và khám phá tài liệu nguồn.
• Tạo tài liệu ôn tập tự động: Có thể tự động tạo ra các tài liệu ôn tập như tóm tắt, câu hỏi trắc nghiệm, câu hỏi luận và bảng thuật ngữ chỉ trong vài giây.
• Ngoài ra, NotebookLM còn có khả năng kết nối các ý tưởng và gợi ý ý tưởng liên quan, rất hữu ích cho sinh viên làm nghiên cứu hoặc tìm ý tưởng mới cho dự án.
• Hiện tại, NotebookLM chỉ dành cho người dùng từ 18 tuổi trở lên, nhưng Google đang tìm cách mở rộng cho học sinh trung học.
• Steven Johnson nhấn mạnh tiềm năng của NotebookLM trong việc hỗ trợ sinh viên brainstorm ý tưởng, tạo bản nháp đầu tiên và phát triển ý tưởng dựa trên nguồn tài liệu một cách nhanh chóng và hiệu quả.
📌 NotebookLM của Google là trợ lý AI mới hứa hẹn cách mạng hóa cách sinh viên tương tác với thông tin. Với 5 tính năng nổi bật như trích dẫn nguồn, hỗ trợ 38 ngôn ngữ và tạo tài liệu ôn tập tự động, công cụ này có thể nâng cao hiệu quả học tập và thúc đẩy đổi mới trong giáo dục.
https://www.forbes.com/sites/danfitzpatrick/2024/06/29/google-notebooklm-5-reasons-students-will-love-it/
• Kỷ nguyên AI tạo sinh đã đến, với các mạng neural có khả năng tạo ra dữ liệu mới, nội dung và đưa ra quyết định dựa trên bộ dữ liệu huấn luyện rộng lớn.
• Giao diện AI tạo sinh đang ngày càng đa dạng, từ chatbot dựa trên văn bản như ChatGPT đến các cách tiếp cận thay thế như Hume AI và Anthropic.
• Google và Microsoft đã tích hợp AI tạo sinh vào công cụ tìm kiếm, trong khi các mô hình tạo nội dung như Stable Diffusion, Midjourney cung cấp giao diện web với các nút điều khiển, thanh trượt để kiểm soát đầu ra AI.
• Không có giao diện người dùng "một kích cỡ phù hợp tất cả" cho AI tạo sinh. Việc lựa chọn phụ thuộc vào trường hợp sử dụng cụ thể và đầu ra mong muốn.
• Các chatbot như ChatGPT, Google Bard/Gemini, Hugging Chat, Claude, Microsoft Copilot, Pi AI tập trung vào giao diện đơn giản, dễ sử dụng cho nhiều mục đích khác nhau.
• Hume AI nổi bật với giao diện giọng nói có trí tuệ cảm xúc, phân tích giọng nói để hiểu và truyền đạt cảm xúc con người.
• Công cụ tìm kiếm và nghiên cứu như NinjaTech, Perplexity AI cung cấp giao diện cho phép truy vấn nâng cao và phân tích dữ liệu.
• Các công cụ sáng tạo nội dung như Luma AI's Dream Machine, MidJourney, Suno AI tập trung vào giao diện trực quan để tạo hình ảnh, video, âm nhạc.
• Apple và Meta đã tích hợp AI vào các tính năng sẵn có của hệ điều hành và nền tảng mạng xã hội.
• Thành công trong tương lai của các dịch vụ AI tạo sinh phụ thuộc vào thiết kế và trải nghiệm người dùng.
• Hội nghị VB Transform 2024 sắp tới sẽ thảo luận sâu hơn về tương lai đa chức năng của AI, với sự tham gia của các chuyên gia từ nhiều công ty hàng đầu.
📌 Giao diện AI tạo sinh đa dạng từ chatbot đến công cụ sáng tạo, phù hợp với nhiều mục đích sử dụng. Thiết kế UX đóng vai trò quan trọng, cần cân bằng giữa chức năng, trải nghiệm người dùng và đạo đức. Hội nghị VB Transform 2024 sẽ thảo luận sâu hơn về xu hướng này.
https://venturebeat.com/ai/whats-the-best-interface-for-gen-ai-it-all-depends-on-the-use-case/
• Bài viết giới thiệu cách xây dựng ứng dụng AI tạo sinh thời gian thực sử dụng các dịch vụ của AWS như Amazon Bedrock, Amazon Managed Service for Apache Flink và Amazon Kinesis Data Streams.
• Ứng dụng này có khả năng xử lý hàng triệu sự kiện mỗi giây và tạo ra phản hồi AI tạo sinh trong thời gian thực.
• Amazon Bedrock là dịch vụ cung cấp các mô hình ngôn ngữ lớn (LLM) từ các nhà cung cấp AI hàng đầu thông qua API đơn giản.
• Amazon Managed Service for Apache Flink cho phép xây dựng và chạy các ứng dụng phân tích luồng dữ liệu thời gian thực mà không cần quản lý cơ sở hạ tầng.
• Amazon Kinesis Data Streams là dịch vụ thu thập và xử lý luồng dữ liệu lớn theo thời gian thực.
• Kiến trúc ứng dụng bao gồm 3 thành phần chính: nguồn dữ liệu (Kinesis Data Streams), xử lý luồng (Apache Flink), và AI tạo sinh (Amazon Bedrock).
• Dữ liệu được thu thập từ nguồn và đưa vào Kinesis Data Streams.
• Apache Flink đọc dữ liệu từ Kinesis, xử lý và gửi yêu cầu đến Amazon Bedrock để tạo ra phản hồi AI.
• Kết quả cuối cùng được ghi lại vào một luồng Kinesis khác để sử dụng tiếp.
• Bài viết hướng dẫn chi tiết cách triển khai ứng dụng, bao gồm cấu hình AWS CDK, tạo ứng dụng Flink, và triển khai mã nguồn.
• Các bước chính bao gồm: cài đặt môi trường, clone mã nguồn từ GitHub, cấu hình và triển khai stack CDK, chạy ứng dụng Flink.
• Ứng dụng demo sử dụng dữ liệu giả lập về giao dịch tài chính để phát hiện gian lận.
• Apache Flink xử lý luồng dữ liệu, tính toán các chỉ số như tổng giá trị giao dịch trong 5 phút gần nhất.
• Nếu phát hiện dấu hiệu bất thường, Flink sẽ gửi yêu cầu đến Amazon Bedrock để phân tích sâu hơn.
• Amazon Bedrock sử dụng mô hình Claude của Anthropic để phân tích và đưa ra nhận định về khả năng gian lận.
• Kết quả cuối cùng bao gồm dữ liệu gốc, các chỉ số tính toán và phản hồi từ AI được ghi lại vào Kinesis output stream.
• Bài viết cũng hướng dẫn cách theo dõi hiệu suất ứng dụng thông qua Amazon CloudWatch và cách dọn dẹp tài nguyên sau khi sử dụng xong.
📌 Ứng dụng kết hợp Amazon Bedrock, Apache Flink và Kinesis Data Streams cho phép xử lý hàng triệu sự kiện/giây và tạo phản hồi AI tức thì. Kiến trúc 3 lớp (nguồn dữ liệu, xử lý luồng, AI tạo sinh) mang lại khả năng phân tích dữ liệu thời gian thực mạnh mẽ, ứng dụng trong nhiều lĩnh vực như phát hiện gian lận tài chính.
https://aws.amazon.com/blogs/big-data/build-a-real-time-streaming-generative-ai-application-using-amazon-bedrock-amazon-managed-service-for-apache-flink-and-amazon-kinesis-data-streams/
• MaxKB là một hệ thống trả lời câu hỏi tiên tiến dựa trên các mô hình ngôn ngữ lớn (LLMs), được thiết kế để cách mạng hóa việc quản lý kiến thức trong doanh nghiệp.
• Hệ thống này giải quyết các thách thức mà nhiều tổ chức gặp phải trong việc quản lý và truy xuất thông tin từ kho dữ liệu của họ.
• Các giải pháp hiện có thường đòi hỏi thiết lập phức tạp và chuyên môn về lập trình, gây khó khăn cho việc tích hợp vào hệ thống hiện có.
• MaxKB đơn giản hóa quá trình tạo và triển khai cơ sở kiến thức toàn diện, không yêu cầu kiến thức kỹ thuật chuyên sâu.
• Hệ thống hỗ trợ tải lên tài liệu trực tiếp, tự động thu thập tài liệu trực tuyến và có khả năng xử lý văn bản thông minh.
• MaxKB cho phép tách và vector hóa văn bản tự động, nâng cao khả năng truy cập và tìm kiếm dữ liệu.
• Hệ thống sử dụng công nghệ tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) để tinh chỉnh kết quả tìm kiếm, cung cấp câu trả lời chính xác cho các truy vấn.
• MaxKB tích hợp liền mạch với nhiều mô hình lớn khác nhau, đảm bảo tính linh hoạt và khả năng mở rộng cho các nhu cầu kinh doanh đa dạng.
• Giao diện trực quan của MaxKB làm cho nó dễ tiếp cận với tất cả người dùng, bất kể trình độ kỹ thuật.
• Hệ thống có thể được triển khai trong môi trường cục bộ hoặc tích hợp vào các hệ thống của bên thứ ba.
• MaxKB nổi bật về khả năng tiếp cận và hiệu suất, giúp các tổ chức khai thác dữ liệu của họ một cách hiệu quả.
• Hệ thống này giải quyết nhu cầu về một giải pháp thân thiện với người dùng và hiệu quả trong việc quản lý kiến thức doanh nghiệp.
• MaxKB không chỉ mạnh mẽ mà còn hiệu quả và đáng tin cậy, với khả năng ấn tượng trong việc xử lý và truy xuất thông tin.
📌 MaxKB là hệ thống trả lời câu hỏi dựa trên LLMs, cách mạng hóa quản lý kiến thức doanh nghiệp. Với khả năng tải tài liệu trực tiếp, thu thập tự động và xử lý thông minh, MaxKB đơn giản hóa việc truy xuất thông tin mà không cần chuyên môn kỹ thuật cao.
https://www.marktechpost.com/2024/06/27/maxkb-knowledge-base-question-answering-system-based-on-large-language-models-llms/
• Anthropic, công ty AI được hậu thuẫn bởi Amazon, Google và Salesforce, đã ra mắt bộ tính năng cộng tác mạnh mẽ cho trợ lý AI Claude, nhằm cách mạng hóa cách các nhóm tương tác với AI.
• Tính năng Projects cho phép các nhóm tổng hợp tài liệu, mã và thông tin liên quan trong một không gian duy nhất. Với khả năng xử lý 200.000 token (tương đương 500 trang sách), Claude có thể hiểu và xử lý lượng lớn thông tin đặc thù của tổ chức.
• Artifacts là tính năng cho phép người dùng tạo và chỉnh sửa nội dung song song với cuộc trò chuyện với Claude, giúp hợp lý hóa quy trình sáng tạo.
• Các tính năng chia sẻ nâng cao cho phép chia sẻ dễ dàng các Projects, Artifacts hoặc cuộc trò chuyện cụ thể với đồng nghiệp, hỗ trợ quá trình chuyển giao kiến thức và ra quyết định.
• Anthropic đã triển khai các biện pháp bảo mật mạnh mẽ, bao gồm nhiều cấp độ quyền truy cập để đảm bảo an toàn dữ liệu. Người dùng có thể xóa Projects và dữ liệu liên quan sẽ bị xóa khỏi môi trường lưu trữ đám mây trong vòng 30 ngày.
• Công ty nhấn mạnh rằng dữ liệu chia sẻ trong Projects sẽ không được sử dụng để đào tạo các mô hình tạo sinh của họ mà không có sự đồng ý rõ ràng của người dùng.
• North Highland, một công ty tư vấn chuyển đổi, cho biết họ hoàn thành các tác vụ tạo nội dung và phân tích nhanh hơn gấp 5 lần so với trước khi sử dụng Claude.
• Scott White, trưởng nhóm sản phẩm tại Anthropic, chia sẻ tầm nhìn của công ty là tạo ra các hệ thống AI làm việc cùng con người và nâng cao đáng kể quy trình làm việc của họ.
• Bằng cách tập trung vào việc tăng cường khả năng của con người thay vì thay thế họ, Anthropic đang định vị mình như một đối thủ đáng gờm trong cuộc đua thống trị thị trường AI hỗ trợ năng suất làm việc.
• Anthropic gợi ý về các tích hợp trong tương lai với các ứng dụng và công cụ phổ biến, cho thấy cam kết tiếp tục tập trung vào việc tích hợp AI một cách liền mạch vào các quy trình kinh doanh hiện có.
📌 Anthropic ra mắt tính năng Projects và Artifacts cho Claude, cách mạng hóa cộng tác nhóm với AI. Với khả năng xử lý 200.000 token, bảo mật dữ liệu mạnh mẽ và tăng hiệu suất gấp 5 lần, Anthropic đang định vị mình như đối thủ đáng gờm trong thị trường AI doanh nghiệp.
https://venturebeat.com/ai/anthropic-ai-assistant-claude-just-got-a-massive-upgrade-heres-what-you-need-to-know/
- KPMG dự định nâng cấp công cụ AI tạo sinh nội bộ Advisory Content Chat với sự hỗ trợ của Microsoft. Công cụ này được xây dựng bằng OpenAI Service và Azure AI Search của Microsoft.
- Hai tổ chức hợp tác để tối ưu việc định vị nội dung nội bộ từ lượng lớn thông tin lưu trữ. Hiện tại, hơn 15.000 nhân viên tư vấn đang sử dụng công cụ này. KPMG dự kiến mở rộng quy mô toàn cầu của công cụ này trong mùa hè năm nay.
- KPMG cũng sẽ triển khai Microsoft 365 Copilot cho tất cả đối tác và chuyên gia tại Mỹ trong năm nay, hỗ trợ sáng kiến nhằm tích hợp AI tạo sinh vào mọi hoạt động của KPMG.
- KPMG đang tập trung vào dữ liệu cung cấp cho các giải pháp AI để đạt kết quả tốt hơn. Họ coi Advisory Content Chat là yếu tố cốt lõi của các ứng dụng và giải pháp AI tạo sinh trong tương lai.
- Các công ty dịch vụ chuyên nghiệp đang trải qua quá trình chuyển đổi nội bộ và đồng thời hỗ trợ khách hàng doanh nghiệp. PwC đã triển khai các giải pháp hướng tới khách hàng và điều chỉnh nội bộ, dự kiến triển khai ChatGPT Enterprise cho hơn 100.000 nhân viên.
- Doanh nghiệp sẵn sàng chi tiêu cho AI. Gần 2/3 công ty đã đầu tư từ 5 triệu USD trở lên cho các khả năng AI mới nổi. Accenture đã đạt doanh thu 900 triệu USD từ hoạt động AI tạo sinh trong quý gần nhất.
- EY cũng đang phát triển các sản phẩm AI cho khách hàng và nhân viên. Công ty dự kiến triển khai Microsoft Dynamics 365 Sales và Copilot for Sales cho 100.000 nhân viên vào tháng 1/2025.
📌 KPMG và các công ty dịch vụ chuyên nghiệp khác như PwC, Accenture, EY đang đẩy mạnh đầu tư vào AI tạo sinh, hợp tác với Microsoft để nâng cấp công cụ nội bộ và triển khai giải pháp cho khách hàng. Với khoản đầu tư lên tới hàng trăm triệu USD, AI đang trở thành trọng tâm chiến lược của các doanh nghiệp này.
https://www.ciodive.com/news/KPMG-microsoft-copilot-generative-ai-tool-partnership/719689/
• Anthropic vừa giới thiệu tính năng Artifacts - một không gian làm việc chuyên dụng bên cạnh giao diện trò chuyện của Claude, cho phép người dùng thao tác và tinh chỉnh nội dung do AI tạo ra theo thời gian thực.
• Artifacts đánh dấu bước đột phá trong cách chúng ta tương tác với AI, chuyển AI từ một chatbot thông minh thành một đối tác cộng tác thực sự trong công việc.
• Tính năng này có thể tác động sâu rộng đến nhiều lĩnh vực như phát triển phần mềm và sáng tạo nội dung. Trong lập trình, AI có thể tham gia tích cực vào quá trình phát triển - đề xuất tối ưu hóa, cảnh báo vấn đề tiềm ẩn và thậm chí hỗ trợ tái cấu trúc toàn bộ codebase theo thời gian thực.
• Đối với sáng tạo nội dung, Artifacts có thể biến AI thành cộng tác viên toàn diện, có khả năng tạo bản nháp, đề xuất sửa đổi và quản lý kiểm soát phiên bản - tất cả trong một giao diện thống nhất.
• Artifacts có thể tạo ra mối đe dọa đối với các công cụ quản lý dự án, thiết kế cộng tác và năng suất truyền thống. Nếu Anthropic mở rộng thành công khái niệm này, các nền tảng cộng tác lấy AI làm trung tâm có thể trở thành chuẩn mực mới.
• Chiến lược của Anthropic tập trung vào trải nghiệm người dùng và ứng dụng thực tế, khác biệt so với cuộc đua về khả năng mô hình của OpenAI và Google.
• Artifacts đánh dấu sự khởi đầu của một kỷ nguyên mới trong phát triển AI - nơi giao diện trở thành chiến trường chính trong cuộc chiến giành vị thế thống trị AI.
• Đối với các nhà lãnh đạo doanh nghiệp, điều quan trọng là phải nhìn xa hơn sự phô trương về khả năng mô hình. Khả năng tích hợp liền mạch nội dung do AI tạo ra vào quy trình làm việc hiện có sẽ trở nên quan trọng không kém trí thông minh của mô hình cơ bản.
• Sự tập trung của Anthropic vào trải nghiệm người dùng có thể chứng minh là bước đi gây rối loạn nhất trong ngành công nghiệp thường bị cáo buộc theo đuổi các điểm chuẩn mà bỏ qua tiện ích trong thế giới thực.
📌 Artifacts của Anthropic mở ra cuộc chiến giao diện AI mới, tập trung vào trải nghiệm người dùng thay vì chỉ khả năng mô hình. Tính năng này có thể tác động sâu rộng đến phát triển phần mềm, sáng tạo nội dung và thị trường phần mềm doanh nghiệp, định hình lại tương lai của AI trong môi trường làm việc.
https://venturebeat.com/ai/why-anthropics-artifacts-may-be-this-years-most-important-ai-feature-unveiling-the-interface-battle/
- Firecrawl là một công cụ web scraping mạnh mẽ được tạo ra bởi đội ngũ Mendable AI, giúp giải quyết các thách thức phức tạp trong việc lấy dữ liệu từ internet như proxy, bộ nhớ đệm, giới hạn tốc độ và nội dung được tạo bằng JavaScript.
- Firecrawl khám phá mọi trang trên một trang web, kể cả khi không có sơ đồ trang web, đảm bảo quá trình trích xuất dữ liệu đầy đủ. Nó hiệu quả thu thập dữ liệu từ các trang web động dựa trên JavaScript.
- Dữ liệu được trích xuất và trả về dưới dạng Markdown sạch, định dạng tốt, đặc biệt hữu ích cho các ứng dụng mô hình ngôn ngữ lớn (LLM).
- Firecrawl phối hợp việc thu thập dữ liệu đồng thời, tăng tốc độ trích xuất dữ liệu đáng kể. Nó sử dụng cơ chế bộ nhớ đệm để tối ưu hóa hiệu quả, chỉ cần thu thập lại khi có nội dung mới.
- Một khía cạnh mới của Firecrawl là sử dụng vòng lặp phản hồi tạo sinh để làm sạch các phần dữ liệu. Các mô hình tạo sinh đưa ra phản hồi về các phần dữ liệu, chỉ ra lỗi và đề xuất cải tiến, giúp nâng cao chất lượng tập dữ liệu.
- Firecrawl cung cấp API trực quan với nhiều SDK cho tích hợp Python, Node, Langchain và Llama Index. Người dùng có thể chạy Firecrawl cục bộ để có giải pháp tự lưu trữ.
📌 Firecrawl là một bước tiến quan trọng trong lĩnh vực web scraping và lưu trữ dữ liệu với khả năng mạnh mẽ và tích hợp liền mạch. Kết hợp với phương pháp sáng tạo làm sạch dữ liệu qua vòng lặp phản hồi tạo sinh, nó cung cấp giải pháp toàn diện để truy cập nguồn dữ liệu phong phú trên internet, phục vụ cho các ứng dụng AI.
https://www.marktechpost.com/2024/06/20/firecrawl-a-powerful-web-scraping-tool-for-turning-websites-into-large-language-model-llm-ready-markdown-or-structured-data/
- Dot là ứng dụng AI đồng hành mới do New Computer phát triển, được sáng lập bởi cựu nhân viên thiết kế Apple Jason Yuan và kỹ sư Sam Whitmore.
- Dot ghi nhớ các cuộc trò chuyện để xây dựng sự hiểu biết ngày càng sâu sắc về người dùng, tạo mối quan hệ cá nhân hóa.
- Nguyên tắc thiết kế cốt lõi của Dot là tạo cảm giác ấm áp, thân thiện và an toàn như "trở về nhà, trở về với chính mình".
- Giao diện Dot tối giản như ứng dụng nhắn tin, nhưng có thể phóng to/thu nhỏ cuộc trò chuyện, tóm tắt chủ đề, liên kết đến "wiki" tương ứng.
- Dot chủ động gửi "Quà tặng" - các tin nhắn suy ngẫm sâu hơn về người dùng sau một thời gian.
- Dot kết hợp 7-10 mô hình AI và LLM khác nhau để tạo "lý thuyết tâm trí" - chân dung về người dùng, điều chỉnh giọng điệu phù hợp.
- Mặc dù đôi khi gặp lỗi, Dot vẫn mang đến góc nhìn thẳng thắn, hữu ích cho người dùng.
- Người dùng có thể coi Dot như nhật ký sống động, trợ lý nghiên cứu, "nhà trị liệu" lúc 3 giờ sáng, hay công cụ hỗ trợ tư duy.
- Dot miễn phí sử dụng có giới hạn, gói không giới hạn 12 USD/tháng.
📌 Dot mở ra cánh cửa mới cho AI đồng hành dựa trên mối quan hệ lâu dài và cá nhân hóa sâu sắc. Dù chưa hoàn hảo, Dot đã chứng minh tiềm năng của việc xây dựng một mối quan hệ thực sự với AI, vượt xa những trợ lý ảo và công cụ tìm kiếm thông thường.
https://www.fastcompany.com/91142350/dot-an-ai-companion-app-designed-by-an-apple-alum-launches-in-the-app-store
- Maxim, một startup ở California do các cựu lãnh đạo Google và Postman sáng lập, ra mắt nền tảng đánh giá và quan sát toàn diện để giải quyết thách thức lớn nhất các nhà phát triển gặp phải khi xây dựng ứng dụng AI dựa trên mô hình ngôn ngữ lớn (LLM): theo dõi các phần di chuyển khác nhau trong vòng đời phát triển.
- Nền tảng của Maxim tập trung vào kiểm tra và cải thiện chất lượng, an toàn của AI trước và sau khi phát hành, tạo ra một tiêu chuẩn đánh giá, giúp các tổ chức hợp lý hóa toàn bộ vòng đời ứng dụng AI và nhanh chóng cung cấp sản phẩm chất lượng cao.
- Maxim có 4 thành phần chính: bộ thử nghiệm, bộ công cụ đánh giá, khả năng quan sát và công cụ dữ liệu. Bộ thử nghiệm giúp lặp lại các thành phần khác nhau của hệ thống AI. Bộ công cụ đánh giá cung cấp framework thống nhất để xác định cải tiến hay thoái lui. Khả năng quan sát cho phép giám sát nhật ký sản xuất thời gian thực và gỡ lỗi. Công cụ dữ liệu giúp thu thập và làm giàu dữ liệu để tinh chỉnh mô hình.
- Maxim tuyên bố đã giúp các đối tác thử nghiệm, lặp lại và triển khai sản phẩm AI nhanh hơn 5 lần. Hầu hết khách hàng của họ đến từ các lĩnh vực công nghệ B2B, dịch vụ AI tạo sinh, tài chính ngân hàng và giáo dục trực tuyến.
- Maxim có các tính năng dành cho doanh nghiệp như kiểm soát truy cập dựa trên vai trò, tuân thủ, cộng tác nhóm và triển khai trên đám mây riêng ảo.
📌 Maxim ra mắt nền tảng đánh giá toàn diện giúp các tổ chức hợp lý hóa vòng đời phát triển ứng dụng AI, tập trung vào kiểm tra chất lượng và an toàn trước và sau khi phát hành. Với 4 thành phần chính và các tính năng dành cho doanh nghiệp, Maxim đã giúp các đối tác triển khai sản phẩm AI nhanh hơn 5 lần, chủ yếu trong lĩnh vực công nghệ B2B, dịch vụ AI tạo sinh, tài chính và giáo dục trực tuyến.
https://venturebeat.com/ai/meet-maxim-an-end-to-end-evaluation-platform-to-solve-ai-quality-issues/
- Microsoft Research giới thiệu AutoGen Studio, một giao diện low-code nhằm đơn giản hóa việc tạo, kiểm thử và triển khai các quy trình AI đa tác tử.
- AutoGen Studio kế thừa từ framework AutoGen, một framework nguồn mở dựa trên Python cho phép cấu hình và điều phối các tác tử AI.
- Các tính năng chính của AutoGen Studio bao gồm: môi trường low-code, tùy chọn xuất và triển khai, cộng đồng và cộng tác, AI có trách nhiệm.
- Giao diện đồ họa cho phép người dùng xây dựng, kiểm thử và triển khai quy trình đa tác tử với mã tối thiểu, tùy chỉnh với các mô hình nền tảng, lời nhắc, kỹ năng và quy trình.
- Người dùng có thể xuất quy trình tác tử dưới dạng tệp cấu hình JSON, tích hợp vào ứng dụng Python và triển khai trên các dịch vụ đám mây như Azure Container Apps và Azure Web Apps.
- AutoGen Studio thúc đẩy môi trường cộng tác, cho phép người dùng chia sẻ, khám phá và học hỏi từ quy trình, tác tử và kỹ năng của nhau.
- Từ tháng 1 đến tháng 5 năm 2024, AutoGen Studio đã được tải xuống hơn 154.000 lần trên PyPI.
- Người dùng đã sử dụng AutoGen Studio để phát triển các ứng dụng như lập kế hoạch du lịch, nghiên cứu thị trường, trích xuất dữ liệu có cấu trúc và tạo video.
📌 AutoGen Studio đánh dấu bước tiến quan trọng trong việc phát triển các ứng dụng AI đa tác tử, thu hút 154.000 lượt tải xuống trong 5 tháng đầu năm 2024. Với môi trường low-code và cộng đồng cộng tác, nền tảng này hứa hẹn trở thành công cụ không thể thiếu cho các nhà nghiên cứu và lập trình viên tận dụng sức mạnh của AI đa tác tử.
https://www.marktechpost.com/2024/06/18/microsoft-research-launches-autogen-studio-a-low-code-platform-revolutionizing-multi-agent-ai-workflow-development-and-deployment/
- ChatLLM của Abacus AI tích hợp nhiều mô hình ngôn ngữ lớn (LLM) tiên tiến như Opus, Llama 3, Gemini, Avoca AI Smog vào một hệ thống thống nhất.
- Nền tảng cho phép tải lên và tương tác với PDF và các định dạng tài liệu khác, trích xuất thông tin và trực quan hóa dữ liệu bằng các công cụ tạo biểu đồ.
- ChatLLM hỗ trợ triển khai các AI agent tùy chỉnh phù hợp với cơ sở tri thức cụ thể, giúp tự động hóa các tác vụ phức tạp.
- Tích hợp liền mạch với các dịch vụ phổ biến như Slack, Google Drive để cộng tác và chia sẻ dữ liệu.
- Hỗ trợ tìm kiếm web, tạo ảnh, thực thi mã và vẽ biểu đồ để nghiên cứu và phân tích dữ liệu chuyên sâu.
- Cho phép phát triển và xuất các chatbot tùy chỉnh thông qua giao diện thân thiện, khuyến khích cộng tác nhóm.
- Sử dụng các kỹ thuật tiên tiến như tinh chỉnh (fine-tuning) và tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) để xây dựng chatbot chuyên biệt.
- Đơn giản hóa việc lựa chọn và tối ưu hóa mô hình thông qua khả năng AutoML.
- Cung cấp tài nguyên học tập SQL để nâng cao kỹ năng quản lý cơ sở dữ liệu và phân tích dữ liệu.
- Quy trình sử dụng đơn giản: tạo tài khoản, tải lên tài liệu, cấu hình chatbot, đào tạo mô hình và triển khai.
📌 ChatLLM là một nền tảng AI toàn diện, tích hợp nhiều mô hình ngôn ngữ tiên tiến, hỗ trợ phân tích tài liệu, triển khai AI agent tùy chỉnh, tích hợp bên thứ ba. Với các tính năng như tìm kiếm web, tạo ảnh, thực thi mã, AutoML và tài nguyên học SQL, ChatLLM giúp đơn giản hóa và tăng cường hoạt động cá nhân và doanh nghiệp.
https://www.geeky-gadgets.com/chatllm-ai-framework/
- IBM công bố tính khả dụng chung của IBM Concert, công cụ sử dụng AI tạo sinh để hợp lý hóa cách người dùng kiểm soát ứng dụng, cung cấp thông tin chi tiết về các ứng dụng và bộ công cụ được kết nối, đơn giản hóa quy trình tuân thủ.
- Số lượng ứng dụng cloud-native trên toàn cầu sẽ tăng từ 531,3 triệu hiện nay lên hơn 1 tỷ vào năm 2028. Doanh nghiệp cần nắm bắt sự bùng nổ dữ liệu và độ phức tạp mà sự tăng trưởng này mang lại.
- IBM Concert là công cụ quản lý và giám sát ứng dụng tự động, sử dụng AI được xây dựng trên nền tảng watsonx, giúp người dùng hiểu chi tiết về ứng dụng, môi trường chạy và các công cụ để kiểm soát chúng.
- IBM Concert có thể tạo phân tích, trực quan hóa, đề xuất, tăng tốc hành động và quy trình, phát hiện khoảng trống, giảm độ phức tạp, tăng cường khả năng phục hồi, hợp lý hóa hoạt động, đẩy nhanh đổi mới và kiểm soát tốt hơn chi phí CNTT.
- Trọng tâm ban đầu của IBM Concert là các trường hợp sử dụng như quản lý rủi ro và tuân thủ ứng dụng. Sắp tới, nó sẽ cải thiện quản lý chi phí và giải quyết các thách thức khác liên quan đến sự phát triển ứng dụng.
📌 IBM Concert, công cụ tự động hóa ứng dụng sử dụng AI tạo sinh, giúp doanh nghiệp đối phó với sự gia tăng nhanh chóng của ứng dụng cloud-native lên hơn 1 tỷ vào năm 2028. Nó cung cấp khả năng phân tích, trực quan hóa, đưa ra đề xuất để tăng tốc quy trình, giảm độ phức tạp, tăng cường khả năng phục hồi và kiểm soát tốt hơn chi phí CNTT.
https://siliconangle.com/2024/06/18/ibms-generative-ai-powered-application-automation-tool-concert-now-generally-available/
- Unify là một công cụ khởi nghiệp AI mới, có thể truy cập hầu hết các LLM hiện có thông qua một API duy nhất và so sánh các LLM khác nhau.
- Dựa trên tốc độ, chi phí và tùy chọn chất lượng, Unify tự động định tuyến mỗi yêu cầu tới mô hình phù hợp nhất.
- Unify kết nối các nhà phát triển với số lượng ngày càng tăng của LLM, loại bỏ quy trình tốn thời gian để tìm hiểu và tích hợp các LLM riêng lẻ.
- Người dùng có thể kiểm soát định tuyến dữ liệu bằng cách chọn mô hình, nhà cung cấp và điều chỉnh độ trễ, chi phí, chất lượng.
- Ứng dụng LLM được tự động cải thiện theo thời gian khi có thêm mô hình và nhà cung cấp mới vào Unify.
- So sánh khả năng quan sát để xem mô hình và nhà cung cấp nào đáp ứng yêu cầu tốt nhất.
- Unify công bằng với tất cả các mô hình và nhà cung cấp, không có số liệu thiên vị về tốc độ, chi phí hay chất lượng.
- Chỉ cần 1 API key để truy cập tất cả mô hình và nhà cung cấp. Có thể truy vấn riêng lẻ hoặc thông qua bộ định tuyến.
- Tập trung vào việc tạo ra sản phẩm LLM chất lượng cao, Unify lo việc cập nhật mô hình và nhà cung cấp.
- Đăng ký tài khoản Unify để truy cập tất cả mô hình từ mọi nhà cung cấp được hỗ trợ bằng 1 API key. Chỉ trả những gì nhà cung cấp điểm cuối lấy.
- Sử dụng hệ thống tín dụng để chuẩn hóa phí API, 1 tín dụng = 1 đô la. Đăng ký mới nhận 50$ tín dụng miễn phí.
- Bộ định tuyến của Unify cân bằng giữa tốc độ, chi phí và chất lượng dựa trên lựa chọn của người dùng.
- Hàm chấm điểm mạng nơ-ron ước tính mô hình nào sẽ đáp ứng tốt nhất với một lời nhắc cụ thể, cho phép dự đoán chất lượng trước.
- Tốc độ và chi phí được truy xuất từ dữ liệu chuẩn mới nhất cho vị trí đó.
📌 Unify cho phép các nhà phát triển tập trung vào việc tạo ra các ứng dụng sáng tạo bằng cách hợp lý hóa việc truy cập và lựa chọn LLM. Nó sử dụng một công cụ so sánh mạnh mẽ xem xét các yếu tố như giá cả, tốc độ xử lý và chất lượng đầu ra, giúp tìm ra LLM tốt nhất cho các tác vụ cụ thể như tạo định dạng văn bản độc đáo, dịch ngôn ngữ chính xác hay sáng tác nội dung sáng tạo.
https://www.marktechpost.com/2024/06/18/meet-unify-ai-an-ai-startup-that-dynamically-routes-each-user-prompt-to-the-best-llm-for-better-quality-speed-and-cost/
- Nghiên cứu của Microsoft và LinkedIn cho thấy 83% người lao động Malaysia mang công cụ AI cá nhân vào nơi làm việc, tương tự xu hướng BYOD trước đây.
- 68% người tham gia khảo sát gặp khó khăn với khối lượng và tốc độ công việc, 46% cảm thấy kiệt sức.
- Email vẫn là trở ngại lớn, với 85% email được đọc trong vòng dưới 15 giây.
- 60% thời gian làm việc trên Microsoft 365 dành cho email, chat và họp, chỉ 40% dành cho các ứng dụng sáng tạo như Word và PowerPoint.
- Tỷ lệ áp dụng AI tại Malaysia là 84%, vượt qua tỷ lệ toàn cầu 75%.
- ChatGPT đạt 100 triệu người dùng chỉ trong 3 tháng, so với 16 năm của điện thoại di động và 7 năm của Internet.
- 88% lãnh đạo Malaysia tin rằng AI là cần thiết cho doanh nghiệp, nhưng lo ngại thiếu kế hoạch và tầm nhìn triển khai.
- 52% người dùng AI tại Malaysia không muốn thừa nhận với sếp rằng họ đang sử dụng AI, 53% lo ngại công việc của họ sẽ bị thay thế.
- 85% người dùng AI thường xuyên tiết kiệm 30 phút làm việc mỗi ngày nhờ AI, 82% sử dụng AI để lên kế hoạch cho ngày hôm sau.
- 62% lãnh đạo doanh nghiệp Malaysia không tuyển dụng ứng viên thiếu kỹ năng AI, 65% ưu tiên ứng viên ít kinh nghiệm nhưng có kỹ năng AI hơn.
- LinkedIn ghi nhận tăng 142 lần số người thêm kỹ năng AI vào hồ sơ từ cuối năm ngoái, với 160% người dùng từ các ngành phi kỹ thuật như bất động sản và logistics tham gia các khóa học AI.
- Sự thay đổi trong yêu cầu kỹ năng công việc: 25% thay đổi từ năm 2015, dự kiến 68% thay đổi vào năm 2030.
- Các lãnh đạo khuyến khích nhân viên làm quen với AI, tương tự như cách họ đã học sử dụng Microsoft Word và Excel trước đây.
📌 Nghiên cứu cho thấy 83% người lao động Malaysia mang công cụ AI cá nhân vào nơi làm việc, tạo ra thách thức về bảo mật và yêu cầu kỹ năng mới. 62% lãnh đạo không tuyển dụng ứng viên thiếu kỹ năng AI, và 65% ưu tiên ứng viên có kỹ năng AI hơn.
https://www.thestar.com.my/tech/tech-news/2024/06/17/in-pursuit-of-productivity-malaysians-are-bringing-their-own-ai-tools-to-work
- Kong Inc. đã công bố sự ra mắt chính thức của Kong AI Gateway, cung cấp một cổng API AI-native để quản lý và bảo mật các khối lượng công việc AI tạo sinh trên mọi môi trường đám mây.
- Sản phẩm này, lần đầu tiên ra mắt dưới dạng beta vào tháng 2, đã thu hút sự chấp nhận đáng kể khi các tổ chức đổ xô để vận hành công nghệ AI tạo sinh.
- Kong AI Gateway cung cấp một loạt các khả năng hạ tầng được thiết kế riêng cho AI, bao gồm hỗ trợ nhiều mô hình ngôn ngữ lớn (LLMs), bộ nhớ đệm ngữ nghĩa, định tuyến ngữ nghĩa, tường lửa ngữ nghĩa và quản lý vòng đời mô hình.
- Sản phẩm tích hợp liền mạch với nền tảng API hiện có của Kong, cho phép các doanh nghiệp quản lý AI cùng với các API truyền thống.
- Marco Palladino, CTO và đồng sáng lập của Kong, cho biết Kong AI Gateway là "công nghệ hạ tầng AI có khả năng nhất trên thế giới" nhờ được xây dựng trên các tính năng cổng hiện có của Kong và cung cấp các khả năng chuyên sâu về AI.
- Kong AI Gateway hoạt động như một trung tâm cung cấp giao diện API thống nhất để quản lý và bảo mật nhiều công nghệ AI trên các ứng dụng khác nhau.
- Sản phẩm cung cấp các khả năng cụ thể về AI như quản trị, quan sát, bảo mật và nhiều hơn nữa, giúp các doanh nghiệp triển khai và mở rộng các sáng kiến AI tạo sinh một cách hiệu quả.
- Một điểm khác biệt quan trọng là khả năng của Kong AI Gateway trong việc kiểm tra lưu lượng AI và cung cấp một API thống nhất để tiêu thụ một hoặc nhiều nhà cung cấp AI.
- Kong AI Gateway cung cấp bảo mật prompt, tuân thủ, quản trị, tạo mẫu và vòng đời xung quanh các prompt AI, cùng với các "chỉ số quan sát AI L7" để cung cấp khả năng nhìn thấy hiệu suất của nhà cung cấp, sử dụng token và chi phí trên lưu lượng AI.
- Kong Konnect, mặt phẳng điều khiển thống nhất của Kong, sẽ cho phép các tổ chức kiếm tiền từ các mô hình AI được tinh chỉnh cùng với các API truyền thống.
- Sự ra mắt này diễn ra trong bối cảnh sự quan tâm đến AI tạo sinh tăng vọt sau thành công lan truyền của ChatGPT của OpenAI.
- Kong Inc. được thành lập ban đầu dưới tên Mashape vào năm 2009 và tách ra thành Kong vào năm 2017, đã huy động được hơn 170 triệu USD vốn đầu tư mạo hiểm cho đến nay.
- Công ty này xử lý hàng nghìn tỷ giao dịch API cho hơn 500 tổ chức trên toàn cầu và đang ở vị trí mạnh mẽ để thúc đẩy làn sóng tiếp theo của việc áp dụng AI tạo sinh trong doanh nghiệp.
📌 Kong AI Gateway của Kong Inc. cung cấp một giải pháp API AI-native mạnh mẽ để quản lý và bảo mật các khối lượng công việc AI tạo sinh, hỗ trợ nhiều mô hình ngôn ngữ lớn và tích hợp liền mạch với nền tảng API hiện có của Kong. Sản phẩm này giúp các doanh nghiệp triển khai và mở rộng các sáng kiến AI tạo sinh một cách hiệu quả.
https://venturebeat.com/ai/exclusive-kong-launches-ai-gateway-to-help-enterprises-govern-and-scale-generative-ai/
- Adobe đã công bố nâng cấp quan trọng cho tính năng Trợ lý AI trong phần mềm chỉnh sửa PDF Acrobat, sau khi ra mắt vào tháng 2 với các tính năng tóm tắt và chatbot trả lời câu hỏi về nội dung tài liệu lớn.
- Bắt đầu từ ngày mai, Trợ lý AI sẽ có khả năng phân tích và truy vấn nhiều tài liệu cùng lúc, mở rộng hỗ trợ cho các loại tệp khác ngoài PDF.
- Acrobat cũng sẽ có thêm tính năng tạo hình ảnh AI, sử dụng mô hình Firefly của Adobe, cho phép người dùng xóa nền hoặc chỉnh sửa hình ảnh trực tiếp trong tài liệu PDF.
- Adobe khẳng định các mô hình AI tạo sinh của họ "an toàn cho công việc," không xâm phạm quyền riêng tư hoặc tạo ra hình ảnh ảnh hưởng đến thương hiệu.
- Tính năng phân tích đa tài liệu của Trợ lý AI là điểm nổi bật của bản cập nhật này, cho phép người dùng kéo và thả các tệp không phải PDF như Word và PowerPoint vào giao diện chatbot để phân tích.
- Người dùng có thể đặt câu hỏi hoặc yêu cầu AI xác định xu hướng từ nhóm tài liệu.
- Trợ lý AI của Acrobat có giá $5 mỗi tháng, rẻ hơn so với $20 mỗi tháng của ChatGPT Plus hoặc Gemini Advanced. Tính năng này sẽ miễn phí cho tất cả người dùng từ ngày 18 đến 28 tháng 6 năm 2024.
- Adobe đã đối mặt với sự nghi ngờ từ người dùng về tính năng AI tạo sinh sau khi thừa nhận sử dụng một số hình ảnh từ Midjourney để huấn luyện mô hình Firefly. Công ty đã sửa đổi điều khoản dịch vụ và khẳng định sẽ không sử dụng nội dung người dùng để huấn luyện mô hình AI.
- Adobe cam kết bảo vệ quyền riêng tư của người dùng với bản cập nhật này, tài liệu sẽ được tải lên đám mây để phân tích nhưng không được sử dụng để huấn luyện mô hình. Công ty cũng cấm các nhà cung cấp LLM bên thứ ba sử dụng dữ liệu này, tương tự như tích hợp ChatGPT sắp tới của Apple.
📌 Adobe nâng cấp Trợ lý AI trong Acrobat với khả năng phân tích đa tài liệu và tạo hình ảnh, đảm bảo quyền riêng tư của người dùng. Tính năng này sẽ miễn phí từ ngày 18 đến 28 tháng 6 năm 2024, với giá $5 mỗi tháng sau đó, rẻ hơn so với các đối thủ cạnh tranh.
https://www.androidauthority.com/adobe-ai-assistant-acrobat-3451988/
- Học viện Trí tuệ Nhân tạo Bắc Kinh (BAAI), một tổ chức phi lợi nhuận, đã ra mắt một bộ các mô hình và công cụ AI mã nguồn mở để thúc đẩy sự phát triển của công nghệ này ở Trung Quốc.
- BAAI giới thiệu các mô hình ngôn ngữ lớn (LLM) mới nhất như BGE, Emu 3 đa phương thức, và các mô hình được sử dụng để phát triển robot lâm sàng siêu âm tim đầu tiên trên thế giới.
- Hơn 47 triệu bản sao của các LLM mã nguồn mở của BAAI đã được tải xuống trên toàn cầu, vượt xa con số 1,2 triệu lượt tải của Llama 3 của Meta.
- BAAI được thành lập năm 2018 với sự hỗ trợ của chính quyền Bắc Kinh và Bộ Khoa học Công nghệ Trung Quốc, được coi là cái nôi của nghiên cứu LLM ở nước này.
- Nhiều nhà nghiên cứu từng làm việc trong dự án Wudao 1, LLM đầu tiên của Trung Quốc, hiện đang dẫn đầu các startup AI đầy triển vọng như Moonshot AI và Zhipu AI.
- Thủ tướng Trung Quốc Lý Khắc Cường đã đến thăm BAAI vào tháng 3 và được cho biết Trung Quốc đang gặp nhiều thách thức trong việc bắt kịp Mỹ về AI.
- BAAI hy vọng vào sự hợp tác toàn cầu hơn nữa và cho rằng các hạn chế của Mỹ chỉ có thể trì hoãn chứ không thể ngăn cản sự tiến bộ của AI ở Trung Quốc.
📌 BAAI đã ra mắt các mô hình và công cụ AI mã nguồn mở để thúc đẩy sự phát triển công nghệ này ở Trung Quốc. Với hơn 47 triệu lượt tải, BAAI được coi là cái nôi của nghiên cứu LLM và nhiều cựu nhà nghiên cứu đang dẫn đầu các startup AI hàng đầu. Mặc dù gặp thách thức và hạn chế từ Mỹ, BAAI vẫn lạc quan về hợp tác toàn cầu và tin rằng Trung Quốc sẽ tiếp tục tiến bộ trong lĩnh vực AI.
https://www.scmp.com/tech/tech-trends/article/3266655/beijing-non-profit-academy-offers-open-source-ai-tools-fuel-countrys-adoption-technology
- Lightski là một startup cung cấp nền tảng phân tích AI toàn diện, bao gồm cơ sở dữ liệu và giao diện người dùng, cho phép khách hàng tận hưởng AI tạo sinh tiên tiến nhất.
- Với Lightski, bạn có thể dành ít thời gian hơn cho kỹ thuật và tập trung vào các tính năng quan trọng. Phân tích dữ liệu được cung cấp bởi AI là một ví dụ hiếm về trường hợp sử dụng AI tạo sinh hữu ích.
- Lightski sử dụng các mô hình LLM tân tiến để định hướng nghiên cứu, trải nghiệm được cung cấp bởi nhiều khả năng nội bộ khác như: môi trường thực thi mã an toàn và tách biệt cho mỗi người dùng, kết nối trực tiếp với các cơ sở dữ liệu phổ biến nhất, ETL có thể mở rộng dựa trên mã, khả năng tạo hình ảnh và xuất ra CSV, giao diện web cho phát trực tuyến nhúng cho phép người dùng tự định nghĩa giao diện.
- Lightski kết hợp trí tuệ nhân tạo với thực thi mã, cung cấp phân tích dữ liệu nhúng hiệu quả hơn Looker và Tableau mà không gây ra ảo giác.
- Với Lightski, mọi người đều có thể trở thành nhà khoa học dữ liệu của riêng mình bằng cách làm cho phân tích dữ liệu trở nên dễ tiếp cận thông qua AI.
📌 Lightski mang đến giải pháp phân tích dữ liệu nhúng toàn diện dựa trên AI tạo sinh và thực thi mã an toàn, giúp mọi người trở thành chuyên gia phân tích chỉ trong vài phút mà không cần kỹ năng lập trình, vượt trội hơn các công cụ truyền thống như Looker hay Tableau.
https://www.marktechpost.com/2024/06/15/lightski-an-ai-startup-that-lets-you-embed-chatgpt-code-interpreter-in-your-app/
- Hamming AI là một startup cung cấp nền tảng thử nghiệm giúp các đội phát triển các giải pháp AI đáng tin cậy.
- Công ty hỗ trợ các ngành công nghiệp lớn như pháp lý, y tế, tài chính, du lịch,... trong nỗ lực tạo ra sản phẩm AI có khả năng ghi nhớ.
- Hamming AI đã giới thiệu Prompt Optimizer, một tính năng mới đang trong giai đoạn beta, để tự động hóa việc tối ưu hóa prompt.
- Sử dụng sản phẩm của Hamming AI, bạn có thể tạo ra các sản phẩm AI có khả năng ghi nhớ cho từng ngành, như: tổ chức tập dữ liệu vàng với phiên bản đã triển khai, dễ dàng chuyển đổi các dấu vết thành các trường hợp kiểm thử và kết hợp chúng vào tập dữ liệu vàng, tối ưu hóa điểm số RAG để nhanh chóng xác định các nút thắt trong pipeline.
- Hệ thống Hamming AI sẽ đánh giá hiệu suất của pipeline trên mọi tập dữ liệu bằng cách sử dụng các điểm số độc quyền của họ về độ chính xác, giọng điệu, ảo giác, độ chính xác và khả năng thu hồi.
- Mục đích của Hamming là cung cấp một môi trường thuận lợi để kiểm thử các sản phẩm AI. Nó tự động hóa quá trình đánh giá bằng cách tận dụng các mô hình ngôn ngữ lớn (LLM).
- So với phương pháp đánh giá thủ công truyền thống, Hamming tuyên bố nhanh hơn 20 lần và rẻ hơn 10 lần.
📌 Hamming AI cung cấp nền tảng thử nghiệm giúp phát triển các giải pháp AI đáng tin cậy, hỗ trợ nhiều ngành công nghiệp lớn. Với các tính năng như Prompt Optimizer, phiên bản tập dữ liệu, theo dõi thử nghiệm và đánh giá tự động bằng LLM, Hamming giúp tiết kiệm thời gian và chi phí đáng kể so với đánh giá thủ công, cho phép các nhóm tạo ra các sản phẩm AI có khả năng ghi nhớ một cách hiệu quả.
https://www.marktechpost.com/2024/06/13/hamming-ai-an-ai-startup-that-provides-fastest-way-to-make-your-prompts-rag-and-ai-agents-more-reliable/
- Perplexity AI, một startup trí tuệ nhân tạo, đã huy động hàng chục triệu USD từ các nhà đầu tư công nghệ nổi tiếng như Jeff Bezos để cạnh tranh với Google trong lĩnh vực tìm kiếm thông tin.
- Tuy nhiên, chatbot tìm kiếm dựa trên AI của Perplexity đang gặp phải sự phản đối từ một số hãng tin vì cách thức hoạt động. Forbes cáo buộc Perplexity tóm tắt bài báo điều tra của họ mà không trích dẫn nguồn hoặc xin phép.
- Associated Press phát hiện tính năng Writing của Perplexity tạo ra các trích dẫn giả mạo từ những người có thật. Ví dụ, một cựu quan chức ở Martha's Vineyard bị trích dẫn sai về việc hòn đảo không nên trở thành điểm đến cho cần sa.
- CEO Perplexity, Aravind Srinivas, cho rằng công ty đang cố gắng xây dựng mối quan hệ tích cực với các nhà xuất bản tin tức và tuyên bố họ không sao chép nội dung của bất kỳ ai. Ông nói rằng Perplexity chủ yếu tổng hợp thông tin từ các hệ thống AI khác.
- Perplexity đã thực hiện một số thay đổi sau phản hồi từ Forbes, bao gồm việc làm nổi bật rõ ràng hơn các nguồn trích dẫn. Công ty cũng tìm kiếm các quan hệ đối tác chia sẻ doanh thu với các hãng tin, trả một phần doanh thu quảng cáo mỗi khi nội dung của họ được trích dẫn.
- Randall Lane, Giám đốc nội dung của Forbes Media, coi tranh chấp này là một "điểm uốn" trong cuộc thảo luận về AI. Ông cho rằng nếu những người dẫn đầu xu hướng AI không tôn trọng công việc của các nhà báo, thì đó sẽ là một vấn đề lớn.
- Perplexity dựa vào các mô hình ngôn ngữ AI lớn hiện có từ OpenAI, Anthropic và Meta Platforms, sau đó "đào tạo lại" chúng để trở thành công cụ tóm tắt tốt. Tuy nhiên, đôi khi không rõ thông tin tóm tắt đến từ đâu.
- Số lượng người dùng toàn cầu của Perplexity đã tăng nhanh trong năm nay, đạt hơn 85 triệu lượt truy cập web vào tháng 5, nhưng vẫn khiêm tốn so với hàng tỷ người dùng của ChatGPT và các nền tảng phổ biến khác từ Microsoft và Google.
📌 Perplexity AI đang vướng vào tranh cãi khi bị tố cáo sao chép nội dung từ các hãng tin mà không xin phép. Công ty đã thực hiện một số thay đổi sau phản hồi, nhưng vẫn còn nhiều câu hỏi về đạo đức và tính bền vững của mô hình kinh doanh. Mặc dù số lượng người dùng tăng nhanh, đạt 85 triệu lượt truy cập vào tháng 5, Perplexity vẫn còn một chặng đường dài để cạnh tranh với các ông lớn công nghệ trong lĩnh vực tìm kiếm thông tin.
https://www.newsday.com/business/perplexity-ai-search-engine-forbes-g28560
- Yandex, gã khổng lồ công nghệ của Nga, đã phát hành một công cụ mã nguồn mở mới có tên YaFSDP nhằm giúp các công ty AI tiết kiệm tiền và tài nguyên khi huấn luyện các mô hình mới.
- Công cụ YaFSDP có thể cung cấp khả năng huấn luyện mô hình ngôn ngữ lớn (LLM) nhanh hơn và hiệu quả hơn, tiết kiệm tới 20% tài nguyên GPU, giúp tiết kiệm tiền và thời gian.
- Yandex ước tính việc sử dụng YaFSDP để huấn luyện một mô hình với 70 tỷ tham số có thể tiết kiệm tài nguyên của khoảng 150 GPU, tương đương từ 0.5 đến 1.5 triệu USD tiền thuê GPU hàng tháng.
- Sử dụng các mô hình Llama của Meta, Yandex cho biết tốc độ tăng cuối cùng là 21% và 26% trên Llama 2 70B và Llama 3 70B.
- YaFSDP không phải là sản phẩm AI đầu tiên của Yandex. Trước đó, họ đã phát hành CatBoost, YTsaurus, AQLM và Petals, mỗi sản phẩm xử lý một lĩnh vực khác nhau trong phát triển AI.
- Động thái của Yandex diễn ra sau khi họ phải thoái vốn khỏi Nga sau cuộc chiến Ukraine, bán mảng kinh doanh trong nước cho ban quản lý trước đó của họ ở Nga.
📌 Yandex đã phát hành công cụ mã nguồn mở YaFSDP giúp tiết kiệm tới 20% tài nguyên GPU và 0.5-1.5 triệu USD chi phí hàng tháng khi huấn luyện các mô hình ngôn ngữ lớn. Công cụ này cung cấp tốc độ huấn luyện nhanh hơn 21-26% so với phiên bản trước, mở ra tiềm năng to lớn cho các công ty phát triển AI.
https://www.techradar.com/pro/russias-largest-tech-company-just-released-a-free-ai-tool-that-could-save-microsoft-google-and-facebook-tens-of-millions-of-dollars
- Databricks công bố ra mắt sản phẩm trí tuệ doanh nghiệp mới mang tên AI/BI, nhằm dân chủ hóa phân tích và thông tin chi tiết trên toàn tổ chức thông qua cách tiếp cận AI làm trọng tâm.
- AI/BI tận dụng AI tạo sinh để cung cấp khả năng phân tích tự phục vụ, cho phép người dùng thông thường đặt các câu hỏi phức tạp và nhận câu trả lời chính xác mà không cần chuyên môn khoa học dữ liệu.
- AI/BI bao gồm hai trải nghiệm bổ sung: AI/BI Dashboards - giao diện low-code để nhanh chóng tạo bảng điều khiển tương tác; và AI/BI Genie - giao diện hội thoại sử dụng ngôn ngữ tự nhiên để giải quyết các câu hỏi ad-hoc và theo dõi.
- Cả hai đều được hỗ trợ bởi một hệ thống AI tổng hợp liên tục học hỏi từ việc sử dụng trên toàn bộ stack dữ liệu của tổ chức, bao gồm pipeline ETL, lineage và truy vấn.
- Khác với các công cụ BI khác cố gắng thêm khả năng AI tạo sinh lên trên kiến trúc thông thường, AI/BI đặt hệ thống AI làm cốt lõi.
- AI/BI sử dụng tập hợp các agent AI chuyên biệt cùng nhau lý luận về các câu hỏi kinh doanh và tạo ra câu trả lời hữu ích. Hệ thống học hỏi và cải thiện dựa trên phản hồi của con người.
- Lợi ích chính của AI/BI: quản trị và lineage thống nhất thông qua tích hợp sâu với Databricks Unity Catalog; chia sẻ an toàn dễ dàng mà không cần giấy phép người dùng bổ sung; tính năng vượt trội về giá-hiệu suất trên khối lượng dữ liệu lớn; không yêu cầu trích xuất dữ liệu.
- AI/BI Dashboards đã sẵn sàng từ hôm nay, trong khi Genie đang trong giai đoạn preview công khai.
📌 Databricks giới thiệu AI/BI - giải pháp BI thông minh dựa trên AI tổng hợp, cho phép phân tích tự phục vụ thông qua AI/BI Dashboards và Genie. Hệ thống liên tục học hỏi, mang lại lợi ích như quản trị thống nhất, chia sẻ an toàn, hiệu suất vượt trội mà không tốn thêm chi phí cấp phép.
https://analyticsindiamag.com/databricks-launches-ai-bi-a-compound-ai-system-for-intelligent-business-insights/
- Databricks giới thiệu LakeFlow, giải pháp thống nhất giúp đơn giản hóa mọi khía cạnh của kỹ thuật dữ liệu, từ thu thập, chuyển đổi đến điều phối dữ liệu.
- LakeFlow cho phép các đội ngũ dữ liệu dễ dàng thu thập dữ liệu từ nhiều nguồn như MySQL, Postgres, Oracle, Salesforce, Dynamics, Sharepoint, Workday, NetSuite và Google Analytics.
- Databricks cũng giới thiệu Real Time Mode cho Apache Spark, cho phép xử lý luồng với độ trễ cực thấp.
- LakeFlow tự động hóa việc triển khai, vận hành và giám sát pipeline ở quy mô lớn trong sản xuất, với hỗ trợ tích hợp cho CI/CD và quy trình làm việc nâng cao.
- Các tính năng kiểm tra chất lượng dữ liệu và giám sát tình trạng được tích hợp với hệ thống cảnh báo như PagerDuty.
- LakeFlow giải quyết các thách thức trong kỹ thuật dữ liệu bằng cách đơn giản hóa mọi khía cạnh thông qua một trải nghiệm thống nhất dựa trên Nền tảng Databricks Data Intelligence.
- LakeFlow Connect cung cấp nhiều kết nối gốc, có thể mở rộng quy mô cho cơ sở dữ liệu và ứng dụng doanh nghiệp, tích hợp sâu với Unity Catalog để quản trị dữ liệu mạnh mẽ.
- LakeFlow Pipelines cho phép các đội ngũ dữ liệu triển khai chuyển đổi dữ liệu và ETL bằng SQL hoặc Python, đơn giản hóa cả quá trình xử lý luồng và hàng loạt phức tạp nhất.
- LakeFlow Jobs cung cấp tính năng điều phối tự động, theo dõi tình trạng và phân phối dữ liệu, tăng cường khả năng kiểm soát luồng và khả năng quan sát đầy đủ để phát hiện, chẩn đoán và giảm thiểu các vấn đề về dữ liệu.
📌 LakeFlow của Databricks là giải pháp toàn diện giúp đơn giản hóa mọi khía cạnh của kỹ thuật dữ liệu, từ thu thập, chuyển đổi đến điều phối dữ liệu. Với các tính năng như kết nối gốc mở rộng, xử lý luồng và hàng loạt thống nhất, điều phối tự động và giám sát tình trạng dữ liệu, LakeFlow giúp các đội ngũ dữ liệu xây dựng và vận hành pipeline dữ liệu đáng tin cậy một cách hiệu quả.
https://analyticsindiamag.com/databricks-unveils-lakeflow-simplifying-data-ingestion-transformation-orchestration/
- Databricks chuẩn bị cung cấp thêm hỗ trợ cho các doanh nghiệp xây dựng ứng dụng AI tạo sinh với việc bổ sung các tính năng mới của Mosaic AI.
- Mosaic AI Agent Framework, hiện đang ở giai đoạn public preview, nhằm tăng tốc quá trình phát triển ứng dụng AI tạo sinh dựa trên kỹ thuật retrieval augmented generation (RAG).
- Công cụ AI Agent Evaluation, cũng đang ở giai đoạn public preview, sử dụng AI để kiểm tra chất lượng đầu ra của ứng dụng dựa trên RAG.
- Mosaic AI Gateway giúp quản lý các mô hình LLM và ứng dụng AI tạo sinh, cung cấp giao diện thống nhất để truy vấn, quản lý và triển khai bất kỳ mô hình nguồn mở hoặc độc quyền nào.
- Databricks cũng giới thiệu bộ công cụ Mosaic AI Tools Catalog để chạy và vận hành các mô hình LLM, hiện đang ở giai đoạn private preview.
- Các tính năng mới này được kỳ vọng sẽ củng cố vị thế của Databricks trên thị trường, mặc dù công ty vẫn tụt hậu so với Snowflake ở một số lĩnh vực.
- Databricks đang dẫn đầu trong lĩnh vực AI và AI tạo sinh, nhưng vẫn cần chứng minh nhiều hơn về kho dữ liệu và tụt hậu so với Snowflake về thị trường dữ liệu và ứng dụng dữ liệu.
- Databricks và Snowflake đang tiếp cận AI từ các điểm khởi đầu khác nhau và đều tìm cách đạt được cùng một vị trí.
📌 Databricks đang tăng cường hỗ trợ cho các ứng dụng AI tạo sinh với việc bổ sung nhiều tính năng mới vào Mosaic AI như Agent Framework, AI Agent Evaluation, AI Gateway. Tuy nhiên, công ty vẫn cần nỗ lực hơn nữa để bắt kịp đối thủ Snowflake trong các lĩnh vực kho dữ liệu, thị trường dữ liệu và ứng dụng dữ liệu.
https://www.infoworld.com/article/3715542/databricks-expands-mosaic-ai-support-for-generative-ai-apps.html
- TCS (Tata Consultancy Services) đã ra mắt WisdomNext, một nền tảng tổng hợp AI tạo sinh cho doanh nghiệp, được phát triển bởi đơn vị kinh doanh AI.Cloud của công ty.
- Nền tảng cho phép doanh nghiệp chạy thử nghiệm thời gian thực trên các nền tảng AI tạo sinh khác nhau, giúp áp dụng tốt hơn, tối ưu hóa chi phí và mở rộng việc sử dụng các mô hình ngôn ngữ lớn (LLM).
- WisdomNext giúp doanh nghiệp vượt qua rào cản trong việc tận dụng AI ở quy mô lớn bằng cách cung cấp cách thử nghiệm với các mô hình AI nguồn mở và đánh giá, đề xuất thời gian thực.
- Khách hàng của TCS có thể tiến hành thử nghiệm thời gian thực trên các nền tảng dựa trên nhà cung cấp, LLM nội bộ và nguồn mở để tìm ra giải pháp phù hợp nhất. Nền tảng cũng giúp đơn giản hóa thiết kế giải pháp kinh doanh bằng công cụ AI.
- WisdomNext có bot đánh giá thông minh, cho phép so sánh tất cả các mô hình AI tạo sinh và công nghệ liên quan, đưa ra thông tin chi tiết có thể hành động để vận hành hiệu quả hơn. Phân tích tích hợp cũng đưa ra đề xuất tối ưu hóa chi phí.
- Nền tảng cung cấp trải nghiệm cá nhân hóa cho doanh nghiệp và khả năng di chuyển trên các nền tảng đám mây và hệ sinh thái AI tạo sinh.
- Trước khi ra mắt, TCS đã thử nghiệm WisdomNext với một số khách hàng. Nền tảng đã giúp một công ty quảng cáo của Mỹ xây dựng hệ thống đẩy nhanh doanh số với tính khả dụng hàng tồn kho thời gian thực và tạo báo giá tích hợp bản đồ. Nó cũng cải thiện năng suất và hiệu quả của một nhà cung cấp bảo hiểm Mỹ và nâng cao trải nghiệm khách hàng thông qua trợ lý thế chấp thông minh cho một ngân hàng Anh.
📌 TCS WisdomNext là nền tảng tổng hợp AI tạo sinh mới, cho phép doanh nghiệp thử nghiệm thời gian thực trên nhiều mô hình AI, tối ưu chi phí và mở rộng sử dụng LLM. Với các tính năng như bot đánh giá thông minh và phân tích tích hợp, nền tảng hỗ trợ doanh nghiệp áp dụng AI hiệu quả hơn ở quy mô lớn, cung cấp trải nghiệm cá nhân hóa trên nhiều nền tảng đám mây và hệ sinh thái AI.
https://www.gadgets360.com/ai/news/tcs-wisdomnext-generative-ai-aggregation-platform-genai-launched-5858886
- Retrieval augmented generation (RAG) nổi lên như một mô hình hàng đầu để giải quyết các vấn đề về tăng độ chính xác của các mô hình ngôn ngữ lớn (LLM).
- Các LLM nền tảng như GPT và Llama thường tạo ra nội dung sai lệch vì dữ liệu huấn luyện chủ yếu từ internet công khai. Chúng cũng không thể tiếp cận dữ liệu nội bộ của doanh nghiệp.
- RAG cho phép các nhóm dữ liệu cung cấp ngữ cảnh cho các lời nhắc bằng dữ liệu cụ thể của công ty, giúp LLM xác định đúng mẫu hình và đưa ra phản hồi chính xác, phù hợp.
- Việc huấn luyện lại LLM trên dữ liệu riêng của công ty rất tốn kém. Fine-tuning mô hình hiện có đòi hỏi chuyên môn cao. RAG là lựa chọn tốt nhất hiện nay.
- RAG cần được triển khai theo cách cung cấp thông tin chính xác, cập nhật và có thể mở rộng quy mô. Kiến trúc hướng sự kiện (event-driven) là phù hợp nhất cho điều này.
- Kiến trúc hướng sự kiện giúp tích hợp dữ liệu từ nhiều nguồn khác nhau theo thời gian thực, đảm bảo độ tin cậy. Nó cũng cho phép các nhóm ứng dụng và dữ liệu làm việc độc lập.
- Quy trình RAG gồm các bước: bổ sung dữ liệu, suy luận, quy trình làm việc và hậu xử lý. Nền tảng dữ liệu streaming giúp tách rời các nhóm và công nghệ để mở rộng quy mô độc lập.
- RAG cần có cơ chế cung cấp dữ liệu cho phép xây dựng nhiều ứng dụng AI tạo sinh mà không cần phát minh lại, đáp ứng các tiêu chuẩn quản trị và chất lượng dữ liệu.
📌 Mô hình dữ liệu streaming là cách đơn giản và hiệu quả nhất để đáp ứng các nhu cầu trên, cho phép các nhóm phát huy sức mạnh của LLM để tạo ra giá trị mới. Với mô hình vận hành chung cho các ứng dụng RAG, doanh nghiệp có thể đưa use case đầu tiên ra thị trường nhanh chóng, đồng thời tăng tốc độ cung cấp và giảm chi phí cho các use case tiếp theo.
https://thenewstack.io/how-to-scale-rag-and-build-more-accurate-llms/
- Browserbase, một startup tại San Francisco, ra mắt nền tảng cho phép lập trình viên tự động hóa các tác vụ web phức tạp bằng AI và công nghệ trình duyệt headless.
- Công ty huy động được 6.5 triệu USD vòng gọi vốn hạt giống, do Kleiner Perkins dẫn đầu cùng sự tham gia của Basecase Capital, AI Grant và các nhà đầu tư thiên thần.
- Browserbase do Paul Klein, một doanh nhân và lập trình viên kỳ cựu sáng lập, xuất phát từ những khó khăn của ông khi làm việc với cơ sở hạ tầng trình duyệt headless.
- Nền tảng cung cấp các tính năng như gỡ lỗi nâng cao, ghi lại phiên, mạng siêu proxy, tránh phát hiện bot và tương thích với các công cụ phổ biến như Puppeteer, Playwright, Selenium.
- Klein cho rằng Browserbase sẽ đóng vai trò then chốt trong hệ sinh thái AI đang nổi lên, như một thành phần của "LLMOS" (Hệ điều hành mô hình ngôn ngữ lớn).
- Browserbase tích hợp với các công cụ và framework AI/ML phổ biến như Langchain, LlamaIndex, Crew AI, Vercel, hỗ trợ SDK cho Python và Node.js.
- Nền tảng có thể tự động hóa cả website công khai và các ứng dụng doanh nghiệp nội bộ đã xác thực.
- Browserbase cung cấp tùy chọn triển khai tại chỗ, cho phép doanh nghiệp chạy nền tảng đằng sau tường lửa riêng, đáp ứng các yêu cầu bảo mật và quản trị dữ liệu nghiêm ngặt.
- Công ty mở cửa truy cập tự phục vụ vào nền tảng, cho phép các nhà phát triển bắt đầu tự động hóa tương tác web ngay lập tức với 3 gói giá: Hobby (39$/tháng), Startup (99$/tháng) và Enterprise (giá tùy chỉnh).
📌 Browserbase ra mắt nền tảng trình duyệt headless, tự động hóa các tác vụ web phức tạp bằng AI, huy động được 6.5 triệu USD từ Kleiner Perkins. Nền tảng tích hợp với nhiều công cụ AI/ML phổ biến, hỗ trợ cả website công khai và ứng dụng doanh nghiệp nội bộ, với tùy chọn triển khai tại chỗ đáp ứng yêu cầu bảo mật cao. Browserbase mở cửa truy cập tự phục vụ với 3 gói giá từ 39-99$/tháng.
https://venturebeat.com/ai/exclusive-browserbase-launches-headless-browser-platform-that-lets-llms-automate-web-tasks/
- Mistral, công ty khởi nghiệp AI của Pháp, ra mắt các công cụ tinh chỉnh mới trên nền tảng phát triển AI La Plateforme, giúp việc tùy chỉnh các mô hình trở nên hiệu quả hơn, giảm chi phí đào tạo và rào cản gia nhập.
- Khách hàng có thể tinh chỉnh các mô hình Mistral trên La Plateforme, trên cơ sở hạ tầng riêng thông qua mã nguồn mở hoặc thông qua dịch vụ đào tạo tùy chỉnh.
- Mistral phát hành mistral-finetune, mã nguồn nhẹ dựa trên mô hình LoRA, giúp tinh chỉnh các mô hình nguồn mở mà không ảnh hưởng đến hiệu suất hoặc hiệu quả bộ nhớ.
- Dịch vụ tinh chỉnh tương thích với mô hình Mistral 7B và Mistral Small. Mistral sẽ bổ sung thêm các mô hình mới trong những tuần tới.
- Dịch vụ đào tạo tùy chỉnh tinh chỉnh các mô hình AI Mistral trên các ứng dụng cụ thể của khách hàng bằng dữ liệu độc quyền.
- Mistral tổ chức cuộc thi hackathon về tinh chỉnh AI, diễn ra đến ngày 30/6, cho phép các nhà phát triển thử nghiệm API tinh chỉnh mới.
- Công ty khởi nghiệp 14 tháng tuổi này đang phát triển nhanh chóng với vòng gọi vốn kỷ lục 118 triệu USD, hợp tác với IBM, Microsoft, SAP, Cisco. Mistral sắp đạt mức định giá 6 tỷ USD sau vòng gọi vốn mới trị giá 600 triệu USD.
- Mistral Large cạnh tranh trực tiếp với OpenAI và Meta's Llama 3, được đánh giá là mô hình ngôn ngữ thương mại mạnh thứ 2 thế giới, chỉ sau GPT-4 của OpenAI.
- Mistral 7B ra mắt tháng 9/2023, vượt trội hơn Llama trên nhiều tiêu chuẩn và tiệm cận hiệu suất của CodeLlama 7B về mã lập trình.
📌 Mistral đang đẩy mạnh đổi mới với các công cụ tinh chỉnh mới, giúp tùy chỉnh mô hình trở nên dễ dàng, nhanh chóng và hiệu quả hơn. Công ty khởi nghiệp 14 tháng tuổi này liên tục gọi vốn thành công, hợp tác với các đối tác lớn và sắp đạt mức định giá 6 tỷ USD. Các mô hình như Mistral Large, Mistral 7B đang vươn lên cạnh tranh mạnh mẽ với OpenAI và Meta.
https://venturebeat.com/ai/mistral-launches-fine-tuning-tools-to-make-customizing-its-models-easier-and-faster/
- PixelsDB là một công cụ phân tích dữ liệu nguồn mở giúp người dùng không thành thạo SQL hoặc quản trị hệ thống tạo và gỡ lỗi các truy vấn SQL thông qua giao diện NLP.
- Các mô hình ngôn ngữ tinh vi chuyển đổi đầu vào của người dùng thành các truy vấn SQL có thể thực thi, cho phép người dùng tương tác với hệ thống và lấy thông tin dữ liệu cần thiết mà không cần nhiều kiến thức kỹ thuật.
- Các truy vấn được tạo ra sẽ được chạy bởi một công cụ truy vấn không máy chủ. PixelsDB cung cấp nhiều mức giá tùy thuộc vào mức độ khẩn cấp của truy vấn.
- Kiến trúc hệ thống được xây dựng để hỗ trợ các mức dịch vụ khác nhau thông qua thiết kế kiến trúc chuyên dụng và lập lịch tài nguyên dị nhất. Điều này cho phép hệ thống tối ưu hóa chi phí tổng thể mà không ảnh hưởng đến hiệu suất của các công việc quan trọng.
- Xử lý truy vấn không máy chủ, giao diện ngôn ngữ tự nhiên và các mức dịch vụ và giá cả tùy chỉnh của PixelsDB sẽ cải thiện đáng kể trải nghiệm người dùng trong phân tích dữ liệu.
📌 PixelsDB là một công cụ phân tích dữ liệu nguồn mở giúp người dùng không chuyên SQL khám phá dữ liệu hiệu quả thông qua giao diện NLP, xử lý truy vấn không máy chủ và các mức dịch vụ tùy chỉnh. Hệ thống loại bỏ rào cản kỹ thuật, cung cấp giao diện thân thiện để tạo và thực thi truy vấn, từ đó tăng tính hiệu quả và khả năng tiếp cận của phân tích dữ liệu cho người dùng phi kỹ thuật.
https://www.marktechpost.com/2024/06/06/pixelsdb-an-open-source-data-analytic-system-that-allows-users-without-sql-expertise-to-explore-data-efficiently/
- Persistent Systems giới thiệu GenAI Hub - nền tảng giúp tăng tốc việc tạo và triển khai ứng dụng AI tạo sinh (GenAI) trong doanh nghiệp.
- GenAI Hub tích hợp với cơ sở hạ tầng, ứng dụng và dữ liệu sẵn có, cho phép phát triển nhanh các giải pháp GenAI theo ngành.
- Nền tảng hỗ trợ áp dụng GenAI trên nhiều mô hình ngôn ngữ lớn (LLM) và đám mây khác nhau mà không bị khóa nhà cung cấp.
- GenAI Hub đơn giản hóa việc phát triển và quản lý nhiều mô hình GenAI, đẩy nhanh thời gian ra thị trường thông qua các thành phần phần mềm có sẵn, đồng thời tuân thủ các nguyên tắc AI có trách nhiệm.
- 5 thành phần chính của GenAI Hub: Playground (công cụ không cần code), Agents Framework (kiến trúc agent), Evaluation Framework (cách tiếp cận "AI xác thực AI"), Gateway (định tuyến trên nhiều LLM), Custom Model Pipelines (tạo và tích hợp LLM và SLM tùy chỉnh).
- GenAI Hub hợp lý hóa quá trình phát triển các trường hợp sử dụng cho doanh nghiệp, cung cấp hướng dẫn từng bước và tích hợp liền mạch dữ liệu vào LLM.
- Praveen Bhadada, Trưởng bộ phận Kinh doanh Toàn cầu - AI của Persistent cho biết khách hàng có thể áp dụng chiến lược "GenAI-First", cung cấp các ứng dụng và dịch vụ được cung cấp bởi AI ở quy mô lớn với GenAI Hub.
📌 GenAI Hub của Persistent Systems là nền tảng đột phá giúp các doanh nghiệp tăng tốc việc tạo và triển khai ứng dụng AI tạo sinh trên quy mô lớn, hỗ trợ nhiều mô hình ngôn ngữ và đám mây, đồng thời tuân thủ AI có trách nhiệm. Nền tảng này cho phép hợp lý hóa hoạt động, nâng cao trải nghiệm khách hàng và tìm ra các hướng tăng trưởng mới.
https://analyticsindiamag.com/persistent-systems-launches-genai-accelerate-ai-adoption/
- Nvidia giới thiệu dịch vụ vi mô suy luận NIM (Nvidia inference microservices) cho phép triển khai ứng dụng AI trong vài phút thay vì hàng tuần.
- 28 triệu nhà phát triển có thể tải về NIM để dễ dàng xây dựng ứng dụng AI tạo sinh như trợ lý ảo, chatbot.
- Gần 200 đối tác công nghệ như Cadence, Cloudera, NetApp đang tích hợp NIM vào nền tảng của họ để tăng tốc triển khai AI tạo sinh.
- Hơn 40 dịch vụ vi mô hỗ trợ các mô hình AI tạo sinh như Meta Llama 3, Google Gemma, Microsoft Phi-3.
- Các nhà cung cấp nền tảng như Canonical, Red Hat, VMware hỗ trợ NIM trên giải pháp nguồn mở KServe hoặc doanh nghiệp.
- Doanh nghiệp có thể chạy ứng dụng NIM hầu như ở mọi nơi, từ hệ thống được Nvidia chứng nhận đến các nền tảng đám mây hàng đầu.
- Foxconn đang sử dụng NIM trong phát triển mô hình ngôn ngữ lớn chuyên biệt nhúng vào nhiều hệ thống nội bộ cho sản xuất thông minh, đô thị thông minh.
- Nvidia mở rộng chương trình chứng nhận hệ thống với 2 loại mới: Nvidia-certified Spectrum-X Ready cho AI tại trung tâm dữ liệu và Nvidia-certified IGX cho AI tại biên.
📌 Nvidia đã giới thiệu dịch vụ vi mô suy luận NIM giúp rút ngắn thời gian triển khai ứng dụng AI xuống còn vài phút. NIM đã được tích hợp bởi gần 200 đối tác công nghệ, hỗ trợ hơn 40 mô hình AI tạo sinh như Meta Llama 3 và có thể chạy trên nhiều nền tảng từ hệ thống được Nvidia chứng nhận đến các đám mây hàng đầu. Bên cạnh đó, Nvidia cũng mở rộng chương trình chứng nhận hệ thống để đáp ứng nhu cầu triển khai AI ngày càng tăng.
https://venturebeat.com/ai/nvidia-unveils-inference-microservices-that-can-deploy-ai-applications-in-minutes/
- RAG Me Up là một framework đơn giản và nhẹ cho các tác vụ RAG, tập trung vào tính dễ sử dụng và tích hợp.
- Framework hỗ trợ nhiều loại tệp tin như PDF và JSON, bao gồm các tùy chọn máy chủ và giao diện người dùng.
- RAG Me Up được thiết kế để hoạt động hiệu quả trên CPU, nhưng hoạt động tốt nhất trên GPU với ít nhất 16GB VRAM.
- Framework nổi bật với trình truy xuất ensemble kết hợp tìm kiếm từ khóa BM25 và tìm kiếm vector, cung cấp khả năng truy xuất tài liệu mạnh mẽ và chính xác.
- RAG Me Up có thể tự động quyết định liệu có nên tìm nạp tài liệu mới trong quá trình hội thoại hay không, nâng cao trải nghiệm người dùng.
- Framework có thể tóm tắt một lượng lớn văn bản giữa hội thoại để đảm bảo lịch sử trò chuyện đầy đủ phù hợp với giới hạn ngữ cảnh của mô hình ngôn ngữ.
- Người dùng có thể tùy chỉnh các tham số khác nhau, bao gồm mô hình ngôn ngữ chính, mô hình embedding, thư mục dữ liệu và đường dẫn lưu trữ vector.
- RAG Me Up hỗ trợ các tham số LLM khác nhau như nhiệt độ và hình phạt lặp lại, cho phép tinh chỉnh phản hồi của mô hình.
- Framework đang được phát triển tích cực, với kế hoạch bổ sung thêm các tính năng và cải thiện các tính năng hiện có.
📌 RAG Me Up là một framework đầy hứa hẹn để đơn giản hóa quá trình tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG). Với thiết lập dễ dàng, cấu hình linh hoạt và phát triển liên tục, RAG Me Up hướng tới việc cung cấp một giải pháp thân thiện với người dùng để làm việc với các mô hình ngôn ngữ lớn và bộ dữ liệu đa dạng, giúp xử lý hiệu quả các loại tài liệu khác nhau và truy vấn của người dùng.
https://www.marktechpost.com/2024/06/01/rag-me-up-a-generic-ai-framework-server-uis-that-enables-you-to-do-rag-on-your-own-dataset-easily/
- Bài viết thử nghiệm khả năng của GPT-4o trong việc tự động thay đổi schema SQL dựa trên các vấn đề được mô tả bằng tiếng Anh.
- GPT-4o đã tạo ra một schema ban đầu cho ứng dụng xuất bản sách với các bảng Author, Publisher và Book.
- Tác giả đưa ra yêu cầu thay đổi schema để xử lý vấn đề bút danh của tác giả. GPT-4o đã thêm bảng Pseudonym và thay đổi quan hệ giữa các bảng một cách hợp lý.
- Tiếp theo, tác giả yêu cầu GPT-4o sửa đổi schema để cho phép một cuốn sách có nhiều tác giả. GPT-4o đã thêm bảng BookAuthor để xử lý quan hệ nhiều-nhiều giữa Book và Pseudonym.
- Các thay đổi schema do GPT-4o thực hiện đều chính xác và phù hợp với yêu cầu. Tuy nhiên, việc tối ưu hóa schema SQL vẫn đòi hỏi nhiều kỹ năng và kinh nghiệm của con người.
- Kết quả cho thấy tiềm năng của các mô hình ngôn ngữ lớn như GPT-4o trong việc hỗ trợ phát triển cơ sở dữ liệu, mặc dù vẫn cần sự kết hợp với chuyên môn của con người.
📌 GPT-4o đã thể hiện khả năng ấn tượng trong việc tự động thay đổi schema SQL dựa trên các yêu cầu bằng ngôn ngữ tự nhiên. Mặc dù chưa thể thay thế hoàn toàn vai trò của chuyên gia cơ sở dữ liệu, GPT-4o và các mô hình tương tự hứa hẹn sẽ là công cụ hỗ trợ đắc lực trong tương lai.
https://thenewstack.io/gpt-4o-and-sql-how-well-can-an-llm-alter-its-own-schema/
- Google đã giới thiệu tính năng Tổng quan AI (AI Overview) cho công cụ tìm kiếm vào tháng trước, cho phép tạo ra các bản tóm tắt thông tin đầy đủ và hữu ích.
- Tuy nhiên, chỉ sau một thời gian ngắn, hầu hết các truy vấn thử nghiệm ban đầu không còn hiển thị Tổng quan AI.
- Nguyên nhân là do công nghệ mới này đã tạo ra nhiều thông tin sai lệch và lỗi nghiêm trọng, như đề xuất dùng keo trong công thức làm pizza hay gợi ý người dùng ăn đá để bổ sung chất dinh dưỡng.
- Người dùng đã phàn nàn gay gắt trên mạng xã hội về các sai sót này, thậm chí còn chế giễu Google.
- Liz Reid, trưởng bộ phận tìm kiếm mới của Google, cho biết họ đã thu hẹp Tổng quan AI, áp dụng các cải tiến để đưa ra câu trả lời thận trọng hơn và hạn chế các lời khuyên sai lệch.
- Google đang nỗ lực bắt kịp các đối thủ như Microsoft và OpenAI trong cuộc đua phát triển AI. Tuy nhiên, việc lùi bước lần này cho thấy thách thức trong việc cân bằng giữa việc áp dụng công nghệ AI chưa hoàn thiện và duy trì độ tin cậy của công cụ tìm kiếm.
- Các chuyên gia cho rằng Google nên triển khai tính năng này chậm hơn để tránh tổn hại đến danh tiếng.
📌 Google đã tạm thu hẹp tính năng Tổng quan AI trong công cụ tìm kiếm do nhiều câu trả lời sai lệch và nguy hiểm, gây phản ứng gay gắt từ người dùng. Điều này cho thấy thách thức của Google trong việc cân bằng giữa đua tranh về AI và duy trì độ tin cậy vốn có, đồng thời cần thận trọng hơn khi triển khai các công nghệ mới chưa hoàn thiện.
https://www.nytimes.com/2024/06/01/technology/google-ai-overviews-rollback.html
- CodecLM là một framework tổng hợp dữ liệu có hệ thống để điều chỉnh các mô hình ngôn ngữ lớn (LLM) cho các tác vụ cụ thể.
- Nó sử dụng một LLM mạnh để mã hóa các hướng dẫn gốc thành siêu dữ liệu, sau đó giải mã thành các hướng dẫn tổng hợp được điều chỉnh thông qua 2 chiến lược bổ sung: Self-Rubrics và Contrastive Filtering.
- Self-Rubrics tạo ra các tiêu chí và hành động để làm cho hướng dẫn tổng hợp trở nên thách thức hơn. Contrastive Filtering chọn ra các hướng dẫn mà LLM mục tiêu không thể đáp ứng tốt.
- Các thử nghiệm trên các bộ dữ liệu benchmark cho thấy CodecLM vượt trội hơn các phương pháp cơ sở, đạt tỷ lệ phục hồi năng lực (CRR) cao hơn khi so sánh LLM mục tiêu được điều chỉnh với LLM mạnh.
- CodecLM cung cấp giải pháp hiệu quả để điều chỉnh LLM cho các mục đích sử dụng tùy chỉnh mà không cần gán nhãn thủ công.
📌 CodecLM tạo ra dữ liệu tổng hợp được điều chỉnh phù hợp để điều chỉnh LLM cho các tác vụ cụ thể thông qua việc mã hóa hướng dẫn thành siêu dữ liệu, sau đó giải mã thành các hướng dẫn tổng hợp chất lượng cao bằng Self-Rubrics và Contrastive Filtering. Nó đạt hiệu suất vượt trội trên các bộ dữ liệu benchmark, mở ra hướng nghiên cứu triển vọng để điều chỉnh LLM theo mục đích sử dụng.
Citations:
https://research.google/blog/codeclm-aligning-language-models-with-tailored-synthetic-data/
- Theo Khảo sát Nhà phát triển Hàng năm 2023 của Stack Overflow, mặc dù Rust đứng thứ 14 trong danh sách các ngôn ngữ được sử dụng phổ biến nhất, nó xếp thứ nhất với tư cách là ngôn ngữ "được ngưỡng mộ nhất", với hơn 80% nhà phát triển đã sử dụng nó muốn tiếp tục sử dụng trong năm tới.
- Dữ liệu từ Chỉ số Phổ biến của Ngôn ngữ Lập trình cho thấy Rust đã tăng trưởng nhiều nhất trong 5 năm qua, đạt 2,1%.
- Rust là một ngôn ngữ tương đối mới, được phát triển như một dự án cá nhân bởi một lập trình viên làm việc tại Mozilla vào năm 2006. Graydon Hoare lấy cảm hứng để tạo ra nó sau một trải nghiệm thất vọng với thang máy tại tòa nhà chung cư của mình ở Vancouver.
- Rust 1.0 được phát hành vào năm 2015 và ngày càng trở nên phổ biến.
- Sự gia tăng đáng kể của AI một phần chịu trách nhiệm cho sự phát triển của Rust. Báo cáo Octoverse của GitHub ghi nhận sự tăng trưởng 148% so với năm trước đó của các cá nhân đóng góp cho các dự án AI tạo sinh.
- Rust là một lựa chọn tốt cho các ứng dụng AI vì nó ưu tiên hiệu suất và an toàn bộ nhớ mà không ảnh hưởng đến tốc độ. Nó không sử dụng bộ thu gom rác, giúp nó chạy nhanh hơn.
- Các tên tuổi lớn sử dụng Rust như Dropbox, Cloudflare (xử lý hơn 20% lưu lượng truy cập internet), Meta (thiết kế lại phần mềm quản lý mã nguồn nội bộ).
- Mặc dù ngành công nghệ đã trải qua tình trạng sa thải trong 2 năm qua, nhu cầu về các nhà phát triển phần mềm vẫn cao. Các địa điểm trả lương cao nhất bao gồm Thụy Sĩ, Na Uy và Đan Mạch, nơi các nhà phát triển có kỹ năng có thể kiếm được từ 80.000 đến 100.000 euro mỗi năm.
📌 Rust đang nổi lên như ngôn ngữ lập trình được yêu thích nhất, vượt qua JavaScript và Python. Với ưu điểm về hiệu suất, an toàn bộ nhớ và tốc độ, Rust đặc biệt phù hợp cho các ứng dụng AI đang phát triển mạnh. Các tên tuổi lớn như Dropbox, Cloudflare, Meta đã áp dụng Rust. Mặc dù ngành công nghệ có tình trạng sa thải, nhu cầu nhà phát triển phần mềm vẫn cao với mức lương hấp dẫn từ 80.000 - 100.000 euro/năm tại Thụy Sĩ, Na Uy, Đan Mạch.
https://thenextweb.com/news/why-rust-developers-favourite-programming-language
- Retrieval-Augmented Generation (RAG) là một chiến lược kiến trúc giúp nâng cao hiệu quả của các ứng dụng Large Language Model (LLM) bằng cách sử dụng dữ liệu tùy chỉnh.
- RAG truyền thống tham chiếu đến các cơ sở tri thức bên ngoài trước khi tạo phản hồi để cải thiện đầu ra của LLM.
- Agentic RAG mở rộng khả năng của RAG truyền thống bằng cách thêm các tác nhân tự trị mang lại trí thông minh và ra quyết định ở cấp độ mới.
- Các tác nhân Agentic RAG nhận thức được ngữ cảnh rộng hơn của cuộc hội thoại, sử dụng các kỹ thuật truy xuất thông minh, phối hợp đa tác nhân, lập luận, xác minh sau khi tạo và có khả năng thích ứng, học hỏi.
- Kiến trúc Agentic RAG bao gồm Agentic RAG Agent điều phối một nhóm các công cụ chuyên biệt kết nối với các nguồn dữ liệu khác nhau. Meta-Agent cấp cao quản lý tương tác giữa các tác nhân tài liệu.
- Agentic RAG có nhiều ứng dụng như dịch vụ khách hàng, trợ lý ảo, tạo nội dung, giáo dục, y tế, pháp lý.
- Các thách thức của Agentic RAG bao gồm: đảm bảo chất lượng dữ liệu, khả năng mở rộng, hiệu quả, khả năng giải thích, bảo mật, quyền riêng tư và các vấn đề đạo đức.
📌 Agentic RAG đánh dấu bước tiến quan trọng trong công nghệ AI, kết hợp sức mạnh của các tác nhân tự trị với lợi ích của RAG truyền thống. Khả năng phản hồi thông minh, phù hợp ngữ cảnh trước các truy vấn phức tạp khiến nó trở thành công cụ không thể thiếu trong tương lai, mở ra những cơ hội mới cho doanh nghiệp và thay đổi cách con người sử dụng, tương tác với thông tin.
https://www.marktechpost.com/2024/05/28/the-rise-of-agentic-retrieval-augmented-generation-rag-in-artificial-intelligence-ai/
- Microsoft giới thiệu Copilot, tích hợp vào Microsoft 365 để cung cấp cho người dùng khả năng tạo bài thuyết trình PowerPoint dễ dàng hơn bằng xử lý ngôn ngữ tự nhiên.
- Copilot đơn giản hóa việc tạo bài thuyết trình bằng cách chuyển đổi ý tưởng thành các slide hoàn chỉnh, tinh chỉnh nội dung, sắp xếp slide và áp dụng phong cách thương hiệu.
- Ngoài Copilot, có 8 công cụ AI trực tuyến khác để tạo bài thuyết trình PowerPoint nhanh chóng:
+ PopAi: hỗ trợ trò chuyện với tài liệu và hình ảnh, giá 49,99 USD/năm.
+ Beautiful.ai: tạo tính năng mới, giá 40 USD/tháng.
+ Decktopus: tự động tạo bộ slide cho bài thuyết trình, giá 34,99 USD/tháng.
+ Tome: chỉnh sửa văn bản động và tạo hình ảnh từ văn bản, giá 16 USD/tháng.
+ SlideSpeak: công cụ đánh bóng bài thuyết trình chỉ với một cú nhấp chuột, giá 19 USD/tháng.
+ Gamma: khóa thiết kế, giá 15 USD/tháng.
+ Plus.ai: tạo bài thuyết trình từ đầu với các mẫu đa dạng, giá 20 USD/tháng.
+ SlidesAI: trí tuệ thiết kế, giá 832,83 INR/tháng.
- Các công cụ này giúp người dùng tiết kiệm thời gian, tăng năng suất và không cần kiến thức thiết kế chuyên sâu để tạo ra các slide hấp dẫn.
📌Với sự trợ giúp của AI, việc tạo bài thuyết trình PowerPoint chuyên nghiệp chưa bao giờ dễ dàng đến thế. Các công cụ như PopAi, Beautiful.ai, Decktopus, Tome, SlideSpeak, Gamma, Plus.ai và SlidesAI cho phép người dùng tạo slide ấn tượng chỉ trong vài giây với chi phí từ 15-50 USD/tháng, giúp tiết kiệm thời gian và công sức đáng kể.
Citations:
https://analyticsindiamag.com/8-online-ai-tools-for-creating-ppts-in-seconds/
- SAP tích hợp dịch vụ phát triển AI Amazon Bedrock vào nền tảng AI Core, cho phép các doanh nghiệp, đặc biệt là những doanh nghiệp trong lĩnh vực có quy định, thử nghiệm AI tạo sinh.
- Việc tích hợp Amazon Bedrock giúp khách hàng của SAP tiếp cận nhiều mô hình ngôn ngữ lớn như Amazon Titan, Claude 3 Opus của Anthropic, dòng mô hình Command R của Cohere, Mistral 7B và Mixtral 8x7B, Llama của Meta, Stable Diffusion và AI21 Labs.
- Các nhà phát triển doanh nghiệp có thể tận dụng các LLM hiệu suất cao để cải thiện quy trình kinh doanh then chốt được xây dựng trên SAP, ví dụ như tăng cường S/4HANA Central Finance bằng cách đối chiếu sao kê ngân hàng với tài khoản.
- Các tổ chức tuân thủ quy định như sở giao dịch chứng khoán New York, NASDAQ, Pfizer, Merck, sở y tế DC, các công ty du lịch, bảo hiểm, khoa học đời sống và khu vực công đang thúc đẩy các yêu cầu cần thiết để thành công với AI tạo sinh.
- SAP cũng đang mở rộng việc sử dụng chip Amazon để cung cấp năng lượng cho cơ sở hạ tầng AI của mình. HANA Cloud sẽ được nâng cấp từ chip Graviton3 lên Graviton4. SAP sẽ sử dụng chip AWS Tranium và Inferentia để đào tạo và triển khai các sản phẩm SAP Business AI trong tương lai.
- Bằng cách sử dụng các phiên bản dựa trên Trainium và Inferentia2 trong bằng chứng khái niệm, các kỹ sư của SAP đã đào tạo và tinh chỉnh các LLM AI tạo sinh trong 2 ngày so với 23 ngày với các phiên bản Amazon EC2 tương đương.
📌 SAP hợp tác với Amazon Web Services nhằm thúc đẩy việc áp dụng AI tạo sinh trong các doanh nghiệp có quy định. Việc tích hợp Amazon Bedrock vào nền tảng AI Core và sử dụng các chip chuyên dụng của AWS giúp SAP tăng tốc phát triển, cải thiện hiệu suất và giảm chi phí, mở ra cơ hội cho nhiều tổ chức tận dụng sức mạnh của AI tạo sinh.
https://venturebeat.com/ai/sap-adds-amazon-bedrock-into-ai-core-streamlining-generative-ai-use-for-regulated-firms/
- Coforge đã phát triển nền tảng AI tạo sinh Quasar, được cung cấp sức mạnh bởi 23 mô hình ngôn ngữ lớn (LLM) bao gồm các mô hình thương mại như GPT của OpenAI, Gemini của Google và các LLM nguồn mở như LLaMA.
- Quasar cung cấp 6 bộ tăng tốc cho các khả năng AI cụ thể như Quasar Document AI, Quasar Speech AI, Quasar Predict AI, Quasar Vision AI, Quasar Graph AI và Quasar Conversational AI, có sẵn trên Microsoft Azure Marketplace.
- Quasar không chỉ là một nền tảng giải pháp mà có hơn 100 giải pháp và khả năng AI được tích hợp, với hơn 100 API và thư viện hơn 100 trường hợp sử dụng nhận thức và tạo sinh được xây dựng sẵn.
- Quasar cho phép người dùng tận dụng các mô hình tùy chọn và xây dựng các trường hợp sử dụng của riêng họ, bao gồm xử lý tài liệu, phân tích hình ảnh, nhận dạng giọng nói và phát triển các mô hình dự đoán.
- Thách thức lớn nhất khi triển khai AI tạo sinh không phải là công nghệ mà là quản lý sự thay đổi, thuyết phục người dùng và nhà ra quyết định về tác động của AI.
- Coforge đang giúp nhiều khách hàng trong lĩnh vực trung tâm liên lạc, cung cấp giải pháp tự động hóa trung tâm liên lạc dựa trên AI tạo sinh cho các ngân hàng, giúp phân tích các truy vấn, cung cấp thông tin chi tiết và hỗ trợ tự phục vụ.
- Coforge cũng đang tận dụng AI tạo sinh để hỗ trợ khách hàng trong việc tích hợp cả khách hàng và nhân viên, cải thiện khả năng tiếp cận và cho phép học tập theo tốc độ riêng.
- Các công ty CNTT Ấn Độ không cần phải xây dựng LLM từ đầu do đầu tư lớn và sự đa dạng của các lĩnh vực khách hàng. Thay vào đó, họ tập trung vào việc tăng cường các LLM nguồn mở hiện có như LLaMA thông qua tinh chỉnh và đào tạo lại cho các mục đích cụ thể.
📌 Nền tảng AI tạo sinh Quasar của Coforge, được cung cấp sức mạnh bởi 23 LLM, cung cấp hơn 100 giải pháp AI đa dạng. Mặc dù thách thức chính nằm ở quản lý sự thay đổi, Coforge đang giúp khách hàng tận dụng AI tạo sinh trong tự động hóa trung tâm liên lạc và tích hợp nhân viên/khách hàng. Các công ty CNTT Ấn Độ tập trung vào tăng cường các LLM nguồn mở hiện có thay vì xây dựng từ đầu.
https://analyticsindiamag.com/coforge-builds-genai-platform-quasar-powered-by-23-llms/
- Pinokio là một công cụ mã nguồn mở cho phép người dùng chạy các mô hình AI trên máy tính cá nhân, đảm bảo quyền riêng tư và an toàn dữ liệu.
- Công cụ này hỗ trợ nhiều mô hình AI phổ biến như Stable Diffusion, LLaMA, Alpaca, GPT-J, T5 và hơn thế nữa.
- Pinokio có giao diện đơn giản, thân thiện với người dùng, cho phép điều chỉnh các thông số và tùy chọn của mô hình AI.
- Người dùng có thể tải xuống Pinokio từ trang web chính thức và cài đặt trên máy tính chạy Windows, macOS hoặc Linux.
- Quá trình cài đặt Pinokio khá đơn giản, chỉ cần tải xuống tệp cài đặt và làm theo hướng dẫn.
- Sau khi cài đặt, người dùng có thể chọn mô hình AI mong muốn và tải xuống các tệp cần thiết.
- Pinokio cho phép người dùng sử dụng sức mạnh của AI mà không cần chia sẻ dữ liệu nhạy cảm với các dịch vụ đám mây của bên thứ ba.
- Công cụ này phù hợp với những người quan tâm đến quyền riêng tư và muốn khám phá tiềm năng của AI trên thiết bị cá nhân.
- Pinokio cũng là một lựa chọn tốt cho các nhà phát triển và nghiên cứu AI, cho phép họ thử nghiệm và tinh chỉnh các mô hình trong môi trường an toàn.
- Trong tương lai, Pinokio dự kiến sẽ hỗ trợ nhiều mô hình AI mới và cải tiến hơn, mang lại trải nghiệm tốt hơn cho người dùng.
https://decrypt.co/232430/how-to-run-ai-on-your-local-computer-with-pinokio
- ChatGPT đã nâng cấp tính năng phân tích dữ liệu, cho phép người dùng tạo bảng và biểu đồ tương tác có thể tùy chỉnh và tải xuống.
- Tính năng mới này hiện đang được triển khai cho người dùng ChatGPT Plus, Team và Enterprise.
- Người dùng có thể tải lên các tệp từ Google Drive và Microsoft OneDrive để tạo bảng và biểu đồ.
- Tính năng này được tích hợp vào mô hình GPT-4o mới nhất của OpenAI, được công bố trong Bản cập nhật Mùa Xuân.
- Người dùng có thể tải lên các tập dữ liệu, bao gồm bảng và tài liệu, và ChatGPT sẽ tạo ra bảng tương tác.
- Bảng thông tin sẽ được hiển thị dưới dạng mở rộng, cho phép người dùng chỉnh sửa, tùy chỉnh và đặt câu hỏi tiếp theo bằng cách nhấp vào các khu vực cụ thể.
- Lauren Nowak, quản lý tiếp thị tại Afterpay, chia sẻ trải nghiệm tích cực với khả năng phân tích dữ liệu của ChatGPT: "ChatGPT hướng dẫn tôi qua quá trình phân tích dữ liệu và cung cấp những thông tin quý giá. Nó nâng cao sự hài lòng trong công việc của tôi, mở rộng kiến thức và cho phép tôi tập trung vào các khía cạnh chiến lược của vai trò của mình."
- Người dùng ChatGPT cũng có thể tạo và tùy chỉnh các loại biểu đồ khác nhau như biểu đồ thanh, đường, tròn và scatter plots, và tải chúng xuống để sử dụng trong các bài thuyết trình.
- Người dùng có thể tải lên bảng tính và yêu cầu ChatGPT tạo biểu đồ dựa trên một thống kê cụ thể.
- Sau khi biểu đồ được tạo, người dùng có thể di chuột qua các yếu tố để đặt câu hỏi bổ sung hoặc chọn màu sắc.
- OpenAI mô tả GPT-4o là một mô hình linh hoạt hơn so với người tiền nhiệm của nó, GPT-4, với khả năng nâng cao về văn bản, hình ảnh và âm thanh.
- GPT-4o sẽ có sẵn cho cả người dùng miễn phí và trả phí bằng 50 ngôn ngữ, tuy nhiên, các bảng tương tác chỉ có sẵn cho người dùng trả phí.
📌 ChatGPT đã nâng cấp tính năng phân tích dữ liệu, cho phép tạo bảng và biểu đồ tương tác có thể tùy chỉnh và tải xuống. Tính năng này hiện đang triển khai cho người dùng ChatGPT Plus, Team và Enterprise, tích hợp vào mô hình GPT-4o mới nhất của OpenAI.
Citations:
[1] https://www.zdnet.com/article/chatgpt-will-put-your-data-into-interactive-tables-and-charts-with-gpt-4o/
- Google DeepMind đã ra mắt một khung đánh giá mới nhằm xác định các nguy cơ tiềm ẩn của các mô hình AI, chuẩn bị cho thời điểm AI trở nên mạnh mẽ và có thể gây ra mối đe dọa nghiêm trọng.
- Khung đánh giá này sẽ được áp dụng mỗi khi sức mạnh tính toán dùng để huấn luyện mô hình tăng gấp 6 lần hoặc khi mô hình được tinh chỉnh trong 3 tháng.
- Trong khoảng thời gian giữa các lần đánh giá, DeepMind sẽ thiết kế các đánh giá cảnh báo sớm.
- DeepMind sẽ hợp tác với các công ty khác, giới học thuật và các nhà lập pháp để cải thiện khung đánh giá này.
- Công ty dự định bắt đầu triển khai các công cụ kiểm toán của mình vào năm 2025.
- Hiện tại, việc đánh giá các mô hình AI mạnh mẽ chủ yếu là một quá trình ngẫu hứng, liên tục phát triển khi các nhà nghiên cứu phát triển các kỹ thuật mới.
- Các "đội đỏ" sẽ dành nhiều tuần hoặc tháng để thử nghiệm các mô hình bằng cách sử dụng các lời nhắc khác nhau nhằm phát hiện các nguy cơ tiềm ẩn.
- Khung An Toàn Tiên Phong của DeepMind nhằm giải quyết vấn đề này và là một trong số các phương pháp được công bố bởi các công ty công nghệ lớn như Meta, OpenAI và Microsoft để giảm bớt lo ngại về AI.
- DeepMind đã làm việc trên các hệ thống cảnh báo sớm cho các mô hình AI trong hơn một năm và đã công bố các bài báo về các phương pháp mới để đánh giá mô hình vượt xa các phương pháp hiện tại.
- Việc các nhà nghiên cứu AI tại Google DeepMind tiến bộ trong các phương pháp khoa học để xác định những gì đang xảy ra bên trong các mô hình AI là một tín hiệu đáng khích lệ, mặc dù họ vẫn còn nhiều việc phải làm.
- Điều này cũng có lợi cho an toàn AI khi các nhà nghiên cứu đạt được những đột phá về khả năng, họ cũng đang nỗ lực để đảm bảo an toàn.
📌 Google DeepMind đã ra mắt khung đánh giá mới để xác định nguy cơ của các mô hình AI, với kế hoạch triển khai vào năm 2025. Khung này sẽ được áp dụng khi sức mạnh tính toán tăng gấp sáu lần hoặc tinh chỉnh trong ba tháng, và sẽ có các đánh giá cảnh báo sớm.
Citations:
[1] https://www.semafor.com/article/05/17/2024/google-deepmind-launches-new-framework-to-assess-the-dangers-of-ai-models
- Tại sự kiện Fast Company Most Innovative Companies ở New York, CEO Perplexity Aravind Srinivas chỉ trích chiến lược tìm kiếm AI của Google, cho rằng việc Google chỉ tích hợp AI cho một số loại tìm kiếm nhất định sẽ ảnh hưởng tiêu cực đến trải nghiệm người dùng.
- Srinivas nhận xét rằng người dùng mong đợi nhận được top 10 kết quả ngay lập tức khi nhập truy vấn tìm kiếm. Khi điều này thay đổi và kết quả trở nên không chắc chắn, nó sẽ gây ảnh hưởng xấu.
- Nhận xét của Srinivas đưa ra ngay sau khi Google công bố tích hợp các câu trả lời AI, gọi là AI Overviews, vào dịch vụ tìm kiếm. Tuy nhiên, tính năng này không hoàn toàn mới vì Google đã thử nghiệm sáng kiến tương tự vào năm ngoái với tên gọi Search Generative Experience.
- Srinivas cho rằng AI Overviews sẽ chỉ là một trong nhiều thành phần trên trang kết quả đã lộn xộn của Google. Ông nhấn mạnh rằng người dùng không thích giao diện lộn xộn, gây nhầm lẫn.
- Theo Srinivas, dịch vụ của Perplexity cung cấp trải nghiệm dễ đoán hơn, luôn đưa ra câu trả lời và nguồn trích dẫn rõ ràng.
- Mặc dù là một công ty nhỏ, Perplexity không cố gắng xây dựng công cụ tìm kiếm truyền thống mà là một công cụ trả lời AI từ cốt lõi. Tuy nhiên, Google vẫn có lợi thế vượt trội trong lĩnh vực này nhờ dữ liệu chỉ mục web rộng lớn, dữ liệu doanh nghiệp địa phương từ Google Maps, dữ liệu thực tế từ Google Knowledge Graph, cũng như chuyên môn AI, sức mạnh tính toán và nguồn lực tài chính để liên tục cải tiến tìm kiếm AI.
📌 Tại sự kiện Fast Company, CEO Perplexity Aravind Srinivas chỉ trích gay gắt chiến lược tìm kiếm AI của Google, cho rằng nó khiến kết quả trở nên lộn xộn và gây nhầm lẫn cho người dùng. Ông nhấn mạnh Perplexity cung cấp trải nghiệm dễ đoán hơn với câu trả lời và nguồn trích dẫn rõ ràng, mặc dù công ty vẫn thua kém Google về dữ liệu và nguồn lực để phát triển công cụ tìm kiếm AI.
Citations:
[1] https://www.fastcompany.com/91125423/perplexity-ceo-aravind-srinivas-most-innovative-companies-gala-2024
* ChatGPT vừa ra mắt bản cập nhật cho phép người dùng gói Plus, Team và Enterprise nhập tệp trực tiếp từ các ổ đĩa đám mây bên ngoài như Google Drive và Microsoft OneDrive bằng mô hình GPT-4o mới.
* Để sử dụng tính năng này, người dùng chỉ cần nhấp vào biểu tượng kẹp giấy nhỏ nằm bên trái thanh nhập văn bản/lệnh ở cuối giao diện mặc định của ChatGPT trên máy tính để bàn.
* Người dùng cần cấp quyền truy cập từ tài khoản Microsoft OneDrive hoặc Google Drive của mình. Sau khi được cấp quyền, họ có thể nhập nhiều loại tệp như bảng tính, bài thuyết trình và tài liệu trực tiếp vào ChatGPT.
* OpenAI đã chia sẻ một video hướng dẫn (được đăng lại bên dưới) mô tả chi tiết quy trình này trong bài đăng trên blog và tài khoản X của họ.
* Giao diện ChatGPT đã cập nhật giờ hỗ trợ xem các tệp bảng tính ở chế độ toàn màn hình và có giao diện tương tác cho phép sửa đổi theo thời gian thực bằng mô hình AI cơ bản.
* Sau khi hoàn tất, người dùng có thể tải xuống bản sao trực tiếp từ ChatGPT.
📌 ChatGPT đã cập nhật tính năng mới cho phép người dùng nhập trực tiếp nhiều loại tệp từ Google Drive và Microsoft OneDrive. Người dùng cần cấp quyền truy cập, sau đó có thể tải lên và chỉnh sửa tệp ngay trong giao diện ChatGPT một cách dễ dàng và nhanh chóng.
Citations:
[1] https://venturebeat.com/ai/chatgpt-now-lets-you-import-files-directly-from-google-drive-microsoft-onedrive/
- Hugging Face cam kết 10 triệu USD tính toán GPU miễn phí qua chương trình ZeroGPU để giúp các nhà phát triển, học giả và startup tạo công nghệ AI mới, nhằm chống lại sự tập trung hóa của các tập đoàn công nghệ lớn.
- CEO Hugging Face cho biết khoản đầu tư này có thể thực hiện vì công ty đang có lãi hoặc gần có lãi và gần đây huy động được 235 triệu USD, định giá công ty ở mức 4.5 tỷ USD.
- Hầu hết các bước tiến quan trọng trong AI như GPT-4, thuật toán tìm kiếm của Google, hệ thống tự lái hoàn toàn của Tesla vẫn nằm trong phạm vi của các tập đoàn lớn. Họ có động lực tài chính để giữ bí mật các mô hình và với hàng tỷ USD cho tài nguyên tính toán, họ có thể bỏ xa đối thủ cạnh tranh.
- Hugging Face muốn công nghệ AI tiên tiến có thể tiếp cận với tất cả mọi người chứ không chỉ các tập đoàn công nghệ. Nếu đi theo hướng nguồn mở, hầu hết các công ty, tổ chức, tổ chức phi lợi nhuận, nhà hoạch định chính sách, cơ quan quản lý đều có thể làm AI.
- Việc tiếp cận tính toán là thách thức lớn khi xây dựng các mô hình ngôn ngữ lớn, thường có lợi cho các công ty như OpenAI và Anthropic khi họ ký thỏa thuận với nhà cung cấp điện toán đám mây. ZeroGPU sẽ có trên nền tảng Spaces của Hugging Face, nơi đã có hơn 300,000 bản demo AI được tạo ra.
- Quyền truy cập vào GPU được chia sẻ được xác định theo mức sử dụng. Nếu một phần dung lượng GPU không được sử dụng tích cực, nó sẽ khả dụng cho người khác sử dụng. ZeroGPU dùng GPU Nvidia A100, cung cấp tốc độ bằng khoảng một nửa so với H100 phổ biến và đắt tiền hơn.
- Thông thường, một công ty sẽ cam kết với nhà cung cấp đám mây như AWS trong một hoặc nhiều năm để có tài nguyên GPU. Điều này bất lợi cho các công ty nhỏ, nhà phát triển indie và học giả xây dựng ở quy mô nhỏ.
- Với AI phát triển nhanh chóng, mục tiêu của Hugging Face là cho phép mọi người xây dựng công nghệ AI một cách cởi mở hơn. Nếu chỉ một vài tổ chức thống trị quá nhiều, sau này sẽ khó chống lại hơn.
- Hơn 35,000 biến thể của mô hình AI nguồn mở Llama của Meta đã được chia sẻ trên Hugging Face kể từ phiên bản đầu tiên cách đây một năm.
📌 Hugging Face cam kết 10 triệu USD tính toán GPU miễn phí qua ZeroGPU, giúp các nhà phát triển tạo ứng dụng AI mà không lo chi phí, nhằm thúc đẩy phát triển AI nguồn mở. Việc tiếp cận tính toán là rào cản lớn khi xây dựng các mô hình ngôn ngữ lớn. Khoảng cách giữa AI đóng và mở đang thu hẹp dần. Hơn 35,000 biến thể mô hình Llama đã được chia sẻ trên Hugging Face trong một năm qua.
https://www.theverge.com/2024/5/16/24156755/hugging-face-celement-delangue-free-shared-gpus-ai
- AI sẽ giúp nâng cao năng lực của lực lượng lao động IT, ưu tiên những người có kiến thức tổng quát rộng và khả năng thích ứng nhanh với các chủ đề mới.
- Danh mục dịch vụ IT sẽ tập trung vào tối ưu hóa giá trị từ các giải pháp mới và hiện có bằng cách sử dụng hiệu quả các công cụ, ứng dụng và dịch vụ AI.
- Các lĩnh vực trọng tâm bao gồm: áp dụng đổi mới, hiện đại hóa ứng dụng cũ, đào tạo nhân viên, an ninh mạng và AI có trách nhiệm.
- Tự động hóa sẽ giúp tăng năng suất và giảm lợi thế của các địa điểm gia công nước ngoài. Các kỹ sư và chuyên gia tư vấn sẽ dành nhiều thời gian hơn để làm việc tại chỗ với dữ liệu của khách hàng.
- Năm 2024 sẽ là giai đoạn gián đoạn, đến năm 2025, các tổ chức Global 2000 sẽ phân bổ hơn 40% chi tiêu IT cốt lõi cho các sáng kiến AI.
- Nhiều tập đoàn lớn sẽ trở thành những người chơi chính trên thị trường dịch vụ IT nhờ đầu tư vào các công nghệ sáng tạo và dịch vụ dựa trên AI.
📌 Trong 5 năm tới, AI sẽ là trung tâm của hoạt động kinh doanh, thúc đẩy hiệu quả, tính linh hoạt và đổi mới trong ngành IT. Sự chuyển đổi này đòi hỏi các công ty phải đánh giá lại chiến lược thị trường, nhưng cũng mở ra nhiều cơ hội phát triển cho ngành dịch vụ IT với mức đầu tư 40% chi tiêu IT cốt lõi vào AI của các tổ chức Global 2000 vào năm 2025.
https://www.forbes.com/sites/forbestechcouncil/2024/05/16/how-ai-can-transform-the-it-service-industry-in-the-next-5-years/
- Google I/O 2024 tập trung vào tích hợp AI tạo sinh vào mọi sản phẩm của Google, với trọng tâm là mô hình AI Gemini.
- Tính năng "Search Generative Experience" trở thành mặc định cho công cụ tìm kiếm Google tại Mỹ, sẽ mở rộng ra các khu vực khác trong những tháng tới.
- AI Overviews sẽ không thay thế hoàn toàn danh sách liên kết truyền thống, nhưng sẽ đẩy nội dung đó xuống dưới trang, cung cấp câu trả lời tóm tắt từ web.
- Các tìm kiếm về địa điểm địa phương hoặc nấu ăn có thể hiển thị trang kết quả tối ưu hóa hoàn toàn bởi AI.
- Google Photos, Gmail và Android đều được nâng cấp với các tính năng AI mới, như tìm kiếm thông minh và trả lời thông minh trong Gmail.
- Google Workspace sẽ có tính năng tạo thành viên nhóm AI với tên, trách nhiệm và tính cách dựa trên ngữ cảnh của các cuộc trò chuyện công việc, email và tài liệu.
- Mô hình Gemini Pro được nâng cấp, giới hạn token tăng từ 1 triệu lên 2 triệu. Mô hình mới Gemini 1.5 Flash nhanh hơn và nhẹ hơn nhưng vẫn mạnh mẽ như Gemini Pro.
- Google có kế hoạch tích hợp Gemini vào hàng tỷ điện thoại Android trên toàn thế giới, thay thế dần Google Assistant.
- Gemini có khả năng hiểu nội dung trên màn hình điện thoại, tương tự như tính năng Google Now On Tap trước đây.
- Dự án Astra của Google nhằm xây dựng trí tuệ nhân tạo tổng quát (AGI), với các phần của Astra sẽ xuất hiện trong tính năng mới Gemini Live vào mùa hè này.
- CEO Sundar Pichai tiết lộ rằng từ "AI" được nhắc đến 120 lần trong bài phát biểu, cho thấy sự tập trung mạnh mẽ vào AI của Google.
📌 Google I/O 2024 nhấn mạnh tích hợp AI tạo sinh vào mọi sản phẩm, từ tìm kiếm đến Gmail và Android. Tính năng AI Overviews và các mô hình Gemini mới như Gemini Pro và Gemini Flash sẽ thay đổi cách người dùng tương tác với công nghệ của Google.
https://www.extremetech.com/internet/at-io-2024-google-announces-generative-ai-in-everything
- **Circle to Search cho bài tập:**
- Tính năng mới Circle to Search cho phép người dùng sử dụng cử chỉ nhấn giữ để tìm kiếm câu trả lời cho các câu hỏi vật lý và toán học.
- Google Search sẽ trả về hướng dẫn từng bước sau khi truy vấn.
- Người dùng cần chọn tham gia từ menu Search Labs để sử dụng tính năng này.
- Google sử dụng LearnLM, một dòng mô hình mới được tinh chỉnh cho việc học tập.
- Google dự định phát hành thêm hỗ trợ bài tập STEM vào cuối năm, bao gồm khả năng nhận diện đồ thị và biểu đồ.
- **Gemini có thêm ngữ cảnh:**
- Người dùng có thể kéo và thả hình ảnh tạo sinh từ Gemini vào các ứng dụng khác như Messages.
- Người dùng có thể truy vấn PDF để có tóm tắt nhanh.
- Cập nhật này sẽ được triển khai trong vài tháng tới.
- **Gemini Nano đa phương thức trên thiết bị:**
- Gemini Nano sẽ trở thành đa phương thức, có thể xử lý đầu vào văn bản và âm thanh hoặc video đồng thời.
- Tính năng này sẽ hỗ trợ các tính năng Android như TalkBack, nơi Nano có thể tạo mô tả cho hình ảnh và các yếu tố giao diện không có chi tiết.
- Gemini Nano cũng sẽ hỗ trợ tính năng phát hiện lừa đảo trong ứng dụng Phone, quét cuộc trò chuyện trên thiết bị để xác định lừa đảo trong thời gian thực.
- Cuộc trò chuyện được xử lý trên phần cứng và không gửi đến máy chủ, Nano lắng nghe các từ và cụm từ kích hoạt và cung cấp phản hồi.
- **Gemini cho nhà phát triển:**
- Google nhắc nhở các nhà phát triển rằng Gemini có sẵn để sử dụng trong Android Studio.
- Các nhà phát triển có quyền truy cập sớm vào Gemini 1.5 Pro, giúp hỗ trợ mã hóa và biên dịch.
📌 Google I/O 2024 giới thiệu nhiều tính năng AI mới cho Android, bao gồm Circle to Search giúp làm bài tập, Gemini Nano đa phương thức và phát hiện lừa đảo. Các nhà phát triển cũng được hỗ trợ với Gemini 1.5 Pro trong Android Studio.
https://qz.com/google-io-gemini-ai-android-circle-to-search-1851476971
Meta description: Anthropic AI ra mắt công cụ kỹ thuật tạo lệnh giúp tạo ra các lệnh sẵn sàng sản xuất trong Bảng điều khiển Anthropic, tiết kiệm thời gian và đảm bảo kết quả chất lượng cao.
Meta keywords: Anthropic AI, công cụ kỹ thuật tạo lệnh, lệnh sẵn sàng sản xuất, Bảng điều khiển Anthropic, AI tạo sinh, kỹ thuật tạo lệnh
SEO title: Anthropic AI ra mắt công cụ kỹ thuật tạo lệnh tạo lệnh sẵn sàng sản xuất trong bảng điều khiển
Tóm tắt chi tiết:
- Anthropic vừa công bố công cụ kỹ thuật tạo lệnh mới giúp người dùng và người mới bắt đầu tạo ra các lệnh sẵn sàng sản xuất trong Bảng điều khiển Anthropic, tiết kiệm thời gian và đảm bảo kết quả chất lượng cao.
- Công cụ kỹ thuật tạo lệnh mới này là bước tiến quan trọng trong phát triển AI hỗ trợ các giá trị của con người và tạo ra các hệ thống AI đạo đức và có tác động hơn.
- Các công cụ AI tạo sinh (GenAI) đã đi một chặng đường dài. Công cụ GenAI đầu tiên được giới thiệu vào những năm 1960 trong Chatbot. Tuy nhiên, phải đến năm 2014, mạng đối kháng tạo sinh (GAN) mới được giới thiệu, cho phép GenAI cuối cùng tạo ra hình ảnh, video và âm thanh chân thực của người thật.
- Năm 2024, chúng ta có thể tạo ra bất cứ thứ gì tưởng tượng được bằng các công cụ GenAI như ChatGPT, DALL-E và các công cụ khác. Tuy nhiên, vấn đề là chúng ta không thể tận dụng tối đa chúng hoặc sử dụng chúng một cách trọn vẹn nhất. Lý do chính là thiếu kỹ năng kỹ thuật tạo lệnh.
- Kỹ thuật tạo lệnh tạo ra đầu ra tối ưu từ trí tuệ nhân tạo (AI) bằng cách sử dụng các đầu vào được thiết kế và tinh chỉnh cẩn thận. Kỹ thuật tạo lệnh đang ngày càng thu hút sự chú ý gần đây vì mọi người muốn điều hướng AI hiệu quả hơn và nhận được đầu ra tối ưu.
- Không phải ai cũng có thể trở thành kỹ sư tạo lệnh hoặc không có thời gian để học tất cả. May mắn thay, Anthropic, công ty đứng sau mô hình ngôn ngữ lớn (LLM) Claude và là một trong những đối thủ lớn nhất của ChatGPT, vừa công bố công cụ kỹ thuật tạo lệnh mới có thể biến ý tưởng của bạn thành các lệnh hiệu quả, chính xác và đáng tin cậy bằng cách sử dụng các kỹ thuật tạo lệnh của Claude.
- Đây là tin tuyệt vời cho bất kỳ ai muốn tối đa hóa đầu ra của mình bằng cách sử dụng AI tạo sinh và đạt được kết quả tối ưu.
📌 Công cụ kỹ thuật tạo lệnh mới của Anthropic là bước đột phá giúp người dùng tạo ra các lệnh sẵn sàng sản xuất chất lượng cao trong vài giây, mở ra tiềm năng to lớn cho việc tận dụng tối đa sức mạnh của AI tạo sinh và đạt được kết quả tối ưu.
Citations:
[1] https://www.marktechpost.com/2024/05/10/anthropic-ai-launches-a-prompt-engineering-tool-that-generates-production-ready-prompts-in-the-anthropic-console/
- Amazon giới thiệu giải pháp tinh chỉnh mô hình ngôn ngữ lớn (LLM) không cần code thông qua Amazon SageMaker Canvas và SageMaker JumpStart.
- Giải pháp này giúp các doanh nghiệp tăng cường tương tác với khách hàng, cải thiện trải nghiệm và nâng cao hiệu quả kinh doanh.
- SageMaker Canvas cho phép người dùng phi kỹ thuật tinh chỉnh LLM một cách trực quan bằng giao diện kéo thả.
- SageMaker JumpStart cung cấp các mô hình LLM được huấn luyện sẵn như Flan-T5, Flan-UL2 và Vicuna, cùng với dữ liệu mẫu để tinh chỉnh nhanh chóng.
- Quy trình 4 bước để tinh chỉnh LLM: Chuẩn bị dữ liệu huấn luyện, chọn mô hình và siêu tham số, huấn luyện và tinh chỉnh mô hình, triển khai và sử dụng.
- Ví dụ ứng dụng trong ngành bán lẻ: Tinh chỉnh LLM để trả lời các câu hỏi về sản phẩm, chính sách, hỗ trợ khách hàng...
- Ví dụ trong lĩnh vực tài chính: Tinh chỉnh LLM để cung cấp thông tin về sản phẩm tài chính, tư vấn đầu tư, hỗ trợ giao dịch...
- Ví dụ trong y tế: Tinh chỉnh LLM để hỗ trợ chẩn đoán, đưa ra lời khuyên về sức khỏe, giải đáp thắc mắc của bệnh nhân...
- Các bước triển khai chi tiết được hướng dẫn cụ thể trong bài blog của Amazon.
📌 Amazon SageMaker Canvas và JumpStart mang đến giải pháp tinh chỉnh LLM không cần code, với quy trình 4 bước đơn giản và mô hình được huấn luyện sẵn. Giải pháp này giúp doanh nghiệp ở nhiều lĩnh vực như bán lẻ, tài chính, y tế... cải thiện đáng kể trải nghiệm và sự hài lòng của khách hàng.
Citations:
[1] https://aws.amazon.com/blogs/machine-learning/transform-customer-engagement-with-no-code-llm-fine-tuning-using-amazon-sagemaker-canvas-and-sagemaker-jumpstart/
- Kỹ thuật nền tảng đóng vai trò quan trọng trong việc tối ưu hóa các hệ thống AI ở quy mô lớn, đặc biệt là trong lĩnh vực MLOps.
- Các thách thức chính khi mở rộng AI bao gồm: quản lý dữ liệu, tích hợp mô hình, triển khai và giám sát, cũng như bảo mật và tuân thủ.
- Kỹ thuật nền tảng giúp giải quyết các thách thức này bằng cách cung cấp một framework thống nhất để xây dựng, triển khai và quản lý các hệ thống AI.
- Các lợi ích của kỹ thuật nền tảng bao gồm: tăng tốc độ phát triển, cải thiện khả năng mở rộng, tăng cường bảo mật và tuân thủ, cũng như giảm chi phí.
- Một nền tảng MLOps hiệu quả nên bao gồm các thành phần như: quản lý dữ liệu, huấn luyện mô hình, triển khai mô hình, giám sát và cảnh báo, cũng như bảo mật và quản trị.
- Các công ty như Netflix, Uber và Airbnb đã áp dụng thành công kỹ thuật nền tảng để mở rộng các hệ thống AI của họ, cải thiện hiệu suất và giảm chi phí.
- Để triển khai kỹ thuật nền tảng cho MLOps, các tổ chức cần xác định rõ yêu cầu, chọn công nghệ phù hợp, xây dựng một đội ngũ có kỹ năng và áp dụng các phương pháp Agile và DevOps.
- Tương lai của kỹ thuật nền tảng trong AI sẽ tập trung vào việc tự động hóa nhiều hơn, tích hợp sâu hơn với các hệ thống doanh nghiệp và hỗ trợ các công nghệ AI mới như học sâu và xử lý ngôn ngữ tự nhiên.
📌 Kỹ thuật nền tảng (platform engineering) là chìa khóa để tối ưu hóa AI ở quy mô lớn, đặc biệt trong lĩnh vực MLOps. Bằng cách cung cấp một framework thống nhất, kỹ thuật nền tảng giúp tăng tốc độ phát triển, cải thiện khả năng mở rộng, tăng cường bảo mật và giảm chi phí. Các công ty hàng đầu như Netflix và Uber đã chứng minh thành công của phương pháp này.
Citations:
[1] https://thenewstack.io/optimize-ai-at-scale-with-platform-engineering-for-mlops/
- Các nhà nghiên cứu từ Meta, Ecole des Ponts ParisTech và Université Paris-Saclay đã phát triển một kỹ thuật mới có tên là dự đoán đa-token, giúp tăng tốc độ suy luận của mô hình AI lên đến ba lần.
- Dự đoán đa-token cho phép mô hình dự đoán nhiều token tương lai cùng một lúc từ mỗi vị trí trong bộ dữ liệu huấn luyện, thay vì chỉ dự đoán một token một lần như mô hình tự hồi quy truyền thống.
- Kỹ thuật này không chỉ tăng tốc độ suy luận mà còn cải thiện độ chính xác của mô hình nhờ vào khả năng huấn luyện sâu hơn mà không cần thêm thời gian huấn luyện hay bộ nhớ.
- Các nhà nghiên cứu đã thử nghiệm kỹ thuật dự đoán đa-token trên nhiều nhiệm vụ khác nhau sử dụng các mô hình từ 300 triệu đến 13 tỷ tham số. Kết quả cho thấy, mặc dù mô hình nhỏ có kết quả kém hơn, nhưng hiệu quả của dự đoán đa-token tăng lên theo kích thước mô hình.
- Phương pháp này được đánh giá là một cải tiến đơn giản nhưng hiệu quả để huấn luyện các mô hình transformer mạnh mẽ và hiệu quả hơn.
- Sự kiện VB's AI Impact Tour tại San Francisco sẽ là cơ hội để khám phá thêm về cách thức tích hợp AI một cách có trách nhiệm vào sản xuất, nơi các chuyên gia ngành công nghiệp sẽ chia sẻ về tiềm năng của AI tạo sinh và cách thức tối ưu hóa các quy trình kinh doanh.
📌 Các nhà nghiên cứu từ Meta và các trường đại học Pháp đã phát triển kỹ thuật dự đoán đa-token, tăng tốc độ suy luận của mô hình AI lên đến ba lần và cải thiện độ chính xác. Kỹ thuật này cho phép dự đoán nhiều token cùng một lúc, hiệu quả hơn trong các mô hình lớn từ 300 triệu đến 13 tỷ tham số.
Citations:
[1] https://venturebeat.com/ai/metas-new-multi-token-prediction-makes-ai-models-up-to-3x-faster/
- Upend là một công ty khởi nghiệp của Canada, vừa mới xuất hiện, được thành lập bởi Jeevan Arora từ Đại học Toronto.
- Ban đầu, Upend bắt đầu như một dự án mùa hè và sau đó đã phát triển thành một nền tảng đầy đủ dành cho các đội ngũ doanh nghiệp sau phản hồi tích cực.
- Công cụ này cung cấp một thanh tìm kiếm AI tạo sinh, cho phép người dùng chọn bất kỳ mô hình ngôn ngữ lớn nào và đặt câu hỏi liên quan đến công việc hoặc cuộc sống hàng ngày.
- Mô hình xử lý truy vấn và kết hợp nó với tìm kiếm web hoặc nguồn được chọn để cung cấp câu trả lời có cơ sở, kèm theo trích dẫn để tham khảo dễ dàng.
- Các công ty lớn như Google và Microsoft đang cách mạng hóa công cụ tìm kiếm của họ với các mô hình AI tạo sinh, trong khi các công ty nhỏ hơn như Upend đang tạo dấu ấn với các giải pháp AI từ cốt lõi.
- Theo Gartner, thị trường cho các công cụ tìm kiếm truyền thống dự kiến sẽ giảm 25% về khối lượng vào năm 2026 do sự xuất hiện của các giải pháp AI tạo sinh.
- Alan Antin, Phó chủ tịch phân tích tại Gartner, cho biết vào tháng 2, các giải pháp AI tạo sinh đang trở thành các công cụ trả lời thay thế, thay thế cho các truy vấn của người dùng mà trước đây có thể đã được thực hiện trong các công cụ tìm kiếm truyền thống.
- Điều này sẽ buộc các công ty phải xem xét lại chiến lược kênh tiếp thị của họ khi AI tạo sinh ngày càng được tích hợp sâu rộng trong mọi khía cạnh của doanh nghiệp.
📌 Upend, một công ty khởi nghiệp Canada, đã phát triển một công cụ tìm kiếm AI mới, sử dụng 100 mô hình ngôn ngữ lớn, nhằm cách mạng hóa cách chúng ta tìm kiếm và xử lý thông tin. Công cụ này không chỉ hỗ trợ người dùng trong công việc mà còn trong cuộc sống hàng ngày, với khả năng cung cấp câu trả lời có cơ sở và trích dẫn chính xác.
Citations:
[1] https://venturebeat.com/ai/new-ai-search-engine-upend-emerges-from-stealth-powered-by-100-llms/
- Subtl.ai, một startup AI từ Ấn Độ, đang xây dựng một phiên bản Perplexity riêng tư dành cho doanh nghiệp, bắt đầu từ năm 2020.
- Vishnu Ramesh, người sáng lập Subtl.ai, mô tả công ty là "Perplexity riêng tư dựa trên mô hình nhẹ cho doanh nghiệp".
- Subtl.ai được thiết kế để hoạt động trên đám mây hiện có của khách hàng doanh nghiệp mà không cần kết nối internet, bảo vệ dữ liệu riêng tư.
- Mục tiêu ban đầu của Subtl.ai là tạo ra một phiên bản Google riêng tư, nhưng sau đó chuyển hướng sang cung cấp khả năng tương tác với tài liệu cho người dùng.
- Subtl.ai đã giành được nhiều hợp đồng quốc phòng để phát triển sản phẩm của mình.
- Perplexity Pro for Enterprise và Rovo của Atlassian là những sản phẩm tương tự nhưng vẫn chưa giải quyết được hoàn toàn vấn đề bảo mật dữ liệu riêng tư cho doanh nghiệp.
- Subtl.ai sử dụng Llama 3 8B và các giải pháp truy xuất độc quyền để trả lời các câu hỏi, trích dẫn nguồn thông tin chính xác từ cơ sở dữ liệu đã được đào tạo.
- Sản phẩm của Subtl.ai giúp giảm thời gian truy xuất thông tin từ 3-5 ngày làm việc xuống còn chưa đến một phút.
- Subtl.ai cung cấp khả năng truy xuất thông tin chính xác từ tài liệu dài, thay vì chỉ cung cấp liên kết và PDF, tạo trải nghiệm người dùng tốt hơn.
- Hiện tại, Subtl.ai chỉ hỗ trợ văn bản, nhưng có kế hoạch mở rộng sang khả năng đa phương tiện và đa ngôn ngữ trong tương lai.
- Subtl.ai tự hào có tỷ lệ "hallucination" thấp hơn 75% so với các đối thủ cạnh tranh, nhờ vào việc truy xuất thông tin từ một lượng dữ liệu nguồn nhỏ.
- Công ty đã chuyển từ việc sử dụng giải pháp của OpenAI sang Mistral và hiện tại là Llama 3, với 5 mô hình khác nhau để cung cấp trải nghiệm mượt mà cho khách hàng.
📌 Subtl.ai, một startup AI từ Ấn Độ, đang phát triển một giải pháp Perplexity riêng tư cho doanh nghiệp, nhằm giải quyết vấn đề bảo mật dữ liệu nhạy cảm. Sản phẩm của họ, dựa trên Llama 3 8B và các giải pháp truy xuất độc quyền, cung cấp khả năng trả lời câu hỏi nhanh chóng và chính xác, giảm đáng kể thời gian truy xuất thông tin, tỷ lệ ảo giác thấp hơn 75% so với các đối thủ cạnh tranh
https://analyticsindiamag.com/meet-the-indian-ai-startup-building-a-private-perplexity-for-enterprise/
- Google vừa hoàn thành bản cập nhật thuật toán lớn nhất trong lịch sử, nhằm duy trì độ tin cậy và tính hữu ích của xếp hạng tìm kiếm trước sự ảnh hưởng ngày càng tăng của trí tuệ nhân tạo (AI).
- Tuy nhiên, vẫn còn lo ngại về sự phổ biến của spam trong kết quả tìm kiếm của Google, gây nghi ngờ về khả năng cung cấp trải nghiệm tìm kiếm tốt nhất trong kỷ nguyên AI tạo sinh.
- Lily Ray, Phó Chủ tịch chiến lược và nghiên cứu tìm kiếm tại công ty tiếp thị kỹ thuật số Amsive, chia sẻ mối quan ngại của mình về việc các công ty lớn đang thoát khỏi việc xuất bản nội dung chất lượng thấp nhưng vẫn xếp hạng cao.
- AI tạo sinh có thể được sử dụng để tạo ra nội dung nhiễu không liên quan, làm quá tải thuật toán của Google và khiến việc phân biệt nội dung chất lượng cao với spam trở nên khó khăn hơn.
- Để đối phó, Google đang ưu tiên nội dung từ các nguồn có khả năng do con người tạo ra nhiều hơn, nâng cao nội dung do người dùng tạo từ các diễn đàn như Reddit và Quora lên đầu trang kết quả tìm kiếm (SERPs).
- Google phải tìm sự cân bằng giữa việc tận dụng AI để nâng cao dịch vụ và bảo vệ chống lại việc lạm dụng AI trong tương lai.
📌 Google đang phải vật lộn để duy trì tính toàn vẹn của kết quả tìm kiếm trước sự gia tăng của spam do AI tạo ra. Bản cập nhật thuật toán gần đây nhất cho thấy nỗ lực của công ty trong việc lọc nội dung chất lượng thấp, đồng thời tận dụng AI để cải thiện trải nghiệm người dùng.
Citations:
[1] https://www.fastcompany.com/91117543/google-generative-ai-seo-spam
- RAG (retrieval augmented generation) là một framework kiến trúc sử dụng cơ sở dữ liệu vector để khắc phục các hạn chế của các mô hình ngôn ngữ lớn (LLM) như dữ liệu huấn luyện lỗi thời, thiếu ngữ cảnh đặc thù của tổ chức và các ảo giác của AI.
- Theo Gartner, đến năm 2026, các mô hình AI đa phương thức với đa dạng định dạng dữ liệu và phương tiện sẽ chiếm ưu thế trong 6/10 giải pháp AI.
- Ngoài RAG, một giải pháp phổ biến khác để giải quyết hạn chế của LLM là fine-tuning - tinh chỉnh mô hình có sẵn bằng cách huấn luyện thêm. Doanh nghiệp có thể tinh chỉnh LLM theo nhu cầu hoặc định kỳ.
- RAG cho phép các công ty cải thiện LLM mà không cần huấn luyện lại, bằng cách kết nối LLM với các cơ sở dữ liệu bên ngoài trước khi tạo phản hồi cho một lời nhắc hoặc truy vấn.
- Kiến trúc RAG giúp tăng cường LLM với thông tin cập nhật và có liên quan, đồng thời giảm thiểu các hạn chế như dữ liệu lỗi thời và thiếu ngữ cảnh.
- Với RAG, các doanh nghiệp có thể tận dụng sức mạnh của LLM và bổ sung kiến thức đặc thù, giúp cải thiện đáng kể hiệu suất và độ chính xác của các ứng dụng AI thời gian thực.
📌 RAG là một giải pháp hiệu quả giúp khắc phục hạn chế của các mô hình ngôn ngữ lớn, cho phép tích hợp cơ sở dữ liệu vector để bổ sung thông tin cập nhật và ngữ cảnh cho LLM. Với RAG, 60% giải pháp AI đa phương thức sẽ đạt hiệu suất vượt trội vào năm 2026.
Citations:
[1] https://thenewstack.io/how-rag-architecture-overcomes-llm-limitations/
- Confluent hiện cung cấp khả năng suy luận mô hình AI cho một số khách hàng xây dựng ứng dụng AI thời gian thực với Flink. Công ty có kế hoạch mở rộng quyền truy cập và ra mắt thêm các tính năng để việc chạy ứng dụng AI với dữ liệu streaming trở nên dễ dàng, rẻ và nhanh hơn.
- Confluent giới thiệu Freight Clusters, một loại cụm serverless mới cho khách hàng, tận dụng sao chép rẻ hơn nhưng chậm hơn trên các trung tâm dữ liệu, giúp giảm tới 90% chi phí.
- Tại sự kiện Kafka Summit ở Bengaluru, Ấn Độ, hơn 30% người tham dự đến từ khu vực này. Jay Kreps, CEO và đồng sáng lập Confluent, chia sẻ tầm nhìn về việc tạo ra các sản phẩm dữ liệu phổ quát hỗ trợ cả mặt vận hành và phân tích của dữ liệu.
- Confluent giới thiệu khả năng suy luận mô hình AI trong giải pháp cloud-native cho Apache Flink, đơn giản hóa các ứng dụng AI và machine learning thời gian thực. Trước đây, các nhóm sử dụng Flink phải viết mã và dùng nhiều công cụ để kết nối mô hình và pipeline xử lý dữ liệu.
- Hiện tại, Confluent cung cấp quyền truy cập suy luận mô hình AI cho một số khách hàng xây dựng ứng dụng AI thời gian thực với Flink. Công ty dự kiến mở rộng quyền truy cập và ra mắt thêm tính năng để đơn giản hóa quá trình này.
📌 Confluent ra mắt giải pháp plug-and-play cho AI streaming thời gian thực, giúp triển khai ứng dụng AI dễ dàng và rẻ hơn tới 90% với dữ liệu streaming. Công ty cũng giới thiệu Freight Clusters serverless và tầm nhìn về sản phẩm dữ liệu phổ quát tại Kafka Summit thu hút đông đảo người tham dự.
Citations:
[1] https://venturebeat.com/data-infrastructure/confluent-launches-plug-and-play-offering-to-accelerate-realtime-streaming-ai/
- MongoDB công bố chương trình MongoDB for AI Applications, cung cấp bộ công cụ và tài nguyên để xây dựng ứng dụng AI trên nền tảng dữ liệu MongoDB.
- Chương trình bao gồm bản xem trước kỹ thuật của Atlas, công cụ lập chỉ mục véc-tơ, giúp truy vấn và tìm kiếm dữ liệu hiệu quả hơn cho các ứng dụng AI.
- MongoDB cũng cung cấp tài liệu hướng dẫn, mẫu code, hướng dẫn triển khai và đào tạo để giúp các nhà phát triển xây dựng ứng dụng AI.
- Các ứng dụng AI đòi hỏi khả năng lưu trữ và truy xuất dữ liệu phi cấu trúc, đa dạng với hiệu suất cao, điều mà MongoDB đáp ứng tốt.
- Gần 70% khách hàng doanh nghiệp của MongoDB sử dụng nền tảng này cho các dự án AI, machine learning.
- Chương trình mới hỗ trợ các trường hợp sử dụng như tìm kiếm tri thức, gợi ý nội dung, phân tích quan điểm.
- Cơ sở dữ liệu véc-tơ Atlas giúp đơn giản hóa việc xây dựng các ứng dụng AI như chatbot, công cụ hỗ trợ quyết định, hệ thống gợi ý.
- Tính năng Atlas Search cải thiện việc tìm kiếm văn bản cho các ứng dụng như tìm kiếm tài liệu, phân tích quan điểm.
- MongoDB cung cấp khả năng mở rộng linh hoạt, hiệu suất cao và tính sẵn sàng cho các ứng dụng AI quy mô lớn.
📌 MongoDB giới thiệu chương trình MongoDB for AI Applications, cung cấp công cụ, tài nguyên và hướng dẫn để xây dựng ứng dụng AI trên nền tảng dữ liệu MongoDB, hỗ trợ các trường hợp sử dụng như tìm kiếm tri thức, gợi ý nội dung, phân tích quan điểm với khả năng mở rộng và hiệu suất cao.
Citations:
[1] https://venturebeat.com/ai/mongodb-unveils-ai-application-program-for-enterprise/
- Flatiron Software đã ra mắt Snapshot Reviews, một công cụ AI giúp các nhà quản lý kỹ thuật đánh giá chất lượng mã, mức độ tham gia và năng suất của từng nhà phát triển trong nhóm.
- Snapshot Reviews tích hợp với các nền tảng quản lý mã nguồn như GitHub, GitLab và Bitbucket, phân tích dữ liệu từ các kho lưu trữ mã và cung cấp thông tin chi tiết về hiệu suất của nhà phát triển.
- Công cụ này sử dụng các thuật toán học máy để đánh giá chất lượng mã dựa trên các chỉ số như độ phức tạp, khả năng đọc và tính dễ bảo trì của mã.
- Snapshot Reviews cũng theo dõi mức độ tham gia của từng nhà phát triển, bao gồm số lượng commit, pull request và thời gian phản hồi trung bình.
- Dữ liệu được trình bày thông qua các biểu đồ và bảng điều khiển trực quan, giúp các nhà quản lý dễ dàng theo dõi hiệu suất của nhóm và xác định các lĩnh vực cần cải thiện.
- Flatiron Software cho biết Snapshot Reviews có thể giúp các nhà quản lý tiết kiệm thời gian trong việc đánh giá mã, đồng thời cung cấp phản hồi khách quan và nhất quán cho các nhà phát triển.
- Công ty cũng nhấn mạnh tầm quan trọng của việc sử dụng dữ liệu để thúc đẩy cải tiến quy trình và nâng cao chất lượng sản phẩm trong các nhóm phát triển phần mềm.
📌 Flatiron Software đã giới thiệu Snapshot Reviews, một công cụ AI mới giúp phân tích chất lượng mã, mức độ tham gia và năng suất của từng lập trình viên. Công cụ này tích hợp với các nền tảng quản lý mã nguồn, sử dụng học máy để đánh giá mã và cung cấp thông tin chi tiết thông qua các biểu đồ trực quan, hứa hẹn tiết kiệm thời gian cho các nhà quản lý và thúc đẩy cải tiến trong các nhóm phát triển phần mềm.
Citations:
[1] https://venturebeat.com/ai/flatiron-software-unveils-snapshot-reviews-an-ai-tool-for-analyzing-developer-code-and-performance/
- Elliptic, một công ty Anh chuyên về pháp y tiền điện tử, đã tạo ra một phương pháp mới sử dụng AI để phát hiện rửa tiền trên blockchain Bitcoin.
- Bằng cách áp dụng học máy vào dữ liệu giao dịch, Elliptic đã xác định được các khoản tiền từ tội phạm gửi đến sàn giao dịch tiền điện tử, các mẫu rửa tiền mới và các tác nhân bất hợp pháp trước đây chưa được biết đến.
- Như các hệ thống giao dịch phi tập trung và (giả) ẩn danh, blockchain rất hấp dẫn đối với những kẻ rửa tiền. Tuy nhiên, blockchain cũng rất thích hợp cho phân tích AI.
- Bằng cách quét sổ cái giao dịch và dữ liệu về ví, học máy có thể phát hiện dấu hiệu của các khoản thanh toán bất hợp pháp và tội phạm đứng sau chúng.
- Nghiên cứu mới cho thấy kỹ thuật này cũng có thể được các cơ quan thực thi pháp luật sử dụng để xác định các dịch vụ và tác nhân bất hợp pháp mới sử dụng tiền điện tử.
- Tiền điện tử có thể dễ phát hiện tội phạm tài chính dựa trên AI hơn so với các tài sản tài chính truyền thống.
- Elliptic đã khám phá các khả năng này trong nhiều năm và phát triển một mô hình học máy vào năm 2019 để tìm các giao dịch Bitcoin được thực hiện bởi các tác nhân bất hợp pháp.
- Nghiên cứu mới cập nhật các kỹ thuật và áp dụng chúng cho một tập dữ liệu khổng lồ, chứa hơn 200 triệu giao dịch.
📌 Elliptic đã phát triển một kỹ thuật AI mới để phát hiện rửa tiền qua tiền điện tử trên blockchain Bitcoin. Phương pháp này đã xác định được các giao dịch bất hợp pháp, mẫu rửa tiền mới và tác nhân chưa được biết đến từ một tập dữ liệu hơn 200 triệu giao dịch. Kỹ thuật này hứa hẹn sẽ hỗ trợ đắc lực cho các tổ chức tài chính, doanh nghiệp tiền điện tử và cơ quan thực thi pháp luật trong cuộc chiến chống rửa tiền.
Citations:
[1] https://thenextweb.com/news/ai-detects-money-laundering-through-cryptocurrencies-on-bitcoin-blockchain
- Atlassian, công ty phát triển các công cụ hợp tác cho nhóm, đã giới thiệu Rovo - một công cụ khám phá kiến thức sử dụng AI.
- Rovo giúp nhân viên tìm kiếm thông tin từ nhiều nguồn dữ liệu khác nhau của công ty như Google Drive, Confluence, Jira và Trello.
- Công cụ này sử dụng các mô hình ngôn ngữ lớn và công nghệ tìm kiếm tri thức để hiểu ngữ cảnh truy vấn và cung cấp kết quả phù hợp.
- Rovo hỗ trợ hơn 30 ngôn ngữ và có thể tích hợp với các ứng dụng khác của Atlassian như Jira Service Management và Confluence.
- Công ty đã thử nghiệm Rovo với hơn 500 khách hàng và nhận được phản hồi tích cực về khả năng cải thiện năng suất và tiết kiệm thời gian.
- Rovo sẽ được tích hợp vào các sản phẩm của Atlassian và cũng có thể được truy cập thông qua trình duyệt và ứng dụng di động.
- Atlassian tin rằng Rovo sẽ giúp các nhóm làm việc hiệu quả hơn bằng cách giảm thời gian tìm kiếm thông tin và tăng cường chia sẻ kiến thức.
📌 Atlassian đã giới thiệu Rovo, một công cụ khám phá kiến thức sử dụng AI, giúp nhân viên tìm kiếm thông tin từ nhiều nguồn dữ liệu của công ty. Với khả năng hỗ trợ hơn 30 ngôn ngữ và tích hợp với các ứng dụng của Atlassian, Rovo hứa hẹn cải thiện đáng kể năng suất và hiệu quả làm việc của các nhóm.
Citations:
[1] https://venturebeat.com/ai/atlassian-introduces-rovo-an-ai-powered-knowledge-discovery-tool-for-the-enterprise/
- GitHub đã giới thiệu Copilot Workspace, một môi trường phát triển AI từ cốt lõi, cho phép lập trình viên sử dụng ngôn ngữ tự nhiên để lên ý tưởng, lập kế hoạch, xây dựng, kiểm thử và chạy mã nhanh chóng và dễ dàng hơn.
- Copilot Workspace khác biệt với Copilot trước đây ở chỗ nó hỗ trợ các tác vụ phức tạp hơn và giảm ma sát cần thiết để bắt đầu một tác vụ.
- GitHub đã cải tiến Copilot bằng cách nâng cấp các gợi ý mã và thêm một cách tiếp cận đa mô hình, hỗ trợ mô hình GPT-4 của OpenAI và ra mắt kế hoạch doanh nghiệp.
- Copilot Workspace bao gồm các tính năng chính như khả năng chỉnh sửa ở mọi cấp độ, một terminal tích hợp có chức năng chuyển tiếp cổng an toàn, chức năng hợp tác và trải nghiệm di động được tối ưu hóa.
- Môi trường này không chỉ giới hạn trên web mà còn có thể truy cập trên các thiết bị di động, cho phép lập trình viên bắt đầu dự án mới mọi lúc, mọi nơi.
- GitHub không coi Copilot Workspace là một thay thế cho các ứng dụng di động hiện có như GitHub Codespaces và ứng dụng GitHub, mà là bổ sung cho trải nghiệm di động hiện tại.
- Copilot Workspace hiện đang ở giai đoạn xem trước kỹ thuật và chưa có thời gian biểu cụ thể cho khi nào môi trường này sẽ có sẵn rộng rãi.
📌 GitHub Copilot Workspace là một bước tiến lớn trong việc tích hợp AI vào môi trường phát triển phần mềm, với các tính năng như chỉnh sửa linh hoạt, terminal tích hợp, và hỗ trợ cộng tác. Môi trường này hứa hẹn sẽ tăng năng suất và sự hài lòng trong công việc cho các nhà phát triển doanh nghiệp.
Citations:
[1] https://venturebeat.com/ai/github-previews-copilot-workspace/
- Perplexity đang tìm cách mang đà phát triển mới từ tìm kiếm tạo sinh (generative search) vào thế giới AI doanh nghiệp, đồng thời khám phá quảng cáo trong tương lai.
- Tuần trước, Perplexity thông báo gia nhập thị trường công nghệ doanh nghiệp với nguồn vốn mới.
- Việc khởi nghiệp một công ty tìm kiếm mới luôn là một thử thách cực kỳ khó khăn, vì phải đối đầu với "ngọn Everest" Google.
- Tuy nhiên, Perplexity đặt mục tiêu chinh phục cả người dùng doanh nghiệp và người dùng thông thường với công cụ tìm kiếm AI của mình.
- Perplexity muốn tận dụng đà phát triển từ xu hướng tìm kiếm tạo sinh để thâm nhập vào thị trường AI doanh nghiệp đầy tiềm năng.
- Bên cạnh đó, công ty cũng đang khám phá khả năng triển khai quảng cáo trong tương lai, mở ra cơ hội kinh doanh mới.
📌 Perplexity đang nỗ lực chinh phục thị trường tìm kiếm AI với đà phát triển mới từ tìm kiếm tạo sinh, nhắm tới cả khách hàng doanh nghiệp và người dùng phổ thông. Công ty vừa gia nhập lĩnh vực công nghệ doanh nghiệp với nguồn vốn mới, đồng thời khám phá tiềm năng quảng cáo trong tương lai để mở rộng cơ hội kinh doanh.
Citations:
[1] https://digiday.com/media/ai-briefing-how-perplexity-plans-to-win-over-enterprise-and-regular-users-with-ai-search/
- Meta đang tích hợp AI vào các sản phẩm của mình với mục tiêu đơn giản hóa cuộc sống người dùng và khuyến khích họ tương tác lâu hơn với các sản phẩm của Meta.
- Các nền tảng mạng xã hội của Meta như Facebook, Instagram và Messenger đang trở thành trung tâm tích hợp AI.
- Llama 3, mô hình ngôn ngữ lớn nguồn mở của Meta, đang dẫn đầu thị trường nhưng vẫn còn tranh cãi về tính mở của nó.
- Trải nghiệm AI của Meta cho đến nay gây thất vọng, đặc biệt là trên Instagram, nơi chức năng tìm kiếm giờ đây giống như cổng giao tiếp với chatbot hơn là công cụ hữu ích.
- Người dùng cảm thấy bị xâm lấn khi các tính năng AI xuất hiện mọi nơi, thậm chí làm họ nghi ngờ về thực tế, đặc biệt sau những năm chống lại thông tin sai lệch về chính trị và đại dịch.
- Meta cam kết sẽ thủy vân các hình ảnh, video hoặc âm thanh được tạo sinh bởi AI trên các nền tảng của mình, nhưng chỉ khi phát hiện 'AI tiêu chuẩn công nghiệp'.
📌 Meta đang đối mặt với sự thất vọng từ người dùng khi tích hợp AI vào các ứng dụng của mình, gây ra sự rối rắm và xâm lấn vào trải nghiệm cá nhân. Mặc dù Llama 3 là một mô hình ngôn ngữ lớn nguồn mở tiên tiến, nhưng việc áp dụng AI một cách đại trà đã làm mất đi tính hữu ích của các công cụ như tìm kiếm trên Instagram và tạo ra sự hoang mang về thực tế trong môi trường mạng xã hội. Meta hứa hẹn sẽ thủy vân nội dung AI nhưng chỉ khi đáp ứng tiêu chuẩn công nghiệp, điều này vẫn còn là một thách thức lớn.
Citations:
[1] https://www.fastcompany.com/91113437/ai-making-meta-apps-basically-unusable
- DeepL, công ty công nghệ dịch thuật nổi tiếng, đã chính thức ra mắt một trợ lý viết AI mới dành riêng cho các doanh nghiệp.
- Sản phẩm mới này được thiết kế để giúp các nhân viên trong doanh nghiệp tăng cường hiệu quả công việc bằng cách tự động hóa các nhiệm vụ viết lách.
- Trợ lý viết AI của DeepL không chỉ giúp soạn thảo các email, báo cáo, và tài liệu khác mà còn có khả năng tùy chỉnh theo ngữ cảnh và yêu cầu cụ thể của từng doanh nghiệp.
- Công nghệ AI mà DeepL sử dụng được biết đến với khả năng hiểu ngữ nghĩa phức tạp và sản xuất văn bản một cách tự nhiên và chính xác.
- Trợ lý viết này cũng tích hợp được với nhiều nền tảng và công cụ khác nhau, cho phép người dùng dễ dàng chuyển đổi giữa các tác vụ và tăng cường tính linh hoạt trong công việc.
- DeepL cũng nhấn mạnh rằng dữ liệu của người dùng sẽ được bảo mật tuyệt đối, với các biện pháp bảo mật nghiêm ngặt để đảm bảo thông tin không bị rò rỉ hoặc bị lạm dụng.
- Sản phẩm này đã được thử nghiệm bởi một số doanh nghiệp lớn trước khi ra mắt chính thức và nhận được phản hồi tích cực về khả năng cải thiện năng suất và giảm thiểu áp lực công việc cho nhân viên.
- DeepL cũng cung cấp một gói dịch vụ hỗ trợ khách hàng toàn diện, bao gồm cả đào tạo sử dụng công cụ mới và hỗ trợ kỹ thuật liên tục.
📌 DeepL đã ra mắt trợ lý viết AI mới cho doanh nghiệp, nhằm mục đích cải thiện hiệu quả công việc bằng cách tự động hóa các nhiệm vụ viết lách. Sản phẩm này tích hợp được với nhiều nền tảng, đảm bảo bảo mật thông tin và đã nhận được phản hồi tích cực từ các doanh nghiệp lớn trong giai đoạn thử nghiệm.
- Cohere, một công ty AI, đã giới thiệu bộ công cụ mới để tăng tốc việc phát triển ứng dụng AI tạo sinh trong môi trường doanh nghiệp.
- Bộ công cụ bao gồm các mô hình ngôn ngữ lớn, công cụ xử lý dữ liệu và framework giúp các nhà phát triển xây dựng ứng dụng AI tạo sinh nhanh hơn.
- Các mô hình ngôn ngữ lớn của Cohere có thể xử lý nhiều tác vụ như tóm tắt văn bản, trả lời câu hỏi, phân loại và hội thoại.
- Công cụ xử lý dữ liệu cho phép các nhà phát triển làm sạch, gán nhãn và chuẩn bị dữ liệu để huấn luyện mô hình AI tạo sinh.
- framework cung cấp các thành phần có thể tái sử dụng và mẫu code để đẩy nhanh quá trình phát triển ứng dụng.
- Bộ công cụ này nhằm giúp các doanh nghiệp tận dụng sức mạnh của AI tạo sinh mà không cần có chuyên môn sâu về học máy.
- Cohere cũng cung cấp API và tài liệu hướng dẫn để hỗ trợ các nhà phát triển tích hợp công nghệ AI tạo sinh vào ứng dụng của họ.
- Bộ công cụ này sẽ cạnh tranh với các nền tảng tương tự từ OpenAI, Anthropic và những công ty khác trong lĩnh vực AI tạo sinh đang phát triển nhanh chóng.
📌 Cohere đã ra mắt một bộ công cụ toàn diện gồm các mô hình ngôn ngữ lớn, công cụ xử lý dữ liệu và framework, nhằm giúp các doanh nghiệp đẩy nhanh việc phát triển ứng dụng AI tạo sinh mà không cần chuyên môn sâu về học máy, cạnh tranh với các nền tảng tương tự từ OpenAI và Anthropic trong thị trường đang bùng nổ này.
Citations:
[1] https://venturebeat.com/ai/cohere-releases-toolkit-to-accelerate-generative-ai-app-development-in-the-enterprise/
- Trí tuệ nhân tạo tạo sinh (Generative AI) là một loại AI được sử dụng để tạo ra nội dung, bao gồm hội thoại, hình ảnh, video và âm nhạc.
- Generative AI có thể được sử dụng trực tiếp để xây dựng các tính năng tương tác với khách hàng như chatbot hoặc trình tạo ảnh.
- Ngoài ra, Generative AI còn có thể đóng vai trò là một thành phần cơ bản trong một hệ thống phức tạp hơn.
- Ví dụ, Generative AI có thể tạo ra các embedding (biểu diễn nén) hoặc bất kỳ tạo tác khác cần thiết cho hệ thống.
- AWS cung cấp nền tảng và công cụ mạnh mẽ để phát triển và triển khai các ứng dụng Generative AI.
- Các dịch vụ của AWS như Amazon SageMaker, Amazon Rekognition, Amazon Polly và Amazon Lex hỗ trợ việc xây dựng các mô hình Generative AI.
- Kiến trúc Generative AI trên AWS có thể bao gồm các thành phần như bộ nhớ, mô hình ngôn ngữ, bộ giải mã và bộ tối ưu hóa.
- Việc triển khai Generative AI trên AWS mang lại nhiều lợi ích như khả năng mở rộng, tính sẵn sàng cao và bảo mật.
📌 AWS cung cấp một hệ sinh thái toàn diện để xây dựng các ứng dụng AI tạo sinh, từ chatbot đến trình tạo ảnh. Với các dịch vụ như Amazon SageMaker và công cụ hỗ trợ, việc phát triển và triển khai AI tạo sinh trở nên dễ dàng hơn, đồng thời mang lại nhiều lợi ích như khả năng mở rộng và bảo mật cao.
Citations:
[1] https://aws.amazon.com/blogs/architecture/lets-architect-generative-ai/
- Tredence, một công ty hàng đầu trong lĩnh vực tư vấn và giải pháp dữ liệu, đã chính thức ra mắt nền tảng GenAI-as-a-Service.
- Nền tảng này được thiết kế để dân chủ hóa công nghệ AI trong các doanh nghiệp, cho phép họ triển khai các giải pháp AI một cách nhanh chóng và hiệu quả.
- GenAI-as-a-Service của Tredence cung cấp khả năng tùy chỉnh cao, giúp các doanh nghiệp có thể phát triển các giải pháp AI phù hợp với nhu cầu và đặc thù riêng.
- Nền tảng này hỗ trợ một loạt các ứng dụng AI, từ phân tích dữ liệu, tự động hóa quy trình, đến tối ưu hóa hoạt động.
- Tredence nhấn mạnh rằng GenAI-as-a-Service sẽ giúp các doanh nghiệp giảm thiểu chi phí phát triển AI, đồng thời tăng cường khả năng cạnh tranh trên thị trường.
- Nền tảng cũng bao gồm các công cụ và hỗ trợ để giúp các doanh nghiệp triển khai và quản lý các giải pháp AI một cách hiệu quả.
- Tredence cũng cung cấp đào tạo và hỗ trợ kỹ thuật cho các doanh nghiệp để họ có thể tận dụng tối đa công nghệ AI mới này.
- Mục tiêu của Tredence là không chỉ cung cấp công nghệ, mà còn giúp các doanh nghiệp hiểu và áp dụng AI một cách hiệu quả, từ đó thúc đẩy sự đổi mới và tăng trưởng.
📌 Tredence đã ra mắt nền tảng GenAI-as-a-Service, nhằm dân chủ hóa AI trong doanh nghiệp bằng cách cung cấp các giải pháp AI tùy chỉnh, hiệu quả. Nền tảng này hỗ trợ đa dạng ứng dụng, giúp giảm chi phí và tăng cường khả năng cạnh tranh cho các doanh nghiệp.
Citations:
[1] https://venturebeat.com/ai/tredence-launches-genai-as-a-service-platform-aims-to-democratize-enterprise-ai/
- AWS giới thiệu tính năng Custom Model Import trong bộ dịch vụ GenAI cấp doanh nghiệp Bedrock, cho phép tổ chức nhập và quản lý các mô hình AI tạo sinh tùy chỉnh dưới dạng API hoàn chỉnh.
- Các doanh nghiệp sử dụng Custom Model Import sẽ có quyền truy cập vào bộ công cụ của Bedrock để mở rộng kiến thức, tinh chỉnh và bảo vệ khỏi các thiên kiến tiềm ẩn cho mô hình của họ.
- Người dùng cũng có thể giám sát và lọc nội dung đầu ra không mong muốn như ngôn từ thù hận hoặc bạo lực, đánh giá hiệu suất mô hình trên nhiều tiêu chí.
- Custom Model Import hiện hỗ trợ 3 kiến trúc mô hình mở phổ biến: Flan-T5, Llama và Mistral. AWS sẽ bổ sung thêm hỗ trợ kiến trúc trong tương lai.
- AWS cũng công bố tính năng Titan Image Generator đã sẵn sàng và ra mắt Titan Text Embeddings V2, giúp giảm chi phí lưu trữ và tính toán trong khi vẫn duy trì hoặc cải thiện độ chính xác.
- Các mô hình nền tảng Meta Llama 3 đã có mặt trên Bedrock, các mô hình Cohere's Command R và Command R+ sẽ sớm tham gia.
📌 AWS đã mở ra cánh cửa cho các doanh nghiệp tích hợp mô hình AI tạo sinh tùy chỉnh vào nền tảng Bedrock thông qua tính năng Custom Model Import. Bên cạnh đó, việc ra mắt Titan Image Generator, Titan Text Embeddings V2 và tích hợp các mô hình Meta Llama 3, Cohere's Command giúp Bedrock trở thành giải pháp hiệu quả về chi phí cho các công ty chưa thể phát triển mô hình riêng.
Citations:
[1] https://www.techradar.com/pro/aws-makes-move-to-host-your-companys-home-made-gen-ai-models
- Stainless là nền tảng giúp các công ty AI tạo sinh như OpenAI, Anthropic và Together AI xây dựng SDK cho API của họ.
- Được sáng lập bởi Alex Rattray, cựu kỹ sư của Stripe. Rattray từng học kinh tế tại Đại học Pennsylvania và đam mê lập trình từ nhỏ.
- Tại Stripe, Rattray giúp cải tiến tài liệu API và phát triển hệ thống SDK cho API của công ty. Ông nhận thấy không có cách dễ dàng để các công ty xây dựng SDK cho API ở quy mô lớn.
- Các công ty API hiện nay phải có một đội ngũ chuyên xây dựng thư viện cho từng ngôn ngữ mới để kết nối với API, gây ra sự không nhất quán và cần liên tục cập nhật.
- Stainless giải quyết vấn đề bằng cách tự động tạo SDK thông qua mã code.
- Stainless không phải là công cụ tạo SDK từ API duy nhất, đã có LibLab, Speakeasy và các dự án nguồn mở như OpenAPI Generator.
- Stainless đã thu hút được nhiều khách hàng như OpenAI, Anthropic, Together AI, Lithic, LangChain, Orb, Modern Treasury và Cloudflare.
- Hầu hết khách hàng đang sử dụng gói doanh nghiệp của Stainless với các dịch vụ hỗ trợ riêng và chức năng dành riêng cho AI.
- SDK Python do Stainless tạo ra cho OpenAI đang đạt hàng triệu lượt tải xuống mỗi tuần.
📌 Stainless đang giúp các công ty AI tạo sinh hàng đầu như OpenAI, Anthropic tự động hóa việc xây dựng SDK cho API của họ. Nền tảng do cựu kỹ sư Stripe Alex Rattray sáng lập này đã thu hút hàng chục khách hàng trả phí, với SDK Python cho OpenAI đạt hàng triệu lượt tải mỗi tuần.
Citations:
[1] https://techcrunch.com/2024/04/24/stainless-is-helping-openai-anthropic-and-others-build-sdks-for-their-apis/
• Dataminr vừa ra mắt RegenAI, một nền tảng kết hợp AI dự đoán và AI tạo sinh để cung cấp thông tin thời gian thực.
• RegenAI sử dụng AI dự đoán để phát hiện và theo dõi các sự kiện quan trọng từ dữ liệu nguồn mở, sau đó áp dụng AI tạo sinh để tóm tắt và giải thích sự kiện đó.
• Nền tảng này giúp doanh nghiệp nhận thông tin cập nhật liên tục về các sự kiện ảnh hưởng đến họ, cho phép đưa ra quyết định nhanh chóng và hiệu quả.
• RegenAI có thể theo dõi hàng triệu nguồn dữ liệu công khai, bao gồm mạng xã hội, trang web tin tức và dữ liệu vị trí.
• Nó sử dụng AI dự đoán để phát hiện các mẫu và tín hiệu yếu về các sự kiện sắp xảy ra hoặc đang diễn ra.
• Sau đó, AI tạo sinh được sử dụng để tạo ra các tóm tắt ngôn ngữ tự nhiên, giải thích ngữ cảnh và tầm quan trọng của sự kiện.
• Điều này giúp người dùng nhanh chóng nắm bắt tình hình mà không cần đọc qua nhiều nguồn dữ liệu thô.
📌 Dataminr RegenAI kết hợp AI dự đoán và tạo sinh, cung cấp thông tin thời gực giúp doanh nghiệp ra quyết định nhanh chóng, theo dõi hàng triệu nguồn dữ liệu công khai. RegenAI sử dụng AI dự đoán để phát hiện và theo dõi các sự kiện quan trọng từ dữ liệu nguồn mở, sau đó áp dụng AI tạo sinh để tóm tắt và giải thích sự kiện đó.
Citations:
[1] https://venturebeat.com/ai/dataminr-debuts-regenai-pairing-predictive-with-generative-ai-for-real-time-information/
- Jina AI giới thiệu Reader API, công cụ chuyển đổi bất kỳ URL nào thành đầu vào thân thiện với các mô hình học ngôn ngữ (LLM) chỉ bằng cách thêm tiền tố đơn giản https://r.jina.ai/ vào URL.
- Reader hoạt động bằng cách tái định dạng nội dung trang web thành cấu trúc rõ ràng, dễ xử lý hơn cho các hệ thống xử lý ngôn ngữ tự nhiên.
- Trích xuất nội dung web thường tạo ra dữ liệu phức tạp, gây khó khăn cho việc phân tích và xử lý của các mô hình học ngôn ngữ.
- Các công cụ truyền thống hỗ trợ đơn giản hóa việc trích xuất nội dung web nhưng vẫn chưa hiệu quả với các trang web động, lớn hoặc giàu media.
- Reader giải quyết vấn đề trên bằng phương pháp nâng cao để chuyển đổi nội dung web thành đầu vào thân thiện với mô hình học ngôn ngữ.
- Reader hỗ trợ chế độ chuẩn để truy xuất trực tiếp nội dung và chế độ streaming để xử lý dữ liệu thời gian thực, đặc biệt hữu ích khi xử lý khối lượng dữ liệu lớn.
- Reader hiện cũng hỗ trợ đọc hình ảnh, bao gồm tạo chú thích cho các hình ảnh trong nội dung web, làm phong phú thêm ngữ cảnh và dữ liệu cung cấp cho các mô hình ngôn ngữ.
📌 Jina AI giới thiệu Reader API, công cụ chuyển đổi bất kỳ URL nào thành đầu vào thân thiện với các mô hình học ngôn ngữ (LLM) chỉ bằng cách thêm tiền tố đơn giản https://r.jina.ai/ vào URL. Reader hoạt động bằng cách tái định dạng nội dung trang web thành cấu trúc rõ ràng, dễ xử lý hơn cho các hệ thống xử lý ngôn ngữ tự nhiên. Công cụ này hỗ trợ nhiều tính năng mạnh mẽ như xử lý thời gian thực và đọc hình ảnh, hứa hẹn cải thiện đáng kể hiệu suất của các ứng dụng xử lý ngôn ngữ tự nhiên.
Citations:
[1] https://www.marktechpost.com/2024/04/18/jina-ai-introduces-reader-api-that-converts-any-url-to-an-llm-friendly-input-with-a-simple-prefix/
- Thomson Reuters giới thiệu CoCouncil, công cụ AI tạo sinh hỗ trợ các chuyên gia pháp lý.
- CoCouncil có khả năng soạn thảo tài liệu pháp lý, nghiên cứu và phân tích các vấn đề pháp lý phức tạp.
- Công cụ này được tích hợp với các sản phẩm và dịch vụ hiện có của Thomson Reuters như Westlaw và Practical Law.
- CoCouncil sử dụng mô hình ngôn ngữ lớn được đào tạo trên hàng triệu tài liệu pháp lý.
- Công cụ có thể tạo bản tóm tắt vụ việc, soạn thảo hợp đồng, biên soạn bản ghi nhớ pháp lý và trả lời các câu hỏi pháp lý.
- CoCouncil cũng cung cấp các đề xuất dựa trên ngữ cảnh và tự động hoàn thành câu, giúp việc soạn thảo trở nên dễ dàng và nhanh chóng hơn.
- Công cụ này giúp các luật sư tiết kiệm thời gian, nâng cao năng suất và cải thiện chất lượng công việc.
- Thomson Reuters cam kết phát triển CoCouncil một cách có trách nhiệm, đảm bảo tính minh bạch, công bằng và đáng tin cậy.
📌 Thomson Reuters đã giới thiệu CoCouncil, một công cụ AI tạo sinh đột phá dành cho các chuyên gia pháp lý, với khả năng soạn thảo tài liệu, nghiên cứu và phân tích pháp lý phức tạp. Được tích hợp với các dịch vụ như Westlaw và Practical Law, CoCouncil hứa hẹn sẽ giúp luật sư tiết kiệm thời gian, nâng cao năng suất và cải thiện đáng kể chất lượng công việc.
Citations:
[1] https://venturebeat.com/ai/thomson-reuters-unveils-cocounsel-leveraging-generative-ai-for-legal-professionals/
- Zoom ra mắt bản nâng cấp lớn đầu tiên sau hơn 10 năm, tích hợp trí tuệ nhân tạo (AI) để giải quyết các vấn đề phổ biến và nâng cao năng suất.
- Zoom Workplace, nền tảng hợp tác được điều khiển bởi AI, đã trở nên khả dụng cho người dùng vào thứ Hai, chỉ vài tuần sau khi được công bố.
- Bản nâng cấp này tác động đến hầu hết mọi khía cạnh của ứng dụng, mang lại trải nghiệm được cung cấp bởi AI để thúc đẩy năng suất và sự hợp tác.
- Ứng dụng trải qua sự thay đổi về mặt hình ảnh, cung cấp cho người dùng 5 tùy chọn chủ đề màu sắc. Người tổ chức cuộc gọi cũng có thể tùy chỉnh hình nền cuộc họp.
- Zoom Workplace giới thiệu chế độ xem nhiều diễn giả mới, trong đó các diễn giả đang hoạt động được đặt trên một "sân khấu".
- Tính năng chiếu sáng chân dung mới sử dụng AI để chiếu sáng khuôn mặt người dùng trong điều kiện ánh sáng yếu, đồng thời làm tối nền để tạo hiệu ứng chân dung.
- Tính năng cách ly âm thanh cá nhân hóa do AI điều khiển giúp triệt tiêu tiếng ồn nền và tăng cường độ rõ nét của giọng nói người dùng trong các cuộc họp ở môi trường ồn ào.
- Các biểu tượng cảm xúc động lớn hơn, sinh động hơn cũng được bổ sung cho người dùng.
- Zoom giới thiệu các tính năng hợp tác mới như tab Cuộc họp, tổng hợp tất cả thông tin cần thiết về cuộc họp, bao gồm tài liệu, video, v.v.
- Team Chat cũng nhận được các khả năng AI tạo sinh mới trong Zoom Companion, bao gồm tóm tắt chuỗi tin nhắn, hoàn thành câu để soạn tin nhắn mới và đề xuất lịch trình nhanh.
📌 Zoom đã trải qua bản nâng cấp lớn đầu tiên sau 10 năm, tích hợp AI tạo sinh vào hầu hết mọi khía cạnh của ứng dụng. Zoom Workplace mang đến giao diện mới với 5 tùy chọn màu sắc, các tính năng như chiếu sáng chân dung, cách ly âm thanh cá nhân hóa, biểu tượng cảm xúc sinh động hơn, cùng các công cụ hợp tác được cải tiến. Bản nâng cấp hứa hẹn nâng cao đáng kể năng suất và trải nghiệm của người dùng.
Citations:
[1] https://www.zdnet.com/article/zoom-gets-its-first-major-overhaul-in-10-years-powered-by-generative-ai/
- Poe, ứng dụng trò chuyện AI đa nền tảng, đã giới thiệu tính năng trò chuyện đa bot cho phép người dùng tương tác với nhiều chatbot trong cùng một hội thoại.
- Poe cũng công bố kế hoạch ra mắt phiên bản doanh nghiệp với các tính năng bảo mật và quản trị nâng cao, nhắm đến thị trường chatbot cho doanh nghiệp.
- Ứng dụng hiện cung cấp quyền truy cập vào các mô hình ngôn ngữ tiên tiến như GPT-4 của OpenAI, Claude của Anthropic và mô hình độc quyền của Poe.
- Poe đã thu hút hơn 500.000 người dùng kể từ khi ra mắt vào tháng 2, với 1,2 triệu cuộc trò chuyện mỗi ngày và hơn 10 triệu tin nhắn được gửi đi.
- Người dùng có thể chuyển đổi liền mạch giữa các bot khác nhau trong cùng một hội thoại, tận dụng thế mạnh của từng mô hình cho các tác vụ cụ thể.
- Phiên bản doanh nghiệp sẽ bao gồm các tính năng như kiểm soát truy cập, quản lý người dùng, tích hợp hệ thống và hỗ trợ ưu tiên, cùng với khả năng đào tạo các mô hình tùy chỉnh.
- Poe nhắm đến việc trở thành ứng dụng trò chuyện AI hàng đầu cho cả người dùng cá nhân và doanh nghiệp, cạnh tranh trực tiếp với các đối thủ như ChatGPT và Google Bard.
📌 Poe đang nhanh chóng phát triển với hơn 500.000 người dùng và 1,2 triệu cuộc trò chuyện mỗi ngày. Việc giới thiệu tính năng trò chuyện đa bot và kế hoạch ra mắt phiên bản doanh nghiệp cho thấy tham vọng của Poe trong việc thống trị thị trường chatbot AI đầy tiềm năng, cạnh tranh với các ông lớn như OpenAI và Google.
Citations:
[1] https://venturebeat.com/ai/poe-introduces-multi-bot-chat-and-plans-enterprise-tier-to-dominate-ai-chatbot-market/
- Poe, nền tảng trò chuyện AI của Quora, đã giới thiệu tính năng Multi-bot chat mới.
- Tính năng này cho phép người dùng trò chuyện với nhiều chatbot AI cùng lúc trong cùng một luồng hội thoại.
- Người dùng có thể mời các chatbot khác nhau tham gia cuộc trò chuyện bằng cách nhắc đến tên của chúng.
- Các chatbot sẽ tương tác với nhau và với người dùng, tạo nên một cuộc trò chuyện sôi nổi và đa dạng.
- Tính năng này mang đến trải nghiệm mới lạ, nơi người dùng có thể tận hưởng sự kết hợp của nhiều chatbot với các chuyên môn và phong cách khác nhau.
- Multi-bot chat trên Poe hứa hẹn sẽ làm phong phú thêm các cuộc trò chuyện và mang đến góc nhìn đa chiều cho người dùng.
- Người dùng có thể khám phá sự tương tác thú vị giữa các chatbot và học hỏi từ kiến thức tổng hợp của chúng.
- Tính năng này đánh dấu bước tiến mới trong lĩnh vực trò chuyện AI, mở ra nhiều khả năng sáng tạo và hấp dẫn.
- Poe tiếp tục nỗ lực cải tiến và mang đến những trải nghiệm chatbot vượt trội cho người dùng.
- Multi-bot chat hứa hẹn sẽ thu hút sự quan tâm của đông đảo người dùng và góp phần định hình tương lai của công nghệ trò chuyện AI.
📌 Poe đã ra mắt tính năng Multi-bot chat đột phá, cho phép nhiều chatbot AI cùng tương tác trong một cuộc trò chuyện. Điều này mở ra cánh cửa cho những trải nghiệm mới lạ, nơi người dùng có thể khám phá sự kết hợp thú vị của các chatbot với chuyên môn và phong cách đa dạng, hứa hẹn làm phong phú thêm các cuộc đối thoại và mang đến góc nhìn đa chiều.
Citations:
[1] https://quorablog.quora.com/Multi-bot-chat-on-Poe
- Adobe giới thiệu trợ lý AI để hỗ trợ người dùng hiểu nội dung tài liệu số, có sẵn qua gói đăng ký hàng tháng từ 4.99 USD.
- Công cụ này là một phần của bản phát hành rộng hơn từ Adobe, bao gồm cả phiên bản beta di động miễn phí hỗ trợ lệnh thoại.
- Adobe cũng có kế hoạch tích hợp dịch vụ vào các tiện ích mở rộng cho Microsoft Edge và Google Chrome.
- Giá đăng ký hiện tại được coi là mức giá "truy cập sớm" và có thể thay đổi trong tương lai.
- Trợ lý AI sử dụng giao diện chatbot để trả lời các câu hỏi về PDF và tài liệu khác trong Acrobat, có thể tìm thông tin cụ thể, tóm tắt và trích dẫn từ văn bản.
- Công cụ này có thể đáp ứng nhu cầu của nhiều nhóm người dùng khác nhau, như người nộp thuế, người tiêu dùng và sinh viên.
- Adobe đang nỗ lực mở rộng khả năng của trợ lý để hỗ trợ người dùng làm việc đồng thời với nhiều tài liệu.
📌 Adobe giới thiệu trợ lý AI cho Acrobat với giá từ 4.99 USD/tháng, giúp người dùng hiểu nội dung tài liệu số thông qua giao diện chatbot. Công cụ này có thể trả lời câu hỏi, tìm thông tin, tóm tắt và trích dẫn văn bản, phù hợp với nhiều đối tượng như người nộp thuế, người tiêu dùng và sinh viên. Adobe đang mở rộng khả năng của trợ lý để hỗ trợ làm việc với nhiều tài liệu cùng lúc. Giá đăng ký hiện tại là mức "truy cập sớm" và có thể thay đổi sau này.
Citations:
[1] Adobe releases Acrobat AI assistant starting at $4.99 a month https://www.cnbc.com/2024/04/15/adobe-releases-acrobat-ai-assistant-starting-at-4point99-a-month.html
- Anthropic đã giới thiệu tính năng gọi hàm và sử dụng công cụ bên ngoài cho dòng mô hình AI Claude 3, giúp cải thiện khả năng của các mô hình ngôn ngữ lớn.
- Quá trình này liên quan đến việc mô hình xác định nhu cầu sử dụng công cụ, chọn công cụ phù hợp và tích hợp phản hồi của công cụ vào đầu ra.
- Tính năng này đang trong giai đoạn phát triển beta, đòi hỏi mô tả chi tiết về công cụ và lược đồ đầu vào để hướng dẫn mô hình AI lựa chọn công cụ.
- Ví dụ, một chatbot dịch vụ khách hàng được cung cấp bởi Claude 3 có thể truy cập cơ sở dữ liệu để lấy thông tin khách hàng, cập nhật trạng thái đơn hàng và đưa ra đề xuất cá nhân hóa.
- Trong giai đoạn beta, các nhà phát triển có thể tạo và xác định các công cụ mà Claude 3 sẽ sử dụng. Mỗi công cụ đòi hỏi một quy trình xác định nghiêm ngặt.
- Người dùng phải cài đặt gói Anthropic và thiết lập khóa API để sử dụng Claude 3. Có nhiều mô hình Claude 3 phù hợp với các mức độ phức tạp khác nhau.
- Kiểm tra kỹ lưỡng là rất quan trọng để đảm bảo hoạt động trơn tru của hệ thống. Điều này liên quan đến việc chạy các mô phỏng rộng rãi.
- Anthropic cam kết đẩy ranh giới xa hơn nữa. Các bản cập nhật trong tương lai có thể cho phép Claude 3 sử dụng một loạt các công cụ liên tiếp, giải quyết các tác vụ ngày càng phức tạp.
📌 Claude 3 đánh dấu bước tiến đáng kể trong công nghệ AI với khả năng gọi hàm và sử dụng công cụ bên ngoài. Điều này mở ra tiềm năng to lớn cho các giải pháp AI thông minh, hiệu quả và linh hoạt hơn trong nhiều lĩnh vực như dịch vụ khách hàng, y tế, tài chính. Claude 3 đang dẫn đầu xu hướng, hứa hẹn một tương lai đầy sáng tạo và chuyển đổi mạnh mẽ.
https://www.geeky-gadgets.com/claude-3-function-calling/
- Google Cloud giới thiệu Gemini 1.5 Pro preview, hỗ trợ cửa sổ ngữ cảnh lên đến 1 triệu token và xử lý luồng âm thanh cho phân tích đa phương thức.
- Vertex AI sẽ có Imagen 2 cải tiến với khả năng tạo ảnh động kéo dài 4 giây và công cụ chỉnh sửa ảnh nâng cao như tô màu và vẽ thêm.
- Tính năng Search-based grounding mới kết hợp đầu ra của các mô hình nền tảng với thông tin chất lượng cao từ Google Search để cải thiện độ hoàn thiện và chính xác của phản hồi.
- Công cụ MLOps mở rộng của Vertex AI bao gồm giải pháp quản lý và đánh giá prompt, giúp so sánh hiệu suất giữa các mô hình và đưa ra thông tin chi tiết về lý do đầu ra của mô hình này tốt hơn mô hình kia.
- Vertex AI Agent Builder cho phép xây dựng và triển khai các tác nhân AI tạo sinh cho các trường hợp sử dụng khác nhau, phù hợp với các nhà phát triển ở nhiều cấp độ kỹ năng khác nhau.
- Google mở rộng nỗ lực lưu trữ dữ liệu cục bộ với 11 quốc gia mới, nâng tổng số lên 21 quốc gia, giúp doanh nghiệp kiểm soát tốt hơn nơi lưu trữ và cách truy cập dữ liệu của họ.
📌 Google Cloud công bố nhiều cải tiến đáng chú ý cho Vertex AI tại Cloud Next 2024, bao gồm hỗ trợ mô hình mạnh mẽ hơn, khả năng tìm kiếm và nền tảng, công cụ MLOps và tùy chọn lưu trữ dữ liệu mở rộng, giúp nền tảng trở nên phù hợp hơn với các nhà phát triển có nhu cầu khác nhau. Google mở rộng nỗ lực lưu trữ dữ liệu cục bộ với 11 quốc gia mới, nâng tổng số lên 21 quốc gia, giúp doanh nghiệp kiểm soát tốt hơn nơi lưu trữ và cách truy cập dữ liệu của họ.
https://venturebeat.com/ai/top-5-vertex-ai-advancements-revealed-at-google-cloud-next/
- Aboard là một ứng dụng độc đáo kết hợp tính năng của Pinterest, Trello và ChatGPT, tạo ra công cụ quản lý thông tin linh hoạt và hữu ích.
- Ban đầu, Aboard chỉ là một cách để thu thập và sắp xếp thông tin. Tuy nhiên, phiên bản mới của ứng dụng đã tích hợp AI, cho phép người dùng tạo ra các bảng thông tin tùy chỉnh chỉ với một cú nhấp chuột.
- Aboard có 3 tính năng chính: Organize (tổ chức thông tin), Research (tìm kiếm thông tin) và Workflow (quy trình làm việc). Ứng dụng có thể tạo ra các bảng thông tin về địa điểm du lịch, công thức nấu ăn, hay thậm chí là hệ thống xử lý yêu cầu bồi thường cho công ty bảo hiểm.
- Mặc dù đôi khi kết quả chưa hoàn hảo, nhưng Aboard đang được cải thiện nhanh chóng. Mục tiêu của ứng dụng là tạo ra một công cụ đủ tốt để người dùng có thể tùy chỉnh theo nhu cầu của mình.
- Aboard nhắm đến đối tượng người dùng chuyên nghiệp, các nhóm nhỏ và tổ chức phi lợi nhuận. Ứng dụng có thể giúp tiết kiệm thời gian và công sức trong việc tổ chức dữ liệu và họp hành.
- Bảng thông tin của Aboard có thể ở dạng bảng, danh sách, thư viện ảnh và nhiều hình thức khác, giúp quản lý hầu hết các loại dữ liệu.
- Aboard là một trong những công ty tiên phong trong việc tạo ra các ứng dụng mới sử dụng các mô hình ngôn ngữ lớn. Trong tương lai, Aboard dự định kết nối với nhiều mô hình khác nhau để tận dụng tối đa khả năng của AI.
- Các nhà sáng lập Aboard muốn sử dụng AI không chỉ để trả lời câu hỏi, mà còn để tạo ra phần mềm. Họ tin rằng khả năng bắt đầu nhanh chóng là rất thú vị và hữu ích.
📌Aboard là một ứng dụng AI độc đáo, kết hợp tính năng của Pinterest, Trello và ChatGPT để tạo ra công cụ quản lý thông tin linh hoạt và hữu ích, nhắm đến đối tượng người dùng chuyên nghiệp và các tổ chức. Với 3 tính năng chính là Organize (tổ chức thông tin), Research (tìm kiếm thông tin), Workflow (quy trình làm việc) và khả năng tùy chỉnh cao, Aboard hứa hẹn sẽ cách mạng hóa cách chúng ta làm việc với dữ liệu, tiết kiệm thời gian và công sức đáng kể.
https://www.theverge.com/2024/4/9/24124480/aboard-app-ai-bookmarks-project-management
- Microsoft nâng cấp Azure AI Search, tăng dung lượng lưu trữ và vector lên 11 lần, tổng dung lượng tăng 6 lần, cải thiện gấp đôi thông lượng indexing và truy vấn.
- Hệ thống RAG của Azure AI Search giờ tương thích với ChatGPT, GPT và API Assistant của OpenAI. Microsoft sẽ là nguồn năng lượng mỗi khi ai đó chạy truy vấn hoặc thêm tệp vào các sản phẩm AI này.
- Microsoft tích hợp chip Nvidia GB200 Grace Blackwell Superchip và mạng Nvidia Quantum-X800 InfiniBand vào Azure, cùng với dòng máy ảo Azure NC H100 v5 VM.
- Sự hợp tác mở rộng giữa Microsoft Azure và Nvidia DGX Cloud cùng bộ microservice Nvidia Clara mang lại khả năng đẩy nhanh đổi mới trong nghiên cứu lâm sàng, khám phá thuốc và chăm sóc bệnh nhân.
- API Nvidia Omniverse Cloud sẽ có mặt trên Microsoft Azure, mở rộng tầm với của nền tảng Omniverse.
- Copilot cho Microsoft 365 sẽ sớm có phím vật lý trên PC Windows 11, kết hợp sức mạnh của các mô hình ngôn ngữ lớn với dữ liệu doanh nghiệp để cung cấp trí tuệ thời gian thực theo ngữ cảnh.
- Tích hợp sâu hơn giữa Nvidia DGX Cloud với Microsoft Fabric giúp các runtime, LLM và machine learning được tối ưu hóa của Nvidia hoạt động liền mạch với Microsoft Fabric.
📌 Microsoft đã nâng cấp đáng kể Azure AI Search với dung lượng lưu trữ tăng 11 lần, hỗ trợ các ứng dụng RAG lớn của OpenAI. Việc tích hợp sâu hơn với Nvidia DGX Cloud và chip GB200 mới nhất mang lại nhiều đột phá trong y tế, khoa học sự sống. Copilot sẽ có phím vật lý riêng trên Windows 11, cung cấp trí tuệ thời gian thực theo ngữ cảnh.
Citations:
[1] https://venturebeat.com/ai/microsoft-boosts-azure-ai-search-with-more-storage-and-support-for-big-rag-apps/
- Samsung thông báo nâng cấp trợ lý ảo Bixby với AI tạo sinh trong chuỗi sự kiện ra mắt toàn cầu tuần này.
- Bixby thế hệ tiếp theo sẽ có khả năng hiểu các lệnh đa tầng và duy trì thông tin ngữ cảnh để giúp ngôi nhà thông minh hoạt động trơn tru hơn.
- Ví dụ, người dùng có thể yêu cầu Bixby "bật điều hòa ở chế độ Wind-Free và cho biết thời tiết như thế nào", thay vì phải đưa ra hai yêu cầu riêng biệt.
- Người dùng cũng có thể yêu cầu Bixby "tắt máy lọc không khí", tạm dừng, rồi nói thêm "à, và cả TV nữa", Bixby sẽ nhớ yêu cầu đầu tiên và áp dụng ngữ cảnh cho yêu cầu sau để tắt TV.
- Kể từ khi ra mắt 7 năm trước, Bixby đã gặp nhiều khó khăn trong việc tạo sự khác biệt so với Google Assistant, vốn được tích hợp sẵn trên tất cả điện thoại Android.
- Việc Samsung công bố nâng cấp Bixby sớm hơn cả Apple và Google gây bất ngờ, cho thấy tham vọng của hãng trong lĩnh vực công nghệ nhà thông minh.
- Nhiều thiết bị gia dụng lớn của Samsung đều tương thích với nhà thông minh và tích hợp sẵn Bixby, đây là lợi thế của Samsung so với các đối thủ.
- Cuộc đua để tạo ra trợ lý ảo thông minh nhất vẫn chưa ngã ngũ, nhưng không nên đánh giá thấp nỗ lực AI của Samsung.
📌 Samsung đang nỗ lực nâng cấp trợ lý ảo Bixby với AI tạo sinh, hứa hẹn cải thiện khả năng hiểu lệnh đa tầng và duy trì ngữ cảnh. Dù chưa thể vượt mặt Google Assistant và Alexa, nhưng với lợi thế về thiết bị gia dụng thông minh, Samsung đang cho thấy tham vọng lớn trong cuộc đua công nghệ nhà thông minh.
https://www.techradar.com/home/smart-home/the-race-for-the-ultimate-voice-assistant-is-heating-up-with-samsung-announcing-bixbys-generative-ai-boost
- Các kỹ sư hàng không vũ trụ tại Đại học Bundeswehr Munich đã phát triển framework SAR2Height, hệ thống đầu tiên cung cấp bản đồ 3D hoàn chỉnh của thành phố từ một ảnh vệ tinh radar khẩu độ tổng hợp (SAR) duy nhất.
- Khi xảy ra thảm họa như động đất, việc đánh giá thiệt hại và nhu cầu cứu trợ gặp nhiều khó khăn. Khảo sát hàng không bằng lidar tốn kém, ảnh vệ tinh quang học vô dụng nếu khu vực bị mây hoặc khói che phủ.
- SAR hoạt động ngày đêm, bất kể thời tiết. Có hàng chục vệ tinh SAR đang hoạt động và có thể chụp ảnh vị trí mới trong vài giờ.
- Tuy nhiên, hình ảnh SAR vẫn chỉ là 2D và khó giải thích hơn ảnh. Hiệu ứng radar layover khiến các tòa nhà nguyên vẹn trông như đổ về phía cảm biến.
- Nhóm nghiên cứu đã sử dụng 51 ảnh SAR từ vệ tinh TerraSAR-X và bản đồ độ cao chất lượng cao tương ứng để huấn luyện mạng nơ-ron sâu.
- Mô hình có thể dự đoán độ cao tòa nhà trong ảnh SAR với độ chính xác khoảng 3m, đủ để phát hiện hầu hết tòa nhà bị hư hại đáng kể. Nó chạy trong vài phút và hoạt động tốt với ảnh từ các vệ tinh thương mại khác.
- Mô hình vẫn chưa hoàn hảo, gặp khó khăn với các tòa nhà chọc trời và thiên vị các thành phố Bắc Mỹ, châu Âu do thiếu dữ liệu huấn luyện đại diện từ các nước đang phát triển.
- Mô hình SAR2Height hiện đã kết hợp dữ liệu từ 177 thành phố và đang được cải thiện liên tục. Nó sẽ không bao giờ chính xác bằng kỹ thuật stereo hoặc lidar, nhưng vẫn là phỏng đoán tốt nhất thay vì không có gì.
📌 Mô hình học máy mới có thể tạo bản đồ 3D thành phố từ một ảnh radar vệ tinh duy nhất với độ chính xác khoảng 3m, hoạt động tốt với nhiều vệ tinh thương mại khác nhau. Mặc dù chưa hoàn hảo và không thể thay thế hoàn toàn các kỹ thuật truyền thống như lidar, nó vẫn là công cụ hữu ích để đánh giá nhanh thiệt hại và nhu cầu cứu trợ sau thảm họa lớn.
https://spectrum.ieee.org/synthetic-aperture-radar
- Perplexity và AI tạo sinh đang cách mạng hóa ngành công nghiệp tìm kiếm. Các công cụ tìm kiếm truyền thống đang tích hợp các câu trả lời do AI tạo ra cùng với kết quả trả phí và hữu cơ. Song song với đó, các công cụ tìm kiếm AI từ cốt lõi đang nổi lên, cung cấp câu trả lời với trích dẫn được tạo ra bởi mô hình ngôn ngữ lớn.
- Perplexity AI đang định hình lại ngành công nghiệp tìm kiếm với tốc độ tăng trưởng hàng tháng trên 40%. Tính đến đầu năm 2024, nền tảng này đang thu hút sự chú ý của các chuyên gia SEO và thương hiệu với phương pháp cung cấp kết quả tìm kiếm độc đáo.
- Người dùng chuyển sang Perplexity vì nó cung cấp trải nghiệm tìm kiếm tinh chỉnh, tập trung vào tính trực tiếp và liên quan. Nó tương tác với người dùng trong một cuộc đối thoại, cho phép đặt câu hỏi chi tiết và khám phá chủ đề sâu rộng.
- Perplexity AI kết hợp chức năng của công cụ tìm kiếm truyền thống với khả năng tiên tiến của mô hình ngôn ngữ lớn (LLM) để cung cấp câu trả lời trực tiếp và súc tích. Tuy nhiên, với một số truy vấn yêu cầu nội dung mới nhất, Google có thể cung cấp câu trả lời cập nhật hơn.
- Perplexity ưu tiên một số tên miền trên các ngành công nghiệp khác nhau. Ví dụ: trong lĩnh vực công nghệ B2B, nó sử dụng các trang web uy tín như techtarget.com, trong khi thương mại điện tử, sự thống trị của Amazon là không thể phủ nhận.
- Mỗi ngành có một tập hợp nền tảng riêng mà Perplexity ưu tiên, từ các trang web đánh giá trong nhà hàng đến các nền tảng tổng hợp trong du lịch. Tối ưu hóa công cụ tìm kiếm (SEO) đòi hỏi một cách tiếp cận tinh tế, điều chỉnh nội dung phù hợp với các nền tảng cụ thể.
- Chuẩn bị cho Perplexity đồng nghĩa với việc nắm bắt sự tinh tế của tối ưu hóa công cụ tạo sinh (GEO), hiểu rõ về quyền hạn tên miền, các nền tảng cụ thể của ngành và sự phát triển của các quan hệ đối tác AI. Bằng cách tích hợp các nguyên tắc này vào chiến lược tiếp thị kỹ thuật số và SEO, bạn sẽ có vị trí tốt để thu hút sự chú ý của cả thuật toán Perplexity và khán giả mà chúng phục vụ.
📌 Perplexity đang nhanh chóng trở thành một công cụ tìm kiếm AI hàng đầu với tốc độ tăng trưởng hàng tháng trên 40% tính đến đầu năm 2024. Nó tập trung vào việc cung cấp trải nghiệm tìm kiếm được cá nhân hóa, tương tác và không có quảng cáo. Để tối ưu hóa hiệu quả trên Perplexity, các chuyên gia tiếp thị cần hiểu rõ về quyền hạn tên miền, các nền tảng cụ thể của ngành và áp dụng các kỹ thuật tối ưu hóa công cụ tạo sinh (GEO) phù hợp.
Citations:
[1] https://www.brightedge.com/perplexity
- Theo một phân tích mới, 60% các trích dẫn trên công cụ tìm kiếm AI Perplexity trùng lặp với top 10 kết quả tìm kiếm hữu cơ của Google.
- Ngành y tế có mức trùng lặp kết quả cao nhất là 82%. Cả Perplexity và Google đều trích dẫn các trang web uy tín như Mayo Clinic và Viện Y tế Quốc gia.
- Ngành nhà hàng có mức trùng lặp thấp nhất là 27%.
- Phát hiện này có thể gây ngạc nhiên vì một phân tích cho thấy 94% liên kết của Google Search Generative Experience (SGE) khác với kết quả hữu cơ của chính nó.
- Đây cũng là tin tốt nếu bạn đã ưu tiên SEO cho Google và tập trung xây dựng thương hiệu nổi bật, bạn sẽ có một khởi đầu tốt để tối ưu hóa cho Perplexity.
- BrightEdge so sánh SGE và Perplexity để xem sự khác biệt. Đáng chú ý, Reddit được trích dẫn trong 7/9 ngành được phân tích, ngoại trừ Y tế và Tài chính.
- Trong Thương mại điện tử, Perplexity và Google trích dẫn Wikipedia và Amazon. Nhưng sau đó, Google trích dẫn Quora và Consumer Reports trong khi Perplexity trích dẫn Reddit.
- Sự khác biệt là do dữ liệu. Google đã thu thập rất nhiều dữ liệu này từ đánh giá, xếp hạng, thông tin vị trí và giờ làm việc của doanh nghiệp. Perplexity trích dẫn Yelp cho loại dữ liệu này.
- Google có Google Finance. Perplexity trích dẫn Yahoo, MarketWatch và Barrons.
- Perplexity đã phát triển lên 15 triệu người dùng hoạt động hàng tháng. Cùng với sự tăng trưởng này, lượng giới thiệu từ Perplexity đến các trang web thương hiệu cũng tăng 40% mỗi tháng kể từ tháng 1.
- Tỷ lệ chia sẻ hữu cơ của Perplexity đang tăng 39%/tháng theo BrightEdge.
- Perplexity cung cấp trung bình 5.28 trích dẫn cho mỗi phản hồi. Perplexity cũng hiển thị "nhiều hơn đáng kể" các trích dẫn trong các phản hồi về Nhà hàng và Du lịch.
📌 Perplexity đang phát triển nhanh chóng với 15 triệu người dùng hoạt động hàng tháng và lượng giới thiệu tăng 40%/tháng. 60% trích dẫn của Perplexity trùng với top 10 kết quả hữu cơ của Google, cao nhất ở ngành Y tế với 82%. Sự khác biệt giữa Perplexity và Google nằm ở nguồn dữ liệu được trích dẫn. Trong thế giới hậu AI tạo sinh, trích dẫn là thứ hạng mới và thương hiệu cần trở thành nguồn được trích dẫn để chiến thắng.
https://searchengineland.com/perplexity-citations-top-10-google-organic-results-439029
- AWS tiếp tục bổ sung thêm các mô hình vào Amazon Bedrock, dịch vụ quản lý cho các ứng dụng AI tạo sinh. Mô hình Mistral Large hiện đã có sẵn cho khách hàng xây dựng ứng dụng AI.
- Mistral Large là mô hình tạo văn bản đa ngôn ngữ tiên tiến của Mistral AI, có khả năng suy luận phức tạp, hiểu, chuyển đổi văn bản và tạo mã. Mô hình hỗ trợ 5 ngôn ngữ, có cửa sổ ngữ cảnh 32K token, tuân thủ chính xác hướng dẫn.
- Mistral AI muốn hợp tác với AWS để phân phối các mô hình hàng đầu của mình, cung cấp AI theo yêu cầu cho các nhà phát triển trên toàn thế giới.
- Tất cả các mô hình Mistral đều có sẵn từ hôm nay tại các khu vực của Mỹ và châu Âu. Chúng tham gia cùng các nhà cung cấp mô hình khác trên Bedrock như Anthropic, AI21 Labs, Cohere, Meta, Stability AI.
- Mistral AI cũng sẽ sử dụng các chip Tranium và Inferentia của Amazon để xây dựng và triển khai các mô hình nền tảng trong tương lai.
- Amazon Bedrock hiện đã có mặt tại Pháp, cho phép các nhà phát triển truy cập tất cả các mô hình được hỗ trợ và đảm bảo dữ liệu được an toàn trong biên giới nước này.
📌 AWS tiếp tục mở rộng Amazon Bedrock với việc bổ sung mô hình Mistral Large, đồng thời hợp tác với Mistral AI để phát triển các mô hình AI trong tương lai bằng chip Tranium và Inferentia. Bedrock hiện đã hỗ trợ nhiều mô hình từ các đối tác và có mặt tại thị trường Pháp.
https://venturebeat.com/ai/aws-adds-mistral-large-model-to-amazon-bedrock/
- Opera trở thành trình duyệt lớn đầu tiên cho phép người dùng tải xuống các mô hình ngôn ngữ lớn (LLM) để sử dụng cục bộ thông qua một tính năng tích hợp.
- Tính năng này có nghĩa là bạn có thể tận dụng LLM trong Opera mà không cần gửi bất kỳ dữ liệu nào đến máy chủ.
- Tính năng này hiện có sẵn trong luồng nhà phát triển của Opera One như một phần của Chương trình Tính năng Thử nghiệm AI của công ty.
- Các LLM có sẵn bao gồm Gemma của Google, Mixtral của Mistral AI, Llama của Meta và Vicuna, với tổng cộng khoảng 50 họ và 150 LLM.
- Mỗi LLM có thể chiếm từ 2GB đến 10GB bộ nhớ, với các LLM chuyên biệt hơn có thể yêu cầu ít hơn.
- LLM cục bộ cũng có thể chậm hơn đáng kể so với LLM dựa trên máy chủ, tùy thuộc vào khả năng tính toán của phần cứng của bạn.
- Opera khuyên bạn nên thử một số mô hình, bao gồm Code Llama (mở rộng của Llama nhằm tạo và thảo luận về mã), Mixtral (được thiết kế cho nhiều tác vụ xử lý ngôn ngữ tự nhiên) và Phi-2 của Microsoft Research (thể hiện khả năng lý luận và hiểu ngôn ngữ xuất sắc).
- Để thử nghiệm tính năng này, bạn cần nâng cấp lên phiên bản mới nhất của Opera Developer, mở bảng Aria Chat, chọn "chế độ cục bộ", tải xuống các mô hình mong muốn và bắt đầu trò chuyện.
📌 Opera đi tiên phong khi trở thành trình duyệt lớn đầu tiên cho phép tải xuống 150 LLM từ 50 họ khác nhau để sử dụng hoàn toàn cục bộ, mang lại sự riêng tư và linh hoạt cho người dùng, mặc dù có thể chiếm nhiều dung lượng và chậm hơn so với các giải pháp dựa trên máy chủ.
https://www.zdnet.com/article/opera-is-testing-letting-you-download-llms-for-local-use-a-first-for-a-major-browser/
- Ứng dụng VerifEye do công ty Converus tạo ra, tuyên bố có thể phát hiện nói dối với độ chính xác lên đến 80% bằng cách sử dụng AI.
- Ứng dụng tập trung vào việc phát hiện các chuyển động và hành vi không tự nguyện của mắt để xác định tính trung thực.
- Ý tưởng về mắt có thể cho biết ai đó đang nói dối đã xuất hiện từ những năm 1970, mặc dù một lý thuyết phổ biến về chuyển động mắt đã bị bác bỏ vào năm 2012.
- VerifEye không tuân theo công thức này, mà dựa trên nhiều nghiên cứu bổ sung về khoa học sử dụng dữ liệu mắt để phát hiện sự lừa dối.
- Công ty quảng cáo ứng dụng này như thể mọi người sẽ sử dụng nó trong cuộc sống hàng ngày, không chỉ dành cho các tổ chức.
- Họ đề cập đến việc sử dụng ứng dụng để xác định tính xác thực của một người trên mạng hoặc thậm chí để phát hiện sự không chung thủy.
- Tuyên bố về độ chính xác 80% khó có thể được chấp nhận tại tòa án, đặc biệt là với Đạo luật AI gần đây của Liên minh Châu Âu.
- Ứng dụng này thậm chí có thể bị coi là bất hợp pháp ở một số nơi do những hàm ý đằng sau nó.
- Mặc dù vậy, đây là một phần đang phát triển của ngành công nghiệp và có thể thay đổi trong tương lai.
- Tác giả bài viết nghi ngờ về tính hữu ích của ứng dụng như tuyên bố của công ty.
- Những nghi ngờ và câu hỏi này không ngăn cản những người khác lo lắng về một tương lai đầy áp bức, nơi AI liên tục theo dõi mọi hành động của con người.
- Tất cả những điều này càng trở nên phức tạp hơn khi AI biết cách lừa dối con người.
📌 VerifEye, ứng dụng tuyên bố sử dụng AI để phát hiện nói dối với độ chính xác 80%, đang gây tranh cãi. Mặc dù dựa trên nghiên cứu về hành vi mắt, tính hợp pháp và hữu ích của ứng dụng vẫn bị nghi ngờ. Trong bối cảnh Đạo luật AI mới của EU, tương lai của các ứng dụng như vậy vẫn chưa rõ ràng.
https://bgr.com/tech/this-free-app-claims-to-use-ai-to-tell-if-someone-is-lying/
- ChatPDF là một dịch vụ trên web cho phép bạn tải lên tài liệu và đặt câu hỏi về nội dung của nó một cách dễ dàng và miễn phí.
- Không cần tạo tài khoản hay cài đặt ứng dụng, chỉ cần truy cập trang web ChatPDF.com trên trình duyệt web của máy tính hoặc điện thoại.
- Bạn có thể tải lên tối đa 2 tài liệu mỗi ngày, mỗi tài liệu tối đa 120 trang và kích thước không quá 10 MB.
- ChatPDF hỗ trợ nhiều định dạng tệp tin như PDF, Word (DOCX), PowerPoint (PPTX).
- Sau khi tải lên, bạn sẽ thấy tài liệu bên cạnh một hộp trò chuyện. Bạn có thể đặt câu hỏi về nội dung trong tài liệu và nhận câu trả lời nhanh chóng.
- Các câu trả lời đi kèm với chú thích tiện lợi cho biết chính xác ChatPDF lấy thông tin từ đâu trong tài liệu.
- Bạn có thể thảo luận về các vấn đề kỹ thuật trong hướng dẫn sử dụng sản phẩm, chủ đề trong một câu chuyện hoặc bất cứ điều gì khác tùy thuộc vào tài liệu bạn cung cấp.
- ChatPDF hứa sẽ không chia sẻ tệp của bạn với bất kỳ ai và lưu trữ an toàn, riêng tư. Tuy nhiên, nên tránh tải lên các tài liệu kinh doanh nhạy cảm hoặc tài liệu tài chính cá nhân.
- Nếu cần vượt quá giới hạn miễn phí, gói đăng ký 140 đô la mỗi năm mở khóa không giới hạn số lượng tài liệu tải lên. Ngoài ra cũng có các dịch vụ trả phí tương tự khác.
📌 ChatPDF là công cụ AI miễn phí tiện lợi giúp trò chuyện và đặt câu hỏi về nội dung của tối đa 2 tài liệu mỗi ngày, mỗi tài liệu tối đa 120 trang và 10 MB. Dịch vụ hứa sẽ bảo mật thông tin người dùng, tuy nhiên vẫn nên cân nhắc khi tải lên các tài liệu nhạy cảm.
https://www.fastcompany.com/91068475/free-chatbot-for-pdfs-chatpdf
- Meta vừa ra mắt tính năng quét phòng mới gọi là SceneScript, sử dụng sức mạnh của AI để tự động nhận diện các đối tượng và kiến trúc trong phòng như tường, cửa, cửa sổ, bàn, v.v.
- AI được huấn luyện trên hàng trăm nghìn căn phòng được tạo ra theo quy trình và có thể chấm dứt việc lập bản đồ phòng thủ công trên các thiết bị XR.
- Dữ liệu phòng cũng có thể được sử dụng bởi các LLM để đặt câu hỏi phức tạp về không gian sống cho người tiêu dùng và doanh nghiệp.
- Kỹ thuật lập bản đồ phòng tự động trên Apple Vision Pro có nghĩa là người dùng không phải lập bản đồ thủ công bất cứ thứ gì, nhưng thiết bị của Apple không tự động xác định tên và tính năng của đối tượng, chỉ là các bề mặt trống mà các đối tượng ảo có thể tương tác.
- Tính năng lập bản đồ tiên tiến hơn của Meta có nghĩa là dữ liệu này có thể được đưa vào LLM như Meta LLaMA, sau đó có thể được hỏi các câu hỏi về phòng.
- Meta sử dụng Tập dữ liệu Môi trường Tổng hợp Aria - một bộ sưu tập 100.000 phòng ảo được tạo ra theo quy trình - để huấn luyện AI hiểu cách bố trí phòng và cách xác định đúng các đối tượng.
- Meta chưa tiết lộ liệu tính năng này có đến với Meta Quest 3 hay không, nhưng hoàn toàn có thể bản nâng cấp như vậy sẽ được đưa vào một trong các bản cập nhật phần mềm hàng tháng thường xuyên.
📌 SceneScript - đột phá AI mới của Meta có thể tự động lập bản đồ phòng, nhận diện các đối tượng và kiến trúc, mở ra tiềm năng ứng dụng rộng rãi cho thiết bị AR/VR. Được huấn luyện trên 100.000 phòng ảo, AI này hứa hẹn mang đến trải nghiệm thân thiện hơn, đồng thời cung cấp dữ liệu giá trị cho các hệ thống LLM như LLaMA trong tương lai.
https://www.androidcentral.com/gaming/virtual-reality/meta-project-aria-automatic-room-mapping
- AI-as-a-Service (AIaaS) cho phép doanh nghiệp tận dụng sức mạnh của AI mà không cần đầu tư ban đầu lớn vào phần cứng chuyên dụng.
- AIaaS cung cấp nhiều dịch vụ như mô hình được xây dựng sẵn và cơ sở hạ tầng, giúp đơn giản hóa việc tích hợp và sử dụng công nghệ AI.
- Lợi ích của AIaaS bao gồm: giảm rào cản gia nhập, rút ngắn thời gian ra mắt sản phẩm, tiếp cận công nghệ tiên tiến và khả năng mở rộng linh hoạt.
- Doanh nghiệp cần cân nhắc một số vấn đề như phụ thuộc vào nhà cung cấp, hạn chế tùy chỉnh và lo ngại về bảo mật, quyền riêng tư khi áp dụng AIaaS.
- Các nhà cung cấp AIaaS hàng đầu gồm AWS AI, Microsoft Azure AI và Google Cloud AI, mỗi nền tảng đều cung cấp nhiều dịch vụ AI đáp ứng nhu cầu đa dạng của doanh nghiệp.
📌 AIaaS đang mở ra cơ hội cho các doanh nghiệp ứng dụng AI một cách nhanh chóng, tiết kiệm chi phí. Tuy nhiên, cần cân nhắc kỹ lưỡng các yếu tố như phụ thuộc vào nhà cung cấp, khả năng tùy chỉnh hạn chế và vấn đề bảo mật dữ liệu trước khi áp dụng. AWS, Azure và Google Cloud là những nền tảng AIaaS hàng đầu đang định hình xu hướng này.
https://www.cryptopolitan.com/the-rise-of-ai-as-a-service-transforming/
- Microsoft giới thiệu công cụ tạo chatbot Copilot GPT cho người dùng Copilot Pro với giá 30$/người dùng/tháng.
- Công cụ cho phép tạo các chatbot chuyên biệt theo vai trò công việc mà không cần kỹ năng lập trình.
- Copilot GPT được Microsoft phát triển độc lập, không phụ thuộc vào đối tác OpenAI.
- Tính năng nổi bật là truy xuất dữ liệu tăng cường (RAG), giúp chatbot truy xuất thông tin nội bộ để hỗ trợ các tác vụ chuyên biệt như HR, hướng dẫn công ty.
- Hỗ trợ tạo hình ảnh AI nhờ tích hợp DALL-E 3.
- Giao diện tạo chatbot đơn giản, sử dụng ngôn ngữ tự nhiên.
- Người dùng có thể tự tạo hoàn toàn hoặc nhận hướng dẫn từ Copilot.
- Giá Copilot GPT cao hơn công cụ tương tự của OpenAI (20$/người dùng/tháng).
📌 Microsoft đã giới thiệu công cụ Copilot GPT, cho phép người dùng Copilot Pro tạo chatbot chuyên biệt mà không cần lập trình với giá 30$/tháng. Công cụ hỗ trợ truy xuất dữ liệu nội bộ, tạo hình ảnh AI và có giao diện đơn giản. Đây là bước đi độc lập của Microsoft, giảm sự phụ thuộc vào OpenAI trong bối cảnh các vụ kiện và giám sát từ cơ quan quản lý.
https://www.techradar.com/pro/forget-chatgpt-this-new-microsoft-copilot-wants-to-solve-your-job-specific-problems
• Opera One giới thiệu tích hợp AI tự nhiên, mang lại cuộc cách mạng cho việc duyệt web với các tương tác cá nhân hóa và năng suất được nâng cao.
• Chương trình AI Feature Drops cung cấp cho người dùng quyền truy cập sớm vào các tính năng AI thử nghiệm, thúc đẩy sự tham gia và phản hồi.
• Cam kết đổi mới AI của Opera lan tỏa trên toàn bộ hệ sinh thái sản phẩm, với đầu tư vào cơ sở hạ tầng bền vững và khám phá liên tục các công nghệ mới.
• Opera đã đầu tư vào một cụm AI mới hoạt động hoàn toàn bằng năng lượng xanh tại Iceland, trang bị GPU NVIDIA DGX SuperPOD và H100 Tensor Core đẳng cấp thế giới.
📌 Opera One mang đến cuộc cách mạng duyệt web với AI tích hợp tự nhiên, tương tác cá nhân hóa và năng suất tăng cường; chương trình AI Feature Drops cho phép truy cập sớm tính năng AI thử nghiệm, thể hiện cam kết đổi mới AI liên tục của Opera.
https://www.cryptopolitan.com/opera-one-and-launches-ai-feature-drops/
- Arc Search - trình duyệt web sử dụng AI tổng hợp thông tin từ các kết quả tìm kiếm thành bản tóm tắt gọn gàng, dễ đọc, có trích dẫn nguồn.
- Mô hình của Arc Search sẽ sớm được nhân rộng, đe dọa doanh thu quảng cáo trực tuyến của các tổ chức tin tức thương mại.
- Các tổ chức tin tức thương mại sẽ phải chuyển sang mô hình dựa trên thuê bao. Điều này dẫn đến tin tức đáng tin cậy chỉ có sẵn cho những người có khả năng chi trả.
- Truyền thông công cộng sẽ đóng vai trò quan trọng hơn trong việc cung cấp nội dung chất lượng cao, không thiên vị, miễn phí.
- Các đài truyền thông công cộng cần đa dạng hóa mô hình tài trợ, tăng điểm tiếp xúc với khán giả trên nhiều nền tảng, cải thiện hệ sinh thái ứng dụng di động.
- Hợp tác với các tòa soạn phi lợi nhuận khác để đảm bảo có thể tiếp cận được các tin tức chất lượng, bất kể khả năng chi trả.
📌 Arc Search và các công cụ AI tương tự sẽ buộc các tổ chức truyền thông công cộng phải thay đổi mô hình tài trợ, đa dạng hóa các kênh tiếp cận khán giả, nâng cao nhận diện thương hiệu trên nhiều nền tảng. Bằng cách hợp tác với các tòa soạn phi lợi nhuận khác, truyền thông công cộng có thể tiếp tục cung cấp thông tin đáng tin cậy, chất lượng cao, miễn phí cho tất cả mọi người trong bối cảnh công nghệ đang thay đổi nhanh chóng.
https://current.org/2024/03/ai-enhanced-search-tools-are-here-and-public-media-needs-to-pay-attention/
- Sự cố của Krutrim cho thấy sự cần thiết của một công cụ phân tích tinh vi để giám sát các sản phẩm AI từ cốt lõi. Align AI của Hàn Quốc ra đời để đáp ứng nhu cầu này.
- Align AI giúp thu thập dữ liệu tương tác người dùng, phát hiện các vấn đề tiềm ẩn như tấn công prompt injection hay sai lệch trong phản hồi của AI.
- Công ty được thành lập bởi GiJung Kim vào năm 2021, xuất phát từ một nhóm nghiên cứu tại phòng thí nghiệm đại học.
- Align AI sử dụng Go cho backend, React cho frontend, kết hợp giữa API của OpenAI và mô hình AI độc quyền để đạt hiệu suất tối ưu và tiết kiệm chi phí.
- Khách hàng của Align AI đến từ Hàn Quốc, Mỹ, EU và Ấn Độ. Thị trường Ấn Độ được xem là mảnh đất màu mỡ để mở rộng nhờ cộng đồng kỹ sư và doanh nhân năng động.
- Tầm nhìn tương lai của Align AI tập trung vào trải nghiệm AI cá nhân hóa cao, với sự xuất hiện của các con người ảo tương tác với người dùng theo thời gian thực.
📌 Align AI đang định vị mình trở thành công cụ phân tích không thể thiếu cho các sản phẩm AI từ cốt lõi. Với khả năng phát hiện rủi ro, cải thiện sản phẩm và gia tăng doanh thu, Align AI hứa hẹn sẽ tạo ra tác động lớn trên thị trường Ấn Độ và toàn cầu, đồng thời hiện thực hóa tầm nhìn về tương lai của AI - nơi trải nghiệm cá nhân hóa và đa phương thức trở thành chuẩn mực mới.
https://analyticsindiamag.com/olas-krutrim-needs-koreas-align-ai/
- AIOps kết hợp dữ liệu lớn và machine learning để tự động hóa các quy trình vận hành IT như tương quan sự kiện, phát hiện bất thường và xác định mối quan hệ nhân quả.
- Các yếu tố thúc đẩy sự phát triển của AIOps bao gồm sự gia tăng khối lượng, tốc độ và đa dạng của dữ liệu cũng như môi trường IT ngày càng phức tạp.
- AIOps mang lại tốc độ và hiệu quả, thông tin chi tiết dự đoán, tầm nhìn tổng quan nâng cao trong vận hành IT.
- Các ứng dụng thực tế của AIOps gồm phát hiện bất thường, quản lý sự cố, tối ưu hóa năng lực và phân tích nguyên nhân gốc rễ.
- Lợi ích của AIOps: hiệu quả vận hành, giảm thời gian gián đoạn, tiết kiệm chi phí, cải thiện trải nghiệm khách hàng.
- Thách thức triển khai AIOps: tích hợp dữ liệu từ nhiều nguồn, thay đổi văn hóa và quy trình, khoảng cách kỹ năng giữa vận hành IT và công nghệ AI.
- Tương lai của AIOps hứa hẹn sự thông minh và tự động hóa cao hơn, tích hợp với các công nghệ mới nổi như edge computing và IoT.
📌 AIOps đang mang đến cuộc cách mạng trong vận hành IT, giúp tăng hiệu suất lên 47%, giảm thời gian gián đoạn xuống 37% và tiết kiệm chi phí tới 60%. Để tận dụng tối đa tiềm năng của AIOps, các tổ chức cần có cách tiếp cận chiến lược tập trung vào con người, quy trình và công nghệ, từ đó đáp ứng tốt hơn yêu cầu của thế giới số.
https://www.aidevtoolsclub.com/aiops-explained-revolutionizing-it-operations-with-artificial-intelligence-and-automation/
- AWS ra mắt chương trình Năng lực AI Tạo sinh để xác thực chuyên môn, phần mềm, và phần cứng AI tạo sinh, đáp ứng tiêu chuẩn của đơn vị đám mây Amazon.
- Tiêu chí của chương trình bao gồm việc có bốn trường hợp sử dụng thực tế, lặp lại được, đã được chứng minh.
- Mục tiêu của Năng lực AI Tạo sinh là giúp khách hàng AWS xác định và áp dụng các giải pháp AI phù hợp nhất để phát triển chiến lược AI tạo sinh thành công trong kinh doanh và thúc đẩy tăng trưởng.
- Tại thời điểm ra mắt, chương trình có hơn 40 đối tác cung cấp công cụ, dịch vụ và cơ sở hạ tầng trên các lĩnh vực AI khác nhau, bao gồm an ninh và ứng dụng.
- Các Đối tác Dịch vụ AWS cung cấp chuyên môn giúp doanh nghiệp áp dụng AI tạo sinh, trong khi Đối tác Phần mềm AWS có thể tự động hóa các hoạt động cụ thể của lĩnh vực kinh doanh bằng các mô hình cơ sở.
- Danh sách Đối tác Dịch vụ AWS bao gồm Accenture, AllCloud, Booz Allen Hamilton, Capgemini, và nhiều công ty khác.
- Danh sách Đối tác Phần mềm AWS bao gồm AI21 Labs, AISERA, Anthropic, Bosch Global, và các công ty khác.
📌 AWS giới thiệu chương trình Năng lực AI Tạo sinh, nhấn mạnh vào việc xác thực chuyên môn và giải pháp AI tạo sinh, với hơn 40 đối tác từ nhiều lĩnh vực. Chương trình này hứa hẹn sẽ giúp doanh nghiệp dễ dàng tìm kiếm và áp dụng các giải pháp AI phù hợp, thúc đẩy tăng trưởng và thành công trong kỷ nguyên số.
https://www.zdnet.com/article/aws-launches-a-generative-ai-competency-to-grade-ai-offerings/
- LangGraph là một framework lập trình đa agent AI, giúp tự động hóa các công việc như viết mã, kiểm thử và gỡ lỗi.
- Các agent AI chuyên biệt bao gồm: Programmer Agent, Tester Agent, Executor Agent và Debugger Agent, mỗi agent đảm nhận các vai trò khác nhau trong quy trình phát triển phần mềm.
- Framework này là một phần của hệ sinh thái LangChain, sử dụng các đồ thị trạng thái, nút và cạnh của LangGraph để phối hợp hoạt động của các agent AI.
- Giao diện thân thiện với người dùng nhờ tích hợp với Streamlit, cho phép lập trình viên ở mọi cấp độ dễ dàng tương tác với hệ thống.
- Framework có khả năng thích ứng với các yêu cầu và nhu cầu cụ thể, tạo ra mã, tinh chỉnh và khắc phục sự cố một cách linh hoạt.
- Mã nguồn của framework có sẵn trên GitHub, tạo điều kiện cho sự hợp tác và tích hợp vào các dự án khác.
- LangGraph sử dụng cấu trúc đồ thị để biểu diễn trạng thái của dự án phần mềm, giúp các agent AI hiểu rõ ngữ cảnh mã và thực hiện nhiệm vụ hiệu quả hơn.
- Khả năng học hỏi và thích nghi của LangGraph giúp nó ngày càng phù hợp với nhu cầu phát triển phần mềm, cải thiện khả năng hỗ trợ lập trình viên.
- LangGraph không chỉ giúp tự động hóa các nhiệm vụ cá nhân mà còn hướng đến việc cải thiện toàn diện quy trình phát triển phần mềm.
📌 LangGraph đánh dấu bước tiến quan trọng trong tự động hóa phát triển phần mềm với các agent AI chuyên biệt, cung cấp khả năng thích ứng cao và tương tác dễ dàng qua giao diện Streamlit. Mã nguồn mở trên GitHub thúc đẩy sự cộng tác và tích hợp, trong khi cấu trúc đồ thị của LangGraph tăng cường hiệu quả công việc và khả năng học hỏi, hứa hẹn một tương lai phần mềm được phát triển nhanh chóng, chất lượng cao và ít lỗi hơn.
https://www.geeky-gadgets.com/building-multi-agent-llm-coding-ai-frameworks/
- Qualcomm giới thiệu AI Hub, thư viện bao gồm hơn 75 mô hình - AI phổ biến và AI tạo sinh như Whisper, ControlNet, Stable Diffusion, và Baichuan 7B.
- Các mô hình AI được tối ưu hóa để chạy trên các thiết bị sử dụng nền tảng Snapdragon và Qualcomm, hỗ trợ ứng dụng xử lý ngôn ngữ tự nhiên, thị giác máy tính và phát hiện bất thường.
- AI Hub cung cấp hiệu suất cao với mức tiêu thụ điện năng thấp, quan trọng cho thiết bị di động và thiết bị biên.
- Mô hình AI được tối ưu hóa để tận dụng sự gia tốc phần cứng của Qualcomm AI Engine trên tất cả các lõi (NPU, CPU, GPU), mang lại tốc độ suy luận nhanh gấp bốn lần.
- AI Hub cung cấp tài liệu và hướng dẫn sử dụng, cũng như công cụ và nguồn lực để các nhà phát triển tùy chỉnh mô hình AI của họ.
- Để sử dụng AI Hub, nhà phát triển cần mô hình đã được đào tạo trong định dạng PyTorch, TorchScript, ONNX, hoặc TensorFlow Lite và hiểu biết về mục tiêu triển khai.
- AI Hub không chỉ dành cho nhà phát triển có kinh nghiệm mà còn là nền tảng học tập với tài liệu và hướng dẫn đầy đủ cho những người mới bắt đầu với AI.
📌 Qualcomm đã mở ra một kỷ nguyên mới cho các nhà phát triển AI với việc ra mắt AI Hub, nơi cung cấp một thư viện đầy đủ các mô hình AI đã được tối ưu hóa sẵn. Với hơn 75 mô hình AI và AI tạo sinh miễn phí, AI Hub không chỉ giúp tiết kiệm thời gian và nguồn lực cho việc tích hợp và tùy chỉnh mô hình vào ứng dụng, mà còn đẩy nhanh quá trình phát triển sản phẩm với hiệu suất cao và tiêu thụ điện năng thấp. Điều này đặc biệt quan trọng trong bối cảnh thiết bị di động và thiết bị biên ngày càng phổ biến. AI Hub cũng hứa hẹn sẽ cập nhật thường xuyên với các mô hình mới và hỗ trợ thêm nhiều nền tảng và hệ điều hành, mở rộng khả năng tiếp cận và ứng dụng của AI trong nhiều lĩnh vực khác nhau.
Citations:
[1] https://www.techradar.com/pro/did-qualcomm-just-launch-the-first-true-app-store-for-ai-ai-hub-comes-with-75-models-for-free-but-you-will-have-to-be-a-developer-to-take-full-advantage-of-it
- Thomson Reuters (TR) vừa tung ra các giải pháp trí tuệ nhân tạo (AI) mới cho các chuyên gia pháp lý, giúp họ soạn thảo hợp đồng hoặc bản tóm tắt và nghiên cứu các chủ đề pháp lý phức tạp một cách hiệu quả hơn.
- David Wong, giám đốc sản phẩm tại Thomson Reuters, cho biết hai lĩnh vực chính mà công cụ của công ty hỗ trợ khách hàng là tìm kiếm thông tin trong các cơ sở dữ liệu chuyên nghiệp cụ thể và tạo ra nội dung phù hợp với nhiệm vụ cụ thể.
- AI tạo sinh được đánh giá cao về khả năng truy xuất thông tin, giúp tổng hợp và trích xuất thông tin từ các cơ sở dữ liệu, đặc biệt là nội dung và cơ sở dữ liệu độc quyền của Thomson Reuters.
- Công ty đã phát triển khả năng AI trong công cụ Practical Law của mình, sử dụng AI tạo sinh để nhanh chóng cung cấp câu trả lời chính xác cho các chuyên gia pháp lý cùng với các công cụ và hiểu biết để cải thiện quy trình làm việc của họ.
- Thomson Reuters cũng đang xây dựng thêm các khả năng AI mới trong nền tảng Practical Law của mình, bao gồm Ask Practical Law AI, giúp người dùng truy cập nội dung được tóm tắt từ nền tảng đã được một đội ngũ hơn 650 luật sư biên soạn.
- Công ty cũng đã triển khai công cụ giúp các chuyên gia pháp lý tìm kiếm các điều khoản cụ thể từ nền tảng, các thỏa thuận của Ủy ban Chứng khoán và Giao dịch (SEC) và các tài liệu nội bộ khi sử dụng Microsoft Word.
📌 Thomson Reuters đang tiên phong trong việc áp dụng AI vào lĩnh vực pháp lý, với việc ra mắt các công cụ mới như AI trong Practical Law và Ask Practical Law AI. Các giải pháp này không chỉ giúp cải thiện hiệu quả công việc cho các chuyên gia pháp lý bằng cách cung cấp câu trả lời chính xác và nhanh chóng cho các câu hỏi pháp lý, mà còn giúp họ tìm kiếm và soạn thảo các tài liệu pháp lý một cách dễ dàng hơn. Sự kết hợp giữa AI và chuyên môn pháp lý của đội ngũ hơn 650 luật sư tại Thomson Reuters tạo ra một nguồn lực mạnh mẽ, hỗ trợ đắc lực cho các chuyên gia trong ngành.
Citations:
[1] https://www.foxbusiness.com/technology/thomson-reuters-launches-new-ai-tools-legal-professionals
- Mô hình Ngôn ngữ Lớn (LLMs) đã trở thành công cụ hỗ trợ mạnh mẽ cho các nhà phát triển, hứa hẹn sẽ cách mạng hóa cách tiếp cận các nhiệm vụ lập trình.
- LLMs có khả năng tối ưu hóa quy trình phát triển phần mềm, từ việc tạo mã đến sửa lỗi, giúp công việc của lập trình viên nhanh chóng và chính xác hơn.
- Một thách thức quan trọng là tích hợp hiệu quả LLMs vào Môi trường Phát triển Tích hợp (IDEs) để tối đa hóa lợi ích tiềm năng của chúng.
- Việc triển khai LLMs gặp khó khăn do cần phải thích ứng tối ưu với tính đa dạng và phức tạp của các nhiệm vụ phát triển phần mềm.
- Các phương pháp hiện tại để tích hợp LLMs vào IDEs thường dựa vào mô hình chung chung, có thể không mang lại hiệu suất tối ưu.
- Nhóm nghiên cứu từ Microsoft đã giới thiệu Copilot, một công cụ đánh giá mới dành riêng cho việc đánh giá lập trình hướng dẫn bởi LLM trong IDEs.
- Copilot tập trung vào việc đánh giá hiệu suất của LLMs trong nhiều kịch bản lập trình khác nhau.
- Copilot thu thập dữ liệu từ các kho lưu trữ công cộng trên GitHub bằng các ngôn ngữ như JavaScript, TypeScript, Python, Java, C/C++, và C#.
- Quá trình thu thập dữ liệu được hỗ trợ bởi một build agent có khả năng thực hiện nhiều chiến lược xây dựng và kiểm thử khác nhau.
- Trong các thí nghiệm, Copilot đánh giá LLMs qua 5 nhiệm vụ phát triển phần mềm chính, xem xét các yếu tố như đúng cú pháp, thành công trong việc sửa lỗi, và tạo tài liệu.
📌 Copilot, công cụ đánh giá được Microsoft phát triển, đóng vai trò quan trọng trong việc cung cấp một bộ chỉ số đánh giá toàn diện, giúp hiểu rõ hơn về khả năng hỗ trợ của LLMs trong các nhiệm vụ phát triển phần mềm. Việc thu thập dữ liệu từ GitHub và sử dụng build agent cho phép chuẩn bị một bộ dữ liệu kiểm thử toàn diện, qua đó đánh giá được hiệu suất của LLMs trong nhiều tình huống lập trình, từ việc kiểm tra cú pháp đến sửa lỗi và tạo tài liệu. Công cụ này mở ra hướng tiếp cận mới trong việc tích hợp LLMs vào quy trình phát triển phần mềm, đặc biệt là trong việc tinh chỉnh để phù hợp với nhu cầu và bối cảnh cụ thể của từng dự án.
Citations:
[1] https://www.marktechpost.com/2024/03/02/microsoft-ai-proposes-metrics-for-assessing-the-effectiveness-of-large-language-models-in-software-engineering-tasks/
- Deepdub, công ty có trụ sở tại Tel Aviv, Israel, đã giới thiệu công nghệ Accent Control, sử dụng AI tạo sinh độc quyền để cho phép người tạo nội dung kiểm soát chính xác giọng điệu của nhân vật khi lồng tiếng nội dung sang ngôn ngữ khác.
- Công nghệ này mở ra kỷ nguyên mới về tính xác thực cho nội dung lồng tiếng bằng AI, giúp giữ nguyên giọng điệu đặc trưng của nhân vật hoặc thích ứng chúng để phù hợp với văn hóa của khán giả mục tiêu.
- Trong quá trình lồng tiếng truyền thống, đạo diễn phải đối mặt với quyết định giữ nguyên giọng điệu gốc cho tính xác thực hoặc điều chỉnh chúng để phù hợp với nét văn hóa của khán giả mục tiêu.
- Công nghệ Accent Control của Deepdub cho phép kiểm soát chính xác giọng điệu qua 130+ ngôn ngữ và đang được mở rộng để hỗ trợ giọng địa phương, cho phép việc micro-localization.
- Công nghệ này được truy cập thông qua nền tảng Deepdub Go, một nền tảng lồng tiếng AI ảo.
📌 Deepdub đã giới thiệu công nghệ Accent Control, đánh dấu một bước tiến quan trọng trong lĩnh vực lồng tiếng bằng AI, với khả năng kiểm soát chính xác giọng điệu của nhân vật, từ đó nâng cao tính xác thực của nội dung lồng tiếng. Công nghệ này không chỉ giữ nguyên được giọng điệu đặc trưng của nhân vật mà còn có thể thích ứng chúng để phù hợp với văn hóa của khán giả mục tiêu, qua đó giải quyết thách thức lâu đời trong quá trình lồng tiếng truyền thống. Với khả năng kiểm soát giọng điệu qua 130+ ngôn ngữ và hỗ trợ giọng địa phương, công nghệ này mở ra cơ hội cho việc micro-localization, làm phong phú thêm trải nghiệm của khán giả và tạo điều kiện cho người tạo nội dung đa dạng hóa cách thể hiện nội dung của mình.
Citations:
[1] https://venturebeat.com/games/deepdub-adds-ai-dubbing-tech-that-can-change-a-speakers-accent/
### SEO Contents:
- Mô tả các yếu tố cần xem xét khi thiết kế và xây dựng ứng dụng AI tạo sinh có khả năng RAG trên Google Cloud, đảm bảo đáp ứng các yêu cầu về bảo mật và tuân thủ.
- Vertex AI hỗ trợ các điều khiển bảo mật của Google Cloud giúp đáp ứng các yêu cầu về quy định địa lý dữ liệu, mã hóa dữ liệu, bảo mật mạng và minh bạch truy cập.
- Cung cấp thông tin chi tiết về các điều khiển bảo mật cho Vertex AI và AI tạo sinh.
- Đề cập đến Cloud Run như một phần của kiến trúc.
📌 Tài liệu cung cấp một cái nhìn tổng quan về việc thiết kế và xây dựng ứng dụng AI tạo sinh có khả năng RAG trên Google Cloud, với một sự nhấn mạnh đặc biệt vào việc đáp ứng các yêu cầu bảo mật và tuân thủ. Vertex AI đóng một vai trò quan trọng trong việc hỗ trợ các điều khiển bảo mật, giúp người dùng tuân thủ các quy định về dữ liệu, mã hóa, và bảo mật mạng. Thông tin chi tiết về các điều khiển bảo mật cho cả Vertex AI và AI tạo sinh được cung cấp, cùng với việc nhắc đến Cloud Run như một thành phần của kiến trúc tổng thể.
Citations:
[1] https://cloud.google.com/architecture/rag-capable-gen-ai-app-using-vertex-ai
- Adobe giới thiệu trải nghiệm AI tạo sinh mới trong phần mềm quản lý PDF Acrobat, nhằm "hoàn toàn biến đổi trải nghiệm tài liệu số".
- Công cụ mới, được gọi là "Trợ lý AI trong Acrobat", là một "động cơ hội thoại" có thể tóm tắt tệp, trả lời câu hỏi và đề xuất thêm nội dung dựa trên nội dung tài liệu, cho phép người dùng "dễ dàng trò chuyện với tài liệu".
- Trợ lý AI hiện có sẵn ở phiên bản beta cho người dùng Acrobat trả phí, với mục tiêu giảm bớt các công việc mất thời gian liên quan đến việc làm việc với các tài liệu văn bản lớn.
- Trợ lý AI trong Acrobat có thể được sử dụng với tất cả các định dạng tài liệu được ứng dụng hỗ trợ, bao gồm Word và PowerPoint.
- Trợ lý AI tuân thủ chính sách bảo mật của Adobe, cho phép người dùng Acrobat yêu cầu chatbot tổng hợp và định dạng thông tin thành bản sao dễ tiêu hóa cho email, báo cáo, bài thuyết trình và hơn thế nữa.
- Trải nghiệm Trợ lý AI mới có sẵn cho khách hàng Acrobat trên các kế hoạch đăng ký Standard (12,99 USD/tháng), Pro (19,99 USD/tháng) và Teams trên cả máy tính để bàn và web.
- Trợ lý AI sẽ có sẵn cho những khách hàng này "không phát sinh thêm chi phí" trong khi sản phẩm đang ở giai đoạn beta.
- Tuy nhiên, Abhigyan Modi, phó chủ tịch cấp cao của Adobe Document Cloud, cho biết khách hàng Reader và Acrobat sẽ có quyền truy cập vào toàn bộ các khả năng của Trợ lý AI thông qua một kế hoạch đăng ký bổ sung mới khi Trợ lý AI kết thúc giai đoạn beta.
- Adobe chưa công bố thời gian dự kiến Trợ lý AI sẽ ở trong giai đoạn beta, nhưng công ty đã có kế hoạch cho các khả năng tương lai mà họ dự định triển khai.
📌 Adobe Acrobat đang mở rộng khả năng của mình với việc giới thiệu Trợ lý AI, một công cụ hội thoại có khả năng tóm tắt, trả lời câu hỏi và đề xuất nội dung dựa trên tài liệu, nhằm mục tiêu "hoàn toàn biến đổi trải nghiệm tài liệu số". Công cụ này hiện đang ở giai đoạn beta và được cung cấp miễn phí cho người dùng Acrobat trả phí trên các kế hoạch đăng ký Standard, Pro và Teams. Adobe cam kết sẽ mở rộng các khả năng của Trợ lý AI trong tương lai, bao gồm tích hợp với mô hình AI tạo sinh Firefly của mình và khả năng trích xuất thông tin từ nhiều tài liệu và loại tài liệu khác nhau.
Citations:
[1] https://www.theverge.com/2024/2/20/24077217/adobe-acrobat-generative-ai-assistant-chatbot-pdf-document
- Google Gemini không chỉ là một phiên bản nâng cấp của Google Assistant mà còn là một công cụ AI mới, giúp người dùng tương tác với các ứng dụng khác của Google như Maps và Search.
- Gemini có khả năng lưu trữ cuộc trò chuyện trực tiếp vào Google Docs hoặc xuất chúng thành tin nhắn Gmail, mang lại sự linh hoạt và tiện lợi cho người dùng.
- Người dùng có thể chọn không sử dụng Gemini như một trợ lý thay thế khi nhấn nút Nguồn hoặc gọi 'Hey Google', và thay vào đó sử dụng Google Assistant thông qua cài đặt.
- Gemini cung cấp các gợi ý không đồng nhất; một số có thể không tốt nhưng đôi khi lại rất tuyệt vời, đặc biệt khi nó đề xuất các lựa chọn tương tự dựa trên sở thích của người dùng.
- Gemini không chỉ giúp đặt hẹn, kiểm tra thời tiết hay điều khiển nhà thông minh như Google Assistant mà còn hỗ trợ mở rộng ý tưởng và kế hoạch, cho thấy khả năng vượt trội trong việc tương tác và hỗ trợ người dùng.
📌 Google Gemini đánh dấu một bước tiến mới trong lĩnh vực trợ lý ảo và AI, không chỉ giới hạn ở việc thực hiện các lệnh cơ bản như đặt hẹn hay kiểm tra thời tiết mà còn mở rộng khả năng tương tác với người dùng thông qua việc tích hợp sâu với các ứng dụng khác của Google như Maps và Search. Sự linh hoạt trong việc lưu trữ và xuất dữ liệu, cùng với khả năng đề xuất các ý tưởng và lựa chọn phù hợp với sở thích cá nhân, làm cho Gemini trở thành một công cụ độc đáo và hữu ích, mở ra những khả năng mới cho trải nghiệm người dùng với công nghệ AI.
Citations:
[1] https://www.techradar.com/computing/artificial-intelligence/google-gemini
- HuggingFace đang tập trung vào việc tích hợp và truy cập, phát triển các điểm cuối REST cho các chức năng tùy chỉnh, cho phép người dùng tích hợp các tính năng chuyên biệt vào trợ lý AI của họ một cách dễ dàng.
- Người dùng có thể bắt đầu xây dựng trợ lý của họ từ đầu hoặc chỉnh sửa những trợ lý được tạo bởi cộng đồng thông qua trang web của HuggingFace.
- HuggingFace cũng đang lên kế hoạch giới thiệu các tính năng như tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài, làm tăng chức năng của các trợ lý AI.
- Họ cũng đang làm việc để tích hợp các hình thu nhỏ được tạo bởi AI, thêm một yếu tố hình ảnh vào các trợ lý, làm cho chúng thêm phần hấp dẫn và thân thiện với người dùng.
- Cộng đồng và hỗ trợ cũng là trọng tâm trong triết lý của HuggingFace. Công ty cung cấp các lợi ích Patreon, nổi bật lên các lợi ích của việc đăng ký công cụ AI miễn phí, cơ hội tư vấn, kết nối và các dự án cộng đồng hợp tác.
📌 HuggingFace đang tạo ra một môi trường hợp tác, khuyến khích sự đổi mới từ người dùng bằng cách phát triển các điểm cuối REST cho các chức năng tùy chỉnh, cho phép tích hợp các tính năng chuyên biệt vào trợ lý AI. Họ cũng đang lên kế hoạch giới thiệu các tính năng như tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài, làm tăng chức năng của các trợ lý AI. Hỗ trợ cộng đồng và hỗ trợ cũng là một phần quan trọng của triết lý của HuggingFace, với các lợi ích Patreon nhằm tạo ra một hệ sinh thái hỗ trợ, khuyến khích sự tham gia của người dùng và đóng góp vào việc cải tiến liên tục của công nghệ AI.
Citations:
[1] https://www.geeky-gadgets.com/huggingface-assistants/
- 65% doanh nghiệp đạt kết quả SEO tốt hơn nhờ AI.
- 67% doanh nghiệp nhận thấy sự cải thiện về chất lượng nội dung khi sử dụng AI.
- 68% doanh nghiệp có ROI tiếp thị nội dung cao hơn do AI.
- 37% doanh nghiệp không sử dụng AI vì không hiểu cách hoạt động của nó.
- 93% doanh nghiệp xem xét nội dung do AI tạo ra trước khi xuất bản.
- Đa số người tiêu dùng có xu hướng ưa thích nội dung do AI tạo ra.
- AI giúp cải thiện chất lượng nội dung, không chỉ để tiết kiệm thời gian hay chi phí mà còn để hiểu rõ hơn về khán giả và nắm bắt xu hướng quan trọng.
- Google sẽ sớm trở thành đối thủ mới trên SERPs với Google’s Search Generative Experience, hiển thị câu trả lời AI cho nhiều truy vấn tìm kiếm.
- AI được xem là chất xúc tác cho sự tăng trưởng hữu cơ, đặc biệt quan trọng đối với các doanh nghiệp nhỏ muốn có lợi thế cạnh tranh.
- Google giữ lập trường trung lập về nội dung do AI tạo, tập trung vào tính liên quan và toàn diện.
📌 Báo cáo mới từ Semrush tiết lộ rằng AI đang đóng một vai trò quan trọng trong việc cải thiện kết quả SEO, chất lượng nội dung và ROI tiếp thị nội dung cho các doanh nghiệp. Với 65% doanh nghiệp đạt được kết quả SEO tốt hơn và 67% nhận thấy sự cải thiện về chất lượng nội dung nhờ AI, công nghệ này đang thay đổi cách thức tiếp cận nội dung và SEO. Đặc biệt, việc Google sắp ra mắt Google’s Search Generative Experience làm tăng thêm tầm quan trọng của việc tạo ra nội dung có sự tham gia của con người để cạnh tranh trên SERPs. Điều này nhấn mạnh tầm quan trọng của việc sử dụng AI một cách thông minh để tạo ra nội dung chất lượng cao, đồng thời giữ vững lập trường trung lập của Google đối với nội dung do AI tạo.
Citations:
[1] https://www.semrush.com/news/288870-new-report-reveals-the-top-ai-content-and-seo-trends-for-2024/
- GenAI là một trong những công nghệ hấp dẫn nhất hiện nay nhưng cũng là một trong những công nghệ phát triển nhanh nhất, tạo thách thức cho các doanh nghiệp muốn triển khai nó.
- Các công ty phải không chỉ theo kịp xu hướng mà còn phải xác nhận những gì đang hoạt động, đồng thời duy trì độ chính xác, tuân thủ và an ninh.
- Có một nhóm các startup đang tùy chỉnh công cụ GenAI để phù hợp với nhu cầu của doanh nghiệp. Ví dụ, Arcee đang tạo ra các giải pháp để giúp doanh nghiệp đào tạo, đánh giá và quản lý mô hình GenAI một cách an toàn.
- Crux, do Himank Jain, Atharva Padhye và Prabhat Singh đồng sáng lập, tạo ra các mô hình AI có khả năng trả lời các câu hỏi về dữ liệu kinh doanh bằng ngôn ngữ tự nhiên tương tự như ChatGPT của OpenAI.
- Crux chuyển đổi schema, cấu trúc của cơ sở dữ liệu, thành "lớp ngữ nghĩa" mà các mô hình AI có thể hiểu.
- Crux cho phép khách hàng tùy chỉnh mô hình trả lời câu hỏi theo nhu cầu thông minh kinh doanh, điều khoản và chính sách của họ, từ đó cải thiện chất lượng đầu ra.
- Crux đang hướng tới việc ra mắt "động cơ quyết định được hỗ trợ bởi AI" cho các doanh nghiệp và thách thức các công cụ trí tuệ doanh nghiệp hiện hành bằng cách lặp lại nhanh hơn và tái cấu trúc ngăn xếp phân tích dữ liệu thành ngăn xếp quyết định.
📌 Crux đang tạo ra một bước tiến lớn trong lĩnh vực trí tuệ doanh nghiệp với việc phát triển công cụ hỗ trợ AI tạo sinh, đáp ứng nhu cầu cấp thiết của các doanh nghiệp trong việc quản lý và triển khai các mô hình AI một cách an toàn và hiệu quả. Sự chuyển đổi từ bảng điều khiển tĩnh và báo cáo thủ công sang thông tin tình báo chính xác, kịp thời và có thể hành động ngay lập tức là một phần của sự biến đổi mà Crux đang thúc đẩy. Với khả năng tùy chỉnh cao và việc tập trung vào việc cung cấp thông tin BI dựa trên yêu cầu cụ thể của doanh nghiệp, Crux không chỉ đơn thuần là một công cụ phân tích dữ liệu mà còn là một đối tác chiến lược, giúp các doanh nghiệp đưa ra quyết định thông minh hơn dựa trên dữ liệu.
Citations:
[1] https://techcrunch.com/2024/02/08/crux-is-building-genai-powered-business-intelligence-tools/
- Acceldata đã giới thiệu AI copilot mới, một công cụ giúp tăng cường khả năng quan sát dữ liệu.
- AI copilot được thiết kế để hoạt động trên nền tảng Acceldata, hỗ trợ các tác vụ liên quan đến quan sát dữ liệu, từ việc giám sát các pipeline dữ liệu cho đến việc xác định các quy tắc chính sách.
- Công cụ này giúp loại bỏ các rắc rối cấu hình thủ công, giảm thời gian thiết lập, cho phép giám sát tự động các sự bất thường của dữ liệu và thúc đẩy sự cộng tác và đóng góp từ người dùng không chuyên môn.
- AI copilot cho phép người dùng tự động hóa và tăng tốc các tác vụ thủ công trước đây bằng cách nhập các đầu vào ngôn ngữ tự nhiên đơn giản.
- Công cụ này giúp người dùng dễ dàng nghiên cứu và khắc phục những vấn đề về tươi mới, hồ sơ và chất lượng dữ liệu, cũng như học hỏi các mô hình tiêu thụ để thay đổi và ngăn chặn việc tiêu thụ quá mức.
📌 Acceldata đã giới thiệu AI copilot, một công cụ mới giúp tăng cường khả năng quan sát dữ liệu. Công cụ này được thiết kế để hoạt động trên nền tảng Acceldata, giúp tự động hóa và tăng tốc các tác vụ thủ công trước đây. AI copilot giúp người dùng dễ dàng nghiên cứu và khắc phục những vấn đề về tươi mới, hồ sơ và chất lượng dữ liệu, cũng như học hỏi các mô hình tiêu thụ để thay đổi và ngăn chặn việc tiêu thụ quá mức.
Citations:
[1] https://venturebeat.com/data-infrastructure/acceldata-supercharges-data-observability-with-new-ai-copilot/
- Apple đã phát hành MGIE, một trình chỉnh sửa ảnh AI nguồn mở, hợp tác phát triển cùng các nhà nghiên cứu từ Đại học California, nhằm cung cấp một công cụ chỉnh sửa ảnh tiên tiến nhưng thân thiện với người dùng.
- MGIE sử dụng các mô hình ngôn ngữ lớn đa phương tiện (MLLMs) để chính xác giải thích các yêu cầu từ người dùng, cho phép thực hiện nhiều loại chỉnh sửa từ cải thiện ảnh tổng thể như điều chỉnh độ sáng, tương phản, đến các chỉnh sửa cục bộ và thay đổi kiểu Photoshop như cắt, thay đổi kích thước và thêm bộ lọc.
- MGIE không chỉ hỗ trợ chỉnh sửa ảnh cơ bản mà còn có khả năng hiểu và thực hiện các lệnh phức tạp như làm cho pizza trông khỏe mạnh hơn hoặc thay đổi điểm nhấn trong ảnh, nhờ vào khả năng suy luận thông thường và kỹ năng thao tác pixel cấp độ cao.
- Công cụ này đặc biệt nổi bật với khả năng suy luận thông thường, cho phép nó thực hiện các nhiệm vụ như thêm topping rau củ vào pizza để làm cho nó trông khỏe mạnh hơn hoặc tăng cường độ tương phản của ảnh để mô phỏng thêm ánh sáng.
📌 Apple đã phát hành MGIE, một trình chỉnh sửa ảnh AI nguồn mở, hợp tác phát triển cùng các nhà nghiên cứu từ Đại học California. MGIE đánh dấu một bước tiến quan trọng trong việc kết hợp giữa công nghệ AI và công cụ sáng tạo, mở ra những khả năng mới trong chỉnh sửa ảnh. Với việc sử dụng MLLMs để giải thích chính xác các yêu cầu từ người dùng, MGIE cho phép thực hiện từ các chỉnh sửa ảnh tổng thể như điều chỉnh độ sáng, tương phản đến các chỉnh sửa cụ thể và phức tạp như thêm bộ lọc, cắt, thay đổi kích thước. Khả năng suy luận thông thường và thao tác pixel cấp độ cao của MGIE mở ra cánh cửa cho việc chỉnh sửa ảnh sáng tạo và cá nhân hóa hơn, đẩy mạnh giới hạn của những gì có thể đạt được với công nghệ AI trong lĩnh vực này.
Citations:
[1] https://www.geeky-gadgets.com/apple-mgie-ai-image-editor/
- Công ty AI Galileo có trụ sở tại San Francisco đã công bố ra mắt công cụ tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) và giải pháp phân tích đại lý vào ngày 6 tháng 2.
- RAG giúp bổ sung kiến thức chung của các mô hình ngôn ngữ lớn (LLMs) với ngữ cảnh cụ thể của lĩnh vực, cho phép cung cấp kết quả chuyên ngành.
- Công cụ mới của Galileo giúp giảm thiểu công sức đánh giá thủ công và cung cấp cái nhìn sâu sắc vào từng giai đoạn của quy trình RAG thông qua giao diện người dùng trực quan của Galileo.
- Công cụ này cho phép đánh giá nhanh chóng, phát hiện lỗi và lặp lại, giúp các nhà thực hành AI xây dựng hệ thống dựa trên RAG phát triển nhanh chóng và tinh chỉnh quy trình RAG của họ.
- Vikram Chatterji, CEO và đồng sáng lập của Galileo, nhận định rằng công cụ RAG & Agent Analytics là bước đột phá cho những người xây dựng hệ thống dựa trên RAG.
- Ra mắt công cụ mới của Galileo diễn ra trong bối cảnh nhiều công ty đang tìm cách tối ưu hóa hệ thống AI của mình.
📌 Công cụ mới của Galileo, tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) và giải pháp phân tích agent, đánh dấu một bước tiến quan trọng trong việc phát triển các giải pháp AI đáng tin cậy. Giao diện người dùng trực quan và khả năng tích hợp sâu vào quy trình làm việc hiện tại của người dùng giúp tăng tốc độ phát triển và tinh chỉnh hệ thống, đồng thời giảm chi phí và hạn chế các lỗi sai lệch trong phản hồi của AI.
Citations:
[1] https://www.pymnts.com/artificial-intelligence-2/2024/ai-firm-galileo-debuts-retrieval-augmented-generation-tool/
- Copilot trong OneDrive, có sẵn trên OneDrive for Web, sẽ cho phép bạn đặt câu hỏi và lấy thông tin từ các tệp trong OneDrive mà không cần mở các tệp đó.
- Tính năng này cũng có khả năng tóm tắt một hoặc nhiều tệp.
- Copilot trong OneDrive sẽ hỗ trợ các loại tệp sau: DOC, DOCX, FLUID, LOOP, PPT, PPTX, XLSX, PDF, ODT, ODP, RTF, ASPX, RTF, TXT, HTM và HTML.
- Để sử dụng Copilot trong OneDrive, người dùng cần có giấy phép Microsoft Copilot cho Microsoft 365.
📌 Copilot trong OneDrive là một tính năng mới được tích hợp trên OneDrive for Web, giúp người dùng truy vấn và thu thập thông tin từ các tệp lưu trữ mà không cần phải mở chúng. Điều này không chỉ tiết kiệm thời gian mà còn giảm bớt gánh nặng cho hệ thống máy tính của người dùng. Tính năng này hỗ trợ một loạt các định dạng tệp phổ biến, từ văn bản đến bảng tính và trình chiếu, đảm bảo rằng người dùng có thể dễ dàng truy cập vào nội dung cần thiết. Điều quan trọng là người dùng cần có giấy phép Microsoft Copilot cho Microsoft 365 để tận dụng tính năng này, điều này cho thấy Microsoft đang mở rộng hệ sinh thái sản phẩm của mình và tạo ra các giải pháp tích hợp sâu hơn vào công việc hàng ngày của người dùng.
- OpenAI đã phát hành ứng dụng VisionOS ChatGPT cho Apple Vision Pro, một sản phẩm nổi tiếng trong lĩnh vực thực tế ảo tăng cường (AR).
- Trong một video được OpenAI công bố, người dùng có thể thấy ChatGPT trả lời câu hỏi đơn giản hóa về siêu dẫn cho trẻ em.
- Mặc dù ChatGPT chủ yếu là ứng dụng dựa trên văn bản và không có yếu tố 3D, việc đưa nó lên nền tảng AR như Apple Vision Pro có vẻ không cần thiết.
- Phiên bản ChatGPT trên Vision Pro cho phép người dùng nói chuyện và nhận câu trả lời qua giọng nói, tương tự như phiên bản di động.
- ChatGPT có khả năng tạo hình ảnh, nội dung độc đáo, đưa ra lời khuyên và giải quyết vấn đề, nhưng hiện tại chưa có ứng dụng đặc biệt nào cho Vision Pro.
- Tuy nhiên, việc kết hợp AI và AR mở ra những khả năng thú vị cho tương lai, như việc gửi hình ảnh trực tiếp từ tầm nhìn của người dùng để AI tạo ra công thức nấu ăn hoặc giải thích vấn đề học tập.
- Mặc dù hiện tại ChatGPT chưa có nhiều ứng dụng cụ thể cho Vision Pro, nhưng với sự phát triển của AI tạo sinh video từ các công ty như Google, không khó để hình dung về video tương tác tạo sinh trong tương lai.
📌 Việc OpenAI phát hành ứng dụng VisionOS ChatGPT cho Apple Vision Pro là một bước tiến quan trọng trong việc kết hợp AI với AR. Dù ứng dụng này chưa tận dụng hết tiềm năng của AR, nhưng nó mở ra cánh cửa cho những khả năng tương tác mới giữa người dùng và AI. Người dùng có thể trò chuyện với AI, nhận câu trả lời qua giọng nói và tương lai có thể gửi hình ảnh trực tiếp từ tầm nhìn của họ để nhận phản hồi. Sự phát triển của AI tạo sinh video cũng hứa hẹn sẽ mang lại những trải nghiệm video tương tác tạo sinh, làm phong phú thêm trải nghiệm AR.
📌 Google Maps không chỉ là công cụ chỉ đường nữa mà đang trở thành trợ lý thông minh với khả năng tìm kiếm địa điểm một cách tự nhiên thông qua AI tạo sinh. Tính năng mới này hứa hẹn làm thay đổi cách người dùng tương tác với bản đồ và tìm kiếm thông tin, mặc dù vẫn cần phải đối mặt với thách thức về độ chính xác và tính hữu ích của thông tin AI sinh ra.
📌 Trong bối cảnh công nghệ AI phát triển không ngừng, PimEyes đánh dấu một bước tiến mới với khả năng tìm kiếm hình ảnh ngược dựa trên công nghệ nhận dạng khuôn mặt, mở ra cơ hội để cá nhân giám sát và bảo vệ hình ảnh của mình trên internet. Tuy nhiên, PimEyes cũng mang lại những lo ngại về quyền riêng tư và an toàn cá nhân, được một số người dùng coi là "giấc mơ của kẻ rình rập". Với sự cải thiện và phát triển không ngừng, công nghệ như PimEyes không chỉ nêu bật nhu cầu về sự đổi mới sáng tạo mà còn nhấn mạnh tầm quan trọng của việc thiết lập khuôn khổ pháp lý và đạo đức công nghệ mạnh mẽ, đảm bảo rằng AI phục vụ lợi ích của con người mà không gây hại cho quyền riêng tư và an toàn cá nhân.
PimEyes: Face Recognition Search Engine and Reverse Image Search
📌 Arc Search đưa ra một cách tiếp cận mới trong việc tìm kiếm thông tin trên internet, kết hợp AI, trình duyệt web và công cụ tìm kiếm vào một ứng dụng duy nhất. Điều này có thể thay đổi cách chúng ta tìm kiếm và tiếp nhận thông tin trên internet, đặc biệt với sự hỗ trợ của công nghệ AI tiên tiến và tính năng tự động tổng hợp nội dung.
📌 Bài viết cung cấp cái nhìn sâu sắc vào việc ứng dụng Generative AI trong việc cải thiện biểu đồ trực quan hóa dữ liệu, từ việc tự động hóa quá trình tạo mã cho đến tăng cường tính hấp dẫn bằng hình ảnh và nội dung. Sử dụng các công nghệ như Python Altair, GitHub Copilot, ChatGPT và DALL-E, người dùng có thể tạo ra biểu đồ chất lượng cao một cách nhanh chóng và hiệu quả hơn.
📌 Autogen Studio của Microsoft đánh dấu một bước tiến quan trọng trong việc tương tác và sử dụng AI agents trên thiết bị cá nhân. Với phiên bản 2, Autogen Studio không chỉ mở rộng khả năng xây dựng ứng dụng đa agent mà còn cung cấp một giao diện trực quan, dễ sử dụng. Tính năng mã nguồn mở và khả năng cài đặt qua pip làm cho nó dễ tiếp cận với nhiều người dùng. Sự hỗ trợ từ GPT-4 giúp giải quyết sự cố, làm cho việc triển khai và sử dụng Autogen Studio trở nên dễ dàng hơn. Sự phát triển kế hoạch tích hợp hỗ trợ cho các quy trình làm việc đa agent phức tạp hơn trong tương lai, cùng với khả năng cải thiện hệ thống, hứa hẹn sẽ đưa Autogen Studio trở thành công cụ không thể thiếu trong việc tạo và quản lý các giải pháp AI đa dạng.
📌 Deloitte đang định hình lại ngành dịch vụ chuyên nghiệp với việc triển khai chatbot AI tạo sinh PairD cho 75.000 nhân viên ở châu Âu và Trung Đông để cải thiện năng suất, nhấn mạnh sự cần thiết của việc xác minh thông tin để duy trì độ chính xác. Cùng với việc EY sử dụng AI phát hiện gian lận và KPMG tăng cường năng lực cho nhân viên mới, các công ty lớn đang thể hiện sự cam kết với công nghệ AI. Deloitte và các "Big Four" tiếp tục mở rộng việc sử dụng AI không chỉ để tối ưu hóa hoạt động nội bộ mà còn để cung cấp dịch vụ tư vấn nâng cao cho khách hàng, hướng tới việc cải thiện toàn diện ngành dịch vụ chuyên nghiệp.
📌 GPT4Free (G4F) là một gói AI đột phá cung cấp quyền truy cập "lách luật" vào các mô hình AI mạnh mẽ như GPT-3.5 và GPT-4. Sự xuất hiện của GPT4Free đã gây ra sự chú ý và tranh cãi trong lĩnh vực AI. Nó giải quyết vấn đề truy cập vào các mô hình AI tiên tiến nhưng cũng đặt ra hỏi về đạo đức và pháp luật. Số liệu cho thấy sự chấp nhận rộng rãi của nó, nhưng cần phải tìm kiếm sự cân bằng giữa việc tiếp cận và sử dụng đúng cách.
📌 Với những tính năng mới được hé lộ trên trang web của Google Bard AI, sự kỳ vọng của cộng đồng công nghệ đang tăng cao.Với 'Create Bots', người dùng có thể tùy biến AI theo nhu cầu riêng, tương tự các mô hình GPT tùy chỉnh của OpenAI. 'Gallery' hứa hẹn sẽ trở thành kho tài nguyên đầy cảm hứng và hướng dẫn. 'Tasks' làm dấy lên triển vọng về việc thực hiện các quy trình phức tạp một cách hiệu quả, trong khi khả năng tạo link công cộng thêm kích thước xã hội cho trải nghiệm AI. Cuối cùng, 'Power Up' dự kiến sẽ tăng cường khả năng tương tác của người dùng với AI, làm cho AI trở nên dễ tiếp cận với đông đảo người dùng.
📌 Năm 2023 đã chứng kiến sự đột phá không chỉ về mặt lịch sử mà còn về công nghệ thông qua việc ra mắt những công cụ AI hàng đầu. Từ GPT-4 của OpenAI với khả năng xử lý ngôn ngữ vượt trội, Bard và Gemini của Google mang đến khả năng xử lý đa dạng dữ liệu, đến ChatSpot của HubSpot cách mạng hóa tiếp thị và bán hàng. Grok của xAI nổi bật với phong cách hài hước và nổi loạn, trong khi DALL-E 3 mở rộng khả năng tạo hình ảnh sáng tạo. Microsoft Copilot định hình lại tương lai của tìm kiếm và trợ lý ảo, LLaMA của Meta đem đến sự đổi mới trong nghiên cứu AI, Einstein GPT của Salesforce cung cấp giải pháp CRM đột phá, và cuối cùng là Adobe Firefly, mở ra kỷ nguyên mới cho nghệ thuật số và thiết kế.
📌 Microsoft Edge: AI browser trên Android và iOS là một bước tiến đáng chú ý trong lĩnh vực trình duyệt, phản ánh xu hướng tích hợp AI vào các ứng dụng công nghệ. Sự đổi mới này, mặc dù gây ra nhiều ý kiến trái chiều, đánh dấu bước chuyển mình của Microsoft trong việc áp dụng AI, đặc biệt là với sự hỗ trợ của GPT-4 và Copilot, mở ra nhiều tiềm năng trong trải nghiệm duyệt web và tương tác người dùng.
📌 Invest Qatar hợp tác với Microsoft để phát triển Ai.SHA, một trợ lý AI sử dụng công nghệ GPT thông qua dịch vụ Azure OpenAI. Trợ lý ảo này cung cấp thông tin quan trọng giúp đưa ra quyết định kinh doanh, trả lời câu hỏi về cơ hội kinh doanh, hệ thống đầu tư, thiết lập và mở rộng doanh nghiệp tại Qatar. Ai.SHA tích hợp dữ liệu từ các đối tác như Bộ Thương mại và Công nghiệp, Trung tâm Tài chính Qatar, Công viên Khoa học và Công nghệ Qatar, và Cơ quan Khu vực Tự do Qatar. Sự ra đời của "Invest Qatar Gateway" - một nền tảng số hóa cho nhà đầu tư, cùng với sự hỗ trợ từ Ai.SHA, tạo điều kiện cho việc kết nối và phát triển các doanh nghiệp tại Qatar, từ đó củng cố vị thế của Qatar như một trung tâm đầu tư toàn cầu.
📌 GrokBot có tiềm năng làm thay đổi cách kết nối và giao tiếp trên nền tảng mạng xã hội X, nhưng hiện chỉ giới hạn cho người dùng X Premium+ ở Mỹ với giá $16 đến $22 mỗi tháng. Với các đối thủ cung cấp dịch vụ miễn phí và trả phí, và quen thuộc với việc tìm kiếm nội dung truyền thống, Grok cần thời gian để người dùng thích nghi với chức năng mới, và để xem liệu đây có phải là bước đi đúng đắn từ phía Elon Musk hay không.
Trong bối cảnh công nghệ AI đang không ngừng phát triển, WeHead đã có bước tiến táo bạo với việc ra mắt WeHead GPT Edition. Với giá 5.000 đô la, trợ lý AI này nhằm mục đích thu hẹp khoảng cách giữa con người và trí tuệ nhân tạo bằng cách cung cấp một giao diện vật lý để người dùng tương tác. Dự án tham vọng này đặt ra những câu hỏi thú vị về tương lai của sự đồng hành AI và tính khả thi của việc nhân cách hóa công nghệ.
WeHead GPT Edition, với thiết kế và khả năng đổi mới, hứa hẹn mang đến một trải nghiệm tương tác độc đáo với ChatGPT. Nhiều màn hình kết hợp lại để tạo thành một khuôn mặt, với nhiều avatar cho người dùng tham gia vào cuộc trò chuyện. Thiết bị được trang bị camera, có thể "nhìn thấy" người dùng, trong khi đầu của thiết bị di chuyển, thể hiện các cử chỉ như nghiêng người và gật đầu, tăng cường trải nghiệm đắm chìm. Tuy nhiên, câu hỏi thực sự vẫn còn: liệu đây có phải là tương lai của tương tác con người-AI hay chỉ là một tác phẩm đối thoại cầu kỳ?
Nỗ lực tạo ra sự đồng hành của WeHead Dự án tham vọng của WeHead trong lĩnh vực đồng hành AI đặt thiết bị chạy bằng GPT này như một người bạn, cung cấp sự hỗ trợ trong việc tạo ý tưởng, ra quyết định và tự suy ngẫm. Công ty đằng sau thiết bị nhấn mạnh tính đa năng của nó, tuyên bố rằng nó có thể cung cấp thông tin quý giá về bất kỳ chủ đề nào, dù ở nhà hay tại văn phòng. Tuy nhiên, hình dáng của WeHead lại làm dấy lên nghi ngờ về hiệu quả của nó như một người bạn thực sự.
Sự quyến rũ kỳ quặc của WeHead Mặc dù có thể mang theo những âm điệu dystopian, WeHead GPT Edition vẫn không thể phủ nhận sự quyến rũ của nó. Hoạt động như một người bạn đồng hành kiểu thú cưng mà không cần cho ăn hay dắt đi dạo, thiết bị này mang đến một hình thức tương tác đặc biệt nhưng đáng yêu. Trong một thế giới ngày càng chi phối bởi thời gian màn hình, việc có một cái đầu để nói chuyện giới thiệu một giải pháp kỳ quặc, mặc dù hài hước là người dùng vẫn bị ràng buộc bởi màn hình.
WeHead không giả vờ là một người bạn con người nhưng phục vụ như một lời nhắc nhở về tương lai kỳ lạ phía trước. Thiết bị mời gọi người dùng tham gia vào cuộc trò chuyện kỳ lạ nhưng hài hước, thách thức các chuẩn mực của tương tác con người-AI.
📌 WeHead đã có bước tiến táo bạo với việc ra mắt WeHead GPT Edition. Với giá 5.000 đô la, trợ lý AI này nhằm mục đích thu hẹp khoảng cách giữa con người và trí tuệ nhân tạo bằng cách cung cấp một giao diện vật lý để người dùng tương tác. WeHead GPT Edition đặt ra những câu hỏi cơ bản về hướng của sự đồng hành con người-AI. Liệu tác phẩm đối thoại 5.000 đô la này có phải là một cái nhìn vào tương lai hay chỉ là một chuyến đi du lịch kỳ quái vào thung lũng kỳ lạ? Trong một thế giới điên rồ với sự tiến bộ công nghệ, có lẽ nói chuyện với một cái đầu có thể là việc làm tỉnh táo nhất. Liệu chúng ta có đang ở bên bờ của một kỷ nguyên mới trong tương tác AI, hay WeHead GPT Edition chỉ là một lời nhắc nhở hài hước rằng tương lai vẫn không thể đoán trước?
📌 ViGPT, sản phẩm của VinBigdata, đánh dấu một bước tiến quan trọng trong việc phát triển trí tuệ nhân tạo tại Việt Nam. ViGPT được xây dựng trên nền tảng vững chắc với cơ sở dữ liệu hơn 600GB dữ liệu tiếng Việt tinh lọc, hỗ trợ xuất sắc trong tạo nội dung, tìm kiếm thông tin và trả lời các truy vấn chung. VinBigdata đang triển khai ViGPT trong các sản phẩm như trợ lý ảo pháp lý cho các cơ quan nhà nước và có kế hoạch tích hợp vào các ngành như giao thông, ngân hàng, tài chính và bảo hiểm. GS. Vũ Hà Văn, Giám đốc Khoa học tại VinBigdata, nhấn mạnh tầm quan trọng của việc ra mắt ViGPT, coi đó là minh chứng cho khả năng tự chủ và bảo vệ tiến bộ công nghệ của Việt Nam.
📌 Microsoft đã ra mắt ứng dụng Copilot cho Android, mang đến một trợ lý ảo thông minh hỗ trợ người dùng trong quản lý công việc hằng ngày. Copilot tích hợp với các dịch vụ của Microsoft và một số ứng dụng bên thứ ba, với tính năng tự động hóa và tổ chức thông tin, đồng thời đảm bảo quyền riêng tư và an toàn dữ liệu.
📌 PERSONA AI không chỉ tự hào với thành công trong cuộc thi GenAI Solution Competition 2023 mà còn đặt dấu ấn quan trọng trong hành trình đổi mới của AI tạo sinh. Với KGPT dẫn đầu, tương lai của AI tạo sinh hứa hẹn sẽ tiếp tục phát triển mạnh mẽ và hợp tác xuyên văn hóa.
Bài viết này cung cấp thông tin chi tiết về 7 công cụ AI có khả năng biến đổi hồ sơ LinkedIn từ bình thường thành nổi bật. Những công cụ này bao gồm AI Resume Builder, Profile Picture Editor, AI Writing Assistant, và nhiều công cụ khác, giúp người dùng nâng cao chất lượng hồ sơ, tăng cơ hội kết nối chuyên nghiệp và phát triển sự nghiệp.
Báo cáo được đề cập trong bài báo của VentureBeat nhấn mạnh tầm quan trọng của việc quản lý chất lượng và an toàn trong phát triển công cụ AI, đồng thời chỉ ra những hạn chế hiện tại trong việc giám sát và sửa chữa lỗi AI.
Kết luận: Google Gemini mở ra cơ hội mới cho người mới bắt đầu trong lĩnh vực nghệ thuật và thiết kế, với các tính năng như tạo hình ảnh nhanh chóng, tùy chỉnh thiết kế, học hỏi từ AI, hợp tác sáng tạo và phân tích tác phẩm. Công cụ này không chỉ giúp tiết kiệm thời gian và nâng cao sự sáng tạo mà còn là một phương tiện học hỏi và cải thiện kỹ năng thiết kế.
- Khảo sát trên 1.350 chuyên gia kinh doanh tại Hoa Kỳ, bao gồm các nhà tiếp thị, chỉ 63% sử dụng AI tạo sinh, còn lại không có kế hoạch bắt đầu.
- Mối lo ngại lớn là AI có thể đe dọa công việc, nhưng AI được cho là có thể tăng cường hiệu quả (77%) và chất lượng nội dung tiếp thị (79%).
- Về chất lượng và tính liên quan, 30% nhà tiếp thị cho rằng nội dung do AI tạo sinh kém hơn so với con người, và 28% thấy nội dung AI tạo sinh đôi khi không liên quan.
- Chỉ 23% tin tưởng vào độ chính xác của thông tin từ AI, trong khi 30% nhận thấy AI đôi khi sản xuất thông tin không chính xác.
- AI được coi là có ích cho 27% nhà tiếp thị, trong khi 30% thấy nó không quan trọng.
- Lo ngại về sự phụ thuộc quá mức vào AI và mất đi sự tương tác của con người trong tiếp thị.
- Các biện pháp giảm bớt lo ngại: tạo quy trình trao quyền, kiểm soát dữ liệu, tham gia đội ngũ trong quyết định, duy trì giao tiếp mở, thử nghiệm công cụ, và xây dựng lòng tin.
Kết luận: Bài viết phân tích thực trạng và mối lo ngại của nhà tiếp thị khi áp dụng AI trong ngành, với 63% không sử dụng AI tạo sinh. Lo ngại chủ yếu xoay quanh việc mất việc, chất lượng nội dung, độ chính xác, và mức độ hữu ích của công cụ AI. Để giảm bớt sự lo lắng, cần có sự kết hợp giữa con người và AI, cải thiện kỹ năng sử dụng và tăng cường giao tiếp trong đội ngũ.
- Tóm tắt nội dung bài viết về cách thiết lập API Gemini Pro của Google:
- Gemini Pro API cho phép truy cập các mô hình AI sinh mới nhất của Google.
- Gemini Pro xử lý cả văn bản và hình ảnh, cạnh tranh với ChatGPT.
- Có 2 mô hình: gemini-pro cho nhiệm vụ văn bản, gemini-pro-vision kết hợp văn bản và hình ảnh.
- Yêu cầu hình ảnh: định dạng PNG, JPEG, WebP, kích thước tối đa 4MB.
- Các bước cài đặt: đăng ký API, chọn mô hình, tích hợp API, tinh chỉnh cài đặt.
- Gemini Pro API đem lại khả năng xử lý dữ liệu tiên tiến cho các ứng dụng.
- Tóm tắt nội dung bài viết về công cụ tạo âm thanh AI Audiobox của Meta:
- Audiobox là công cụ tạo âm thanh và nhân bản giọng nói của Meta, kế nhiệm Voicebox.
- Cho phép tạo hiệu ứng âm thanh từ văn bản, loại bỏ tiếng ồn khỏi bản ghi âm, tạo giọng nói mới.
- Người dùng có thể thử các tính năng trên trang web chính thức của Audiobox.
- Tạo mẫu âm thanh, xem trước và tải xuống máy tính.
- Audiobox được đánh giá cao về độ chính xác và khả năng tạo âm thanh.
- Meta lo ngại về việc lạm dụng công cụ để tạo giọng nói giả mạo.
- Microsoft giới thiệu dịch vụ AI model-as-a-service trong Azure AI, bao gồm Meta's Llama 2 và GPT-4 Turbo với Vision.
- Llama 2 là một công cụ hỗ trợ phát triển ứng dụng AI với khả năng xử lý ngôn ngữ mạnh mẽ.
- GPT-4 Turbo kết hợp xử lý ngôn ngữ tự nhiên với computer vision, mở rộng khả năng của các ứng dụng multimodal.
- Phi-2 là một mô hình ngôn ngữ nhỏ (SLM) với 2,7 tỉ tham số, cải thiện về khả năng suy luận và an toàn so với Phi-1-5.
- DeciLM-7B, một mô hình sinh văn bản chỉ với bộ giải mã, có 7,04 tỉ tham số.
- DeciDiffusion 1.0 là mô hình sinh ảnh từ văn bản dựa trên kỹ thuật diffusion.
- DeciCoder 1B là mô hình hoàn thiện code với 1 tỉ tham số, huấn luyện trên dữ liệu Python, Java và JavaScript.
- Orca 2 cải thiện từ mô hình ngôn ngữ nhỏ, với hiệu suất tương đương hoặc tốt hơn các mô hình lớn hơn 5-10 lần.
- Mixtral 8x7b sử dụng kỹ thuật Mixture of Experts, có hiệu suất tương đương mô hình 12 tỉ tham số.
- Azure AI Studio hỗ trợ benchmarking và đánh giá mô hình, giúp lựa chọn mô hình phù hợp dễ dàng hơn.
Cùng với việc mở rộng danh mục mô hình AI, Microsoft cũng hỗ trợ cho các công ty như Dentons áp dụng các mô hình AI vào thực tiễn, chẳng hạn như tổng hợp hợp đồng pháp lý, giảm thiểu thời gian làm việc từ 4 giờ xuống còn 5 phút. Điều này không chỉ thúc đẩy hiệu suất mà còn chứng tỏ tiềm năng lớn của AI trong việc cải tiến công nghệ và phát triển ứng dụng.
Microsoft Azure AI nâng cấp với AI tạo sinh và multimodal: Llama 2 và GPT-4 Turbo.
Microsoft Azure AI, Llama 2, GPT-4 Turbo, AI tạo sinh, multimodal, Phi-2, DeciLM-7B, DeciDiffusion, DeciCoder, Orca 2, Mixtral 8x7b.
Microsoft Azure AI mở rộng với các mô hình AI đột phá: Phi-2, Orca 2, Llama 2.
- Startup Oath Care tại San Francisco ra mắt ứng dụng ParentGPT vào tháng 10 giúp cha mẹ mới giải quyết lo lắng về nuôi dạy con cái.
- Michelle Stephens, đồng sáng lập, là bác sĩ nhi khoa, nhận thấy thiếu hỗ trợ cho cha mẹ, đặc biệt là mẹ bầu với tình trạng trầm cảm sau sinh chưa được chẩn đoán.
- ParentGPT dùng AI tạo sinh, hỗ trợ trực tiếp từ chuyên gia lên đến cấp độ cộng đồng, cung cấp thông tin dựa trên tài liệu đã được xem xét nghiêm ngặt từ 20-30 nguồn đáng tin cậy.
- AI cập nhật thông tin liên tục, giúp ứng dụng không ngừng cải thiện với dữ liệu đã được kiểm chứng.
- Ứng dụng cung cấp tính năng nhìn thấy nguồn gốc thông tin, cho phép cha mẹ tìm kiếm ý kiến thứ hai khi cần thiết.
- Hỗ trợ cả hai hệ điều hành iOS và Android, đặc biệt quan tâm đến việc phổ cập cho người thu nhập thấp sở hữu điện thoại Android.
- Tạo điều kiện cho người dùng đa dạng kết nối với bác sĩ hoặc chuyên gia có bối cảnh tương tự, đảm bảo thông tin dễ hiểu cho mọi trình độ học vấn.
Kết luận: ParentGPT, sản phẩm của Oath Care, cung cấp một công cụ AI tạo sinh đặc biệt dành cho cha mẹ mới, với khả năng cung cấp thông tin và tư vấn dựa trên dữ liệu chính xác và đáng tin cậy, hỗ trợ đa nền tảng và chú trọng đến sự đa dạng và tiếp cận rộng rãi.
Ứng dụng AI giúp cha mẹ mới giảm lo lắng với thông tin chính xác và hỗ trợ đa dạng.
ParentGPT, Oath Care, AI tạo sinh, hỗ trợ cha mẹ mới, trầm cảm sau sinh, nguồn thông tin đáng tin cậy, đa nền tảng iOS và Android.
ParentGPT: Ứng dụng hỗ trợ cha mẹ mới với sự chính xác của AI tạo sinh.
- Tóm tắt nội dung bài viết:
- Grok - chatbot AI mới của Elon Musk - là mối đe dọa nghiêm trọng đối với ChatGPT.
- Grok vượt trội so với một số đối thủ ở khả năng tóm tắt tin tức thời gian thực.
- Grok có thể đọc và tóm tắt các bài báo, cung cấp cái nhìn tổng quan nhanh chóng.
- Điều này là thách thức lớn với ChatGPT do hạn chế về khả năng hiểu và tóm tắt văn bản.
- Grok có tiềm năng mở rộng khả năng AI vào các lĩnh vực như tóm tắt tin tức, trợ lý ảo.
- Salesforce nâng cấp khả năng AI bằng cách hỗ trợ cơ sở dữ liệu vector và cải tiến trợ lý AI tạo sinh Einstein Copilot.
- Trước sự kiện World Tour NYC, công ty thông báo tích hợp cơ sở dữ liệu vector vào Einstein 1 Platform, giúp các đội ngũ dễ dàng áp dụng AI vào quy trình làm việc.
- Salesforce Data Cloud, nền tảng dữ liệu nội bộ, kết hợp dữ liệu từ nhiều điểm tiếp xúc với khách hàng để tạo hồ sơ khách hàng thống nhất theo thời gian thực.
- Hỗ trợ cơ sở dữ liệu vector cho phép chuyển đổi dữ liệu không cấu trúc như PDF, email, văn bản, và bản ghi thành định dạng vector để sử dụng trong AI tạo sinh và phân tích dữ liệu trong CRM.
- Einstein Copilot sẽ tích hợp khả năng tìm kiếm dựa trên AI, cho phép truy vấn dữ liệu kinh doanh, cả cấu trúc và không cấu trúc, và cung cấp thông tin chính xác trong quy trình làm việc.
- Dịch vụ sẽ được phát hành chung vào tháng 2 năm 2024, với việc triển khai thử nghiệm hỗ trợ cơ sở dữ liệu vector và tìm kiếm AI cùng tháng.
Kết luận: Salesforce đang tiến một bước lớn trong việc cải tiến nền tảng AI của mình bằng việc hỗ trợ cơ sở dữ liệu vector và cải thiện Einstein Copilot, triển khai vào tháng 2 năm 2024. Sự kết hợp giữa dữ liệu cấu trúc và không cấu trúc được dự đoán sẽ biến đổi cách doanh nghiệp sử dụng dữ liệu để tạo ra trí tuệ nhân tạo, phân tích dữ liệu và tự động hóa trong CRM.
- Google giới thiệu mô hình AI mới là Gemini Pro dành cho các nhà phát triển, cung cấp miễn phí.
- Gemini Pro hỗ trợ 38 ngôn ngữ và có thể sử dụng trong hơn 180 quốc gia và lãnh thổ.
- Mô hình này có khả năng xử lý văn bản và tạo ra đầu ra văn bản, đồng thời cung cấp điểm cuối multimodal cho cả văn bản và hình ảnh.
- SDKs được cung cấp cho Python, Android (Kotlin), Node.js, Swift và JavaScript, giúp tích hợp dễ dàng vào môi trường lập trình sẵn có.
- Gemini Pro được tích hợp vào sản phẩm của Google như Pixel 8 Pro và Bard, một nền tảng sáng tạo.
- Google AI Studio là công cụ phát triển dựa trên web, cung cấp 60 yêu cầu mỗi phút miễn phí.
- Các dự án có thể chuyển đổi mượt mà từ Google AI Studio sang Vertex AI trên Google Cloud để đáp ứng nhu cầu cá nhận hóa và tính năng doanh nghiệp.
Kết luận: Google mang đến cơ hội lớn cho cộng đồng phát triển với việc cung cấp quyền truy cập miễn phí vào Gemini Pro, một mô hình AI mạnh mẽ với khả năng xử lý ngôn ngữ đa dạng và hỗ trợ multimodal. Sự hỗ trợ rộng khắp với 38 ngôn ngữ và tích hợp SDKs đa ngôn ngữ, cùng với việc hòa nhập vào các sản phẩm của Google và sự chuyển tiếp linh hoạt sang Vertex AI trên Google Cloud, mở ra triển vọng mới trong việc phát triển ứng dụng AI toàn cầu.
Google Gemini Pro: Mô hình AI mới miễn phí cho nhà phát triển
Google AI Studio và Vertex AI: Công cụ phát triển và tùy chỉnh cho các dự án AI
SDKs cho AI: Hỗ trợ đa ngôn ngữ trong lập trình với Gemini Pro by Google
Google ra mắt Gemini Pro miễn phí cho nhà phát triển, hỗ trợ đa ngôn ngữ và tích hợp SDK
AI tạo sinh, nguồn mở, multimodal, thủy vân, phơi nhiễm, vô danh, agent, framework
Google Unveils Free Access to Gemini Pro for Developers with Multimodal AI Support
- Poe là nền tảng trực tuyến và ứng dụng cho phép truy cập nhiều AI chatbot như ChatGPT, Claude và nhiều hơn nữa, tổng hợp trong một hub duy nhất.
- Người dùng có thể tạo AI chatbot riêng của mình trên Poe và kiếm tiền từ việc người khác sử dụng chúng.
- AI chatbot có sẵn bao gồm ChatGPT từ OpenAI, DALL-E-3 từ OpenAI, Google PaLM, Llama 2 từ Meta, Claude Instant và Claude 2 từ Anthropic, StableDiffusionXL từ Stability AI.
- Poe có sẵn trên web, ứng dụng desktop và như ứng dụng di động cho iOS và Android.
- Phiên bản miễn phí của Poe cung cấp quyền truy cập vào nhiều AI chatbot nhưng giới hạn truy cập vào các phiên bản mới như GPT-4, DALL-E-3 và Claude 2.
- Gói trả phí của Poe có giá 19,99 USD mỗi tháng hoặc 16,67 USD mỗi tháng nếu đăng ký hàng năm.
- Người dùng có thể kiếm tiền từ Poe bằng cách tạo chatbot thu hút người dùng mới đăng ký hoặc khi người dùng xem thủy vân trước khi đăng ký.
Poe đại diện cho một bước tiến mới trong lĩnh vực trí tuệ nhân tạo, cung cấp một không gian đa dạng cho các AI chatbot từ nhiều nhà phát triển khác nhau. Với khả năng tạo và kiếm tiền từ chatbot riêng, Poe mở ra cơ hội cho người dùng không chỉ tương tác mà còn đóng góp vào cộng đồng AI này. Giá cả linh hoạt từ miễn phí đến gói trả phí cũng tăng khả năng tiếp cận cho mọi người dùng.
- Tóm tắt nội dung bài viết về các công cụ phát hiện nội dung AI:
- Các công cụ như ChatGPT tạo ra nội dung giống người. Công cụ phát hiện AI phân tích các dấu hiệu nhận biết nội dung do AI tạo ra.
- Undetectable, Winston, Originality, GLTR, Sapling, Content at Scale, Copyleaks, Crossplag, GPTZero, Writer là 10 công cụ phát hiện AI tốt nhất.
- Mỗi công cụ có điểm mạnh khác nhau về tính chính xác, tính năng, giá cả, phù hợp với nhu cầu sử dụng khác nhau.
- Cần cân nhắc nhu cầu cụ thể để chọn công cụ phù hợp: phân tích cá nhân hay hàng loạt, ưu tiên tính năng hay giá cả.
- Công cụ phát hiện AI hỗ trợ xác nhận tính xác thực của nội dung, đặc biệt quan trọng trong giáo dục và xuất bản.
- Tóm tắt nội dung bài viết:
- Mistral AI hợp tác với Google Cloud, phát hành mô hình ngôn ngữ lớn mở Mixtral-8x7B.
- Mixtral-8x7B có hiệu năng tốt hơn các mô hình khác, giấy phép sử dụng rộng rãi.
- Hợp tác đưa mô hình của Mistral lên cơ sở hạ tầng AI của Google Cloud.
- Tích hợp mô hình Mistral-7B vào Google Vertex AI Model Garden.
- Các mô hình Mistral sẽ có sẵn trên Google Cloud Marketplace.
- Đối tác mang lại giải pháp AI an toàn, bảo mật cho các tổ chức.
- Sự kết hợp giữa đổi mới của Mistral và cơ sở hạ tầng của Google Cloud.
- Tóm tắt nội dung bài viết:
- Mozilla giới thiệu Solo AI - công cụ xây dựng website dành cho freelancer và doanh nhân độc lập.
- Solo AI sử dụng AI để tạo nội dung và hình ảnh cho website mà người dùng có thể chỉnh sửa sau đó.
- Người dùng chỉ cần cung cấp thông tin cơ bản về dự án, Solo AI sẽ xây dựng website trong vài phút.
- Động thái này nằm trong chiến lược của Mozilla hướng đến xây dựng hệ sinh thái AI mở và đáng tin cậy.
- Mozilla muốn trở thành nền tảng AI đáng tin cậy, thay thế cho các công ty công nghệ lớn.
- Việc Mozilla có thể cạnh tranh với các ông lớn công nghệ về AI vẫn còn phải chứng minh.