- Tiện ích mở rộng Ultra Chrome cho ChatGPT đã được phát triển bởi Vlad Holtz, giúp người dùng dễ dàng tạo ứng dụng thông qua đối thoại
- Quy trình phát triển ứng dụng bao gồm các bước:
+ Lên ý tưởng và tính năng ứng dụng
+ Phác thảo cấu trúc và giao diện người dùng
+ Viết mã HTML cho bố cục cơ bản
+ Thêm CSS để tạo kiểu và responsive
+ Triển khai JavaScript cho tính năng tương tác
+ Kiểm thử và hoàn thiện ứng dụng
- Các ví dụ ứng dụng có thể tạo:
+ Ứng dụng đếm từ với tính năng phân tích cảm xúc
+ Bảng điều khiển phân tích doanh số khóa học AI
+ Trò chơi Space Invaders
+ Công cụ quản lý công việc
- Tính năng nổi bật của tiện ích Ultra:
+ Luồng nhắc nhiều bước
+ Thư viện prompt có sẵn
+ Tích hợp ứng dụng web
+ Cải thiện khả năng hiểu ngữ cảnh
- So sánh với Claude AI:
+ ChatGPT phù hợp người mới với phương pháp từng bước
+ Claude thiên về lập trình tích hợp cho người dùng nâng cao
- Khả năng cải tiến liên tục:
+ Thêm tính năng mới
+ Tối ưu hiệu suất
+ Cập nhật theo phản hồi người dùng
+ Điều chỉnh theo nhu cầu thị trường
📌 Tiện ích Ultra Chrome biến ChatGPT thành công cụ phát triển ứng dụng toàn diện, phù hợp mọi đối tượng từ người mới đến chuyên gia. Người dùng có thể tạo đa dạng ứng dụng từ công cụ đếm từ đến trò chơi, với quy trình rõ ràng theo từng bước và khả năng cải tiến liên tục.
https://www.geeky-gadgets.com/you-can-now-create-apps-in-chatgpt/
- Hơn 25% mã nguồn mới tại Google được tạo ra bởi AI, sau đó được kỹ sư kiểm tra và chấp nhận
- Alphabet báo cáo doanh thu quý 3/2024:
+ Tổng doanh thu: 88,3 tỷ USD
+ Google Services (bao gồm Search): 76,5 tỷ USD, tăng 13% so với cùng kỳ
+ Google Cloud (bao gồm hạ tầng AI): 11,4 tỷ USD, tăng 35% so với cùng kỳ
- Thu nhập hoạt động:
+ Google Services: 30,9 tỷ USD, tăng từ 23,9 tỷ USD năm trước
+ Google Cloud: 1,95 tỷ USD, tăng mạnh từ 270 triệu USD năm trước
- Google tập trung phát triển nhiều tính năng AI:
+ Chatbot tùy chỉnh được hỗ trợ bởi Gemini (gọi là "Gems")
+ Tự động ghi chú bằng AI trong Google Meet
+ Công cụ AI tạo sinh hỗ trợ người sáng tạo YouTube
+ Dòng điện thoại Pixel 9 tích hợp nhiều công cụ AI
- Doanh thu quảng cáo và đăng ký YouTube vượt 50 tỷ USD trong 4 quý gần nhất
- Google đang đối mặt với thách thức pháp lý sau phán quyết tháng 8/2024 về độc quyền trong thị trường tìm kiếm và quảng cáo
📌 AI đang đóng vai trò then chốt trong hoạt động của Google, tạo ra 25% mã nguồn mới và góp phần vào doanh thu ấn tượng 88,3 tỷ USD trong quý 3/2024. Tuy nhiên, công ty đang đối mặt với nguy cơ bị chia tách sau phán quyết độc quyền.
https://www.theverge.com/2024/10/29/24282757/google-new-code-generated-ai-q3-2024
Anthropic đã mở rộng khả năng của Claude với việc cho phép chatbot này viết và chạy mã JavaScript. Điều này giúp Claude phân tích dữ liệu chính xác hơn và tạo hình ảnh tương tác. Tính năng mới không chỉ tăng độ tin cậy của Claude mà còn mang lại sự tiện ích cho các lĩnh vực như quản lý sản phẩm và phân tích tài chính, cạnh tranh trực tiếp với các công cụ của Google và OpenAI.
https://techcrunch.com/2024/10/24/anthropics-ai-can-now-run-and-write-code/
• Theo dự báo, công cụ AI dành cho nhà phát triển có thể tăng năng suất lên 30%, tiềm năng đóng góp hơn 1,5 nghìn tỷ USD vào GDP toàn cầu.
• Khảo sát của MIT Technology Review Insights với hơn 300 lãnh đạo doanh nghiệp về việc sử dụng AI tạo sinh trong chu trình phát triển phần mềm (SDLC).
• Chỉ 12% lãnh đạo cho rằng AI tạo sinh đã thay đổi căn bản cách họ phát triển phần mềm hiện nay. Tuy nhiên, 38% tin rằng nó sẽ thay đổi đáng kể SDLC trong 1-3 năm tới, 31% dự đoán điều này sẽ xảy ra trong 4-10 năm.
• 94% người được hỏi đang sử dụng AI tạo sinh cho phát triển phần mềm ở một mức độ nào đó. 20% mô tả nó là "phần được tích hợp tốt, đã được thiết lập" trong SDLC, 33% báo cáo nó "được sử dụng rộng rãi" trong ít nhất một phần của SDLC.
• 29% vẫn đang "tiến hành thử nghiệm nhỏ" hoặc áp dụng công nghệ này trên cơ sở từng nhân viên.
• 82% sử dụng AI tạo sinh trong ít nhất hai giai đoạn của SDLC, 26% sử dụng trong bốn giai đoạn trở lên.
• Các trường hợp sử dụng phổ biến bao gồm: thiết kế và tạo mẫu tính năng mới, hợp lý hóa phát triển yêu cầu, đẩy nhanh kiểm thử, cải thiện phát hiện lỗi và nâng cao chất lượng mã tổng thể.
• 46% cho biết AI tạo sinh đã đáp ứng kỳ vọng, 33% nói nó "vượt quá" hoặc "vượt xa" kỳ vọng.
• 49% lãnh đạo tin rằng các công cụ AI tiên tiến như trợ lý và agent sẽ dẫn đến tăng hiệu quả hoặc tiết kiệm chi phí. 20% tin rằng những công cụ này sẽ cải thiện thông lượng hoặc rút ngắn thời gian ra thị trường.
• Carolina Dolan Chandler, Giám đốc kỹ thuật số tại Globant, nhận xét: "Có sự tương đồng giữa những gì đang diễn ra với AI và khi chuyển đổi số lần đầu xảy ra. AI là một sự thay đổi toàn diện. Nó sẽ ảnh hưởng đến mọi vai trò công việc theo mọi cách. Nhưng đó sẽ là một quá trình lâu dài."
📌 AI tạo sinh đang nhanh chóng thâm nhập vào quy trình phát triển phần mềm, với 94% doanh nghiệp đã áp dụng ở một mức độ nào đó. Tuy nhiên, tiềm năng vẫn còn rất lớn, với 69% dự đoán những thay đổi đáng kể trong 10 năm tới. Các công cụ AI tiên tiến như agent được kỳ vọng sẽ mang lại những bước tiến quan trọng về hiệu quả và đổi mới.
https://www.technologyreview.com/2024/10/17/1105295/transforming-software-with-generative-ai/
#MIT
• Google Cloud giới thiệu Gemini Code Assist Enterprise, trước đây gọi là Duet AI, nhằm cạnh tranh với nền tảng lập trình doanh nghiệp của GitHub.
• Tính năng mới giúp lập trình viên code nhanh hơn bằng cách hiểu codebase của tổ chức, có cửa sổ ngữ cảnh lớn và cho phép tùy chỉnh.
• Giá sử dụng: 45 USD/tháng/người dùng hoặc 19 USD/tháng với đăng ký hàng năm.
• Nền tảng đưa ra gợi ý code dựa trên codebase cục bộ, giúp tạo hoặc chuyển đổi code phù hợp hơn với ứng dụng.
• Kết nối trực tiếp với các dịch vụ Google Cloud khác như Firebase, Databases, BigQuery, Colab Enterprise, Apigee và Application Integration.
• Tính năng tùy chỉnh code dựa trên thư viện nội bộ, hỗ trợ đánh chỉ mục thư viện GitHub và GitLab.
• Nhấn mạnh vào bảo mật cấp doanh nghiệp: không sử dụng dữ liệu khách hàng để huấn luyện mô hình Gemini, cho phép kiểm soát hoàn toàn các kho lưu trữ được đánh chỉ mục.
• Google cung cấp bồi thường pháp lý cho bất kỳ code nào được tạo bởi Gemini Code Assist Enterprise.
• Xu hướng trợ lý lập trình tập trung vào doanh nghiệp đang phát triển: GitHub Copilot Enterprise, Oracle's coding assistant, Harness.
• Việc Google tham gia thị trường nhấn mạnh sự cạnh tranh ngày càng tăng trong lĩnh vực trợ lý lập trình và nhu cầu về giải pháp dành riêng cho doanh nghiệp.
• Tích hợp trợ lý lập trình vào môi trường phát triển mang lại tính linh hoạt cho các công ty muốn cải thiện năng suất.
• Khả năng kiểm tra code nhanh chóng và sửa lỗi trên codebase cục bộ giúp công ty triển khai ứng dụng nhanh hơn.
📌 Google ra mắt Gemini Code Assist Enterprise, cạnh tranh trực tiếp với GitHub trong lĩnh vực trợ lý lập trình doanh nghiệp. Tính năng mới giúp lập trình viên code nhanh hơn, hiểu codebase tổ chức và tăng cường bảo mật với giá 45 USD/tháng/người dùng.
https://venturebeat.com/ai/googles-gemini-enterprise-coding-assistant-shows-enterprise-focused-coding-is-growing/
- Sự gia tăng công cụ lập trình AI trong hai năm qua đã thay đổi cách thức làm việc của lập trình viên.
- Các công cụ nổi bật như GitHub Copilot và Claude từ Anthropic đã trở thành xu hướng chính trong ngành.
- Sự phổ biến của các công cụ low-code và no-code đang biến đổi hoàn toàn bối cảnh phát triển phần mềm.
- Nhiều công cụ phát triển như Tower Git GUI có mức phí từ 69 đến 99 USD mỗi người mỗi năm, là khoản đầu tư nhỏ so với mức lương của lập trình viên.
- Tại Mỹ, lương của lập trình viên dao động từ 40.000 đến 150.000 USD mỗi năm, với mức trung bình khoảng 89.190 USD.
- Ở Ấn Độ, lương hàng năm dao động từ 1.2 đến 13 lakh INR (khoảng 1.500 đến 16.000 USD), với các lập trình viên toàn thời gian thường có chi phí từ 10.000 đến 25.000 USD mỗi năm.
- Đầu tư vào các công cụ này có thể mang lại lợi ích về năng suất lớn, nhanh chóng bù đắp chi phí.
- Subhojit Mondal, người sáng lập SACHI, cho rằng các công cụ này giúp nhiều người tạo ra giải pháp phần mềm mà không cần kỹ năng lập trình truyền thống.
- Thị trường việc làm phân hóa rõ rệt giữa các ứng viên: dưới trung bình, trung bình và xuất sắc; ứng viên xuất sắc có thể nhận được tăng lương đáng kể.
- Sumit Mansinghani từ PepsiCo cho rằng lương đang tiến gần đến điểm bão hòa, với áp lực kinh tế sẽ làm giảm mức tăng trong tương lai.
- Việc sử dụng AI trong lập trình giúp thu hẹp khoảng cách kinh nghiệm giữa các lập trình viên junior và senior.
- Các công ty công nghệ lớn đang dựa vào lập trình viên để cải thiện nền tảng của họ; trong khi đó, lãnh đạo các công ty không phải công nghệ tìm kiếm nhiều lập trình viên hơn để thúc đẩy chuyển đổi số.
- Khoảng 250 startup đang phát triển công cụ lập trình AI; theo khảo sát GitHub, hơn 97% trong số 2.000 người tham gia ở Mỹ, Brazil, Đức và Ấn Độ sử dụng công cụ AI tại nơi làm việc.
- Một nghiên cứu cho thấy các công cụ gợi ý mã AI có thể tăng năng suất lập trình viên lên tới 26%.
- Mặc dù có lợi ích, nhưng AI vẫn có những hạn chế; một khảo sát cho thấy chỉ 35% lập trình viên cảm thấy AI tiết kiệm được từ 10% đến 20% thời gian của họ.
- Nhiều chuyên gia lo ngại rằng sự gia tăng công nghệ AI sẽ dẫn đến mất việc làm cho một số vị trí thấp hơn trong ngành.
📌 Sự gia tăng công cụ lập trình AI đang thay đổi cách thức làm việc của lập trình viên và thị trường lao động. Mặc dù lương cao nhưng chi phí đầu tư vào công cụ thấp hơn nhiều so với lợi ích về năng suất mà chúng mang lại.
https://analyticsindiamag.com/ai-trends-future/coding-is-getting-cheaper-and-so-are-coders/
• OpenAI o1 được biết đến với khả năng suy luận xuất sắc, nhưng nhiều nhà phát triển báo cáo rằng các mô hình này không phải lựa chọn tốt nhất cho các tác vụ liên quan đến lập trình.
• Một nhà phát triển trên Hacker News cho biết mô hình o1-preview có hiện tượng ảo giác, đến mức bắt đầu phản hồi trong bối cảnh các thư viện và hàm không tồn tại.
• Khi so sánh nhiều mô hình AI tạo sinh trên LiveBench cho các bài kiểm tra hoàn thành mã, o1-mini xếp hạng thấp hơn mô hình nguồn mở Qwen2-72B và GPT-4.
• Thời gian phản hồi chậm là vấn đề lớn đối với các nhà phát triển làm việc với thời hạn. Nhiều người báo cáo rằng o1 thường bị kẹt sau giai đoạn suy nghĩ và không phản hồi.
• Mike Young đánh giá rằng thời gian phản hồi tăng trong giai đoạn suy nghĩ có thể là một trở ngại lớn, đặc biệt khi cần câu trả lời nhanh. Mô hình đôi khi bị kẹt ở chế độ suy nghĩ và không bao giờ trả lời - xảy ra khoảng 40% thời gian.
• Một người dùng Reddit chia sẻ trải nghiệm sử dụng o1 để xây dựng ứng dụng tệ hơn cả phiên bản miễn phí của ChatGPT.
• Dan McAteer, một nhà phát triển phần mềm, đề xuất sử dụng o1-mini làm kiến trúc sư cho dự án, tạo ra tài liệu thiết kế chi tiết với hướng dẫn từng bước cho mỗi module.
• McAteer sử dụng Claude Sonnet 3.5 làm nhà phát triển để tạo mã dựa trên tài liệu kiến trúc do o1-mini tạo ra.
• Sully Omar, đồng sáng lập và CEO của Cognosys, cũng đề cập rằng o1-mini hầu như vô dụng trong việc lập trình và thường bỏ sót các chi tiết nhỏ.
• OpenAI đã phát hành Canvas, một nền tảng lập trình sử dụng ChatGPT 4o thay vì các mô hình o1.
• Các mô hình o1 chủ yếu hướng đến suy luận. Đối với lập trình, những mô hình này có thể hữu ích trong việc thiết kế nền tảng, và sau đó, các mô hình như Sonnet có thể đảm nhận phần tạo mã.
📌 OpenAI o1 được đánh giá là kiến trúc sư AI hơn là lập trình viên, với khả năng suy luận tốt nhưng hiệu suất coding kém. Nhà phát triển đề xuất kết hợp o1 làm kiến trúc sư và Claude làm lập trình viên để tối ưu hóa quá trình phát triển phần mềm.
https://analyticsindiamag.com/developers-corner/why-openai-o1-sucks-at-coding/
• Cursor AI là một IDE mới được xây dựng từ đầu để hỗ trợ lập trình bằng AI, đang thay thế VS Code của Microsoft và được coi là trình soạn thảo mã AI thực sự
• Cursor là một nhánh của VS Code nên có giao diện quen thuộc, cho phép nhập các extension, theme và keybinding chỉ bằng một cú nhấp chuột
• Cung cấp mô hình AI riêng 'cursor-small' và hỗ trợ nhiều mô hình cao cấp từ OpenAI, Google và Anthropic như OpenAI o1, Claude 3.5 Sonnet, GPT-4, v.v.
• Cursor học từ codebase của người dùng và tạo embedding trên thiết bị để dự đoán chính xác lần chỉnh sửa tiếp theo. Người dùng có thể chọn chế độ riêng tư để không đào tạo dữ liệu
• Tính năng nổi bật là Composer, kích hoạt bằng Ctrl + K, cho phép nhập hướng dẫn bằng ngôn ngữ tự nhiên để tạo mã ngay lập tức
• Trong Composer, có thể sử dụng @ để gắn thẻ file, thư mục, liên kết web, codebase, Git và thêm hướng dẫn chi tiết về mục tiêu cần đạt được
• Cửa sổ chat (Ctrl + L) cho phép đặt câu hỏi, trò chuyện với codebase cục bộ và nhận gợi ý mã
• Cursor cũng cho phép debug mã bằng AI, tích hợp tốt trong môi trường và nhanh chóng đề xuất thay đổi trong cửa sổ Chat
• Cursor cung cấp 2 tuần dùng thử miễn phí bản Pro sử dụng Claude 3.5 Sonnet cho việc hoàn thành mã và các tác vụ khác
• Người dùng có thể thiết lập quy tắc cho trình soạn thảo AI bằng file .cursorrules cho từng repo, thậm chí định nghĩa quy tắc AI khác nhau cho các file cụ thể
📌 Cursor AI là IDE mới hứa hẹn thay thế VS Code với trợ lý AI tích hợp mạnh mẽ. Nó học từ codebase, hỗ trợ nhiều mô hình AI cao cấp và có tính năng Composer độc đáo cho phép tạo mã bằng ngôn ngữ tự nhiên. Với khả năng debug bằng AI, Cursor mang lại trải nghiệm lập trình AI toàn diện.
https://beebom.com/what-is-cursor-ai-editor/
- Gartner dự báo AI sẽ đòi hỏi 80% lực lượng lao động kỹ sư phải nâng cao kỹ năng đến năm 2027, nhưng đây không phải toàn bộ câu chuyện.
- Việc nâng cao kỹ năng và học hỏi công nghệ mới là khía cạnh then chốt trong công việc của mọi kỹ sư phần mềm, không có gì đáng ngạc nhiên.
- Gartner mô tả 3 giai đoạn tác động của AI: ngắn hạn tăng năng suất khiêm tốn, trung hạn thay đổi quy trình làm việc, dài hạn cần nhiều kỹ sư phần mềm lành nghề hơn.
- Tuy nhiên, báo cáo của Gartner còn thiếu sót 4 khía cạnh quan trọng:
+ Sửa đổi mã để đáp ứng yêu cầu: Mỗi lần chạy đầu tiên sau khi viết mã luôn có lỗi. AI khó sửa đổi từng phần nhỏ theo yêu cầu.
+ Kiểm thử và kiểm soát chất lượng: Cần phát triển quy trình kiểm thử cho lập trình AI vì AI thường bị ảo giác và viết mã không chạy được. Dự án càng lớn, mã càng phức tạp thì càng cần nhiều lập trình viên.
+ Cập nhật và bảo trì trong suốt vòng đời: Sau khi phát hành, phần mềm cần sửa lỗi, cập nhật, tinh chỉnh hiệu suất liên tục, đây không phải việc AI có thể làm.
+ Khó bảo trì mã mình không viết: Bảo trì mã người khác viết (của người hay AI) rất tốn công phân tích cấu trúc, tài liệu hóa trước khi sửa. Mã AI có thể mâu thuẫn với phong cách viết mã tốt.
📌 Mặc dù AI giúp tiết kiệm thời gian lập trình đáng kể, nhưng mã của AI thường xuyên bị lỗi và mất nhiều công sức sửa chữa, đảo ngược kiến trúc, triển khai lại. Trong 10 năm tới, AI sẽ không thay thế được lập trình viên mà thậm chí còn tạo ra nhu cầu nhiều hơn cho kỹ năng lập trình để xử lý các khía cạnh logistics của dự án phần mềm như kiểm thử, bảo trì, duy trì mã nguồn.
https://www.zdnet.com/article/the-4-biggest-challenges-of-ai-generated-code-gartner-left-out-of-its-latest-report/
• Theo Gartner, đến năm 2027, AI tạo sinh sẽ tạo ra các vai trò mới trong kỹ thuật và vận hành phần mềm, đòi hỏi 80% lực lượng kỹ sư phải nâng cao kỹ năng.
• Philip Walsh, Chuyên gia Phân tích Cao cấp tại Gartner, khẳng định rằng mặc dù AI sẽ biến đổi vai trò của kỹ sư phần mềm trong tương lai, chuyên môn và sáng tạo của con người vẫn luôn cần thiết để tạo ra phần mềm phức tạp và đổi mới.
• Gartner dự đoán AI sẽ tác động đến vai trò kỹ sư phần mềm theo ba cách:
• Ngắn hạn: AI sẽ hoạt động trong giới hạn, tạo ra những cải thiện khiêm tốn về năng suất bằng cách bổ sung cho các mô hình và nhiệm vụ làm việc hiện có của nhà phát triển.
• Trung hạn: Sự xuất hiện của các agent AI sẽ mở rộng ranh giới, chuyển đổi mô hình làm việc của nhà phát triển bằng cách cho phép tự động hóa và chuyển giao nhiều nhiệm vụ hơn.
• Dài hạn: Tiến bộ trong AI sẽ phá vỡ ranh giới và đánh dấu sự trỗi dậy của kỹ thuật AI.
• Trong kỷ nguyên AI từ cốt lõi, kỹ sư phần mềm sẽ áp dụng tư duy "AI-first", tập trung chủ yếu vào việc định hướng các agent AI đến bối cảnh và ràng buộc phù hợp nhất cho một nhiệm vụ cụ thể.
• Kỹ năng kỹ thuật prompt bằng ngôn ngữ tự nhiên và tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài sẽ trở nên thiết yếu đối với kỹ sư phần mềm.
• Mặc dù AI sẽ làm cho công việc kỹ thuật hiệu quả hơn, các tổ chức sẽ cần nhiều kỹ sư phần mềm lành nghề hơn để đáp ứng nhu cầu ngày càng tăng về phần mềm được tăng cường bởi AI.
• Kỹ sư AI sẽ là một loại chuyên gia phần mềm mới, sở hữu sự kết hợp độc đáo của kỹ năng trong kỹ thuật phần mềm, khoa học dữ liệu và AI/ML.
• Theo khảo sát của Gartner trong quý 4 năm 2023 tại 300 tổ chức ở Mỹ và Anh, 56% lãnh đạo kỹ thuật phần mềm đánh giá kỹ sư AI/ML là vai trò được yêu cầu nhiều nhất cho năm 2024.
• Để hỗ trợ kỹ sư AI, các tổ chức cần đầu tư vào nền tảng phát triển AI, giúp xây dựng khả năng AI hiệu quả hơn và tích hợp AI vào các giải pháp doanh nghiệp ở quy mô lớn.
• Việc đầu tư này sẽ đòi hỏi các tổ chức phải nâng cao kỹ năng của các nhóm kỹ thuật dữ liệu và kỹ thuật nền tảng để áp dụng các công cụ và quy trình thúc đẩy tích hợp và phát triển liên tục cho các artifact AI.
📌 Gartner dự báo 80% kỹ sư cần nâng cao kỹ năng AI tạo sinh đến 2027. Kỹ sư AI, kết hợp kỹ năng phần mềm, khoa học dữ liệu và AI/ML, sẽ là nghề hot. 56% lãnh đạo kỹ thuật xếp kỹ sư AI/ML là vai trò được yêu cầu nhiều nhất năm 2024.
https://www.gartner.com/en/newsroom/press-releases/2024-10-03-gartner-says-generative-ai-will-require-80-percent-of-engineering-workforce-to-upskill-through-2027
• OpenAI vừa giới thiệu giao diện mới cho ChatGPT có tên "Canvas", tạo ra một cửa sổ riêng biệt bên cạnh cửa sổ chat thông thường để làm việc với các dự án viết lách và lập trình.
• Canvas cho phép người dùng tạo văn bản hoặc code trực tiếp, sau đó có thể đánh dấu các phần để yêu cầu mô hình chỉnh sửa.
• Tính năng này đang được triển khai thử nghiệm cho người dùng ChatGPT Plus và Teams từ ngày 3/10, sẽ mở rộng cho người dùng Enterprise và Edu vào tuần tới.
• Giao diện mới của ChatGPT cung cấp các tính năng tương tự như Artifacts của Anthropic (ra mắt tháng 6) và công cụ hỗ trợ lập trình Cursor.
• Người dùng có thể yêu cầu ChatGPT tạo một email, sau đó điều chỉnh độ dài bằng thanh trượt, đánh dấu câu cụ thể để chỉnh sửa giọng điệu hoặc thêm emoji.
• Đối với lập trình, Canvas cho phép thêm nhận xét vào code, giải thích code, đề xuất chỉnh sửa cụ thể và tự động sửa lỗi.
• Để sử dụng Canvas, người dùng có thể chọn "GPT-4 with canvas" từ menu chọn mô hình hoặc gõ "use canvas".
• OpenAI cho biết cửa sổ Canvas sẽ tự động mở ra khi ChatGPT phát hiện một không gian làm việc riêng biệt có thể hữu ích, ví dụ cho các đầu ra dài hoặc nhiệm vụ lập trình phức tạp.
• Tính năng này dự kiến sẽ được cung cấp miễn phí cho tất cả người dùng sau khi kết thúc giai đoạn thử nghiệm.
• Các nhà cung cấp AI tiêu dùng đang hướng tới các không gian làm việc có thể chỉnh sửa như một cách thực tế để sử dụng AI tạo sinh.
• OpenAI đang nỗ lực cung cấp các tính năng tương tự đối thủ cạnh tranh và ra mắt các khả năng hoàn toàn mới trong ChatGPT nhằm phát triển cơ sở người dùng trả phí.
📌 OpenAI ra mắt giao diện Canvas mới cho ChatGPT, tối ưu hóa trải nghiệm viết lách và lập trình với các tính năng như chỉnh sửa trực tiếp, điều chỉnh độ dài và thêm nhận xét code. Tính năng này đang được thử nghiệm với người dùng trả phí và dự kiến sẽ mở rộng cho tất cả người dùng trong tương lai.
https://techcrunch.com/2024/10/03/openai-launches-new-canvas-chatgpt-interface-tailored-to-writing-and-coding-projects/
• Hai xu hướng lớn đang diễn ra trong lĩnh vực phát triển phần mềm: sự phổ biến của AI tạo sinh và sự trỗi dậy của các kỹ sư phần mềm từ các thị trường mới nổi.
• Khoảng 40% nhà phát triển trên toàn cầu đã sử dụng AI tạo sinh trong công việc của họ.
• Số lượng người dùng GitHub từ các nước nghèo hơn đã vượt qua các nước giàu vào khoảng năm 2020. Ấn Độ dự kiến sẽ vượt qua Mỹ để trở thành nguồn nhân lực lập trình lớn nhất thế giới trong vài năm tới.
• Mức lương trung bình của một nhà phát triển ở Mỹ nằm trong top 5% của tất cả các nghề nghiệp, cao hơn cả kỹ sư hạt nhân.
• AI đặc biệt hữu ích cho các nhà phát triển nhờ vào lượng dữ liệu khổng lồ từ các diễn đàn trực tuyến như Stack Overflow.
• Nhiều công ty khởi nghiệp và các gã khổng lồ công nghệ như Microsoft, Google, Meta, Amazon và Apple đã phát triển các công cụ AI hỗ trợ lập trình.
• Các công cụ AI hiện tại có thể tiết kiệm 10-20% thời gian cho các lập trình viên, chủ yếu trong việc tạo ra mã đơn giản.
• Tuy nhiên, chất lượng mã do AI tạo ra vẫn còn hạn chế. Một nghiên cứu của GitClear cho thấy chất lượng mã đã suy giảm trong năm qua, có thể do việc sử dụng các mô hình AI.
• Thế hệ công cụ AI tiếp theo như Claude 3.5 Sonnet của Anthropic và GPT-4 của OpenAI hứa hẹn sẽ cải thiện khả năng lập trình.
• AI không chỉ giúp viết mã mà còn hỗ trợ các công việc khác như viết tài liệu, thiết kế kiểm thử và chuyển đổi giữa các ngôn ngữ lập trình.
• Xu hướng "low-code-no-code" cho phép người không chuyên cũng có thể phát triển phần mềm, được thúc đẩy bởi AI.
• Số lượng lập trình viên ở khu vực Châu Á - Thái Bình Dương và Mỹ Latinh dự kiến sẽ tăng nhanh hơn so với Bắc Mỹ và Châu Âu trong giai đoạn 2023-2029.
• Xu hướng outsourcing và offshoring trong phát triển phần mềm tiếp tục tăng. Ấn Độ là quốc gia dẫn đầu với 193 tỷ USD xuất khẩu phần mềm và dịch vụ liên quan trong năm 2023.
• Các công ty offshore ngày càng cung cấp các dịch vụ phức tạp hơn, bao gồm cả phát triển AI.
• Tương lai của ngành phát triển phần mềm có thể sẽ là sự kết hợp giữa AI và con người, với các nhà phát triển tập trung vào các vấn đề phức tạp hơn.
📌 AI tạo sinh và toàn cầu hóa đang định hình lại ngành phát triển phần mềm. Với 40% lập trình viên đã sử dụng AI và Ấn Độ sắp vượt Mỹ về nguồn nhân lực, chi phí phát triển phần mềm có thể giảm đáng kể. Tuy nhiên, chất lượng mã AI và sự cạnh tranh từ các thị trường mới nổi đặt ra thách thức cho các nhà phát triển phương Tây.
Citations:
https://www.economist.com/business/2024/09/29/ai-and-globalisation-are-shaking-up-software-developers-world
- Với sự phát triển nhanh chóng của công nghệ, 70% các công ty dẫn đầu về kinh tế hiện đang sử dụng phần mềm tự phát triển để tạo ra lợi thế cạnh tranh. Trong đó, 1/3 các công ty này đang kiếm tiền trực tiếp từ phần mềm. AI tạo sinh (GenAI) mang đến một cơ hội lớn để tăng thêm giá trị bằng cách giúp lập trình viên tạo ra mã nhanh hơn và hiệu quả hơn.
- GenAI đã chứng minh được khả năng tăng năng suất làm việc. Chẳng hạn, tại IBM Software, các lập trình viên sử dụng GenAI đã ghi nhận mức tăng năng suất từ 30-40%. Các công cụ AI này giúp giảm thời gian cần thiết để viết mã và tài liệu hóa quy trình phát triển, đồng thời cải thiện đáng kể hiệu quả công việc.
- Tuy nhiên, việc ứng dụng AI tạo sinh trong phát triển phần mềm vẫn chưa phổ biến rộng rãi. Chỉ có 13% các công ty đang sử dụng GenAI một cách hệ thống trong quy trình phát triển phần mềm. Các công cụ GenAI hiện tại chỉ hỗ trợ khoảng 10-20% các hoạt động lập trình, cho thấy tiềm năng của công nghệ này vẫn chưa được khai thác hoàn toàn.
- AI tạo sinh đang giúp thực hiện các tác vụ đơn giản như viết mã cơ bản, tài liệu hóa mã, thiết kế giao diện web và đồ họa. Hơn thế nữa, nó đang dần tiến bộ để giải quyết các tác vụ phức tạp hơn, chẳng hạn như tạo các trường hợp thử nghiệm, xử lý các lỗi phát sinh và tự động tạo báo cáo từ các hệ thống nhật ký.
- GenAI dự kiến sẽ cải thiện quy trình phát triển phần mềm (PDLC) bằng cách giảm thời gian từ vài tháng xuống chỉ còn vài tuần hoặc thậm chí vài ngày. Nó cũng giúp cải thiện chất lượng mã và giảm gánh nặng kỹ thuật, tạo ra một tương lai mà việc phát triển phần mềm trở nên nhanh chóng và dễ dàng hơn.
- Để đáp ứng với sự thay đổi do AI tạo sinh mang lại, các lập trình viên cần phát triển các kỹ năng mới, đặc biệt là kỹ năng kiểm tra và đánh giá mã tự động tạo ra bởi GenAI. Điều này đòi hỏi khả năng phân tích tính tương thích của mã với các kho lưu trữ mã hiện có và khả năng kết nối các mô hình AI khác nhau để nâng cao chất lượng giải pháp.
- Đối với quản lý sản phẩm (Product Manager - PM), họ cũng cần nắm vững các công cụ không mã (no-code) hoặc ít mã (low-code) để làm việc với AI trong việc tạo nguyên mẫu và sản xuất mã. Đồng thời, PM cần phát triển khả năng xây dựng các mô hình đại lý AI (agentic frameworks), nơi mà các mô hình ngôn ngữ lớn (LLMs) hoạt động cùng nhau để hoàn thành các nhiệm vụ phức tạp.
- Vai trò và kỹ năng trong các tổ chức sẽ dần thay đổi và có sự giao thoa. Ví dụ, vai trò của quản lý sản phẩm và lập trình viên có thể hợp nhất thành một vai trò duy nhất, nơi một cá nhân có thể sử dụng GenAI để thiết kế giao diện, phát triển yêu cầu và tự động tạo mã.
- Các tổ chức cần phát triển chiến lược quản lý tài năng xoay quanh kỹ năng thay vì vai trò cố định. Điều này đòi hỏi một kế hoạch nguồn lực chiến lược (strategic workforce planning) dựa trên kỹ năng, bao gồm việc đánh giá những kỹ năng hiện có, những kỹ năng còn thiếu và những kỹ năng mà công nghệ AI có thể thay thế.
- Một ví dụ điển hình là một công ty khoa học đời sống đã sử dụng công cụ suy luận AI để phát triển cái nhìn toàn diện về tài năng kỹ thuật số. Công cụ này quét các thông tin từ hồ sơ LinkedIn, hệ thống nội bộ như Jira và các kho mã, từ đó xác định các kỹ năng cần thiết cho từng vai trò và lấp đầy các khoảng trống kỹ năng thông qua các chương trình đào tạo cụ thể.
- Để thúc đẩy sự phát triển kỹ năng trong doanh nghiệp, các chương trình học nghề (apprenticeship) đóng vai trò quan trọng, giúp nhân viên học tập từ kinh nghiệm thực tế và phát triển kỹ năng mới trong bối cảnh thay đổi nhanh chóng của công nghệ AI.
📌 GenAI đang mang lại sự thay đổi mạnh mẽ trong quy trình phát triển phần mềm, với năng suất tăng đến 40%. Để tận dụng tối đa tiềm năng này, các tổ chức cần tái cấu trúc chiến lược quản lý tài năng, tập trung vào phát triển kỹ năng thay vì vai trò, và xây dựng các chương trình học nghề hiệu quả để chuẩn bị cho kỷ nguyên AI.
https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-gen-ai-skills-revolution-rethinking-your-talent-strategy
#McKinsey
• CodeMaker AI đã đạt được bước đột phá khi tự động tái tạo thư viện phần mềm 90.000 dòng với độ tương đồng 91% so với mã gốc.
• AI được tinh chỉnh để hiểu và tạo ra các cấu trúc mã phức tạp, xử lý hơn 3.200 tệp và tái tạo mã trong chưa đầy 2 giờ.
• Quá trình tinh chỉnh bao gồm việc đào tạo mô hình AI trên 129 triệu token từ cơ sở mã, mất 11 giờ 44 phút với chi phí 1.949,75 USD.
• Mô hình được tinh chỉnh vượt trội hơn mô hình nền tảng, giảm tỷ lệ lỗi và tăng độ tương đồng.
• Ước tính dựa trên mô hình COCOMO cho thấy việc tái tạo mã thủ công sẽ mất khoảng 25 năm thời gian của nhà phát triển.
• Thành tựu này có ý nghĩa quan trọng đối với ngành phát triển phần mềm, cho thấy tiềm năng giảm đáng kể công sức lập trình thủ công và đẩy nhanh tiến độ phát triển.
• CodeMaker AI sử dụng 2 chỉ số chính để đánh giá độ chính xác của mã do AI tạo ra: tỷ lệ lỗi và tỷ lệ tương đồng.
• Tỷ lệ lỗi được định nghĩa là khoảng cách Levenshtein giữa các tệp gốc và tệp được tạo ra.
• Tỷ lệ tương đồng được tính bằng công thức: 1 - (khoảng cách(a, b) / max(độ dài(a), độ dài(b))).
• Việc sử dụng AI như CodeMaker AI trong phát triển phần mềm có thể dẫn đến chu kỳ phát triển nhanh hơn, hiệu quả chi phí cao hơn và thay đổi vai trò của các nhà phát triển.
• Thay vì viết mã từ đầu, các nhà phát triển có thể tập trung vào việc giám sát mã do AI tạo ra, tinh chỉnh mô hình cho các tác vụ cụ thể và giải quyết các thách thức thiết kế cấp cao.
• Tính tái tạo là một vấn đề quan trọng trong phần mềm do AI tạo ra. Thí nghiệm CodeMaker AI cung cấp những hiểu biết quý giá về những thách thức và thành công trong việc tái tạo mã.
• Một trong những thách thức trong tính tái tạo là sự mơ hồ vốn có trong mã. Mã không phải lúc nào cũng là ánh xạ một-một của chức năng; thường có nhiều cách để triển khai cùng một chức năng.
• Việc tinh chỉnh vẫn là giải pháp tốt nhất để cải thiện khả năng tái tạo của mã do AI tạo ra. Đào tạo mô hình trên các cơ sở mã cụ thể có thể tăng độ chính xác và mức độ phù hợp của mã được tạo ra.
• Bằng cách ngoại suy hiệu suất mô hình, có thể ước tính chi phí và thời gian cần thiết để xử lý ngay cả cơ sở mã nguồn mở lớn nhất như nhân Linux. Việc tái tạo toàn bộ 35,8 triệu dòng mã sẽ tốn khoảng 70.000 USD và mất khoảng 7 ngày.
📌 CodeMaker AI đã đạt được bước đột phá trong phát triển phần mềm bằng cách tái tạo 90.000 dòng mã với độ chính xác 91% trong chưa đầy 2 giờ. Thành tựu này cho thấy tiềm năng to lớn của AI trong việc tự động hóa và tăng cường các tác vụ phức tạp trong lĩnh vực kỹ thuật phần mềm, mở ra triển vọng về chu kỳ phát triển nhanh hơn và hiệu quả chi phí cao hơn.
https://www.marktechpost.com/2024/09/20/codemaker-ai-breakthrough-in-software-development-achieves-91-accuracy-in-recreating-90000-lines-of-code-setting-a-new-benchmark-for-ai-driven-code-generation-and-fine-tuned-model/
• PearAI là một trình soạn thảo mã nguồn mở tích hợp AI miễn phí, được phát triển như một phiên bản fork của VS Code. Nó cung cấp một giải pháp thay thế hấp dẫn cho các công cụ như Cursor AI.
• Các tính năng chính của PearAI bao gồm:
- Truy vấn cơ sở mã và nhận gợi ý thông minh
- Tạo đoạn mã và thành phần dựa trên lời nhắc AI
- Tích hợp với thư mục, tài liệu trực tuyến và nội dung terminal
- Xử lý lỗi hiệu quả và xem sự khác biệt mã bằng tính năng Command+I
- Hỗ trợ cộng tác thông qua bình luận và gợi ý trong mã
• So với Cursor AI, PearAI có một số ưu điểm:
- Tích hợp AI mượt mà ngay từ đầu, không cần cài đặt thêm tiện ích mở rộng
- Hoàn toàn miễn phí, không có tùy chọn trả phí hay giới hạn tín dụng
- Lập chỉ mục cơ sở mã cục bộ đảm bảo quyền riêng tư dữ liệu
- Hỗ trợ Windows, mở rộng khả năng sử dụng trên nhiều hệ điều hành
• PearAI dễ dàng cài đặt và cấu hình, cho phép tùy chỉnh giao diện và cài đặt. Nó hỗ trợ đăng nhập qua Google, GitHub hoặc email.
• Trình soạn thảo này tích hợp với nhiều mô hình AI khác nhau như OpenAI, Anthropic và các mô hình cục bộ.
• PearAI liên tục được cập nhật với các tính năng và cải tiến mới, được thúc đẩy bởi đóng góp của cộng đồng.
• Trong ví dụ thực tế, PearAI có thể hỗ trợ tạo một bản sao Minecraft bằng cách sử dụng lời nhắc AI để tạo và quản lý tệp, tạo thành phần mã, xác định và giải quyết lỗi.
• PearAI được phát triển bởi Frying Pants và được hưởng lợi từ sự đóng góp của cộng đồng nhà phát triển sôi động.
📌 PearAI là trình soạn thảo mã nguồn mở tích hợp AI miễn phí, cung cấp nhiều tính năng như tạo mã, xử lý lỗi và bảo mật dữ liệu. Nó hỗ trợ Windows và tích hợp với nhiều mô hình AI, đang thu hút sự chú ý của các nhà phát triển như một giải pháp thay thế cho Cursor AI.
https://www.geeky-gadgets.com/pearai-vs-cursor-ai/
• Theo báo cáo mới từ Venafi, 63% lãnh đạo bảo mật đang cân nhắc cấm sử dụng AI trong việc viết mã do những rủi ro mà nó gây ra.
• 92% người ra quyết định được khảo sát lo ngại về việc sử dụng mã do AI tạo ra trong tổ chức của họ. Mối quan ngại chính liên quan đến việc giảm chất lượng đầu ra.
• Các mô hình AI có thể đã được đào tạo trên các thư viện nguồn mở lỗi thời, và các nhà phát triển có thể nhanh chóng trở nên phụ thuộc quá mức vào các công cụ giúp cuộc sống của họ dễ dàng hơn.
• Lãnh đạo bảo mật tin rằng mã do AI tạo ra sẽ không được kiểm tra chất lượng kỹ lưỡng như các dòng mã viết tay. Các nhà phát triển có thể không cảm thấy có trách nhiệm với đầu ra của mô hình AI.
• Tariq Shaukat, CEO của công ty bảo mật mã Sonar, cho biết ông đang nghe ngày càng nhiều về các công ty sử dụng AI để viết mã gặp phải sự cố và vấn đề bảo mật.
• Báo cáo dựa trên khảo sát 800 người ra quyết định về bảo mật tại Mỹ, Anh, Đức và Pháp. 83% tổ chức hiện đang sử dụng AI để phát triển mã và đây là thông lệ phổ biến ở hơn một nửa số tổ chức.
• 72% cảm thấy họ không có lựa chọn nào khác ngoài việc cho phép thực hành này tiếp tục để công ty có thể duy trì tính cạnh tranh.
• Theo Gartner, 90% kỹ sư phần mềm doanh nghiệp sẽ sử dụng trợ lý mã AI vào năm 2028 và thu được lợi ích về năng suất.
• Hai phần ba số người được hỏi cho biết họ thấy không thể theo kịp các nhà phát triển siêu năng suất khi đảm bảo bảo mật cho sản phẩm của họ.
• 66% nói rằng họ không thể quản lý việc sử dụng AI an toàn trong tổ chức vì họ không có khả năng hiển thị nơi nó đang được sử dụng.
• 59% lãnh đạo bảo mật mất ngủ vì lo lắng về hậu quả của việc để lọt các lỗ hổng tiềm ẩn.
• Gần 80% tin rằng sự phổ biến của mã do AI phát triển sẽ dẫn đến một cuộc tính toán lại về bảo mật, khi một sự cố đáng kể thúc đẩy cải cách cách xử lý nó.
📌 63% lãnh đạo bảo mật cân nhắc cấm mã AI do lo ngại về chất lượng và bảo mật. 83% tổ chức đang sử dụng AI để phát triển mã. 72% buộc phải chấp nhận để duy trì tính cạnh tranh. 90% kỹ sư phần mềm dự kiến sẽ sử dụng trợ lý mã AI vào năm 2028.
https://www.techrepublic.com/article/leaders-banning-ai-generated-code/
- ChatGPT-o1 và Claude 3.5 được so sánh về hiệu suất trong các nhiệm vụ lập trình như phát triển trò chơi không gian và mô phỏng giao dịch Bitcoin trên nền tảng Cursor AI.
- Mô hình OpenAI 01 tập trung vào khả năng lý luận phức tạp thông qua việc sử dụng học tăng cường và các token lý luận.
- OpenAI o1 có những hạn chế như nhiệt độ cố định và thiếu thông điệp hệ thống, ảnh hưởng đến khả năng thích ứng.
- Trong các thử nghiệm, Claude 3.5 đã vượt trội hơn OpenAI o1 về tốc độ và độ tin cậy trong cả hai nhiệm vụ lập trình.
- OpenAI o1 cho thấy hiệu suất chậm hơn và ít đáng tin cậy hơn trong các nhiệm vụ lập trình được thử nghiệm.
- Cần có thêm nghiên cứu để xác định các ứng dụng tối ưu cho khả năng lý luận nâng cao của OpenAI o1.
- Các cải tiến trong tương lai và việc mở rộng quyền truy cập API có thể nâng cao tính khả dụng và hiệu suất của OpenAI o1.
- Trong thử nghiệm phát triển trò chơi không gian, Claude 3.5 đã tạo ra một trò chơi hoạt động với chỉ một số vấn đề nhỏ, trong khi OpenAI o1 gặp nhiều thách thức về hiệu suất.
- Trong nhiệm vụ mô phỏng giao dịch Bitcoin, Claude 3.5 cung cấp một giải pháp hoàn chỉnh với hướng dẫn rõ ràng và thiết lập Docker, trong khi OpenAI o1 gặp khó khăn với thời gian phản hồi chậm và chức năng chưa đầy đủ.
- Kết quả từ các thử nghiệm cung cấp cái nhìn sâu sắc về hiệu suất tương đối của OpenAI ChatGPT-o1 và Claude 3.5, với Claude 3.5 luôn vượt trội hơn.
- Mặc dù Claude 3.5 thể hiện hiệu suất tốt hơn trong các trường hợp thử nghiệm, nhưng tiềm năng của OpenAI ChatGPT-o1 vẫn cần được khám phá thêm.
📌 Claude 3.5 vượt trội hơn ChatGPT-o1 trong các nhiệm vụ lập trình như phát triển trò chơi không gian và mô phỏng giao dịch Bitcoin, với hiệu suất nhanh và đáng tin cậy hơn. OpenAI 01 cần cải thiện khả năng thích ứng và hiệu suất để phát huy hết tiềm năng lý luận nâng cao của mình.
https://www.geeky-gadgets.com/chatgpt-o1-vs-claude-3-5-coding/
• FPT Software AI Center, Việt Nam đã giới thiệu HyperAgent - một hệ thống đa tác tử tổng quát mới để giải quyết nhiều tác vụ kỹ thuật phần mềm trên các ngôn ngữ lập trình khác nhau.
• HyperAgent gồm 4 tác tử chuyên biệt: Planner, Navigator, Code Editor và Executor, quản lý toàn bộ vòng đời của các tác vụ kỹ thuật phần mềm.
• Hệ thống đạt hiệu suất cạnh tranh trên nhiều tác vụ:
- Giải quyết vấn đề trên GitHub: Tỷ lệ thành công 25,01% trên SWE-Bench-Lite và 31,40% trên SWE-Bench-Verified.
- Tạo mã ở quy mô kho lưu trữ (RepoExec): Độ chính xác 53,3% khi điều hướng và truy xuất ngữ cảnh.
- Định vị lỗi và sửa chữa chương trình (Defects4J): Độ chính xác 59,70% trong định vị lỗi và sửa thành công 29,8% lỗi, đạt hiệu suất tốt nhất trên 2 tác vụ này.
• HyperAgent được thiết kế dựa trên quy trình làm việc điển hình của lập trình viên, gồm 4 giai đoạn: Phân tích & Lập kế hoạch, Định vị tính năng, Chỉnh sửa và Thực thi.
• Ưu điểm chính của HyperAgent:
- Tổng quát hóa: Dễ dàng thích ứng với nhiều tác vụ khác nhau.
- Hiệu quả: Tối ưu hóa từng tác tử cho các quy trình có độ phức tạp khác nhau.
- Khả năng mở rộng: Hiệu quả khi triển khai trong các tình huống thực tế với số lượng tác vụ phụ lớn.
• HyperAgent thể hiện tiềm năng chuyển đổi thực hành phát triển phần mềm được hỗ trợ bởi AI, cung cấp giải pháp linh hoạt và toàn diện hơn so với các phương pháp chuyên biệt cho từng tác vụ.
• Công trình này đánh dấu bước tiến quan trọng hướng tới các tác tử tự trị đa năng có khả năng xử lý các tác vụ kỹ thuật phần mềm phức tạp, đa bước trên nhiều lĩnh vực và ngôn ngữ khác nhau.
📌 HyperAgent của FPT Software AI Center là hệ thống đa tác tử AI tổng quát đột phá, giải quyết đa dạng tác vụ kỹ thuật phần mềm. Đạt hiệu suất cạnh tranh trên nhiều benchmark, với tỷ lệ thành công 31,40% trên SWE-Bench-Verified và sửa được 29,8% lỗi Defects4J. Tiềm năng chuyển đổi phát triển phần mềm hỗ trợ AI.
https://www.marktechpost.com/2024/09/11/fpt-software-ai-center-introduces-hyperagent-a-groundbreaking-generalist-agent-system-to-resolve-various-software-engineering-tasks-at-scale-achieving-sota-performance-on-swe-bench-and-defects4j/
- Zed AI là trình soạn thảo mã nguồn mở tích hợp AI giúp nâng cao hiệu quả lập trình.
- Tích hợp các mô hình ngôn ngữ trực tiếp vào trình soạn thảo để tạo mã, chuyển đổi mã và phân tích mã.
- Assistant Panel giúp kiểm soát các tương tác AI trong môi trường lập trình.
- Có nhiều lệnh gạch chéo (slash commands) để tăng cường quy trình làm việc như lệnh tệp, lệnh terminal và lệnh tab.
- Inline Assistants cho phép chỉnh sửa mã bằng ngôn ngữ tự nhiên với phản hồi tức thì.
- Fast Edit Mode hợp tác với Anthropic, cung cấp khả năng tái cấu trúc mã gần như ngay lập tức cho các thay đổi mã quy mô lớn.
- Có thể tạo Custom Slash Commands bằng WebAssembly hoặc giao thức dựa trên JSON để tùy chỉnh quy trình làm việc.
- Workflow Command hướng dẫn các bước chuyển đổi mã, hỗ trợ các ngôn ngữ như Rust và Python.
- Framework UI tùy chỉnh được viết bằng Rust đảm bảo tốc độ và hiệu quả, ngay cả khi tải công việc nặng.
- So với Cursor và VS Code, Zed AI có các tính năng độc đáo và trải nghiệm AI tích hợp.
- Hỗ trợ macOS và Linux, sắp tới sẽ hỗ trợ Windows, đảm bảo tính linh hoạt đa nền tảng.
📌 Zed AI là trình soạn thảo mã nguồn mở sử dụng AI tích hợp, giúp lập trình viên tăng 30% hiệu suất làm việc. Với các tính năng như tạo mã tự động, tái cấu trúc mã nhanh chóng và hỗ trợ đa nền tảng, Zed AI hứa hẹn sẽ cách mạng hóa trải nghiệm lập trình trong tương lai.
https://www.geeky-gadgets.com/ai-code-editor/
• Replit đã ra mắt một AI Agent có khả năng xây dựng toàn bộ ứng dụng từ đầu, vượt xa các trợ lý lập trình hiện tại.
• AI Agent của Replit hoạt động tự chủ hơn so với các trợ lý AI thông thường, có thể đưa ra quyết định và thực hiện các tác vụ phức tạp mà không cần sự can thiệp liên tục của người dùng.
• Hệ thống này có thể lập luận qua một nhiệm vụ và tự tạo các bước để hoàn thành - như viết mã, thiết lập môi trường và quản lý triển khai.
• Replit có lợi thế lớn nhờ lượng dữ liệu khổng lồ thu thập được từ hàng triệu người dùng sử dụng nền tảng của họ để lập trình, kiểm thử và triển khai ứng dụng.
• AI Agent của Replit được đào tạo trên dữ liệu từ mọi giai đoạn của quy trình phát triển, giúp nó hiệu quả hơn trong việc hoàn thành các tác vụ phức tạp một cách tự động.
• Dịch vụ bounty của Replit, nơi người dùng có thể yêu cầu các dự án phần mềm được xây dựng bởi các nhà phát triển trên nền tảng, cung cấp dữ liệu thực tế quý giá để đào tạo AI Agent.
• Khác với các công ty khác chỉ tập trung vào hoàn thành hoặc tạo mã, AI Agent của Replit hiểu toàn bộ vòng đời phát triển phần mềm.
• Công nghệ này có thể tạo khung dự án, viết mã cần thiết, gỡ lỗi và thậm chí xử lý triển khai - tất cả trong khi giải thích quyết định và cộng tác với người dùng theo thời gian thực.
• Tác động tiềm năng của AI trong phát triển phần mềm là rất lớn, hứa hẹn dân chủ hóa việc phát triển phần mềm ở mức chưa từng có.
• Các doanh nhân có thể tạo mẫu ý tưởng của họ trong vài giờ thay vì vài tuần. Các nhà nghiên cứu có thể xây dựng công cụ tùy chỉnh mà không cần kiến thức lập trình mở rộng.
• Replit không đơn độc trong cuộc đua xây dựng công cụ phát triển dựa trên AI. Các startup như Cognition với Devin, Magic với mô hình LTM-2-mini và Anysphere's Cursor cũng đang nổi lên.
• Replit tin rằng họ có lợi thế nhờ khả năng độc đáo của nền tảng không chỉ tạo mã mà còn xử lý cả phần cơ sở hạ tầng và triển khai của quá trình phát triển.
• Đối với các nhà phát triển, điều này có nghĩa là ít thời gian hơn cho các tác vụ lặp đi lặp lại và tập trung nhiều hơn vào sáng tạo. Đối với doanh nghiệp, nó đại diện cho một cách nhanh hơn, hiệu quả hơn về chi phí để đưa phần mềm ra thị trường.
• Tuy nhiên, những tiến bộ này cũng sẽ định hình lại ngành công nghiệp. Nhiều công việc sẽ bị ảnh hưởng khi công nghệ trở nên có khả năng hơn. Các nhà phát triển phần mềm sẽ cần phải thích nghi, tập trung vào giải quyết vấn đề sáng tạo ở cấp độ cao hơn.
• AI Agent của Replit hiện đang có sẵn ở phiên bản beta cho người đăng ký Replit Core và Teams.
📌 Replit ra mắt AI Agent có thể xây dựng ứng dụng hoàn chỉnh từ ý tưởng, đào tạo trên dữ liệu từ hàng triệu người dùng. Công nghệ này hứa hẹn dân chủ hóa phát triển phần mềm, cho phép tạo mẫu nhanh chóng và tiết kiệm chi phí, nhưng cũng sẽ định hình lại ngành công nghiệp.
https://www.maginative.com/article/tell-replits-ai-agent-your-app-idea-and-itll-code-and-deploy-it-for-you/
• 01.AI vừa ra mắt Yi-Coder, một trợ lý lập trình AI mạnh mẽ nhưng nhỏ gọn với ít hơn 10 tỷ tham số, thách thức quan điểm "càng lớn càng tốt" của các gã khổng lồ công nghệ như OpenAI và Google.
• Yi-Coder có hai phiên bản với 9 tỷ và 1,5 tỷ tham số, xuất sắc trong việc chỉnh sửa, hoàn thiện, gỡ lỗi mã và thậm chí lập luận toán học trên 52 ngôn ngữ lập trình.
• Điểm nổi bật nhất là độ dài ngữ cảnh 128.000 token, cho phép xử lý các đoạn mã lớn mà nhiều mô hình hiện tại không thể xử lý được.
• Bằng cách mở nguồn Yi-Coder, 01.AI đang dân chủ hóa quyền truy cập vào các công cụ AI tiên tiến, tạo cơ hội cạnh tranh cho các startup và nhà phát triển cá nhân.
• Sự ra mắt của Yi-Coder làm gia tăng cuộc chạy đua AI giữa Trung Quốc và phương Tây, tạo áp lực lên các chính phủ phương Tây trong việc hỗ trợ sáng kiến AI trong nước.
• Về mặt môi trường, hiệu quả của Yi-Coder đáng chú ý khi có thể giúp giảm đáng kể dấu chân carbon của ngành công nghiệp AI.
• Yi-Coder được cung cấp thông qua Hugging Face và giao diện web tại llamacoder.together.ai, thể hiện cam kết về khả năng tiếp cận rộng rãi.
• Tính chất mã nguồn mở cho phép minh bạch trong phát triển và hoạt động của mô hình, quan trọng khi ngành công nghệ đối mặt với các vấn đề về thiên kiến AI và phát triển AI có đạo đức.
• Sự thành công của Yi-Coder có thể thúc đẩy việc áp dụng các phương pháp lập trình hỗ trợ AI trong toàn ngành, mở ra kỷ nguyên mới về hợp tác giữa con người và AI trong việc tạo ra phần mềm.
• Tác động của Yi-Coder đối với năng suất lập trình, chất lượng phần mềm và bản chất của nghề lập trình sẽ được theo dõi chặt chẽ bởi các nhà lãnh đạo ngành, nhà nghiên cứu và các nhà hoạch định chính sách.
📌 Yi-Coder của 01.AI đang thách thức quan điểm "càng lớn càng tốt" trong AI với mô hình 9 tỷ tham số, vượt trội trong 52 ngôn ngữ lập trình. Sự ra mắt này có thể thúc đẩy dân chủ hóa công cụ AI và định hình lại tương lai phát triển phần mềm.
https://venturebeat.com/ai/yi-coder-the-open-source-ai-that-wants-to-be-your-coding-buddy/
• Melty là một công cụ chỉnh sửa mã AI nguồn mở mới, được thiết kế đặc biệt tăng năng suất kỹ sư lập trình 10 lần.
• Dự án được khởi xướng bởi Charlie Holtz và Jackson de Campos, nhận được sự hỗ trợ từ Y Combinator và là một phần của đợt S24.
• Melty được giới thiệu là công cụ chỉnh sửa đầu tiên có khả năng hiểu những gì các nhà phát triển đang lập trình, từ terminal đến GitHub, và hợp tác để viết mã sẵn sàng cho sản xuất.
• Ý tưởng về Melty xuất phát từ gợi ý của Aaron Epstein trong những tuần đầu tiên tại Y Combinator, khi các nhà sáng lập vẫn đang tìm kiếm ý tưởng.
• Holtz chia sẻ rằng mặc dù có nhiều công cụ tốt trên thị trường, nhưng vẫn còn những hạn chế như phải sao chép từ Claude, quản lý nhiều cuộc trò chuyện cho cùng một tác vụ, và đôi khi commit mã có lỗi.
• Sau 28 ngày phát triển, Melty đã có thể tự viết khoảng một nửa mã của chính nó.
• Aaron Epstein nhận xét về tốc độ phát triển nhanh chóng của Charlie và Jackson, so sánh họ với một đội ngũ 10 kỹ sư tài năng.
• Mục tiêu của Melty là giúp người dùng hiểu mã bằng cách cho phép họ theo dõi mọi thay đổi như một lập trình viên cặp, đồng thời học cách thích ứng với phong cách của nhà phát triển.
• Melty được kỳ vọng sẽ mang lại "siêu năng lực" cho mọi kỹ sư.
• Dự án này xuất hiện trong bối cảnh các công cụ chỉnh sửa mã AI như Cursor, Zed và Codeium đang thu hút nhiều sự chú ý.
• Melty đại diện cho một lựa chọn nguồn mở trong lĩnh vực công cụ chỉnh sửa mã AI, mang đến sự lựa chọn đa dạng hơn cho cộng đồng phát triển.
📌 Melty, một công cụ chỉnh sửa mã AI nguồn mở mới, được phát triển trong 28 ngày bởi hai đồng sáng lập và được Y Combinator hỗ trợ. Nó hứa hẹn mang lại khả năng hiểu và thích ứng với mã của nhà phát triển, tự động hóa khoảng 50% quá trình viết mã của chính nó.
https://analyticsindiamag.com/ai-news-updates/meet-melty-open-source-alternative-to-cursor/
• OpenAI đã cải thiện các tính năng kiểm soát trong API Assistants, tập trung vào việc nâng cao khả năng làm việc với tệp khi xây dựng trợ lý AI.
• Cải tiến chính nằm ở tính năng File Search (Tìm kiếm tệp) trong Assistants, giúp các nhà phát triển AI agent cải thiện chất lượng phản hồi.
• Nhà phát triển giờ đây có thể điều chỉnh cách trợ lý AI chọn thông tin để tạo phản hồi. Họ có thể kiểm tra kết quả tìm kiếm tệp và tinh chỉnh "hành vi của công cụ xếp hạng tìm kiếm tệp để thay đổi mức độ liên quan của kết quả trước khi chúng được sử dụng để tạo phản hồi."
• API Assistants được OpenAI ra mắt vào tháng 11/2023, được công ty mô tả là bước đi nhỏ hướng tới các AI agent hoàn toàn tự trị.
• API này cho phép nhà phát triển sử dụng các mô hình hiện có của OpenAI với hướng dẫn cụ thể khi xây dựng trợ lý cho các ứng dụng khác nhau. Nó cũng cho phép họ sử dụng các công cụ khác trong hệ sinh thái OpenAI.
• Assistants API còn cho phép tạo ra các trợ lý có thể "trò chuyện" với các agent khác.
• Khi API này được ra mắt, OpenAI cho biết nó xây dựng các trợ lý vẫn cần hướng dẫn - khác với các agent có thể thực hiện nhiệm vụ độc lập hơn.
• Phản ứng tích cực từ cộng đồng nhà phát triển cho thấy nhu cầu cao về khả năng tinh chỉnh trợ lý AI tốt hơn.
• AI agent, có khả năng tự động thực hiện nhiệm vụ cho người dùng với rất ít hướng dẫn, là một trong những mục tiêu lớn của nhiều công ty trong lĩnh vực AI.
• Các công ty khác cũng cung cấp nền tảng để dễ dàng xây dựng AI agent. Google gần đây đã mở nguồn nền tảng phần mềm AI agent Oscar của mình.
• Salesforce đã bắt đầu phát hành các agent dành riêng cho doanh nghiệp.
• AI agent vẫn còn khá mới và cần cải thiện nhiều, đó là lý do tính năng kiểm soát File Search của OpenAI ra đời.
• Hiện chưa có cách đánh giá đầy đủ độ chính xác của AI agent, và một số báo cáo cho thấy các bài kiểm tra chuẩn về agent vẫn thiếu một số chỉ số quan trọng.
📌 OpenAI nâng cấp API Assistants, tăng quyền kiểm soát cho nhà phát triển khi xây dựng trợ lý AI. Cải tiến tập trung vào File Search, cho phép tinh chỉnh cách chọn thông tin và xếp hạng kết quả. Đây là bước tiến quan trọng hướng tới AI agent tự trị, dù vẫn cần cải thiện và đánh giá thêm.
https://venturebeat.com/ai/openai-gives-developers-more-control-over-ai-assistants/
- LambdaTest, công ty có trụ sở tại California, đã ra mắt KaneAI, một trải nghiệm agentic cho kiểm thử phần mềm toàn diện và đảm bảo chất lượng.
- KaneAI cho phép người dùng viết, thực hiện, gỡ lỗi và phát triển các bài kiểm tra tự động chỉ bằng ngôn ngữ tự nhiên, giúp đơn giản hóa quy trình kiểm thử.
- Sự ra mắt này là một bước tiến lớn cho LambdaTest, công ty đã hoạt động trong lĩnh vực kiểm thử phần mềm suốt 6 năm qua.
- KaneAI được thiết kế để giúp người dùng vượt qua các quy trình mã hóa phức tạp và các giải pháp low-code khó khăn khi tạo và quản lý các bài kiểm tra.
- CEO Asad Khan cho biết, đội ngũ kỹ thuật và sản phẩm của LambdaTest đã làm việc chăm chỉ để phát triển một công cụ kiểm thử tự động hóa dựa trên AI, đáp ứng những thách thức thực tế mà các nhóm kiểm thử gặp phải.
- LambdaTest đã xây dựng một nền tảng đám mây cho kiểm thử đa trình duyệt, cho phép người dùng thực hiện các bài kiểm tra tự động hoặc thủ công trên hàng ngàn cấu hình trình duyệt và hệ điều hành khác nhau.
- Nền tảng này giúp người dùng thực hiện các bài kiểm tra nhanh hơn tới 70% so với các hạ tầng khác, đồng thời giảm chi phí và tăng hiệu quả.
- KaneAI sử dụng AI tạo sinh để tự động hóa toàn bộ quy trình kiểm thử, từ việc viết và thực hiện các bài kiểm tra đến báo cáo và gỡ lỗi.
- Người dùng có thể viết các bước kiểm tra bằng ngôn ngữ tự nhiên, và nếu cần, có thể sử dụng chế độ tương tác để thực hiện hành động trong trình duyệt, cho phép AI ghi lại và chuyển đổi thành bước văn bản.
- Sau khi thực hiện, người dùng có thể thêm toàn bộ trường hợp kiểm tra vào quản lý kiểm tra của LambdaTest và tạo mã kiểm tra tương ứng trong ngôn ngữ và framework ưa thích.
- KaneAI sử dụng các mô hình của OpenAI và các mô hình nội bộ được đào tạo bởi LambdaTest để cung cấp trải nghiệm kiểm thử agentic.
- Hiện tại, KaneAI đang trong giai đoạn thử nghiệm beta với một số khách hàng và dự kiến sẽ mở rộng quyền truy cập cho người dùng chờ đợi trong những tháng tới.
- Hơn 10.000 tổ chức, bao gồm Nvidia, Vimeo, Microsoft và Rubrik, đang sử dụng LambdaTest để thực hiện hàng triệu bài kiểm tra hàng ngày.
📌 LambdaTest đã ra mắt kaneai, một giải pháp AI cho kiểm thử phần mềm, giúp đơn giản hóa quy trình kiểm thử và tăng tốc độ thực hiện lên tới 70%. Hiện tại, hơn 10.000 tổ chức đang sử dụng nền tảng này để kiểm thử hàng triệu bài kiểm tra mỗi ngày.
https://venturebeat.com/ai/lambdatest-launches-kaneai-agent-for-end-to-end-software-testing/
• Google vừa công bố tính năng Prompt Gallery mới trong nền tảng AI Studio, nâng cao đáng kể bộ công cụ cho các nhà phát triển làm việc với Gemini API.
• Prompt Gallery cung cấp nhiều prompt được xây dựng sẵn để thể hiện khả năng của các mô hình Gemini của Google. Các ví dụ nổi bật bao gồm:
- Trình tạo danh sách công thức dựa trên lược đồ JSON
- Gia sư toán học cho phương trình bậc hai
- Trình tạo bảng tính cho giáo viên toán tiểu học
- Trình tạo trò chơi săn tìm kho báu
- Công cụ kiểm tra đơn vị cho các hàm Python
- Hệ thống đề xuất chuyến đi
- Trình phân tích độ phức tạp thời gian để tối ưu hóa các hàm
- Trình nhận dạng đối tượng dựa trên hình ảnh
• Sự đa dạng này thể hiện tính linh hoạt của Gemini API, phục vụ cả các tác vụ kỹ thuật như kiểm tra mã và phân tích độ phức tạp thời gian, cũng như các nỗ lực sáng tạo như tạo công thức từ ảnh.
• Bước đi này của Google nhằm thu hút một phần lớn hơn cộng đồng nhà phát triển bằng cách cung cấp một nền tảng toàn diện và miễn phí để thử nghiệm và phát triển AI.
• Cập nhật AI Studio có ý nghĩa đặc biệt quan trọng đối với tiềm năng dân chủ hóa quyền truy cập vào các khả năng AI tiên tiến. Bằng cách cung cấp quyền truy cập miễn phí vào các công cụ có thể xử lý các tác vụ AI phức tạp, đa phương thức, Google hạ thấp rào cản gia nhập cho việc phát triển AI.
• Đối với các nhà hoạch định doanh nghiệp, việc Google nâng cấp AI Studio vừa là cơ hội vừa là thách thức. Nó cung cấp quyền truy cập vào các công cụ AI mạnh mẽ miễn phí, có khả năng đẩy nhanh việc áp dụng và đổi mới AI trong tổ chức. Tuy nhiên, nó cũng có thể yêu cầu đánh giá lại các chiến lược phát triển AI hiện có và các quan hệ đối tác.
📌 Google ra mắt Prompt Gallery miễn phí trong AI Studio, cung cấp các công cụ AI tiên tiến cho nhà phát triển. Tính năng này bao gồm nhiều ứng dụng từ hỗ trợ lập trình đến sáng tạo, mở ra cơ hội mới cho cộng đồng AI và có tiềm năng thay đổi cục diện phát triển AI.
https://venturebeat.com/ai/google-debuts-free-prompt-gallery-in-ai-studio-supercharging-developer-tools/
• Depot vừa công bố gọi vốn thành công 4,1 triệu USD trong vòng hạt giống, do Felicis dẫn đầu cùng sự tham gia của Y Combinator, Aviso Ventures, Tokyo Black và một số nhà đầu tư thiên thần.
• Nền tảng này được đồng sáng lập bởi Kyle Galbraith và Jacob Gillespie vào năm 2022, nhằm giải quyết vấn đề chậm trễ trong quá trình build container image trên GitHub Actions.
• Depot sử dụng các máy ảo Linux được tối ưu hóa cùng với các công cụ và dịch vụ độc quyền để tăng tốc quá trình build lên tới 40 lần.
• Hiện tại, Depot đang phục vụ hơn 1.800 tổ chức và xử lý 1,3 triệu lượt build mỗi tháng. Các khách hàng nổi bật bao gồm PostHog, Wistia và Semgrep.
• Nền tảng này được ưa chuộng bởi các công ty AI xây dựng và đóng gói các mô hình ngôn ngữ lớn (LLM), cũng như các nhà phát triển ứng dụng web truyền thống.
• Depot tối ưu hóa việc truyền tải dữ liệu bằng cách chỉ gửi các tệp đã thay đổi giữa các lần build, và chưa phát hiện giới hạn trên về kích thước ứng dụng.
• Công ty áp dụng cách tiếp cận lấy khách hàng làm trung tâm, sẵn sàng giải quyết các vấn đề nhỏ mà khách hàng gặp phải.
• Về bảo mật, Depot cô lập mỗi lần build trong một máy ảo riêng biệt, đảm bảo không có khách hàng khác "ở bên cạnh".
• Khoản đầu tư mới sẽ được sử dụng để mở rộng dịch vụ, bao gồm hỗ trợ môi trường macOS và Windows.
• Depot cũng có kế hoạch hợp tác với các dịch vụ khác như Fly.io và phát triển các gợi ý tối ưu hóa build dựa trên AI sử dụng mô hình được tinh chỉnh.
• Jake Storm, Đối tác tại Felicis, nhấn mạnh tiềm năng của công nghệ Depot trong việc cách mạng hóa năng suất của các nhà phát triển trong mọi môi trường.
📌 Depot đã gọi vốn thành công 4,1 triệu USD để tăng tốc quá trình build phần mềm lên 40 lần. Nền tảng này đang phục vụ hơn 1.800 tổ chức, xử lý 1,3 triệu lượt build mỗi tháng và đang mở rộng hỗ trợ cho macOS và Windows.
https://venturebeat.com/programming-development/depot-raises-4-1m-to-help-developers-speed-up-software-builds-by-40x-or-more/
• Tác giả David Gewirtz đã sử dụng ChatGPT để phân tích 170.000+ dòng mã G-code trong vòng chưa đầy 10 phút, tiết kiệm hàng giờ làm việc thủ công.
• Vấn đề xuất phát từ việc in mẫu thử 3DBenchy trên máy in 3D mới. Mẫu in của nhà sản xuất mất 16 phút, trong khi tác giả tự in mất 42 phút.
• Tác giả không thể tìm ra cách điều chỉnh cài đặt để đạt hiệu suất tương đương mẫu của nhà sản xuất, dù đã liên hệ hỗ trợ và tìm kiếm trên mạng.
• ChatGPT được sử dụng để phân tích và so sánh hai file G-code: một do tác giả tạo ra ("regular print") và một do nhà sản xuất cung cấp ("fast print").
• Sau một số lần điều chỉnh câu hỏi, ChatGPT đã xác định được 3 yếu tố chính tạo nên sự khác biệt:
- Tốc độ nạp (feed rate) cao hơn đáng kể trong file "fast print" (lên đến 14.400 mm/phút so với 2.400-3.400 mm/phút)
- Chiều cao lớp in lớn hơn (0,25 mm so với 0,2 mm)
- Cài đặt gia tốc tích cực hơn
• ChatGPT cũng xác nhận file "fast print" được tạo ra bởi phần mềm slicer, không phải được code thủ công.
• Bài học rút ra: ChatGPT có thể hiểu và phân tích mã G-code phức tạp, so sánh hàng trăm nghìn dòng mã trong vài giây và đưa ra kết luận hữu ích.
• Tuy nhiên, cần phải đặt câu hỏi đúng cách và kiểm chứng thông tin từ AI, không nên tin tưởng hoàn toàn.
• Quá trình phân tích chỉ mất 10 phút nhưng mang lại giá trị lớn, cho thấy tiềm năng của AI trong việc tăng năng suất làm việc.
📌 ChatGPT đã giúp phân tích 170.000+ dòng mã G-code trong 10 phút, xác định 3 yếu tố chính tạo nên sự khác biệt về tốc độ in 3D: tốc độ nạp cao hơn (14.400 mm/phút), chiều cao lớp lớn hơn (0,25 mm) và gia tốc tích cực hơn. Điều này cho thấy tiềm năng to lớn của AI trong việc giải quyết nhanh chóng các vấn đề phức tạp.
https://www.zdnet.com/article/how-i-used-chatgpt-to-scan-170k-lines-of-code-in-seconds-and-save-me-hours-of-detective-work/
- 97% lập trình viên sử dụng công cụ AI trong công việc, nhưng chỉ 40% công ty khuyến khích áp dụng.
- Nghiên cứu từ GitHub cho thấy phần lớn lập trình viên sử dụng AI chủ yếu ngoài giờ làm việc, với chỉ 24% sử dụng trong giờ làm việc.
- Các công ty chậm chạp trong việc áp dụng AI có thể do thiếu cá nhân hóa, lo ngại về quyền sở hữu dữ liệu và khó khăn trong việc đo lường tác động của AI.
- Kyle Daigle, COO của GitHub, kêu gọi các công ty cần thay đổi văn hóa để tích hợp công cụ AI vào quy trình làm việc.
- Nghiên cứu khảo sát 2.000 lập trình viên từ Mỹ, Brazil, Ấn Độ và Đức để hiểu rõ hơn về cách AI đang thay đổi công việc của họ.
- 38-40% công ty đang khuyến khích việc sử dụng AI, nhưng vẫn còn nhiều điều cần cải thiện.
- Các lập trình viên cho biết AI giúp họ giảm bớt công việc tẻ nhạt, từ đó tập trung vào sáng tạo và cải tiến.
- Sự chênh lệch trong việc áp dụng AI giữa các quốc gia: Mỹ dẫn đầu, trong khi Đức chậm hơn do văn hóa làm việc.
- Ấn Độ được dự đoán sẽ vượt qua Mỹ về số lượng lập trình viên trên GitHub trong vài năm tới nhờ vào việc áp dụng công cụ AI.
- Brazil có lợi thế về công cụ phát triển dựa trên đám mây, trong khi Đức gặp khó khăn do chính sách quyền sở hữu dữ liệu.
- 61% lập trình viên ở Đức và 73% ở Mỹ tin rằng AI sẽ cải thiện khả năng đáp ứng yêu cầu của khách hàng.
- Việc sử dụng công cụ AI cũng giúp lập trình viên nâng cao giá trị bản thân và năng suất làm việc.
- GitHub Copilot hiện có hơn 1,8 triệu người dùng trả phí, cho thấy sự phổ biến của công cụ AI trong lập trình.
📌 97% lập trình viên sử dụng công cụ AI, nhưng chỉ 40% công ty khuyến khích. Mỹ dẫn đầu về áp dụng AI, trong khi Đức chậm hơn. Việc áp dụng AI có thể nâng cao năng suất và giá trị của lập trình viên, nhưng cần có sự thay đổi văn hóa trong các tổ chức.
https://thelettertwo.com/2024/08/23/github-developers-have-embraced-ai-tools-but-companies-are-slow-to-catch-up/
- Abacus.ai, một nền tảng phát triển mô hình AI và nhà cung cấp công cụ, vừa ra mắt một họ mô hình ngôn ngữ lớn (LLM) mã nguồn mở mới có tên là Dracarys, được thiết kế để tối ưu hóa các tác vụ lập trình.
- Dracarys sử dụng kỹ thuật "công thức Dracarys" để cải thiện khả năng mã hóa của các mô hình LLM mã nguồn mở như Llama 3.1 70B và Qwen2 72B, với điểm số mã hóa LiveBench lần lượt là 35.23 và 38.95.
- Các mô hình Dracarys hiện đang có sẵn trên Hugging Face và trong gói Enterprise của Abacus.ai, cung cấp một lựa chọn cho các doanh nghiệp không muốn gửi dữ liệu của họ đến các API công cộng.
- Abacus.ai cũng có kế hoạch ra mắt các phiên bản Dracarys cho các mô hình Deepseek-coder và Llama-3.1 400b trong tương lai.
- Các nhà phát triển và doanh nghiệp có thể hưởng lợi từ hiệu suất mã hóa được cải thiện của Dracarys, giúp tạo mã hiệu quả hơn.
📌Các mô hình Dracarys mã nguồn mở mới của Abacus.ai, sử dụng công thức Dracarys, đã cải thiện đáng kể khả năng mã hóa của các mô hình LLM như Llama 3.1 70B và Qwen2 72B. Các mô hình này mang lại nhiều lợi ích cho các nhà phát triển và doanh nghiệp trong việc tạo mã hiệu quả hơn, đồng thời cung cấp một lựa chọn an toàn cho các doanh nghiệp không muốn gửi dữ liệu đến các API công cộng.
https://venturebeat.com/ai/open-source-dracarys-models-ignite-generative-ai-fired-coding/
• Ấn Độ, quốc gia dẫn đầu thị trường gia công dịch vụ CNTT, được dự đoán sẽ hưởng lợi nhiều nhất từ ứng dụng AI tạo sinh do cơ hội mở rộng biên lợi nhuận.
• Ngành gia công phần mềm chiếm phần lớn trong nền kinh tế Ấn Độ, nhưng đã hoạt động với biên lợi nhuận rất thấp (khoảng 5%) trong nhiều năm qua.
• AI tạo sinh có tiềm năng tăng biên lợi nhuận lên gấp 4 lần, từ 5% lên tới 20%.
• ServiceNow, công ty dịch vụ công nghệ lớn, đã đạt được lợi ích hữu hình 10 triệu USD hàng năm nhờ tiết kiệm chi phí và tăng năng suất từ việc sử dụng AI tạo sinh.
• Sản phẩm Now Assist của ServiceNow, tích hợp AI, đã trở thành sản phẩm phát triển nhanh nhất của công ty với 11 thương vụ trị giá trên 1 triệu USD trong quý 2 năm 2024.
• Wipro đã tích hợp Virtual Agent với Microsoft Teams, giúp nhân viên giải quyết các yêu cầu nhanh hơn, dẫn đến giảm 40% số lượng yêu cầu dịch vụ và cắt giảm 25% cuộc gọi hỗ trợ.
• Virtual Agent của Wipro hiện xử lý 16.000 yêu cầu mỗi tháng, tăng trưởng 40% mỗi tháng.
• Tại Mindtree, chi phí vận hành CNTT đã giảm 50% nhờ ứng dụng AI.
• Mô hình StarCoder AI của ServiceNow đã tăng năng suất và tốc độ đổi mới của các nhà phát triển lên 52%.
• StarCoder là một mô hình ngôn ngữ lớn nguồn mở (LLM) cho việc tạo mã, được phát triển bởi ServiceNow Research và Hugging Face, với 15 tỷ tham số và được đào tạo trên hơn 80 ngôn ngữ lập trình.
• Nhân viên Ấn Độ chiếm hơn 20% lực lượng lao động toàn cầu của ServiceNow, với Hyderabad là địa điểm lớn nhất về số lượng nhân viên.
• Tại Ấn Độ, 85% nhân viên của ServiceNow là kỹ sư và nhà phát triển, và hơn 40% công việc kỹ thuật sản phẩm toàn cầu được thực hiện từ Ấn Độ.
• Về cơ sở hạ tầng xử lý AI tại Ấn Độ, ServiceNow chưa có kế hoạch cụ thể về GPU, nhưng sẽ xem xét nếu có nhu cầu thị trường.
📌 AI tạo sinh đang mang lại lợi ích đáng kể cho ngành gia công phần mềm Ấn Độ, với tiềm năng tăng biên lợi nhuận từ 5% lên 20%. Các công ty như ServiceNow, Wipro và Mindtree đã chứng kiến sự cải thiện đáng kể về năng suất và hiệu quả chi phí, với ServiceNow đạt được lợi ích 10 triệu USD hàng năm và Wipro giảm 40% yêu cầu dịch vụ.
https://telecom.economictimes.indiatimes.com/news/enterprise-services/the-gen-ai-boost-to-indias-outsourcing-business/112593759
• AI tạo sinh đang định hình lại cách chúng ta tương tác với phần mềm, đặc biệt là trong môi trường doanh nghiệp. Thay vì giao diện điểm và nhấp chuột truyền thống, người dùng có thể chỉ cần đưa ra lệnh bằng giọng nói để truy cập và tích hợp dịch vụ, dữ liệu.
• Andy Joiner, CEO của Hyperscience, dự đoán trong tương lai gần, người dùng sẽ không cần đăng nhập vào các ứng dụng doanh nghiệp nữa. Họ chỉ cần đặt câu hỏi như "Xu hướng hài lòng của khách hàng trong những ngày gần đây như thế nào?" và hệ thống sẽ tự động tạo ra bản tóm tắt.
• Giao diện điểm và nhấp chuột đã thay thế giao diện dựa trên văn bản "màn hình xanh" cách đây 35 năm. Giờ đây, một cách tương tác mới với máy tính đang xuất hiện, cho phép người dùng làm việc với trải nghiệm hoàn toàn khác biệt.
• Jennifer Li và Yoko Li, đối tác tại Andreessen Horowitz, nhận xét quá trình thiết kế UI/UX truyền thống thường tốn thời gian và có sự ngắt quãng giữa tầm nhìn của nhà thiết kế và việc thực thi của lập trình viên. Nhiều phần mềm doanh nghiệp hiện nay phản ánh cấu trúc cơ sở dữ liệu bên dưới với vô số tab và trường thông tin.
• Giao diện thích ứng với ý định người dùng thông qua AI tạo sinh có thể trở thành sự kết hợp các thành phần theo thời gian thực thông qua lệnh đơn giản hoặc suy luận từ các hành động trước đó, thay vì phải điều hướng qua các menu và trường phức tạp.
• Marc Seefelder, đồng sáng lập Ming Labs, đề xuất khái niệm "GenAI-first UX", chuyển đổi từ luồng người dùng cứng nhắc, tuyến tính sang trải nghiệm linh hoạt, trực quan hơn. Điều này giúp công nghệ hoạt động hiệu quả hơn cho con người, hòa quyện với khát vọng và biến trải nghiệm số thành cá nhân hóa, lấy người dùng làm trung tâm.
• Ngay cả khi thiết kế giao diện điểm và nhấp chuột truyền thống, AI cũng có thể cải thiện chất lượng trải nghiệm người dùng. Các công cụ phân tích hỗ trợ AI có thể phát hiện mẫu hành vi người dùng và tự động đánh dấu các vấn đề trong thiết kế như thời gian điều hướng cao, khó khăn khi sử dụng nút cụ thể hoặc thông báo lỗi thường xuyên.
• AI tạo sinh có thể hỗ trợ tạo mẫu nhanh và hoàn thiện mã, giúp thu hẹp khoảng cách giữa thiết kế trên màn hình và mã được triển khai. Điều này đặc biệt hữu ích cho các ứng dụng có nhiều trạng thái và trường hợp ngoại lệ phức tạp.
• Giao diện cũng cần được thiết kế để hỗ trợ định hình lệnh với AI tạo sinh. Các điều khiển lệnh có thể tăng khả năng khám phá tính năng của chatbot GenAI, cung cấp cảm hứng và giảm thiểu đầu vào thủ công của người dùng.
📌 AI tạo sinh đang mở ra kỷ nguyên mới trong tương tác người-máy, hứa hẹn chuyển đổi giao diện người dùng từ cứng nhắc sang trực quan và linh hoạt hơn. Với khả năng xử lý ngôn ngữ tự nhiên, AI có thể giúp truy cập dữ liệu chỉ bằng lệnh thoại đơn giản, đồng thời hỗ trợ thiết kế giao diện thông minh và cá nhân hóa hơn.
https://www.zdnet.com/article/so-long-point-and-click-how-generative-ai-will-redefine-the-user-interface/
- AI tạo sinh có thể tự động tạo ra các thành phần giao diện người dùng, bao gồm cả mã HTML, CSS và JavaScript, tiết kiệm thời gian và công sức cho các lập trình viên front-end.
- Các công cụ như Figma và Canva đang trở nên phổ biến hơn, cho phép người dùng không có kiến thức lập trình vẫn có thể tạo ra các giao diện người dùng chuyên nghiệp.
- AI có thể phân tích các mẫu thiết kế và tạo ra các giao diện tùy chỉnh dựa trên nhu cầu của người dùng, giảm thiểu sự can thiệp của con người.
- Các công ty đang ngày càng ưu tiên các giải pháp AI-native, có nghĩa là các sản phẩm được xây dựng dựa trên nền tảng AI ngay từ đầu, thay vì tích hợp AI vào các sản phẩm hiện có.
- Các lập trình viên front-end cần phải thích nghi và học cách sử dụng các công cụ AI để tăng năng suất và hiệu quả của họ, thay vì coi AI là mối đe dọa.
- Các kỹ năng như thiết kế giao diện người dùng, trải nghiệm người dùng và tối ưu hóa chuyển đổi sẽ trở nên quan trọng hơn khi AI đảm nhận nhiều công việc lập trình.
📌 AI tạo sinh đang trở thành mối đe dọa đối với các lập trình viên front-end, với khả năng tự động tạo ra các thành phần giao diện người dùng và giảm thiểu sự can thiệp của con người. Tuy nhiên, các lập trình viên có thể thích nghi bằng cách học cách sử dụng các công cụ AI và tập trung vào các kỹ năng như thiết kế giao diện người dùng và trải nghiệm người dùng.
Citations:
[1] https://analyticsindiamag.com/ai-origins-evolution/generative-ai-is-a-threat-to-frontend-developers/
• Codeium, một công ty khởi nghiệp trong lĩnh vực trợ lý lập trình AI, vừa ra mắt công cụ mới có tên Cortex với khả năng xử lý lên đến 100 triệu dòng mã cùng lúc.
• Cortex giúp đưa ra các gợi ý chính xác hơn nhờ có thể nắm bắt được bối cảnh toàn diện của toàn bộ codebase của một công ty.
• Công cụ này có thể tự động áp dụng một thay đổi trong mã nguồn trên toàn bộ hệ thống chỉ trong vòng 6 giây, rất hữu ích cho các khách hàng doanh nghiệp của Codeium.
• Codeium hiện có khoảng 600.000 lập trình viên sử dụng miễn phí và 1.000 doanh nghiệp trả phí theo người dùng, bao gồm các công ty lớn như Zillow, Dell và Anduril.
• Công ty đã huy động được 93 triệu USD với định giá 500 triệu USD và đạt doanh thu khoảng 1 triệu USD trong năm 2023.
• Thị trường trợ lý lập trình AI đang thu hút sự quan tâm lớn của các nhà đầu tư, với nhiều startup đạt định giá hàng tỷ USD như Cognition Labs (2 tỷ USD) và Magic (1,5 tỷ USD).
• Đối thủ chính của Codeium là GitHub Copilot của Microsoft với 1,8 triệu người dùng trả phí và doanh thu thường niên trên 100 triệu USD trong năm 2023.
• Codeium tập trung vào việc tạo ra các công cụ cho phép lập trình viên tương tác và đưa ra phản hồi, thay vì hoàn toàn tự động hóa quá trình lập trình.
• CEO Varun Mohan cho biết Codeium muốn trở thành một "buồng lái" thay vì chỉ là một "phi công tự động", giúp các lập trình viên xem xét, điều hướng và triển khai mã nhanh hơn gấp 10 lần.
• Cortex là một bước tiến hướng tới khả năng "suy luận nâng cao" trong AI, cho phép hệ thống sử dụng logic để giải quyết các vấn đề phức tạp nhiều bước tốt hơn.
• Codeium được thành lập vào tháng 6/2021 với tên gọi ban đầu là Excel Function, tập trung vào việc quản lý GPU cho các công ty.
• Công ty đã chuyển hướng sang lĩnh vực trợ lý lập trình AI vào năm 2022, trước khi ChatGPT phổ biến hóa AI tạo sinh.
📌 Codeium đã tạo ra bước đột phá với Cortex, công cụ lập trình AI có thể xử lý 100 triệu dòng mã cùng lúc. Với 600.000 lập trình viên và 1.000 doanh nghiệp sử dụng, công ty đã huy động 93 triệu USD và đạt doanh thu 1 triệu USD năm 2023, đặt mục tiêu cạnh tranh với GitHub Copilot trong thị trường trợ lý lập trình AI đang bùng nổ.
https://www.forbes.com/sites/rashishrivastava/2024/08/13/this-ai-coding-engine-can-process-100-million-lines-of-code-at-once/
• Các mô hình ngôn ngữ lớn mã hóa (CodeLLMs) đã chứng tỏ khả năng tạo mã ấn tượng, nhưng vẫn gặp khó khăn với các nhiệm vụ phức tạp trong kỹ thuật phần mềm như phát triển toàn bộ hệ thống phần mềm dựa trên các thông số kỹ thuật phức tạp.
• Các nghiên cứu gần đây, bao gồm ChatDev và MetaGPT, đã giới thiệu các khung đa tác nhân cho phát triển phần mềm, nơi các tác nhân hợp tác để đạt được các mục tiêu phức tạp. Tuy nhiên, chúng có xu hướng đơn giản hóa quá mức bản chất phức tạp của quá trình phát triển phần mềm trong thực tế, nơi phần mềm liên tục được cải thiện và nâng cấp.
• Nhóm nghiên cứu từ Trung tâm AI của FPT Software đề xuất AgileCoder, một khung làm việc mới lạ bắt chước quá trình phát triển phần mềm phức tạp trong thực tế bằng cách lấy cảm hứng từ Phương pháp Linh hoạt, một phương pháp được sử dụng rộng rãi trong các nhóm phát triển phần mềm chuyên nghiệp. Khoảng 70% các nhóm chuyên nghiệp sử dụng Phương pháp Linh hoạt, phù hợp hơn với phát triển phần mềm trong thực tế.
• AgileCoder bao gồm nhiều tác nhân đóng vai trò khác nhau: Quản lý Dự án, Scrum Master, Nhà phát triển, Nhà phát triển Cao cấp và Kiểm thử viên. Các tác nhân này làm việc hợp tác trong các sprint để hoàn thành các nhiệm vụ của người dùng theo phương pháp Linh hoạt.
• Một điểm mới trong AgileCoder là Bộ tạo Đồ thị Mã động, tạo ra Đồ thị Phụ thuộc Mã (CDG) mô hình hóa mối quan hệ giữa các tệp mã và cập nhật khi có thay đổi mã nguồn. CDG đóng vai trò quan trọng trong việc viết các kế hoạch kiểm tra hợp lý và cho phép truy xuất mã hiệu quả.
• Đánh giá toàn diện trên các bộ chuẩn như HumanEval, MBPP và ProjectDev cho thấy AgileCoder vượt trội hơn so với các phương pháp khác. Trên HumanEval và MBPP, AgileCoder vượt trội đáng kể so với CodeLLMs và các khung đa tác nhân tiên tiến như ChatDev và MetaGPT.
📌 AgileCoder là một khung đa tác nhân mới lạ cho phát triển phần mềm, lấy cảm hứng từ phương pháp Linh hoạt. Nó vượt trội hơn các phương pháp hiện có như ChatDev và MetaGPT trong các nhiệm vụ phát triển phần mềm phức tạp bằng cách sử dụng CodeLLMs.
https://www.marktechpost.com/2024/08/10/researchers-at-fpt-software-ai-center-introduce-agilecoder-a-multi-agent-system-for-generating-complex-software-surpassing-metagpt-and-chatdev/
• OpenAI vừa ra mắt tính năng Structured Outputs trong API, giúp đảm bảo đầu ra của mô hình phù hợp với JSON Schemas.
• JSON là một định dạng trao đổi dữ liệu tiêu chuẩn trong ngành, dễ đọc với con người và dễ phân tích bởi máy móc.
• Các mô hình ngôn ngữ lớn (LLM) thường gặp khó khăn với JSON, có thể tạo ra các phản hồi không đúng hoặc không tuân thủ hoàn toàn hướng dẫn.
• Tính năng mới giúp nhà phát triển không cần lo lắng về việc mô hình bỏ qua một khóa bắt buộc hoặc tạo ra giá trị enum không hợp lệ.
• Structured Outputs là sự phát triển của chế độ JSON, đảm bảo tạo ra JSON hợp lệ và tuân thủ schema.
• Nhà phát triển có thể yêu cầu Structured Outputs tạo câu trả lời theo từng bước để hướng dẫn đến đầu ra mong muốn.
• Tính năng này giúp đơn giản hóa việc nhắc nhở và cho phép từ chối rõ ràng các yêu cầu không an toàn.
• Structured Outputs có sẵn trên các mô hình GPT-4o-mini, GPT-4o và các phiên bản tinh chỉnh của chúng.
• Nó có thể được sử dụng trên Chat Completions API, Assistants API và Batch API, đồng thời tương thích với đầu vào hình ảnh.
• OpenAI nhấn mạnh rằng chức năng mới lấy cảm hứng từ công việc xuất sắc của cộng đồng nguồn mở.
• Đây là tính năng số 1 mà các nhà phát triển đã yêu cầu vì nó cho phép tạo ra sự nhất quán giữa các ứng dụng khác nhau.
• CEO Sam Altman đã đăng trên X rằng việc phát hành này là "theo yêu cầu rất phổ biến".
• OpenAI cho biết đánh giá của họ với Structured Outputs trên GPT-4o mới đạt điểm "hoàn hảo 100%".
• Thông báo tính năng mới này diễn ra sau một tuần đầy biến động tại OpenAI, với việc ba giám đốc điều hành chủ chốt đột ngột thông báo rời đi và Elon Musk một lần nữa kiện công ty.
📌 OpenAI ra mắt Structured Outputs trong API, giúp đảm bảo đầu ra phù hợp JSON Schemas. Tính năng được nhà phát triển mong đợi nhất này cho phép nhất quán giữa các ứng dụng, đơn giản hóa lập trình và đạt điểm hoàn hảo 100% trong đánh giá trên GPT-4o.
• LlamaCoder là công cụ AI nguồn mở được thiết kế để tạo ra các ứng dụng full-stack chỉ từ một câu lệnh đơn giản.
• Sử dụng mô hình Llama 3.1 45 tỷ tham số của Meta AI, đảm bảo độ chính xác và hiệu suất cao trong việc tạo mã.
• Tích hợp nhiều công nghệ hiện đại như Sandpack, Next.js, Tailwind, Helicone và Posible để tối ưu hóa quá trình phát triển.
• Có thể tạo ra nhiều loại ứng dụng khác nhau như Máy tính, Trò chơi câu đố, Lịch, Phễu thương mại điện tử và Trò chơi rắn săn mồi.
• Là công cụ nguồn mở, miễn phí và có thể tùy chỉnh, giúp dân chủ hóa quá trình phát triển ứng dụng.
• Yêu cầu cài đặt Python, npm, Git, VS Code và Together AI API Key để sử dụng.
• Các bước cài đặt bao gồm: Clone repository GitHub, cấu hình file môi trường, cài đặt các gói cần thiết và chạy cục bộ.
• Hỗ trợ chỉnh sửa theo thời gian thực thông qua phương pháp human-in-the-loop, cho phép điều chỉnh linh hoạt.
• Nổi bật trong khả năng trực quan hóa dữ liệu với các biểu đồ và đồ thị đẹp mắt.
• Được phát triển bởi Hassan El Mghari với sự hỗ trợ tích cực từ cộng đồng để cải tiến liên tục.
• LlamaCoder đại diện cho bước tiến quan trọng trong phát triển ứng dụng có sự hỗ trợ của AI.
• Tính năng nguồn mở và khả năng tích hợp công nghệ tiên tiến giúp các nhà phát triển xây dựng và tùy chỉnh ứng dụng full-stack một cách hiệu quả.
• Phù hợp cho cả nhà phát triển có kinh nghiệm lẫn người mới bắt đầu, giúp đơn giản hóa quy trình phát triển.
• Cho phép tập trung vào đổi mới, sáng tạo và cung cấp ứng dụng chất lượng cao cho người dùng.
• Cộng đồng nguồn mở tích cực thúc đẩy sự phát triển và cải tiến liên tục của LlamaCoder.
📌 LlamaCoder là trợ lý AI nguồn mở tạo ứng dụng full-stack từ một câu lệnh, sử dụng mô hình Llama 3.1 45 tỷ tham số. Tích hợp nhiều công nghệ hiện đại, hỗ trợ chỉnh sửa thời gian thực và trực quan hóa dữ liệu, giúp đơn giản hóa quá trình phát triển ứng dụng cho mọi đối tượng.
https://www.geeky-gadgets.com/?p=434674
• Airtable, startup trị giá 11 tỷ USD trong lĩnh vực nền tảng không cần code, vừa công bố Cobuilder - công cụ AI có khả năng tạo ra các ứng dụng tùy chỉnh chỉ trong vài giây bằng cách sử dụng lệnh bằng ngôn ngữ tự nhiên.
• Kelly O'Shaughnessy, người đứng đầu sản phẩm cốt lõi và trưởng nhóm sản phẩm Airtable Cobuilder, nhấn mạnh Cobuilder là cách nhanh nhất để xây dựng ứng dụng không cần code, cho phép tạo ứng dụng tùy chỉnh bằng ngôn ngữ tự nhiên chỉ trong vài giây.
• Công nghệ đằng sau Cobuilder sử dụng các mô hình ngôn ngữ lớn (LLM) để diễn giải lệnh của người dùng và tạo ra cấu trúc ứng dụng phù hợp. Quá trình này có thể giảm đáng kể thời gian và nguồn lực cần thiết cho việc phát triển ứng dụng.
• Cobuilder phân tích lệnh bằng ngôn ngữ tự nhiên của người dùng và kết hợp yêu cầu với dữ liệu công khai có liên quan mà nhà cung cấp LLM có quyền truy cập.
• Airtable cam kết bảo vệ quyền riêng tư và bảo mật dữ liệu của khách hàng. Không có dữ liệu khách hàng nào được sử dụng để đào tạo các LLM hiện tại hoặc tương lai.
• Hiện tại, Cobuilder dựa vào dữ liệu công khai và thông tin do người dùng cung cấp để tạo ứng dụng. Airtable có kế hoạch nâng cao khả năng của Cobuilder, bao gồm khả năng kết hợp dữ liệu công ty hiện có từ Airtable và nhúng tự động hóa AI trong các ứng dụng được tạo ra.
• Việc ra mắt Cobuilder là một phần trong chiến lược rộng lớn hơn của Airtable nhằm tích hợp AI trên toàn bộ nền tảng. Trước đó, công ty đã giới thiệu Airtable AI, đã được các khách hàng lớn như AWS áp dụng.
• Kế hoạch trong tương lai bao gồm mở rộng khả năng trích xuất tài liệu và cho phép tích hợp tìm kiếm internet được hỗ trợ bởi AI.
• Đối với Airtable, động thái này thể hiện một canh bạc đáng kể về tương lai của phát triển phần mềm doanh nghiệp. Khi các doanh nghiệp ngày càng tìm cách trao quyền cho nhân viên phi kỹ thuật và giảm sự phụ thuộc vào quy trình phát triển truyền thống, các công cụ như Cobuilder có thể trở nên ngày càng hấp dẫn.
• O'Shaughnessy hình dung một tác động mang tính chuyển đổi, cho phép những người không phải chuyên gia và không phải nhà phát triển mô tả quy trình làm việc họ cần bằng ngôn ngữ đơn giản và sau đó Cobuilder giúp tạo ra một ứng dụng với thiết kế và cấu trúc hoạt động tốt nhất trong vài giây.
📌 Airtable ra mắt Cobuilder, công cụ AI tạo ứng dụng trong vài giây bằng ngôn ngữ tự nhiên. Tiềm năng cách mạng hóa phát triển phần mềm doanh nghiệp, giúp nhân viên phi kỹ thuật tạo ứng dụng phức tạp. Cam kết bảo mật dữ liệu khách hàng, kế hoạch mở rộng tính năng trong tương lai.
https://venturebeat.com/ai/forget-coding-bootcamps-airtables-ai-can-build-your-app-in-seconds/
• Nghiên cứu mới từ Đại học Bắc Kinh tập trung vào việc chuyển đổi truy vấn ngôn ngữ tự nhiên thành truy vấn SQL, giúp người dùng không chuyên có thể tương tác với cơ sở dữ liệu dễ dàng hơn.
• Phương pháp đề xuất sử dụng mô hình ngôn ngữ lớn (LLM) thông qua hai chiến lược chính: kỹ thuật prompt và tinh chỉnh mô hình.
• Kỹ thuật prompt bao gồm tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG), học ít mẫu và suy luận, đòi hỏi ít dữ liệu hơn nhưng không phải lúc nào cũng cho kết quả tối ưu.
• Tinh chỉnh LLM với dữ liệu cụ thể cho nhiệm vụ có thể cải thiện hiệu suất đáng kể nhưng đòi hỏi tập dữ liệu huấn luyện lớn hơn.
• Nghiên cứu khám phá các mô hình suy luận đa bước có thể áp dụng cho LLM trong nhiệm vụ Text-to-SQL:
- Chuỗi suy luận (CoT): hướng dẫn LLM tạo ra câu trả lời từng bước bằng cách thêm các prompt cụ thể.
- Ít đến nhiều: chia nhỏ vấn đề phức tạp thành các vấn đề con đơn giản hơn.
- Tự nhất quán: sử dụng chiến lược bỏ phiếu đa số để chọn câu trả lời phổ biến nhất do LLM tạo ra.
• Việc áp dụng LLM đã cải thiện đáng kể độ chính xác thực thi của các nhiệm vụ Text-to-SQL. Độ chính xác trên bộ dữ liệu chuẩn như Spider đã tăng từ khoảng 73% lên 91,2%.
• Tuy nhiên, vẫn còn những thách thức, đặc biệt là với các bộ dữ liệu mới như BIRD và Dr.Spider, trình bày các kịch bản phức tạp hơn và các bài kiểm tra độ mạnh mẽ.
• Ngay cả các mô hình tiên tiến như GPT-4 vẫn gặp khó khăn với một số nhiễu loạn, chỉ đạt độ chính xác 54,89% trên bộ dữ liệu BIRD.
• Nghiên cứu cung cấp tổng quan toàn diện về việc sử dụng LLM cho các nhiệm vụ Text-to-SQL, nhấn mạnh tiềm năng của các mô hình suy luận đa bước và chiến lược tinh chỉnh để cải thiện hiệu suất.
• Bằng cách giải quyết các thách thức trong việc chuyển đổi ngôn ngữ tự nhiên thành SQL, nghiên cứu này mở đường cho các tương tác cơ sở dữ liệu dễ tiếp cận và hiệu quả hơn cho người dùng không chuyên.
📌 AI tạo sinh giúp chuyển đổi truy vấn ngôn ngữ tự nhiên thành SQL với độ chính xác lên tới 91,2% trên bộ dữ liệu Spider. Tuy nhiên, các mô hình tiên tiến như GPT-4 vẫn gặp khó khăn với bộ dữ liệu phức tạp BIRD, chỉ đạt 54,89% độ chính xác. Cần tiếp tục nghiên cứu để cải thiện hiệu suất trên các tình huống thực tế phức tạp hơn.
https://www.marktechpost.com/2024/07/26/transforming-database-access-the-llm-based-text-to-sql-approach/
• AI chưa tác động nhiều đến thực hành kiến trúc phần mềm, nhưng sẽ thay đổi cách chúng ta thiết kế phần mềm với các ràng buộc, yêu cầu và khả năng mới.
• Kiến trúc sư phần mềm vẫn cần hiểu sâu về yêu cầu khách hàng và bối cảnh, điều mà AI chưa thể thay thế.
• Thách thức lớn nhất khi xây dựng với AI là tính "hộp đen" - chúng ta không hiểu tại sao AI đưa ra kết quả cụ thể.
• Cần thêm các thành phần như guardrails để kiểm soát đầu ra của AI và evaluations để đánh giá chất lượng.
• Các mô hình kiến trúc mới xuất hiện như RAG (Retrieval Augmented Generation), Judge pattern, Choice of Experts và Agent Workflows.
• RAG giúp giảm thiểu hallucination bằng cách bổ sung thông tin từ cơ sở dữ liệu vào prompt.
• Judge pattern sử dụng một mô hình để đánh giá kết quả của mô hình khác.
• Choice of Experts chọn mô hình phù hợp nhất để xử lý từng loại prompt.
• Agent Workflows cho phép tự động hóa các quy trình phức tạp hơn với nhiều bước.
• An toàn và bảo mật dữ liệu là thách thức lớn, cần được tích hợp ngay từ đầu trong thiết kế.
• Trải nghiệm người dùng cần được cân nhắc kỹ, không nên chỉ dựa vào giao diện chat.
• Kiến trúc sư cần "nắm bắt sự kỳ lạ" của AI để tận dụng khả năng sáng tạo và tổng hợp thông tin mới.
• Tuy nhiều thứ thay đổi, nhưng bản chất của kiến trúc phần mềm vẫn là hiểu sâu về vấn đề và bối cảnh để đưa ra giải pháp phù hợp.
📌 AI đang thay đổi cách chúng ta thiết kế phần mềm với các mô hình kiến trúc mới như RAG, Judge pattern và Agent Workflows. Tuy nhiên, thách thức lớn nhất là tính "hộp đen" của AI, đòi hỏi kiến trúc sư phải tích hợp các biện pháp an toàn và đánh giá ngay từ đầu. Bản chất của kiến trúc phần mềm vẫn là hiểu sâu về vấn đề và bối cảnh để đưa ra giải pháp phù hợp.
https://www.oreilly.com/radar/software-architecture-in-an-ai-world/
• Laminar AI là nền tảng phát triển AI giúp xây dựng ứng dụng LLM đáng tin cậy nhanh hơn 10 lần bằng cách tích hợp điều phối, đánh giá, quản lý dữ liệu và khả năng quan sát.
• Nền tảng cung cấp giao diện đồ họa (GUI) cho phép xây dựng ứng dụng LLM dưới dạng đồ thị động, dễ dàng tích hợp với mã nguồn cục bộ.
• Nhà phát triển có thể nhập gói mã nguồn mở để tạo mã không có lớp trừu tượng từ các đồ thị này.
• Laminar cung cấp cơ sở hạ tầng dữ liệu với hỗ trợ tích hợp tìm kiếm vector trên các tập dữ liệu và tệp.
• Nền tảng đánh giá tiên tiến cho phép nhà phát triển nhanh chóng tạo các đánh giá tùy chỉnh mà không cần quản lý cơ sở hạ tầng đánh giá.
• Laminar tạo ra một vòng lặp dữ liệu tự cải thiện khi dữ liệu được dễ dàng đưa vào LLM và LLM ghi vào các tập dữ liệu.
• Nền tảng cung cấp kiến trúc ghi nhật ký và quan sát độ trễ thấp.
• Đội ngũ Laminar AI đã phát triển một "IDE" LLM xuất sắc để xây dựng ứng dụng LLM dưới dạng đồ thị động.
• Tích hợp đồ thị với mã cục bộ rất dễ dàng thông qua "nút hàm" có thể truy cập các hàm phía máy chủ.
• Nhà phát triển có toàn quyền kiểm soát mã nguồn vì nó được tạo dưới dạng hàm thuần túy trong kho lưu trữ.
• Động cơ bất đồng bộ độc quyền được xây dựng bằng Rust để thực thi các pipeline.
• Pipeline có thể dễ dàng triển khai dưới dạng điểm cuối API có khả năng mở rộng.
• Công cụ xây dựng pipeline của Laminar cho phép tạo các pipeline đánh giá tùy chỉnh và linh hoạt tích hợp với mã cục bộ.
• Người dùng có thể chạy đánh giá đồng thời trên hàng nghìn điểm dữ liệu, tải lên các tập dữ liệu lớn và nhận thống kê chạy theo thời gian thực.
• Laminar AI ghi lại tất cả các lần chạy pipeline và yêu cầu điểm cuối.
• Người dùng có thể xem các bản ghi chi tiết của mỗi lần chạy pipeline trong giao diện dễ sử dụng.
• Các tính năng chính bao gồm: tìm kiếm ngữ nghĩa trên các tập dữ liệu, truy cập đầy đủ vào thư viện Python, lựa chọn nhiều mô hình như GPT-4, Claude, Llama3, tạo và kiểm tra pipeline cộng tác, tích hợp logic đồ thị với thực thi mã cục bộ, giao diện thân thiện để xây dựng và gỡ lỗi agent.
📌 Laminar AI là nền tảng đột phá giúp phát triển ứng dụng LLM nhanh hơn 10 lần bằng cách tích hợp điều phối, đánh giá, quản lý dữ liệu và quan sát. Với giao diện trực quan và khả năng tùy chỉnh cao, nền tảng này sẽ đóng vai trò quan trọng trong việc thúc đẩy đổi mới AI trong tương lai.
https://www.marktechpost.com/2024/07/24/meet-laminar-ai-a-developer-platform-that-combines-orchestration-evaluations-data-and-observability-to-empower-ai-developers-to-ship-reliable-llm-applications-10x-faster/
• IBM Software ghi nhận mức tăng năng suất 30-40% ở một số phân khúc phát triển phần mềm nhờ sử dụng AI tạo sinh (GenAI).
• Dinesh Nirmal, người đứng đầu IBM Software, cho rằng một trong những lợi ích lớn nhất của GenAI là tự động hóa, dẫn đến tối ưu hóa và tăng năng suất.
• GenAI đang được tích hợp vào tất cả các sản phẩm IBM xây dựng và được sử dụng để nâng cao năng suất của các nhà phát triển trên toàn cầu.
• Phát triển phần mềm bao gồm nhiều khía cạnh ngoài việc tạo mã. Trong các lĩnh vực như tài liệu mã, giải thích hoặc tạo trường hợp thử nghiệm, IBM đang thấy mức tối ưu hóa và tăng năng suất 30-40%.
• IBM Software Labs đang tích hợp GenAI vào mọi sản phẩm trong danh mục của IBM, giúp các nhà phát triển viết mã hiệu quả hơn.
• Các nhà phát triển hiện có thể viết hàng trăm và hàng nghìn dòng mã mà họ không thể làm được vào năm ngoái.
• Nirmal nhấn mạnh GenAI là công cụ để tăng cường năng suất của nhà phát triển, cho phép phân phối mã nhanh hơn và phát triển ứng dụng nhanh chóng.
• Ông coi GenAI là công cụ tăng cường khả năng của con người thay vì thay thế họ.
• IBM Software Labs ở Ấn Độ có mặt tại Ahmedabad, Kochi, Bengaluru, Hyderabad và Pune.
• Phòng thí nghiệm Kochi tập trung vào các sản phẩm tự động hóa như watsonx Orchestrate.
• Phòng thí nghiệm Ahmedabad tập trung vào việc tích hợp GenAI vào các sản phẩm bảo mật của IBM.
📌 IBM Software ghi nhận tăng năng suất phát triển 30-40% nhờ AI tạo sinh. GenAI được tích hợp vào mọi sản phẩm IBM, tăng cường khả năng viết mã của nhà phát triển. Các phòng thí nghiệm tại Ấn Độ đóng vai trò quan trọng trong việc tích hợp GenAI vào các sản phẩm tự động hóa và bảo mật.
https://www.business-standard.com/companies/news/ibm-software-sees-30-40-productivity-gains-among-developers-using-genai-124070901060_1.html
• Nhóm Knowledge Engineering Group (KEG) và Data Mining tại Đại học Thannh Hoa đã công bố mô hình CodeGeeX4-ALL-9B, một bước tiến quan trọng trong lĩnh vực tạo mã.
• CodeGeeX4-ALL-9B được huấn luyện trên framework GLM-4-9B, giúp cải thiện đáng kể khả năng tạo mã của nó.
• Mô hình có 9,4 tỷ tham số, là một trong những mô hình mạnh mẽ nhất trong lớp của nó, vượt trội hơn cả các mô hình đa năng lớn hơn.
• CodeGeeX4-ALL-9B nổi bật với khả năng xử lý đa dạng các chức năng như hoàn thiện mã, tạo mã, diễn giải mã và tìm kiếm web.
• Mô hình cung cấp khả năng hỏi đáp mã ở cấp độ kho lưu trữ, cho phép các nhà phát triển tương tác với codebase một cách trực quan và hiệu quả hơn.
• Kết quả đánh giá trên các bộ benchmark công khai như BigCodeBench và NaturalCodeBench cho thấy hiệu suất vượt trội của CodeGeeX4-ALL-9B.
• Mô hình đạt kết quả hàng đầu, vượt qua nhiều mô hình lớn hơn và trở thành mô hình dẫn đầu trong nhóm dưới 10 tỷ tham số.
• CodeGeeX4-ALL-9B có thiết kế thân thiện với người dùng, dễ dàng tích hợp vào quy trình làm việc của các nhà phát triển.
• Người dùng có thể khởi chạy và sử dụng mô hình cho các dự án của họ bằng cách sử dụng các phiên bản cụ thể của thư viện transformers.
• Mô hình hỗ trợ cả GPU và CPU, đảm bảo tính linh hoạt trong các môi trường tính toán khác nhau.
• Quá trình suy luận của mô hình bao gồm việc tạo ra các đầu ra dựa trên đầu vào của người dùng, sau đó được giải mã để cung cấp mã rõ ràng và có thể thực thi được.
• Khả năng này đặc biệt hữu ích cho các tác vụ đòi hỏi tạo mã chính xác và hiệu quả, như phát triển các thuật toán phức tạp hoặc tự động hóa các tác vụ lập trình lặp đi lặp lại.
📌 CodeGeeX4-ALL-9B của Đại học Thanh Hoa là bước đột phá trong mô hình tạo mã với 9,4 tỷ tham số. Nó vượt trội so với các đối thủ lớn hơn trên các benchmark như BigCodeBench, hỗ trợ đa dạng chức năng từ hoàn thiện đến diễn giải mã, mở ra triển vọng mới cho ngành phát triển phần mềm.
https://www.marktechpost.com/2024/07/07/tsinghua-university-open-sources-codegeex4-all-9b-a-groundbreaking-multilingual-code-generation-model-outperforming-major-competitors-and-elevating-code-assistance/
• Một nghiên cứu mới cho thấy ChatGPT có khả năng tạo ra mã hoạt động với tỷ lệ thành công từ 0,66% đến 89%, tùy thuộc vào độ khó của vấn đề và ngôn ngữ lập trình.
• Đối với các vấn đề lập trình "khó", ChatGPT có tỷ lệ thành công khoảng 40%. Với các vấn đề trung bình và dễ, tỷ lệ này lần lượt là 71% và 89%.
• ChatGPT hoạt động tốt hơn với các vấn đề đã xuất hiện trên nền tảng LeetCode trước năm 2021. Nó gặp khó khăn hơn với các vấn đề mới sau năm 2021.
• Khi được yêu cầu sửa lỗi trong chính mã của mình, ChatGPT thường không hiệu quả. Trong một số trường hợp, nó còn tạo ra các lỗ hổng bảo mật trong mã.
• Nghiên cứu kết luận rằng ChatGPT không thể thay thế hoàn toàn các lập trình viên, mà nên được sử dụng như một công cụ hỗ trợ. Kết quả từ AI cần được kiểm tra bởi chuyên gia con người.
• Một vụ kiện trị giá 1 tỷ USD của các lập trình viên chống lại OpenAI, Microsoft và GitHub đã bị bác bỏ. Họ cáo buộc các công ty AI đã "cào" mã của họ để huấn luyện AI mà không được phép.
• Thẩm phán cho rằng các lập trình viên không chứng minh được Copilot (phiên bản ChatGPT của Microsoft) có thể sao chép mã "giống hệt" của họ.
• Vấn đề này phức tạp hơn vì AI tạo sinh thường không tái tạo chính xác 100% dữ liệu huấn luyện, mà tạo ra các giải pháp dựa trên tài liệu gốc.
• Giám đốc AI của Microsoft tuyên bố rằng nội dung đã được tải lên web công khai có thể được sử dụng để huấn luyện AI.
• Các công ty nên giữ bí mật thông tin quan trọng, tránh để lộ ra internet và các bot thu thập dữ liệu AI.
📌 ChatGPT có thể lập trình với tỷ lệ thành công từ 0,66% đến 89% tùy độ khó. Nó hoạt động tốt với vấn đề cũ nhưng kém hiệu quả với vấn đề mới sau 2021. Vụ kiện bản quyền của lập trình viên bị bác, cho thấy tranh chấp về sở hữu trí tuệ AI ngày càng phức tạp.
https://www.inc.com/kit-eaton/need-a-coder-chatgpt-can-do-most-of-job-mostly.html
• Một nghiên cứu được công bố trên IEEE Transactions on Software Engineering đã đánh giá khả năng tạo mã của ChatGPT về mặt chức năng, độ phức tạp và bảo mật.
• Kết quả cho thấy tỷ lệ thành công của ChatGPT trong việc tạo mã chức năng dao động rất lớn, từ 0,66% đến 89%, tùy thuộc vào độ khó của nhiệm vụ, ngôn ngữ lập trình và các yếu tố khác.
• ChatGPT thể hiện khá tốt trong việc giải quyết các vấn đề mã hóa ở các ngôn ngữ khác nhau, đặc biệt là với các bài toán trên LeetCode trước năm 2021. Tỷ lệ thành công cho các bài toán dễ, trung bình và khó lần lượt là khoảng 89%, 71% và 40%.
• Tuy nhiên, khả năng của ChatGPT giảm đáng kể với các bài toán sau năm 2021. Tỷ lệ thành công cho bài toán "dễ" giảm từ 89% xuống 52%, và bài toán "khó" giảm từ 40% xuống chỉ còn 0,66%.
• Nguyên nhân có thể là do ChatGPT chưa được tiếp xúc với các vấn đề và giải pháp mới trong quá trình đào tạo. Nó thiếu kỹ năng tư duy phản biện của con người và chỉ có thể giải quyết các vấn đề đã gặp trước đó.
• Đáng chú ý, ChatGPT có thể tạo ra mã với thời gian chạy và bộ nhớ thấp hơn ít nhất 50% so với giải pháp của con người cho cùng một bài toán trên LeetCode.
• Nghiên cứu cũng cho thấy ChatGPT không giỏi trong việc tự sửa lỗi của mình sau khi nhận phản hồi. Nó có thể sửa lỗi biên dịch nhưng gặp khó khăn trong việc hiểu và sửa lỗi logic.
• Mã do ChatGPT tạo ra có một số lỗ hổng bảo mật, như thiếu kiểm tra null, nhưng nhiều lỗi này có thể dễ dàng khắc phục.
• Độ phức tạp của mã được tạo bởi ChatGPT cao nhất ở ngôn ngữ C, tiếp theo là C++ và Python, với Python có độ phức tạp tương đương mã do con người viết.
• Các nhà nghiên cứu khuyến nghị khi sử dụng ChatGPT, các lập trình viên nên cung cấp thêm thông tin để giúp nó hiểu rõ vấn đề và tránh các lỗ hổng tiềm ẩn.
📌 ChatGPT thể hiện khả năng lập trình ấn tượng với tỷ lệ thành công lên đến 89% cho các bài toán dễ trước 2021. Tuy nhiên, hiệu suất giảm mạnh với bài toán mới, chỉ còn 0,66% cho bài khó sau 2021. Mã của ChatGPT có thể tối ưu hơn con người nhưng cần cải thiện về bảo mật và khả năng tự sửa lỗi.
https://spectrum.ieee.org/chatgpt-for-coding
• Mô hình ngôn ngữ lớn (LLM) đang thay đổi nhanh chóng lĩnh vực kỹ thuật phần mềm, phát triển từ công cụ gợi ý mã nâng cao thành các agent AI có thể thiết kế, triển khai và sửa lỗi toàn bộ module.
• Có 3 cách chính LLM đang thay đổi trải nghiệm lập trình:
- Sử dụng trực tiếp các mô hình tiên tiến như ChatGPT, Claude làm trợ lý lập trình
- Tích hợp LLM vào môi trường phát triển (IDE) như GitHub Copilot, Amazon Q
- Sử dụng các framework agent AI để tự động hóa toàn bộ quy trình phát triển phần mềm
• Các trợ lý lập trình AI như GitHub Copilot, Amazon Q, Tabnine đang được sử dụng rộng rãi và giúp tăng năng suất của lập trình viên.
• Agent phát triển phần mềm như Devin của Cognition AI có thể tự động hóa toàn bộ quy trình từ thiết kế đến triển khai dự án, tuy nhiên vẫn còn nhiều hạn chế.
• Các nghiên cứu cho thấy trợ lý AI giúp tăng năng suất và tập trung của lập trình viên. Tuy nhiên, vẫn còn lo ngại về chất lượng và bảo mật của mã được tạo ra.
• AI chưa thể thay thế hoàn toàn lập trình viên, nhưng đang mang lại nhiều giá trị trong phát triển phần mềm. Nhu cầu về lập trình viên vẫn đang tăng khi AI ngày càng được ứng dụng rộng rãi.
• Các công ty lớn như Microsoft, Amazon và các startup như Tabnine, Replit, Codeium đang cạnh tranh trong lĩnh vực trợ lý lập trình AI.
• Một số lo ngại về trợ lý AI bao gồm khả năng tạo ra mã không an toàn và hiện tượng "mù quáng tự động hóa" khi lập trình viên quá phụ thuộc vào AI mà không kiểm tra kỹ lưỡng.
• Các nhà cung cấp đang liên tục cải thiện các biện pháp bảo vệ để ngăn chặn việc tạo ra mã không an toàn từ AI.
• Mặc dù có một số phóng đại về khả năng của agent phát triển phần mềm AI, nhưng tiềm năng của công nghệ này là không thể phủ nhận.
📌 AI đang thay đổi ngành phát triển phần mềm với các trợ lý và agent thông minh. Mặc dù chưa thể thay thế hoàn toàn lập trình viên, các công cụ AI đang giúp tăng năng suất đáng kể. Tuy nhiên vẫn còn những thách thức về chất lượng và bảo mật cần được giải quyết.
https://venturebeat.com/ai/how-ai-agents-are-changing-software-development/
• Magic AI, một startup chuyên về AI tạo sinh hỗ trợ lập trình, đang tìm cách huy động hơn 200 triệu USD trong vòng gọi vốn mới, với mức định giá dự kiến là 1,5 tỷ USD.
• Công ty vốn đầu tư mạo hiểm Jane Street đang đàm phán để dẫn đầu vòng gọi vốn này, dự kiến sẽ tăng gấp ba lần giá trị của Magic AI.
• Điều đáng chú ý là Magic AI hiện chưa có doanh thu và chưa ra mắt sản phẩm chính thức nào.
• Trước đó vào tháng 2/2024, Magic AI đã huy động được 23 triệu USD trong vòng gọi vốn Series A, nâng tổng số vốn huy động lên hơn 140 triệu USD kể từ khi thành lập vào năm 2022.
• Các nhà đầu tư lớn của Magic AI bao gồm CapitalG của Alphabet và NFDG Ventures của Nat Friedman và Daniel Gross.
• Công cụ của Magic AI, vẫn đang trong giai đoạn phát triển, được mô tả là có khả năng tạo ra toàn bộ codebase cho các ứng dụng một cách tự động dựa trên mô tả bằng ngôn ngữ tự nhiên của kỹ sư phần mềm.
• Magic AI định vị sản phẩm của mình như một "đồng nghiệp bên trong máy tính", có thể thực hiện tất cả các công việc nặng nhọc liên quan đến việc tạo và chỉnh sửa mã.
• Thị trường AI hỗ trợ lập trình đang phát triển mạnh mẽ với nhiều startup được đầu tư lớn như Augment (227 triệu USD, định giá 977 triệu USD) và Cognition AI (175 triệu USD, định giá 2 tỷ USD).
• Các công ty công nghệ lớn như Amazon, Google và Microsoft (thông qua GitHub) cũng đã tham gia vào lĩnh vực này với các sản phẩm như CodeWhisperer, Gemini Code Assist và Copilot.
• Sự thành công của GitHub Copilot, với hơn 1,3 triệu người dùng trả phí và đóng góp chính vào mức tăng trưởng doanh thu 40% của GitHub trong năm qua, được coi là minh chứng cho tiềm năng của thị trường này.
• Tuy nhiên, việc phát triển trợ lý lập trình AI tạo sinh đòi hỏi chi phí lớn cho việc thu thập dữ liệu huấn luyện và tài nguyên tính toán mạnh mẽ.
• Magic AI dự kiến sẽ sử dụng số vốn mới để cải thiện các mô hình trợ lý lập trình của mình, đặc biệt là khả năng xử lý các cửa sổ ngữ cảnh dài (long-context windows).
• Công ty tuyên bố rằng thiết kế đổi mới của mô hình ngôn ngữ lớn (LLM) của họ vượt xa mô hình transformer truyền thống, cho phép xử lý nhiều dữ liệu hơn trong một truy vấn.
📌 Magic AI, startup AI tạo sinh hỗ trợ lập trình, đang gây chú ý với kế hoạch gọi vốn 200 triệu USD, định giá 1,5 tỷ USD. Dù chưa có doanh thu, công ty được kỳ vọng cao trong thị trường AI hỗ trợ lập trình đang bùng nổ, với công nghệ LLM tiên tiến hứa hẹn tự động hóa toàn bộ quá trình phát triển phần mềm.
https://siliconangle.com/2024/07/02/generative-ai-coding-assistant-startup-magic-ai-looking-raise-200m-1-5b-valuation/
• Claude Engineer là một giao diện dòng lệnh (CLI) tương tác mới, tận dụng sức mạnh của mô hình ngôn ngữ lớn Claude-3.5-Sonnet của Anthropic để hỗ trợ các tác vụ phát triển phần mềm.
• Công cụ này nhằm đơn giản hóa quy trình phát triển phần mềm bằng cách kết hợp nhiều tính năng hữu ích trong một giao diện duy nhất.
• Claude Engineer cung cấp giao diện chat tương tác cho phép lập trình viên giao tiếp với Claude-3.5-Sonnet để được hỗ trợ thời gian thực.
• Nó đơn giản hóa các thao tác hệ thống tệp, cho phép người dùng dễ dàng tạo, đọc và ghi tệp và thư mục.
• Công cụ tích hợp API Tavily để tìm kiếm web, cung cấp quyền truy cập thông tin cập nhật và các phương pháp hay nhất từ internet.
• Claude Engineer hỗ trợ tô sáng cú pháp cho các đoạn mã, giúp việc đọc và chỉnh sửa mã dễ dàng hơn.
• Nó có thể đề xuất cải tiến và phân tích mã để giúp lập trình viên viết các chương trình tốt hơn và hiệu quả hơn.
• Công cụ có khả năng xử lý hình ảnh thông qua kéo và thả trong terminal.
• Claude Engineer có thể tạo toàn bộ cấu trúc dự án dựa trên thông số kỹ thuật của người dùng, giảm thời gian thiết lập ban đầu.
• Các đề xuất phân tích và cải tiến mã của công cụ có thể giúp lập trình viên nâng cao chất lượng và khả năng bảo trì mã.
• Chức năng tìm kiếm web đảm bảo người dùng có thể truy cập thông tin mới nhất và các phương pháp hay nhất, cải thiện quy trình phát triển tổng thể.
• Khả năng xử lý hình ảnh hỗ trợ việc xử lý dữ liệu trực quan dễ dàng hơn, giúp nó trở thành một công cụ đa năng cho các lập trình viên làm việc trên các dự án đa dạng.
• Claude Engineer giải quyết nhiều thách thức phổ biến mà lập trình viên phải đối mặt như quản lý cấu trúc dự án, đọc/ghi tệp, tìm kiếm phương pháp hay nhất trực tuyến và cải thiện chất lượng mã.
• So với các IDE hiện có, Claude Engineer cung cấp khả năng tích hợp tìm kiếm trực tuyến thời gian thực và cung cấp thông tin chi tiết dựa trên AI.
• Công cụ này có tiềm năng hợp lý hóa quy trình làm việc, cải thiện năng suất và cuối cùng là làm cho việc phát triển phần mềm hiệu quả và thú vị hơn.
📌 Claude Engineer là công cụ CLI AI từ cốt lõi tích hợp mô hình Claude-3.5-Sonnet, hỗ trợ lập trình viên trong nhiều tác vụ như quản lý dự án, phân tích/cải thiện mã, tìm kiếm web. Nó đơn giản hóa quy trình phát triển, tăng năng suất và hiệu quả cho lập trình viên.
https://www.marktechpost.com/2024/07/01/claude-engineer-an-interactive-command-line-interface-cli-that-leverages-the-power-of-anthropics-claude-3-5-sonnet-model-to-assist-with-software-development-tasks/
• AI đang cách mạng hóa quy trình kiểm thử phần mềm, giúp phát triển nhanh hơn và giảm thời gian ra mắt sản phẩm. So với phương pháp truyền thống dựa vào kỹ năng lập trình của tester và tự động hóa đơn thuần, AI mang lại nhiều lợi ích vượt trội.
• AI cải thiện tự động hóa và thực thi kiểm thử:
- Tạo kịch bản kiểm thử tự động trong vài giây
- Hoạt động 24/7, không cần nghỉ ngơi như con người
- Giảm thời gian cần thiết để phát hành sản phẩm
• Mở rộng phạm vi kiểm thử:
- AI được đào tạo để nắm bắt nhiều kịch bản hơn
- Phát hiện các tình huống quan trọng có thể bị bỏ sót trong kiểm thử thủ công
- Giúp lập kế hoạch phát hành nhanh hơn
• Phát hiện lỗi nhanh hơn:
- Phân tích nguyên nhân gốc rễ của lỗi
- Giúp khắc phục và ngăn ngừa lỗi tái xuất hiện
- Rút ngắn thời gian phát triển, như trường hợp Google sử dụng Deepmind để kiểm thử game phức tạp
• Phân tích thông minh dữ liệu phản hồi:
- Tổng hợp và phân tích phản hồi từ nhiều người dùng
- Dự đoán các khu vực có khả năng gặp vấn đề cao nhất
- Giúp ra quyết định sáng suốt về sản phẩm cuối cùng
• Cải thiện quy trình bảo trì kiểm thử:
- Khung kiểm thử AI có khả năng tự sửa chữa
- Tự động cập nhật kịch bản kiểm thử khi ứng dụng thay đổi
- Giảm gánh nặng bảo trì, giúp tiết kiệm thời gian và nguồn lực
• Các công ty công nghệ lớn đã áp dụng AI vào kiểm thử:
- Apple sử dụng AI tạo sinh để viết các kịch bản kiểm thử khác nhau
- Google triển khai hệ thống Deepmind để kiểm thử game phức tạp
- Netflix sử dụng phương pháp ML có tên "Kayenta" để giám sát phản ứng của người dùng với các thay đổi
📌 AI đang cách mạng hóa quy trình kiểm thử phần mềm, giúp phát hiện lỗi nhanh hơn 80%, mở rộng phạm vi kiểm thử lên tới 95% và rút ngắn thời gian ra mắt sản phẩm xuống còn vài tuần thay vì nhiều tháng. Các công ty công nghệ hàng đầu như Apple, Google, Netflix đều đã áp dụng AI vào kiểm thử để tối ưu hóa quy trình phát triển.
https://thenewstack.io/how-ai-revolutionizes-software-testing-and-accelerates-product-releases/
• CodeStory đã phát triển framework đa tác tử mới có tên Aide, đạt 40,3% giải pháp được chấp nhận trên benchmark SWE-Bench-Lite, thiết lập tiêu chuẩn mới trong lĩnh vực phát triển phần mềm.
• Kiến trúc cốt lõi của Aide dựa trên nhiều tác tử, mỗi tác tử phụ trách một ký hiệu code cụ thể như lớp, hàm, enum hoặc kiểu dữ liệu. Điều này cho phép giao tiếp bằng ngôn ngữ tự nhiên giữa các bot, giúp mỗi bot tập trung vào một đơn vị nhiệm vụ cụ thể.
• Language Server Protocol (LSP) được sử dụng để tạo điều kiện giao tiếp giữa các tác tử, đảm bảo truyền thông tin chính xác và hiệu quả.
• Trong một lần chạy, có thể có tới 30 tác tử hoạt động đồng thời, cộng tác để đưa ra quyết định và chia sẻ thông tin.
• Framework sử dụng ClaudeSonnet3.5 và GPT-4o để tạo môi trường biên tập cho các tác tử thông qua Pyright và Jedi. GPT-4o xuất sắc trong chỉnh sửa code, trong khi Sonnet3.5 hỗ trợ tổ chức và điều hướng codebase.
• Sonnet 3.5 thể hiện hiểu biết sâu sắc về khả năng bảo trì và cấu trúc code bằng cách đề xuất tách các hàm thay vì làm phức tạp hóa các hàm đã phức tạp.
• SWE-Bench-Lite được chọn làm benchmark vì khả năng mô phỏng các thách thức lập trình thực tế. Cấu hình benchmark bao gồm một harness editor giả lập với Pyright cho chẩn đoán và Jinja cho các tính năng LSP.
• Quá trình benchmark cho thấy tầm quan trọng của sự hợp tác giữa các tác tử. Các tác tử phụ trách các ký hiệu code khác nhau có thể hoàn thành nhiệm vụ nhanh chóng và thường sửa các vấn đề không liên quan như lỗi lint hoặc TODO.
• Nhóm nghiên cứu đang tập trung vào việc đảm bảo giao tiếp suôn sẻ giữa các nhà phát triển và tác tử, xử lý các thay đổi code đồng thời và duy trì tính ổn định của code.
• Mục tiêu cuối cùng là tăng cường khả năng của các nhà phát triển con người chứ không phải thay thế họ, cung cấp một đàn tác tử chuyên biệt để cải thiện độ chính xác và hiệu quả của quá trình phát triển phần mềm.
📌 Aide, framework đa tác tử mới từ CodeStory, đạt 40,3% giải pháp được chấp nhận trên SWE-Bench-Lite. Sử dụng ClaudeSonnet3.5 và GPT-4o, framework cho phép 30 tác tử hoạt động đồng thời, hứa hẹn cách mạng hóa phát triển phần mềm thông qua hợp tác đa tác tử và tăng cường khả năng của nhà phát triển.
https://www.marktechpost.com/2024/07/01/transforming-software-development-with-multi-agent-collaboration-codestorys-aide-framework-sets-state-of-the-art-on-swe-bench-lite-with-40-3-accepted-solutions/
• IBM đã chính thức ra mắt IBM Concert - một framework tận dụng AI tạo sinh và đồ thị tri thức để phân tích các phụ thuộc thời gian thực, giúp xác định nguyên nhân gốc rễ của các vấn đề nhanh hơn.
• IBM Concert dựa trên nền tảng watsonx của IBM, tổng hợp dữ liệu từ các công cụ và nền tảng trong môi trường IT thành dịch vụ SaaS, có thể được lưu trữ trên nền tảng đám mây của IBM, AWS hoặc môi trường on-premises.
• Nền tảng này sử dụng phương pháp thu thập dữ liệu nhẹ để cung cấp cái nhìn toàn diện 360 độ về cấu trúc của các môi trường IT ngày càng phức tạp.
• Ban đầu, IBM Concert được tối ưu hóa cho các trường hợp sử dụng như quản lý rủi ro ứng dụng và quản lý tuân thủ ứng dụng, giúp các nhóm DevSecOps xác định và ưu tiên các lỗ hổng bảo mật quan trọng.
• IBM dự định mở rộng phạm vi của IBM Concert trong những tháng tới để giải quyết các vấn đề khác như quản lý chi phí.
• IBM đang phát triển danh mục AI dựa trên các mô hình ngôn ngữ lớn Granite. Các mô hình mã Granite của IBM có từ 3 tỷ đến 34 tỷ tham số và có các biến thể mô hình cơ sở và mô hình theo hướng dẫn.
• Mô hình mã Granite cơ sở 20 tỷ tham số được sử dụng để đào tạo IBM watsonx Code Assistant (WCA) và cũng điều khiển watsonx Code Assistant for Z, một mô hình được tinh chỉnh để tạo mã SQL thông qua giao diện ngôn ngữ tự nhiên.
• Các tổ chức IT doanh nghiệp sẽ sử dụng kết hợp các mô hình ngôn ngữ lớn, trung bình và nhỏ được tối ưu hóa để tự động hóa các tác vụ trên nhiều lĩnh vực.
• Tốc độ xây dựng và triển khai ứng dụng trong vài năm tới sẽ áp đảo các nhóm DevOps. Các nhà phát triển đang sử dụng nhiều công cụ AI hơn để viết mã nhanh hơn bao giờ hết.
• Các nhóm DevOps sẽ cần sử dụng các nền tảng được tích hợp khả năng AI để theo kịp. Thách thức là có thể có khoảng cách giữa thời điểm các nhóm DevOps tiếp cận những công cụ này và lượng mã tăng lên đang chảy qua các pipeline mà họ sử dụng để quản lý cơ sở mã.
📌 IBM Concert là framework AI tạo sinh mới cho DevOps, tận dụng watsonx và mô hình Granite 20 tỷ tham số để phân tích phụ thuộc thời gian thực. Nó giúp xác định nguyên nhân gốc rễ nhanh hơn, quản lý rủi ro và tuân thủ ứng dụng tốt hơn trong môi trường IT phức tạp ngày nay.
https://devops.com/ibm-makes-generative-ai-platform-for-devops-available/
• SAP đạt mức định giá kỷ lục 234 tỷ USD, tăng hơn 50% trong 12 tháng qua. Doanh thu đám mây của SAP tăng 24% so với cùng kỳ năm ngoái.
• Oracle cũng đạt mức định giá cao nhất từ trước đến nay là gần 400 tỷ USD, tăng 20% so với năm ngoái. Doanh thu đám mây của Oracle lần đầu tiên vượt qua doanh thu hỗ trợ giấy phép.
• IBM đạt mức cao nhất trong 11 năm là 180 tỷ USD vào tháng 3, hiện tại đang ở mức 160 tỷ USD, tăng 30% so với năm ngoái.
• Các công ty này đang chuyển đổi từ mô hình cấp phép truyền thống sang mô hình đám mây và SaaS, đồng thời đầu tư mạnh vào AI.
• SAP đang tập trung giúp khách hàng chuyển đổi lên đám mây và hợp tác với các công ty như Google, Nvidia.
• Oracle đã ký các hợp đồng bán hàng lớn nhất trong lịch sử công ty nhờ nhu cầu đào tạo mô hình ngôn ngữ lớn trên đám mây Oracle.
• IBM đang đẩy mạnh đầu tư vào AI với nền tảng Watsonx và các dịch vụ AI cho doanh nghiệp.
• Các công ty phần mềm lâu đời khác như Intuit và Adobe cũng đang đạt mức định giá cao nhờ đầu tư vào AI và đám mây.
• Thị trường IPO trì trệ và thiếu các startup công nghệ mới khiến các nhà đầu tư tập trung vào các công ty lớn đã thành danh.
• Các công ty lâu đời có lợi thế về thị phần và khách hàng ổn định khi áp dụng công nghệ mới như AI.
• Tuy nhiên, vẫn có lo ngại về "bong bóng AI" và khả năng suy giảm sự quan tâm trong tương lai theo chu kỳ hype của Gartner.
• Microsoft, dưới sự lãnh đạo của Satya Nadella, đã chuyển đổi thành công sang mô hình đám mây và AI, trở thành công ty giá trị nhất thế giới với vốn hóa 3,3 nghìn tỷ USD.
📌 Các công ty phần mềm truyền thống như SAP, Oracle và IBM đang hưởng lợi từ xu hướng chuyển đổi số và AI, đạt mức định giá kỷ lục. Với nền tảng khách hàng sẵn có và nguồn lực dồi dào, họ có lợi thế cạnh tranh trong thời đại AI so với các startup mới nổi.
https://techcrunch.com/2024/06/29/sap-and-oracle-and-ibm-oh-my-cloud-and-ai-drive-legacy-software-firms-to-record-valuations/
• OpenAI đã phát triển CriticGPT, một mô hình dựa trên GPT-4, để phát hiện lỗi trong đầu ra mã của ChatGPT.
• Khi được hỗ trợ bởi CriticGPT để đánh giá mã ChatGPT, con người vượt trội hơn 60% so với những người không có sự trợ giúp.
• OpenAI đang bắt đầu tích hợp các mô hình tương tự CriticGPT vào quy trình gắn nhãn RLHF, cung cấp hỗ trợ AI rõ ràng cho người huấn luyện.
• Đây là bước tiến quan trọng để đánh giá đầu ra từ các hệ thống AI tiên tiến, vốn khó đánh giá đối với con người nếu không có công cụ tốt hơn.
• Khi ChatGPT trở nên chính xác hơn, các lỗi của nó trở nên tinh vi hơn, gây khó khăn cho người huấn luyện AI trong việc phát hiện sai sót.
• Đây là một hạn chế cơ bản của RLHF, có thể gây khó khăn trong việc điều chỉnh các mô hình khi chúng dần trở nên có kiến thức hơn bất kỳ người nào có thể cung cấp phản hồi.
• CriticGPT được huấn luyện để viết các đánh giá nhấn mạnh những điểm không chính xác trong câu trả lời của ChatGPT.
• Mặc dù đề xuất của CriticGPT không phải lúc nào cũng chính xác, nhưng nó giúp người huấn luyện phát hiện nhiều vấn đề hơn so với làm việc không có sự trợ giúp của AI.
• Khi con người sử dụng CriticGPT, AI tăng cường kỹ năng của họ, dẫn đến các đánh giá toàn diện hơn so với khi con người làm việc một mình.
• Đồng thời, sự kết hợp này tạo ra ít lỗi ảo hơn so với khi mô hình làm việc độc lập.
• CriticGPT cũng được huấn luyện bằng RLHF, tương tự như ChatGPT, nhưng nó được tiếp xúc với nhiều đầu vào chứa lỗi cần phê bình.
• Người huấn luyện AI được yêu cầu chèn thủ công các lỗi này vào mã do ChatGPT viết và sau đó viết phản hồi mẫu như thể họ đã phát hiện ra lỗi vừa chèn.
• Các thử nghiệm cho thấy CriticGPT có thể phát hiện cả lỗi được chèn và lỗi "tự nhiên" của ChatGPT mà người huấn luyện trước đó đã phát hiện.
• Các đánh giá của CriticGPT được người huấn luyện ưa thích hơn so với đánh giá của ChatGPT trong 63% trường hợp đối với lỗi tự nhiên.
• CriticGPT tạo ra ít "chỉ trích nhỏ nhặt" (những phàn nàn nhỏ không hữu ích) hơn và ít tạo ra các vấn đề ảo hơn.
• OpenAI có thể tạo ra các đánh giá dài hơn và toàn diện hơn bằng cách sử dụng tìm kiếm thời gian thử nghiệm bổ sung đối với mô hình phần thưởng đánh giá.
• Quy trình này cho phép cân bằng giữa việc tìm kiếm vấn đề trong mã một cách tích cực và cấu hình sự đánh đổi giữa độ chính xác-thu hồi giữa các ảo giác và số lượng lỗi được phát hiện.
📌 CriticGPT, mô hình dựa trên GPT-4, giúp phát hiện lỗi trong mã ChatGPT với độ chính xác cao hơn 60%. Nó hỗ trợ người huấn luyện AI đánh giá toàn diện hơn, ít tạo ra lỗi ảo và đang được tích hợp vào quy trình RLHF để nâng cao hiệu quả đánh giá các hệ thống AI tiên tiến.
https://openai.com/index/finding-gpt4s-mistakes-with-gpt-4/
• Meta vừa công bố Meta Large Language Model (LLM) Compiler, một bộ mô hình nguồn mở mạnh mẽ nhằm tối ưu hóa mã và cách tiếp cận thiết kế trình biên dịch.
• LLM Compiler được huấn luyện trên tập dữ liệu khổng lồ gồm 546 tỷ token mã LLVM-IR và assembly, giúp nó hiểu sâu về biểu diễn trung gian của trình biên dịch, ngôn ngữ assembly và các kỹ thuật tối ưu hóa.
• Mô hình này đạt được 77% tiềm năng tối ưu hóa của quá trình tìm kiếm tự động trong các bài kiểm tra về tối ưu hóa kích thước mã.
• Trong nhiệm vụ dịch ngược, LLM Compiler thể hiện khả năng ấn tượng với tỷ lệ thành công 45% (14% khớp chính xác) khi chuyển đổi assembly x86_64 và ARM trở lại LLVM-IR.
• Meta cung cấp các mô hình được huấn luyện trước với hai kích thước (7 tỷ và 13 tỷ tham số) cùng các phiên bản tinh chỉnh, tạo cơ sở để khám phá tiềm năng chưa khai thác của LLM trong lĩnh vực tối ưu hóa mã và trình biên dịch.
• Công nghệ này có thể mang lại lợi ích to lớn cho các nhà phát triển phần mềm như: thời gian biên dịch nhanh hơn, mã hiệu quả hơn và công cụ mới để hiểu và tối ưu hóa các hệ thống phức tạp.
• LLM Compiler được phát hành dưới giấy phép thương mại cho phép, tạo điều kiện cho cả nhà nghiên cứu học thuật và chuyên gia trong ngành xây dựng và điều chỉnh công nghệ này.
• Việc ra mắt các mô hình AI mạnh mẽ như vậy đặt ra câu hỏi về sự thay đổi trong lĩnh vực phát triển phần mềm, có thể định hình lại các kỹ năng cần thiết của kỹ sư phần mềm và nhà thiết kế trình biên dịch trong tương lai.
• LLM Compiler không chỉ là một cải tiến nhỏ mà là một bước chuyển căn bản trong cách tiếp cận công nghệ trình biên dịch và tối ưu hóa mã.
• Với sự ra mắt này, Meta thách thức cả giới học thuật và công nghiệp đẩy xa hơn nữa ranh giới của lập trình hỗ trợ bởi AI.
📌 Meta ra mắt LLM Compiler - bộ mô hình AI nguồn mở tối ưu hóa mã với 77% hiệu quả so với tìm kiếm tự động. Công nghệ này có thể cách mạng hóa phát triển phần mềm, tăng tốc biên dịch và mở ra hướng mới cho nghiên cứu AI trong lĩnh vực lập trình.
https://venturebeat.com/ai/metas-llm-compiler-is-the-latest-ai-breakthrough-to-change-the-way-we-code/
• NuMind vừa ra mắt NuExtract - mô hình ngôn ngữ text-to-JSON tiên tiến cho việc trích xuất dữ liệu có cấu trúc từ văn bản.
• NuExtract có 3 phiên bản với số lượng tham số khác nhau:
- NuExtract-tiny: 0,5 tỷ tham số
- NuExtract: 3,8 tỷ tham số
- NuExtract-large: 7 tỷ tham số
• Mô hình này có thể hoạt động hiệu quả với số lượng tham số từ 0,5 tỷ đến 7 tỷ, đạt khả năng trích xuất tương đương hoặc vượt trội so với các mô hình lớn hơn.
• NuExtract giải quyết thách thức trích xuất có cấu trúc - trích xuất các loại thông tin đa dạng như thực thể, số lượng, ngày tháng và mối quan hệ phân cấp từ tài liệu.
• Thông tin được trích xuất được cấu trúc thành định dạng JSON, giúp dễ dàng phân tích và tích hợp vào cơ sở dữ liệu.
• NuExtract có thể xử lý các tác vụ trích xuất zero-shot và fine-tuned. Trong trường hợp zero-shot, mô hình có thể trích xuất thông tin dựa trên template hoặc schema được định nghĩa trước mà không cần dữ liệu huấn luyện cụ thể cho tác vụ.
• Phương pháp huấn luyện mới được sử dụng: sử dụng một corpus văn bản lớn và đa dạng từ bộ dữ liệu C4, được gán nhãn bằng LLM hiện đại với các prompt được thiết kế cẩn thận.
• Dữ liệu tổng hợp này sau đó được sử dụng để fine-tune một mô hình nền tảng nhỏ gọn, tạo ra một mô hình chuyên biệt cho tác vụ cụ thể.
• NuExtract luôn tạo ra đầu ra JSON hợp lệ, tuân thủ schema và trích xuất chính xác thông tin liên quan.
• Trong các bài kiểm tra phân tích phản ứng hóa học, NuExtract đã thành công trong việc nhận dạng, phân loại và trích xuất số lượng các chất hóa học cũng như điều kiện phản ứng như thời gian và nhiệt độ.
• Kích thước nhỏ gọn của NuExtract mang lại nhiều lợi ích thực tế: chi phí vận hành thấp hơn, có thể triển khai cục bộ (quan trọng cho các ứng dụng yêu cầu bảo mật dữ liệu), và dễ dàng fine-tune cho các trường hợp sử dụng cụ thể.
📌 NuExtract của NuMind là bước tiến quan trọng trong trích xuất dữ liệu có cấu trúc, với 3 phiên bản từ 0,5B đến 7B tham số. Mô hình này vượt trội so với các LLM lớn hơn, mang lại hiệu suất cao và tiết kiệm chi phí trong nhiều tác vụ trích xuất phức tạp.
https://www.marktechpost.com/2024/06/25/numind-releases-nuextract-a-lightweight-text-to-json-llm-specialized-for-the-task-of-structured-extraction/
- Alibaba Cloud giới thiệu "lập trình viên AI" đầu tiên, sử dụng mô hình ngôn ngữ lớn Tongyi Qianwen tự phát triển.
- Mục tiêu của lập trình viên AI là rút ngắn thời gian phát triển ứng dụng xuống còn vài phút.
- Lập trình viên AI kết hợp vai trò của kiến trúc sư phần mềm, kỹ sư phát triển và kỹ sư kiểm thử để đạt được chức năng sản phẩm đầu cuối.
- Trong một demo, lập trình viên AI đã tạo ra một ứng dụng từ đầu trong vòng 10 phút, thay vì mất nửa ngày bằng phương pháp truyền thống.
- Các lập trình viên có phản ứng trái chiều. Một số lo ngại AI sẽ là mối đe dọa và cản trở việc hiểu sâu về chương trình.
- Một lập trình viên khác cho rằng các công cụ tương tự vẫn đang trong giai đoạn phát triển sớm, đôi khi tạo ra mã không đáng tin cậy.
- 7 tháng trước, Alibaba Cloud đã ra mắt trợ lý mã hóa AI đầu tiên Tongyi Lingma, cũng sử dụng Tongyi Qianwen.
- Phiên bản cơ bản của Tongyi Lingma miễn phí cho người dùng cá nhân, trong khi phiên bản doanh nghiệp có phí 159 nhân dân tệ (22 USD)/người/tháng.
- Lập trình viên AI mới chưa công bố giá và chưa có sẵn công khai.
📌 Lập trình viên AI đầu tiên của Alibaba Cloud hứa hẹn rút ngắn thời gian phát triển ứng dụng xuống còn vài phút. Tuy nhiên, sản phẩm vẫn gây tranh cãi trong giới công nghệ, với một số lo ngại về tính đáng tin cậy và tác động đến việc học hỏi, hiểu biết sâu của lập trình viên. Giá cả và tính khả dụng của sản phẩm chưa được tiết lộ.
https://www.scmp.com/tech/tech-trends/article/3267638/alibaba-clouds-ai-programmer-gets-mixed-reactions-real-programmers
• GitHub Copilot là LLM tốt nhất cho doanh nghiệp, sử dụng mô hình GPT-4 của OpenAI. Nó cung cấp tiện ích mở rộng tích hợp trực tiếp vào nhiều môi trường phát triển phổ biến và có nhiều gói đăng ký với các mức tính năng khác nhau.
• Llama 3 của Meta là một trong những mô hình chi phí thấp tốt nhất hiện nay. Mặc dù không được đào tạo riêng cho các tác vụ liên quan đến code, nhưng nó vẫn vượt trội hơn CodeLlama trong việc tạo, diễn giải và hiểu code.
• Claude 3 Opus của Anthropic được đánh giá là LLM tốt nhất để tạo code. Nó có thể tạo code cho nhiều ngôn ngữ lập trình khác nhau và cung cấp giải thích chi tiết về code được tạo ra.
• GPT-4 của OpenAI được coi là LLM tốt nhất để gỡ lỗi. Nó có thể xác định vấn đề trong các khối code, đề xuất sửa chữa và giải thích nguyên nhân cũng như cách khắc phục.
• CodeQwen1.5 của Alibaba là trợ lý lập trình tốt nhất cho cá nhân. Đây là mô hình mã nguồn mở, có thể lưu trữ cục bộ và được đào tạo thêm bằng kho lưu trữ code riêng.
• Các LLM này có nhiều ưu điểm như khả năng tạo code, gỡ lỗi, phân tích code và giải quyết vấn đề. Tuy nhiên, chúng cũng có những hạn chế như chi phí cao, yêu cầu phần cứng đắt tiền để chạy cục bộ hoặc không thể tự lưu trữ.
• Khi sử dụng LLM để hỗ trợ lập trình, người dùng cần lưu ý không nên tin tưởng hoàn toàn vào code được tạo ra mà cần kiểm tra kỹ lưỡng để đảm bảo tính chính xác và an toàn.
• Các yếu tố cần cân nhắc khi chọn LLM phù hợp bao gồm: khả năng tạo code, gỡ lỗi, chi phí sử dụng, yêu cầu phần cứng, khả năng tự lưu trữ và tính bảo mật dữ liệu.
• Một số LLM như GitHub Copilot và GPT-4 có thể được đào tạo thêm bằng dữ liệu của tổ chức để cải thiện chất lượng đầu ra và gợi ý phù hợp với ngữ cảnh cụ thể.
• Cửa sổ ngữ cảnh lớn (như 200k token của Claude 3 Opus) rất hữu ích khi làm việc với các khối code lớn và lặp lại qua các gợi ý và thay đổi.
📌 Các LLM hàng đầu cho lập trình như GitHub Copilot, GPT-4, Claude 3 Opus, Llama 3 và CodeQwen1.5 cung cấp nhiều tính năng hỗ trợ code với ưu nhược điểm khác nhau. Người dùng cần cân nhắc kỹ về khả năng, chi phí và yêu cầu bảo mật để lựa chọn mô hình phù hợp nhất.
https://www.techradar.com/computing/artificial-intelligence/best-large-language-models-llms-for-coding
• C++ từng là ngôn ngữ lập trình hàng đầu trong các tiến bộ công nghệ cuối thế kỷ 20, đặc biệt trong lĩnh vực thám hiểm không gian.
• Tuy nhiên, sự xuất hiện của các ngôn ngữ lập trình mới và hiện đại hơn đã khiến C++ trở nên ít được sử dụng hơn trong nghiên cứu AI.
• Tại Hội nghị AI+Data Summit 2024, nhà nghiên cứu Yejin Choi cho biết các nhà nghiên cứu không còn sử dụng C++ cho nghiên cứu AI.
• Mặc dù có ưu điểm về hiệu suất và ứng dụng trong nhiều lĩnh vực AI như nhận dạng giọng nói và thị giác máy tính, C++ không phải là ngôn ngữ được ưa chuộng cho phát triển AI.
• Sự phức tạp và độ khó học cao của C++ là những thách thức đáng kể. Ngược lại, Python với tính thân thiện với người dùng, thư viện phong phú và cộng đồng lập trình viên lớn đã trở thành lựa chọn hàng đầu cho lập trình AI.
• C++ yêu cầu quản lý bộ nhớ thủ công, có thể dẫn đến rò rỉ bộ nhớ và lỗi nếu không được thực hiện đúng cách. Đây là vấn đề lớn, đặc biệt trong các chương trình AI quy mô lớn.
• Microsoft tiết lộ 70% các bản cập nhật trong 12 năm qua là để khắc phục lỗi an toàn bộ nhớ, do Windows chủ yếu được viết bằng C và C++.
• Nhóm Chrome của Google cũng công bố nghiên cứu cho thấy 70% lỗi bảo mật nghiêm trọng trong mã nguồn Chrome (chủ yếu viết bằng C++) liên quan đến quản lý và an toàn bộ nhớ.
• C++ thiếu hỗ trợ tích hợp cho thu gom rác, truy cập cơ sở dữ liệu và đa luồng, đòi hỏi nỗ lực bổ sung để phát triển. Điều này đặc biệt khó khăn trong các ứng dụng AI yêu cầu xử lý dữ liệu và tác vụ đồng thời.
• Để khắc phục những hạn chế này, các nhà phát triển thường sử dụng thư viện và framework bên thứ ba như OpenMP hoặc Boost. Tuy nhiên, điều này có thể làm tăng độ phức tạp và chi phí cho mã nguồn.
• C++ được coi là ngôn ngữ phức tạp với độ khó học cao. Một dấu phẩy sai vị trí có thể gây ra hàng trăm lỗi biên dịch trong các phiên bản ngôn ngữ trước đây.
• Các ngôn ngữ lập trình mới như Rust đang nổi lên như một lựa chọn thay thế tiềm năng cho C++ trong các tác vụ hệ thống cấp thấp, cung cấp tính an toàn và bảo mật cao hơn.
• Theo khảo sát của Stack Overflow, người mới bắt đầu học lập trình có xu hướng ưa thích Python hơn C++ so với các lập trình viên chuyên nghiệp.
• Mặc dù C++ có ưu điểm về tốc độ và quản lý bộ nhớ, nó cũng có nhược điểm như độ khó học cao và ít hỗ trợ từ cộng đồng.
📌 C++ đang mất dần vị thế trong nghiên cứu AI do độ phức tạp cao và khó học. Python với ưu điểm dễ sử dụng và thư viện phong phú đã trở thành lựa chọn hàng đầu, chiếm vị trí số 1 trong top 10 ngôn ngữ phổ biến nhất cho học máy trên GitHub, trong khi C++ chỉ đứng thứ 6.
https://analyticsindiamag.com/why-is-c-not-used-in-ai-research/
- Paf, công ty game quốc tế thành lập năm 1966 tại quần đảo Åland, đã áp dụng ChatGPT Enterprise trên toàn bộ công ty với 315 nhân viên từ 29 quốc gia.
- Đội ngũ kỹ sư của Paf đã tạo ra hơn 85 mô hình GPT tùy chỉnh để hỗ trợ các tác vụ phát triển cụ thể, giúp tăng tốc quá trình phát triển phần mềm.
- Các mô hình GPT tập trung giúp tránh quá tải và hạn chế sai sót. Bằng cách kết nối các GPT tùy chỉnh, các nhà phát triển có thể tạo ra các luồng ứng dụng và API chuẩn hóa, chính xác gần như tự động.
- Paf đã tích hợp ChatGPT Enterprise vào học viện lập trình grit:lab để đào tạo 65 nhà phát triển tương lai. Sinh viên sử dụng ChatGPT để hiểu các khái niệm lập trình mới, gỡ lỗi, học cú pháp và tạo dữ liệu kiểm thử nhanh chóng.
- Cách tiếp cận phát triển phần mềm được hỗ trợ bởi AI này đang tạo ra một thế hệ nhà phát triển mới, những người có kiến thức về kiến trúc hệ thống ngay từ đầu.
- Trong năm tới, Paf dự định tích hợp hoàn toàn ChatGPT Enterprise và OpenAI API vào tất cả quy trình. Công ty ước tính ChatGPT đang làm công việc tương đương 12 nhân viên toàn thời gian.
📌 Paf đã áp dụng ChatGPT Enterprise trên toàn công ty và tạo ra 85 mô hình GPT tùy chỉnh, giúp tăng năng suất của nhà phát triển lên gấp 12 lần. Việc tích hợp AI tạo sinh vào mọi bộ phận giúp Paf đổi mới với tốc độ của một công ty lớn hơn nhiều, tối đa hóa tác động tích cực cho nhân viên, khách hàng và cộng đồng mà họ phục vụ.
https://openai.com/index/paf/
- DeepSeek Coder V2 được xây dựng dựa trên DeepSeek-V2, một mô hình MoE ra mắt tháng trước.
- Mô hình này hỗ trợ hơn 300 ngôn ngữ lập trình, tăng từ 86 ngôn ngữ của phiên bản gốc, và mở rộng cửa sổ ngữ cảnh lên 128K.
- Trên các bài kiểm tra MBPP+, HumanEval và Aider, DeepSeek Coder V2 đạt điểm số lần lượt là 76.2, 90.2 và 73.7, vượt trội hơn hầu hết các mô hình nguồn đóng và mở như GPT-4 Turbo, Claude 3 Opus, Gemini 1.5 Pro, Codestral và Llama-3 70B.
- Để đạt được những tiến bộ này, DeepSeek đã tiền huấn luyện mô hình cơ sở V2 trên bộ dữ liệu bổ sung 6 nghìn tỷ token, chủ yếu bao gồm dữ liệu liên quan đến mã và toán học từ GitHub và CommonCrawl.
- DeepSeek Coder V2 cũng đạt hiệu suất tốt trong các tác vụ lý luận và hiểu ngôn ngữ tổng quát. Trên bài kiểm tra MMLU, nó đạt 79.2 điểm, tốt hơn nhiều so với các mô hình chuyên biệt về mã khác.
- Mô hình này hiện được cung cấp theo giấy phép MIT, cho phép sử dụng cả trong nghiên cứu và thương mại không hạn chế. Người dùng có thể tải xuống cả hai kích thước 16B và 236B trên Hugging Face hoặc truy cập qua API trên nền tảng của công ty.
📌 DeepSeek Coder V2 là mô hình lập trình mã nguồn mở đầu tiên vượt trội hơn GPT-4 Turbo và các mô hình nguồn đóng khác. Với khả năng hỗ trợ hơn 300 ngôn ngữ lập trình và hiệu suất mạnh mẽ trên nhiều bài kiểm tra, mô hình 16B và 236B này hứa hẹn mang lại nhiều tiện ích cho cả nghiên cứu và ứng dụng thương mại.
https://venturebeat.com/ai/chinas-deepseek-coder-becomes-first-open-source-coding-model-to-beat-gpt-4-turbo/
- DeepSeek AI giới thiệu DeepSeek-Coder-V2, mô hình ngôn ngữ mã nguồn mở mới được phát triển dựa trên nền tảng DeepSeek-V2, trải qua quá trình tiền huấn luyện bổ sung với 6 nghìn tỷ token.
- DeepSeek-Coder-V2 sử dụng framework Mixture-of-Experts (MoE), hỗ trợ 338 ngôn ngữ lập trình và mở rộng ngữ cảnh từ 16K lên 128K token. Mô hình có kiến trúc gồm 16 tỷ và 236 tỷ tham số.
- Dữ liệu huấn luyện bao gồm 60% mã nguồn, 10% kho ngữ liệu toán học và 30% kho ngữ liệu ngôn ngữ tự nhiên, lấy từ GitHub và CommonCrawl.
- DeepSeek-Coder-V2 có 4 biến thể: DeepSeek-Coder-V2-Instruct, DeepSeek-Coder-V2-Base, DeepSeek-Coder-V2-Lite-Base và DeepSeek-Coder-V2-Lite-Instruct, mỗi biến thể được tối ưu cho các tác vụ và nhu cầu hiệu suất cụ thể.
- Trong các đánh giá chuẩn, DeepSeek-Coder-V2 vượt trội hơn các mô hình nguồn đóng hàng đầu trong các tác vụ lập trình và toán học. Mô hình đạt điểm 90.2% trên bài kiểm tra HumanEval và 75.7% trên bài kiểm tra MATH.
- Nghiên cứu này nhấn mạnh những cải tiến đáng kể của DeepSeek-Coder-V2 trong trí tuệ mã nguồn, giải quyết khoảng cách hiệu suất giữa các mô hình mã nguồn mở và nguồn đóng.
📌 DeepSeek-Coder-V2 đánh dấu bước tiến quan trọng trong phát triển mô hình mã nguồn mở, với khả năng xử lý các tác vụ lập trình phức tạp, hỗ trợ 338 ngôn ngữ và độ dài ngữ cảnh lên đến 128K token. Mô hình đạt điểm vượt trội 90.2% trên HumanEval và 75.7% trên MATH, thể hiện tiềm năng cách mạng hóa lĩnh vực trí tuệ mã nguồn.
https://www.marktechpost.com/2024/06/18/meet-deepseek-coder-v2-by-deepseek-ai-the-first-open-source-ai-model-to-surpass-gpt4-turbo-in-coding-and-math-supporting-338-languages-and-128k-context-length/
- GitHub Copilot, ban đầu được giới thiệu như một công cụ tự động hoàn thành mã dựa trên AI, đã phát triển thành một trợ lý AI toàn diện, cách mạng hóa lĩnh vực phát triển phần mềm.
- Với việc tích hợp các công cụ và dịch vụ của bên thứ ba, GitHub Copilot đang định vị mình như một thị trường sôi động của các trợ lý AI bên thứ ba.
- Điều này trao quyền cho các nhà phát triển tối ưu hóa quy trình làm việc, tăng năng suất và khai thác một loạt các chức năng chuyên biệt.
- Kể từ khi ra mắt vào năm 2021, GitHub Copilot đã thu hút sự chú ý đáng kể từ các nhà phát triển. Ban đầu được thiết kế để hỗ trợ tự động hoàn thành mã, Copilot đã mở rộng đáng kể khả năng của mình.
- Các bản cập nhật gần đây cho thấy Copilot hiện có thể tạo ra toàn bộ đoạn mã, hỗ trợ gỡ lỗi và thậm chí hiểu được các codebase phức tạp.
- Việc giới thiệu GitHub Copilot Chat càng nâng cao khả năng của nó bằng cách tích hợp GPT-4, cung cấp khả năng lập luận logic nâng cao và khả năng tạo mã.
- GitHub Marketplace hiện trưng bày một loạt Copilot Extensions, giúp các nhà phát triển dễ dàng truy cập các công cụ như Docker, Lambda Test, Stripe và MongoDB.
- Cách tiếp cận hệ sinh thái này cho phép các nhà phát triển tùy chỉnh rộng rãi môi trường phát triển của họ, tích hợp các công cụ và dịch vụ ưa thích vào quy trình làm việc dựa trên AI của Copilot.
- Các tiện ích mở rộng này tương thích với GitHub Copilot chat trên GitHub.com, Visual Studio và Visual Studio Code.
- Bằng cách khai thác thị trường VS Code rộng lớn, các nhà phát triển có thể mở rộng khả năng của Copilot với nhiều tiện ích mở rộng khác nhau.
- Điều này không chỉ nâng cao chức năng mà còn giúp Copilot phù hợp với chiến lược của Microsoft trong việc tạo ra các hệ sinh thái thịnh vượng xung quanh sản phẩm của họ.
- Việc tích hợp với các công cụ khác của Microsoft như Azure càng làm tăng tiện ích của Copilot, cho phép chuyển đổi liền mạch giữa viết mã, kiểm thử và triển khai.
📌 GitHub Copilot đã phát triển vượt bậc từ một công cụ tự động hoàn thành mã thành trợ lý AI toàn diện với hệ sinh thái mở rộng. Nó tích hợp nhiều công cụ, dịch vụ của bên thứ ba, hỗ trợ gỡ lỗi, tạo mã với GPT-4, tương thích VS Code extensions, giúp tối ưu quy trình, tăng năng suất cho nhà phát triển, đồng thời phù hợp chiến lược xây dựng hệ sinh thái của Microsoft.
https://www.forbes.com/sites/janakirammsv/2024/06/19/how-github-copilot-evolved-with-enhanced-ai-and-ecosystem-expansion/
- Mặc dù AI đang cách mạng hóa nhiều ngành nghề, vai trò của kỹ sư phần mềm vẫn không thể thay thế do khả năng sáng tạo, giải quyết vấn đề và đổi mới độc đáo.
- Các tiến bộ công nghệ trong lịch sử như máy in không loại bỏ các vai trò đòi hỏi kiến thức sâu và sáng tạo mà thay đổi chúng. Tương tự, kỹ sư phần mềm sử dụng AI để nâng cao năng lực nhưng vẫn không thể thay thế.
- Nhu cầu về một số vai trò kỹ thuật cấp thấp có thể giảm do khả năng ngày càng tăng của AI. Tuy nhiên, điều này nhấn mạnh nhu cầu ngày càng tăng về kỹ năng cấp cao hơn và nền tảng vững chắc về năng lực cốt lõi.
- Hỗ trợ kỹ sư phần mềm tinh chỉnh các kỹ năng thiết yếu và chuẩn bị cho các vai trò nâng cao là rất quan trọng. Cộng đồng công nghệ hưởng lợi từ những yêu cầu luôn thay đổi của ngành, đảm bảo các kỹ sư luôn đổi mới.
- Vai trò của kỹ sư phần mềm bao gồm nhiều hơn là lập trình. Các việc khác liên quan đến hợp tác với các nhóm chức năng chéo, tham gia giải quyết vấn đề và thúc đẩy đổi mới. Những khía cạnh này đòi hỏi trí tuệ cảm xúc, sự đồng cảm, hiểu biết sâu sắc về bối cảnh kinh doanh và kỹ năng giao tiếp hiệu quả - những phẩm chất mà AI không thể sao chép.
- Kỹ sư phần mềm phải tham gia học tập suốt đời để luôn phù hợp. Tư duy học tập liên tục này là nội tại của nghề, đảm bảo các kỹ sư phần mềm luôn đi đầu trong các tiến bộ công nghệ.
📌 Kỹ sư phần mềm đóng vai trò thiết yếu trong sự phát triển liên tục của công nghệ. Mặc dù AI có thể nâng cao công việc của họ, nó không thể thay thế sự sáng tạo, tư duy phản biện và sự hợp tác mà các kỹ sư phần mềm mang lại. Tương lai sẽ chứng kiến nhu cầu cao hơn đối với kỹ sư phần mềm, nhấn mạnh các kỹ năng nền tảng mạnh mẽ và chuyên môn chuyên sâu thúc đẩy sự tiến bộ công nghệ.
https://thenewstack.io/software-engineers-remain-indispensable-in-the-age-of-ai/
- Tương tác người-máy (HCI) tập trung vào thiết kế và sử dụng công nghệ máy tính, đặc biệt là giao diện giữa người dùng và máy tính, nhằm tạo ra các giao diện trực quan và hiệu quả.
- Một thách thức lớn trong HCI và giáo dục là tích hợp các mô hình ngôn ngữ lớn (LLMs) vào các khóa học lập trình đại học, như các mô hình GPT của OpenAI.
- Giáo dục lập trình truyền thống dựa vào bài giảng, sách giáo khoa và bài tập mã hóa tương tác, nhưng việc tích hợp LLMs vẫn đang ở giai đoạn đầu.
- Các mô hình LLM có thể tạo, gỡ lỗi và giải thích mã, cung cấp các cách mới để hỗ trợ sinh viên trong quá trình học tập.
- Nghiên cứu từ Đại học Michigan đã khám phá các yếu tố xã hội ảnh hưởng đến việc sử dụng LLMs trong khóa học lập trình đại học, sử dụng lý thuyết định hình xã hội.
- Phương pháp nghiên cứu bao gồm khảo sát ẩn danh cuối khóa với 158 sinh viên, khảo sát tự tin giữa khóa, phỏng vấn sinh viên và phân tích hồi quy dữ liệu điểm giữa kỳ.
- Kết quả cho thấy việc sử dụng LLMs sớm liên quan đến tự tin thấp hơn và điểm giữa kỳ thấp hơn, nhưng sự phụ thuộc quá mức vào LLMs, thay vì việc sử dụng thực tế, mới là yếu tố giảm tự tin sau này.
- Khảo sát cuối khóa bao gồm 25 câu hỏi về sự quen thuộc với công cụ LLM, mô hình sử dụng và lo ngại về sự phụ thuộc quá mức, cùng với 5 câu hỏi tự tin để đánh giá khả năng lập trình của sinh viên.
- Phân tích hồi quy cho thấy sinh viên cảm thấy phụ thuộc quá mức vào LLMs có điểm tự tin thấp hơn, nhấn mạnh tầm quan trọng của việc sử dụng công cụ một cách cân bằng.
- Kỳ vọng nghề nghiệp và nhận thức về việc sử dụng của bạn bè ảnh hưởng mạnh mẽ đến quyết định sử dụng LLMs của sinh viên.
- Sinh viên tin rằng sự phụ thuộc quá mức vào LLMs sẽ ảnh hưởng xấu đến triển vọng nghề nghiệp có xu hướng học kỹ năng lập trình độc lập hơn.
- Ngược lại, những người dự đoán sẽ sử dụng LLMs nhiều trong tương lai có xu hướng tham gia nhiều hơn với các công cụ này trong khóa học.
- Kết quả nghiên cứu cho thấy việc tích hợp LLMs vào giáo dục lập trình có thể cải thiện trải nghiệm học tập nhưng cũng có thể ảnh hưởng tiêu cực đến tự tin và hiệu suất của sinh viên nếu không được sử dụng một cách cân bằng.
📌 Nghiên cứu nhấn mạnh sự phức tạp trong việc tích hợp LLMs vào giáo dục lập trình đại học. Các yếu tố xã hội như kỳ vọng nghề nghiệp và nhận thức của bạn bè ảnh hưởng mạnh mẽ đến việc sử dụng LLMs. Việc sử dụng cân bằng các công cụ AI là cần thiết để đảm bảo sinh viên xây dựng kỹ năng nền tảng vững chắc trong khi tận dụng lợi ích của công nghệ AI.
https://www.marktechpost.com/2024/06/11/balancing-ai-tools-and-traditional-learning-integrating-large-language-models-in-programming-education/
- Hướng dẫn cách tạo truy vấn SQL vector nâng cao để cải thiện ứng dụng RAG (retrieval-augmented generation) bằng cách sử dụng MyScaleDB và LangChain.
- MyScaleDB là một cơ sở dữ liệu SQL vector nguồn mở, cho phép quản lý hiệu quả khối lượng lớn dữ liệu có cấu trúc và không cấu trúc, giúp phát triển các ứng dụng AI mạnh mẽ.
- LangChain giúp xây dựng quy trình làm việc và tích hợp liền mạch với MyScaleDB và OpenAI để tạo truy vấn SQL từ văn bản tự nhiên.
- Các bước chính bao gồm:
- Thiết lập môi trường và cài đặt các thư viện cần thiết như requests, clickhouse-connect, transformers, openai, langchain.
- Kết nối với MyScaleDB và tạo bảng để lưu trữ các câu chuyện từ Hacker News.
- Sử dụng API của Hacker News để lấy dữ liệu thời gian thực và xử lý các câu chuyện để trích xuất thông tin như tiêu đề, URL, điểm số, thời gian, tác giả và bình luận.
- Tạo embeddings cho tiêu đề và bình luận bằng cách sử dụng mô hình pretrained từ Hugging Face.
- Xử lý các bình luận dài bằng cách chia nhỏ chúng thành các phần phù hợp với độ dài tối đa của mô hình.
- Chèn dữ liệu đã xử lý vào bảng MyScaleDB và tạo chỉ mục vector để tối ưu hóa việc truy vấn.
- Thiết lập mẫu prompt để chuyển đổi các truy vấn ngôn ngữ tự nhiên thành truy vấn SQL MyScaleDB.
- Ví dụ về các truy vấn bao gồm:
- Lấy các câu chuyện được bình chọn nhiều nhất trong 6 giờ qua.
- Tìm các câu chuyện thịnh hành trong lĩnh vực AI.
- Lấy các bình luận thảo luận về xu hướng mới nhất của LLMs (large language models).
- Các công cụ và công nghệ được sử dụng bao gồm MyScaleDB, OpenAI, LangChain, Hugging Face và Hacker News API.
- Kết luận rằng việc kết hợp MyScaleDB và LangChain giúp vượt qua các hạn chế của RAG đơn giản, cải thiện hiệu suất và hiệu quả của hệ thống truy vấn dữ liệu phức tạp.
📌 Hướng dẫn chi tiết cách sử dụng MyScaleDB và LangChain để cải thiện ứng dụng RAG, bao gồm các bước thiết lập môi trường, xử lý dữ liệu từ Hacker News, tạo embeddings và truy vấn SQL nâng cao. MyScaleDB và LangChain giúp tối ưu hóa truy vấn dữ liệu phức tạp, nâng cao hiệu suất và hiệu quả của hệ thống.
https://thenewstack.io/enhance-your-rag-application-with-advanced-sql-vector-queries/
- Một startup 5 người có trụ sở tại Paris và San Francisco, Shreds.AI, tuyên bố có thể tạo ra phần mềm doanh nghiệp từ mô tả ngôn ngữ tự nhiên, giảm thời gian phát triển xuống 80%.
- Shreds.AI sử dụng tới một tá mô hình AI tạo sinh, chọn lọc các tính năng tốt nhất của từng mô hình thông qua quá trình gọi là meta AI.
- Shreds.AI nhận đầu vào từ mô tả chung đến chi tiết, với mô tả chi tiết cho kết quả tốt hơn. Nếu mô tả mơ hồ, chatbot AI sẽ hướng dẫn người dùng thêm chi tiết.
- Shreds.AI tạo ra sơ đồ kiến trúc và các microservices gọi là shreds từ các thành phần của nó.
- Shreds.AI đã viết lại hệ thống quản lý nội dung WordPress bằng Java trong chưa đầy 3 giờ, trong khi WordPress Foundation ước tính hệ thống này cần 91 năm công sức phát triển.
- Shreds.AI cũng dự định phát hành mã nguồn của một bản sao nền tảng thương mại điện tử Magento vào tuần tới.
- Công ty tích hợp yếu tố con người thông qua quá trình kiểm tra, gửi mã đã tạo cho các nhà phát triển để xác nhận với mức phí do người kiểm tra đặt ra.
- Công nghệ của Shreds.AI đang trong giai đoạn thử nghiệm beta tại Stellantis N.V. và Réseau de Transport d’Électricité Ltd.
- Shreds.AI tự tài trợ và dự định tìm kiếm tài trợ Series A sớm.
📌 Shreds.AI tuyên bố có thể tự động hóa 80% phát triển phần mềm bằng AI tạo sinh, giảm thời gian phát triển xuống còn 3 giờ cho các hệ thống phức tạp như WordPress. Công nghệ này đang trong giai đoạn thử nghiệm beta và công ty dự định tìm kiếm tài trợ Series A.
https://siliconangle.com/2024/06/13/startup-claims-can-automate-80-software-development-generative-ai/
- Apple đã phát hành phiên bản beta của Xcode 16, bản cập nhật IDE cho các nền tảng của Apple với tính năng tự động hoàn thành mã nguồn dựa trên AI.
- Tính năng này sử dụng mô hình machine learning được huấn luyện đặc biệt cho Swift và Apple SDK.
- Xcode 16 cũng hỗ trợ cho phiên bản ngôn ngữ Swift 6 sắp ra mắt.
- Hệ thống build trong Xcode 16 phối hợp với trình biên dịch Clang và Swift để phát hiện và xây dựng các module phụ thuộc, cải thiện hiệu suất của debugger.
- Chế độ ngôn ngữ Swift 6 cho phép mở các giá trị existential với kiểu "self-conforming" khi truyền vào hàm generic.
- Xcode 16 beta bao gồm SDK cho iOS 18, macOS Sequoia 15, iPadOS 18, tvOS 18, watchOS 11 và visionOS 2.
- Các tính năng mới khác: cải tiến copy/paste trong trình soạn thảo cài đặt build, bật tùy chọn C++ Standard Library hardening, thanh debug hiển thị backtrace, công cụ Preview mới, quy trình tạo file đơn giản hóa, hỗ trợ tìm kiếm ngữ nghĩa trong Quick Actions.
📌 Xcode 16 beta mang đến nhiều cải tiến đáng chú ý như tính năng tự động hoàn thành mã nguồn thông minh dựa trên AI, hỗ trợ cho Swift 6, cùng hàng loạt tính năng mới giúp nâng cao hiệu suất và trải nghiệm phát triển ứng dụng trên hệ sinh thái của Apple.
https://www.infoworld.com/article/3715580/apples-xcode-16-adds-ai-powered-code-completion.html
- Năm 2023, các doanh nghiệp toàn cầu đã chi khoảng 15 tỷ USD cho các giải pháp gen AI, chiếm 2% thị trường phần mềm doanh nghiệp. Tốc độ áp dụng công nghệ này nhanh hơn nhiều so với sự chuyển dịch sang mô hình SaaS trước đây.
- Dự báo đến năm 2027, chi tiêu cho gen AI có thể đạt 175-250 tỷ USD, đóng góp thêm 2-6 điểm phần trăm tăng trưởng cho ngành phần mềm. Tuy nhiên, tác động gây xáo trộn lâu dài nhất sẽ là sự gia tăng đáng kể việc khách hàng chuyển đổi nhà cung cấp, có thể tăng gấp đôi.
- Gen AI sẽ làm giảm đáng kể chi phí chuyển đổi hệ thống, tích hợp dữ liệu, đào tạo người dùng, tạo cơ hội cho các công ty khởi nghiệp mới xói mòn lợi thế của đối thủ đã thành lập. Tổng tỷ lệ rời bỏ (churn rate) có thể tăng 1-3 điểm % khi doanh nghiệp chuyển từ mua sang tự xây dựng giải pháp.
- Các danh mục phần mềm chịu tác động khác nhau. Dịch vụ khách hàng có thể bị gián đoạn mạnh do tự động hóa. Phần mềm chuyên dụng như sáng tạo nội dung sẽ mở rộng đối tượng bán chuyên. CRM, ERM có cơ hội tạo giá trị nhờ tự động hóa quy trình và tận dụng dữ liệu độc quyền.
- Các nhà lãnh đạo cần hành động nhanh chóng, phân bổ lại nguồn lực cho gen AI, tái tưởng tượng danh mục sản phẩm, điều chỉnh giá và đóng gói, tận dụng dữ liệu để tạo sự khác biệt. Họ cũng cần đánh giá lại ý nghĩa của từng danh mục phần mềm.
- Gen AI sẽ mở rộng đáng kể cơ sở người dùng tiềm năng. Tới 15-30% hoạt động lao động tri thức trong mỗi bộ phận doanh nghiệp có thể bị ảnh hưởng bởi tự động hóa. Các vai trò hành chính, hỗ trợ văn phòng, dịch vụ khách hàng sẽ chịu tác động không cân xứng.
- Sự phát triển của "lập trình viên nhân dân" (citizen developers) nhờ gen AI có thể thúc đẩy xu hướng doanh nghiệp tự xây dựng phần mềm. Tuy nhiên, môi trường đạt tiêu chuẩn doanh nghiệp vẫn cần vài năm nữa mới sẵn sàng.
- Tác động của gen AI sẽ dẫn đến sự gián đoạn và tái định hình các danh mục phần mềm như chúng ta biết ngày nay. Mỗi danh mục sẽ được tưởng tượng lại theo cách nào đó, từ dịch vụ khách hàng, sáng tạo nội dung, tự động hóa doanh nghiệp, CRM, ERM đến trí tuệ kinh doanh.
📌 AI tạo sinh đang mang đến cơ hội tăng trưởng khổng lồ nhưng cũng đặt ra nhiều thách thức cho ngành công nghiệp phần mềm trị giá 300 tỷ USD. Với tốc độ áp dụng chóng mặt, công nghệ này sẽ dẫn đến sự dịch chuyển lớn về phân khúc người dùng, nhóm giá trị và động lực cạnh tranh, buộc các nhà lãnh đạo phải nhanh chóng thích ứng. Những doanh nghiệp tiên phong nắm bắt xu hướng và linh hoạt đổi mới sẽ có lợi thế trong cuộc đua AI tạo sinh đầy biến động sắp tới.
https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/navigating-the-generative-ai-disruption-in-software
#McKinsey
- Microsoft công bố thư viện OpenAI .NET API, hiện đang trong giai đoạn beta, hỗ trợ toàn bộ API của OpenAI bao gồm Assistants v2, Chat Completions và mô hình GPT-4o.
- GPT-4o có khả năng lý luận trên âm thanh, hình ảnh và văn bản trong thời gian thực.
- Thư viện cung cấp quyền truy cập đồng bộ và không đồng bộ vào API REST của OpenAI từ các ứng dụng .NET.
- Thư viện bao gồm khả năng mở rộng cho phép cộng đồng xây dựng các thư viện trên đó và truy cập vào các tính năng hoàn thiện trực tuyến thông qua IAsyncEnumerable<T>.
- Thư viện OpenAI .NET API được hỗ trợ trên GitHub và sẽ được cập nhật với các tính năng mới nhất từ OpenAI.
- Các nhà phát triển sẽ cần một khóa API để gọi API REST của OpenAI.
- Thư viện tương thích với các ứng dụng .NET Standard 2.0. Tuy nhiên, một số ví dụ mã trong tài liệu thư viện OpenAI .NET API có thể phụ thuộc vào các tính năng ngôn ngữ mới hơn.
- Microsoft đã công bố các khoản đầu tư để mở rộng hệ sinh thái AI cho các nhà phát triển .NET vào tháng trước.
📌 Thư viện OpenAI .NET API mới, hiện đang trong giai đoạn beta, mở ra cơ hội cho 5 triệu lập trình viên .NET xây dựng các ứng dụng AI mạnh mẽ. Với sự hỗ trợ của mô hình GPT-4o tiên tiến và khả năng tích hợp liền mạch, thư viện hứa hẹn sẽ thúc đẩy làn sóng đổi mới trong cộng đồng phát triển phần mềm .NET.
https://www.infoworld.com/article/3715437/openai-unveils-openai-library-for-net.html
- Số lượng hồ sơ đăng ký năm nhất vào các ngành thuộc Khoa Điện toán, Khoa học dữ liệu và Xã hội (CDSS) của Đại học California Berkeley tăng 48% trong năm nay, từ 9.649 lên 14.302 hồ sơ.
- Trong khi đó, tổng số hồ sơ đăng ký vào toàn trường UC Berkeley không thay đổi nhiều so với năm trước.
- Sinh viên bày tỏ lo ngại rằng AI tạo sinh sẽ ảnh hưởng đến thị trường việc làm kỹ sư phần mềm, đặc biệt là các vị trí cấp thấp, nhưng họ vẫn hào hứng với sự nghiệp trong lĩnh vực điện toán.
- AI tạo sinh hiện rất giỏi trong việc sao chép các phần của chương trình phần mềm đã được viết nhiều lần trước đây, nhưng để tạo ra thứ gì đó mới thì vẫn cần sự can thiệp của con người.
- Các dự án phát triển phần mềm quan trọng đều liên quan đến nhiều yếu tố mới lạ, đó là phần khó và thú vị của điện toán hiện tại đòi hỏi những người thông minh và được đào tạo bài bản.
- AI tạo sinh có thể tăng tốc các phần tẻ nhạt hơn trong phát triển phần mềm, và các nhà phát triển phần mềm có xu hướng nhanh chóng áp dụng các công cụ hiệu quả.
- Một nhóm nhỏ các nhà phát triển được đào tạo bài bản sẽ có khả năng lớn hơn để xây dựng phần mềm hữu ích, chất lượng cao.
📌 Mặc dù AI tạo sinh đang phát triển mạnh mẽ và có thể viết được nhiều đoạn mã, sinh viên vẫn đổ xô đăng ký học ngành khoa học máy tính. Số lượng hồ sơ tăng 48% tại Đại học California Berkeley cho thấy niềm đam mê với sự nghiệp điện toán. Các chuyên gia nhận định AI chưa thể thay thế hoàn toàn lập trình viên trong việc tạo ra những sản phẩm mới, sáng tạo. Tương lai sẽ cần những nhóm nhỏ lập trình viên được đào tạo bài bản để xây dựng phần mềm chất lượng cao.
https://www.businessinsider.com/ai-software-code-should-you-still-study-computer-science-2024-5
- Mistral AI vừa giới thiệu Codestral - mô hình AI tạo sinh (GenAI) mã nguồn mở đầu tiên được thiết kế riêng cho việc tạo mã nguồn.
- Codestral được huấn luyện trên hơn 80 ngôn ngữ lập trình phổ biến nhất hiện nay như Python, Java, C, C++, JavaScript và Bash.
- Codestral thể hiện khả năng vượt trội trong các bài kiểm tra về Python, SQL và nhiều ngôn ngữ khác. Mô hình có thể hoàn thành các hàm mã, tự động viết mã kiểm thử, và điền vào phần mã còn thiếu.
- Codestral cũng hoạt động tốt với các ngôn ngữ lập trình chuyên biệt hơn như Swift và Fortran, giúp hỗ trợ lập trình viên trong nhiều môi trường và dự án khác nhau.
- Mô hình đã được tích hợp với các framework như LlamaIndex, LangChain và các plugin cho VS Code, JetBrains thông qua Continue.dev và Tabnine.
- Mistral AI giới thiệu giấy phép mới "Non-Production License" cho phép sử dụng Codestral vào mục đích phi thương mại và hỗ trợ nghiên cứu. Tuy nhiên họ vẫn sẽ tiếp tục phát hành mô hình và mã nguồn dưới giấy phép Apache 2.0.
- Codestral được coi là bước đệm quan trọng hướng tới mục tiêu trao quyền cho mọi người khả năng tạo và hiểu mã nguồn thông qua AI.
- Các chuyên gia nhận định rằng công cụ tạo mã bằng AI như Codestral sẽ dần giảm nhu cầu về lập trình viên chuyên nghiệp và mang lại sự thay đổi lớn cho ngành phát triển phần mềm trong tương lai.
- Cuộc đua phát triển các mô hình AI cho việc tạo mã đang diễn ra vô cùng sôi động giữa các hãng công nghệ lớn nhằm giành lấy thị trường tiềm năng về low-code/no-code.
📌 Codestral - mô hình AI mã nguồn mở đầu tiên của Mistral AI hứa hẹn sẽ là bước tiến quan trọng đưa công cụ tạo mã dựa trên AI đến gần hơn với đại chúng khi hỗ trợ tới hơn 80 ngôn ngữ lập trình phổ biến nhất hiện nay. Tuy nhiên, các chuyên gia cũng đưa ra cảnh báo về chất lượng mã được tạo ra và sự thay đổi sâu sắc mà ngành phát triển phần mềm sẽ phải đối mặt trong tương lai khi AI ngày càng trở nên phổ biến và mạnh mẽ hơn.
https://thenewstack.io/codestral-a-step-closer-to-ai-driven-coding-for-the-masses/
- AutoCoder là mô hình ngôn ngữ lớn đầu tiên vượt qua GPT-4 Turbo (04/2024) và GPT-4o trong bài kiểm tra Human Eval Benchmark với tỷ lệ pass@1 90,9% so với 90,2%.
- Vấn đề chính trong tạo mã là tạo ra các bộ dữ liệu quy mô lớn, chất lượng cao để huấn luyện các mô hình ngôn ngữ. Các phương pháp truyền thống tốn kém và mất nhiều thời gian.
- Các phương pháp hiện tại như SELF-INSTRUCT, EVOL-INSTRUCT và OSS-INSTRUCT sử dụng các mô hình giáo viên mạnh để tạo ra các hướng dẫn mã hóa tổng hợp hoặc lấy các vấn đề từ các đoạn mã nguồn mở. Tuy nhiên, chúng bị giới hạn bởi sự phụ thuộc vào các mô hình giáo viên.
- Các nhà nghiên cứu từ Đại học Connecticut và AIGCode giới thiệu phương pháp mới gọi là AIEV-INSTRUCT. Phương pháp này tạo ra một bộ dữ liệu mã chất lượng cao thông qua quá trình tương tác giữa hai tác nhân - người hỏi và lập trình viên.
- AIEV-INSTRUCT hoạt động trong hai giai đoạn: Giai đoạn Giảng dạy và Giai đoạn Tự học. Ban đầu, nó sử dụng một mô hình độc quyền để tạo và xác thực các hướng dẫn mã. Trong Giai đoạn Tự học, mô hình sinh viên tự động tạo và xác thực mã.
- AutoCoder đạt tỷ lệ vượt qua 90,9% trong bài kiểm tra HumanEval, vượt qua các mô hình hàng đầu như GPT-4 Turbo với 90,2%. AutoCoder thể hiện khả năng vượt trội trong việc giải thích mã, cho phép cài đặt các gói bên ngoài.
- AutoCoder được thử nghiệm trên nhiều bộ dữ liệu như HumanEval+, MBPP, MBPP+, MultiPL-E và DS-1000. Nó xếp thứ nhất trong số các mô hình ngôn ngữ trong Bài kiểm tra HumanEval Base và đạt thứ hạng top 5 trong các bài kiểm tra khác.
- AutoCoder-S, một biến thể nhỏ hơn với 6,7 tỷ tham số, cho thấy kết quả ấn tượng với tỷ lệ vượt qua 78,7% trên HumanEval và 79,4% trên MBPP.
📌 AutoCoder với phương pháp AIEV-INSTRUCT đạt hiệu suất vượt trội, vượt qua các mô hình hiện có trong các bài kiểm tra quan trọng. Đổi mới này nâng cao hiệu quả của các tác vụ tạo mã và cung cấp một cách tiếp cận có thể mở rộng để cải thiện các mô hình ngôn ngữ trong các ứng dụng lập trình, giúp các công cụ tạo mã chất lượng cao trở nên dễ tiếp cận và hiệu quả hơn cho các nhà phát triển trên toàn thế giới.
https://www.marktechpost.com/2024/05/31/autocoder-the-first-large-language-model-to-surpass-gpt-4-turbo-april-2024-and-gpt-4o-in-pass1-on-the-human-eval-benchmark-test-90-9-vs-90-2/
- Mistral, startup AI ở Paris vừa ra mắt Codestral, mô hình ngôn ngữ lớn (LLM) 22B parameter đầu tiên tập trung vào các tác vụ lập trình.
- Codestral hỗ trợ hơn 80 ngôn ngữ lập trình phổ biến như Python, Java, C++, SQL và các ngôn ngữ chuyên biệt hơn như Swift, Fortran.
- Mô hình có thể tạo code từ đầu, hoàn thiện các hàm, viết test và điền vào code dở dang, giúp các lập trình viên tăng tốc quy trình làm việc, tiết kiệm thời gian và giảm lỗi.
- Theo Mistral, Codestral đã vượt trội hơn các mô hình lập trình hiện có như CodeLlama 70B, Deepseek Coder 33B trên hầu hết các ngôn ngữ lập trình trong các bài đánh giá như RepoBench, HumanEval, CruxEval.
- Nhiều công cụ phát triển phần mềm và xây dựng ứng dụng AI như LlamaIndex, LangChain, JetBrains đã bắt đầu thử nghiệm Codestral.
- Mistral cung cấp Codestral 22B trên Hugging Face dưới giấy phép phi thương mại của riêng họ cho mục đích nghiên cứu, thử nghiệm. Mô hình cũng có sẵn qua 2 API endpoint.
- Codestral sẽ cạnh tranh với các mô hình lập trình khác như StarCoder2, Codex của OpenAI, CodeWhisper của Amazon, ChatGPT, GPT-4 của OpenAI và các mô hình của Replit, Codenium.
📌 Codestral 22B, mô hình AI đầu tiên tập trung vào lập trình của Mistral, hỗ trợ hơn 80 ngôn ngữ, giúp đẩy nhanh phát triển phần mềm. Mô hình đã vượt trội hơn CodeLlama 70B, Deepseek Coder 33B trong các bài đánh giá và đang được nhiều công cụ như LangChain, JetBrains thử nghiệm. Tuy nhiên, Codestral sẽ phải cạnh tranh gay gắt với StarCoder2, Codex, CodeWhisper và các mô hình từ Replit, Codenium.
https://venturebeat.com/ai/mistral-announces-codestral-its-first-programming-focused-ai-model/
- CloudCode AI, một giải pháp phần mềm dựa trên AI, vừa công bố ra mắt Kaizen - một dự án nguồn mở tiên tiến được thiết kế để tăng cường đáng kể quá trình kiểm thử ứng dụng phần mềm và đánh giá mã nguồn.
- Kaizen tận dụng sức mạnh của trí tuệ nhân tạo để hỗ trợ các nhà phát triển hợp lý hóa quy trình làm việc, đảm bảo họ có thể di chuyển nhanh hơn mà không làm ảnh hưởng đến chất lượng hay bảo mật.
- Trong bối cảnh phát triển phần mềm nhanh chóng như hiện nay, việc duy trì các tiêu chuẩn chất lượng và bảo mật cao đồng thời đáp ứng các thời hạn gấp rút là một thách thức đáng kể. Kaizen giải quyết trực tiếp thách thức này bằng cách cung cấp một agent AI thông minh hỗ trợ các nhà phát triển kiểm thử và đánh giá mã nguồn một cách hiệu quả.
- Công cụ sáng tạo này sẽ trở thành một phần không thể thiếu đối với các nhóm phát triển đang phấn đấu vì sự xuất sắc và tốc độ trong quá trình xây dựng phần mềm.
- Kaizen hứa hẹn sẽ mang lại những lợi ích to lớn cho cộng đồng các nhà phát triển phần mềm trên toàn thế giới nhờ khả năng tận dụng sức mạnh của AI để tối ưu hóa quy trình kiểm thử và đánh giá mã nguồn.
📌 Kaizen của CloudCode AI là một dự án nguồn mở đột phá sử dụng trí tuệ nhân tạo tiên tiến để cách mạng hóa quy trình kiểm thử phần mềm và đánh giá mã nguồn. Với việc cung cấp một agent AI thông minh hỗ trợ các nhà phát triển tăng tốc mà vẫn đảm bảo chất lượng và bảo mật, Kaizen hứa hẹn sẽ trở thành một công cụ không thể thiếu cho các nhóm phát triển phần mềm trên toàn cầu, giúp họ vượt qua thách thức của việc duy trì tiêu chuẩn cao trong bối cảnh thời hạn gấp rút.
https://www.chronicle-tribune.com/news/wire/cloudcode-ai-unveils-kaizen-an-ai-powered-open-source-solution-to-revolutionize-software-testing-and/article_a97f7d2b-0e63-58de-97e0-09ae0bb51ac6.html
- OpenAI giới thiệu GPT-4o, phiên bản "omni" mới nhằm cạnh tranh tốt hơn trong nhận dạng giọng nói và hội thoại.
- GPT-4o có thể thực hiện phép nhân dài và đưa ra kết quả chính xác.
- Tác giả cho rằng đánh giá mã nguồn là một tương tác xã hội hơn là vấn đề kỹ thuật, tập trung vào các vấn đề kỹ thuật chứ không phải chi tiết ngữ nghĩa mã.
- Đánh giá mã nguồn là một trường hợp sử dụng mô hình ngôn ngữ lớn tốt cho các nhà phát triển.
- Tác giả kiểm tra khả năng đánh giá mã của GPT-4o với 3 đoạn mã khác nhau, mỗi đoạn vẽ một hộp với đường chéo.
- GPT-4o đã hiểu chức năng của mã dựa trên tên phương thức mà không cần chú thích.
- GPT-4o đưa ra đánh giá chi tiết, chỉ ra mã đã hoạt động hiệu quả, đồng thời đề xuất các cải tiến và trường hợp cần xem xét.
- Tác giả ấn tượng với bản chất và cách trình bày của bài đánh giá từ GPT-4o.
- Mã do GPT-4o tạo ra ít triển vọng hơn, nhưng vẫn ổn.
- Không có sự chỉ trích gay gắt trong phê bình của GPT-4o.
📌 GPT-4o thể hiện khả năng đánh giá mã nguồn ấn tượng, hiểu được chức năng mã dựa trên tên phương thức, đưa ra những nhận xét chi tiết, đề xuất cải tiến và chỉ ra các trường hợp cần lưu ý. Mặc dù mã do GPT-4o tạo ra chưa thực sự triển vọng, nhưng cách thức đánh giá chuyên nghiệp và mang tính xây dựng của mô hình này hứa hẹn sẽ là công cụ hữu ích cho các nhà phát triển.
Citations:
[1] https://thenewstack.io/reviewing-code-with-gpt-4o-openais-new-omni-llm/
- Các tổ chức đang tập trung vào việc sử dụng AI tạo sinh để cải thiện năng suất, đặc biệt là trong việc làm cho thông tin dễ tiếp cận và tiêu hóa hơn cho nhân viên dịch vụ khách hàng.
- Một số khách hàng nhỏ của AWS đang khám phá các ứng dụng phá vỡ của AI tạo sinh nhưng chưa đến mức tái định nghĩa ngành công nghiệp, bao gồm cải thiện trải nghiệm khách hàng tại Accor và Booking.com và tăng tốc nghiên cứu dược phẩm bằng dữ liệu tổng hợp.
- Các công ty bắt đầu quan tâm đến việc đo lường năng suất phát triển phần mềm, chuyển từ tập trung vào năng suất cá nhân sang hiểu biết rộng hơn về năng suất phát triển nhóm ở cấp độ tổ chức và SDLC.
- AWS sử dụng 3 tiêu chí chính để đánh giá năng suất phát triển bao gồm sức khỏe hệ thống, hiệu quả quy trình CI/CD và sức khỏe nhóm.
- Các khung như SPACE và DORA được đề cập như là những cách tiếp cận khác nhau để đánh giá năng suất phát triển, liên kết các khả năng kỹ thuật với năng suất thông qua các chỉ số như thời gian dẫn và tần suất triển khai.
- Công cụ như Amazon Q Developer được sử dụng để hỗ trợ các khía cạnh như đề xuất mã, xác định các vấn đề về chất lượng và bảo mật, tự động hóa kiểm thử và cung cấp thông tin chi tiết về năng suất cá nhân hóa.
- Việc cải thiện năng suất phát triển nên được xem là một hành trình liên tục của những cải tiến nhỏ được tích lũy theo thời gian, bắt đầu bằng việc sử dụng dữ liệu và chỉ số hiện có để phát triển một cơ sở dữ liệu cơ bản.
📌 Bài viết phân tích sâu về việc sử dụng AI tạo sinh trong nâng cao năng suất phát triển phần mềm, nhấn mạnh vào việc chuyển từ đo lường năng suất cá nhân sang đo lường năng suất nhóm. AWS sử dụng các công cụ như Amazon Q Developer để hỗ trợ các nhà phát triển và cải thiện năng suất thông qua các chiến lược đo lường hiệu quả như khung SPACE và DORA.
Citations:
[1]https://aws.amazon.com/blogs/enterprise-strategy/development-productivity-in-the-age-of-generative-ai/
- Oracle sắp giới thiệu dịch vụ Oracle Code Assist, một công cụ AI hỗ trợ phát triển ứng dụng sử dụng Java, SQL và cơ sở hạ tầng Oracle Cloud.
- Code Assist sẽ gia nhập danh sách các công cụ tương tự như GitHub Copilot và Amazon CodeWhisperer, nhằm đẩy nhanh quá trình phát triển ứng dụng.
- Oracle chưa công bố ngày ra mắt cụ thể nhưng khẳng định Code Assist sẽ có mặt trong tương lai.
- Aanand Krishnan, Phó chủ tịch quản lý sản phẩm của Oracle Cloud Infrastructure, cho rằng các ứng dụng tùy chỉnh là điểm bán hàng độc đáo của mọi tổ chức, nhưng việc phát triển, triển khai và bảo trì ứng dụng là một quá trình tốn nhiều công sức và thời gian.
- Oracle Code Assist sẽ giúp các nhà phát triển tăng tốc độ và tính nhất quán của mã, cải thiện việc bảo trì ứng dụng lâu dài một cách an toàn, nghiêm ngặt và tuân thủ.
- Code Assist có nhiều khả năng ấn tượng như: đề xuất mã dựa trên ngữ cảnh và mẫu, tạo tài liệu API, chú thích mô tả chức năng mã, tóm tắt mã, thực hiện yêu cầu kéo và thực thi các bài kiểm tra đơn vị và chức năng.
- Khi ra mắt, công cụ sẽ có thể truy cập dưới dạng plugin môi trường phát triển cho JetBrains IntelliJ IDEA hoặc Microsoft Visual Studio Code.
- Code Assist được thiết kế để cung cấp phản hồi chuyên môn, có ý kiến để giúp các nhà phát triển xây dựng, tối ưu hóa và nâng cấp ứng dụng bất kể chúng được chạy ở đâu.
📌 Oracle chuẩn bị ra mắt Code Assist, công cụ AI hỗ trợ lập trình Java, SQL trên nền tảng đám mây Oracle Cloud. Code Assist sẽ giúp đẩy nhanh tốc độ phát triển ứng dụng, tăng tính nhất quán của mã và cải thiện khả năng bảo trì lâu dài. Công cụ này sẽ cung cấp nhiều tính năng như gợi ý mã, tạo tài liệu API, tóm tắt mã và hỗ trợ kiểm thử.
Citations:
[1] https://venturebeat.com/ai/oracle-code-assist-revealed-ai-powered-coding-assistant/
- Oracle giới thiệu công cụ lập trình AI mới giúp các nhà phát triển phần mềm viết code nhanh hơn 80% và giảm thiểu lỗi.
- Công cụ này sử dụng công nghệ mô hình ngôn ngữ lớn (LLM) và AI tạo sinh để đưa ra gợi ý code và tự động hoàn thành đoạn code.
- Công cụ hỗ trợ nhiều ngôn ngữ lập trình phổ biến như Java, JavaScript, Python, SQL, v.v.
- Nó tích hợp với các IDE phổ biến như VS Code, IntelliJ và Eclipse, giúp việc sử dụng trở nên dễ dàng và thuận tiện.
- Công cụ này giúp tăng năng suất của lập trình viên, giảm thời gian viết code và sửa lỗi.
- Nó cũng hỗ trợ tạo tài liệu, chú thích code và giải thích code, giúp code dễ đọc và bảo trì hơn.
- Oracle cho biết công cụ này được xây dựng dựa trên nền tảng đám mây Oracle và sử dụng các mô hình AI tiên tiến nhất.
- Công cụ sẽ liên tục học hỏi và cải thiện dựa trên phản hồi của người dùng và xu hướng lập trình mới.
- Đây là một phần trong chiến lược của Oracle nhằm đưa AI vào các sản phẩm và dịch vụ của mình, giúp khách hàng tận dụng sức mạnh của AI.
- Công cụ lập trình AI của Oracle hứa hẹn sẽ là một bước tiến quan trọng trong việc ứng dụng AI vào phát triển phần mềm, giúp tăng hiệu quả và chất lượng code.
📌 Oracle ra mắt công cụ lập trình AI dựa trên LLM giúp lập trình viên viết code nhanh hơn 80%, giảm lỗi, hỗ trợ nhiều ngôn ngữ và tích hợp với các IDE phổ biến. Công cụ này hứa hẹn thúc đẩy việc ứng dụng AI trong phát triển phần mềm, nâng cao năng suất và chất lượng code.
Citations:
[1] https://www.ciodive.com/news/oracle-ai-coding-tool-llm-software-developers/715431/
- Microsoft đã phát triển AI Copilot, một công cụ hỗ trợ tự động hóa quá trình lập trình, đánh dấu bước tiến mới trong ngành công nghiệp phần mềm.
- AI Copilot được thiết kế để hỗ trợ các nhà phát triển bằng cách cung cấp gợi ý mã nguồn và giải pháp cho các vấn đề lập trình phức tạp.
- Công cụ này sử dụng công nghệ AI tiên tiến để phân tích các mẫu mã lập trình và tạo ra đoạn mã mới phù hợp với yêu cầu của người dùng.
- AI Copilot không chỉ giúp tăng tốc độ phát triển phần mềm mà còn giảm thiểu các lỗi có thể xảy ra trong quá trình lập trình.
- Công nghệ này cũng mở ra cơ hội cho các nhà phát triển mới, giúp họ nhanh chóng học hỏi và thích nghi với các kỹ thuật lập trình hiện đại.
- Mặc dù AI Copilot mang lại nhiều lợi ích, nhưng cũng đặt ra các thách thức về đạo đức và bảo mật, đòi hỏi sự cân nhắc kỹ lưỡng trong việc triển khai.
- Microsoft cam kết tiếp tục phát triển và cải tiến AI Copilot, đảm bảo tính năng an toàn và hiệu quả, đồng thời mở rộng khả năng tích hợp với các công cụ và nền tảng lập trình khác.
📌 AI Copilot của Microsoft đang thay đổi cách thức lập trình phần mềm, với khả năng tự động hóa quá trình phát triển và giảm thiểu lỗi. Công cụ này hỗ trợ nhà phát triển bằng cách cung cấp gợi ý mã nguồn và giải pháp cho các vấn đề lập trình, mở ra cơ hội cho người mới và đặt ra các thách thức về đạo đức và bảo mật.
Citations:
[1] https://www.bloomberg.com/professional/insights/data/microsofts-ai-copilot-is-beginning-to-automate-the-coding-industry/
- GenAI đánh dấu bước tiến đáng kể trong phát triển phần mềm, đặc biệt trong việc tạo ngôn ngữ tự nhiên, hình ảnh, video và mã.
- Trước đây, AI chủ yếu được sử dụng trong kiểm thử mã, với machine learning tối ưu hóa chiến lược kiểm thử. Giờ đây, GenAI có thể vượt xa việc hỗ trợ ra quyết định và cải thiện việc tạo mã.
- GenAI cung cấp cho các nhà phát triển một đồng nghiệp lập trình chuyên gia hoặc chuyên gia như kiểm thử viên hay chuyên viên phân tích kinh doanh trong suốt vòng đời phát triển.
- Các mô hình tạo sinh có thể viết mã trong nhiều ngôn ngữ, cho phép lập trình viên nhập lời nhắc và tạo hoặc tái cấu trúc các dòng mã.
- Các nhà phát triển cần đảm bảo họ có thể kiểm thử đầy đủ mã và đáp ứng yêu cầu chất lượng dọc theo pipeline khi sử dụng công cụ mã hóa phần mềm được cung cấp bởi GenAI.
- Các tổ chức phải xem xét cách GenAI có thể tăng cường thực hành mã hóa của họ để xây dựng sản phẩm an toàn hơn đồng thời nhận thức được các rủi ro bảo mật bổ sung.
- GenAI mang lại quy mô đáng kể, khuếch đại mọi thứ một tổ chức làm, bao gồm cả rủi ro liên quan. Nhiều mã hơn có thể được tạo ra, điều đó cũng có nghĩa là số lượng rủi ro tiềm ẩn sẽ tăng theo cấp số nhân.
📌 AI tạo sinh mở ra cơ hội lớn cho phát triển phần mềm, giúp lập trình viên làm việc nhanh và hiệu quả hơn. Tuy nhiên, các tổ chức cần hiểu rõ mô hình AI được sử dụng, đảm bảo chúng phù hợp với chính sách, kiểm soát chất lượng mã và nhận thức đầy đủ về các rủi ro bảo mật tiềm ẩn khi áp dụng công nghệ mới này.
Citations:
[1] https://www.zdnet.com/article/code-faster-with-generative-ai-but-beware-the-risks-when-you-do/
- AI tạo sinh đang biến đổi ngành phát triển phần mềm, với các công cụ hỗ trợ lập trình viên trong quy trình làm việc của họ.
- Sinh viên khoa học máy tính sử dụng AI tạo sinh để hiểu các khái niệm phức tạp, tóm tắt nghiên cứu, và học cách lập trình.
- Giáo viên đang thí nghiệm với AI tạo sinh để giảng dạy mà vẫn đảm bảo sinh viên học được nền tảng khoa học máy tính.
- Có sự chuyển dịch từ việc nhấn mạnh vào cú pháp code sang phát triển kỹ năng giải quyết vấn đề và phân rã vấn đề.
- Giáo viên như Jeanna Matthews và Daniel Zingaro đã thay đổi phương pháp giảng dạy, tập trung vào việc làm việc nhóm và giải thích code qua video.
- Công cụ AI tạo sinh giúp giảng viên dành thêm thời gian cho việc dạy tư duy cấp cao, như thiết kế phần mềm và vấn đề đạo đức.
- Cần phải dạy sinh viên cách hoài nghi về kết quả từ AI và tự kiểm tra, xác minh chúng.
- Sự phụ thuộc quá mức vào AI có thể làm giảm quá trình học tập và tư duy phê phán của sinh viên.
- Giáo viên khuyến khích môi trường học tập mở cửa, nơi sinh viên có thể chia sẻ cách họ sử dụng công cụ AI.
- Sự thích nghi với AI tạo sinh đòi hỏi sự hợp tác giữa sinh viên và giáo viên, học hỏi lẫn nhau để chuẩn bị cho thế giới thực đang thay đổi.
📌 AI Copilots đang làm thay đổi cách thức giáo dục lập trình, từ việc tập trung vào cú pháp sang phát triển kỹ năng giải quyết vấn đề và tư duy cấp cao. Các giáo viên đang thích nghi với công nghệ mới này bằng cách thay đổi phương pháp giảng dạy, nhấn mạnh vào việc làm việc nhóm, và dạy sinh viên cách sử dụng AI một cách hiệu quả.
https://spectrum.ieee.org/ai-coding
- Drata, một startup được thành lập trong bối cảnh đại dịch COVID-19, bởi ba cựu nhân viên của Aerojet Rocketdyne và Portfolium, nhằm giải quyết vấn đề tuân thủ quy định pháp luật và tiêu chuẩn cho phần mềm.
- Drata cung cấp một bộ công cụ tự động hóa quy trình kiểm toán, tăng tốc độ tuân thủ lên đến năm lần, bao gồm thư viện kiểm soát, thu thập chứng cứ tự động và giám sát liên tục.
- Drata giới thiệu giải pháp "Compliance as Code", cho phép kiểm tra và điều chỉnh tự động trong thời gian thực, giảm thiểu thời gian kiểm tra tuân thủ thủ công.
- Drata mua lại oak9, một startup ở Chicago, kết hợp công nghệ và nhân sự của oak9 vào Drata, nhằm mục tiêu mở rộng khả năng tự động hóa tuân thủ từ mã nguồn đến sản xuất.
- Oak9 nổi tiếng với cách tiếp cận "infrastructure-as-code", giúp khách hàng mô tả cơ sở hạ tầng máy chủ dưới dạng mã và đảm bảo tuân thủ tiêu chuẩn bảo mật trên mọi nền tảng đám mây.
- Drata tích hợp công nghệ của oak9 vào nền tảng của mình, cho phép can thiệp vào các giai đoạn quan trọng của vòng đời phát triển phần mềm (SDLC), bao gồm kho mã nguồn và ống dẫn tích hợp và triển khai liên tục (CI/CD).
- Giải pháp Compliance as Code của Drata được cung cấp thông qua các gói dịch vụ phần mềm dưới dạng dịch vụ (SaaS) với giá khởi điểm là 7.500 đô la mỗi năm cho các startup.
- Drata và oak9 cùng nhau tạo ra một môi trường phát triển an toàn, hiệu quả và ít gánh nặng hơn trong việc duy trì tuân thủ mã nguồn.
📌 Drata và Oak9 đã cách mạng hóa quy trình tuân thủ mã nguồn bằng cách tự động hóa, giảm thiểu thời gian và công sức cần thiết cho các kiểm tra tuân thủ thủ công. Sự hợp nhất của hai công ty không chỉ mở rộng khả năng tự động hóa từ mã nguồn đến sản xuất mà còn đặt ra một tiêu chuẩn mới trong việc đảm bảo an ninh và tuân thủ trong phát triển phần mềm đám mây.
https://venturebeat.com/programming-development/developers-can-automate-code-compliance-while-programming-thanks-to-drata-and-oak9/
- Theo dự báo của Gartner, đến năm 2028, phần lớn kỹ sư phần mềm chuyên nghiệp sẽ sử dụng trợ lý AI, nhưng các giám đốc kỹ thuật kỳ vọng vào sự gia tăng năng suất lớn có thể sẽ thất vọng.
- Khảo sát đầu năm 2023 cho thấy chưa đến 10% lập trình viên dùng trợ lý AI, nhưng khảo sát cuối năm 2023 cho thấy 63% tổ chức đang thử nghiệm hoặc triển khai chúng.
- Đến tháng 10/2023, số lập trình viên sử dụng trợ lý AI đã tăng lên 18%. Thêm 3/5 người được hỏi cho biết tổ chức của họ đang lên kế hoạch, thử nghiệm hoặc triển khai công cụ AI.
- Tuy nhiên, Philip Walsh, chuyên gia phân tích cấp cao của Gartner cảnh báo rằng lợi ích năng suất trên thực tế có thể khiêm tốn, ngay cả khi một số dự đoán lạc quan nhất về tiết kiệm thời gian lên đến 50% cho một số tác vụ là đúng.
- Trợ lý AI giúp cải thiện trải nghiệm của lập trình viên và giúp họ tập trung hơn. Nhưng theo The New Stack, lập trình viên chỉ dành tương đối ít thời gian (32%) để viết mã mới hoặc cải tiến mã hiện có.
- Trợ lý AI chủ yếu hỗ trợ lập trình viên trong các nhiệm vụ như nghiên cứu giải pháp và viết mã "boilerplate" hưởng lợi từ tự động hoàn thành.
📌 Gartner dự báo đến năm 2028, 3/4 lập trình viên sẽ thường xuyên sử dụng trợ lý AI, tăng mạnh so với mức dưới 10% đầu năm 2023. Tuy nhiên, lợi ích năng suất thực tế có thể khiêm tốn hơn kỳ vọng, vì lập trình viên chỉ dành 32% thời gian để viết mã mới. Trợ lý AI chủ yếu hỗ trợ nghiên cứu giải pháp và viết mã boilerplate.
Citations:
[1] https://www.itbrew.com/stories/2024/04/26/majority-of-devs-will-use-ai-tools-by-2028-survey-finds-but-don-t-expect-massive-productivity-gains
- Rizel Scarlett, cựu nhân viên vận động phát triển của GitHub Copilot, hiện là nhân viên vận động phát triển cấp cao tại TBD (một đơn vị kinh doanh của Block), chia sẻ 5 chiến lược để cải thiện kết quả của trợ lý mã AI.
- Copilot và các AI tạo sinh khác đều không xác định, nghĩa là kết quả đầu ra thay đổi. Tuy nhiên, các nhà phát triển có thể sử dụng kỹ thuật gợi ý để tinh chỉnh và hướng dẫn AI đạt kết quả tốt hơn.
- 5 chiến lược của Rizel Scarlett bao gồm:
1. Cung cấp các khái niệm cấp cao: Đưa ra mô tả rõ ràng về chức năng mong muốn để AI hiểu và tạo mã phù hợp.
2. Học không có ví dụ (Zero-shot learning): Yêu cầu AI thực hiện nhiệm vụ mà không cần cung cấp ví dụ trước.
3. Học một lần (One-shot learning): Cung cấp một ví dụ duy nhất để AI học và áp dụng cho các trường hợp tương tự.
4. Học vài lần (Few-shot learning): Cung cấp một vài ví dụ để AI học và áp dụng cho các trường hợp mới.
5. Sử dụng chức năng trò chuyện: Tận dụng khả năng trò chuyện của AI để sửa lỗi, định dạng ngày tháng, tái cấu trúc mã, kiểm thử mã và tạo bài kiểm thử.
- Việc áp dụng kỹ thuật gợi ý phù hợp sẽ giúp các nhà phát triển tận dụng tốt hơn sức mạnh của AI trong lập trình.
📌 Rizel Scarlett cựu nhân viên vận động phát triển của GitHub Copilot đã chia sẻ 5 chiến lược để cải thiện kết quả từ trợ lý mã AI: cung cấp khái niệm cấp cao, học không có ví dụ, học một lần, học vài lần và sử dụng chức năng trò chuyện.
- Cognition đã giới thiệu Devin như "kỹ sư phần mềm AI đầu tiên", có khả năng giải quyết các vấn đề kỹ thuật và hoàn thành nhiệm vụ trên các trang web dành cho freelancer như Upwork.
- Tuy nhiên, kênh YouTube "Internet of Bugs" đã chỉ ra rằng Cognition đã nói dối về hiệu suất của Devin trong các video quảng cáo, bao gồm một nhiệm vụ cụ thể trên Upwork.
- Cognition chỉ cung cấp cho Devin câu đầu tiên của yêu cầu và bảo AI "tự tìm ra", trong khi phần quan trọng nằm ở câu thứ hai, dẫn đến việc Devin không thể đưa ra kết quả như mong đợi.
- Devin cũng được cho là có khả năng tìm ra lỗi mà con người bỏ qua, nhưng thực tế AI chỉ sửa lỗi trong tệp do chính nó tạo ra, không phải trong kho lưu trữ.
- Devin mất nhiều giờ để giải quyết nhiệm vụ, trong khi "Internet of Bugs" chỉ mất khoảng 30 phút để trả lời câu hỏi thực tế.
- Điều này cho thấy các kỹ sư phần mềm con người sẽ không bị mất việc trong thời gian tới, ngay cả khi AI như Devin đang được phát triển.
📌 Cognition, công ty đứng sau "kỹ sư phần mềm AI đầu tiên" Devin, đã bị kênh YouTube "Internet of Bugs" tố cáo nói dối về khả năng của AI này trong các video quảng cáo. Những sai sót trong cách trình bày của Cognition, cùng với hiệu suất thực tế của Devin, cho thấy AI này không mạnh mẽ như tuyên bố và các kỹ sư phần mềm con người vẫn đang có lợi thế trong tương lai gần.
Citations:
[1] "First AI Software Engineer" Creators Are Accused of Lying https://80.lv/articles/first-ai-software-engineer-creators-are-accused-of-lying/
- Tại sự kiện Google Cloud Next 24, Google đã giới thiệu Gemini Code Assist - một công cụ lập trình AI mới dành cho các nhà phát triển, được hỗ trợ bởi mô hình Gemini 1.5 Pro tiên tiến.
- Gemini Code Assist nhằm mục đích đơn giản hóa và tự động hóa các tác vụ lập trình nhàm chán và tốn thời gian. Đây là bước tiến hóa từ nền tảng Duet AI for Developers trước đây của Google.
- Công cụ này sẽ cạnh tranh với các giải pháp như Github Copilot và có thể truy cập thông qua các plugin cho các trình soạn thảo phổ biến như VS Code và JetBrains.
- Một trong những tính năng chính của Gemini Code Assist là cửa sổ ngữ cảnh lớn, có thể chứa một triệu token. Điều này cho phép các nhà phát triển đưa ra các truy vấn toàn diện hơn và nhận được các gợi ý chi tiết hơn.
- Công cụ có thể phân tích một lượng lớn mã và đề xuất các thay đổi phức tạp nhờ tính năng chuyển đổi mã mới. Các nhà phát triển có thể sử dụng các lệnh ngôn ngữ tự nhiên để phân tích, tái cấu trúc và tối ưu hóa mã của họ.
- Gemini Code Assist cho phép các nhà phát triển tích hợp cơ sở mã và kho lưu trữ riêng của họ để nhận được các gợi ý "siêu cá nhân hóa". Nó cung cấp "nhận thức toàn bộ cơ sở mã", hỗ trợ nâng cấp phiên bản, đánh giá mã toàn diện và các thông tin chi tiết trải dài toàn bộ kho lưu trữ.
- Bảo mật là ưu tiên hàng đầu đối với Gemini Code Assist. Nó cung cấp kiểm soát truy cập doanh nghiệp và lịch sử truy cập có thể kiểm toán để đảm bảo mã riêng tư được an toàn.
📌 Google đã ra mắt Gemini Code Assist - một công cụ lập trình AI đột phá hỗ trợ bởi mô hình Gemini 1.5 Pro, nhằm đơn giản hóa và tự động hóa các tác vụ lập trình. Với cửa sổ ngữ cảnh 1 triệu token, khả năng phân tích mã sâu rộng và tính năng cá nhân hóa cao, Gemini Code Assist hứa hẹn sẽ mang lại bước đột phá trong phát triển phần mềm, giúp các nhà phát triển làm việc hiệu quả hơn.
Citations:
[1] Google's new Gemini Code Assist tool could be the best thing to happen to developers this year https://www.techradar.com/pro/googles-new-gemini-code-assist-tool-could-be-the-best-thing-to-happen-to-developers-this-year
- Bài báo trên Fast Company cho rằng với sự trỗi dậy của AI tạo sinh, vai trò của kỹ sư QA sẽ trở nên quan trọng hơn lập trình viên để đảm bảo phần mềm hoạt động tốt.
- Tuy nhiên, điều này đặt ra nhiều câu hỏi. Trước hết, bản thân bộ kiểm thử do AI tạo ra cũng có thể chứa lỗi. Việc kiểm thử trở nên khó khăn hơn khi tích hợp nhiều module và kiểm thử toàn bộ ứng dụng.
- Các lỗi quan trọng nhất thường xuất phát từ việc hiểu sai đặc tả hoặc đặc tả không phản ánh đúng nhu cầu khách hàng. Chưa rõ liệu AI có thể tạo ra các bài kiểm thử cho những tình huống này hay không.
- Bảo mật là một vấn đề khác. Liệu hệ thống AI có thể mô phỏng các cuộc tấn công vào ứng dụng?
- Văn hóa lập trình cũng là vấn đề. QA và kiểm thử thường không được coi trọng. Liệu điều này có thay đổi trong thời đại AI?
- Vấn đề lớn nhất là ưu tiên QA không giải quyết được vấn đề lập trình viên không hiểu đủ vấn đề họ cần giải quyết. Hiểu vấn đề kinh doanh và lĩnh vực ứng dụng mới là điều quan trọng nhất.
📌 Các nhà phát triển phần mềm cần dành nhiều thời gian hơn cho kiểm thử và QA. Tuy nhiên, nếu AI chỉ giúp làm những gì chúng ta đã làm được, đó là cuộc chơi thua cuộc. Cách duy nhất để chiến thắng là hiểu rõ hơn các vấn đề cần giải quyết, chứ không chỉ đơn thuần tạo ra nhiều bộ kiểm thử hơn.
https://www.oreilly.com/radar/quality-assurance-errors-and-ai/
- Năm 2023 đánh dấu bước ngoặt của AI tạo sinh trong phát triển phần mềm với sự ra đời của GitHub Copilot, ChatGPT. 95% lập trình viên sử dụng AI tạo sinh để viết mã.
- Các công cụ AI giúp lập trình viên viết mã nhanh hơn nhưng gặp khó khăn với mã nguồn phức tạp. Nghiên cứu cho thấy lập trình viên dùng AI dễ tạo mã không an toàn nhưng tự tin vào tính bảo mật. 61% thừa nhận sử dụng mã chưa kiểm thử từ ChatGPT.
- Năm 2024 có thể chứng kiến các lỗ hổng bảo mật lớn đầu tiên do mã AI gây ra. Cần tăng cường phân tích, kiểm thử, đánh giá mã nguồn để đảm bảo chất lượng và an toàn, bất kể mã do AI hay con người viết.
- Khi sử dụng AI tạo mã gia tăng, doanh nghiệp cần áp dụng clean code - mã sạch, dễ bảo trì, tin cậy, chất lượng cao, bảo mật. Clean code giúp lập trình viên làm việc hiệu quả hơn, giảm nợ kỹ thuật và rủi ro.
- Lập trình viên sẽ không biến mất nhưng vai trò sẽ thay đổi, sử dụng AI như một phím tắt. Cần xem xét yếu tố con người để kiểm soát nhược điểm của AI.
📌 AI hứa hẹn cách mạng hóa phát triển phần mềm nhưng cần được kiểm soát chặt chẽ. 95% lập trình viên đã dùng AI tạo sinh để viết mã. Tuy nhiên, 61% thừa nhận sử dụng mã chưa qua kiểm thử, dẫn đến nguy cơ lỗ hổng bảo mật. Áp dụng clean code, tăng cường phân tích, kiểm thử mã nguồn là giải pháp then chốt để tận dụng sức mạnh của AI mà vẫn đảm bảo chất lượng, an toàn cho phần mềm - nền tảng của kinh doanh số ngày nay.
https://www.infoworld.com/article/3714924/avoiding-the-dangers-of-ai-generated-code.html
- AI tạo sinh sẽ loại bỏ nhiều công việc nhàm chán như cú pháp, dấu chấm câu cho nhà phát triển, giúp họ tập trung vào kết quả mong muốn.
- Các framework phần mềm sẽ được cải tiến nhờ AI tạo sinh mã boilerplate, tự động hóa tác vụ lặp đi lặp lại và tối ưu hóa mã.
- Kỹ năng chung như xây dựng giao diện người dùng hấp dẫn, chuyển yêu cầu thành đặc tả sẽ được coi trọng hơn chuyên môn về ngôn ngữ lập trình cụ thể.
- AI tạo sinh sẽ cách mạng hóa kiểm thử phần mềm, tạo ra vô số kịch bản kiểm thử chỉ từ mã của nhà phát triển.
- Các công cụ phát triển ít mã/không mã sẽ lên tầm cao mới khi AI có thể tạo mã từ phác thảo workflow bằng tay.
- Tuy nhiên, AI tạo sinh cũng mang lại rủi ro như kiểm thử quá mức dẫn đến dự án chậm, suy giảm kỹ năng và đổi mới của nhà phát triển, mã kém chất lượng làm mất lòng tin.
- Nhà phát triển cần nâng cao giá trị bản thân, tập trung vào đổi mới, chuyển kỹ năng lên tầm cao mới thay vì chống lại AI.
📌 AI tạo sinh hứa hẹn loại bỏ công việc nhàm chán, nâng cao năng suất nhà phát triển lên mức chưa từng có. Tuy nhiên, nó cũng mang lại rủi ro suy giảm kỹ năng, mã kém chất lượng. Nhà phát triển cần chủ động thích ứng, nâng cao giá trị bản thân để không bị AI thay thế.
https://venturebeat.com/ai/the-risks-and-rewards-of-generative-ai-in-software-development/
- AI software là giao diện người dùng cho AI, giúp đóng gói công nghệ thành dạng mà người dùng bình thường có thể sử dụng được.
- Nhiều phần mềm AI sử dụng chung các công nghệ AI cốt lõi từ các công ty lớn như OpenAI, Google, Anthropic.
- Phần mềm AI định hướng trí tuệ nhân tạo, tạo ra các ứng dụng phù hợp cho từng công việc cụ thể.
- Hiện nay đang có sự bùng nổ của các phần mềm AI, với nhiều công ty khởi nghiệp và các công ty lâu năm đều đang tìm cách khai thác sự phát triển nhanh chóng của lĩnh vực này.
- Otter.ai là một ví dụ về phần mềm AI hữu ích, giúp ghi chép và tóm tắt nội dung các cuộc họp, phỏng vấn. Nó có thể nhận diện giọng nói của từng người trong đoạn hội thoại.
- Phần mềm AI đang thay đổi thế giới bằng cách tự động hóa các công việc thường mất nhiều giờ để hoàn thành.
📌 Phần mềm AI đang bùng nổ và thay đổi thế giới với khả năng tự động hóa nhiều công việc. Các nền tảng AI software hàng đầu như Otter.ai giúp người dùng tạo nội dung, lập trình và xử lý dữ liệu một cách nhanh chóng và hiệu quả.
Citations:
[1] https://www.forbes.com/sites/technology/article/ai-software/?sh=7198b76064de
- Stability AI giới thiệu StableCode Instruct 3B, một mô hình ngôn ngữ mã hóa tiên tiến nhằm cách mạng hóa cách các nhà phát triển tiếp cận các tác vụ lập trình.
- StableCode Instruct 3B hỗ trợ nhiều ngôn ngữ lập trình như Python, JavaScript, C++, Rust, Java, SQL và PHP.
- Tính năng điều chỉnh hướng dẫn của mô hình được thiết kế để nâng cao khả năng tạo mã, cung cấp độ chính xác cao trong việc hoàn thành mã, giúp giảm thời gian gỡ lỗi và hợp lý hóa quy trình dự án.
- StableCode Instruct 3B không chỉ giới hạn ở việc tạo mã mà còn có thể xử lý các dự án liên quan đến tích hợp các yếu tố trực quan như logo và hình ảnh vào trang web.
- Hiệu suất của mô hình được chứng minh bởi một báo cáo kỹ thuật toàn diện trên Hugging Face, so sánh StableCode Instruct 3B với các mô hình nổi bật khác như Codex Llama 7 tỷ và Star Chat 15 tỷ.
- StableCode Instruct 3B có thể được truy cập thông qua LM Studio cho mục đích thương mại và cung cấp hướng dẫn cài đặt chi tiết để tích hợp liền mạch vào môi trường phát triển.
📌 StableCode Instruct 3B là một mô hình ngôn ngữ mã hóa tiên tiến hỗ trợ nhiều ngôn ngữ lập trình, cung cấp độ chính xác cao trong việc hoàn thành mã. Công cụ này hứa hẹn sẽ là một bước đột phá cho các nhà phát triển, nâng cao hiệu quả và năng suất trong quá trình lập trình. Có thể truy cập thông qua LM Studio, StableCode Instruct 3B sẵn sàng thay đổi trải nghiệm viết mã của bạn.
https://www.geeky-gadgets.com/coding-ai-model/
- Devika là phần mềm kỹ sư AI mã nguồn mở, có khả năng hiểu hướng dẫn của con người, chia nhỏ thành các nhiệm vụ, nghiên cứu và tự động viết mã để đạt mục tiêu
- Devika sử dụng các mô hình ngôn ngữ lớn như Claude 3, GPT-4, GPT-3.5 và Local LLMs, thuật toán lập kế hoạch và lập luận AI tiên tiến, trích xuất từ khóa ngữ cảnh, duyệt web và viết mã trong nhiều ngôn ngữ lập trình
- Một trong những điểm mạnh của Devika là khả năng đóng vai trò lập trình viên AI, giảm sự can thiệp của con người trong các nhiệm vụ mã hóa phức tạp
- Devika có thể tạo tính năng mới, gỡ lỗi mã hoặc phát triển toàn bộ dự án từ đầu, nhằm hợp lý hóa quy trình phát triển phần mềm và nâng cao hiệu quả
- Công cụ lập kế hoạch và lập luận AI của Devika cho phép nó chia nhỏ mục tiêu thành các bước khả thi, tinh chỉnh kế hoạch dựa trên ngữ cảnh và tự động thực hiện nhiệm vụ
- Người dùng có thể nhanh chóng bắt đầu với Devika bằng cách làm theo các bước cài đặt đơn giản, truy cập giao diện web, tạo dự án mới, chọn ngôn ngữ lập trình và cấu hình mô hình, đưa ra mục tiêu cấp cao cho Devika
📌 Devika hứa hẹn cách mạng hóa cách chúng ta xây dựng phần mềm với vai trò lập trình viên AI có thể đảm nhận các nhiệm vụ mã hóa phức tạp chỉ với sự hướng dẫn tối thiểu của con người. Với khả năng tạo tính năng mới, sửa lỗi hay phát triển toàn bộ dự án từ đầu, Devika đang nỗ lực trở thành một đối thủ mã nguồn mở đáng gờm của Devin.
https://analyticsindiamag.com/meet-devika-an-open-source-alternative-to-devin/
- Kỹ thuật phần mềm đã trải qua nhiều chuyển đổi, từ mã máy nhị phân đến ngôn ngữ bậc cao như JavaScript, PHP.
- Các thách thức của kỹ thuật phần mềm truyền thống: chi phí tuyển dụng kỹ sư cao ($137,000 - $173,000/năm), chất lượng phần mềm chưa tối ưu, quy trình phát triển tốn thời gian (300-500 dòng mã/ngày).
- Mô hình ngôn ngữ lớn (LLM) giúp tạo mã nhanh hơn, ít lỗi hơn với công cụ như GitHub Copilot, ChatGPT, Tabnine. Enzyme nổi bật trong phát triển web front-end.
- LLM phân tích mã, phát hiện lỗi, đưa ra phản hồi về chất lượng mã nhanh hơn con người.
- LLM tự động tạo các trường hợp kiểm thử, đảm bảo độ mạnh mẽ và tin cậy của phần mềm. Chúng cũng tạo tài liệu chính xác, toàn diện, giảm thời gian lập trình viên cần dành cho việc này.
- LLM dịch các ngôn ngữ lập trình, thúc đẩy khả năng tương tác giữa các stack công nghệ.
- Thách thức của LLM: ảo giác (hallucination), chất lượng và độ chệch dữ liệu huấn luyện, vấn đề bảo mật và quyền riêng tư.
- Các LLM mới được cải thiện bằng cách huấn luyện trên dữ liệu chất lượng cao hơn, làm rõ mục đích sử dụng và giới hạn phản hồi.
- Doanh nghiệp cần LLM riêng để ngăn chặn tấn công từ bên ngoài.
📌 Mô hình ngôn ngữ lớn đang tạo ra bước ngoặt sâu sắc trong kỹ thuật phần mềm bằng cách cải thiện chất lượng hệ thống, tự động hóa quy trình và giảm công sức. Mặc dù còn một số thách thức như ảo giác, chất lượng dữ liệu và bảo mật, nhưng lợi ích tiềm năng quá lớn để có thể bỏ qua. Tương lai của kỹ thuật phần mềm chắc chắn sẽ chứng kiến sự thay đổi mô hình sâu sắc nhờ các mô hình AI mạnh mẽ này.
https://www.forbes.com/sites/forbestechcouncil/2024/03/20/revolutionizing-software-development-with-large-language-models/
- Nvidia CEO Jensen Huang tin rằng trong tương lai, phần mềm doanh nghiệp sẽ chỉ là một tập hợp các chatbot được kết nối với nhau để hoàn thành nhiệm vụ, thay vì viết code từ đầu.
- Một đội AI này có thể bao gồm một mô hình được thiết kế để phân tích và ủy quyền yêu cầu cho các mô hình khác, một số mô hình có thể được đào tạo để hiểu các dịch vụ kinh doanh như SAP hoặc Service Now, trong khi những mô hình khác có thể thực hiện phân tích số trên dữ liệu được lưu trữ trong cơ sở dữ liệu vector.
- Nvidia đã tạo ra một runtime container cho AI có tên là Nvidia Inference Microservices (NIM), cho phép đóng gói cả mô hình và tất cả các phụ thuộc cần thiết để chạy nó vào các image container. Các mô hình được đóng gói này có thể được triển khai trên bất kỳ số lượng runtime nào, bao gồm cả các node Kubernetes được tăng tốc bởi Nvidia.
- Để sử dụng NIM, bạn cần đăng ký gói Nvidia AI Enterprise với giá 4.500 USD/năm cho mỗi GPU hoặc 1 USD/giờ cho mỗi GPU trên cloud.
- Nvidia cũng đang làm việc để cho phép giao tiếp nhất quán giữa các container, để chúng có thể trò chuyện với nhau thông qua các lệnh gọi API.
- Nvidia đã phát triển các công cụ để tinh chỉnh NIM với dữ liệu và quy trình của khách hàng thông qua dịch vụ NeMo Microservices. Họ cũng giới thiệu dịch vụ NeMo Retriever dựa trên khái niệm sử dụng tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) để lấy thông tin mà mô hình chưa được đào tạo cụ thể.
- Các mô hình NIM và NeMo Retriever để tích hợp RAG hiện đã có sẵn, trong khi NeMo Microservices đang trong giai đoạn truy cập sớm.
📌 Nvidia CEO Jensen Huang tin rằng trong tương lai, phần mềm doanh nghiệp sẽ chỉ là một tập hợp các chatbot được kết nối với nhau để hoàn thành nhiệm vụ, thay vì viết code bằng cách kết nối các chatbot thông qua runtime container NIM, cho phép triển khai dễ dàng trên mọi nền tảng với giá 4.500 USD/năm/GPU.
https://www.theregister.com/2024/03/19/nvidia_why_write_code_when/
- Nvidia đang tạo ra một chu trình phát triển phần mềm dành riêng cho AI dựa trên chatbot và các trợ lý ảo để tạo ứng dụng.
- Người dùng có thể gõ chương trình họ muốn vào giao diện kiểu ChatGPT và đầu ra sẽ là ứng dụng.
- Nvidia giới thiệu khái niệm "AI foundry" như một bộ công cụ xây dựng để tạo ra các ứng dụng. Người dùng chỉ cần nêu rõ loại ứng dụng họ muốn và AI foundry sẽ tạo ra ứng dụng đó.
- Quy trình phát triển của Nvidia dựa vào việc sử dụng các giao diện hội thoại và tự động để viết, đóng gói và triển khai phần mềm, nhằm cắt giảm lao động thủ công trong pipeline CI/CD truyền thống.
- Thành phần quan trọng nhất là NIMs (Nvidia Inference Microservices), giống như một API cho AI. NIMs giúp người dùng tạo ứng dụng bằng cách truy cập dữ liệu phù hợp, mô hình ngôn ngữ lớn, công cụ lập trình và các phụ thuộc.
- Thay vì viết mã, người dùng có thể nói bằng tiếng Anh đơn giản. Nvidia gọi đây là "phần mềm trong tương lai có API rất đơn giản, và API đó được gọi là con người".
- Ngăn xếp phần mềm Nvidia truy xuất dữ liệu có cấu trúc và không có cấu trúc từ cơ sở dữ liệu và chuyển đổi nó thành dữ liệu hội thoại.
- Nvidia giới thiệu phần mềm AI mới có tên AI Enterprise 5.0 bao gồm NeMo Retriever để truy xuất thông tin và Triton Inference Server để phục vụ thông tin.
- Mô hình lập trình độc quyền của Nvidia cho AI được gọi là CUDA, bắt đầu từ năm 2006. Năm 2012, CUDA "tiếp xúc đầu tiên" với AlexNet, một mạng nơ-ron để nhận dạng hình ảnh, được huấn luyện trên GPU của Nvidia.
📌 Nvidia đang cách mạng hóa quy trình phát triển phần mềm bằng cách sử dụng AI, chatbot, trợ lý ảo và giao diện hội thoại để tự động tạo ứng dụng. Với NIMs và ngăn xếp phần mềm độc quyền CUDA, Nvidia đang xây dựng một mô hình phát triển mới dựa trên sức mạnh của GPU và các mô hình ngôn ngữ lớn, hướng tới tương lai nơi lập trình viên có thể tạo phần mềm chỉ bằng cách nói chuyện với máy tính.
https://thenewstack.io/nvidia-ceo-details-a-new-ai-way-of-developing-software/
- CEO OpenAI Sam Altman cho rằng trong 5-10 năm tới, nhiều người sẽ lập trình hoàn toàn bằng ngôn ngữ tự nhiên, thay đổi bản chất và kỹ năng của lập trình viên trong tương lai.
- Các chuyên gia hàng đầu sẽ sử dụng nhiều công cụ, làm việc một phần bằng ngôn ngữ tự nhiên, tập trung vào tư duy trừu tượng và kỹ năng giải quyết vấn đề.
- Fracois Chollet, tác giả Keras, dự đoán sẽ có thêm 10 triệu việc làm lập trình trong 5 năm tới, đòi hỏi kiến thức về Python, C, JavaScript.
- Lập trình không chỉ là copy-paste code mà còn phát triển mô hình tư duy về vấn đề và giải pháp.
- AI sẽ hỗ trợ trong các tác vụ từ 5 phút đến 5 ngày, giúp con người làm việc hiệu quả hơn ở mức độ trừu tượng cao hơn.
- Công cụ mới nhất Devin của Cognition Labs cũng đòi hỏi lập trình viên hướng dẫn.
- Jensen Huang (NVIDIA) và Satya Nadella (Microsoft) tin rằng ai cũng sẽ trở thành lập trình viên. Mục tiêu là làm cho lập trình trở nên tự nhiên nhất có thể.
- Lập trình ngôn ngữ tự nhiên có nghĩa là phần lớn code sẽ do phần mềm xử lý, lập trình viên chỉ tương tác bằng tiếng Anh hoặc ngôn ngữ khác.
- Một số chuyên gia cho rằng tiếng Anh không thể là ngôn ngữ lập trình do nhiều hiểu lầm.
📌 Trong 5 năm tới, lập trình bằng ngôn ngữ tự nhiên sẽ trở nên phổ biến. Vai trò lập trình viên thay đổi, đòi hỏi kỹ năng quản lý nhóm lập trình bằng ngôn ngữ tự nhiên và tiếng Anh thay vì Python. AI sẽ hỗ trợ nhiều tác vụ, giúp con người làm việc ở mức độ trừu tượng cao hơn. Tuy nhiên, một số ý kiến cho rằng tiếng Anh khó trở thành ngôn ngữ lập trình do dễ gây hiểu lầm.
https://analyticsindiamag.com/most-coding-will-be-done-in-natural-language-in-5-years/
- Trong một cuộc phỏng vấn gần đây tại Trung tâm Hội nghị và Triển lãm Melbourne, Sam Altman, CEO của OpenAI, đã nói về cách AI có thể thay đổi cách mọi người viết mã máy tính.
- Altman khẳng định rằng AI thực sự có thể giúp các lập trình viên trở nên năng suất hơn nhiều thay vì lấy đi công việc của họ.
- Ông giải thích rằng AI giống như một công cụ thông minh có thể giúp mọi người học tập tốt hơn và làm được nhiều việc hơn, đặc biệt là cho những sinh viên không có điều kiện tiếp cận gia sư đắt tiền.
- Với sự trợ giúp của AI, tất cả mọi người đều có thể nhận được sự hỗ trợ cá nhân hóa mà không tốn nhiều chi phí.
- Altman đề cập rằng các nhà lãnh đạo chính phủ và doanh nghiệp trên toàn thế giới đang rất phấn khích về AI vì nó có thể giúp tạo ra việc làm mới và cải thiện cuộc sống cho mọi người.
- Tuy nhiên, ông cũng nhấn mạnh cần phải cẩn thận với cách sử dụng AI do có một số rủi ro cần lưu ý.
- Altman khẳng định mạnh mẽ rằng thay vì bị thay thế, các lập trình viên có thể trở thành "lập trình viên gấp 30 lần" với sự hỗ trợ của công nghệ AI.
- Ông cho biết các lập trình viên có thể tăng năng suất lên 2-3 lần, thậm chí 20-30 lần, giúp họ đạt được những thay đổi mang tính chất lượng trong công việc.
- Altman cũng nói về cách AI có thể thay đổi cách thức hoạt động của doanh nghiệp, giúp họ trở nên hiệu quả và năng suất hơn nhiều.
- Ông khuyên các nhà lãnh đạo doanh nghiệp nên thử nghiệm sử dụng các công cụ AI trong công việc để tìm ra cách áp dụng hiệu quả nhất.
📌 Sam Altman tin rằng AI sẽ giúp các lập trình viên tăng năng suất lên đến 30 lần, mang lại sự thay đổi mang tính đột phá. Ông cũng nhấn mạnh tiềm năng to lớn của AI trong việc cải thiện giáo dục, tạo việc làm mới và nâng cao chất lượng cuộc sống, đồng thời kêu gọi các doanh nghiệp tích cực thử nghiệm ứng dụng AI một cách hiệu quả.
https://www.indiatoday.in/technology/news/story/amid-concerns-of-ai-replacing-coders-openai-ceo-sam-altman-says-it-will-help-coders-become-30x-programmers-2514834-2024-03-14
- SQLCoder-70B là một mô hình mã nguồn mở mới vượt trội hơn tất cả các mô hình khác, kể cả GPT-4, trong nhiều tác vụ SQL.
- Defog đã xây dựng SQLCoder-70B dựa trên mô hình CodeLlama-70B của Meta và tinh chỉnh nó trên tập dữ liệu riêng.
- Tuy nhiên, các mô hình 70B tham số vẫn quá lớn để tích hợp offline hoặc chạy trên laptop.
- Bằng cách sử dụng kỹ thuật distillation, Defog đã huấn luyện một mô hình nhỏ gọn hơn SQLCoder-7B với 7 tỷ tham số.
- SQLCoder-7B có hiệu suất thấp hơn một chút so với SQLCoder-70B, nhưng nhìn chung vẫn vượt trội hơn GPT-4 với 90.5% hiệu suất trên các bài kiểm tra chuẩn.
- Phiên bản thứ hai SQLCoder-7B-2 đã được cập nhật trọng số và cho kết quả tốt hơn GPT-4 với hầu hết các truy vấn SQL, đặc biệt khi được hướng dẫn và gợi ý đúng cách.
- Thành công của SQLCoder-7B cho thấy tiềm năng của các mô hình chuyên biệt mã nguồn mở khi được tinh chỉnh trên các mô hình nền tảng lớn.
- Xu hướng này đánh dấu sự chuyển dịch đáng kể hướng tới việc tạo ra các giải pháp AI mạnh mẽ, dễ tiếp cận và thích ứng với nhiều thiết bị, ứng dụng.
📌 SQLCoder-7B-2 với 7 tỷ tham số, được phát triển bởi Defog dựa trên CodeLlama-70B của Meta, đã vượt trội GPT-4 trong hầu hết các truy vấn SQL với hiệu năng 90.5%. Thành công này cho thấy tiềm năng to lớn của các mô hình chuyên biệt mã nguồn mở khi được tinh chỉnh trên các mô hình nền tảng lớn, mở ra xu hướng tạo ra các giải pháp AI mạnh mẽ và dễ tiếp cận hơn.
Citations:
[1] https://huggingface.co/defog/sqlcoder-7b-2
https://medium.com/@boredgeeksociety/finally-7b-parameter-model-beats-gpt-4-732cb0f3321d
- Devin, AI kỹ sư phần mềm đầu tiên trên thế giới do startup Cognition (Mỹ) phát triển, có khả năng viết, gỡ lỗi và triển khai mã nguồn từ một yêu cầu đơn giản.
- Các chuyên gia cho rằng Devin sẽ thúc đẩy đáng kể năng suất phần mềm, nhưng vai trò của lập trình viên con người sẽ không hoàn toàn biến mất.
- Devin không phải là một cuộc cách mạng hoàn toàn mới, vì xu hướng tự động hóa mã nguồn đã diễn ra từ trước với các công cụ như GitHub Co-pilot, Amazon Code Whisperer, Tabnine.
- AI là công cụ mạnh mẽ cho các tác vụ thường ngày, giúp lập trình viên con người tập trung vào các vấn đề phức tạp và đổi mới.
- Devin vượt trội hơn các mô hình ngôn ngữ lớn như ChatGPT hay Gemini, có thể tự xử lý toàn bộ quy trình xây dựng và triển khai ứng dụng phần mềm hoàn chỉnh.
- Cognition đã huy động được 21 triệu USD trong vòng gọi vốn Series A do quỹ đầu tư mạo hiểm Founders Fund của Peter Thiel dẫn đầu.
📌 Devin đánh dấu bước tiến đáng kể trong tự động hóa phát triển phần mềm, hứa hẹn thúc đẩy năng suất. Tuy nhiên, các chuyên gia cho rằng vai trò của lập trình viên con người vẫn không thể thay thế hoàn toàn, vì AI mới chỉ đảm nhận các tác vụ thường ngày. Lập trình viên cần liên tục học hỏi và phát triển kỹ năng mới để thích ứng với sự bùng nổ của AI.
https://www.moneycontrol.com/news/technology/is-devin-coming-for-an-engineers-job-new-ai-software-engineer-can-write-debug-and-deploy-code-12457641.html
- LangGraph là một framework lập trình đa agent AI, giúp tự động hóa các công việc như viết mã, kiểm thử và gỡ lỗi.
- Các agent AI chuyên biệt bao gồm: Programmer Agent, Tester Agent, Executor Agent và Debugger Agent, mỗi agent đảm nhận các vai trò khác nhau trong quy trình phát triển phần mềm.
- Framework này là một phần của hệ sinh thái LangChain, sử dụng các đồ thị trạng thái, nút và cạnh của LangGraph để phối hợp hoạt động của các agent AI.
- Giao diện thân thiện với người dùng nhờ tích hợp với Streamlit, cho phép lập trình viên ở mọi cấp độ dễ dàng tương tác với hệ thống.
- Framework có khả năng thích ứng với các yêu cầu và nhu cầu cụ thể, tạo ra mã, tinh chỉnh và khắc phục sự cố một cách linh hoạt.
- Mã nguồn của framework có sẵn trên GitHub, tạo điều kiện cho sự hợp tác và tích hợp vào các dự án khác.
- LangGraph sử dụng cấu trúc đồ thị để biểu diễn trạng thái của dự án phần mềm, giúp các agent AI hiểu rõ ngữ cảnh mã và thực hiện nhiệm vụ hiệu quả hơn.
- Khả năng học hỏi và thích nghi của LangGraph giúp nó ngày càng phù hợp với nhu cầu phát triển phần mềm, cải thiện khả năng hỗ trợ lập trình viên.
- LangGraph không chỉ giúp tự động hóa các nhiệm vụ cá nhân mà còn hướng đến việc cải thiện toàn diện quy trình phát triển phần mềm.
📌 LangGraph đánh dấu bước tiến quan trọng trong tự động hóa phát triển phần mềm với các agent AI chuyên biệt, cung cấp khả năng thích ứng cao và tương tác dễ dàng qua giao diện Streamlit. Mã nguồn mở trên GitHub thúc đẩy sự cộng tác và tích hợp, trong khi cấu trúc đồ thị của LangGraph tăng cường hiệu quả công việc và khả năng học hỏi, hứa hẹn một tương lai phần mềm được phát triển nhanh chóng, chất lượng cao và ít lỗi hơn.
https://www.geeky-gadgets.com/building-multi-agent-llm-coding-ai-frameworks/
- Các mô hình ngôn ngữ lớn (LLMs) không dự kiến sẽ thay thế hoàn toàn lập trình viên con người.
- Sự phát triển của các LLMs như BigCode, Codegen, và CodeAlpaca cho thấy xu hướng hướng tới các mô hình chuyên biệt hơn cho lập trình.
- Google đã phát triển các mô hình GenAI nguồn mở như Gemma, đánh dấu xu hướng thu nhỏ LLMs.
- Meta đã cập nhật mô hình Code Llama 70B, và phiên bản đặc biệt cho Python là Code Llama Python, được huấn luyện trên khoảng 100 tỷ tokens code Python.
- Một nghiên cứu gần đây cho thấy gần một nửa số lập trình viên lo lắng về khả năng thành công trong thế giới GenAI với kỹ năng hiện tại của họ.
- Các mô hình chuyên biệt cho từng ngôn ngữ lập trình như Code Llama Python cho thấy hướng phát triển cần thiết cho ngành công nghiệp LLMs.
📌 Mặc dù có những lo ngại về việc AI tạo sinh có thể thay thế lập trình viên, nhưng thực tế cho thấy các mô hình ngôn ngữ lớn không thể hoàn toàn thực hiện được điều này. Sự phát triển của các mô hình như Code Llama Python, được huấn luyện đặc biệt cho ngôn ngữ lập trình Python với 100 tỷ tokens code, là minh chứng cho việc ngành công nghiệp đang hướng tới việc tạo ra các mô hình chuyên biệt hơn, phù hợp hơn với từng nhu cầu cụ thể.
Citations:
[1] https://thenewstack.io/why-large-language-models-wont-replace-human-coders/
- StarCoder 2 là một AI tạo mã lệnh có thể chạy trên hầu hết các GPU, bao gồm Nvidia A100, và có thể được tinh chỉnh trong vài giờ để tạo ra các ứng dụng như chatbot và trợ lý lập trình cá nhân.
- AI này được đào tạo trên một bộ dữ liệu lớn và đa dạng hơn so với phiên bản đầu tiên của StarCoder, với khoảng 619 ngôn ngữ lập trình, giúp nó đưa ra dự đoán chính xác và nhận thức ngữ cảnh tốt hơn.
- Các nhà phát triển đang ngày càng sử dụng các dịch vụ tạo mã lệnh hỗ trợ bởi AI như GitHub Copilot và Amazon CodeWhisperer, cũng như các mô hình nguồn mở như Meta’s Code Llama.
- Hugging Face đã hợp tác với ServiceNow để tạo ra StarCoder, một trình tạo mã nguồn mở với giấy phép ít hạn chế hơn so với các công cụ khác.
- StarCoder 2 không phải là một mô hình đơn lẻ mà là một gia đình mô hình, bao gồm ba biến thể, hai trong số đó có thể chạy trên hầu hết các GPU tiêu dùng hiện đại.
- StarCoder 2 được đào tạo với lượng dữ liệu gấp 4 lần so với StarCoder gốc (67.5 terabytes so với 6.4 terabytes), mang lại hiệu suất cải thiện đáng kể với chi phí vận hành thấp hơn.
- StarCoder 2, với tư cách là một bộ sưu tập các mô hình nguồn mở, còn có thể triển khai một cách địa phương và "học" mã nguồn hoặc cơ sở mã của nhà phát triển.
📌 StarCoder 2 đánh dấu một bước tiến quan trọng trong lĩnh vực AI tạo mã lệnh, không chỉ với khả năng chạy trên nhiều loại GPU mà còn với khả năng tinh chỉnh nhanh chóng và hỗ trợ đa dạng ngôn ngữ lập trình. Sự cải thiện về hiệu suất, được đào tạo trên bộ dữ liệu lớn hơn với 67.5 terabytes so với 6.4 terabytes của phiên bản trước, cho phép StarCoder 2 đưa ra dự đoán chính xác hơn và phù hợp với ngữ cảnh cụ thể của người dùng. Điều này, cùng với việc là một dự án nguồn mở, giúp StarCoder 2 trở thành một công cụ hấp dẫn cho các nhà phát triển, đặc biệt là khi nó có thể triển khai địa phương và học hỏi từ mã nguồn của họ, mang lại lợi ích trong việc tạo ra các ứng dụng lập trình cá nhân hóa.
Citations:
[1] https://techcrunch.com/2024/02/28/starcoder-2-is-a-code-generating-ai-that-runs-on-most-gpus/
- Công cụ AI như GitHub Copilot sử dụng AI tạo sinh để tạo mã nguồn tiềm năng, giúp lập trình viên tiết kiệm thời gian và công sức.
- Các công cụ này được hàng triệu lập trình viên sử dụng để tạo ra hàng tỷ dòng mã nguồn, và theo nhà sản xuất, chúng thậm chí còn làm tăng năng suất và sự hài lòng của lập trình viên.
- Nghiên cứu từ GitHub cho thấy lập trình viên có thể hoàn thành công việc nhanh hơn 55% khi sử dụng trợ lý AI và 75% lập trình viên cảm thấy hài lòng hơn.
- Tuy nhiên, nghiên cứu gần đây từ GitClear đã phân tích 153 triệu dòng mã nguồn thay đổi từ tháng 1/2020 đến tháng 12/2023 để xem có thể nhận ra sự khác biệt về chất lượng mã nguồn do sự gia tăng của trợ lý AI hay không.
- GitClear chỉ ra "xu hướng đáng lo ngại về khả năng bảo trì" và đặc biệt là "code churn" - sự thay đổi mã nguồn liên tục mà không cải thiện đáng kể chất lượng.
- Trợ lý AI đưa ra gợi ý thêm mã nguồn nhưng không đề xuất cập nhật, di chuyển hoặc xóa mã nguồn do hạn chế của môi trường dựa trên văn bản nơi tác giả mã nguồn hoạt động.
- Các lập trình viên có kinh nghiệm hiểu rõ hơn về chi phí bảo trì mã nguồn theo thời gian. Nếu họ ngần ngại sử dụng gợi ý từ AI, điều này đặt ra câu hỏi về mã nguồn mà lập trình viên mới vào nghề đóng góp, nhanh hơn bao giờ hết.
📌Các nghiên cứu gần đây đã chỉ ra những lo ngại về chất lượng và khả năng bảo trì mã nguồn khi sử dụng các công cụ trợ lý AI. GitClear chỉ ra "xu hướng đáng lo ngại về khả năng bảo trì" và đặc biệt là "code churn" - sự thay đổi mã nguồn liên tục mà không cải thiện đáng kể chất lượng. Với việc GitHub Copilot và các công cụ tương tự được triển khai rộng rãi, việc đánh giá chất lượng mã nguồn và cách thức lập trình viên sử dụng trợ lý AI trở nên quan trọng hơn bao giờ hết. Các lập trình viên có kinh nghiệm có thể cảm thấy lo lắng về việc sử dụng gợi ý từ AI, đặc biệt là khi nó liên quan đến việc duy trì và cập nhật mã nguồn.
Citations:
[1] https://www.itpro.com/software/ai-coding-assistants-might-speed-up-software-development-but-are-they-actually-helping-produce-better-code
- Apple đang phát triển một công cụ tạo mã AI, tương tự như GitHub Copilot, nhằm cách mạng hóa quy trình phát triển ứng dụng.
- Công cụ này dự kiến sẽ được tích hợp vào Xcode, phần mềm lập trình phổ biến của Apple, cho phép tạo mã dựa trên các lệnh ngôn ngữ tự nhiên và chuyển đổi mã qua các ngôn ngữ lập trình khác nhau.
- Apple đã bắt đầu thử nghiệm tính năng mới này nội bộ và có thể sẽ mở rộng cho các nhà phát triển phần mềm bên thứ ba vào năm sau.
- Sự ra đời của công cụ lập trình AI này được kỳ vọng sẽ tăng tốc quá trình tạo và hoàn thiện mã, giúp các nhà phát triển hiệu quả hơn trong việc tạo ra ứng dụng.
- Apple cũng đã phát hành một bộ công cụ nguồn mở, bao gồm framework ‘Apple MLX’, nhằm tăng cường khả năng học máy và phát triển công cụ AI sử dụng silicon độc quyền của Apple.
📌 Apple đang tiến một bước dài trong lĩnh vực AI tạo sinh với việc phát triển công cụ tạo mã AI, một động thái đánh dấu sự cạnh tranh mạnh mẽ trong lĩnh vực công nghệ AI tạo sinh. Công cụ này, dự kiến được tích hợp vào Xcode, sẽ cho phép tạo mã từ các lệnh ngôn ngữ tự nhiên và chuyển đổi mã giữa các ngôn ngữ lập trình, hứa hẹn sẽ làm cách mạng hóa quy trình phát triển ứng dụng. Apple đã bắt đầu thử nghiệm nội bộ và có kế hoạch mở rộng cho các nhà phát triển bên thứ ba
Citations:
[1] https://www.cryptopolitan.com/inside-apple-groundbreaking-gen-ai-code-tool/
📌 AI tạo sinh và LLM đang được sử dụng rộng rãi trong phát triển phần mềm để cải thiện chất lượng và hiệu quả, đặc biệt là trong việc xác minh mã phần mềm. Phương pháp Baldur, kết hợp với Thor, đã đạt được độ chính xác cao trong việc tạo bằng chứng tự động để xác minh mã. Mặc dù vẫn còn hạn chế về độ chính xác, Baldur vẫn là phương pháp hiệu quả nhất hiện nay để xác minh mã phần mềm. Với sự phát triển nhanh chóng của AI tạo sinh và LLM, chúng ta có thể kỳ vọng vào những cải tiến hơn nữa trong tương lai, giúp nâng cao chất lượng và bảo mật của phần mềm.
📌 RagaAI, một công ty khởi nghiệp mới, đã giới thiệu giải pháp kiểm thử tự động cho AI sau khi huy động được 4,7 triệu USD. Nền tảng này được thiết kế để phát hiện, chẩn đoán và sửa chữa các vấn đề liên quan đến AI, hứa hẹn giảm 90% rủi ro và tăng tốc độ đưa sản phẩm vào sản xuất hơn ba lần, đặc biệt khi thị trường AI dự kiến đạt trị giá 2 nghìn tỷ USD vào năm 2030.
📌 Các công cụ AI như ChatGPT, Claude AI, Pecan AI và Google Bard AI đã và đang thay đổi cách chúng ta học lập trình và phân tích dữ liệu. Sự xuất hiện của các công cụ này không chỉ làm tăng hiệu quả công việc mà còn giúp các chuyên gia công nghệ thông tin nâng cao khả năng sáng tạo và giải quyết vấn đề. Việc tích hợp AI vào công việc không chỉ là xu hướng mà còn là sự thay đổi cơ bản trong cách tiếp cận vấn đề và đổi mới. Công cụ AI không chỉ là công cụ hỗ trợ mà còn là đối tác đồng hành cùng chúng ta trong thế giới công nghệ hiện đại và tương lai.
📌 Công cụ AI tạo sinh sẽ đóng vai trò chủ chốt trong việc viết bài test phần mềm, hứa hẹn cải tiến đáng kể trong việc tự động hóa và chất lượng phần mềm. Dự đoán đến năm 2028, 70% các bài test sẽ được thực hiện bởi AI tạo sinh, với 48% doanh nghiệp khu vực Châu Á - Thái Bình Dương trừ Nhật Bản nhận thức được tính hiệu quả của AI trong việc hỗ trợ review và test code. Ngôn ngữ tự nhiên sẽ trở thành ngôn ngữ lập trình được sử dụng nhiều nhất, với 30% các ứng dụng mới được tạo ra bằng ngôn ngữ này
📌Baldur sử dụng mô hình ngôn ngữ lớn để tự động tạo ra chứng minh toán học, đánh dấu bước tiến lớn trong tự động hóa việc kiểm tra độ chính xác của mã phần mềm. Phát triển Baldur là một sự kết hợp của nỗ lực cộng đồng và công nghệ tiên tiến, hứa hẹn một tương lai mà phần mềm không còn lỗi. Với tỷ lệ thành công đã được cải thiện từ 57% lên 65,7% khi kết hợp với Thor, Baldur không chỉ thể hiện khả năng mà còn tạo ra tiền đề cho việc kiểm định tự động trong tương lai. Sự hợp tác với các tổ chức như Google, DARPA và NSF càng làm tăng giá trị và tiềm năng áp dụng của Baldur trong ngành công nghiệp phần mềm, nơi mà độ phức tạp của hệ thống ngày càng tăng cao.
AI đang đạt đến thời điểm quan trọng trong phát triển phần mềm, buộc các tổ chức và lãnh đạo DevSecOps cần ủng hộ việc sử dụng AI có trách nhiệm. Theo khảo sát của GitLab, 81% nhân viên DevSecOps muốn được đào tạo thêm về cách sử dụng AI hiệu quả.
Các nhà phát triển và cộng đồng DevSecOps cần chuẩn bị để giải quyết 4 xu hướng AI toàn cầu:
Sử dụng AI trong kiểm thử mã ngày càng tăng. Các công ty sẽ tích hợp AI vào quy trình kiểm thử để tự động hóa và nâng cao hiệu quả.
Các mối đe dọa đối với quyền sở hữu IP và quyền riêng tư do sử dụng AI.
Xu hướng gia tăng định kiến trong các hệ thống AI.
Bất chấp các thách thức, sự phụ thuộc vào AI ngày càng tăng. Theo dự báo, hơn 2/3 doanh nghiệp sẽ ứng dụng AI vào sản phẩm và dịch vụ vào cuối 2024.
📌 Các tổ chức và đội ngũ DevSecOps cần chuẩn bị kỹ lưỡng để ứng phó với 4 xu hướng AI đang nổi lên. Theo khảo sát của GitLab, 81% nhân viên DevSecOps muốn được đào tạo thêm về cách sử dụng AI hiệu quả. Các công ty cần tập trung vào các xu hướng như tăng cường sử dụng AI để kiểm thử mã, bảo vệ quyền sở hữu IP và quyền riêng tư, giảm thiểu định kiến trong AI. Bất chấp các thách thức, việc ứng dụng AI vẫn gia tăng mạnh mẽ. Theo dự báo, trên 2/3 doanh nghiệp sẽ áp dụng AI vào cuối 2024.
📌 Sự tăng vọt của mã nguồn, cùng với công cụ AI tạo mã, như OpenAI's Codex và GitHub’s Copilot, cũng như sự thử nghiệm của ChatGPT, cho thấy lượng mã sẽ tăng lên đáng kể. Việc áp dụng nền tảng phát triển nội bộ (IDP) và chuyển đổi tư duy quản lý mã nguồn trở nên quan trọng hơn bao giờ hết. Các công ty cần tập trung vào việc chuẩn hóa và tự động hóa quy trình quản lý, giảm tải trí tuệ cho nhà phát triển, và đồng thời giữ chi phí phát triển sản phẩm mới ở mức thấp. Sự chuyển đổi này không chỉ giúp các công ty lớn hiện tại mà còn cần thiết đối với các đội ngũ nhỏ hơn khi chúng đối mặt với vấn đề quản lý mã và công cụ tương tự trong tương lai gần.
- Bài viết đánh giá vai trò của AI trong công việc lập trình, nhấn mạnh vào việc AI hỗ trợ như Copilot trong Visual Studio.
- Dù AI tiến bộ, quy trình phát triển phần mềm vẫn đầy thách thức, đòi hỏi sự cân bằng giữa tiếp cận và chất lượng.
- Sự an toàn công việc của lập trình viên được bàn luận, nhưng kỹ năng nhận thức và chuyển tiếp của con người vẫn quan trọng.
- AI vẫn còn thiếu sức sáng tạo và nhận thức sống động tự nhiên so với con người.
- Tương lai của AI trong lập trình tập trung vào việc cải thiện công cụ để chúng hòa nhập mượt mà vào quy trình lập trình.
📌 Năm qua chứng kiến sự hợp nhất của AI vào bộ công cụ cho lập trình viên, mang lại lợi ích nhưng không thiếu thách thức. Tương lai của AI đòi hỏi sự phối hợp giữa trực giác con người và hiệu quả AI, nhằm đảm bảo lập trình viên tiếp tục phát triển trong bối cảnh công nghệ biến đổi.
Visual Studio Code đã giới thiệu các cải tiến mới cho tiện ích mở rộng Copilot của mình, nhằm cách mạng hóa cách thức làm việc của các nhà phát triển phần mềm. Các cập nhật mới được thiết kế để làm cho việc lập trình trở nên trực quan và hiệu quả hơn, cung cấp sự hỗ trợ thông minh phù hợp với ngữ cảnh dự án của bạn.
Điểm nổi bật trong những cải tiến này là Copilot Chat, bây giờ tích hợp các đại lý AI nhận thức ngữ cảnh. Những đại lý AI này giống như việc có một đồng nghiệp am hiểu bên cạnh bạn, sẵn sàng giúp bạn đối phó với mã phức tạp hoặc giải quyết các thách thức lập trình. Chúng không chỉ phản hồi; chúng chủ động, cung cấp hướng dẫn giống như một phần mở rộng tự nhiên của quá trình suy nghĩ của bạn.
Copilot không chỉ là một công cụ lập trình khác; đó là một người bạn đồng hành AI theo dõi bạn theo thời gian thực. Tính năng Chat cho phép bạn thực hiện cuộc trò chuyện dựa trên văn bản với Copilot, cho phép bạn yêu cầu ví dụ về mã, làm rõ thắc mắc, và tìm kiếm lời khuyên mà không cần rời khỏi môi trường lập trình của mình. Sự tích hợp liền mạch này nhằm mục đích tối ưu hóa quy trình làm việc của bạn và tăng cường năng suất của bạn.
Nghiên cứu của Đại học Waterloo đã phát hiện ra rằng ChatGPT đôi khi đồng ý với thông tin sai, làm cho nó trở nên không đáng tin cậy. Những thay đổi nhỏ trong cách diễn đạt có thể gây nhầm lẫn cho các mô hình này, đặt ra những mối quan ngại. Việc sử dụng rộng rãi mô hình có thể không chủ ý lan truyền thông tin sai lệch.
📌 Các cải tiến mới của Copilot trong Visual Studio Code mở ra những khả năng mới trong việc hỗ trợ lập trình, đồng thời cảnh báo về nguy cơ lan truyền thông tin sai lệch từ các mô hình AI. Việc cân nhắc và đối phó với những thách thức này sẽ quyết định cách thức chúng ta tương tác với công nghệ AI trong tương lai.
📌 Hội nghị KubeCon đã chứng kiến sự tích hợp giữa an ninh mạng và AI, đặc biệt qua việc GitLab áp dụng Generative AI để giải thích và hướng dẫn cách khắc phục lỗ hổng bảo mật, điều này không chỉ giúp các nhà phát triển mà còn nâng cao chất lượng an ninh mạng trong tiến trình DevSecOps.
Kết luận: CodeOps, kết hợp giữa sử dụng Mô hình Ngôn ngữ Lớn và tái sử dụng mã hệ thống, đang mở ra một hướng mới trong phát triển phần mềm. Với khả năng tự động hóa việc viết mã và sử dụng lại mã đã tồn tại, CodeOps hứa hẹn tăng hiệu quả và giảm thời gian phát triển, mặc dù vẫn cần chú trọng vào việc bảo đảm chất lượng mã.
- Tóm tắt nội dung bài viết về công cụ hỗ trợ lập trình Aider:
- Aider là công cụ trợ lý lập trình dựa trên AI, sử dụng GPT-4 và GPT-3.5 của OpenAI.
- Cho phép trò chuyện với AI về code, yêu cầu cải tiến, sửa lỗi, viết test, tự động commit lên git.
- Hỗ trợ nhiều ngôn ngữ phổ biến: Python, JavaScript, HTML/CSS.
- Tích hợp tốt với các IDE như VS Code, Vim.
- Tiết kiệm thời gian cho lập trình viên bằng cách tự động hóa các tác vụ lập trình thông thường.
- Là xu hướng mới trong phát triển phần mềm, nâng cao năng suất và chất lượng code.
- Tóm tắt nội dung bài viết về công cụ AI sinh mã Cody của Sourcegraph:
- Sourcegraph cho ra mắt công cụ mã nguồn mở Cody sử dụng AI sinh mã để viết và sửa mã.
- Phiên bản 1.0 của Cody sử dụng các mô hình ngôn ngữ lớn như StarCoder, GPT-4 Turbo, Claude 2.
- Cody được tích hợp với công cụ tìm kiếm mã nguồn của Sourcegraph để cung cấp ngữ cảnh cho mã.
- Cody có thể tìm kiếm mã và tài liệu để đề xuất kế hoạch triển khai tính năng mới.
- Phiên bản sau sẽ tích hợp chặt chẽ hơn với đồ thị mã nguồn phổ quát của Sourcegraph.
- Cody giúp lập trình viên viết mã nhanh hơn, nhưng vẫn cần đánh giá mã trước khi triển khai.
- Tóm tắt tác động của AI đối với lập trình viên:
- AI đang được tích hợp vào phát triển phần mềm, tự động hóa các tác vụ lặp đi lặp lại.
- Công cụ AI như Copilot giúp đề xuất mã, nâng cao năng suất lập trình. AlphaCode 2 của Google đạt kết quả tốt trong các cuộc thi lập trình.
- AI sẽ hỗ trợ lập trình viên trong quá trình phát triển phần mềm thay vì thay thế họ.
- AI giúp lập trình viên chuyển sang các vai trò chiến lược, nâng cao chất lượng phần mềm, đổi mới sáng tạo.
- Kỹ năng lập trình truyền thống vẫn cần thiết để hướng dẫn AI. AI không thay thế được lập trình viên trong những năm tới.
- AI mang lại cơ hội mới chứ không phải mối đe dọa với lập trình viên.