- Đa số kỹ sư phần mềm hiện nay đang sử dụng AI tạo sinh, góp phần nâng cao năng suất làm việc và sự hài lòng trong công việc hoặc giảm tải trí óc.
- AI tạo sinh đã trở thành nguồn thông tin nhanh chóng mà các nhà phát triển phần mềm dựa vào, tương tự như Stack Overflow.
- Nghiên cứu của Đại học Purdue chỉ ra rằng mã lệnh từ ChatGPT sai 52% thời gian.
- Báo cáo của GitClear tiết lộ sự giảm chất lượng mã do dựa quá nhiều vào GitHub Copilot.
- Các vấn đề cốt lõi từ nghiên cứu về AI tạo sinh bao gồm việc chatbot cung cấp câu trả lời thuyết phục mà không cần đúng, dựa vào xác suất được chấp nhận chứ không phải độ chính xác hoặc phù hợp với bối cảnh tổng thể của mã nguồn.
- Chatbot không xem xét đến việc duy trì mã lệnh lâu dài, dẫn đến các vấn đề bảo mật.
- Tốc độ áp dụng AI tạo sinh nhanh chóng đặt an ninh của mọi tổ chức vào nguy cơ, làm cho vai trò của các chuyên gia DevSecOps càng trở nên quan trọng hơn.
- DevSecOps cần phải thận trọng khi tiếp tục làm việc trong thời đại của AI tạo sinh, đồng thời cần phải có tự động hóa và tạo ra công cụ để kiểm tra mã lệnh theo chính sách của tổ chức.
📌 Nghiên cứu từ Đại học Purdue và báo cáo của GitClear cho thấy mã lệnh từ ChatGPT sai tới 52% các trường hợp, qua đó cung cấp cái nhìn sâu sắc về những thách thức mà DevSecOps (quy trình phát triển và vận hành phần mềm an toàn) phải đối mặt, từ việc mã lệnh được tạo ra bởi AI có tỷ lệ lỗi cao đến việc phụ thuộc quá mức vào công cụ như GitHub Copilot có thể làm giảm chất lượng mã. Vai trò của các chuyên gia DevSecOps càng trở nên quan trọng hơn. Cần phải có tự động hóa và tạo ra công cụ để kiểm tra mã lệnh theo chính sách của tổ chức
Citations:
[1] https://thenewstack.io/will-generative-ai-kill-devsecops/