- Kể từ khi ChatGPT ra mắt vào mùa thu năm 2022, kỹ thuật tạo lời nhắc đã trở nên phổ biến, với mọi người tìm cách tối ưu hóa truy vấn để đạt kết quả tốt nhất từ mô hình ngôn ngữ lớn (LLM).
- Các công ty hiện đang sử dụng LLM để xây dựng sản phẩm đồng hành, tự động hóa công việc nhàm chán, tạo ra trợ lý cá nhân, và nhiều hơn nữa.
- Nghiên cứu mới cho thấy kỹ thuật tạo lời nhắc có thể được thực hiện tốt nhất bởi chính mô hình, không phải bởi kỹ sư con người, đặt ra nghi vấn về tương lai của lĩnh vực này.
- Rick Battle và Teja Gollapudi từ VMware đã thử nghiệm cách các chiến lược kỹ thuật tạo lời nhắc khác nhau ảnh hưởng đến khả năng giải quyết câu hỏi toán lớp học của LLM, phát hiện ra sự thiếu nhất quán đáng ngạc nhiên.
- Công cụ mới được phát triển để tự động hóa quá trình tìm kiếm lời nhắc tối ưu, cho thấy hiệu suất cao hơn và nhanh hơn so với phương pháp thử và sai.
- Intel Labs đã tạo ra NeuroPrompts, một công cụ tự động tối ưu hóa lời nhắc cho mô hình sinh ảnh Stable Diffusion, cho kết quả ảnh đẹp hơn so với lời nhắc do con người tạo ra.
- Dù tự động hóa lời nhắc có thể trở thành tiêu chuẩn công nghiệp, nhu cầu về kỹ sư tạo lời nhắc trong một số hình thức vẫn sẽ tồn tại, do nhu cầu thích ứng AI sinh sản cho nhu cầu công nghiệp là một quá trình phức tạp.
📌 Tương lai của kỹ thuật tạo lời nhắc đang chuyển từ thủ công sang tự động hóa, với nghiên cứu và công cụ mới cho thấy khả năng tối ưu hóa lời nhắc bởi chính mô hình mang lại hiệu suất cao hơn. Công nghệ này không chỉ áp dụng cho LLM mà còn cả trong sinh ảnh, nhưng nhu cầu về chuyên môn tạo lời nhắc vẫn còn do tính phức tạp của việc thích ứng AI với nhu cầu công nghiệp.
Citations:
[1] https://spectrum.ieee.org/prompt-engineering-is-dead