- Năm 1948, Claude Shannon đề xuất mô hình hóa ngôn ngữ dựa trên xác suất từ tiếp theo trong câu. Ý tưởng này ban đầu bị chỉ trích nhưng đã dẫn đến sự ra đời của ChatGPT vào năm 2022.
- ChatGPT là mô hình ngôn ngữ lớn (LLM) được học từ lượng lớn dữ liệu văn bản trên internet. Nó dự đoán xác suất từ tiếp theo dựa trên ngữ cảnh và tạo ra văn bản có vẻ thông minh.
- Tuy nhiên, LLM thực chất chỉ lặp lại những gì có trong dữ liệu đào tạo, được ví như "vẹt ngẫu nhiên". Việc tạo văn bản từ LLM có thể coi là đạo văn từng từ một.
- Đa số người viết sáng tạo không muốn tạo ra những gì một người ngẫu nhiên sẽ viết. Họ muốn sử dụng khả năng sáng tạo của riêng mình.
- LLM có thể hữu ích cho các dự án nhỏ đã được thực hiện trước đó bởi nhiều người khác, như truy vấn cơ sở dữ liệu hoặc viết thư tiêu chuẩn.
- Kỹ thuật tạo prompt tốt (prompt engineering) đang được coi là một hình thức nghệ thuật để cải thiện đầu ra của LLM hiện tại.
- Joseph Weizenbaum nhận xét rằng con người có xu hướng gán tính người cho máy tính và gắn kết cảm xúc với chúng một cách nhanh chóng.
- Không có phép màu trong AI tạo sinh, chỉ có lượng lớn dữ liệu để dự đoán những gì ai đó có thể viết.
📌 AI chưa thể thay thế hoàn toàn khả năng viết sáng tạo của con người. LLM chỉ lặp lại dữ liệu đã học, trong khi sáng tạo thực sự đòi hỏi ý tưởng độc đáo. Tuy nhiên, AI có thể hỗ trợ một số khía cạnh của quá trình viết như tạo ý tưởng ban đầu hay soạn thảo văn bản cơ bản.
https://theconversation.com/why-ai-cant-take-over-creative-writing-252358
Công bố: Ngày 2 tháng 4 năm 2025 3.56 chiều BST
Năm 1948, người sáng lập lý thuyết thông tin, Claude Shannon, đề xuất mô hình hóa ngôn ngữ dựa trên xác suất của từ tiếp theo trong câu dựa vào các từ trước đó. Những mô hình ngôn ngữ xác suất này phần lớn bị chế giễu, nổi tiếng nhất là bởi nhà ngôn ngữ học Noam Chomsky: "Khái niệm 'xác suất của một câu' là hoàn toàn vô dụng."
Năm 2022, 74 năm sau đề xuất của Shannon, ChatGPT xuất hiện, thu hút sự chú ý của công chúng, với một số người thậm chí còn cho rằng đây là cánh cửa dẫn đến trí thông minh siêu việt. Quá trình từ đề xuất của Shannon đến ChatGPT kéo dài như vậy vì lượng dữ liệu và thời gian tính toán được sử dụng không thể tưởng tượng được ngay cả vài năm trước đó.
ChatGPT là một mô hình ngôn ngữ lớn (LLM) được học từ một khối lượng văn bản khổng lồ từ internet. Mô hình dự đoán xác suất của từ tiếp theo dựa trên ngữ cảnh: một câu nhắc và các từ đã được tạo ra trước đó.
ChatGPT sử dụng mô hình này để tạo ra ngôn ngữ bằng cách chọn từ tiếp theo theo dự đoán xác suất. Hãy tưởng tượng việc rút từ từ một cái mũ, trong đó những từ được dự đoán có xác suất cao hơn sẽ có nhiều bản sao hơn trong mũ. ChatGPT tạo ra văn bản có vẻ thông minh.
Có nhiều tranh cãi về cách những công cụ này có thể giúp đỡ hoặc cản trở việc học tập và thực hành sáng tác văn học. Là một giáo sư khoa học máy tính đã viết hàng trăm tác phẩm về trí tuệ nhân tạo (AI), bao gồm cả sách giáo khoa AI đề cập đến tác động xã hội của các mô hình ngôn ngữ lớn, tôi nghĩ việc hiểu cách các mô hình hoạt động có thể giúp các nhà văn và nhà giáo dục xem xét những hạn chế và tiềm năng sử dụng AI cho những gì có thể gọi là sáng tác "sáng tạo".
Điều quan trọng là phải phân biệt giữa "sáng tạo" của LLM và sáng tạo của con người. Đối với những người có kỳ vọng thấp về những gì máy tính có thể tạo ra, rất dễ gán sự sáng tạo cho máy tính. Những người khác thì hoài nghi hơn. Nhà khoa học nhận thức Douglas Hofstadter nhận thấy "một sự rỗng tuếch đáng kinh ngạc ẩn ngay dưới bề mặt hào nhoáng của nó."
Nhà ngôn ngữ học Emily Bender và đồng nghiệp mô tả các mô hình ngôn ngữ như những con vẹt ngẫu nhiên, nghĩa là chúng lặp lại những gì có trong dữ liệu mà chúng được đào tạo với yếu tố ngẫu nhiên. Để hiểu điều này, hãy xem xét lý do tại sao một từ cụ thể được tạo ra. Đó là vì từ đó có xác suất tương đối cao, và từ có xác suất cao vì rất nhiều văn bản trong dữ liệu đào tạo sử dụng từ đó trong các ngữ cảnh tương tự.
Việc chọn một từ theo phân phối xác suất giống như chọn văn bản có ngữ cảnh tương tự và sử dụng từ tiếp theo của văn bản đó. Việc tạo văn bản từ LLM có thể được coi là đạo văn, từng từ một.
Hãy xem xét sự sáng tạo của một người có ý tưởng muốn truyền đạt. Với AI tạo sinh, họ đưa ý tưởng vào một câu nhắc và AI sẽ tạo ra văn bản (hoặc hình ảnh hoặc âm thanh). Nếu ai đó không quan tâm đến những gì được tạo ra, việc sử dụng câu nhắc nào không thực sự quan trọng. Nhưng nếu họ thực sự quan tâm đến những gì được tạo ra thì sao?
Một LLM cố gắng tạo ra những gì một người ngẫu nhiên đã viết văn bản trước đó sẽ tạo ra. Hầu hết các nhà văn sáng tạo không muốn những gì một người ngẫu nhiên sẽ viết. Họ muốn sử dụng sự sáng tạo của mình, và có thể muốn một công cụ để tạo ra những gì họ sẽ viết nếu họ có thời gian để tạo ra nó.
LLM thường không có một khối lượng lớn về những gì một tác giả cụ thể đã viết để học hỏi. Tác giả chắc chắn sẽ muốn tạo ra điều gì đó khác biệt. Nếu đầu ra được kỳ vọng chi tiết hơn đầu vào, LLM phải tạo ra các chi tiết. Những chi tiết này có thể đúng hoặc không đúng với ý định của nhà văn.
Viết văn giống như phát triển phần mềm: Với một ý tưởng về những gì được mong muốn, các nhà phát triển phần mềm tạo ra mã (văn bản trong ngôn ngữ máy tính) tương tự như cách các nhà văn tạo ra văn bản trong ngôn ngữ tự nhiên. LLM xử lý việc viết mã và viết văn bản ngôn ngữ tự nhiên theo cùng một cách; dữ liệu mà mỗi LLM được đào tạo chứa cả ngôn ngữ tự nhiên và mã. Những gì được tạo ra phụ thuộc vào ngữ cảnh.
Các nhà văn có thể học hỏi từ kinh nghiệm của các nhà phát triển phần mềm. LLM thích hợp cho các dự án nhỏ đã được thực hiện trước đó bởi nhiều người khác, chẳng hạn như truy vấn cơ sở dữ liệu hoặc viết thư tiêu chuẩn. Chúng cũng hữu ích cho các phần của dự án lớn hơn, chẳng hạn như hộp bật lên trong giao diện người dùng đồ họa.
Nếu các lập trình viên muốn sử dụng chúng cho các dự án lớn hơn, họ cần chuẩn bị để tạo ra nhiều đầu ra và chỉnh sửa cái gần nhất với những gì dự định. Vấn đề trong phát triển phần mềm luôn là xác định chính xác những gì được mong muốn; lập trình là phần dễ dàng.
Cách tạo ra câu nhắc tốt đã được ủng hộ như một hình thức nghệ thuật gọi là "kỹ thuật nhắc". Những người ủng hộ kỹ thuật nhắc đã đề xuất nhiều kỹ thuật cải thiện đầu ra của LLM hiện tại, chẳng hạn như yêu cầu một đề cương và sau đó yêu cầu văn bản dựa trên câu nhắc ban đầu bổ sung bằng đề cương.
Một kỹ thuật khác là yêu cầu LLM thể hiện các bước lập luận của mình, như trong cái gọi là chuỗi suy nghĩ. Đầu ra LLM không chỉ trả lời câu hỏi, mà còn giải thích các bước có thể được thực hiện để trả lời nó. LLM sử dụng các bước đó như một phần của câu nhắc để có câu trả lời cuối cùng.
Những lời khuyên như vậy chắc chắn sẽ ngắn ngủi. Nếu một số kỹ thuật kỹ thuật nhắc hoạt động, nó sẽ được kết hợp vào phiên bản LLM trong tương lai, để hiệu ứng xảy ra mà không cần sử dụng kỹ thuật một cách rõ ràng. Các mô hình gần đây tuyên bố có khả năng lập luận đã kết hợp các câu nhắc từng bước như vậy.
Nhà khoa học máy tính Joseph Weizenbaum, mô tả chương trình ELIZA của mình được viết vào năm 1964-66, nói: "Tôi giật mình khi thấy mọi người trò chuyện với (chương trình) nhanh chóng và sâu sắc như thế nào về mặt cảm xúc với máy tính và họ nhân cách hóa nó một cách không mập mờ như thế nào." Các công cụ đã thay đổi, nhưng mọi người vẫn muốn tin.
Trong thời đại thông tin sai lệch này, điều quan trọng là mọi người phải có cách đánh giá sự phóng đại thường là tự phục vụ.
Không có phép thuật nào trong AI tạo sinh, nhưng có rất nhiều dữ liệu để dự đoán những gì ai đó có thể viết. Tôi hy vọng rằng sự sáng tạo không chỉ là nôn ra những gì người khác đã viết.