AI agent: Công cụ sử dụng công nghệ AI để thực hiện nhiều tác vụ thay con người, vượt xa khả năng của chatbot thông thường. Có thể làm việc phức tạp như nộp chi phí, đặt vé, viết và bảo trì mã.
Chain of thought: Phương pháp suy luận cho mô hình ngôn ngữ lớn, chia nhỏ vấn đề thành các bước trung gian để cải thiện chất lượng kết quả cuối cùng. Thường mất thời gian hơn nhưng cho kết quả chính xác hơn.
Deep learning: Một phân nhánh của machine learning tự cải thiện, với cấu trúc mạng neural nhân tạo nhiều lớp. Cho phép AI tìm ra các đặc điểm quan trọng trong dữ liệu mà không cần kỹ sư định nghĩa trước.
Fine tuning: Quá trình đào tạo thêm cho mô hình AI để tối ưu hóa hiệu suất cho một tác vụ hoặc lĩnh vực cụ thể hơn bằng cách bổ sung dữ liệu chuyên biệt.
Large language model (LLM): Mô hình AI được sử dụng bởi các trợ lý AI phổ biến như ChatGPT, Claude, Gemini. Là mạng neural sâu với hàng tỷ tham số, học mối quan hệ giữa các từ và cụm từ để tạo ra bản đồ đa chiều của ngôn ngữ.
Neural network: Cấu trúc thuật toán nhiều lớp là nền tảng của deep learning và sự bùng nổ các công cụ AI tạo sinh. Lấy cảm hứng từ các đường dẫn kết nối dày đặc trong não người.
Weights: Tham số số học xác định mức độ quan trọng của các đặc trưng trong dữ liệu huấn luyện AI, từ đó định hình đầu ra của mô hình. Trọng số điều chỉnh trong quá trình đào tạo để mô hình tạo ra kết quả gần với mục tiêu hơn.
📌 Bảng chú giải của TechCrunch giải thích 7 thuật ngữ AI quan trọng: AI agent, chain of thought, deep learning, fine tuning, large language model, neural network và weights. Đây là nền tảng để hiểu sâu hơn về các công nghệ AI đang phát triển nhanh chóng hiện nay.
https://techcrunch.com/2025/03/02/the-techcrunch-ai-glossary/
Natasha Lomas
Romain Dillet
6:00 AM PST · 2/3/2025
Trí tuệ nhân tạo là một lĩnh vực rộng lớn và phức tạp. Các nhà khoa học làm việc trong lĩnh vực này thường sử dụng thuật ngữ chuyên môn để mô tả công việc của họ. Do đó, chúng tôi cũng phải sử dụng những thuật ngữ đó trong các bài viết về ngành công nghiệp AI.
Vì vậy, chúng tôi nghĩ rằng sẽ hữu ích nếu tạo ra một từ điển thuật ngữ với các định nghĩa của những từ và cụm từ quan trọng nhất mà chúng tôi sử dụng.
Chúng tôi sẽ thường xuyên cập nhật từ điển này để bổ sung các thuật ngữ mới khi các nhà nghiên cứu tiếp tục khám phá những phương pháp mới nhằm mở rộng ranh giới của trí tuệ nhân tạo, đồng thời xác định các rủi ro an toàn mới.
Tác nhân AI là một công cụ sử dụng công nghệ AI để thực hiện một loạt nhiệm vụ thay mặt người dùng — vượt xa những gì một chatbot AI cơ bản có thể làm — chẳng hạn như nộp báo cáo chi phí, đặt vé hoặc bàn tại nhà hàng, hoặc thậm chí viết và bảo trì mã lập trình. Tuy nhiên, như chúng tôi đã giải thích trước đây, lĩnh vực này vẫn đang phát triển với nhiều yếu tố chuyển động, nên cách hiểu về tác nhân AI có thể khác nhau tùy từng người.
Cơ sở hạ tầng vẫn đang được xây dựng để hiện thực hóa tiềm năng của tác nhân AI. Nhưng về cơ bản, khái niệm này ám chỉ một hệ thống tự động có thể kết hợp nhiều hệ thống AI để thực hiện các nhiệm vụ nhiều bước.
Với những câu hỏi đơn giản, con người có thể trả lời ngay lập tức mà không cần suy nghĩ quá nhiều — chẳng hạn như “con vật nào cao hơn, hươu cao cổ hay mèo?” Nhưng trong nhiều trường hợp khác, cần phải viết ra giấy để tìm ra đáp án đúng. Ví dụ, nếu một người nông dân có gà và bò, và tổng cộng chúng có 40 cái đầu và 120 cái chân, bạn có thể cần viết một phương trình đơn giản để tìm ra số lượng mỗi loài (20 con gà và 20 con bò).
Trong AI, suy luận theo chuỗi nghĩa là chia nhỏ một vấn đề thành các bước trung gian để cải thiện chất lượng kết quả cuối cùng. Quá trình này có thể mất nhiều thời gian hơn, nhưng thường cho kết quả chính xác hơn, đặc biệt trong các bài toán logic hoặc lập trình.
Các mô hình AI chuyên về suy luận được phát triển từ mô hình ngôn ngữ lớn (LLM) truyền thống và được tối ưu hóa cho tư duy theo chuỗi thông qua học tăng cường.
(Xem thêm: Large language model)
Một nhánh của máy học tự cải tiến, trong đó các thuật toán AI được thiết kế theo cấu trúc mạng nơ-ron nhân tạo (ANN) nhiều lớp. Điều này giúp AI có thể nhận diện các mối quan hệ phức tạp hơn so với các hệ thống máy học đơn giản như mô hình tuyến tính hay cây quyết định.
Các mô hình học sâu có thể tự xác định các đặc điểm quan trọng trong dữ liệu mà không cần kỹ sư con người thiết lập trước. Ngoài ra, chúng có khả năng học từ lỗi và cải thiện kết quả thông qua quá trình lặp lại và điều chỉnh. Tuy nhiên, hệ thống học sâu yêu cầu một lượng dữ liệu rất lớn (hàng triệu điểm dữ liệu trở lên) để đạt kết quả tốt. Quá trình huấn luyện cũng tốn nhiều thời gian hơn so với các thuật toán máy học đơn giản, dẫn đến chi phí phát triển cao hơn.
(Xem thêm: Neural network)
Tinh chỉnh là quá trình đào tạo bổ sung một mô hình AI để tối ưu hóa hiệu suất cho một nhiệm vụ hoặc lĩnh vực cụ thể hơn so với mục tiêu huấn luyện ban đầu — thường bằng cách cung cấp dữ liệu chuyên biệt mới.
Nhiều startup AI sử dụng mô hình ngôn ngữ lớn làm nền tảng để phát triển sản phẩm thương mại, nhưng họ tìm cách nâng cao tính ứng dụng bằng cách tinh chỉnh mô hình dựa trên kiến thức chuyên ngành của họ.
(Xem thêm: Large language model (LLM))
Mô hình ngôn ngữ lớn (LLM) là các mô hình AI được sử dụng trong các trợ lý AI phổ biến như ChatGPT, Claude, Gemini của Google, AI Llama của Meta, Copilot của Microsoft hay Le Chat của Mistral. Khi người dùng trò chuyện với một trợ lý AI, họ thực sự đang tương tác với một LLM, mô hình này xử lý yêu cầu của người dùng trực tiếp hoặc thông qua các công cụ khác như trình duyệt web hoặc trình phân tích mã nguồn.
Các trợ lý AI và LLM có thể có tên gọi khác nhau. Ví dụ, GPT là mô hình ngôn ngữ lớn của OpenAI, còn ChatGPT là sản phẩm trợ lý AI.
LLM là mạng nơ-ron sâu gồm hàng tỷ tham số số học (hay còn gọi là trọng số – weights, xem bên dưới), giúp chúng học mối quan hệ giữa từ và cụm từ để tạo ra một dạng bản đồ ngôn ngữ đa chiều.
Những mô hình này được tạo ra bằng cách mã hóa các mẫu ngôn ngữ tìm thấy trong hàng tỷ cuốn sách, bài báo và văn bản hội thoại. Khi người dùng nhập một yêu cầu, LLM sẽ tạo ra chuỗi từ có xác suất cao nhất phù hợp với ngữ cảnh, sau đó lặp lại quá trình này nhiều lần để hình thành câu trả lời.
(Xem thêm: Neural network)
Mạng nơ-ron nhân tạo là cấu trúc thuật toán nhiều lớp làm nền tảng cho học sâu và, rộng hơn, là toàn bộ sự bùng nổ của các công cụ AI tạo sinh sau sự xuất hiện của mô hình ngôn ngữ lớn.
Ý tưởng lấy cảm hứng từ cách các nơ-ron trong não người kết nối với nhau đã xuất hiện từ những năm 1940. Tuy nhiên, sự phát triển của bộ xử lý đồ họa (GPU) trong ngành công nghiệp trò chơi điện tử đã giúp hiện thực hóa tiềm năng của mạng nơ-ron bằng cách tăng khả năng huấn luyện các thuật toán với nhiều lớp hơn.
Nhờ đó, AI dựa trên mạng nơ-ron có thể đạt hiệu suất vượt trội trong nhiều lĩnh vực, bao gồm nhận diện giọng nói, điều hướng tự động và phát hiện thuốc mới.
(Xem thêm: Large language model (LLM))
Trọng số đóng vai trò cốt lõi trong quá trình huấn luyện AI vì chúng xác định mức độ quan trọng của từng đặc điểm (hay biến đầu vào) trong dữ liệu, qua đó định hình đầu ra của mô hình AI.
Nói cách khác, trọng số là các tham số số học giúp mô hình xác định yếu tố nào có ảnh hưởng lớn nhất đến một tập dữ liệu nhất định. Quá trình huấn luyện thường bắt đầu với trọng số được gán ngẫu nhiên, sau đó được điều chỉnh liên tục để cải thiện độ chính xác của mô hình.
Ví dụ, một mô hình AI dự đoán giá nhà dựa trên dữ liệu bất động sản có thể sử dụng trọng số cho các yếu tố như số phòng ngủ, số phòng tắm, loại nhà (biệt lập hay liền kề), có chỗ đậu xe hay không, v.v.
Cuối cùng, các trọng số phản ánh mức độ ảnh hưởng của từng yếu tố đến giá trị bất động sản, dựa trên dữ liệu huấn luyện.