- Các chatbot như DarkGPT, EscapeGPT, WormGPT, WolfGPT, EvilGPT, DarkBARD, BadGPT, và FreedomGPT được phát triển bởi ngành công nghiệp tội phạm tổ chức, có khả năng lập trình virus máy tính, viết email lừa đảo, xây dựng website giả mạo, quét lỗ hổng bảo mật của website để tấn công, và nhiều hơn nữa.
- Một nhóm từ Đại học Indiana Bloomington đã tiến hành nghiên cứu đầu tiên về mặt tối của AI vào ngày 6 tháng 1.
- Xiaojing Liao, một trong những tác giả của nghiên cứu, đã đặt tên cho tất cả các chương trình và dịch vụ này là "Malla" - viết tắt của "malicious LLM applications" (ứng dụng LLM độc hại).
- Các nhà nghiên cứu đã xác định được 212 ứng dụng từ tháng 2 đến tháng 9 năm 2023 và số lượng này vẫn đang tiếp tục tăng lên.
- XiaoFeng Wang, đồng tác giả, cho biết họ đã quen với loại "trò chơi" này và chỉ là địa hình đã thay đổi từ internet sang điện thoại di động, sau đó là Cloud.
- Nghiên cứu đã chỉ ra rằng không cần phải là một chuyên gia để thực hiện các hoạt động tội phạm mạng; thay vào đó, các tội phạm có thể sử dụng các mô hình ngôn ngữ nguồn mở (với các tham số có thể truy cập) và tinh chỉnh chúng cho các nhiệm vụ độc hại hoặc làm giả mạo bảo vệ của các dịch vụ thương mại.
📌 Sự xuất hiện của các chatbot AI như DarkGPT và EvilGPT cho thấy mặt tối của trí tuệ nhân tạo, nơi công nghệ này không chỉ được sử dụng để hỗ trợ con người mà còn có thể bị lợi dụng bởi tội phạm mạng. Với 212 ứng dụng độc hại được xác định trong khoảng thời gian từ tháng 2 đến tháng 9 năm 2023, rõ ràng là mối đe dọa này đang ngày càng trở nên phức tạp và khó kiểm soát hơn. Các nhà nghiên cứu từ Đại học Indiana Bloomington đã chỉ ra rằng ngày nay, việc thực hiện các hoạt động tội phạm mạng không còn đòi hỏi kiến thức chuyên môn cao, mà chỉ cần sử dụng các mô hình ngôn ngữ nguồn mở hoặc bẻ khóa bảo vệ của dịch vụ thương mại.
Citations:
[1] https://www.lemonde.fr/en/science/article/2024/02/22/the-dark-side-of-ai-chatbots-developed-by-cyber-criminals_6550302_10.html