- Các chatbot như "BadGPT" và "FraudGPT" đang được tội phạm mạng sử dụng để tạo ra các email phishing và trang web giả mạo.
- Một nhân viên của công ty đa quốc gia ở Hồng Kông đã chuyển 25.5 triệu USD cho kẻ tấn công giả mạo CFO qua cuộc gọi hội nghị deepfake.
- Các công ty và chuyên gia bảo mật đang tăng cường cảnh giác trước nguy cơ tấn công phishing và deepfake ngày càng tinh vi.
- Các công cụ hacking trên dark web thường sử dụng các mô hình AI nguồn mở hoặc "jailbroken" từ các nhà cung cấp như OpenAI và Anthropic.
- Meta và OpenAI đều khẳng định mục tiêu là chia sẻ lợi ích của AI và làm cho các mô hình AI an toàn hơn trước các mối đe dọa.
- Phishing emails tăng 1,265% trong 12 tháng sau khi ChatGPT được phát hành công khai, với trung bình 31,000 cuộc tấn công mỗi ngày.
- Các công cụ phát triển với AI có thể quét và xác định văn bản có khả năng được tạo ra bởi công nghệ này, giúp ngăn chặn các cuộc tấn công mục tiêu và cá nhân hóa.
📌 Trong bối cảnh công nghệ AI ngày càng phát triển, việc sử dụng các mô hình AI như "BadGPT" và "FraudGPT" cho mục đích tội phạm mạng đang trở nên phổ biến. Các cuộc tấn công phishing và malware được tạo ra bởi AI đặc biệt khó phát hiện do khả năng tùy chỉnh cao và khả năng tránh né các phần mềm bảo mật. Sự xuất hiện của các dịch vụ hacking trên dark web sử dụng mô hình AI nguồn mở hoặc bị "jailbroken" làm tăng thêm mối lo ngại về an ninh mạng. Các công ty công nghệ và chuyên gia bảo mật đang nỗ lực để làm cho các mô hình AI an toàn hơn, nhưng thách thức vẫn còn đó khi các công cụ AI miễn phí và dễ tiếp cận trên mạng mở.
https://www.wsj.com/articles/welcome-to-the-era-of-badgpts-a104afa8?mod=djemCIO