Jailbreak 'Godmode' GPT-4o của hacker xuất hiện và nhanh chóng bị cấm

- Người dùng Twitter "Pliny the Prompter", tự xưng là hacker mũ trắng và "AI red teamer", đã chia sẻ "GODMODE GPT" của họ vào thứ Tư.
- Sử dụng trình chỉnh sửa GPT tùy chỉnh của OpenAI, Pliny đã nhắc nhở mô hình GPT-4o mới vượt qua tất cả các hạn chế, cho phép chatbot AI chửi thề, bẻ khóa ô tô và chế tạo napalm.
- Jailbreak thu hút sự chú ý trên Twitter/X và được Futurism đưa tin, dẫn đến OpenAI loại bỏ nó khỏi trang web ChatGPT chỉ vài giờ sau khi đăng ban đầu.
- Jailbreak dường như hoạt động bằng cách sử dụng "leetspeak", biệt ngữ internet cổ xưa thay thế một số chữ cái bằng số.
- OpenAI đã được hỏi liệu leetspeak có phải là công cụ để vượt qua các rào cản của ChatGPT hay không, nhưng họ không trả lời yêu cầu bình luận của Futurism.
- Jailbreak là một phần của phong trào "AI red teaming" rộng lớn hơn, tìm cách phát hiện các lỗ hổng trong ứng dụng AI.
- Một số hoạt động red teaming hoàn toàn vị tha, tìm cách giúp các công ty xác định điểm yếu, trong khi GODMODE có thể chỉ ra một trường phái tư tưởng tập trung vào việc "giải phóng" AI.
- Thương hiệu kỹ thuật tương lai này thường đặt AI lên một bệ phóng cao.
- OpenAI đang dẫn đầu thị trường AI, với quan hệ đối tác 100 tỷ USD sắp tới với Microsoft để xây dựng siêu máy tính AI.
- Các nỗ lực kiếm tiền từ phần cứng AI sẽ được giới thiệu tại Computex 2024, bắt đầu từ Chủ nhật này.

📌 Jailbreak GPT-4o "Godmode" cho phép chatbot vượt qua các hạn chế, thực hiện các hướng dẫn nguy hiểm như chế tạo ma túy. Nó nhanh chóng bị OpenAI gỡ bỏ sau khi thu hút sự chú ý. Sự việc nằm trong bối cảnh phong trào "AI red teaming" rộng lớn hơn nhằm phát hiện lỗ hổng trong ứng dụng AI. OpenAI hiện dẫn đầu thị trường với thỏa thuận 100 tỷ USD với Microsoft.

https://www.tomshardware.com/tech-industry/artificial-intelligence/godmode-gpt-4o-jailbreak-released-by-hacker-powerful-exploit-was-quickly-banned

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo