- OpenAI sẽ ra mắt công cụ AI tạo sinh video Sora trong năm nay. Giám đốc công nghệ Mira Murati nói họ chưa loại trừ khả năng cho phép nội dung khỏa thân.
- 77% cử tri Mỹ cho rằng việc đưa ra các biện pháp kiểm soát và bảo vệ để ngăn chặn lạm dụng quan trọng hơn việc phổ biến rộng rãi các mô hình AI tạo video.
- Hơn 2/3 cho rằng nhà phát triển mô hình AI phải chịu trách nhiệm pháp lý về mọi hoạt động bất hợp pháp của mô hình.
- Các chuyên gia cho rằng OpenAI và các công ty công nghệ khác cũng như chính phủ Mỹ cần chủ động hơn trong việc quản lý các công cụ như Sora trước khi chúng được phát hành rộng rãi.
- Các hình ảnh khiêu dâm deepfake về Taylor Swift tràn ngập mạng xã hội vào tháng 1. 84% người được hỏi ủng hộ luật cấm porn deepfake không đồng thuận.
- Chưa có luật hoặc quy định nào của Mỹ về vấn đề này. Đạo luật Trí tuệ nhân tạo mới được thông qua của EU vẫn chưa có hiệu lực chính thức.
- Các tội phạm mạng có thể sử dụng Sora để tạo ra deepfake về các giám đốc, diễn viên, chính trị gia trong các tình huống khó xử nhằm gây ảnh hưởng hoặc tống tiền.
- Các chuyên gia kêu gọi chuyển từ tư thế phản ứng sang tư thế chủ động trong việc quản lý các mô hình AI, áp đặt các biện pháp kiểm soát và hình phạt để đối phó với "cơn sóng thần tội phạm mạng" sắp tới.
📌 OpenAI sẽ ra mắt công cụ AI tạo video Sora trong năm nay, chưa loại trừ khả năng cho phép nội dung khỏa thân. 77% cử tri Mỹ ủng hộ các biện pháp kiểm soát và bảo vệ, 84% ủng hộ luật cấm deepfake porn không đồng thuận. Các chuyên gia kêu gọi chính phủ Mỹ chủ động quản lý AI, áp đặt hình phạt để đối phó với làn sóng tội phạm mạng sắp tới.
https://qz.com/openai-sora-ai-video-generator-nudity-deepfake-porn-1851339498