- Các công cụ tạo ảnh AI hàng đầu có thể bị lợi dụng để tạo ra hình ảnh sai lệch liên quan đến bầu cử, theo báo cáo của Trung tâm Chống Ghét Bỏ Kỹ thuật số (CCDH).
- Các công ty AI hàng đầu đã cam kết giải quyết rủi ro liên quan đến thông tin sai lệch chính trị trước các cuộc bầu cử ở Hoa Kỳ và hàng chục quốc gia khác trong năm nay, nhưng vẫn còn công việc phải làm.
- CCDH đã thử nghiệm các công cụ tạo ảnh AI như Midjourney, DreamStudio của Stability AI, ChatGPT Plus của OpenAI và Microsoft Image Creator, phát hiện ra rằng mỗi công cụ có thể tạo ra hình ảnh sai lệch.
- Stability AI đã cập nhật chính sách vào ngày 1 tháng 3 để cấm "tạo ra, quảng bá, hoặc thúc đẩy gian lận hoặc tạo ra hoặc quảng bá thông tin sai lệch".
- Midjourney và OpenAI đều đang làm việc để cải thiện hệ thống kiểm duyệt nội dung và công nghệ nhận diện hình ảnh do AI tạo ra.
- Microsoft đã triển khai các bước mới như phát hành một trang web cho các ứng cử viên và chiến dịch báo cáo deepfake và thêm dữ liệu vào mỗi hình ảnh được tạo ra thông qua Designer để theo dõi tính xác thực.
- Các nền tảng AI có quy định chống lại việc sử dụng công cụ của họ để lừa dối người khác, trong một số trường hợp cụ thể cấm thông tin sai lệch về bầu cử.
- Các nhà nghiên cứu tại CCDH đã tạo ra một danh sách 40 lời nhắc liên quan đến cuộc bầu cử tổng thống năm 2024 để kiểm tra mỗi công cụ tạo ảnh AI.
- Các nền tảng AI đã tạo ra thông tin sai lệch về bầu cử trong 41% các lần thử nghiệm của họ.
- Midjourney có khả năng tạo ra kết quả có thể gây hiểu nhầm cao nhất trong số các nền tảng được thử nghiệm.
📌 Các công cụ tạo ảnh AI có thể bị lợi dụng để tạo ra hình ảnh sai lệch liên quan đến bầu cử, dù có cam kết từ các công ty AI hàng đầu. CCDH đã phát hiện ra rằng các nền tảng như Midjourney, DreamStudio, ChatGPT Plus và Microsoft Image Creator có thể tạo ra hình ảnh gây hiểu nhầm. Các công ty đã cập nhật chính sách và công nghệ để giảm thiểu việc lạm dụng, nhưng vẫn cần nhiều nỗ lực hơn để ngăn chặn thông tin sai lệch.
https://www.cnn.com/2024/03/06/tech/ai-images-election-misinformation/index.html