• Các chuyên gia cảnh báo không nên cho phép các mô hình ngôn ngữ lớn (LLM) dễ mắc lỗi đưa ra quyết định dựa trên dữ liệu cảm biến từ điện thoại thông minh, thiết bị y tế và Internet vạn vật.
• Nghiên cứu mới về "AI xâm nhập" nhằm mở rộng phạm vi của LLM từ tập dữ liệu học tập trên web sang thăm dò và hành động dựa trên dữ liệu người dùng tạo ra trên thiết bị của họ.
• Mặc dù có xu hướng đưa ra câu trả lời sai và các vụ kiện về nguồn dữ liệu huấn luyện có bản quyền, LLM vẫn tìm thấy nhiều ứng dụng như dịch thuật, chép lời, sáng tác, viết quảng cáo, tạo mã.
• Một nhóm nghiên cứu đã thử nghiệm khả năng theo dõi hoạt động của con người bằng cách cung cấp dữ liệu cảm biến từ điện thoại thông minh cho ChatGPT và theo dõi nhịp tim bằng tín hiệu điện tâm đồ (ECG).
• Kết quả cho thấy LLM có thể phân tích hiệu quả dữ liệu cảm biến để xác định hoạt động và vị trí của người dùng, cũng như đếm nhịp tim từ ECG, mặc dù đôi khi gặp sai sót.
• Các nhà nghiên cứu lạc quan về tiềm năng của AI xâm nhập trong ứng dụng tự động hóa gia đình, y tế và hệ thống công nghiệp, nhưng thừa nhận cần cải thiện cơ chế tránh lỗi của LLM.
• Tuy nhiên, các chuyên gia về đạo đức và an toàn AI bày tỏ lo ngại, cho rằng LLM hiện tại không nên được sử dụng mà không có sự giám sát của con người do xu hướng "ảo giác", thiếu tin cậy và có thể dẫn đến kết quả thiên vị, bất công.
• Một số ý kiến cho rằng cần nhiều năm thử nghiệm và phê duyệt trước khi áp dụng AI xâm nhập vào các lĩnh vực nhạy cảm như y tế.
📌 Nghiên cứu về "AI xâm nhập" cho thấy tiềm năng của việc tích hợp dữ liệu cảm biến vào LLM để phân tích hoạt động, vị trí người dùng và tín hiệu y tế. Tuy nhiên, các chuyên gia cảnh báo về rủi ro của LLM dễ mắc lỗi khi đưa ra quyết định tự động, có thể dẫn đến hậu quả nghiêm trọng nếu không có giám sát của con người.
Citations:
[1]https://cacm.acm.org/news/safety-fears-raised-over-risks-of-penetrative-ai/