AI riêng tư

View All
Tính năng tìm kiếm mới của ChatGPT: Mối đe dọa về quyền riêng tư?

- OpenAI đã tích hợp chức năng tìm kiếm vào ChatGPT, đánh dấu bước ngoặt trong cách tiếp cận thông tin của người dùng

- Lợi ích chính của tính năng mới:
  * Tăng hiệu quả bằng cách kết hợp tìm kiếm và tạo nội dung trong một phiên
  * Cung cấp thông tin cập nhật về thị trường tài chính, tin tức mới nhất
  * Tổng hợp kết quả tìm kiếm có cấu trúc với các danh mục phụ
  * Hỗ trợ ra quyết định nhanh hơn trong lĩnh vực tài chính, tìm việc

- Thay đổi cách tương tác với thông tin:
  * Tạo trải nghiệm đối thoại động thay vì danh sách liên kết tĩnh
  * Cho phép đào sâu, đặt câu hỏi và tinh chỉnh hiểu biết
  * Tạo trải nghiệm học tập phong phú và hấp dẫn hơn

- Rủi ro và thách thức:
  * Tập trung quyền kiểm soát thông tin vào một nền tảng
  * Khả năng khai thác thời gian và dữ liệu người dùng
  * Chuyển đổi sang mô hình trả phí
  * Lo ngại về quyền riêng tư và đạo đức từ việc thu thập dữ liệu
  * Nguy cơ lan truyền nội dung thiên lệch hoặc sai lệch
  
- Giải pháp đề xuất:
  * Thiết lập quy định rõ ràng về xử lý dữ liệu
  * Đảm bảo minh bạch về cách sử dụng thông tin
  * Duy trì tiêu chuẩn nghiêm ngặt về độ chính xác
  * Người dùng cần hiểu rõ chính sách dữ liệu

📌 Tính năng tìm kiếm mới của ChatGPT mang lại hiệu quả cao nhưng cũng tiềm ẩn rủi ro về quyền riêng tư và kiểm soát thông tin. Cần có khung pháp lý chặt chẽ và minh bạch trong xử lý dữ liệu để cân bằng giữa tiến bộ công nghệ và bảo vệ người dùng.

 

https://www.forbes.com/sites/geruiwang/2024/11/02/chatgpts-new-search-function-efficiency-clashes-with-exploitations/

LinkedIn bị buộc phải dừng thu thập dữ liệu người dùng Hong Kong cho AI

• LinkedIn đã tạm dừng thu thập dữ liệu người dùng Hong Kong cho mô hình AI tạo sinh sau khi cơ quan giám sát quyền riêng tư của thành phố bày tỏ lo ngại.

• Văn phòng ủy viên bảo vệ dữ liệu cá nhân (PCPD) cho biết LinkedIn đã phản hồi các câu hỏi về cài đặt mặc định cho phép thu thập dữ liệu người dùng Hong Kong để đào tạo các mô hình AI.

• LinkedIn xác nhận đã tạm dừng sử dụng dữ liệu cá nhân của người dùng Hong Kong cho mục đích này từ ngày 11/10/2024.

Trước đó vào tháng 9, LinkedIn đã cập nhật chính sách quyền riêng tư, cho phép mặc định sử dụng dữ liệu và nội dung của người dùng để đào tạo AI tạo sinh của nền tảng.

Người dùng phải tự tắt tùy chọn này trong cài đặt tài khoản nếu không muốn chia sẻ thông tin.

• Công ty đã tạm dừng thu thập dữ liệu người dùng Anh vào tháng trước sau khi cơ quan quản lý quyền riêng tư của nước này bày tỏ lo ngại tương tự.

• Francis Fong Po-kiu, chủ tịch danh dự của Liên đoàn công nghệ thông tin Hong Kong, cảnh báo về nguy cơ rò rỉ dữ liệu người dùng khi các công ty công nghệ thu thập thông tin để đào tạo mô hình AI.

• Ông đặt câu hỏi về cách che giấu dữ liệu cá nhân và liệu có thông tin nào bị rò rỉ trong quá trình này không.

• Fong cho rằng việc sử dụng tính năng AI tạo sinh trên các nền tảng mạng xã hội là xu hướng ngày càng phổ biến, khiến các cơ quan quản lý quyền riêng tư ngày càng lo ngại về an toàn dữ liệu cá nhân trực tuyến.

• Người phát ngôn của LinkedIn cho biết công ty luôn sử dụng một số hình thức tự động hóa cho các sản phẩm và minh bạch với người dùng về lựa chọn và việc sử dụng dữ liệu của họ.

• LinkedIn tin rằng người dùng nên có khả năng kiểm soát dữ liệu của mình, vì vậy họ đang cung cấp tùy chọn từ chối đào tạo mô hình AI ở các quốc gia thực hiện việc này.

Công ty cho biết nhu cầu về các công cụ hỗ trợ viết bằng AI là rất cao.

Việc sử dụng dữ liệu thành viên cho mô hình AI tạo sinh đã bị dừng ở Khu vực kinh tế châu Âu, Vương quốc Anh, Thụy Sĩ, Hong Kong và Trung Quốc đại lục.

📌 LinkedIn đã tạm dừng thu thập dữ liệu người dùng Hong Kong cho AI tạo sinh từ 11/10/2024 sau khi cơ quan giám sát quyền riêng tư bày tỏ lo ngại. Công ty cam kết minh bạch và cho phép người dùng kiểm soát dữ liệu, đồng thời đã dừng thu thập dữ liệu ở nhiều khu vực khác như châu Âu và Trung Quốc.

https://www.scmp.com/news/hong-kong/society/article/3282452/linkedin-suspends-collecting-hong-kong-users-data-genai-privacy-watchdog

Meta có thể đang sử dụng hình ảnh từ kính Ray-Ban Meta để huấn luyện AI

• Meta vừa bổ sung tính năng AI mới cho kính Ray-Ban Meta, cho phép người dùng sử dụng camera trên kính để nhận thông tin về môi trường xung quanh và ghi nhớ vị trí đỗ xe.

• Kính Ray-Ban Meta giờ đây hỗ trợ quay video cho mục đích AI, cung cấp "trợ giúp liên tục theo thời gian thực".

Khi được hỏi liệu Meta có sử dụng hình ảnh thu thập từ kính để huấn luyện mô hình AI hay không, công ty từ chối trả lời rõ ràng.

• Anuj Kumar, giám đốc cấp cao phụ trách AI wearables của Meta, nói rằng họ không công khai thảo luận về vấn đề này.

• Một phát ngôn viên khác của Meta cho biết đây không phải là thông tin họ thường chia sẻ ra bên ngoài.

• Việc Meta không đưa ra câu trả lời rõ ràng "không" gợi ý rằng công ty có thể đang có kế hoạch sử dụng hình ảnh từ kính để huấn luyện AI.

• Meta đã huấn luyện AI của mình trên các hình ảnh và story được đăng công khai trên Instagram và Facebook, coi đó là dữ liệu công khai.

• Tuy nhiên, dữ liệu thu thập từ kính Ray-Ban Meta dành riêng để tương tác với AI không giống như hình ảnh đăng công khai trên Instagram.

• Các tính năng AI mới trên kính sẽ chụp nhiều hình ảnh thụ động để cung cấp cho AI trả lời câu hỏi về môi trường xung quanh người đeo.

• Ví dụ, khi hỏi kính giúp chọn trang phục, hàng chục hình ảnh bên trong nhà người đeo sẽ được chụp và tải lên đám mây.

• Trước đây, kính Ray-Ban Meta chủ yếu được sử dụng để chụp ảnh và quay video một cách chủ động, người dùng biết rõ khi nào họ đang chụp.

• Với AI, người dùng không giữ lại những hình ảnh này vì chúng được thu thập chỉ để tương tác với trợ lý AI.

Meta không xác nhận rõ ràng điều gì xảy ra với hình ảnh từ kính được tải lên máy chủ đám mây để sử dụng AI.

• Người dùng kính Ray-Ban Meta nên nhận thức rằng sử dụng các tính năng AI mới có thể dẫn đến việc Meta thu thập hàng trăm ảnh riêng tư mà họ không có ý định hoặc không biết là đang chia sẻ.

• Nếu Meta thực sự không sử dụng kính Ray-Ban Meta theo cách này, công ty nên tuyên bố rõ ràng để khách hàng biết chính xác những gì đang được chia sẻ với Meta và được sử dụng cho mục đích gì.

📌 Meta từ chối xác nhận việc sử dụng hình ảnh từ kính Ray-Ban Meta để huấn luyện AI, gây lo ngại về quyền riêng tư. Tính năng AI mới có thể thu thập hàng trăm ảnh cá nhân mà người dùng không biết. Meta cần minh bạch hơn về cách xử lý dữ liệu này.

https://www.macrumors.com/2024/10/01/meta-ray-bans-ai-training/

OpenAI đang mở rộng việc thu thập dữ liệu, gây lo ngại về quyền riêng tư

• OpenAI gần đây phản đối dự luật của California nhằm thiết lập các tiêu chuẩn an toàn cơ bản cho các nhà phát triển mô hình AI lớn, trái ngược với lập trường ủng hộ quy định AI trước đây của CEO Sam Altman.

Công ty đã có nhiều động thái cho thấy nhu cầu ngày càng tăng về việc thu thập dữ liệu, bao gồm cả dữ liệu liên quan đến hành vi trực tuyến, tương tác cá nhân và sức khỏe.

• OpenAI đã ký kết nhiều thỏa thuận hợp tác với các công ty truyền thông lớn như Time, Financial Times, Axel Springer, Le Monde, Prisa Media và Condé Nast. Điều này có thể cho phép OpenAI tiếp cận lượng lớn nội dung và phân tích hành vi người dùng.

Công ty đã đầu tư vào startup webcam Opal, có thể dẫn đến việc thu thập dữ liệu sinh trắc học nhạy cảm như biểu cảm khuôn mặt.

• OpenAI và Thrive Global đã ra mắt Thrive AI Health, một dự án sử dụng AI để cá nhân hóa và mở rộng quy mô thay đổi hành vi trong lĩnh vực sức khỏe.

• Sam Altman, CEO của OpenAI, cũng liên quan đến WorldCoin - một dự án tiền điện tử gây tranh cãi sử dụng quét mống mắt để nhận dạng sinh trắc học. WorldCoin tuyên bố đã quét mống mắt của hơn 6,5 triệu người trên gần 40 quốc gia.

• Các mô hình AI hiện tại như GPT-4 chủ yếu được đào tạo trên dữ liệu công khai từ internet. Tuy nhiên, các mô hình trong tương lai sẽ cần nhiều dữ liệu hơn và việc thu thập dữ liệu đang trở nên khó khăn hơn.

• Việc tập trung kiểm soát nhiều loại dữ liệu có thể cho phép OpenAI có ảnh hưởng đáng kể đến người dùng trong cả lĩnh vực cá nhân và công cộng.

• Lịch sử gần đây của OpenAI không giúp giảm bớt lo ngại về an toàn và quyền riêng tư. Việc Sam Altman bị loại bỏ tạm thời khỏi vị trí CEO vào tháng 11/2023, được cho là do xung đột nội bộ về định hướng chiến lược của công ty.

• Altman được biết đến là người ủng hộ mạnh mẽ việc thương mại hóa và triển khai nhanh chóng các công nghệ AI, thường ưu tiên tăng trưởng và thâm nhập thị trường hơn là các biện pháp an toàn.

• Việc OpenAI gần đây phản đối dự luật California cho thấy một xu hướng đáng lo ngại về thái độ chống lại quy định của công ty.

📌 OpenAI đang mở rộng thu thập dữ liệu qua các thỏa thuận truyền thông và đầu tư vào công nghệ sinh trắc học, gây lo ngại về quyền riêng tư. Công ty phản đối quy định AI ở California, ưu tiên tăng trưởng hơn an toàn. Việc tập trung kiểm soát dữ liệu có thể cho phép OpenAI có ảnh hưởng lớn đến người dùng.

https://theconversation.com/openais-data-hunger-raises-privacy-concerns-237448

Linkedin lén lút lấy dữ liệu người dùng để huấn luyện AI - cách ngăn chặn ngay

• LinkedIn vừa tiết lộ đang sử dụng dữ liệu người dùng để huấn luyện các mô hình AI của mình mà không có sự đồng ý rõ ràng từ người dùng.

• Dữ liệu được sử dụng bao gồm thông tin trang cá nhân, bài đăng và các nội dung khác trên LinkedIn.

LinkedIn khẳng định không gửi dữ liệu người dùng cho OpenAI, nhưng có sử dụng các mô hình của OpenAI thông qua dịch vụ Azure AI của Microsoft.

• Hiện tại, các chính sách của LinkedIn như Điều khoản Trang, Thỏa thuận Người dùng, Chính sách Quyền riêng tư và Chính sách Bản quyền không đề cập đến AI.

LinkedIn đang cập nhật Thỏa thuận Người dùng và Chính sách Quyền riêng tư để công khai việc sử dụng dữ liệu cho AI.

Người dùng EU được tự động loại trừ khỏi việc thu thập dữ liệu cho AI "cho đến khi có thông báo mới".

• Một số người dùng cho rằng Microsoft nên trả tiền cho việc khai thác dữ liệu của họ trên LinkedIn.

Người dùng có thể tắt cài đặt này bằng cách vào Cài đặt > Quyền riêng tư dữ liệu > Dữ liệu để cải thiện AI tạo sinh.

• LinkedIn thuộc sở hữu của Microsoft, công ty có mối quan hệ tài chính chặt chẽ với OpenAI.

Chính sách hiện tại của LinkedIn cấm người dùng sử dụng phần mềm, thiết bị, script hoặc robot để thu thập dữ liệu từ nền tảng.

• LinkedIn cũng cấm người dùng bán hoặc kiếm lợi từ bất kỳ dữ liệu nào được đăng tải trên nền tảng.

• Việc sử dụng dữ liệu cho AI đã gây ra tranh cãi, với một số người dùng kêu gọi tắt tính năng này ngay lập tức.

• Ido Banai, CEO của VectorField, cho rằng người dùng nên được trả tiền mỗi khi dữ liệu của họ được sử dụng để huấn luyện máy học.

📌 LinkedIn đang âm thầm sử dụng dữ liệu người dùng để huấn luyện AI mà không có sự đồng ý rõ ràng. Người dùng EU được bảo vệ tốt hơn, trong khi những người khác cần chủ động tắt cài đặt này. Vấn đề này làm dấy lên tranh cãi về quyền riêng tư và bồi thường cho việc sử dụng dữ liệu cá nhân trong thời đại AI.

https://www.pcmag.com/news/linkedin-is-quietly-training-ai-on-your-data-heres-how-to-stop-it

DuckDuckGo ra mắt dịch vụ AI Chat miễn phí và ẩn danh

- DuckDuckGo đã ra mắt dịch vụ AI Chat miễn phí và ẩn danh vào tháng 6 năm 2024.
- Dịch vụ này cho phép người dùng tương tác với 4 mô hình ngôn ngữ lớn khác nhau mà không cần tạo tài khoản hay cung cấp thông tin cá nhân.
- Các mô hình AI Chat bao gồm: GPT-4o mini từ OpenAI, Claude 3 Haiku từ Anthropic, Llama 3.1 70B từ Meta và Mixtral 8x7B từ Mistral AI.
- DuckDuckGo cam kết không sử dụng thông tin người dùng để huấn luyện các mô hình AI, đảm bảo quyền riêng tư cho người dùng.
- Để bắt đầu sử dụng AI Chat, người dùng chỉ cần truy cập trang web duck.ai hoặc duckduckgo.com/chat và chọn mô hình chat mong muốn.
- Người dùng có thể chuyển đổi giữa các mô hình khác nhau để so sánh phản hồi và tìm ra lựa chọn phù hợp nhất cho nhu cầu của mình.
- DuckDuckGo cũng cung cấp tính năng chuyển đổi từ tìm kiếm sang AI Chat thông qua các lệnh bang như !ai hoặc !chat.
- Người dùng có thể sao chép phản hồi từ AI Chat vào clipboard của thiết bị để lưu trữ hoặc chia sẻ.
- Một số hạn chế của AI Chat là không có khả năng truy cập nội dung internet hiện tại; người dùng nên sử dụng tìm kiếm tiêu chuẩn cho thông tin mới nhất.
- DuckDuckGo khuyến nghị một số lựa chọn thay thế như OpenAI’s ChatGPT, Microsoft’s Copilot và Google’s Gemini cho những ai cần thông tin cập nhật hơn.

📌 DuckDuckGo đã giới thiệu dịch vụ AI Chat miễn phí với tính năng ẩn danh, cho phép người dùng tương tác với bốn mô hình ngôn ngữ lớn mà không cần lo lắng về quyền riêng tư. Dịch vụ này mở ra nhiều lựa chọn cho việc tìm kiếm thông tin an toàn và hiệu quả.

https://www.techrepublic.com/article/duckduckgo-joins-ai-chat/

LLM-CI: Khung đánh giá mới về quy chuẩn riêng tư trong LLM

• Các mô hình ngôn ngữ lớn (LLM) đang được triển khai rộng rãi trong các hệ thống kỹ thuật-xã hội như y tế và giáo dục, nhưng thường mã hóa các chuẩn mực xã hội từ dữ liệu huấn luyện, gây lo ngại về sự phù hợp với kỳ vọng về quyền riêng tư và hành vi đạo đức.

• Thách thức chính là đảm bảo các mô hình này tuân thủ chuẩn mực xã hội trong các bối cảnh, kiến trúc mô hình và bộ dữ liệu khác nhau. Độ nhạy cảm với lời nhắc - khi thay đổi nhỏ trong lời nhắc dẫn đến phản hồi khác nhau - làm phức tạp việc đánh giá.

• Các phương pháp truyền thống tập trung vào khả năng kỹ thuật như độ trôi chảy và độ chính xác, bỏ qua việc mã hóa chuẩn mực xã hội. Một số cách tiếp cận cố gắng đánh giá chuẩn mực riêng tư bằng lời nhắc hoặc bộ dữ liệu cụ thể, nhưng thường không tính đến độ nhạy cảm với lời nhắc.

• Một nhóm nghiên cứu từ Đại học York và Đại học Waterloo giới thiệu LLM-CI, một khung mới dựa trên lý thuyết Tính toàn vẹn theo ngữ cảnh (CI) để đánh giá cách LLM mã hóa chuẩn mực riêng tư trong các bối cảnh khác nhau.

• LLM-CI sử dụng chiến lược đánh giá đa lời nhắc để giảm thiểu độ nhạy cảm với lời nhắc, chọn các lời nhắc tạo ra đầu ra nhất quán trên các biến thể khác nhau. Phương pháp này cũng kết hợp các tình huống thực tế đại diện cho các tình huống nhạy cảm về quyền riêng tư.

• Khung này được thử nghiệm trên các bộ dữ liệu như tình huống IoT và COPPA, mô phỏng các kịch bản riêng tư trong thế giới thực. Đánh giá cũng xem xét ảnh hưởng của siêu tham số và kỹ thuật tối ưu hóa đối với việc tuân thủ chuẩn mực.

LLM-CI cho thấy cải thiện đáng kể trong việc đánh giá cách LLM mã hóa chuẩn mực riêng tư. Các mô hình được tối ưu hóa bằng kỹ thuật điều chỉnh đạt độ chính xác theo ngữ cảnh lên đến 92% trong việc tuân thủ chuẩn mực riêng tư.

Phương pháp đánh giá mới dẫn đến tăng 15% tính nhất quán trong phản hồi, xác nhận rằng việc điều chỉnh các thuộc tính mô hình như dung lượng và áp dụng chiến lược điều chỉnh cải thiện đáng kể khả năng của LLM trong việc phù hợp với kỳ vọng của xã hội.

• LLM-CI cung cấp cách tiếp cận toàn diện và mạnh mẽ để đánh giá cách LLM mã hóa chuẩn mực riêng tư bằng cách tận dụng phương pháp đánh giá đa lời nhắc. Nó đại diện cho bước tiến quan trọng hướng tới việc triển khai có đạo đức LLM trong các ứng dụng thực tế.

📌 LLM-CI cải thiện đáng kể việc đánh giá chuẩn mực riêng tư trong AI bằng phương pháp đa lời nhắc. Độ chính xác theo ngữ cảnh đạt 92%, tăng 15% tính nhất quán phản hồi. Đây là bước tiến quan trọng hướng tới triển khai AI có đạo đức trong thực tế.

https://www.marktechpost.com/2024/09/13/llm-ci-a-new-machine-learning-framework-to-assess-privacy-norms-encoded-in-llms/

Meta khởi động lại việc sử dụng bài đăng công khai trên Facebook và Instagram của người dùng Anh để huấn luyện AI

• Meta xác nhận sẽ khởi động lại kế hoạch sử dụng bài đăng công khai trên Facebook và Instagram của người dùng Anh để huấn luyện hệ thống AI của mình.

• Công ty tuyên bố đã "kết hợp phản hồi từ cơ quan quản lý" vào cách tiếp cận "từ chối tham gia" đã được sửa đổi để "minh bạch hơn nữa".

• Meta cho rằng việc này sẽ giúp các mô hình AI tạo sinh của họ "phản ánh văn hóa, lịch sử và thành ngữ của Anh".

• Từ tuần tới, người dùng Anh sẽ bắt đầu thấy thông báo trong ứng dụng giải thích về kế hoạch này. Meta dự định bắt đầu sử dụng nội dung công khai để huấn luyện AI trong những tháng tới.

• Động thái này diễn ra 3 tháng sau khi Meta tạm dừng kế hoạch do áp lực từ cơ quan quản lý ở Anh, với Văn phòng Ủy viên Thông tin (ICO) nêu lo ngại về cách Meta có thể sử dụng dữ liệu người dùng Anh.

• Ủy ban Bảo vệ Dữ liệu Ireland, cơ quan quản lý quyền riêng tư chính của Meta tại EU, cũng phản đối kế hoạch của Meta. Chưa rõ khi nào Meta sẽ khởi động lại nỗ lực huấn luyện AI ở EU.

• Meta đã sử dụng nội dung do người dùng tạo ra ở các thị trường như Mỹ để tăng cường AI, nhưng các quy định về quyền riêng tư toàn diện của châu Âu đã tạo ra thách thức.

• Trước đó vào tháng 5, Meta bắt đầu thông báo cho người dùng ở châu Âu về thay đổi chính sách quyền riêng tư sắp tới, nói rằng họ sẽ bắt đầu sử dụng nội dung từ bình luận, tương tác với công ty, cập nhật trạng thái, ảnh và chú thích đi kèm để huấn luyện AI.

• Tổ chức phi lợi nhuận về quyền riêng tư noyb đã đệ đơn khiếu nại với các quốc gia thành viên EU, cho rằng Meta vi phạm nhiều khía cạnh của Quy định Bảo vệ Dữ liệu Chung (GDPR) của EU.

Meta vẫn giữ cách tiếp cận "từ chối tham gia" thay vì "chọn tham gia", khiến người dùng phải chủ động từ chối việc sử dụng thông tin của họ. Công ty nói rằng họ dựa vào cơ sở pháp lý "lợi ích hợp pháp" trong GDPR.

• Meta tuyên bố đã đơn giản hóa biểu mẫu từ chối lần này, kết hợp phản hồi từ ICO. Tuy nhiên, công ty chưa giải thích cụ thể cách thức đơn giản hóa.

• ICO cho biết sẽ "theo dõi tình hình" khi Meta tiến hành kế hoạch sử dụng dữ liệu của Anh để huấn luyện mô hình AI.

📌 Meta tiếp tục kế hoạch sử dụng dữ liệu người dùng Anh để huấn luyện AI, bất chấp lo ngại về quyền riêng tư. Công ty tuyên bố đã cải thiện tính minh bạch và quy trình từ chối, nhưng vẫn giữ cách tiếp cận "từ chối tham gia" gây tranh cãi. ICO sẽ giám sát chặt chẽ việc tuân thủ luật bảo vệ dữ liệu của Meta.

https://techcrunch.com/2024/09/13/meta-reignites-plans-to-train-ai-using-uk-users-public-facebook-and-instagram-posts/

Apple ra mắt Private Cloud Compute (PCC) bảo vệ quyền riêng tư cho người dùng trong AI tạo sinh

- Apple đã giới thiệu Private Cloud Compute (PCC) trong iOS 18 và macOS Sequoia, nhằm bảo vệ quyền riêng tư của người dùng.
- PCC cho phép xử lý dữ liệu trên đám mây mà không làm lộ thông tin cá nhân, tạo ra một "bong bóng quyền riêng tư" cho người dùng.
- Craig Federighi, phó giám đốc phần mềm của Apple, cho biết PCC là một bước đột phá trong việc bảo vệ dữ liệu trong môi trường đám mây.
- Hệ thống này sử dụng công nghệ mã hóa và quản lý khóa mạnh mẽ, đảm bảo rằng dữ liệu không bao giờ rời khỏi thiết bị của người dùng.
- PCC không có bộ nhớ lưu trữ lâu dài, giúp ngăn chặn việc lưu giữ dữ liệu sau khi xử lý.
- Các máy chủ PCC được thiết kế đặc biệt, sử dụng phần mềm và phần cứng bảo mật đã được Apple phát triển trong 20 năm qua.
- Hệ thống này không cho phép quyền truy cập đặc quyền và hạn chế quản lý từ xa, nhằm ngăn chặn các cuộc tấn công.
- Apple cam kết thực hiện nhiều xử lý AI trên thiết bị cá nhân, nhưng vẫn cần sử dụng đám mây cho một số tác vụ.
- PCC bao gồm cơ chế kiểm toán bên ngoài, cho phép công chúng kiểm tra tính chính xác và bảo mật của hệ thống.
- Apple đã ghi lại tất cả các máy chủ PCC vào một nhật ký chứng thực mã hóa, đảm bảo tính minh bạch và ngăn chặn các hành vi xấu.
- Hệ thống này đã được thử nghiệm và chưa phát hiện lỗi nào từ khi ra mắt bản beta.
- Apple cũng đang mở rộng khả năng của Apple Intelligence sang nhiều quốc gia và ngôn ngữ khác nhau, bao gồm cả hỗ trợ cho tiếng Trung, tiếng Pháp, tiếng Nhật và tiếng Tây Ban Nha trong năm tới.

📌 Apple đã phát triển Private Cloud Compute (PCC) để bảo vệ quyền riêng tư người dùng trong AI tạo sinh, với khả năng xử lý dữ liệu an toàn mà không phơi nhiễm thông tin cá nhân. Hệ thống này đã nhận được phản hồi tích cực và đang được mở rộng ra nhiều thị trường.

 

https://www.wired.com/story/apple-private-cloud-compute-ai/

Ủy ban Bảo vệ Dữ liệu Ireland điều tra mô hình AI của Google vì nghi vấn vi phạm luật riêng tư EU

- Ủy ban Bảo vệ Dữ liệu Ireland (DPC) đã mở cuộc điều tra xem Google có tuân thủ luật riêng tư của EU khi phát triển mô hình AI PaLM 2 hay không. Cuộc điều tra tập trung vào việc Google có thực hiện Đánh giá Tác động Bảo vệ Dữ liệu trước khi xử lý dữ liệu cá nhân của công dân EU liên quan đến việc phát triển mô hình này hay không.

- DPC cho biết Đánh giá Tác động Bảo vệ Dữ liệu là vô cùng quan trọng để đảm bảo quyền và tự do cơ bản của cá nhân được xem xét và bảo vệ thích đáng khi xử lý dữ liệu cá nhân có khả năng gây ra rủi ro cao.

- Cuộc điều tra này là một phần trong nỗ lực rộng lớn hơn của DPC, phối hợp với các cơ quan quản lý ngang hàng của EU/EEA, nhằm quản lý việc xử lý dữ liệu cá nhân của công dân EU/EEA trong quá trình phát triển các mô hình và hệ thống AI.

- Trước đó, Meta đã tạm dừng kế hoạch sử dụng dữ liệu cá nhân để huấn luyện mô hình AI sau khi DPC nêu lo ngại. Meta cũng thông báo sẽ không triển khai các mô hình AI đa phương thức trong tương lai tại EU do "tính không thể đoán trước" của môi trường quản lý châu Âu.

📌 Ủy ban Bảo vệ Dữ liệu Ireland điều tra Google về việc tuân thủ luật riêng tư EU khi phát triển mô hình AI PaLM 2, đồng thời cảnh báo Đánh giá Tác động Bảo vệ Dữ liệu là vô cùng quan trọng. Cuộc điều tra là một phần nỗ lực quản lý xử lý dữ liệu cá nhân trong AI của DPC và các cơ quan quản lý EU. Động thái này diễn ra sau khi Meta tạm dừng kế hoạch huấn luyện AI và không triển khai mô hình đa phương thức tại EU do lo ngại về quy định.

https://www.rte.ie/news/business/2024/0912/1469621-data-watchdog-google-ai/

X có thể bị phạt vì sử dụng dữ liệu người dùng châu Âu để huấn luyện chatbot AI Grok mà không có sự đồng ý

• Ủy ban Bảo vệ Dữ liệu Ireland (DPC) đã kết thúc thủ tục tòa án liên quan đến việc X xử lý dữ liệu người dùng để đào tạo chatbot AI Grok.

• DPC sẽ xem xét các khiếu nại được đệ trình theo Quy định Bảo vệ Dữ liệu Chung (GDPR) của EU và có thể áp dụng các biện pháp trừng phạt nếu phát hiện vi phạm.

• X đã đồng ý ngừng xử lý dữ liệu cho việc đào tạo Grok vào đầu tháng 8/2024 và cam kết xóa dữ liệu người dùng châu Âu thu thập từ 7/5/2024 đến 1/8/2024.

• Tuy nhiên, X không bị yêu cầu xóa các mô hình AI đã được đào tạo bằng dữ liệu này.

• Các hình phạt theo GDPR có thể lên tới 4% doanh thu hàng năm toàn cầu. Với doanh thu của X đang sụt giảm mạnh, mức phạt này có thể gây tổn thất lớn.

• Các nhà quản lý cũng có quyền yêu cầu thay đổi hoạt động để chấm dứt vi phạm, nhưng quá trình điều tra và thực thi có thể kéo dài nhiều năm.

• Vẫn chưa rõ liệu GDPR có thể yêu cầu xóa mô hình AI được đào tạo bằng dữ liệu xử lý bất hợp pháp hay không.

• Các công cụ AI tạo sinh như Grok có nguy cơ tạo ra thông tin sai lệch, đe dọa quyền và tự do cơ bản của người dùng.

• Giám đốc đối ngoại toàn cầu của X, Nick Pickles, đã rời công ty sau 10 năm làm việc.

• X đang đối mặt với nhiều thách thức khác như bị cấm ở Brazil, chỉ trích ở Anh về vai trò trong việc lan truyền thông tin sai lệch, và điều tra theo khung quản lý nội dung của EU.

📌 X đối mặt nguy cơ bị phạt nặng vì sử dụng trái phép dữ liệu người dùng châu Âu cho AI Grok. Mặc đã ngừng thu thập, X vẫn có thể dùng mô hình AI đã đào tạo. Vụ việc đặt ra thách thức cho việc quản lý AI tạo sinh theo GDPR.

https://techcrunch.com/2024/09/06/elon-musks-x-could-still-face-sanctions-for-training-grok-on-europeans-data/

Clearview AI bị phạt kỷ lục 30,5 triệu euro tại Hà Lan, lãnh đạo có thể bị truy cứu trách nhiệm cá nhân

• Cơ quan bảo vệ dữ liệu Hà Lan (AP) đã phạt Clearview AI 30,5 triệu euro (khoảng 33,7 triệu USD) vì vi phạm nhiều quy định của GDPR.

• Đây là mức phạt lớn nhất mà Clearview AI phải đối mặt tại châu Âu, vượt qua các khoản phạt trước đó tại Pháp, Ý, Hy Lạp và Anh vào năm 2022.

• AP cảnh báo sẽ áp dụng thêm khoản phạt lên đến 5,1 triệu euro nếu Clearview tiếp tục không tuân thủ, nâng tổng mức phạt có thể lên tới 35,6 triệu euro.

• Cuộc điều tra bắt đầu vào tháng 3/2023 sau khi nhận được khiếu nại từ 3 cá nhân về việc Clearview không đáp ứng yêu cầu truy cập dữ liệu.

Các vi phạm chính của Clearview bao gồm: xây dựng cơ sở dữ liệu sinh trắc học mà không có cơ sở pháp lý hợp lệ, không minh bạch và không thông báo cho các cá nhân có dữ liệu bị thu thập.

• Clearview AI đã xây dựng cơ sở dữ liệu 30 tỷ hình ảnh bằng cách thu thập ảnh selfie của người dùng trên internet mà không được sự đồng ý.

• Công ty không thể kháng cáo quyết định này vì đã không phản đối trong quá trình điều tra.

AP cảnh báo sẽ xử phạt nặng bất kỳ tổ chức Hà Lan nào sử dụng dịch vụ của Clearview AI.

• Clearview AI vẫn tiếp tục vi phạm GDPR và chưa thay đổi hành vi bất chấp các khoản phạt trước đó tại châu Âu.

AP đang xem xét khả năng truy cứu trách nhiệm cá nhân đối với lãnh đạo Clearview để buộc công ty tuân thủ luật pháp.

• Việc xử phạt cá nhân lãnh đạo có thể hiệu quả hơn trong việc thúc đẩy tuân thủ, vì họ có thể muốn đi lại tự do trong EU.

📌 Clearview AI bị phạt kỷ lục 30,5 triệu euro tại Hà Lan vì vi phạm GDPR nghiêm trọng. Cơ quan bảo vệ dữ liệu Hà Lan đang xem xét truy cứu trách nhiệm cá nhân lãnh đạo công ty để buộc tuân thủ, với tổng mức phạt có thể lên tới 35,6 triệu euro nếu tiếp tục vi phạm.

https://techcrunch.com/2024/09/03/clearview-ai-hit-with-its-largest-gdpr-fine-yet-as-dutch-regulator-considers-holding-execs-personally-liable/

Tổng hợp các vụ kiện các công ty AI lớn như OpenAI, Anthropic và Meta

• Hiện có hơn 25 vụ kiện bản quyền đang chờ xét xử chống lại các công ty AI.

• Vụ Thomson Reuters kiện ROSS Intelligence bị hoãn ngay trước ngày xét xử. Đây có thể là vụ kiện tiên phong tạo tiền lệ cho các vụ khác.

• Vụ kiện tập thể Sarah Andersen chống lại Stability AI cáo buộc công ty này sử dụng tác phẩm của nghệ sĩ mà không được phép để huấn luyện AI tạo hình ảnh.

• Getty Images kiện Stability AI vì sử dụng hơn 12 triệu ảnh trong thư viện của họ mà không có giấy phép để huấn luyện hệ thống AI Stable Diffusion.

• Vụ kiện Zhang chống Google cáo buộc công ty sử dụng tác phẩm có bản quyền để huấn luyện công cụ AI tạo hình ảnh từ văn bản.

• Meta bị kiện trong vụ Richard Kadrey vì cáo buộc vi phạm bản quyền khi sử dụng sách để huấn luyện mô hình LLaMa.

• OpenAI đối mặt với vụ kiện tương tự từ Sarah Silverman và các tác giả khác liên quan đến ChatGPT.

• Anthropic bị kiện bởi các nhà văn và nhà báo vì cáo buộc sử dụng tác phẩm của họ để huấn luyện chatbot Claude.

• Nvidia bị kiện vì cáo buộc sử dụng 196.640 cuốn sách để huấn luyện nền tảng AI NeMo.

• Các công ty âm nhạc lớn kiện Anthropic vì sử dụng lời bài hát trái phép để huấn luyện Claude.

• Tổ chức Authors Guild cùng các tác giả nổi tiếng như John Grisham, George R.R. Martin kiện OpenAI và Microsoft.

• New York Times kiện Microsoft và OpenAI vì sử dụng hàng triệu bài báo có bản quyền để huấn luyện mô hình GPT.

• Các vụ kiện về quyền riêng tư cáo buộc OpenAI và Google thu thập dữ liệu người dùng trái phép.

• Elon Musk kiện Sam Altman và OpenAI vì không giữ đúng lời hứa phát triển công nghệ nguồn mở.

📌 Hơn 25 vụ kiện bản quyền và quyền riêng tư đang chờ xét xử chống lại các công ty AI lớn như OpenAI, Meta và Google. Các vụ kiện tập trung vào việc sử dụng nội dung có bản quyền để huấn luyện AI và thu thập dữ liệu người dùng trái phép, với sự tham gia của nhiều tổ chức lớn như Getty Images, New York Times và Authors Guild.

 

https://www.fastcompany.com/91179905/openai-anthropic-and-meta-tracking-the-lawsuits-filed-against-the-major-ai-companies

Các bản ghi công khai không nên được sử dụng cho hệ thống AI

- Các bản ghi công khai như hồ sơ tòa án, khai báo tài chính chứa nhiều thông tin cá nhân nhạy cảm và có thể không chính xác, ví dụ như tội nói dối trong các vụ ly hôn.
- Việc sử dụng dữ liệu này để phân tích tâm lý học hoặc đánh giá rủi ro tài chính có thể ảnh hưởng bất công đến cơ hội việc làm, nhà ở của những người liên quan.
- Dữ liệu cá nhân có thể bị lạm dụng bởi những kẻ lừa đảo hoặc chính phủ đàn áp.
- Các mô hình AI thường là hộp đen, khó giải thích quyết định và cá nhân ít có quyền kiểm soát dữ liệu của mình một khi đã vào mô hình.
- Cần có các quy định pháp lý hạn chế thu thập, sử dụng và lưu trữ dữ liệu cá nhân, đặc biệt là trong bối cảnh máy tính lượng tử, AI tạo sinh và tin tặc ngày càng tinh vi.

📌 Các bản ghi công khai chứa nhiều thông tin cá nhân nhạy cảm và thiên lệch, không nên được sử dụng để huấn luyện hệ thống AI vì nhiều rủi ro về quyền riêng tư, an ninh và công bằng. Cần có các quy định pháp lý nghiêm ngặt hạn chế việc này.

https://thehill.com/opinion/technology/4820294-ai-data-public-records-privacy/

X đồng ý không sử dụng dữ liệu người dùng EU để huấn luyện chatbot AI mà không có sự đồng ý

• X (trước đây là Twitter) đã đồng ý không sử dụng dữ liệu cá nhân thu thập từ người dùng EU để huấn luyện hệ thống AI của mình, trước khi người dùng có quyền từ chối.

• Ủy ban Bảo vệ Dữ liệu Ireland (DPC) đã yêu cầu tòa án đình chỉ hoặc hạn chế X xử lý dữ liệu người dùng cho mục đích phát triển, huấn luyện hoặc tinh chỉnh hệ thống AI.

• X cho biết họ cho phép tất cả người dùng quyết định liệu bài đăng công khai của họ có thể được sử dụng bởi chatbot AI Grok hay không, bằng cách bỏ chọn một ô trong cài đặt quyền riêng tư.

• Tuy nhiên, Thẩm phán Leonie Reynolds chỉ ra rằng X đã bắt đầu xử lý dữ liệu người dùng EU để huấn luyện AI từ ngày 7/5, nhưng chỉ cung cấp tùy chọn từ chối từ ngày 16/7. Tính năng này cũng không được triển khai ngay cho tất cả người dùng.

Luật sư của X cho biết dữ liệu thu thập từ người dùng EU trong khoảng thời gian từ 7/5 đến 1/8 sẽ không được sử dụng cho đến khi tòa án quyết định về lệnh đình chỉ của DPC.

• X phản đối lệnh đình chỉ, cho rằng nó "không có căn cứ, quá rộng và nhắm vào X mà không có lý do chính đáng".

• Quyết định của X diễn ra sau khi Meta trì hoãn ra mắt các mô hình AI ở châu Âu, và Google cũng đồng ý trì hoãn và thay đổi chatbot AI Gemini sau khi tham vấn với cơ quan quản lý Ireland.

• Các luật sư của X sẽ nộp hồ sơ phản đối lệnh đình chỉ trước ngày 4/9.

 

📌 X đồng ý tạm dừng sử dụng dữ liệu người dùng EU để huấn luyện AI, sau yêu cầu của cơ quan quản lý Ireland. Quyết định này phản ánh xu hướng thắt chặt quy định về AI ở châu Âu, ảnh hưởng đến cả Meta và Google. X phải nộp phản đối trước 4/9.

https://www.reuters.com/technology/artificial-intelligence/x-agrees-not-use-some-eu-user-data-train-ai-chatbot-2024-08-08/

AI quét khuôn mặt: có thể phát hiện trí thông minh, xu hướng tình dục và quan điểm chính trị

• Michal Kosinski, nhà tâm lý học tại Đại học Stanford, tuyên bố AI của ông có thể phát hiện trí thông minh, xu hướng tình dục và quan điểm chính trị của một người chỉ bằng cách quét khuôn mặt với độ chính xác cao.

• Trong một nghiên cứu năm 2021, Kosinski đã phát triển một mô hình nhận diện khuôn mặt có thể dự đoán chính xác niềm tin chính trị của một người với độ chính xác 72% chỉ bằng cách quét ảnh khuôn mặt, so với tỷ lệ chính xác 55% của con người.

• Kosinski cho rằng công trình của ông nên được xem như một cảnh báo cho các nhà hoạch định chính sách về những nguy cơ tiềm ẩn của nghiên cứu này và các công trình tương tự của những người khác.

• Tuy nhiên, nhiều ứng dụng của nghiên cứu này có vẻ khá tiêu cực, và việc công bố chúng có thể truyền cảm hứng cho việc tạo ra các công cụ phân biệt đối xử mới.

• Các mô hình không đạt độ chính xác 100%, có thể dẫn đến việc nhắm mục tiêu sai người.

• Năm 2017, Kosinski đồng công bố một bài báo về mô hình nhận diện khuôn mặt có thể dự đoán xu hướng tính dục với độ chính xác 91%. Tuy nhiên, Chiến dịch Nhân quyền và GLAAD gọi nghiên cứu này là "nguy hiểm và có sai sót" vì nó có thể được sử dụng để phân biệt đối xử với người đồng tính.

• Đã có nhiều ví dụ trong thực tế về việc nhận diện khuôn mặt xâm phạm cuộc sống và quyền của mọi người, như Rite Aid nhắm mục tiêu không công bằng vào các nhóm thiểu số là kẻ trộm cắp và Macy's đổ lỗi sai cho một người đàn ông về một vụ cướp bạo lực mà anh ta không phạm tội.

• Việc công bố nghiên cứu của Kosinski có thể được coi là một cảnh báo, nhưng nó cũng giống như việc đưa ra hướng dẫn chi tiết cho những tên trộm muốn đột nhập vào nhà bạn.

• Công nghệ này kết hợp với các cuộc chiến văn hóa đang diễn ra - như việc xác định sai giới tính của các vận động viên Olympic mùa hè này - có thể là công thức dẫn đến thảm họa.

📌 AI nhận diện khuôn mặt của Kosinski có thể dự đoán chính xác 72% niềm tin chính trị và 91% xu hướng tính dục, gây lo ngại về quyền riêng tư. Mặc dù được coi là cảnh báo, nghiên cứu này có thể bị lạm dụng để phân biệt đối xử và xâm phạm quyền công dân.

https://futurism.com/the-byte/ai-face-data

Argentina triển khai công nghệ AI để dự đoán và ngăn chặn tội phạm trước khi xảy ra

• Chính phủ Argentina do Tổng thống Javier Milei lãnh đạo vừa công bố kế hoạch sử dụng trí tuệ nhân tạo (AI) để dự đoán và ngăn chặn tội phạm trước khi xảy ra.

• Bộ An ninh Argentina cho biết đơn vị AI mới sẽ tập trung vào "phòng ngừa, phát hiện, điều tra và truy tố tội phạm", đồng thời tiến hành giám sát bằng drone, tuần tra mạng xã hội và sử dụng công nghệ nhận diện khuôn mặt để tăng cường các biện pháp an ninh.

• Động thái này diễn ra sau khi tòa án Buenos Aires phán quyết vào năm 2023 rằng việc chính quyền sử dụng công nghệ nhận diện khuôn mặt là vi hiến tại thành phố này. Thẩm phán cho rằng hệ thống được triển khai mà không tuân thủ các yêu cầu pháp lý về bảo vệ quyền cá nhân của người dân Buenos Aires.

• Các nhóm nhân quyền lo ngại việc triển khai công nghệ này có thể xâm phạm quyền tự do biểu đạt, khi người dân lo lắng về việc chính phủ giám sát các bài đăng trên mạng xã hội của họ, dẫn đến hiệu ứng răn đe đối với những gì họ chọn công bố.

• Một số người cũng lo ngại về tác động của AI đối với giới học thuật, bao gồm những gì các học giả và sinh viên sẽ chia sẻ và liệu nó có bị giám sát bởi công nghệ mới nổi này hay không.

• Trung tâm Argentina về Nghiên cứu Tự do Biểu đạt và Tiếp cận Thông tin cho biết AI và các công nghệ tương tự đã được sử dụng để lập hồ sơ các học giả, nhà báo, chính trị gia và nhà hoạt động. Họ muốn biết các công nghệ này được phát triển như thế nào, xuất xứ từ đâu và sẽ được sử dụng ra sao. Nhóm này cho rằng bất kỳ sự thiếu minh bạch nào cũng sẽ "đáng lo ngại".

• Chuyến thăm Thung lũng Silicon của Tổng thống Javier Milei hồi đầu năm nay đang được nhìn nhận khác đi dưới ánh sáng của động thái tăng cường phát hiện tội phạm bằng AI. Vào tháng 5, ông đã gặp gỡ một số lãnh đạo công nghệ và khuyến khích họ cân nhắc đầu tư vào đất nước của ông.

📌 Argentina triển khai AI để dự đoán tội phạm, gây tranh cãi về quyền riêng tư. Chính phủ khẳng định mục tiêu an ninh, trong khi các nhóm nhân quyền cảnh báo nguy cơ giám sát quá mức. Việc sử dụng AI trong an ninh đặt ra thách thức cân bằng giữa an toàn công cộng và quyền cá nhân.

https://www.upi.com/Top_News/World-News/2024/08/02/ar-using-ai-to-stop-crime-early/3981722571581/

GPT-4o của OpenAI có khả năng mạnh mẽ nhưng cũng gây lo ngại về quyền riêng tư

• OpenAI ra mắt mô hình GPT-4o mới vào ngày 13/5, với khả năng giải phương trình, kể chuyện và nhận diện cảm xúc từ biểu hiện khuôn mặt.

• Chuyên gia lo ngại GPT-4o có thể thu thập nhiều thông tin hơn, gây rủi ro về quyền riêng tư. OpenAI từng gặp vấn đề với cơ quan quản lý ở Ý vì thu thập dữ liệu cá nhân trái phép.

• Chính sách quyền riêng tư của OpenAI cho phép thu thập nhiều loại dữ liệu, bao gồm thông tin cá nhân, dữ liệu sử dụng và nội dung người dùng nhập vào.

• ChatGPT sử dụng dữ liệu chia sẻ để huấn luyện mô hình, trừ khi người dùng tắt tính năng này trong cài đặt hoặc sử dụng phiên bản doanh nghiệp.

OpenAI tuyên bố "ẩn danh hóa" dữ liệu cá nhân, nhưng cách tiếp cận dường như là "thu thập tất cả trước, sắp xếp sau".

Chính sách cho phép OpenAI chia sẻ thông tin cá nhân với các đối tác, nhà cung cấp dịch vụ và cơ quan thực thi pháp luật.

• OpenAI đã giới thiệu các công cụ kiểm soát quyền riêng tư, cho phép người dùng quản lý dữ liệu của họ.

• Người dùng có thể tắt việc đóng góp dữ liệu để cải thiện mô hình trong phần cài đặt.

Sử dụng "Temporary Chat" giúp ngăn OpenAI thu thập dữ liệu, nhưng sẽ làm giảm chức năng và độ chính xác của ChatGPT.

• Các biện pháp bảo vệ quyền riêng tư khác bao gồm: xóa lịch sử trò chuyện, thêm hướng dẫn cá nhân hóa, kiểm soát liên kết chia sẻ, yêu cầu xuất dữ liệu và xóa tài khoản.

Hạn chế chia sẻ dữ liệu có thể ảnh hưởng đến trải nghiệm sử dụng, giảm độ cá nhân hóa và độ chính xác của AI.

📌 GPT-4o của OpenAI mang lại khả năng mạnh mẽ nhưng cũng gây lo ngại về quyền riêng tư. Người dùng cần cân nhắc giữa bảo vệ dữ liệu và tối ưu trải nghiệm, có thể áp dụng các biện pháp như tắt thu thập dữ liệu, sử dụng Temporary Chat và hạn chế chia sẻ thông tin nhạy cảm.

https://www.wired.com/story/can-chatgpt-4o-be-trusted-with-your-private-data/

Ảnh trẻ em bị sử dụng trái phép để huấn luyện AI, gây lo ngại về quyền riêng tư

• Human Rights Watch (HRW) vừa hoàn thành cuộc kiểm toán toàn diện về dữ liệu huấn luyện AI và phát hiện hình ảnh trẻ em bị thu thập từ internet đã được sử dụng để huấn luyện các mô hình AI mà không có sự đồng ý của trẻ em hoặc gia đình.

• Theo HRW, tên của một số trẻ được liệt kê trong chú thích đi kèm hoặc URL lưu trữ hình ảnh. Trong nhiều trường hợp, danh tính của trẻ dễ dàng bị truy nguyên, bao gồm thông tin về thời gian và địa điểm chụp ảnh.

Nhiều hình ảnh bị thu thập không có sẵn công khai trên internet mà được ẩn sau cài đặt quyền riêng tư trên các trang mạng xã hội phổ biến.

• "Sharenting" - đăng thông tin, hình ảnh và câu chuyện về cuộc sống của con cái lên mạng - ngày càng bị chỉ trích vì nhiều lý do chính đáng. Một đứa trẻ 3 tuổi không thể đồng ý một cách có ý nghĩa để cha mẹ chia sẻ video thất bại trong việc tập đi vệ sinh cho cả thế giới xem.

• Báo cáo của HRW cho thấy cha mẹ không thể biết được hậu quả lâu dài của việc chia sẻ thông tin về con cái. 10 năm trước, không ai tưởng tượng được rằng album ảnh kỳ nghỉ gia đình họ chia sẻ có thể bị đưa vào học máy.

• Tòa án Tối cao Mỹ đã bác bỏ học thuyết Chevron vào tháng trước, tước bỏ quyền lực của các cơ quan liên bang như FTC và trao quyền cho tòa án. Điều này gây khó khăn cho việc ban hành luật bảo vệ quyền riêng tư ở cấp liên bang.

• Trong khi chờ đợi, AI sẽ tiếp tục thu thập dữ liệu của trẻ em - và cuối cùng, việc đó có hợp pháp hay không sẽ phụ thuộc vào bang bạn sống.

• Chia sẻ ảnh trận đấu bóng chày nhỏ của con bạn có thể là cách thú vị để giữ liên lạc với gia đình gần xa, nhưng cho đến khi có biện pháp bảo vệ đáng kể, đó là rủi ro mà tác giả không khuyên ai nên thực hiện.

📌 Việc sử dụng hình ảnh trẻ em để huấn luyện AI mà không có sự đồng ý gây lo ngại lớn về quyền riêng tư. Phụ huynh cần thận trọng khi chia sẻ ảnh con online. Cần có luật bảo vệ dữ liệu cá nhân cấp liên bang, nhưng quyết định của Tòa án Tối cao gây khó khăn cho việc này.

https://thehill.com/opinion/technology/4794388-ai-training-children-photos-privacy-chevron/

Cách ngăn X của Elon Musk sử dụng dữ liệu của bạn để huấn luyện Grok AI

• X (trước đây là Twitter) đang mặc định sử dụng dữ liệu người dùng để huấn luyện chatbot AI Grok mà không thông báo rõ ràng.

• Elon Musk gần đây thông báo Grok đã bắt đầu quá trình "huấn luyện siêu cụm", nhưng không tiết lộ việc sử dụng dữ liệu người dùng X.

• Thông tin này được tiết lộ bởi người dùng "EasyBakedOven" trên X, cho biết nền tảng đã kích hoạt cài đặt mặc định cho phép sử dụng dữ liệu của mọi người.

• X mô tả cài đặt này là để "cải thiện trải nghiệm liên tục", họ có thể sử dụng bài đăng, tương tác, đầu vào và kết quả của người dùng với Grok để huấn luyện và tinh chỉnh.

• Dữ liệu này cũng có thể được chia sẻ với xAI, công ty AI của Musk.

Người dùng có thể từ chối cho phép sử dụng dữ liệu của họ bằng cách vào Cài đặt > Quyền riêng tư và an toàn > Nội dung bạn thấy > Huấn luyện AI.

• Việc sử dụng dữ liệu người dùng để huấn luyện AI đang gây tranh cãi, với nhiều công ty bị chỉ trích vì làm điều này mà không có sự đồng ý rõ ràng.

Musk trước đây đã chỉ trích việc các công ty khác sử dụng dữ liệu công khai để huấn luyện AI, nhưng giờ X cũng đang làm điều tương tự.

• Grok được quảng cáo là một chatbot AI "chống woke", nhưng một số người dùng nhận thấy nó đưa ra câu trả lời ngược lại với kỳ vọng.

• Việc này làm dấy lên lo ngại về quyền riêng tư và sử dụng dữ liệu cá nhân trong phát triển AI.

📌 X của Elon Musk đang mặc định sử dụng dữ liệu người dùng để huấn luyện AI Grok mà không thông báo rõ ràng. Người dùng có thể từ chối trong cài đặt. Điều này gây tranh cãi về quyền riêng tư và sử dụng dữ liệu cá nhân trong phát triển AI.

https://www.zdnet.com/article/elon-musks-x-now-trains-its-grok-ai-on-your-data-by-default-heres-how-to-opt-out/

Hệ thống AI "Mr Smile" của AEON: Chuẩn hóa nụ cười hay quấy rối nhân viên?

• Chuỗi siêu thị AEON của Nhật Bản đã triển khai hệ thống AI đánh giá và chuẩn hóa nụ cười của nhân viên tại 240 cửa hàng trên toàn quốc từ ngày 1/7/2024.

• Hệ thống có tên "Mr Smile" do công ty công nghệ InstaVR phát triển, có khả năng đánh giá chính xác thái độ phục vụ của nhân viên bán hàng.

Mr Smile phân tích hơn 450 yếu tố bao gồm biểu cảm khuôn mặt, âm lượng giọng nói và cách chào hỏi. Hệ thống còn tích hợp các yếu tố "trò chơi" để khuyến khích nhân viên cải thiện thái độ.

• AEON cho biết đã thử nghiệm hệ thống tại 8 cửa hàng với khoảng 3.400 nhân viên và nhận thấy thái độ phục vụ cải thiện gấp 1,6 lần trong vòng 3 tháng.

• Mục tiêu của AEON là "chuẩn hóa nụ cười của nhân viên và làm hài lòng khách hàng ở mức tối đa".

• Chính sách này đã gây ra lo ngại về việc hệ thống AI có thể làm gia tăng quấy rối nơi làm việc, đặc biệt là từ phía khách hàng - một vấn đề nghiêm trọng ở Nhật Bản.

• Hiện tượng quấy rối từ khách hàng, được gọi là "kasu-hara" ở Nhật, bao gồm việc sử dụng ngôn ngữ lăng mạ và khiếu nại lặp đi lặp lại.

• Theo khảo sát của công đoàn lớn nhất Nhật Bản UA Zensen, gần một nửa trong số 30.000 nhân viên làm việc trong ngành dịch vụ và các lĩnh vực khác cho biết đã từng bị quấy rối bởi khách hàng.

Nhiều ý kiến cho rằng việc cưỡng ép nhân viên cười theo "tiêu chuẩn" là một hình thức quấy rối khách hàng khác, và nụ cười nên là điều tự nhiên, chân thành chứ không phải sản phẩm.

• Chiến lược này được so sánh với chiến dịch "Nụ cười 0 yên" của McDonald's tại Nhật Bản, vốn đã bị chỉ trích vì tạo thêm gánh nặng cho nhân viên được trả lương theo giờ thấp nhất.

• Bộ Y tế, Lao động và Phúc lợi Nhật Bản đã công bố hướng dẫn chống quấy rối khách hàng vào năm 2022, kêu gọi các công ty duy trì tiêu chuẩn dịch vụ mà không hy sinh sức khỏe của nhân viên.

• Gần đây, một siêu thị ở tỉnh Fukuoka đã triển khai quầy thanh toán siêu chậm, cho phép khách hàng dành tới 20 phút để thanh toán mà không cảm thấy áp lực. Biện pháp này nhằm thể hiện sự quan tâm đến khách hàng cao tuổi và khuyết tật, đồng thời giúp tăng doanh số bán hàng lên 10%.

📌 AEON triển khai AI đánh giá nụ cười nhân viên tại 240 cửa hàng, nhằm chuẩn hóa thái độ phục vụ. Hệ thống gây tranh cãi về quấy rối nơi làm việc. Khảo sát cho thấy 50% nhân viên dịch vụ Nhật Bản từng bị quấy rối bởi khách hàng. Chính phủ kêu gọi cân bằng tiêu chuẩn dịch vụ và sức khỏe nhân viên.

https://www.scmp.com/news/people-culture/article/3271333/japan-supermarket-chain-uses-ai-gauge-staff-smiles-speech-tones-quality-service-push

Trẻ em Australia đối mặt với nguy cơ bị AI khai thác hình ảnh trên mạng, ngay cả khi cha mẹ đã áp dụng các biện pháp bảo mật nghiêm ngặt

• Tổ chức Human Rights Watch (HRW) phát hiện 190 bức ảnh trẻ em Australia được liên kết trong bộ dữ liệu AI phổ biến LAION-5B, bao gồm cả trẻ em bản địa dễ bị tổn thương.

• Các bức ảnh này được thu thập "mà không có sự đồng ý hay biết đến của trẻ em hoặc gia đình", có thể được sử dụng để tạo ra deepfake chân thực của trẻ em Australia thật.

• URL trong bộ dữ liệu đôi khi tiết lộ thông tin nhận dạng của trẻ em như tên và địa điểm, gây nguy cơ về quyền riêng tư và an toàn.

• Ngay cả video YouTube được đặt ở chế độ riêng tư cũng bị thu thập vào bộ dữ liệu, bất chấp chính sách của YouTube cấm AI thu thập thông tin nhận dạng.

• Việc xóa liên kết khỏi bộ dữ liệu LAION-5B không xóa hình ảnh trên mạng và không thay đổi các mô hình AI đã được đào tạo trên chúng.

• Trẻ em bản địa đối mặt với những rủi ro độc đáo do văn hóa hạn chế sao chép ảnh người đã khuất trong thời gian để tang.

Australia dự kiến công bố bản dự thảo cải cách Đạo luật Quyền riêng tư vào tháng 8, bao gồm dự thảo luật bảo vệ dữ liệu trẻ em đầu tiên.

• HRW kêu gọi Bộ luật Quyền riêng tư Trực tuyến của Trẻ em cấm "thu thập dữ liệu cá nhân của trẻ em vào hệ thống AI" và "sao chép hoặc thao túng hình ảnh của trẻ em mà không có sự đồng ý".

• Chuyên gia nhấn mạnh cần có sự can thiệp của cơ quan quản lý để ngăn chặn việc đào tạo AI trên dữ liệu trẻ em trước khi nó xảy ra.

• YouTube tuyên bố việc thu thập trái phép nội dung vi phạm Điều khoản Dịch vụ và họ tiếp tục có hành động chống lại hành vi lạm dụng này.

• Các chuyên gia cho rằng việc yêu cầu phụ huynh gỡ bỏ ảnh trẻ em trên mạng là "không thực tế và thậm chí là vô lý", thay vào đó cần có biện pháp bảo vệ pháp lý.

📌 AI đang khai thác hình ảnh trẻ em Australia trên mạng bất chấp các biện pháp bảo mật. 190 ảnh trẻ em được phát hiện trong bộ dữ liệu LAION-5B, gây nguy cơ về quyền riêng tư và an toàn. Các chuyên gia kêu gọi siết chặt quy định pháp lý để bảo vệ trẻ em trong thời đại AI.

https://arstechnica.com/tech-policy/2024/07/ai-trains-on-kids-photos-even-when-parents-use-strict-privacy-settings/

Instagram và Facebook có thực sự sử dụng bài đăng của bạn để đào tạo AI không?

- Meta đã bắt đầu sử dụng dữ liệu công khai từ tài khoản người dùng Mỹ từ năm 2023 để cải thiện các tính năng AI của mình như trợ lý Meta AI, AI Stickers và công cụ tạo ảnh Imagine.
- Kế hoạch cập nhật chính sách quyền riêng tư vào ngày 26/6 để đào tạo các mô hình AI trên dữ liệu công khai từ tài khoản EU và Anh đã bị tạm dừng vô thời hạn do phản ứng từ các cơ quan quản lý.
- Người dùng Mỹ không có tùy chọn chọn không chia sẻ dữ liệu, nhưng có thể hạn chế bằng cách đặt hồ sơ Instagram ở chế độ riêng tư và không chia sẻ công khai trên Facebook.
- Meta chỉ sử dụng thông tin được chia sẻ công khai để đào tạo AI, bao gồm ảnh, video, chú thích trong feed và Reels của Instagram nếu tài khoản ở chế độ công khai, và bất cứ thứ gì được chia sẻ với đối tượng Public trên Facebook.
- Meta không sử dụng dữ liệu từ tin nhắn riêng tư, trực tiếp trên Facebook và Instagram, cũng như từ stories hoặc Threads.
- Để hạn chế dữ liệu bị truy cập, người dùng có thể chuyển hồ sơ Instagram sang chế độ riêng tư trong phần cài đặt trên iOS, hoặc chọn đối tượng khác Public như Friends hoặc Only Me cho các bài đăng trên Facebook.
- Các thay đổi này sẽ không có hiệu lực hồi tố, nghĩa là các bài đăng cũ đã công khai có thể đã giúp AI của Meta học cách suy nghĩ và nói chuyện giống con người hơn.

📌 Meta đang tận dụng lợi thế dữ liệu khổng lồ từ hàng tỷ người dùng toàn cầu để đẩy nhanh quá trình phát triển AI, bất chấp những lo ngại về quyền riêng tư. Người dùng Mỹ hiện không thể chọn không chia sẻ dữ liệu, nhưng vẫn có thể hạn chế phần nào bằng cách điều chỉnh cài đặt riêng tư trên Instagram và Facebook, mặc dù các bài đăng cũ có thể đã bị sử dụng.

https://www.wsj.com/tech/ai/meta-ai-training-instagram-facebook-explained-a3d36cdb

#WSJ

Xây dựng phần mềm AI bảo mật dữ liệu người dùng với CSDL vector và cách RAG đảm bảo quyền riêng tư

- Ứng dụng xử lý đơn hàng nhà hàng sử dụng ngôn ngữ tự nhiên để tìm kiếm đơn hàng.
- Sử dụng ID prefix để quản lý và xóa dữ liệu dễ dàng.
- RAG (Retrieval Augmented Generation) giúp thêm dữ liệu riêng tư vào phản hồi của LLM, đảm bảo tính chính xác và ngữ cảnh cụ thể.
- RAG cho phép người dùng tương tác với cửa hàng, truy xuất đơn hàng cũ, mua sản phẩm mới bằng ngôn ngữ tự nhiên.
- Dữ liệu cá nhân và thông tin nhận dạng cá nhân (PII) được cung cấp cho mô hình tạo sinh tại thời điểm suy luận để đáp ứng yêu cầu của người dùng.
- Khi xóa dữ liệu bằng ID prefix, hệ thống sẽ không còn thông tin về người dùng đó.
- RAG cung cấp khả năng cá nhân hóa trong khi kiểm soát chặt chẽ PII, chỉ chia sẻ dữ liệu riêng tư khi cần thiết và có thể nhanh chóng xóa bỏ.
- Xây dựng phần mềm AI bảo mật yêu cầu phân loại dữ liệu thành công khai, riêng tư và PII.
- Dữ liệu công khai: tên công ty, ảnh đại diện, chức danh công việc.
- Dữ liệu riêng tư: khóa API, ID tổ chức.
- PII: tên đầy đủ, ngày sinh, ID tài khoản.
- Sử dụng tokenization để tránh lưu trữ PII trong cơ sở dữ liệu vector, thay vào đó lưu trữ khóa ngoại hoặc tham chiếu đến hệ thống khác.
- Hashing có thể được sử dụng để làm mờ dữ liệu người dùng trước khi ghi vào metadata.
- Mã hóa metadata trước khi upsert và giải mã khi truy vấn để bảo vệ dữ liệu người dùng.
- Xóa dữ liệu trong cơ sở dữ liệu vector bằng cách xóa toàn bộ namespace.
- Xây dựng phần mềm AI bảo mật yêu cầu lập kế hoạch cẩn thận và sử dụng các kỹ thuật như ID-prefixing và lọc metadata để xóa dữ liệu người dùng hiệu quả.

📌 Bài viết giải thích cách sử dụng RAG để bảo vệ dữ liệu cá nhân trong phần mềm AI, bao gồm việc phân loại dữ liệu, sử dụng tokenization, hashing và mã hóa metadata. RAG giúp xóa dữ liệu người dùng nhanh chóng và đảm bảo quyền riêng tư.

https://thenewstack.io/building-privacy-aware-ai-software-with-vector-databases/

Apple biến iPhone thành "con ngựa thành Troy" của AI tạo sinh

- Apple giới thiệu Apple Intelligence, tích hợp AI tạo sinh vào hệ điều hành mới, hỗ trợ viết văn bản, tạo hình ảnh, emoji và quản lý thông tin cá nhân.
- Apple hợp tác với OpenAI, tích hợp ChatGPT vào các tính năng của Apple Intelligence, giúp OpenAI tiếp cận hàng triệu người dùng phổ thông.
- Sức mạnh của Apple nằm ở việc tận dụng lượng người dùng khổng lồ, kết hợp dữ liệu cá nhân với AI tạo sinh để mang lại giá trị cho người dùng.
- Apple đang đánh cược rằng giải pháp AI tổng hợp sẽ vượt trội hơn các sản phẩm đơn lẻ, nhờ hàng tỷ thiết bị của hãng trên toàn cầu.
- Thông báo của Apple cho thấy AI tạo sinh sẽ trở nên phổ biến và không thể tránh khỏi khi được tích hợp vào các thiết bị thông dụng.
- Tuy nhiên, kế hoạch này không đảm bảo thành công. Các lỗi và hạn chế của công nghệ AI tạo sinh có thể gây ra những hậu quả nghiêm trọng cho hệ sinh thái của Apple.

📌 Apple đang đưa AI tạo sinh đến với hàng tỷ thiết bị, biến chúng thành "con ngựa thành Troy" để thâm nhập vào cuộc sống hàng ngày. Tuy nhiên, việc triển khai rộng rãi công nghệ chưa hoàn thiện này có thể phá vỡ "vườn bao" mà Apple đã dày công xây dựng, gây ra những hậu quả khó lường.

https://www.theatlantic.com/technology/archive/2024/06/apple-generative-ai-wwdc/678648/

Apple âm thầm ra mắt hệ điều hành mới cho Private Cloud Compute

- Apple đã giới thiệu Private Cloud Compute (PCC) để hỗ trợ các tính năng Apple Intelligence, đảm bảo dữ liệu người dùng được bảo mật.
- PCC được xây dựng trên phần cứng Apple silicon tùy chỉnh và một hệ điều hành được tăng cường bảo mật, được thiết kế riêng cho quyền riêng tư.
- Apple cho biết họ đã viết một hệ điều hành được tăng cường bảo mật, khác với macOS và iOS mới được công bố tại WWDC.
- Hệ điều hành mới này là một tập hợp con được tăng cường của nền tảng iOS và macOS, được điều chỉnh để hỗ trợ các tác vụ suy luận Large Language Model (LLM).
- Gốc tin cậy của PCC là node tính toán của Apple, phần cứng máy chủ tùy chỉnh mang lại sức mạnh và bảo mật của chip Apple silicon vào trung tâm dữ liệu.
- Khi ra mắt PCC, Apple sẽ công khai hình ảnh phần mềm của mọi bản dựng sản xuất PCC để nghiên cứu bảo mật, bao gồm mọi ứng dụng, tệp thực thi liên quan và chính hệ điều hành.
- Phần mềm sẽ được công bố trong vòng 90 ngày kể từ khi được đưa vào nhật ký hoặc sau khi các bản cập nhật phần mềm liên quan khả dụng, tùy điều kiện nào đến sớm hơn.

📌 Apple đã phát triển một hệ điều hành mới được tăng cường bảo mật dựa trên nền tảng iOS và macOS, tùy chỉnh để hỗ trợ Private Cloud Compute. Công ty sẽ công khai mã nguồn trong vòng 90 ngày để thúc đẩy nghiên cứu bảo mật.

https://www.techradar.com/pro/apple-quietly-released-a-new-operating-system-that-almost-nobody-noticed-unnamed-os-surfaces-in-private-cloud-compute-blog-as-apple-goes-ballistic-on-ai

Apple Intelligence: AI tạo sinh bảo mật dữ liệu người dùng như thế nào?

- Tại WWDC, Apple giới thiệu Apple Intelligence, một bộ công cụ AI tạo sinh mới cho iPhone, iPad và Mac, bao gồm viết lại email, tóm tắt thông báo và tạo emoji tùy chỉnh.
- Apple nhấn mạnh việc bảo mật dữ liệu người dùng thông qua hai phương pháp: sử dụng mô hình AI trên thiết bị và kết nối với máy chủ đám mây khi cần thiết.
- Apple Intelligence sử dụng mô hình AI tự phát triển, không huấn luyện bằng dữ liệu cá nhân mà sử dụng dữ liệu công khai và được cấp phép, loại bỏ các thông tin nhạy cảm như số an sinh xã hội và số thẻ tín dụng.
- Các mô hình AI của Apple được tối ưu hóa cho hiệu suất và kích thước để phù hợp với các thiết bị như iPhone, giúp giảm bớt lo ngại về bảo mật khi xử lý yêu cầu AI tại chỗ.
- Apple sử dụng kỹ thuật "fine-tuning" để cải thiện mô hình AI cho các nhiệm vụ cụ thể như kiểm tra chính tả hoặc tóm tắt văn bản, thông qua các "adapters" có thể thay đổi.
- Đối với các yêu cầu phức tạp hơn, Apple sử dụng máy chủ Private Cloud Compute (PCC) với hệ điều hành riêng dựa trên nền tảng iOS, có bảo mật cao và không lưu trữ dữ liệu lâu dài.
- Kết nối giữa thiết bị người dùng và PCC được mã hóa từ đầu đến cuối, và Apple không thể truy cập dữ liệu trong PCC do không có công cụ quản lý máy chủ từ xa.
- Siri có thể gửi một số truy vấn đến ChatGPT trên đám mây, nhưng chỉ khi người dùng cho phép, chuyển trách nhiệm bảo mật sang OpenAI.
- Apple Intelligence sẽ được ra mắt vào mùa thu, và người dùng sẽ có cơ hội kiểm chứng sự cân bằng giữa trải nghiệm AI chất lượng và bảo mật dữ liệu.

📌 Apple Intelligence giới thiệu các công cụ AI tạo sinh mới, tập trung vào bảo mật dữ liệu người dùng bằng cách sử dụng mô hình AI trên thiết bị và đám mây. Apple không huấn luyện mô hình bằng dữ liệu cá nhân và sử dụng kết nối mã hóa để bảo vệ dữ liệu khi cần xử lý trên đám mây.

https://www.theverge.com/2024/6/13/24175985/apple-intelligence-ai-model-local-cloud-privacy-how-it-works

Dữ liệu tổng hợp bảo mật quyền riêng tư là chìa khóa để mở rộng quy mô AI

- Dữ liệu công khai hiện tại đã đủ để tạo ra các mô hình đa năng chất lượng cao, nhưng không đủ để cung cấp năng lượng cho các mô hình chuyên biệt mà doanh nghiệp cần. Trong khi đó, các quy định AI đang ngày càng khiến việc xử lý dữ liệu nhạy cảm thô an toàn trở nên khó khăn hơn.

- Các công ty công nghệ hàng đầu như Google, Anthropic, Meta, Microsoft đã bắt đầu sử dụng dữ liệu tổng hợp để huấn luyện các mô hình như Gemma, Claude, Llama 3, Phi-3 và đạt được những cải thiện đáng kể về hiệu suất.

- Trong kỷ nguyên AI, chất lượng dữ liệu được định nghĩa bởi 5 yếu tố: khối lượng, tốc độ, đa dạng, độ chính xác và quyền riêng tư. Thiếu bất kỳ yếu tố nào trong số này, các nút thắt về chất lượng dữ liệu sẽ cản trở hiệu suất mô hình và giá trị kinh doanh.

- Dữ liệu tổng hợp chất lượng cao phải bao gồm: hệ thống phát hiện và chuyển đổi dữ liệu nhạy cảm tiên tiến, tạo thông qua các bộ chuyển đổi được đào tạo trước và kiến trúc dựa trên tác nhân, quyền riêng tư khác biệt ở cấp độ đào tạo mô hình, độ chính xác và tiện ích có thể đo lường được cùng với các biện pháp bảo vệ quyền riêng tư có thể chứng minh được, các nhóm đánh giá, xác thực và điều chỉnh dữ liệu.

- Sự sụp đổ mô hình không phải do dữ liệu tổng hợp gây ra mà là do vòng lặp phản hồi trong các hệ thống AI và học máy cùng với nhu cầu quản trị dữ liệu tốt hơn. Dữ liệu tổng hợp bảo mật quyền riêng tư chất lượng cao là giải pháp cho sự sụp đổ mô hình, không phải là nguyên nhân.

📌 Dữ liệu tổng hợp chất lượng cao, bảo mật quyền riêng tư là phương tiện đáng tin cậy và hiệu quả nhất để tạo ra dữ liệu chất lượng cao mà không ảnh hưởng đến hiệu suất hoặc quyền riêng tư, giúp các nhà phát triển xây dựng các mô hình chính xác, kịp thời và chuyên biệt hơn một cách an toàn.

https://www.infoworld.com/article/3715521/solving-the-data-quality-problem-in-generative-ai.html

Apple giới thiệu Private Cloud Compute và hợp tác với OpenAI để bảo vệ dữ liệu AI trên đám mây

- Tại WWDC 2024, Apple giới thiệu "Apple Intelligence", một dịch vụ AI rộng khắp trên MacOS "Sequoia", iPadOS 18 và iOS 18.
- Apple công bố "Private Cloud Compute", cho phép chạy một số mô hình AI trên thiết bị và một số trên môi trường điện toán đám mây an toàn khi cần sức mạnh xử lý bổ sung.
- Private Cloud Compute sử dụng máy chủ với chip tùy chỉnh của Apple thay vì chip Intel và AMD thông thường.
- Dữ liệu người dùng sẽ không bị Apple thu thập. Các chuyên gia độc lập có thể kiểm tra mã chạy trên máy chủ để xác minh lời hứa về quyền riêng tư.
- Apple hợp tác với OpenAI để tích hợp ChatGPT vào Siri, nhấn mạnh việc xin phép người dùng trước khi sử dụng ChatGPT và không ghi lại yêu cầu và thông tin.
- Đây được coi là một tiêu chuẩn mới cho quyền riêng tư và AI, mở khóa trí tuệ mà bạn có thể tin tưởng.

📌 Apple đã giới thiệu Private Cloud Compute tại WWDC 2024, sử dụng chip tùy chỉnh an toàn hơn và có thể được kiểm tra bởi các chuyên gia bảo mật. Họ cũng hợp tác với OpenAI để tích hợp ChatGPT vào Siri, đồng thời cam kết bảo vệ quyền riêng tư của người dùng bằng cách không thu thập dữ liệu và xin phép trước khi sử dụng AI.

https://www.zdnet.com/article/heres-how-apples-keeping-your-cloud-processed-ai-data-safe-and-why-it-matters/

Elon Musk gọi iOS 18 là 'vi phạm bảo mật' vì tích hợp ChatGPT, đe dọa cấm sử dụng thiết bị Apple tại Tesla.

- Elon Musk đã gọi iOS 18 là "vi phạm bảo mật không thể chấp nhận" do tích hợp ChatGPT và đe dọa cấm sử dụng thiết bị Apple tại các công ty của ông, bao gồm Tesla, SpaceX và X.
- Ông Musk cho biết khách đến thăm sẽ phải giao nộp điện thoại Apple của họ khi đến các công ty của ông, và các thiết bị này sẽ được lưu trữ trong lồng Faraday.
- Không rõ liệu Musk có xem buổi công bố AI của Apple trong sự kiện WWDC hay không, hay ông chỉ phản ứng một cách bộc phát. Musk hiện đang điều hành xAI, một đối thủ trực tiếp của OpenAI.
- iOS 18 tích hợp sâu ChatGPT, nhưng chỉ khi người dùng cho phép rõ ràng. Điều này không khác nhiều so với việc tải ứng dụng ChatGPT từ App Store, ngoại trừ việc truy cập thuận tiện hơn.
- Người dùng có thể sử dụng các tính năng của ChatGPT trong iOS với gói miễn phí của ChatGPT-4o hoặc mua gói ChatGPT Plus và đăng nhập vào tài khoản của họ.
- Apple cho biết sẽ tích hợp các nhà cung cấp mô hình AI bên thứ ba khác trong tương lai.
- Apple tuân thủ nghiêm ngặt về quyền riêng tư và bảo mật, và khách hàng doanh nghiệp có thể chặn sử dụng các tính năng ChatGPT và Apple Intelligence bằng các kiểm soát MDM tiêu chuẩn.

📌 Elon Musk đã chỉ trích iOS 18 vì tích hợp ChatGPT, gọi đó là "vi phạm bảo mật" và đe dọa cấm sử dụng thiết bị Apple tại các công ty của ông. Ông yêu cầu khách đến thăm giao nộp điện thoại Apple, và Apple khẳng định tích hợp ChatGPT chỉ khi người dùng cho phép.

https://9to5mac.com/2024/06/10/elon-musk-calls-ios-18-a-security-violation-for-integrating-chatgpt-says-he-will-ban-use-of-apple-devices-at-tesla/

Nhà mạng đối mặt bài toán hóc búa khi smartphone AI bùng nổ

- Canalys định nghĩa smartphone có khả năng AI tạo sinh (GenAI) là có phần cứng AI chuyên dụng như ASIC, cho phép chạy các mô hình AI tạo sinh hiệu quả và hỗ trợ suy luận tại chỗ theo thời gian thực với độ trễ tối thiểu.

- Các tính năng AI trong tương lai có thể mang lại cho nhà mạng "những tuyến kinh doanh mới" và "thỏa thuận chia sẻ doanh thu", nhưng đây là "thách thức lớn để vận hành hạ tầng này", theo Runar Bjorhovde, chuyên gia phân tích của Canalys.

- Lưu lượng dữ liệu trung bình trên mỗi smartphone là 21GB/tháng vào năm 2023 và dự kiến đạt 56GB/tháng vào năm 2029, theo báo cáo của Ericsson.

- Các nhà mạng đang nỗ lực đẩy mạnh việc chạy AI trên chính thiết bị thay vì qua Internet và đám mây công cộng. Điều này giảm tải lưu lượng mạng và nhà mạng kiểm soát tốt hơn quyền riêng tư và bảo mật.

- Mối quan ngại hàng đầu của người dùng là rủi ro về quyền riêng tư và bảo mật dữ liệu khi chạy AI trên smartphone.

- Canalys dự báo 16% smartphone toàn cầu xuất xưởng năm nay sẽ có khả năng AI, con số này sẽ tăng lên 54% vào năm 2028. Smartphone có khả năng AI sẽ đạt tốc độ tăng trưởng kép hàng năm (CAGR) 63% từ 2023-2028.

- Nhóm người dùng đam mê công nghệ, chiếm 7% người mua smartphone AI, là cơ hội tốt nhất để nhà mạng bán thêm smartphone mới có khả năng AI. Đây là nhóm khách hàng giá trị cao, quan tâm nâng cấp lên công nghệ mới nhất.

- Người mua smartphone ở Trung Quốc và Ấn Độ có xu hướng "mạnh mẽ hơn nhiều đối với đổi mới công nghệ mới nhất". Trong khi đó, ở châu Âu, "tính bền vững đang trở thành mối quan tâm hàng đầu".

📌 Sự gia tăng của smartphone có khả năng AI mang lại cơ hội kinh doanh mới cho nhà mạng, nhưng cũng đặt ra thách thức lớn về hạ tầng. Canalys dự báo đến năm 2028, 54% smartphone toàn cầu sẽ có khả năng AI với CAGR 63% giai đoạn 2023-2028. Tuy nhiên, việc thuyết phục người dùng nâng cấp lên smartphone AI sẽ khác biệt giữa các khu vực, với Trung Quốc và Ấn Độ nhiệt tình hơn so với châu Âu.

https://www.lightreading.com/ai-machine-learning/operators-to-play-a-tricky-game-with-ai-capable-smartphone-sales-canalys-report

Muốn AI thành công, chúng ta cần bảo vệ dữ liệu cá nhân

- Ngành công nghiệp AI đang tiến gần đến một bước chuyển đổi mà dữ liệu người dùng sẽ trở nên tối quan trọng và niềm tin sẽ là hàng hóa quan trọng nhất, được gọi là "AI 2.0".

- AI tạo sinh 1.0 là phi cá nhân hóa. Để AI hiểu chúng ta, nó phải có dữ liệu về chúng ta, và trước khi cho phép điều đó, chúng ta phải có niềm tin.

- Chúng ta có thể xây dựng niềm tin bằng các quy định bảo vệ dữ liệu cá nhân và thúc đẩy tính minh bạch. Tác giả đề xuất 4 quy tắc cho tính minh bạch và quyền riêng tư dữ liệu.

- Nếu các công ty AI cần đào tạo trên thông tin có bản quyền, họ có thể trả tiền cho nó với ngân sách hàng chục và hàng trăm tỷ đô la.

- Một mô hình AI của Mỹ dựa trên quyền sở hữu rõ ràng và quyền riêng tư dữ liệu sẽ truyền cảm hứng cho nhiều người tham gia hơn mô hình AI của Trung Quốc với dữ liệu do Đảng Cộng sản kiểm soát.

📌 Để AI 2.0 mang lại giá trị lớn hơn, cần có mối quan hệ mới với công chúng dựa trên niềm tin. Mỹ có lợi thế trong cuộc đua này nếu có các quy định đúng đắn về quyền sở hữu và quyền riêng tư dữ liệu, trái ngược với mô hình kiểm soát dữ liệu của Trung Quốc.

https://www.fastcompany.com/91137724/for-ai-to-really-succeed-we-need-to-protect-private-data

DuckDuckGo ra mắt dịch vụ AI Chat ẩn danh với các mô hình ngôn ngữ lớn

- DuckDuckGo đã ra mắt dịch vụ "AI Chat" mới cho phép người dùng trò chuyện với bốn mô hình ngôn ngữ lớn (LLM) tầm trung từ OpenAI, Anthropic, Meta và Mistral trong một giao diện tương tự như ChatGPT, đồng thời cố gắng bảo vệ quyền riêng tư và ẩn danh.
- Dịch vụ AI Chat của DuckDuckGo hiện đang cung cấp quyền truy cập vào GPT-3.5 Turbo của OpenAI, Claude 3 Haiku của Anthropic và hai mô hình nguồn mở là Llama 3 của Meta và Mixtral 8x7B của Mistral.
- Dịch vụ hiện miễn phí sử dụng trong giới hạn hàng ngày. Người dùng có thể truy cập AI Chat thông qua công cụ tìm kiếm DuckDuckGo, các liên kết trực tiếp đến trang web hoặc bằng cách sử dụng các phím tắt "!ai" hoặc "!chat" trong trường tìm kiếm.
- Theo DuckDuckGo, các cuộc trò chuyện trên dịch vụ được ẩn danh, với siêu dữ liệu và địa chỉ IP bị xóa để ngăn chặn việc truy nguyên về cá nhân. Công ty tuyên bố rằng các cuộc trò chuyện không được sử dụng để đào tạo mô hình AI.
- Tuy nhiên, trải nghiệm bảo mật không hoàn toàn vì trong trường hợp GPT-3.5 và Claude Haiku, DuckDuckGo phải gửi đầu vào của người dùng đến các máy chủ từ xa để xử lý qua Internet.
- Mặc dù dịch vụ có vẻ hoạt động tốt, nhưng vẫn có câu hỏi về tính hữu ích của nó. Ví dụ: GPT-3.5 ban đầu gây ấn tượng mạnh khi ra mắt với ChatGPT vào năm 2022, nhưng nó cũng bịa ra rất nhiều và vẫn tiếp tục như vậy.

📌 DuckDuckGo đã ra mắt dịch vụ AI Chat cho phép người dùng trò chuyện ẩn danh với 4 mô hình ngôn ngữ lớn tầm trung từ OpenAI, Anthropic, Meta và Mistral. Mặc dù các mô hình AI liên quan có thể đưa ra thông tin không chính xác, dịch vụ vẫn hữu ích để thử nghiệm các LLM khác nhau mà không cần đăng ký tài khoản, đồng thời đảm bảo quyền riêng tư của người dùng.

 

https://arstechnica.com/information-technology/2024/06/duckduckgo-offers-anonymous-access-to-ai-chatbots-through-new-service/

Google đề xuất cách tiếp cận bảo vệ quyền riêng tư trong thế giới AI

- AI hứa hẹn mang lại nhiều lợi ích cho con người và xã hội, nhưng cũng tiềm ẩn nguy cơ làm trầm trọng thêm các thách thức xã hội hiện có và đặt ra những thách thức mới.

- Các sản phẩm AI cần có sẵn các biện pháp bảo vệ nhằm thúc đẩy an toàn và quyền riêng tư của người dùng ngay từ đầu. 

- Google đề xuất các phương pháp tiếp cận chính sách nhằm giải quyết các mối quan ngại về quyền riêng tư đồng thời mở khóa các lợi ích của AI.

- Bất kỳ tổ chức nào xây dựng công cụ AI cũng cần minh bạch về cách tiếp cận quyền riêng tư của mình. Google áp dụng các biện pháp bảo vệ quyền riêng tư mạnh mẽ, kỹ thuật giảm thiểu dữ liệu, minh bạch về thực tiễn dữ liệu và cung cấp quyền kiểm soát cho người dùng.

- Có 2 giai đoạn riêng biệt cần xem xét đối với các mô hình AI: đào tạo & phát triển và ứng dụng đối mặt người dùng. Ở cấp độ ứng dụng, nguy cơ rò rỉ dữ liệu cá nhân cao hơn nhưng cũng có cơ hội tạo ra các biện pháp bảo vệ hiệu quả hơn.

- AI tạo sinh cũng mang lại tiềm năng cải thiện quyền riêng tư của người dùng như giúp các tổ chức hiểu phản hồi về quyền riêng tư, xác định các vấn đề tuân thủ quyền riêng tư, tạo ra thế hệ phòng thủ mạng mới.

- Các chính sách công và tiêu chuẩn ngành cần thúc đẩy, không vô tình hạn chế các ứng dụng tích cực của AI.

- Cần sự hợp tác giữa các bên liên quan để cân bằng giữa bảo vệ quyền riêng tư mạnh mẽ với các quyền cơ bản và mục tiêu xã hội khác.

📌 Google cam kết hợp tác chặt chẽ với cộng đồng về quyền riêng tư để đảm bảo AI tạo sinh mang lại lợi ích cho xã hội một cách có trách nhiệm. Các chính sách và tiêu chuẩn cần linh hoạt, tương xứng và trung lập về công nghệ để vừa bảo vệ hiệu quả quyền riêng tư, vừa không vô tình hạn chế các ứng dụng tích cực của AI. Ở cấp độ ứng dụng đối mặt người dùng, cần tập trung xây dựng các biện pháp bảo vệ như lọc đầu ra, tự động xóa dữ liệu để giảm rủi ro rò rỉ thông tin cá nhân.

https://blog.google/technology/safety-security/designing-for-privacy-in-an-ai-world/

Lực lượng đặc nhiệm ChatGPT của EU chưa đưa ra kết luận cuối cùng về sự tuân thủ quyền riêng tư

- Lực lượng đặc nhiệm bảo vệ dữ liệu của EU đã dành hơn 1 năm xem xét cách áp dụng quy tắc bảo vệ dữ liệu của EU đối với chatbot ChatGPT của OpenAI. Tuy nhiên, họ vẫn chưa đưa ra kết luận cuối cùng về các vấn đề pháp lý quan trọng như tính hợp pháp và công bằng trong việc xử lý dữ liệu của OpenAI.
- Theo GDPR, các công ty xử lý dữ liệu cá nhân phải có cơ sở pháp lý hợp lệ. OpenAI dường như đang dựa vào "lợi ích hợp pháp" (LI), nhưng cần chứng minh sự cần thiết, giới hạn xử lý và cân bằng lợi ích với quyền của chủ thể dữ liệu.
- Báo cáo gợi ý các biện pháp bảo vệ như tiêu chí thu thập dữ liệu chính xác, chặn một số loại dữ liệu nhạy cảm có thể giúp OpenAI đáp ứng yêu cầu LI. Tuy nhiên, các cơ quan giám sát địa phương (DPA) sẽ quyết định liệu OpenAI có thực sự đáp ứng được hay không.
- OpenAI cần tuân thủ nguyên tắc công bằng, minh bạch của GDPR, không được chuyển rủi ro cho người dùng. Họ cũng phải cung cấp thông tin rõ ràng về tính chất xác suất và độ tin cậy hạn chế của ChatGPT.
- Nhiều khiếu nại GDPR về ChatGPT đã được gửi đến các DPA, nhưng việc thực thi dường như bị trì hoãn do sự tồn tại của lực lượng đặc nhiệm. Các DPA có quan điểm khác nhau về mức độ khẩn cấp cần hành động.
- OpenAI đã thành lập một pháp nhân tại Ireland, cho phép họ đưa Ireland DPC trở thành cơ quan giám sát chính theo cơ chế "One-Stop Shop" của GDPR. Điều này có thể giúp OpenAI tránh được các hành động thực thi phi tập trung từ các DPA khác.

📌 Mặc dù lực lượng đặc nhiệm ChatGPT của EU đã đưa ra một số gợi ý về cách OpenAI có thể tuân thủ GDPR, nhưng họ vẫn chưa đưa ra kết luận cuối cùng về tính hợp pháp của việc xử lý dữ liệu. Trong khi đó, nhiều khiếu nại đang chờ xử lý và các DPA có quan điểm khác nhau về mức độ khẩn cấp cần hành động. Việc OpenAI thành lập pháp nhân tại Ireland cũng có thể giúp họ tránh được các hành động thực thi phi tập trung.

Citations:
[1] https://techcrunch.com/2024/05/27/eus-chatgpt-taskforce-offers-first-look-at-detangling-the-ai-chatbots-privacy-compliance/

Microsoft đang bị các cơ quan quản lý châu Âu điều tra về tính năng AI mới có tên Recall

- Microsoft ra mắt dòng máy tính xách tay mới trang bị phần cứng AI và hỗ trợ các ứng dụng AI tại hội nghị dành cho nhà phát triển Microsoft Build.
- Tính năng nổi bật là Recall, sử dụng AI để xây dựng "trí nhớ hình ảnh" về hoạt động của người dùng trên máy tính xách tay bằng cách liên tục chụp ảnh màn hình.
- Giám đốc điều hành Microsoft, Satya Nadella, cho biết Recall có thể tái tạo lại các khoảnh khắc trong quá khứ.
- Thông báo về tính năng này ngay lập tức vấp phải sự phản đối từ những người ủng hộ quyền riêng tư và người tiêu dùng, bao gồm cả Elon Musk.
- Cơ quan giám sát dữ liệu Anh (ICO) đang liên hệ với Microsoft để tìm hiểu thêm thông tin về Recall.
- ICO cho biết các công ty phải đánh giá kỹ lưỡng và giảm thiểu rủi ro đối với quyền và tự do của mọi người trước khi ra mắt sản phẩm mới, đặc biệt là những sản phẩm có khả năng xâm phạm quyền riêng tư.
- Microsoft khẳng định các ảnh chụp màn hình của Recall được lưu trữ cục bộ trên máy tính, được mã hóa và chỉ có thể truy cập bởi người dùng đăng nhập vào máy tính.
- Người dùng cũng có thể lọc các ứng dụng hoặc trang web cụ thể không bị quét, tạm dừng thu thập ảnh chụp màn hình và xóa một phần hoặc toàn bộ ảnh chụp màn hình được lưu trữ trên thiết bị của họ.

📌 Tính năng Recall mới của Microsoft, cho phép AI chụp ảnh màn hình liên tục hoạt động của người dùng trên máy tính xách tay, đang vấp phải sự giám sát của các cơ quan quản lý châu Âu và sự phản đối từ những người ủng hộ quyền riêng tư. Mặc dù Microsoft khẳng định các biện pháp bảo mật, ICO vẫn đang tìm hiểu thêm thông tin về tính năng tiềm ẩn rủi ro này.

https://qz.com/microsoft-ai-laptops-windows-recall-privacy-tech-uk-1851493114

Google nói về "AI có trách nhiệm" tại sự kiện I/O: Điều gì đang diễn ra?

- Tại sự kiện dành cho nhà phát triển Google I/O, Google đã trình bày cách tiếp cận AI có trách nhiệm để cân bằng giữa đổi mới và an toàn.
- Các công cụ AI tạo sinh như chatbot có thể mang lại nhiều lợi ích nhưng cũng tiềm ẩn nguy cơ lạm dụng.
- Google đang phát triển phương pháp "kiểm tra bảo mật AI" (AI-assisted red teaming), cho phép các AI agent cạnh tranh với nhau để mở rộng phạm vi kiểm tra bảo mật truyền thống.
- Google cũng tuyển dụng các chuyên gia an toàn từ nhiều lĩnh vực để đánh giá và phản hồi về các mô hình AI.
- Công cụ Synth ID của Google, vốn đang được sử dụng để gắn thủy vân vào hình ảnh và âm thanh do AI tạo ra, sẽ được mở rộng sang văn bản và video.
- Google cũng tập trung vào việc ứng dụng AI vào các lĩnh vực mang lại lợi ích xã hội như y tế, dự báo lũ lụt và giáo dục.
- Các mô hình Gemini tùy chỉnh như Learning Coach và Lear LM sẽ hỗ trợ học sinh và giáo viên, có mặt trên các sản phẩm của Google trong những tháng tới.

📌 Google đang nỗ lực phát triển AI có trách nhiệm thông qua các biện pháp như kiểm tra bảo mật AI, gắn thủy vân vào nội dung do AI tạo ra và ứng dụng AI vào giáo dục. Tuy nhiên, thách thức sẽ ngày càng gia tăng khi AI tạo ra hình ảnh, video và âm thanh ngày càng giống thật hơn.

https://www.cnet.com/tech/services-and-software/at-io-google-talks-up-responsible-ai-whats-that-all-about/

Sanctum AI: Đột phá bảo mật với LLM tại chỗ, kiểm soát dữ liệu tối ưu

- Sanctum AI là công ty phát triển ứng dụng cho phép các doanh nghiệp vận hành LLM (large language models) ngay trên thiết bị tại chỗ của họ, nhằm mục đích tăng cường bảo mật dữ liệu.
- Theo đồng sáng lập Tyler Ward, việc giữ dữ liệu trong nhà là cần thiết vì mặc dù đám mây có an toàn, nó vẫn là mục tiêu hàng đầu cho các cuộc tấn công mạng và không bao giờ đủ an toàn.
- Ứng dụng của Sanctum AI cho phép nhân viên tương tác với AI và cho phép AI tương tác với tài liệu, tệp và dữ liệu mà không làm rò rỉ thông tin ra ngoài trong quá trình xử lý.
- Christian Crowley, đồng sáng lập khác của Sanctum AI, nhấn mạnh rằng việc sử dụng hệ thống dựa trên đám mây khiến các doanh nghiệp không thực sự kiểm soát được dữ liệu của mình, và đây là mối quan tâm hàng đầu hiện nay.
- Công nghệ của Sanctum AI không chỉ giúp giảm thiểu rủi ro bằng cách giữ thông tin trên các thiết bị đáng tin cậy mà còn mang lại lợi ích từ việc chạy LLM một cách địa phương, giống như đã từng làm với các ứng dụng máy tính để bàn so với các giải pháp dựa trên đám mây.
- Khi sử dụng Sanctum AI, các doanh nghiệp có thể tiếp tục hoạt động ngay cả khi mất kết nối internet, nhờ khả năng truy cập ứng dụng hoàn toàn ngoại tuyến và nhận phản hồi nhanh, được mã hóa.
- Môi trường được mã hóa hoàn toàn và giao diện trực quan của Sanctum AI mang lại những điểm tốt nhất của AI, đồng thời đảm bảo an toàn thông tin cho các doanh nghiệp.

📌 Sanctum AI cung cấp giải pháp cho phép doanh nghiệp vận hành LLM ngay trên thiết bị tại chỗ, tăng cường bảo mật thông tin. Các doanh nghiệp có thể tương tác với AI mà không lo ngại thông tin bị rò rỉ, đồng thời duy trì hoạt động kinh doanh ngay cả khi mất kết nối internet.

Citations:
[1] https://venturebeat.com/business/meet-sanctum-ai-the-company-taking-cloud-based-llms-local-for-better-data-privacy/

ChatGPT bị khiếu nại về quyền riêng tư tại EU do không thể sửa thông tin sai lệch

- OpenAI đang phải đối mặt với một khiếu nại về quyền riêng tư khác tại Liên minh Châu Âu, do tổ chức phi lợi nhuận noyb đệ trình.
- Khiếu nại nhắm vào việc chatbot AI ChatGPT không thể sửa thông tin sai lệch mà nó tạo ra về các cá nhân.
- Xu hướng các công cụ AI tạo sinh tạo ra thông tin sai đã được ghi nhận rõ ràng và đặt công nghệ này vào tình thế đối đầu với Quy định Bảo vệ Dữ liệu Chung (GDPR) của EU.
- Hình phạt cho việc không tuân thủ GDPR có thể lên tới 4% doanh thu hàng năm toàn cầu. Quan trọng hơn, cơ quan bảo vệ dữ liệu có thể ra lệnh thay đổi cách xử lý thông tin.
- OpenAI đã buộc phải thực hiện một số thay đổi sau sự can thiệp sớm của cơ quan bảo vệ dữ liệu Italy, dẫn đến việc tạm ngừng ChatGPT tại địa phương vào năm 2023.
- Khiếu nại mới nhất được noyb gửi đến cơ quan bảo vệ dữ liệu Áo thay mặt cho một người khiếu nại giấu tên, người phát hiện ChatGPT đưa ra ngày sinh không chính xác về họ.
- Theo GDPR, mọi người ở EU có quyền yêu cầu sửa dữ liệu sai lệch về họ. Noyb cho rằng OpenAI đã không tuân thủ nghĩa vụ này đối với đầu ra của chatbot.
- OpenAI từ chối yêu cầu sửa ngày sinh sai của người khiếu nại, trả lời rằng về mặt kỹ thuật, họ không thể sửa được.
- Các yếu tố khác của khiếu nại tập trung vào lo ngại về tính minh bạch GDPR, với noyb cho rằng OpenAI không thể nói rõ dữ liệu mà chatbot tạo ra về cá nhân đến từ đâu, cũng như chatbot lưu trữ dữ liệu gì về mọi người.

📌 ChatGPT của OpenAI đang đối mặt với khiếu nại về quyền riêng tư tại EU do không thể sửa thông tin sai lệch mà nó tạo ra. Khiếu nại do noyb đệ trình, nhắm vào việc vi phạm GDPR của chatbot AI. OpenAI có thể phải đối mặt với hình phạt lên tới 4% doanh thu toàn cầu và buộc phải thay đổi cách xử lý thông tin.

Citations:
[1] https://techcrunch.com/2024/04/28/chatgpt-gdpr-complaint-noyb/

Công ty đám mây có thể cho thuê ảnh của bạn để huấn luyện AI, đây là cách đối phó

- Các công ty công nghệ lớn như Google, Microsoft, Amazon có thể sử dụng hình ảnh do người dùng tải lên các dịch vụ lưu trữ đám mây của họ để huấn luyện các mô hình AI.

- Điều này được cho phép theo các điều khoản dịch vụ và thỏa thuận người dùng mà chúng ta thường bỏ qua khi đăng ký. 

- Các công ty có thể cấp giấy phép cho bên thứ ba sử dụng dữ liệu hình ảnh của người dùng để phát triển AI, machine learning.

- Người dùng cần đọc kỹ điều khoản, chính sách quyền riêng tư trước khi sử dụng dịch vụ đám mây để hiểu rõ quyền của mình.

- Một số giải pháp là sử dụng dịch vụ lưu trữ đám mây có chính sách bảo mật nghiêm ngặt hơn, hoặc tự lưu trữ dữ liệu.

- Cần có sự minh bạch và kiểm soát của người dùng đối với việc sử dụng dữ liệu cá nhân của họ cho mục đích phát triển AI.

- Các nhà làm luật cần xem xét và điều chỉnh khuôn khổ pháp lý để bảo vệ quyền riêng tư, sở hữu trí tuệ của người dùng trước sự bùng nổ của AI.

📌 Các công ty công nghệ lớn có thể sử dụng hình ảnh của người dùng tải lên dịch vụ đám mây để huấn luyện AI theo các điều khoản dịch vụ. Người dùng cần thận trọng đọc kỹ chính sách, sử dụng dịch vụ lưu trữ bảo mật hoặc tự lưu trữ. Cần sự minh bạch và điều chỉnh pháp lý để bảo vệ quyền lợi của người dùng trước sự phát triển của AI.

Citations:
[1] https://www.dpreview.com/opinion/1995639497/cloud-companies-may-lease-your-images-for-ai-learning-what-can-you-do-about-it

Copilot của Microsoft cho phép đọc và tóm tắt nội dung tệp tin trực tiếp mà không gây ra vấn đề về quyền riêng tư

- Microsoft bắt đầu triển khai tính năng mới cho trợ lý AI Copilot trong Windows, cho phép đọc trực tiếp các tệp tin trên máy tính cá nhân.
- Copilot có thể cung cấp tóm tắt, tìm kiếm dữ liệu cụ thể hoặc tìm thông tin trên internet từ các tệp tin được thêm vào.
- Tính năng này đã được tích hợp mạnh mẽ vào Microsoft 365 và Windows 11, và ban đầu có vẻ như một vấn đề lớn về quyền riêng tư.
- Người dùng cần thực hiện thao tác kéo và thả tệp tin vào hộp chat của Copilot (hoặc chọn ‘Thêm tệp tin') để sử dụng tính năng.
- Theo @Leopeva64 trên X (trước đây là Twitter), sau khi tệp tin được thêm vào, người dùng có thể yêu cầu AI tóm tắt nội dung.
- Copilot không tự động "lục lọi" các tệp tin mà chỉ hoạt động khi người dùng yêu cầu và cung cấp tệp tin cần xử lý.
- Trợ lý AI này hiện tại chưa thể quét tệp tin để tìm virus, nhưng không loại trừ khả năng sẽ có thêm chức năng này trong tương lai.

📌 Microsoft đang mở rộng khả năng của AI Copilot, cho phép nó đọc và tóm tắt nội dung tệp tin mà không xâm phạm quyền riêng tư, với điều kiện người dùng phải chủ động thêm tệp vào. Tính năng này hứa hẹn sẽ làm tăng tính hữu ích của Copilot trong việc xử lý dữ liệu và thông tin.

Citations:
[1] https://www.techradar.com/computing/artificial-intelligence/microsofts-copilot-ai-can-now-read-your-files-directly-but-its-not-the-privacy-nightmare-it-sounds-like

ChatGPT đang có 'bộ nhớ' để ghi nhớ bạn là ai và bạn thích gì

- OpenAI đang triển khai tính năng "bộ nhớ" cho ChatGPT, cho phép bot nhớ thông tin về người dùng và các cuộc trò chuyện qua thời gian.
- Tính năng bộ nhớ hoạt động theo hai cách: người dùng có thể yêu cầu ChatGPT nhớ thông tin cụ thể hoặc ChatGPT có thể tự học và lưu trữ thông tin qua thời gian.
- Mục tiêu là để ChatGPT trở nên cá nhân hóa và thông minh hơn mà không cần được nhắc nhở mỗi lần.
- Mỗi GPT tùy chỉnh sẽ có bộ nhớ riêng, ví dụ như Books GPT sẽ nhớ những gì bạn thích đọc.
- OpenAI nhấn mạnh việc giữ quyền kiểm soát cho người dùng về bộ nhớ của ChatGPT và đã huấn luyện hệ thống để không nhớ những thông tin nhạy cảm.
- Người dùng có thể kiểm tra những gì ChatGPT biết về mình và yêu cầu bot quên đi thông tin hoặc xóa nó trong phần "Quản lý Bộ nhớ" của cài đặt.
- OpenAI cũng giới thiệu "Temporary Chat" như một chế độ ẩn danh, cho phép có cuộc trò chuyện nhanh mà không ảnh hưởng đến bộ nhớ của ChatGPT.
- Hiện tại, tính năng bộ nhớ chỉ đang được thử nghiệm với một "phần nhỏ" người dùng.

📌 Tính năng bộ nhớ của ChatGPT là một bước tiến quan trọng trong việc cá nhân hóa trải nghiệm người dùng, giúp ChatGPT trở nên thông minh và cá nhân hóa hơn mà không cần được nhắc nhở liên tục. OpenAI đang thực hiện các bước để đảm bảo quyền kiểm soát của người dùng đối với dữ liệu cá nhân và thông tin nhạy cảm, đồng thời cung cấp các tùy chọn để quản lý và xóa bộ nhớ của ChatGPT. Tính năng này, dù mới chỉ ở giai đoạn thử nghiệm, hứa hẹn sẽ trở thành một phần cốt lõi của trải nghiệm ChatGPT, giúp tạo ra một môi trường tương tác AI cá nhân hóa và an toàn hơn cho người dùng.

Citations:
[1] https://www.theverge.com/2024/2/13/24071106/chatgpt-memory-openai-ai-chatbot-history

'Bạn gái AI' là cơn ác mộng về quyền riêng tư

- Nghiên cứu mới từ Mozilla Foundation chỉ ra rằng các chatbot tình cảm như "bạn gái AI" hoặc "bạn trai AI" có nhiều vấn đề về bảo mật và quyền riêng tư.
- Các ứng dụng này đã được tải xuống hơn 100 triệu lần trên các thiết bị Android, thu thập lượng lớn dữ liệu cá nhân và sử dụng các tracker gửi thông tin đến Google, Facebook cũng như các công ty ở Nga và Trung Quốc.
- Người dùng có thể sử dụng mật khẩu yếu và các ứng dụng thiếu minh bạch về quyền sở hữu cũng như mô hình AI đang vận hành chúng.
- Kể từ khi OpenAI phát hành ChatGPT vào tháng 11 năm 2022, các nhà phát triển đã nhanh chóng triển khai các mô hình ngôn ngữ lớn và tạo ra các chatbot để tương tác và thu phí đăng ký.
- Các dịch vụ chatbot tình cảm thường có hình ảnh được tạo sinh bởi AI của phụ nữ, có thể mang tính chất gợi cảm hoặc đi kèm với thông điệp khiêu khích.
- Romantic AI là một dịch vụ cho phép người dùng "tạo bạn gái AI của riêng mình" với hình ảnh quảng cáo gợi cảm, nhưng tài liệu về quyền riêng tư của ứng dụng nói rằng họ sẽ không bán dữ liệu người dùng.
- Người dùng có thể không cân nhắc kỹ lưỡng về thông tin họ tiết lộ cho chatbot, bao gồm sở thích tình dục, vị trí, hoặc cảm xúc riêng tư, có thể gây hại cho danh tiếng nếu hệ thống chatbot bị hack hoặc dữ liệu bị rò rỉ.

📌 Các "bạn gái AI" và các dịch vụ chatbot tình cảm khác đang đặt ra những rủi ro lớn về quyền riêng tư và bảo mật thông tin cá nhân. Với hơn 100 triệu lượt tải xuống và việc sử dụng các tracker gửi thông tin đến các công ty lớn và quốc tế, người dùng cần phải cực kỳ cẩn trọng khi chia sẻ thông tin cá nhân. Mặc dù một số ứng dụng như Romantic AI tuyên bố không bán dữ liệu người dùng, nhưng vẫn còn nhiều vấn đề về minh bạch và an toàn dữ liệu. Người dùng nên áp dụng các biện pháp bảo mật tốt nhất như sử dụng mật khẩu mạnh, không đăng nhập qua Facebook hoặc Google, xóa dữ liệu và từ chối thu thập dữ liệu khi có thể.

Citations:
[1] https://www.wired.com/story/ai-girlfriends-privacy-nightmare/

Lựa chọn giữa LLM công cộng và riêng tư

- Các mô hình ngôn ngữ lớn (LLM) công cộng đặt ra thách thức cho doanh nghiệp khi xây dựng sở hữu trí tuệ (IP) độc đáo và giá trị trên cùng một công cụ công khai và sân chơi bình đẳng với mọi người khác.
- Việc tạo ra IP độc đáo từ công cụ công cộng là rất khó khăn, đây là lý do khiến nhiều tổ chức chuyển hướng sang các giải pháp LLM riêng tư và cấp doanh nghiệp.
- Sự xuất hiện của các LLM riêng tư đang trở thành trọng tâm chiến lược cho một số lượng ngày càng tăng của các tổ chức.

📌 Các LLM công cộng, mặc dù cung cấp một nền tảng chung cho tất cả mọi người, lại gây khó khăn trong việc xây dựng sở hữu trí tuệ độc đáo, khiến cho việc tạo ra giá trị cạnh tranh trở nên thách thức. Điều này đang thúc đẩy sự chuyển hướng sang các giải pháp LLM riêng tư, nơi các tổ chức có thể phát triển các giải pháp AI từ cốt lõi, tùy chỉnh theo nhu cầu và bảo mật dữ liệu của họ. Sự chuyển hướng này không chỉ giúp tạo ra IP độc đáo mà còn đảm bảo tính bảo mật và kiểm soát dữ liệu tốt hơn, đặc biệt quan trọng trong thời đại số hóa ngày nay.

Citations:
[1] https://www.infoworld.com/article/3712786/choosing-between-public-and-private-llms.html

Thông báo AI của Zuckerberg làm tăng cờ đỏ về quyền riêng tư và độc hại

- CEO Meta, Mark Zuckerberg, đã công bố kế hoạch sử dụng dữ liệu từ Facebook và Instagram để huấn luyện các hệ thống AI của công ty.
- Thông báo này đã gây ra nhiều mối quan tâm về quyền riêng tư và độc hại.
- Zuckerberg cho biết công ty có nhiều dữ liệu người dùng hơn so với việc huấn luyện ChatGPT.
- Công ty dự định sử dụng bài đăng và bình luận trên Facebook và Instagram để huấn luyện một chatbot cạnh tranh.
- Zuckerberg công bố kế hoạch này sau khi công bố báo cáo thu nhập mới nhất của công ty.
- Số lượng người dùng của Facebook vẫn đang tăng lên, theo kết quả tài chính mới nhất của Meta Platforms Inc.
- Zuckerberg không chỉ ăn mừng sự tăng trưởng này mà còn muốn tận dụng nó để tạo ra trí tuệ nhân tạo mạnh mẽ, đa dụng.

📌 Thông báo của CEO Meta, Mark Zuckerberg, về việc sử dụng dữ liệu người dùng từ Facebook và Instagram để huấn luyện các hệ thống AI của công ty đã gây ra nhiều mối quan tâm. Mặc dù số lượng người dùng của Facebook đang tăng, nhưng việc sử dụng dữ liệu người dùng để huấn luyện AI đặt ra những vấn đề về quyền riêng tư và độc hại. Điều này cho thấy rằng việc sử dụng AI trong các nền tảng xã hội cần phải được tiếp cận một cách cẩn thận và có sự kiểm soát chặt chẽ để đảm bảo quyền riêng tư và an toàn cho người dùng.

Citations:
[1] https://9to5mac.com/2024/02/06/zuckerbergs-ai-announcement/

GARANTE CỦA Ý TUYÊN BỐ CHATGPT CỦA OPENAI VI PHẠM CÁC QUY TẮC BẢO VỆ DỮ LIỆU

  • Cơ quan bảo vệ dữ liệu của Ý, Garante, đã cáo buộc ChatGPT của OpenAI vi phạm các quy định về bảo vệ dữ liệu, buộc OpenAI có 30 ngày để bảo vệ thực tiễn của mình.
  • OpenAI khẳng định việc tuân thủ pháp luật về quyền riêng tư của EU và nỗ lực giảm thiểu việc sử dụng dữ liệu cá nhân trong ChatGPT khi hợp tác với Garante trong cuộc điều tra.
  • Xu hướng quản lý rộng rãi ở EU đang tập trung vào việc quản lý các hệ thống AI như ChatGPT, nhấn mạnh quyền riêng tư dữ liệu và thực hành AI đạo đức.
  • Garante đã chủ động trong việc đánh giá tuân thủ của các nền tảng AI so với chế độ quyền riêng tư dữ liệu của EU. Trước đây, Garante đã cấm ChatGPT vì vi phạm quy định về quyền riêng tư của EU, sau đó dịch vụ được kích hoạt lại khi OpenAI giải quyết vấn đề về sự đồng ý của người dùng liên quan đến việc sử dụng dữ liệu cá nhân trong đào tạo thuật toán.
  • Garante cung cấp cho OpenAI, được hậu thuẫn bởi Microsoft, một khoảng thời gian 30 ngày để trình bày các luận cứ bảo vệ. Cuộc điều tra của Garante cũng sẽ xem xét kết quả và ý kiến của một nhóm nhiệm vụ châu Âu bao gồm các cơ quan giám sát quyền riêng tư quốc gia.
  • GDPR, được giới thiệu vào năm 2018, quy định rằng bất kỳ công ty nào vi phạm quy định bảo vệ dữ liệu có thể phải đối mặt với khoản phạt lên đến 4% của doanh thu toàn cầu của họ.

📌Cơ quan bảo vệ dữ liệu của Ý, Garante, đã cáo buộc ChatGPT của OpenAI vi phạm các quy định về bảo vệ dữ liệu, buộc OpenAI có 30 ngày để bảo vệ thực tiễn của mình. Trước đây, Garante đã cấm ChatGPT vì vi phạm quy định về quyền riêng tư của EU, sau đó dịch vụ được kích hoạt lại khi OpenAI giải quyết vấn đề về sự đồng ý của người dùng liên quan đến việc sử dụng dữ liệu cá nhân trong đào tạo thuật toán. Cuộc điều tra của Garante vào ChatGPT của OpenAI cho thấy tầm quan trọng của việc tuân thủ các quy định về bảo vệ dữ liệu ở Liên minh Châu Âu. 

Italia phạt thành phố đầu tiên vì vi phạm quyền riêng tư khi sử dụng AI

  • Cơ quan giám sát quyền riêng tư của Ý (GPDP) đã phạt thành phố Trento ở miền Bắc vì vi phạm quy định bảo vệ dữ liệu khi sử dụng trí tuệ nhân tạo (AI) trong các dự án giám sát đường phố.
  • Trento bị phạt 50.000 euro (tương đương 54.225 USD) và được yêu cầu xóa tất cả dữ liệu thu thập từ hai dự án được tài trợ bởi Liên minh Châu Âu. Đây là lần đầu tiên một quản trị địa phương ở Ý bị cơ quan giám sát GPDP xử phạt liên quan đến việc sử dụng dữ liệu từ công cụ AI.
  • GPDP, một trong những cơ quan của EU tích cực nhất trong việc đánh giá tuân thủ quy định về quyền riêng tư dữ liệu của các nền tảng AI, đã từng tạm thời cấm chatbot phổ biến ChatGPT tại Ý vào năm ngoái. Vào năm 2021, họ cũng nói rằng hệ thống nhận diện khuôn mặt được Bộ Nội vụ Ý thử nghiệm không tuân thủ luật quyền riêng tư.
  • Sau một cuộc điều tra kỹ lưỡng các dự án tại Trento, GPDP phát hiện "nhiều vi phạm của quy định quyền riêng tư", đồng thời nhận thấy rằng thành phố đã hành động với thiện ý. Cơ quan này chỉ ra rằng dữ liệu thu thập không được ẩn danh đủ mức và việc chia sẻ dữ liệu với bên thứ ba là không chính xác.
  • Thành phố Trento cho biết họ đang xem xét việc kháng cáo quyết định này. Chính quyền của Thủ tướng Ý Giorgia Meloni cho biết sẽ tập trung vào cuộc cách mạng AI trong nhiệm kỳ chủ tịch Nhóm Bảy (G7) các nền dân chủ lớn.
  • Vào tháng 12, các nhà lập pháp và chính phủ EU đã đồng ý với các điều khoản tạm thời để quản lý các hệ thống AI như ChatGPT, tiến gần hơn đến việc thiết lập quy tắc điều chỉnh công nghệ này. Điểm tranh cãi chính là việc sử dụng AI trong giám sát sinh trắc học.

📌 Cơ quan giám sát quyền riêng tư của Ý (GPDP) đã phạt thành phố Trento ở miền Bắc vì vi phạm quy định bảo vệ dữ liệu khi sử dụng trí tuệ nhân tạo (AI) trong các dự án giám sát đường phố. Trento bị phạt 50.000 euro (tương đương 54.225 USD) và được yêu cầu xóa tất cả dữ liệu thu thập từ hai dự án được tài trợ bởi Liên minh Châu Âu. Đây là lần đầu tiên một quản trị địa phương ở Ý bị cơ quan giám sát GPDP xử phạt liên quan đến việc sử dụng dữ liệu từ công cụ AI. Thành phố Trento cho biết họ đang xem xét việc kháng cáo quyết định này

Google Update tiết lộ AI sẽ bắt đầu đọc tất cả tin nhắn riêng tư của bạn

  • Google công bố nâng cấp AI đột phá cho Android, cho phép AI đọc và phân tích tin nhắn riêng tư.
  • AI mới tên Bard, giống ChatGPT, sẽ cải thiện trải nghiệm nhắn tin bằng cách phân tích ngữ cảnh, tông cảm xúc và sở thích cá nhân.
  • Bard sẽ cá nhân hóa câu trả lời dựa trên mối quan hệ với người nhận tin nhắn, nhưng điều này đặt ra vấn đề về quyền riêng tư.
  • Yêu cầu tin nhắn đến Bard sẽ được gửi đến đám mây, lưu trữ 18 tháng và có thể được xem bởi con người mặc dù đã được ẩn danh.
  • Google phải thuyết phục người dùng rằng việc phân tích tin nhắn không dẫn đến vi phạm quyền riêng tư như trước đây.
  • Apple, ngược lại, đang chú trọng phát triển AI trên thiết bị, và iOS 18 cũng được đồn đại sẽ có tính năng AI mới.
  • Bard khẳng định rằng phân tích sẽ diễn ra trên thiết bị và người dùng có quyền kiểm soát dữ liệu được phân tích.
  • Người dùng cần cân nhắc lợi ích và quyền riêng tư trước khi quyết định sử dụng tính năng phân tích tin nhắn.

📌 Bard, AI mới của Google, có khả năng phân tích tin nhắn riêng tư trên Android, gây ra mối quan ngại lớn về quyền riêng tư. Dữ liệu từ tin nhắn sẽ được lưu trữ trên đám mây trong 18 tháng và có thể được xem bởi con người sau khi được ẩn danh. Google cần chứng minh rằng nâng cấp này không vi phạm quyền riêng tư người dùng như các vụ bê bối trước đây. Người dùng phải cân nhắc giữa lợi ích của trải nghiệm nhắn tin cá nhân hóa và rủi ro mất quyền riêng tư khi sử dụng Bard.

Từ Deepfake đến Deepfame: Sự phức tạp của quyền công khai trong thế giới AI

  • Sự quan tâm đến trí tuệ nhân tạo (AI) tăng vọt trong năm qua, với xu hướng tạo ra phiên bản AI của bản thân, thay đổi hình ảnh của người khác bằng AI, và sử dụng hình ảnh đầu tư bởi AI.
  • Sự xuất hiện của những nhân vật AI như "Jen AI", bản sao AI của Jennifer Lopez, và sự nổi lên của những người ảnh hưởng ảo đã thay đổi cách thức tiếp thị và quảng cáo sản phẩm.
  • Vấn đề về quyền công bố cá nhân trở nên phức tạp khi áp dụng cho AI, đặt ra những câu hỏi pháp lý khó khăn cho các luật sư.
  • Quyền công bố cá nhân là khái niệm pháp lý cho phép cá nhân bảo vệ tên, hình ảnh, hình dạng hoặc các thuộc tính nhận dạng khác khỏi việc sử dụng không được phép.
  • Ở California, cá nhân có quyền kiểm soát việc sử dụng thương mại tên, giọng nói, chữ ký, ảnh hoặc hình dạng của mình.
  • Các vấn đề về việc sử dụng AI để tạo ra giọng nói, hình ảnh và các thuộc tính nhận dạng khác mà không có sự đồng ý có thể vi phạm quyền công bố cá nhân.
  • Sự xuất hiện của các nhân vật AI và deepfake đã đặt ra câu hỏi về quyền sở hữu và bảo vệ quyền công bố cá nhân trong môi trường kỹ thuật số.
  • Các trường hợp pháp lý hiện tại chưa thiết lập tiền lệ rõ ràng, và sự thiếu hướng dẫn pháp lý có thể dẫn đến nhiều vụ kiện liên quan đến sử dụng tác phẩm AI và quyền công bố cá nhân.

📌 Trong bối cảnh công nghệ phát triển nhanh chóng, việc xác định và điều chỉnh các quy định về quyền công bố cá nhân trong lĩnh vực AI trở nên cần thiết và phức tạp. Quyền công bố cá nhân cần được xem xét lại để bảo vệ cá nhân khỏi việc sử dụng hình ảnh, giọng nói và các thuộc tính nhận dạng của họ mà không có sự đồng ý, đồng thời cân nhắc đến lợi ích tiềm năng của việc sử dụng AI. Vấn đề này đòi hỏi sự cân nhắc cẩn thận giữa bảo vệ quyền cá nhân và tự do ngôn luận cũng như biểu đạt nghệ thuật.

Harvard khám phá các giới hạn của quyền riêng tư trong AI: Khảo sát toàn diện về các thách thức và giải pháp về quyền riêng tư của các mô hình ngôn ngữ lớn

  • Bài nghiên cứu từ SAFR AI Lab thuộc Harvard Business School khám phá vấn đề riêng tư trong AI, đặc biệt là mô hình ngôn ngữ lớn (LLMs).
  • Nghiên cứu tập trung vào việc "red-teaming" các mô hình để chỉ ra rủi ro về riêng tư, tích hợp việc bảo mật vào quá trình đào tạo, xoá dữ liệu một cách hiệu quả khỏi các mô hình đã đào tạo, và giảm thiểu vi phạm bản quyền.
  • Thách thức là phân biệt việc ghi nhớ mong muốn với việc xâm phạm quyền riêng tư. Các nhà nghiên cứu đưa ra giới hạn của bộ lọc ghi nhớ đúng nghĩa và phức tạp của luật sử dụng công bằng trong việc xác định vi phạm bản quyền.
  • Bài báo cũng điểm qua các bộ dữ liệu được sử dụng để đào tạo LLMs như AG News Corpus và BigPatent-G, bao gồm các bài báo tin tức và tài liệu bằng sáng chế Mỹ.
  • Các giải pháp kỹ thuật như quyền riêng tư theo phân biệt (differential privacy), học tập liên kết (federated learning), và "machine unlearning" để xoá dữ liệu nhạy cảm khỏi mô hình đã được thảo luận.
  • Bài khảo sát cung cấp cái nhìn toàn diện về thách thức riêng tư trong LLMs, đề xuất phương pháp giải quyết và chứng minh hiệu quả của các giải pháp này, đồng thời nhấn mạnh tầm quan trọng của việc giải quyết mối quan tâm về riêng tư trong LLMs để đảm bảo triển khai an toàn và đạo đức.

📌 Bài nghiên cứu từ Harvard đề cập đến các thách thức và giải pháp về quyền riêng tư trong AI, đặc biệt là trong mô hình ngôn ngữ lớn (LLMs). Nói đến sự cần thiết của việc nghiên cứu và phát triển liên tục để đối phó với giao điểm phức tạp giữa quyền riêng tư, bản quyền và công nghệ AI. Đề xuất các giải pháp như differential privacy, federated learning và machine unlearning được chứng minh là hiệu quả, điều này là cần thiết để đảm bảo triển khai LLMs một cách an toàn và đạo đức.

Cách đảm bảo quyền riêng tư dữ liệu trong thế giới ChatGPT

  • CISOs và CIOs cần cân nhắc giữa việc hạn chế dữ liệu nhạy cảm và sử dụng công cụ AI tạo sinh để cải thiện quy trình và năng suất công việc.
  • Theo nghiên cứu của LayerX, 15% nhân viên thường xuyên đăng dữ liệu vào công cụ AI như ChatGPT, trong đó 6% thừa nhận đã chia sẻ dữ liệu nhạy cảm.
  • Các đội ngũ an ninh mạng lo ngại về việc ngăn chặn việc nhập thông tin cá nhân và thông tin doanh nghiệp độc quyền vào công cụ AI tạo sinh.
  • Cần xây dựng các giao thức an ninh để ngăn chặn rò rỉ thông tin nhạy cảm.
  • Max Shier, Phó chủ tịch và CISO của Optiv, nhấn mạnh sự cần thiết của việc cân bằng giữa kích hoạt và giảm thiểu rủi ro, đặc biệt liên quan đến luật bảo mật và bảo vệ thông tin bí mật công ty.
  • Các tổ chức cần chính sách và kiểm soát dữ liệu cụ thể để bảo vệ dữ liệu khi sử dụng AI tạo sinh.
  • Các CISO và CIO cần quản lý việc hạn chế dữ liệu nhạy cảm khỏi các công cụ AI tạo sinh trong khi vẫn đáp ứng nhu cầu kinh doanh.
  • Điều này cần phải được thực hiện trong khi tuân thủ các quy định pháp luật.
  • John Allen, Phó chủ tịch về rủi ro mạng và tuân thủ của Darktrace, cho biết cần đảm bảo rằng dữ liệu nhạy cảm không được sử dụng trong LLMs.
  • Craig Jones, Phó chủ tịch về hoạt động an ninh của Ontinue, nhấn mạnh tầm quan trọng của việc duy trì tuân thủ và bảo mật dữ liệu nhạy cảm.
  • Các công ty AI đang nỗ lực bảo vệ dữ liệu nhạy cảm, bổ sung các biện pháp an ninh như mã hóa và đạt chứng nhận bảo mật như SOC2.
  • Vẫn còn nhiều thách thức trong việc xác định và xóa dữ liệu nhạy cảm từ các mô hình, đặc biệt với thông tin cá nhân (PII) theo các quy định tuân thủ dữ liệu nghiêm ngặt.

📌 Trong môi trường doanh nghiệp hiện đại, việc bảo vệ dữ liệu nhạy cảm trước những rủi ro từ AI tạo sinh là một thách thức lớn. Nghiên cứu của LayerX chỉ ra rằng trong số những nhân viên sử dụng công cụ AI như ChatGPT, có 15% thường xuyên nhập dữ liệu vào công cụ này và 6% trong số đó thừa nhận đã chia sẻ dữ liệu nhạy cảm. Điều này đòi hỏi các CISO và CIO phải nhanh chóng đáp ứng bằng cách thiết lập các giao thức an ninh mạnh mẽ, đồng thời đảm bảo tuân thủ các quy định pháp luật. Việc áp dụng một chương trình bảo mật dữ liệu chín muồi, cùng với đào tạo người dùng AI cụ thể, là những bước quan trọng để giảm thiểu nguy cơ rò rỉ thông tin. 

OpenAI chuyển sang giảm rủi ro pháp lý ở EU xung quanh quyền riêng tư dữ liệu

OpenAI, nhà sản xuất của ChatGPT, gần đây đã gửi email thông báo về bản cập nhật các điều khoản sử dụng mới, nhằm giảm rủi ro pháp lý tại Liên minh Châu Âu (EU). Điều này diễn ra trong bối cảnh công nghệ của OpenAI đang được xem xét sớm tại khu vực này về ảnh hưởng của ChatGPT đối với quyền riêng tư của người dùng, với một số cuộc điều tra mở từ các cơ quan giám sát ở Ý và Ba Lan liên quan đến cách chatbot xử lý thông tin của người dùng và dữ liệu mà nó có thể tạo ra về cá nhân họ.

Theo thông báo mới từ OpenAI, công ty đã thay đổi thực thể pháp lý cung cấp dịch vụ như ChatGPT cho cư dân ở Khu vực Kinh tế Châu Âu (EEA) và Thụy Sĩ sang công ty con của họ tại Ireland, OpenAI Ireland Limited. Các điều khoản sử dụng mới, với công ty con có trụ sở tại Dublin là người điều khiển dữ liệu cho người dùng ở EEA và Thụy Sĩ, nơi quy định Bảo vệ Dữ liệu Chung của EU (GDPR) được áp dụng, sẽ bắt đầu có hiệu lực từ ngày 15 tháng 2 năm 2024.

Cơ chế "one-stop-shop" (OSS) của GDPR cho phép các công ty xử lý dữ liệu của người dân Châu Âu tối ưu hóa việc giám sát quyền riêng tư dưới sự điều khiển của một cơ quan giám sát dữ liệu chính đặt tại một quốc gia thành viên của EU. Điều này giảm khả năng các cơ quan giám sát quyền riêng tư ở các nơi khác trong khối tự động hành động về những lo ngại của họ, mà thay vào đó họ thường chuyển các khiếu nại về người giám sát chính của công ty để xem xét.

Mặc dù các cuộc điều tra GDPR hiện tại về ChatGPT, như của Ý và Ba Lan, vẫn có thể ảnh hưởng đến việc quy định khu vực của chatbot AI sinh động này của OpenAI, nhưng vẫn chưa rõ ràng về mức độ ảnh hưởng của chúng.

📌 OpenAI đã mở văn phòng tại Dublin vào tháng 9 năm ngoái và hiện đang tuyển dụng một số vị trí tại đây. Việc OpenAI thiết lập trụ sở tại Dublin và đặt OpenAI Ireland Limited là người điều khiển dữ liệu cho người dùng ở Châu Âu có thể giúp công ty này tuân thủ các quy định GDPR và giảm thiểu rủi ro pháp lý liên quan đến quyền riêng tư. Điều này cho thấy xu hướng của các công ty công nghệ lớn lựa chọn Ireland làm trung tâm của họ tại EU, cùng với các công ty khác như Apple, Google, Meta, TikTok và X.

CHUYÊN GIA CẢNH BÁO KHÔNG CHIA SẺ THÔNG TIN CÁ NHÂN VỚI CHATBOTS

  • Bài viết trên Cryptopolitan đề cập đến vấn đề chia sẻ thông tin cá nhân với các chatbot, một chủ đề quan trọng trong thời đại số.
  • Tăng cường sử dụng chatbot trong nhiều lĩnh vực đã dẫn đến lo ngại về việc bảo mật và bảo vệ dữ liệu cá nhân.
  • Bài viết nhấn mạnh rằng, mặc dù chatbot mang lại nhiều lợi ích như tiện ích và hiệu quả, người dùng cần thận trọng khi chia sẻ thông tin cá nhân.
  • Một số chatbot được thiết kế để thu thập thông tin nhằm cung cấp dịch vụ tốt hơn, nhưng điều này cũng tạo ra rủi ro về an ninh dữ liệu.
  • Tác giả khuyến nghị người dùng nên kiểm tra chính sách bảo mật và chỉ chia sẻ thông tin cần thiết khi giao tiếp với chatbot.
  • Bài viết cũng đề cập đến trách nhiệm của các doanh nghiệp trong việc xây dựng chatbot an toàn và tuân thủ quy định bảo mật.
  • Tóm lại, việc bảo vệ thông tin cá nhân trong môi trường số phụ thuộc vào sự cẩn trọng của người dùng và trách nhiệm của các nhà cung cấp dịch vụ.

📌 Trong bối cảnh chatbot ngày càng phổ biến, bài viết từ Cryptopolitan nhấn mạnh tầm quan trọng của việc bảo vệ thông tin cá nhân. Người dùng cần thận trọng khi chia sẻ dữ liệu và các doanh nghiệp phải đảm bảo xây dựng chatbot an toàn và tuân thủ quy định bảo mật.

LOA THÔNG MINH AI – NGƯỜI BẢO VỆ THẦM LẶNG CHỐNG LẠI BẠO LỰC GIA ĐÌNH

  • Các nhà nghiên cứu đề xuất rằng loa thông minh AI, được trang bị cảm biến tiên tiến, có thể đóng vai trò quan trọng trong việc phát hiện bạo lực gia đình theo thời gian thực, có khả năng cứu mạng người.
  • Loa thông minh như Amazon Echo, Apple Homepod, hoặc Google Nest có thể sử dụng cảm biến hồng ngoại, micro, và camera để thu thập thông tin chi tiết về ngôi nhà và dự đoán các vụ việc bạo lực.
  • Mặc dù công nghệ này hứa hẹn, nhưng cũng có những lo ngại về vấn đề quyền riêng tư, việc tăng cường giám sát nạn nhân, và nhu cầu đầu vào từ người sống sót trong việc định hình chính sách xung quanh các thiết bị AI này.

📌 Nghiên cứu này mở ra một hướng mới trong việc sử dụng công nghệ AI để chống lại bạo lực gia đình, nhưng cũng đặt ra nhiều thách thức về quyền riêng tư và an toàn. Sự cân nhắc giữa lợi ích và rủi ro khi triển khai những thiết bị thông minh này sẽ quyết định vai trò của chúng trong tương lai của việc bảo vệ và hỗ trợ nạn nhân bạo lực gia đình.

FTC cấm Rite Aid sử dụng giám sát nhận dạng khuôn mặt trong 5 năm

  • Bài viết từ VentureBeat thông báo về quyết định của FTC cấm Rite Aid sử dụng giám sát nhận dạng khuôn mặt trong năm năm.
  • FTC xác định rằng Rite Aid đã sử dụng công nghệ này mà không thông báo rõ ràng cho khách hàng và nhân viên.
  • Cấm đoán này là kết quả của quan ngại về quyền riêng tư và sự không chính xác của công nghệ nhận dạng khuôn mặt.
  • Bài viết nêu bật sự lo ngại về việc sử dụng công nghệ giám sát trong bán lẻ và tác động đến quyền cá nhân.
  • FTC cũng yêu cầu Rite Aid phải xóa dữ liệu đã thu thập từ công nghệ nhận dạng khuôn mặt.
  • Quyết định của FTC nhấn mạnh sự cần thiết của việc tuân thủ các chuẩn mực đạo đức và quy định pháp luật khi sử dụng công nghệ AI.
  • Kết luận rằng việc quản lý chặt chẽ việc sử dụng công nghệ nhận dạng khuôn mặt là quan trọng để bảo vệ quyền riêng tư và tránh sai lầm.

📌 Quyết định của FTC cấm Rite Aid sử dụng công nghệ nhận dạng khuôn mặt là bước tiến trong việc bảo vệ quyền riêng tư và đặt ra tiêu chuẩn trong việc sử dụng công nghệ giám sát, nhấn mạnh sự cần thiết của việc tuân thủ đạo đức và quy định pháp luật.

KHẢO SÁT CỦA ACCENTURE TIẾT LỘ NGƯỜI MUA SẮM Ở IRELAND CÓ CẢM XÚC LẪN LỘN ĐỐI VỚI AI TRONG BÁN LẺ

  • Bài viết nghiên cứu về thái độ của người tiêu dùng Ireland đối với việc sử dụng AI trong ngành bán lẻ.
  • Phản ánh cảm xúc trái chiều: một số khách hàng thấy lợi ích của AI trong việc cá nhân hóa trải nghiệm mua sắm, trong khi một số khác lo lắng về quyền riêng tư và mất việc làm.
  • Đề cập đến việc AI giúp cải thiện hiệu suất, dự đoán xu hướng và quản lý tồn kho trong bán lẻ.
  • Bài viết cũng nêu ra sự quan tâm về việc AI có thể thu thập dữ liệu cá nhân mà không có sự đồng ý rõ ràng của người tiêu dùng.
  • Thảo luận về tác động của AI đến ngành công nghiệp bán lẻ, bao gồm việc tạo ra cơ hội mới và thách thức trong việc bảo vệ quyền riêng tư.
  • Kết luận rằng việc cân nhắc giữa lợi ích và mối quan ngại của AI trong bán lẻ là quan trọng, và cần sự chú ý đến quyền riêng tư và an ninh dữ liệu.

📌 Bài viết phản ánh thái độ phức tạp của người tiêu dùng Ireland đối với AI trong ngành bán lẻ, từ việc cá nhân hóa trải nghiệm mua sắm đến lo ngại về quyền riêng tư và tác động đến việc làm, đòi hỏi cân nhắc kỹ lưỡng về lợi ích và rủi ro.

OPENAI ỦY QUYỀN CHO NHÓM AN TOÀN CHỐNG LẠI SỰ PHÁT TRIỂN AI CÓ RỦI RO CAO

  • Bài viết trên Cryptopolitan tập trung vào nhóm An toàn của OpenAI và nỗ lực của họ trong việc xử lý các phát triển AI có rủi ro cao.
  • Nhóm An toàn OpenAI đang nỗ lực để đảm bảo rằng các phát triển AI không gây hại cho xã hội.
  • Họ tập trung vào việc nghiên cứu và phát triển các cơ chế an toàn, bao gồm cả kiểm soát và giảm thiểu rủi ro.
  • Mục tiêu của nhóm là tạo ra một môi trường AI an toàn, đáng tin cậy và có trách nhiệm.
  • Bài viết nhấn mạnh tầm quan trọng của việc xem xét đạo đức và an toàn trong quá trình phát triển AI.
  • OpenAI cam kết đối mặt với những thách thức về quyền riêng tư, an ninh mạng và đạo đức trong phát triển AI.
  • Nhóm An toàn cũng đang nghiên cứu các cách tiếp cận mới để phòng chống đầu độc dữ liệu và các mối đe dọa khác trong AI.

Bài viết từ Cryptopolitan mô tả công việc của Nhóm An toàn OpenAI, nhấn mạnh nỗ lực của họ trong việc đảm bảo an toàn và đạo đức trong phát triển AI, cũng như ứng phó với các thách thức như quyền riêng tư, an ninh mạng và đầu độc dữ liệu.

Mozilla muốn giúp bạn tạo AI của riêng mình nhưng không có đám mây

  • Bài viết trên Android Police báo cáo về dự án mới của Mozilla với AI, tập trung vào việc lưu trữ dữ liệu AI trên đám mây cục bộ.
  • Mozilla phát triển hệ thống cho phép người dùng tận dụng AI mà không cần chia sẻ dữ liệu cá nhân lên đám mây công cộng.
  • Dự án này nhằm tăng cường quyền riêng tư và an toàn dữ liệu cho người dùng khi sử dụng các dịch vụ AI.
  • Hệ thống của Mozilla cho phép xử lý và phân tích dữ liệu ngay tại thiết bị của người dùng, giảm thiểu rủi ro về an ninh mạng.
  • Điều này cũng giúp giảm sự phụ thuộc vào các máy chủ trung tâm và cung cấp giải pháp an toàn hơn cho dữ liệu nhạy cảm.
  • Bài viết cũng nhấn mạnh sự cần thiết của việc phát triển các công nghệ AI tôn trọng quyền riêng tư của người dùng.
  • Mozilla đang nỗ lực tạo ra một mô hình AI có khả năng tự học và cải thiện mà không cần truy cập vào dữ liệu lớn từ máy chủ.

Bài viết từ Android Police giới thiệu dự án của Mozilla về lưu trữ dữ liệu AI trên đám mây cục bộ, nhằm tăng cường quyền riêng tư và an ninh dữ liệu, giảm sự phụ thuộc vào đám mây công cộng và phát triển công nghệ AI tôn trọng quyền riêng tư người dùng.

Chủ sở hữu TikTok ByteDance cho biết việc sử dụng công nghệ OpenAI tuân thủ các điều khoản dịch vụ

  • Bài viết trên South China Morning Post nói về việc công ty sở hữu TikTok, ByteDance, thông báo sử dụng công nghệ của OpenAI để đảm bảo tuân thủ các điều khoản dịch vụ.
  • ByteDance dự định sử dụng AI của OpenAI để phân tích và xác định nội dung vi phạm các quy tắc cộng đồng trên TikTok.
  • Mục tiêu chính là tự động hóa quá trình xác định và quản lý nội dung không phù hợp, bao gồm thông tin sai lệch, nội dung gây hại và spam.
  • Việc sử dụng AI trong quản lý nội dung sẽ giúp tăng cường hiệu quả và độ chính xác, đồng thời giảm thiểu sự phụ thuộc vào đánh giá thủ công.
  • Bài viết cũng đề cập đến những thách thức liên quan đến việc sử dụng AI cho quản lý nội dung, bao gồm vấn đề về quyền riêng tư và nguy cơ xóa bỏ nội dung hợp pháp.
  • ByteDance không chỉ xem xét việc sử dụng AI để quản lý nội dung mà còn muốn cải thiện khả năng phát hiện tự động của nền tảng.
  • Bài viết kết luận rằng, việc sử dụng công nghệ AI của OpenAI sẽ giúp ByteDance tối ưu hóa quy trình quản lý nội dung trên TikTok, nhưng cũng cần lưu ý đến các vấn đề đạo đức và quyền riêng tư.

Kết luận: ByteDance, công ty sở hữu TikTok, thông báo sẽ sử dụng công nghệ AI của OpenAI để tự động hóa và tối ưu hóa quá trình quản lý nội dung. Mục tiêu là tăng cường hiệu quả và độ chính xác trong việc xác định nội dung không phù hợp, mặc dù vẫn cần xem xét kỹ lưỡng về các vấn đề đạo đức và quyền riêng tư.

Mục tiêu của Google dành cho Gemini AI trong những năm tới là gì?

- Google hướng đến phát triển AI tạo sinh Gemini với các mục tiêu chính: phát triển AI đạo đức, cải thiện trải nghiệm người dùng, đổi mới nghiên cứu, tích hợp sản phẩm, tiếp cận toàn cầu, phát triển bền vững, hợp tác, giải quyết thách thức toàn cầu, bảo mật dữ liệu và thích ứng với quy định.

- Google nhấn mạnh vào việc xây dựng nguyên tắc sử dụng AI đạo đức, bao gồm việc thiết lập hướng dẫn chi tiết, đảm bảo công bằng và bảo mật thông tin cá nhân.

- Gemini AI nhằm nâng cao trải nghiệm người dùng qua khả năng xử lý ngôn ngữ tự nhiên, tích hợp chặt chẽ với các dịch vụ của Google.

- Google cam kết đổi mới trong nghiên cứu AI, phát triển các thuật toán ML tiên tiến và nâng cao công nghệ nhận dạng hình ảnh và hiểu ngôn ngữ tự nhiên.

- Gemini AI được tích hợp vào nhiều sản phẩm và dịch vụ, nhằm mục tiêu làm cho AI trở thành phần không thể thiếu trong trải nghiệm người dùng.

- Google tập trung vào mục tiêu tiếp cận và hòa nhập toàn cầu, làm cho AI phù hợp với nhu cầu đa dạng của người dùng trên khắp thế giới.

- Phát triển AI bền vững và giảm thiểu tác động môi trường là một phần trong cam kết của Google.

- Google tìm kiếm cơ hội hợp tác với các tổ chức giáo dục, công nghiệp và chính phủ để cùng nhau thúc đẩy sự phát triển của AI.

- Google sử dụng AI để giải quyết các vấn đề lớn như chăm sóc sức khỏe, giáo dục và biến đổi khí hậu.

- Đảm bảo an toàn dữ liệu và quyền riêng tư là một phần không thể thiếu trong quá trình phát triển Gemini AI.

 

Tóm lại, Google đặt ra các mục tiêu quan trọng cho Gemini AI nhằm định hình tương lai của công nghệ AI. Với những cam kết về đạo đức, trải nghiệm người dùng, đổi mới nghiên cứu, tích hợp sản phẩm, tiếp cận toàn cầu, phát triển bền vững, hợp tác, giải quyết thách thức toàn cầu và bảo mật dữ liệu, Google không chỉ muốn cải tiến các dịch vụ của mình mà còn nhắm đến việc tạo ra ảnh hưởng tích cực đối với xã hội và môi trường.

AI tạo sinh khiến chúng ta ngạc nhiên vào năm 2023 - nhưng mọi phép thuật đều phải trả giá

- AI tạo sinh đã mang lại niềm kinh ngạc trong năm 2023, nhưng cũng đặt ra những mối lo ngại.

- AI được sử dụng rộng rãi trong việc tạo ra nội dung, từ văn bản đến hình ảnh và âm nhạc.

- Các vấn đề đạo đức và quản lý quyền sở hữu trí tuệ trở nên cấp bách khi AI tạo sinh ngày càng phát triển.

- Các nguy cơ về quyền riêng tư và an ninh mạng tăng cao với sự xuất hiện của AI tạo sinh.

- Công nghệ nguồn mở và các nền tảng multimodal mở ra cơ hội mới nhưng cũng tạo ra thách thức trong việc kiểm soát và quản lý.

- Việc sử dụng watermark và các biện pháp bảo vệ quyền sở hữu đang được nghiên cứu để ngăn chặn việc sử dụng và phổ biến không kiểm soát.

- Sự phơi nhiễm của người dùng với AI vô danh cũng đặt ra câu hỏi về tính xác thực và tin cậy của thông tin.

 

Kết luận: Năm 2023 chứng kiến sự bùng nổ của AI tạo sinh, đem lại những đột phá về khả năng tạo ra nội dung đa dạng và phong phú. Tuy nhiên, những lo ngại về đạo đức, quyền sở hữu và an ninh mạng cũng đồng thời nảy sinh. Các giải pháp bảo vệ như watermark và quy định về quản lý và sử dụng đã và đang được phát triển để đối phó với những thách thức này.

 

 

Việc chia một AI lớn trên nhiều thiết bị cho phép bạn chạy nó ở chế độ riêng tư

- AI mạnh mẽ dựa trên các mô hình ngôn ngữ lớn có thể được chia nhỏ để chạy trên nhiều smartphone.

- Việc này cho phép người dùng sử dụng AI local mà không cần dựa vào dữ liệu từ các trung tâm dịch vụ đám mây.

- Sangeetha Abdu Jyothi từ Đại học California, Irvine, cho biết động cơ chính là quyền riêng tư.

- Người dùng sẽ không cần chia sẻ truy vấn nhạy cảm hoặc thông tin cá nhân với công ty công nghệ.

- Cách tiếp cận này giúp giảm sự phụ thuộc vào các dịch vụ trực tuyến và tăng cường bảo mật dữ liệu cá nhân.

 

Kết luận: Việc chia sẻ AI lớn qua nhiều thiết bị di động không chỉ giúp tăng cường quyền riêng tư mà còn giảm bớt sự phụ thuộc vào các dịch vụ đám mây, qua đó cải thiện bảo mật dữ liệu cá nhân trong thời đại số.

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo