Hướng dẫn sử dụng AI tạo sinh cho các cơ quan chính phủ Canada (P1)

  • Chính phủ Canada khuyến khích các cơ quan liên bang khám phá cách sử dụng công cụ AI tạo sinh để hỗ trợ hoạt động và cải thiện kết quả cho người dân Canada.

  • Hướng dẫn đưa ra các nguyên tắc FASTER (Công bằng, Trách nhiệm, An toàn, Minh bạch, Được giáo dục, Phù hợp) để sử dụng AI tạo sinh có trách nhiệm.

  • Các cơ quan cần đánh giá và giảm thiểu rủi ro trước khi sử dụng, chỉ sử dụng cho các hoạt động có thể quản lý rủi ro hiệu quả.

  • Không nên sử dụng AI tạo sinh cho các quyết định hành chính do thiếu khả năng giải thích và minh bạch.

  • Cần tuân thủ nghiêm ngặt các yêu cầu về quyền riêng tư khi xử lý thông tin cá nhân bằng AI tạo sinh.

  • Các thực tiễn tốt nhất bao gồm: không nhập thông tin nhạy cảm vào công cụ không do chính phủ quản lý, xem xét nội dung được tạo ra để đảm bảo chính xác và không thiên vị, chỉ rõ khi nội dung được tạo bởi AI.

  • Cần cân nhắc tác động môi trường của việc phát triển và sử dụng hệ thống AI tạo sinh, như lượng khí thải nhà kính và tiêu thụ nước.

  • Hướng dẫn sẽ được cập nhật thường xuyên để theo kịp những thay đổi về quy định và công nghệ.

📌 Chính phủ Canada đưa ra hướng dẫn toàn diện về sử dụng AI tạo sinh có trách nhiệm cho các cơ quan liên bang, tập trung vào các nguyên tắc FASTER và thực tiễn tốt nhất để giảm thiểu rủi ro. Hướng dẫn khuyến khích khám phá cẩn trọng tiềm năng của AI tạo sinh đồng thời nhấn mạnh tầm quan trọng của việc bảo vệ quyền riêng tư, tính chính xác và công bằng.

https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-use-generative-ai.html

Hướng dẫn về việc sử dụng trí tuệ nhân tạo tạo sinh

Tổng quan
Các công cụ trí tuệ nhân tạo tạo sinh (AI) mang lại nhiều lợi ích tiềm năng cho các tổ chức của Chính phủ Canada (GC). Các tổ chức liên bang nên khám phá các ứng dụng tiềm năng của công cụ AI tạo sinh để hỗ trợ và cải thiện hoạt động của họ, nhưng không nên sử dụng các công cụ này trong mọi trường hợp. Các tổ chức phải thận trọng và đánh giá rủi ro trước khi bắt đầu sử dụng. Họ cũng nên giới hạn việc sử dụng các công cụ này trong những trường hợp có thể quản lý rủi ro một cách hiệu quả.

Tài liệu này cung cấp hướng dẫn cho các tổ chức liên bang về việc sử dụng công cụ AI tạo sinh. Điều này bao gồm các trường hợp tổ chức liên bang triển khai các công cụ này. Tài liệu cung cấp tổng quan về AI tạo sinh, xác định các thách thức liên quan đến việc sử dụng, đưa ra các nguyên tắc để sử dụng có trách nhiệm, và đề xuất các cân nhắc chính sách cùng thực tiễn tốt nhất.

Hướng dẫn này cũng nhằm nâng cao nhận thức và thúc đẩy sự phối hợp giữa các tổ chức liên bang. Tài liệu nhấn mạnh tầm quan trọng của việc thu hút các bên liên quan chính trước khi triển khai công cụ AI tạo sinh cho công chúng sử dụng và trước khi sử dụng chúng cho các mục đích như cung cấp dịch vụ.

Các bên liên quan bao gồm:

cố vấn pháp lý
chuyên gia về quyền riêng tư và bảo mật
Văn phòng Giám đốc Thông tin tại Ban Thư ký Hội đồng Ngân khố Canada (TBS)
đại diện thương lượng
nhóm cố vấn
khách hàng của dịch vụ GC
Hướng dẫn này bổ sung và hỗ trợ tuân thủ nhiều luật và chính sách liên bang hiện có, bao gồm các lĩnh vực quyền riêng tư, bảo mật, sở hữu trí tuệ và quyền con người.

Phiên bản thứ hai của hướng dẫn này kết hợp phản hồi từ các bên liên quan nội bộ và chuyên gia bên ngoài.

Tài liệu sẽ được cập nhật thường xuyên để theo kịp sự thay đổi quy định và công nghệ.

Để hỗ trợ công chức đang cân nhắc sử dụng các công cụ này trong công việc hàng ngày, một bản tóm tắt ngắn gọn của hướng dẫn này cung cấp những điều nên và không nên làm cũng có sẵn.

AI tạo sinh là gì?
Chỉ thị về Ra quyết định tự động định nghĩa AI là công nghệ thông tin thực hiện các nhiệm vụ thông thường đòi hỏi sức mạnh não bộ sinh học để hoàn thành, chẳng hạn như hiểu ngôn ngữ nói, học hành vi hoặc giải quyết vấn đề.

AI tạo sinh là một loại AI tạo ra nội dung như văn bản, âm thanh, mã, video và hình ảnh. Chú thích1 Nội dung này được tạo ra dựa trên thông tin người dùng nhập vào, gọi là "prompt", thường là một đoạn văn bản hướng dẫn ngắn.

Ví dụ về công cụ AI tạo sinh:

mô hình ngôn ngữ lớn (LLM) như ChatGPT, Copilot và LLaMA
GitHub Copilot và FauxPilot, tạo mã dựa trên lời nhắc văn bản
DALL-E, Midjourney và Stable Diffusion, tạo hình ảnh từ lời nhắc văn bản hoặc hình ảnh
Các ví dụ này bao gồm cả mô hình độc quyền và mã nguồn mở. Cả hai loại đều có ưu điểm và nhược điểm riêng về chi phí, hiệu năng, khả năng mở rộng, bảo mật, minh bạch và hỗ trợ người dùng.

Ngoài ra, mô hình AI tạo sinh có thể được tinh chỉnh, hoặc mô hình tùy chỉnh có thể được đào tạo và triển khai để đáp ứng nhu cầu của tổ chức. Chú thích2

Nhiều mô hình AI tạo sinh đã được đào tạo trên khối lượng dữ liệu lớn, bao gồm dữ liệu có thể truy cập công khai từ Internet. Dựa trên dữ liệu đào tạo, các mô hình này tạo ra nội dung có khả năng thống kê cao để đáp ứng lời nhắc, Chú thích3 ví dụ, bằng cách dự đoán từ tiếp theo trong câu. Các kỹ thuật như giám sát con người và học tăng cường cũng có thể được áp dụng để cải thiện hơn nữa đầu ra, Chú thích3 và người dùng có thể cung cấp phản hồi hoặc sửa đổi lời nhắc để tinh chỉnh phản hồi. Do đó, AI tạo sinh có thể tạo ra nội dung trông giống như do con người tạo ra.

AI tạo sinh có thể được sử dụng để thực hiện hoặc hỗ trợ các nhiệm vụ như:

viết và chỉnh sửa tài liệu và email
tạo hình ảnh cho bài thuyết trình
nhiệm vụ lập trình, như gỡ lỗi và tạo mẫu cùng giải pháp phổ biến
tóm tắt thông tin
động não
nghiên cứu, dịch thuật và học tập
cung cấp hỗ trợ cho khách hàng (ví dụ, trả lời câu hỏi, xử lý sự cố)


Thách thức và cơ hội
Trước khi các tổ chức liên bang bắt đầu sử dụng công cụ AI tạo sinh, họ phải đánh giá và giảm thiểu một số rủi ro về đạo đức, pháp lý và các rủi ro khác. Ví dụ, các công cụ này có thể tạo ra nội dung không chính xác; khuếch đại thành kiến; và vi phạm sở hữu trí tuệ, quyền riêng tư và các luật khác. Hơn nữa, một số công cụ có thể không đáp ứng yêu cầu về quyền riêng tư và bảo mật của liên bang. Khi các tổ chức sử dụng các công cụ này, họ phải bảo vệ thông tin cá nhân và dữ liệu nhạy cảm. Cũng như vậy, vì các công cụ này tạo ra nội dung có thể trông giống như do con người tạo ra, mọi người có thể không phân biệt được liệu họ đang tương tác với một người hay một công cụ. Việc sử dụng các công cụ này cũng có thể ảnh hưởng đến kỹ năng và phán đoán của công chức và có thể có chi phí môi trường. Thực tiễn phát triển và đảm bảo chất lượng của một số mô hình AI tạo sinh cũng đã được liên kết với các tác hại kinh tế xã hội như thực tiễn lao động bóc lột. Chú thích4 Ví dụ, việc gắn nhãn dữ liệu hoặc chú thích đòi hỏi đầu vào thủ công rộng rãi, và công việc này thường được thuê ngoài cho các quốc gia nơi người lao động được trả lương rất thấp. Chú thích5

Các công cụ AI tạo sinh dựa vào các mô hình đặt ra nhiều thách thức, bao gồm tính minh bạch và khả năng giải thích hạn chế. Chúng cũng dựa vào dữ liệu đào tạo khó tiếp cận và đánh giá. Những thách thức này một phần bắt nguồn từ kích thước mô hình lớn, khối lượng dữ liệu đào tạo cao và tính chất độc quyền của nhiều công cụ. Ngoài ra, đầu ra của các mô hình bị hạn chế bởi lời nhắc người dùng nhập vào và bởi dữ liệu đào tạo, có thể thiếu ngữ cảnh không thể truy cập công khai trên Internet.

Dữ liệu đào tạo cũng có thể lỗi thời. Ví dụ, ChatGPT-3.5 được đào tạo trên dữ liệu đến đầu năm 2022, vì vậy nó có khả năng hạn chế trong việc cung cấp thông tin về các sự kiện hoặc phát triển sau thời điểm đó. Chú thích6 Chú thích7 Dữ liệu đào tạo cũng có thể bị thiên lệch và thiếu sự đa dạng quan điểm, xét rằng Internet thường là nguồn dữ liệu. Những thiên lệch này sau đó có thể được phản ánh trong đầu ra của các công cụ.

Hiệu năng của các công cụ này cũng có thể khác nhau từ ngôn ngữ này sang ngôn ngữ khác. Các mô hình bằng tiếng Anh và các ngôn ngữ khác được đại diện tốt trong dữ liệu đào tạo thường hoạt động tốt hơn các mô hình bằng ngôn ngữ ít được đại diện. Chú thích8 Ngoài ra, các công cụ này có những hạn chế làm giảm tính hữu ích của chúng cho một số mục đích nhất định; ví dụ, chúng có xu hướng hoạt động không nhất quán với các nhiệm vụ liên quan đến ngôn ngữ cảm xúc hoặc tinh tế. Chú thích9 Chú thích10

AI tạo sinh cũng có thể đặt ra rủi ro cho tính toàn vẹn và bảo mật của các tổ chức liên bang, do tiềm năng sử dụng sai mục đích của các tác nhân đe dọa. Các tổ chức liên bang nên nhận thức về những rủi ro này và xem xét các thực tiễn tốt nhất được khuyến nghị bởi Trung tâm An ninh mạng Canada trong hướng dẫn của họ về Trí tuệ nhân tạo tạo sinh (AI) - ITSAP.00.041.

Mặc dù các công cụ này đặt ra những thách thức và quan ngại, chúng cũng mang lại lợi ích tiềm năng cho công chức và các tổ chức liên bang. Ví dụ, chúng có thể nâng cao năng suất thông qua việc tăng hiệu quả và chất lượng đầu ra trong các nhiệm vụ phân tích và viết lách ở một số lĩnh vực. Chú thích11 Chú thích12 Cần thêm phân tích để xác định những ứng dụng phù hợp nhất và có lợi nhất của các công cụ này bởi các tổ chức liên bang. Cần thử nghiệm, kết hợp với đo lường hiệu năng và phân tích, để hiểu rõ hơn về những lợi ích tiềm năng và đánh đổi cũng như để cung cấp thông tin cho cách tiếp cận của chính phủ đối với việc sử dụng các công cụ này.

Cách tiếp cận được khuyến nghị
Trong phần này
Các tổ chức liên bang nên khám phá cách họ có thể sử dụng công cụ AI tạo sinh để hỗ trợ hoạt động của họ và cải thiện kết quả cho người dân Canada. Do những thách thức và quan ngại liên quan đến các công cụ này, các tổ chức nên đánh giá và giảm thiểu rủi ro và chỉ sử dụng chúng cho các hoạt động mà họ có thể quản lý rủi ro một cách hiệu quả. Với việc ngày càng nhiều ngành và công chúng áp dụng các công nghệ này, việc khám phá của các tổ chức liên bang sẽ giúp chính phủ hiểu được rủi ro và cơ hội của các công cụ này và theo kịp sự phát triển của cảnh quan kỹ thuật số.

Rủi ro của việc sử dụng các công cụ này phụ thuộc vào mục đích sử dụng và các biện pháp giảm thiểu đang được áp dụng.

Ví dụ về các trường hợp sử dụng rủi ro thấp:

viết email mời đồng nghiệp tham gia sự kiện xây dựng đội ngũ
chỉnh sửa bản nháp tài liệu sẽ phải qua thêm các quy trình xem xét và phê duyệt
Ví dụ về các trường hợp sử dụng rủi ro cao hơn (như sử dụng trong cung cấp dịch vụ):

triển khai một công cụ (ví dụ, chatbot) để công chúng sử dụng
tạo bản tóm tắt thông tin khách hàng
Các tổ chức liên bang nên thử nghiệm với các trường hợp sử dụng rủi ro thấp trước khi họ xem xét các trường hợp sử dụng rủi ro cao hơn. Họ luôn nên điều chỉnh các thực tiễn tốt nhất và biện pháp giảm thiểu rủi ro cho từng trường hợp sử dụng.

Khi quyết định có nên sử dụng công cụ AI tạo sinh hay không, công chức nên tham khảo hướng dẫn ra quyết định đạo đức (phần 6 của Giá trị sống: Hướng dẫn thảo luận về "Bộ quy tắc giá trị và đạo đức cho khu vực công").

Để duy trì niềm tin của công chúng và đảm bảo việc sử dụng có trách nhiệm các công cụ AI tạo sinh bởi các tổ chức liên bang, các tổ chức nên phù hợp với các nguyên tắc "FASTER" mà TBS đã phát triển:

Công bằng: đảm bảo nội dung từ các công cụ này không bao gồm hoặc khuếch đại thành kiến và tuân thủ quyền con người, khả năng tiếp cận, và nghĩa vụ công bằng về thủ tục và nội dung; thu hút các bên liên quan bị ảnh hưởng trước khi triển khai
Trách nhiệm: chịu trách nhiệm về nội dung được tạo ra bởi các công cụ này và tác động của việc sử dụng chúng. Điều này bao gồm đảm bảo nội dung được tạo ra chính xác, hợp pháp, đạo đức, và tuân thủ các điều khoản sử dụng; thiết lập cơ chế giám sát và theo dõi
An toàn: đảm bảo cơ sở hạ tầng và công cụ phù hợp với phân loại bảo mật của thông tin và quyền riêng tư cùng thông tin cá nhân được bảo vệ; đánh giá và quản lý rủi ro an ninh mạng và sự vững chắc khi triển khai hệ thống
Minh bạch: xác định nội dung đã được tạo ra bằng AI tạo sinh; thông báo cho người dùng rằng họ đang tương tác với một công cụ AI; cung cấp thông tin về chính sách tổ chức, sử dụng thích hợp, dữ liệu đào tạo và mô hình khi triển khai các công cụ này; ghi lại quyết định và có khả năng cung cấp giải thích nếu công cụ được sử dụng để hỗ trợ ra quyết định
Giáo dục: tìm hiểu về điểm mạnh, hạn chế và sử dụng có trách nhiệm các công cụ; học cách tạo lời nhắc hiệu quả và xác định điểm yếu tiềm tàng trong đầu ra
Liên quan: đảm bảo việc sử dụng công cụ AI tạo sinh hỗ trợ nhu cầu của người dùng và tổ chức và đóng góp vào kết quả tốt hơn cho khách hàng; xem xét tác động môi trường khi chọn sử dụng công cụ; xác định công cụ thích hợp cho nhiệm vụ; công cụ AI không phải là lựa chọn tốt nhất trong mọi tình huống
Để được hỗ trợ trong việc xác định sử dụng thích hợp của các công cụ này, công chức nên tham khảo ý kiến các bên liên quan như:

dịch vụ pháp lý, chuyên gia về quyền riêng tư và bảo mật của tổ chức
văn phòng giám đốc thông tin và giám đốc dữ liệu cho tổ chức của họ
chuyên gia đa dạng và hòa nhập của tổ chức
Các đơn vị sau cũng có thể cung cấp hỗ trợ:

Trung tâm An ninh mạng Canada
Thống kê Canada
Văn phòng Giám đốc Thông tin Canada (một phần của TBS)
Trách nhiệm cho các tổ chức liên bang
Các tổ chức liên bang nên đánh giá công cụ AI tạo sinh về tiềm năng giúp đỡ nhân viên, không phải thay thế họ. Các tổ chức được khuyến khích khám phá ứng dụng một cách có trách nhiệm và cho phép nhân viên tối ưu hóa công việc của họ đồng thời đảm bảo rằng tất cả việc sử dụng các công cụ này là đạo đức, phù hợp với các nguyên tắc FASTER và tuân thủ chính sách cùng luật pháp.

Trong việc đánh giá các công cụ này và khám phá cách họ có thể sử dụng chúng, các tổ chức có một số trách nhiệm bao gồm:

đảm bảo nhân viên có thể tiếp cận và tham gia đào tạo về việc sử dụng hiệu quả và có trách nhiệm công cụ AI tạo sinh
hỗ trợ nhân viên trong việc cải thiện kiến thức của họ về các chủ đề như phát hiện nội dung thiên lệch và không chính xác
cung cấp quyền truy cập vào công cụ AI tạo sinh an toàn đáp ứng yêu cầu về thông tin, quyền riêng tư và bảo mật của chính phủ
cho phép truy cập công cụ AI tạo sinh trực tuyến, phù hợp với Chính sách về Dịch vụ và Kỹ thuật số (yêu cầu 4.4.2.5) và Chỉ thị về Dịch vụ và Kỹ thuật số Phụ lục A: Ví dụ về Sử dụng Mạng và Thiết bị Chấp nhận được (Danh sách Không Đầy đủ)
thực hiện quy trình giám sát và quản lý hiệu năng để theo dõi tác động của các công cụ này và để đảm bảo cả công cụ và việc sử dụng chúng tuân thủ luật pháp và chính sách áp dụng và phù hợp với các nguyên tắc FASTER, đặc biệt là trong quá trình triển khai
tương tác với nhân viên để hiểu nhu cầu của họ
tham khảo ý kiến các bên liên quan như người dùng cuối, nhóm đại diện khách hàng và đại diện thương lượng trước các triển khai rủi ro cao
Các tổ chức nên có thực tiễn quản lý thay đổi hiệu quả để họ có thể giúp nhân viên cải thiện kỹ năng hiện tại và phát triển kỹ năng mới.

Người quản lý cần hiểu các công cụ này có thể và không thể được sử dụng cho việc gì và nên có kỳ vọng thực tế về cách các công cụ có thể giúp cải thiện năng suất của nhân viên.

Các tổ chức cũng nên đánh giá rủi ro và cơ hội liên quan đến việc sử dụng các công cụ này và phát triển hướng dẫn cho tổ chức của họ phù hợp với hướng dẫn này và được điều chỉnh theo bối cảnh và nhu cầu của tổ chức.

(xem tiếp Phần 2)

https://songai.vn/posts/huong-dan-su-dung-ai-tao-sinh-cho-cac-co-quan-chinh-phu-canada-p2

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo