• Châu Á đang phát triển nhanh chóng năng lực AI để bắt kịp các tiêu chuẩn phương Tây, nhưng phải đối mặt với thách thức trong việc điều chỉnh những phát triển này cho phù hợp với đặc thù văn hóa và chính trị của mình.
• Do thiếu cơ cấu quản trị khu vực như EU, các quốc gia châu Á sẽ phát triển cách tiếp cận riêng về quản trị AI, có thể dẫn đến việc kiểm soát AI nghiêm ngặt và ưu tiên lợi ích quốc gia hơn các nguyên tắc phổ quát như tính minh bạch.
• Singapore đã ra mắt Sea-Lion, một mô hình ngôn ngữ lớn đặc trưng cho ngôn ngữ Đông Nam Á. Trung Quốc cũng đã giới thiệu nền tảng AI riêng tích hợp tư tưởng của Chủ tịch Tập Cận Bình.
• Các mô hình AI địa phương có thể vô tình đưa ra thông tin thiên vị hoặc không chính xác. Nếu nhiều quốc gia châu Á tạo ra các hệ thống AI khép kín, không minh bạch, điều này có thể gây căng thẳng về khái niệm sự thật khách quan.
"Theo Laurence Liew , giám đốc đổi mới AI của AI Singapore (AISG), khi phát triển mô hình ngôn ngữ Sea-Lion, AISG đã tránh một số tập dữ liệu đáng lo ngại để ngăn ngừa sự thiên vị.
Nói một cách ngắn gọn, điều này có nghĩa là tránh dữ liệu đào tạo thiên về quan điểm từ các xã hội phương Tây, có học thức, công nghiệp hóa, giàu có và dân chủ (WEIRD), thay vào đó là các tập dữ liệu đa ngôn ngữ đa dạng có khả năng đại diện tốt hơn cho dân số Đông Nam Á.
Kết quả là, mô hình kém chính xác hơn so với mô hình thương mại được đào tạo trên tất cả dữ liệu có sẵn. Điều này đặt ra câu hỏi: Liệu ngành AI có nên xây dựng các sản phẩm minh bạch nhưng phải hy sinh hiệu suất không?"
"Cách tiếp cận của New Zealand minh họa cho những tình huống khó khăn cụ thể mà nhiều cơ quan chức năng Châu Á - Thái Bình Dương phải đối mặt. Hiến chương thuật toán (https://www.data.govt.nz/toolkit/data-ethics/government-algorithm-transparency-and-accountability/algorithm-charter/) của nước này thừa nhận quyền dữ liệu bản địa, tìm hiểu cách các quyền này giao thoa với các hướng dẫn cho thuật toán. Điều này cho thấy việc hoạch định chính sách AI hiệu quả đòi hỏi sự tinh tế vượt ra ngoài chuẩn mực chung chung."
• Tính minh bạch là một nguyên tắc quan trọng trong phát triển AI có đạo đức, nhưng việc duy trì nó có thể khiến các công ty phải chịu chi phí giám sát lớn.
• Một số hệ thống AI tiên tiến như mạng nơ-ron sâu có thể tạo ra các mô hình AI phức tạp đến mức ngay cả người tạo ra chúng cũng không thể hiểu đầy đủ quá trình ra quyết định.
• Việc đạt được các hệ thống AI hoàn toàn minh bạch có thể dẫn đến việc sử dụng các thuật toán đơn giản hơn, đánh đổi hiệu suất lấy tính minh bạch.
• Theo Chỉ số sẵn sàng AI của chính phủ năm 2023, Singapore dẫn đầu về quản trị toàn diện, trong khi Hàn Quốc, Nhật Bản và Úc cũng đạt điểm cao. Tuy nhiên, các quốc gia khác như Campuchia và Myanmar có khung quản lý kém phát triển hơn.
• Cách tiếp cận của New Zealand minh họa những thách thức cụ thể mà nhiều cơ quan chức năng châu Á-Thái Bình Dương phải đối mặt, như việc xem xét quyền dữ liệu bản địa trong hướng dẫn về thuật toán.
• Khái niệm về tính minh bạch và tin cậy trong AI vẫn chưa được phát triển đầy đủ. Không rõ việc tiết lộ thông tin nào sẽ giúp các hệ thống phức tạp dễ hiểu đối với người dùng cuối.
• Các nhà nghiên cứu ở Hàn Quốc và Hong Kong nhận thấy mọi người thường phản đối việc trao quyền và tư cách pháp nhân cho máy móc, cho rằng điều này sẽ làm phức tạp hóa vấn đề trách nhiệm giải trình.
• Trong khi các mô hình phương Tây ủng hộ việc công khai đầy đủ, các chiến lược của châu Á được điều chỉnh bởi các giá trị địa phương và chính trị thực dụng.
"Sự năng động chính trị và văn hóa đa dạng của khu vực cũng có thể khiến nó đi chệch khỏi các nhạy cảm chính thống của phương Tây. Cách tiếp cận thận trọng của Châu Á đối với sự phát triển AI có thể trở thành mô hình thống trị định hình các chuẩn mực của khu vực."
📌 Châu Á đang phát triển AI theo cách riêng, ưu tiên lợi ích quốc gia hơn tính minh bạch. Singapore dẫn đầu với mô hình Sea-Lion, trong khi nhiều nước khác còn thiếu khung quản lý. Thách thức lớn là cân bằng giữa hiệu suất AI và tính minh bạch, giải trình.
https://www.techinasia.com/national-interests-trump-ai-transparency-asia
National interests trump AI transparency in Asia
When philosopher Michael Polanyi coined his famous paradox “We can know more than we can tell,” he could hardly imagine its prescience almost 60 years later. Yet, his maxim predicted the complexity of the AI tech that is rapidly changing the world. Today’s developers, drawing predictive insights from vast data pools, have created systems that resist straightforward explanations. Polanyi’s paradox has new significance as society grapples with building trust in AI technologies we cannot fully understand. In Asia, this paradox deepens further. Singapore and China are rapidly improving their AI prowess to match Western standards, yet they face the challenges of aligning these developments with their unique cultural and political mores. The recent passage of the European Union’s AI Act has intensified pressure on Asian nations to either align with the act’s provisions or develop their own regulatory frameworks. As Asia lacks a regional governance structure like the EU, consistent rules and oversight are difficult. Individual nations will develop their own approaches to AI governance, which will vary widely due to differences in economic development, infrastructure, education levels, and digital literacy. These individual approaches could lead to a world where Asian nations control AI strictly and prioritize national interests over universal principles like transparency. Double-edged sword Taming AI’s far-reaching implications is tricky. Precedents like the EU’s General Data Protection Regulation (GDPR) establish universal ground rules around privacy, but such precedents can’t be easily applied to AI. At its core, privacy revolves around two central tenets: non-disclosure and non-interference. Essentially, non-disclosure is about protecting information, while non-interference is about protecting freedom and autonomy. In contrast, AI presents interconnected issues like accountability, transparency, bias, and security, which are not easily solved. While countries are on the same page on the need to regulate AI, they conflict on how to put rules in place. This divergence reflects the intricate tapestry of ideological nuances and cultural contexts. Take Singapore, for example. The city-state has unleashed Sea-Lion, a large language model steeped in the linguistic spice of Southeast Asia. Meanwhile, China has also unveiled its own AI platform infused with President Xi Jinping’s thoughts and other themes championed by the ruling party. While localized AI models tailored to domestic perspectives could inadvertently introduce bias or inaccurate information, this risk applies broadly. If several Asian countries create insular, opaque AI systems that cement internal storylines, it could strain the notion of objective truth. Such a development would challenge a key principle of ethical AI development: transparency. Will this localized approach improve or hinder transparency, or will countries prioritize their ideologies over open scrutiny? To be or not to be transparent? In broad strokes, AI transparency involves providing a clear view into the inner workings of AI models, making the decision-making processes accessible and comprehensible to users, developers, and other stakeholders. Looking at the seminal AI Act of the EU, it lays down transparency as a general principle. Users must be informed when interacting with AI, including its capabilities and limitations. In the EU legislation, high-risk AI – such as those that are used as safety components in products like medical devices, industrial machinery, toys, or vehicles – faces more stringent standards. These must be transparent enough that providers and users can reasonably understand the system’s functioning. This includes providing comprehensive information on data sources, decision-making processes, and potential impacts. The act also requires transparency for certain AI systems that are not high-risk but still present notable dangers, such as chatbots and deepfake systems. These must disclose that the content has been artificially generated. However, maintaining AI transparency can saddle companies with large oversight expenses as keeping systems compliant and explainable requires a lot of effort. This may explain why a Stanford study grading prominent models on their transparency level found that even popular platforms like ChatGPT only scored 49 out of 100. There is also a technical side to the story. Some AI systems like decision trees have transparent and explainable logic programmed into how they reach conclusions. But other advanced AI systems are far messier. Machine learning techniques like deep neural networks can create AI models so complex that even their creators cannot fully comprehend their decision-making, let alone explain it. At its core, the problem of AI transparency is an ontological one. While rule-based AIs offer glimpses into the reasoning behind their choices, the black-box nature of certain models cloaks their operation in mystery. The more advanced the network, the harder it becomes to explain, just as Polanyi foretold. Trade-offs Innovators may also bristle at laws like the EU’s AI Act, arguing that many advanced machine learning systems are inherently hard to understand. Simplifying complex neural networks is challenging, and efforts to make them transparent could compromise data privacy by exposing sensitive information or cause copyright issues. Besides technical challenges, AI systems are trained on real-world data filled with prejudices and inequities, so they reflect existing biases. However, training an AI model on datasets with less bias can compromise accuracy compared to models trained on more data. According to Laurence Liew, director of AI innovation for AI Singapore (AISG), when developing the Sea-Lion language model, AISG avoided certain concerning datasets to prevent biases. In a nutshell, this meant avoiding training data skewed toward perspectives from Western, educated, industrialized, rich, and democratic (WEIRD) societies, in favor of diverse multilingual datasets that better represent Southeast Asian populations. As a result, the model is less accurate than commercial ones trained on all available data. This begs the question: Should the AI sector build transparent products but sacrifice performance? Achieving fully transparent AI systems could also lead to the use of simpler algorithms. While transparency has merits, revealing these hidden algorithms also risks compromising security and trade secrets. Given these multifaceted issues, the global landscape of AI governance reveals stark contrasts, particularly when comparing Western and Asian approaches to transparency and regulation. Divergences will likely persist between Western calls for illuminating AI’s black boxes and Asia’s preference for less linear routes. According to the 2023 Government AI Readiness Index, Singapore leads in comprehensive governance, while South Korea, Japan, and Australia also score highly. However, other nations like Cambodia and Myanmar have less developed frameworks. New Zealand’s approach exemplifies the particular predicaments many Asia-Pacific authorities face. Its algorithm charter acknowledges indigenous data rights, probing how these rights crosscut with guidelines for algorithms. This shows that effective AI policymaking requires nuance beyond broadbrush standardization. An existential issue It’s still tough to define what transparent AI means in practice because, as previously mentioned, explaining many AI models’ reasoning isn’t practical. Further, the concepts of transparency and trust in AI have yet to be fully developed. What does transparent AI really mean in practice? Is it realistic to expect developers to explain every causal chain within an AI model’s reasoning? The AI Act doesn’t specifically define interpretability, so it’s unclear what type of information disclosure makes complex systems understandable to end users. Another factor is the rapid development of AI , so naturally, regulation like the AI Act will have to develop alongside it rather than staying static. Then there is the fear that continued progress could spawn sentient AI. Would such machines accept the human control that a regulatory framework brings? While this possibility may seem remote today, it does elevate transparency from a matter of ethics to one of potential existential significance. In a controversial resolution in 2017, the European Parliament suggested giving the most advanced autonomous robots the status of electronic persons, although the idea was not taken up by the European Commission. There was also the famous case of Sophia, a robot granted “citizenship” by Saudi Arabia in 2017. Researchers in South Korea and Hong Kong found that people are generally against granting rights and personhood to machines, arguing it would complicate accountability. Such instances raise questions about the shifting moral status of advanced AI. Tale of two approaches There should be no illusions now that AI is easy to control or contain. It is a technology that is constantly evolving and is interpreted and adopted differently across cultures. Advances in AI capabilities and governance happen in fits and starts, involving trial and error. While some consensus exists around responsible development, pesky differences remain, defying catch-all correctives. Neither technological nor ethical progress is linear. It’s unclear if universal transparency principles can be applied to AI development across cultures. While Western models advocate for full disclosure, Asian strategies are tempered by local values and realpolitik. The AI narrative continues, still mid-arc, just as the evolution and experimentation around balancing progress and principles remains unfinished. The stakes are raised as AI advances, and the temptation might grow to not just influence these technologies but control them in ways that override universal principles. Rather than granting unchecked rights to advanced AI entities, Asian nations might choose to constrain capacities. The region’s varied political and cultural dynamics may also tilt it away from mainstream Western sensibilities. Asia’s guarded approach to AI development could become the dominant model shaping regional norms.