Ấn Độ đang tụt lại trong cuộc đua AI? DeepSeek là cú hích, nhưng hành trình còn gian nan

 

  • Ấn Độ đặt mục tiêu phát triển mô hình ngôn ngữ lớn (LLM) nội địa, kỳ vọng tạo ra đột phá tương tự Trung Quốc với DeepSeek, mô hình chi phí thấp nhưng hiệu quả cao.

  • Chính phủ đã phân bổ 10.372 crore rupee (~1,25 tỷ USD) cho IndiaAI Mission, nhằm cung cấp hạ tầng tính toán, đào tạo kỹ năng và hỗ trợ startup AI.

  • Tuy nhiên, đào tạo LLM cần khối lượng dữ liệu khổng lồ, năng lực tính toán mạnh và chi phí đầu tư lớn – vượt quá ngân sách hiện có của Ấn Độ.

  • DeepSeek đã tiêu tốn hơn 1,3 tỷ USD, trong khi các tập đoàn lớn như Microsoft và Google đầu tư tới 80 tỷ USD/năm vào AI, tạo nên khoảng cách rất lớn.

  • Dù có nhiều tài năng, Ấn Độ đối mặt với chảy máu chất xám và hệ sinh thái học thuật thiếu đầu tư khiến nghiên cứu AI gặp khó.

  • Rào cản lớn nhất là dữ liệu: phần lớn nội dung web công khai hiện nay thiên về tiếng Anh, trong khi Ấn Độ đa ngôn ngữ, nhưng người dùng vẫn duyệt web bằng tiếng Anh.

  • Các nước đơn ngữ như Trung Quốc, Hàn Quốc, Nhật Bản có lợi thế khi dữ liệu nội địa tập trung hơn, giúp LLM phản ánh văn hóa và ngôn ngữ tốt hơn.

  • Một số startup như Sarvam AI (LLM 2 tỷ tham số, hỗ trợ 11 ngôn ngữ) và Karya (trả tiền cho người dùng để thu âm ngôn ngữ mẹ đẻ) đang cố gắng lấp đầy khoảng trống dữ liệu này.

  • Krutrim AI (hậu thuẫn bởi Ola) tận dụng tài xế làm “công nhân dữ liệu”, đóng góp vào hệ sinh thái ngôn ngữ bản địa.

  • Chính phủ cũng phát triển nền tảng dữ liệu riêng, nhưng chưa rõ nguồn, cách làm sạch và gắn nhãn dữ liệu sẽ thực hiện như thế nào.

  • Nhiều chuyên gia như Nandan Nilekani (sáng lập Infosys) từng nghi ngờ hiệu quả chi phí của LLM, nhưng sau thành công của DeepSeek, ông công nhận rằng việc xây dựng LLM với 50 triệu USD là khả thi.

  • Tuy nhiên, ông vẫn nhấn mạnh rằng thay vì xây dựng một LLM duy nhất, nên đầu tư vào hạ tầng, điện toán và AI cloud, từ đó tạo điều kiện để thị trường tư nhân và học thuật cùng phát triển mô hình AI.

  • Bài học từ các lĩnh vực như không gian và viễn thông – nơi Ấn Độ đạt thành công nhờ chi phí thấp và sáng tạo cục bộ – vẫn là động lực, nhưng AI đòi hỏi quy mô và hệ sinh thái lớn hơn rất nhiều.

  • Thách thức chính là làm sao để AI vừa rẻ, vừa hữu dụng cho người dân Ấn Độ, không chỉ là đuổi kịp mô hình phương Tây.

📌 Ấn Độ đặt nhiều kỳ vọng vào mô hình AI nội địa như DeepSeek, nhưng đối mặt với rào cản lớn về dữ liệu ngôn ngữ, hạ tầng tính toántài chính. Dù có các startup như Sarvam, Karya và Krutrim dẫn đầu, Ấn Độ vẫn cần chiến lược dài hạn để xây dựng hệ sinh thái AI toàn diện – nơi chính phủ, học thuật và thị trường tư nhân cùng hợp lực tạo đột phá.

https://www.thehindu.com/sci-tech/technology/ai-is-india-falling-behind/article69359080.ece

 

AI: Ấn Độ có đang tụt hậu?

Premium

Thành công của DeepSeek tại Trung Quốc đã thắp lên hy vọng tạo ra một LLM nội địa; các nhà hoạch định chính sách đã trích dẫn những tiến bộ chi phí thấp của Ấn Độ trong thám hiểm vũ trụ như một ví dụ về tiềm năng tìm ra bước đột phá tương tự trong AI, nhưng con đường phía trước là một chặng đường khó khăn.

Cập nhật - 05/05/2025 08:47 tối IST

Aroon Deep

Tại Ấn Độ, bước tiến quan trọng trong việc tạo ra một LLM nội địa có thể là một chặng đường khó khăn, mặc dù đó là điều mà chính phủ và các công ty khởi nghiệp đang mong muốn đạt được.

Chính phủ Ấn Độ và một nhóm các công ty khởi nghiệp đã đặt mục tiêu tạo ra một mô hình ngôn ngữ lớn (LLM) AI nền tảng bản địa, tương tự như ChatGPT của OpenAI, Gemini của Google và Llama của Meta. AI nền tảng, hay LLM, là các hệ thống được huấn luyện thủ công có thể tạo ra các phản hồi cho các truy vấn. Việc huấn luyện chúng đòi hỏi lượng dữ liệu lớn và sức mạnh tính toán khổng lồ, hai nguồn lực dồi dào trên internet và trong không gian mạng của các quốc gia phương Tây.

Tại Ấn Độ, bước tiến quan trọng trong việc tạo ra một LLM nội địa có thể là một chặng đường khó khăn, mặc dù đó là điều mà chính phủ và các công ty khởi nghiệp đang mong muốn đạt được. Hy vọng đặc biệt tăng cao sau thành công của DeepSeek. Công ty Trung Quốc này, với chi phí thấp hơn nhiều so với các công ty công nghệ phương Tây, đã có thể huấn luyện một mô hình "suy luận" (reasoning) - mô hình đưa ra phản hồi sau một loạt các bước suy luận logic được hiển thị cho người dùng dưới dạng trừu tượng và thường có thể đưa ra các phản hồi tốt hơn nhiều. Các nhà hoạch định chính sách đã trích dẫn những tiến bộ chi phí thấp của Ấn Độ trong thám hiểm vũ trụ và viễn thông như một ví dụ quan trọng về tiềm năng đạt được một bước đột phá tương tự, và sớm.

LLM và mô hình ngôn ngữ nhỏ (SLM) thường được biên soạn bằng cách cô đọng khối lượng lớn dữ liệu văn bản, thường được thu thập từ web, và "huấn luyện" hệ thống thông qua một mạng nơ-ron. Mạng nơ-ron là một mô hình học máy bắt chước cách thức hoạt động của bộ não con người bằng cách liên kết nhiều mảnh thông tin và truyền qua các "lớp" nút cho đến khi một đầu ra, dựa trên nhiều tương tác trong các lớp ẩn, tạo ra một phản hồi chấp nhận được.

Mạng nơ-ron đã là một bước đột phá to lớn trong học máy và trong nhiều năm đã là nền tảng của các dịch vụ như kiểm duyệt mạng xã hội tự động, dịch máy, hệ thống đề xuất trên các dịch vụ như YouTube và Netflix, và nhiều công cụ thông minh kinh doanh.

Làn sóng AI

Trong khi học sâu và phát triển học máy tăng mạnh vào những năm 2010, nghiên cứu cơ bản đã có một số phát triển quan trọng, chẳng hạn như "cơ chế chú ý" (attention mechanism), một khung xử lý ngôn ngữ tự nhiên hiệu quả giúp các nhà phát triển có cách phân tích một câu thành các thành phần, cho phép hệ thống máy tính đến gần hơn với việc "hiểu" một đầu vào không phải là một đoạn mã. Ngay cả khi công nghệ này không hoàn toàn dựa trên bất kỳ loại trí thông minh thực sự nào, nó vẫn là một bước nhảy vọt về khả năng học máy.

Transformer, dựa trên những tiến bộ này, là bước đột phá quan trọng đã mở đường cho các LLM như ChatGPT. Một bài báo năm 2017 của các nhà nghiên cứu tại Google đã trình bày kiến trúc transformer, lần đầu tiên đưa ra lý thuyết về việc huấn luyện LLM trên đơn vị xử lý đồ họa (GPU), đã trở thành yếu tố quan trọng cho toàn bộ ngành công nghệ chuyển hướng sang AI.

Phải mất khá nhiều thời gian trước khi OpenAI bắt đầu thực hiện những phát hiện của bước tiến này theo cách mà công chúng có thể chứng kiến. Mô hình đầu tiên của ChatGPT được phát hành hơn năm năm sau bài báo của các nhà nghiên cứu Google, vì một lý do đã nổi lên như một cơn đau đầu thương mại cho các công ty muốn tận dụng AI và cho các quốc gia muốn xây dựng khả năng của họ: chi phí.

Chỉ riêng việc huấn luyện mô hình chính đầu tiên, ChatGPT 3.5, đã tốn hàng triệu đô la, chưa kể đến cơ sở hạ tầng trung tâm dữ liệu. Với việc thiếu thương mại hóa ngay lập tức, loại chi phí này nhất thiết là một canh bạc dài hạn, loại mà chỉ một công ty công nghệ lớn, hoặc các nhà đầu tư mạo hiểm giàu có, mới có thể tài trợ trong trung hạn.

Tuy nhiên, kết quả rất đáng kinh ngạc. Cuộc bùng nổ AI tạo sinh bắt đầu một cách nghiêm túc sau mô hình công khai đầu tiên của ChatGPT, thể hiện những tiến bộ kỹ thuật tích lũy trong học máy cho đến khi phát hành. Bài kiểm tra Turing, một chuẩn mực có thể được vượt qua bởi một máy phản hồi một truy vấn đủ giống với con người, không còn là một cách hữu ích để nhìn vào các mô hình AI mới.

Một cuộc đua chóng mặt theo sau để tung ra các mô hình nền tảng tương tự từ các công ty khác đã làm việc trên công nghệ này. Các công ty như Google, vào năm 2022, đã chạy các mô hình của họ như LaMDA. Mô hình này đã xuất hiện trên tin tức khi một nhà phát triển nổi tiếng tại công ty đã công khai (và không có căn cứ) tuyên bố rằng chatbot này gần như có ý thức. Công ty đã tránh phát hành mô hình khi họ làm việc về an toàn và chất lượng.

Tuy nhiên, cuộc đua AI tạo sinh đã thay đổi mọi thứ, với mỗi công ty được định vị tốt nhất để làm việc trên các mô hình như vậy dưới áp lực to lớn từ nhà đầu tư và công chúng để cạnh tranh. Từ việc giữ LaMDA hạn chế cho thử nghiệm nội bộ, Google đã nhanh chóng triển khai một phiên bản công khai, có tên Bard, sau đó đổi tên thành Gemini, và thay thế sản phẩm Google Assistant trên điện thoại Android của nhiều người dùng bằng mô hình AI này. Ngày nay, Gemini cung cấp nửa tá mô hình cho các nhu cầu khác nhau và triển khai mô hình AI vào công cụ tìm kiếm và bộ công cụ năng suất của mình.

Microsoft cũng không khác: nhà sản xuất Windows đã triển khai chatbot CoPilot của riêng mình, tận dụng tích hợp với các sản phẩm Office của mình và dành riêng một nút để gọi chatbot trên các PC mới. Các công ty như Amazon và hàng loạt công ty khởi nghiệp nhỏ hơn khác cũng bắt đầu đưa ra sản phẩm của họ cho công chúng sử dụng, chẳng hạn như Mistral của Pháp và PerplexityAI, công ty sau tìm cách đưa khả năng genAI vào tìm kiếm. Một bước đột phá về tạo hình ảnh dựa trên công nghệ tương tự cũng nở rộ trong bối cảnh này, với các dịch vụ như Dall-E mở đường để tạo ra những hình ảnh trông thực tế.

Các công ty trong ngành của Ấn Độ đã thể hiện sự nhiệt tình sớm trong việc tận dụng AI, như các công ty toàn cầu đã làm, để xem công nghệ có thể tăng năng suất và tăng tiết kiệm như thế nào. Giống như phần còn lại của thế giới, các công cụ tạo văn bản đã có thể tăng khả năng của nhân viên để thực hiện các nhiệm vụ thường xuyên và phần lớn việc áp dụng AI của doanh nghiệp xoay quanh việc tăng tốc hàng ngày như vậy. Tuy nhiên, đã có những câu hỏi về tư duy phản biện khi ngày càng nhiều nhiệm vụ được tự động hóa, và nhiều công ty vẫn chưa thấy một lượng giá trị lớn từ sự tăng trưởng này.

Tuy nhiên, sự say mê xung quanh các mô hình AI vẫn chưa chết, khi hàng trăm tỷ đô la được lên kế hoạch đầu tư vào việc thiết lập cơ sở hạ tầng tính toán để huấn luyện và chạy các mô hình này. Tại Ấn Độ, Microsoft đang thuê luật sư bất động sản ở mỗi Vùng lãnh thổ Liên bang và Tiểu bang để đàm phán và lấy được các mảnh đất để xây dựng trung tâm dữ liệu. Quy mô của các khoản đầu tư được lên kế hoạch là một canh bạc lớn về tính khả thi tài chính của các mô hình AI.

Đây là một phần lý do tại sao tiềm năng của những tiến bộ như DeepSeek đã thu hút sự chú ý. Công ty có trụ sở tại Quảng Châu này đã có thể huấn luyện các mô hình tiên tiến nhất - có khả năng "nghiên cứu sâu" và suy luận - với một phần nhỏ so với khoản đầu tư của các gã khổng lồ phương Tây.

Một mô hình của Ấn Độ

Việc giảm chi phí đã dẫn đến mức độ quan tâm rất lớn về việc liệu Ấn Độ có thể sao chép thành công này hay, ít nhất, xây dựng trên nó. Năm ngoái, trước khi thành tựu của DeepSeek được công nhận toàn cầu, Chính phủ Liên bang đã dành 10.372 crore rupee cho Sứ mệnh IndiaAI, trong nỗ lực thúc đẩy nhiều công việc hơn của các công ty khởi nghiệp trong lĩnh vực này. Sứ mệnh được thiết kế theo mô hình đối tác công-tư và nhằm cung cấp năng lực tính toán, nuôi dưỡng kỹ năng AI trong giới trẻ, và giúp các nhà nghiên cứu làm việc trên các dự án liên quan đến AI.

Sau khi tiết kiệm chi phí của DeepSeek được chú ý, chính phủ đã triển khai thành phần năng lực tính toán của sứ mệnh và mời các đề xuất để tạo ra một mô hình AI nền tảng tại Ấn Độ. Các đơn đăng ký đã được mời trên cơ sở liên tục mỗi tháng, và Bộ trưởng Công nghệ thông tin Liên bang Ashwini Vaishnaw nói rằng ông hy vọng Ấn Độ sẽ có mô hình nền tảng của mình vào cuối năm.

Một số nhà hoạch định chính sách đã lập luận rằng có một "yếu tố tự hào" liên quan đến diễn ngôn xung quanh việc xây dựng một mô hình nền tảng trong nước, Tanuj Bhojwani, cho đến gần đây là người đứng đầu People + AI, đã nói trong một podcast Parley gần đây với The Hindu. "Người dân chúng tôi có tham vọng, và muốn có mô hình riêng," ông Bhojwani nói, chỉ ra thành tựu của Ấn Độ trong thám hiểm vũ trụ và viễn thông, những ví dụ nổi bật về kỳ tích kỹ thuật đạt được với chi phí thấp.

Tất nhiên, có những chi phí tiền tệ gắn liền với việc huấn luyện một mô hình nền tảng thậm chí sau DeepSeek: ông Bhojwani đề cập đến ước tính rằng việc mua phần cứng và các lần huấn luyện trước đó của DeepSeek đã vượt quá 1,3 tỷ đô la, một khoản tiền lớn hơn toàn bộ phân bổ của Sứ mệnh IndiaAI. "Các công ty công nghệ lớn đang đầu tư 80 tỷ đô la một năm vào cơ sở hạ tầng," ông Bhojwani chỉ ra, đưa quy mô của quỹ đầu tư Ấn Độ vào viễn cảnh. "Chính phủ không đặt cược tập trung đó. Chúng tôi đang lấy nguồn lực rất khan hiếm mà chúng tôi có và chúng tôi đang làm mỏng nó hơn nữa."

Pranesh Prakash, người sáng lập Trung tâm về Internet và Xã hội, Ấn Độ, khẳng định rằng việc xây dựng một mô hình AI nền tảng là quan trọng. "Điều quan trọng là có những người có thể xây dựng các mô hình nền tảng và cũng có những người có thể xây dựng trên các mô hình nền tảng để triển khai và xây dựng ứng dụng," ông Prakash nói. "Chúng tôi cần có người ở Ấn Độ có thể áp dụng bản thân vào mọi phần của việc xây dựng AI."

Cũng có một lập luận rằng một AI trong nước sẽ tăng cường chủ quyền mạng của Ấn Độ. Ông Prakash đã bác bỏ khái niệm này, vì nhiều LLM tiên tiến nhất - thậm chí cả cái được xuất bản bởi DeepSeek - là mã nguồn mở, cho phép các nhà nghiên cứu trên toàn thế giới lặp lại từ một mô hình hiện có và xây dựng trên tiến bộ mới nhất mà không phải tự mình lặp lại các bước đột phá.

Ngoài rào cản đầu tư, còn có giới hạn tiềm năng: "Chi tiêu 200 đô la một tháng để thay thế một công nhân con người có thể là khả thi ở Hoa Kỳ, nhưng ở Ấn Độ, đó là những gì công nhân con người đang được trả ngay từ đầu," ông Bhojwani chỉ ra. Hiện tại vẫn chưa rõ liệu các bước đột phá tự động hóa có thể có sẽ bao giờ đáng giá đủ để thay thế một số lượng đáng kể công nhân con người.

Ngay cả đối với các công ty Ấn Độ tìm cách tạo ra và bán các mô hình AI, kinh nghiệm của chúng ta trong thời đại phần mềm của những thập kỷ trước cho thấy một động lực chính có thể hạn chế những khát vọng như vậy: "Nếu chúng ta tin rằng chúng ta sẽ tạo ra một mô hình Ấn Độ với nội dung ngôn ngữ địa phương, bạn đang tự giới hạn mình trên đầu gối vì thị trường doanh nghiệp Ấn Độ tổng thể sẽ mua AI nhỏ hơn nhiều," ông Bhojwani nói, chỉ ra rằng ngay cả các gã khổng lồ phần mềm Ấn Độ cũng bán phần lớn dịch vụ của họ ở Hoa Kỳ, nơi vẫn là thị trường chính cho phần lớn ngành công nghệ.

Tuy nhiên, các mệnh lệnh tài chính không phải là tất cả. Sự tập trung của chính phủ Ấn Độ vào các sáng kiến như Bhashini - sử dụng mạng nơ-ron để hỗ trợ dịch ngôn ngữ Ấn Độ - tiết lộ một mong muốn tận dụng các mô hình AI ở quy mô lớn như Aadhaar hoặc UPI. Mặc dù chưa rõ có bao nhiêu ý chí chính trị và đầu tư sẽ cuối cùng nuôi dưỡng những tham vọng đó, tuy nhiên, như CEO Microsoft Satya Nadella đã chỉ ra trong một cuộc phỏng vấn gần đây, nếu tiềm năng của AI trên toàn ngành "thực sự mạnh mẽ như người ta nghĩ, nhà nước sẽ không ngồi yên và chờ đợi các công ty tư nhân."

Trong khi Ấn Độ có một nguồn nhân tài lớn, nó phải chịu đựng việc di cư vĩnh viễn của những bộ óc nghiên cứu hàng đầu trong tất cả các lĩnh vực, một động lực có thể làm chậm các bước đột phá trong AI. Hệ sinh thái học thuật cũng đã bị thiếu vốn, điều mà hạn chế nghiêm trọng nguồn lực ngay cả đối với những người đang ở lại trong nước để làm việc trên những vấn đề này.

Khoảng cách dữ liệu

Rào cản lớn nhất có thể không phải là rào cản đầu tư, hoặc thậm chí là tiềm năng thương mại hóa các khoản đầu tư. Rào cản có thể là dữ liệu.

Hầu hết LLM và SLM đều dựa vào một lượng dữ liệu khổng lồ, và nếu dữ liệu không khổng lồ, thì ít nhất nó phải là dữ liệu chất lượng cao đã được sắp xếp và gắn nhãn cho đến khi nó có thể sử dụng được để huấn luyện một mô hình nền tảng. Đối với nhiều gã khổng lồ công nghệ được tài trợ tốt, dữ liệu có sẵn công khai trên web là một nguồn phong phú. Điều này có nghĩa là hầu hết các mô hình đã nghiêng về tiếng Anh vì đó là ngôn ngữ được nói rộng rãi nhất trên thế giới, và do đó được đại diện rất nhiều trong nội dung công khai.

Ngay cả những xã hội đơn ngữ như Trung Quốc, Hàn Quốc và Nhật Bản cũng có thể thoát khỏi lượng dữ liệu mà họ có thể có được, vì đây là những xã hội đơn ngữ nơi người dùng internet chủ yếu sử dụng internet - và tham gia vào các cuộc thảo luận trực tuyến - bằng ngôn ngữ của họ. Điều này cung cấp cho các nhà sản xuất LLM một nền tảng phong phú để tùy chỉnh các mô hình cho cảm nhận, phong cách và cuối cùng là nhu cầu địa phương.

Ấn Độ không có đủ dữ liệu này. Vivekanand Pani, đồng sáng lập Reverie Language Technologies, đã làm việc với các công ty công nghệ trong nhiều thập kỷ để thúc đẩy người dùng sử dụng web bằng ngôn ngữ của họ. Hầu hết người dùng Ấn Độ, ngay cả những người nói rất ít tiếng Anh, điều hướng điện thoại và internet của họ bằng tiếng Anh, thích nghi với hệ sinh thái kỹ thuật số. Trong khi dịch máy có thể đóng vai trò như một cầu nối giữa tiếng Anh và các ngôn ngữ Ấn Độ, đây là một công nghệ "chuyển đổi", ông Pani nói, và không phải là một công nghệ tạo sinh, như LLM. "Chúng tôi chưa giải quyết được vấn đề đó, và chúng tôi vẫn không sẵn sàng giải quyết nó," ông Pani nói với The Hindu trong một cuộc phỏng vấn gần đây, đề cập đến việc khiến nhiều người Ấn Độ hơn sử dụng web bằng các ngôn ngữ Ấn Độ.

Tuy nhiên, một số công ty vẫn đang cố gắng. Sarvam, một công ty có trụ sở tại Bengaluru, đã công bố vào tháng 10 năm ngoái rằng họ đã phát triển một LLM 2 tỷ tham số với hỗ trợ cho 10 ngôn ngữ cộng với tiếng Anh: Bengali, Gujarati, Hindi, Marathi, Malayalam, Kannada, Odia, Tamil, Telugu và Punjabi. Công ty cho biết họ "đã cung cấp năng lượng cho các tác nhân AI tạo sinh và các ứng dụng khác." Sarvam đã làm điều này trên chip NVIDIA đang được các công ty công nghệ lớn săn đón để xây dựng các trung tâm dữ liệu khổng lồ cho AI trên khắp thế giới.

Sau đó là Karya, công ty có trụ sở tại Bengaluru đã trả tiền cho người dùng để đóng góp các mẫu giọng nói bằng tiếng mẹ đẻ của họ, dần dần cung cấp dữ liệu cho các mô hình AI trong tương lai hy vọng sẽ hoạt động tốt với các ngôn ngữ địa phương. Công ty đã thu hút sự chú ý toàn cầu - bao gồm cả bìa tạp chí TIME - cho những nỗ lực của mình để lấp đầy thiếu hụt dữ liệu.

"Ấn Độ có 22 ngôn ngữ chính thức và vô số phương ngữ," Sứ mệnh IndiaAI đã nói trong một bài đăng vào tháng 7 năm ngoái. "Một LLM cụ thể của Ấn Độ có thể nắm bắt tốt hơn sắc thái của ngôn ngữ, văn hóa và bối cảnh Ấn Độ so với các mô hình tập trung toàn cầu, có xu hướng nắm bắt nhiều cảm xúc và bối cảnh phương Tây hơn."

Krutrim AI, được hỗ trợ bởi nền tảng đi chung xe Ola, đang cố gắng một nỗ lực tương tự, bằng cách tận dụng các tài xế trên nền tảng Ola để trở thành "người lao động dữ liệu". Sứ mệnh IndiaAI tự nó đang lên kế hoạch xuất bản một nền tảng bộ dữ liệu, mặc dù chi tiết về dữ liệu này sẽ đến từ đâu và nó đã được làm sạch và gắn nhãn như thế nào vẫn chưa được công bố.

""Tôi nghĩ rằng chúng ta cần suy nghĩ nhiều hơn về dữ liệu không chỉ như một nguồn lực và đầu vào cho AI, mà như một hệ sinh thái," Astha Kapoor, đồng sáng lập Viện Aapti, nói với The Hindu trong một cuộc phỏng vấn. "Có các cơ sở hạ tầng xã hội xung quanh dữ liệu, như những người thu thập nó, gắn nhãn nó, và v.v." Công việc của bà Kapoor tiết lộ một câu hỏi chính: tại sao bạn cần tất cả dữ liệu này, và tôi nhận được gì để đổi lại? Do đó, những người mà dữ liệu là về họ, và những người bị ảnh hưởng bởi dữ liệu, phải được tham gia vào quá trình quản trị.

Nỗ lực này có đáng không?

Và sau đó là những câu hỏi khó chịu đã nảy sinh trong quá trình thu thập hàng loạt nội dung tiếng Anh đã nuôi dưỡng các mô hình đầu tiên: ngay cả khi sự thay thế công việc có thể bị loại trừ (và nó còn lâu mới rõ ràng rằng nó có thể), có những câu hỏi về quyền sở hữu dữ liệu, bồi thường, quyền của những người mà dữ liệu của họ đang được sử dụng, và quyền lực của các công ty đang tích lũy chúng, sẽ phải được đối mặt đầy đủ. Đây là một quá trình còn lâu mới ổn định ngay cả đối với các mô hình tiên phong.

Cuối cùng, một trong những ý kiến ​​xác định về các mô hình nền tảng đến từ Nandan Nilekani vào tháng 12 năm ngoái, khi nhà sáng lập Infosys bác bỏ hoàn toàn ý tưởng này chỉ dựa trên chi phí. "Các mô hình nền tảng không phải là cách sử dụng tiền tốt nhất của bạn," ông Nilekani đã nói trong một cuộc trao đổi với các nhà báo. "Nếu Ấn Độ có 50 tỷ đô la để chi tiêu, nên sử dụng số đó để xây dựng năng lực tính toán, cơ sở hạ tầng và điện toán đám mây AI. Đây là những nguyên liệu thô và động cơ của trò chơi này."

Sau khi DeepSeek giảm mạnh những chi phí đó, ông Nilekani thừa nhận rằng một bước đột phá LLM nền tảng thực sự có thể đạt được đối với nhiều công ty: "rất nhiều" công ty có thể chi 50 triệu đô la cho nỗ lực này, ông nói.

Nhưng ông vẫn tiếp tục nhấn mạnh trong các phát biểu công khai sau đó rằng AI cuối cùng phải có giá rẻ trên toàn bộ, và hữu ích cho người dân Ấn Độ ở mọi nơi. Đó là một tiêu chuẩn vẫn chưa có trên đường chân trời, trừ khi chi phí giảm mạnh hơn, và Ấn Độ cũng thấy sự mở rộng quy mô của cơ sở hạ tầng trong nước và các hệ sinh thái hỗ trợ công việc này.

"Tôi nghĩ câu hỏi thực sự cần đặt ra không phải là liệu chúng ta có nên thực hiện nỗ lực Hercules để xây dựng một mô hình nền tảng hay không," ông Bhojwani nói, "mà là hỏi: đâu là những khoản đầu tư chúng ta nên thực hiện để môi trường nghiên cứu, sự đổi mới, các nhà đầu tư thị trường tư nhân, v.v., tất cả cùng nhau và điều phối theo cách để tạo ra - ở đâu đó từ một phòng thí nghiệm hoặc từ một công ty tư nhân - một mô hình ngôn ngữ lớn nền tảng?"

AI: is India falling behind? 

Premium

The success of DeepSeek in China has kindled hopes of creating a home-grown LLM; policymakers have cited India’s low-cost advances in space exploration as an example of the potential to find a similar breakthrough in AI, but the road ahead is an uphill climb

Updated - May 05, 2025 08:47 pm IST
 
 
In India, the crucial advance of creating a homegrown LLM is likely to be an uphill climb, albeit one that the government and startups are keen on achieving. | Photo Credit: Getty Images/iStockphoto
The Government of India and a clutch of startups have set their sights on creating an indigenous foundational Artificial Intelligence large language model (LLM), along the lines of OpenAI’s ChatGPT, Google’s Gemini, and Meta’s Llama. Foundational AI, or LLMs, are manually trained systems that can churn out responses to queries. Training them requires large amounts of data and enormous computing power, two resources that are abundant on the internet and in the cyberspaces of Western countries respectively.
 
 
In India, the crucial advance of creating a homegrown LLM is likely to be an uphill climb, albeit one that the government and startups are keen on achieving. Hopes have especially been heightened after the success of DeepSeek. The Chinese firm, at a far lower cost than Western tech companies, was able to train a so-called ‘reasoning’ model that arrives at a response after a series of logical reasoning steps that are displayed to users in an abstracted form and are generally able to give much better responses. Policymakers have cited India’s low-cost advances in space exploration and telecommunications as a critical example of the potential to hit a similar breakthrough, and soon.
LLMs and small language models (SLMs) are generally compiled by condensing massive volumes of text data, typically scraped from the web, and ‘training’ the system through a neural network. A neural network is a machine learning model that roughly imitates the way a human brain works by linking several pieces of information and passing them through ‘layers’ of nodes until an output, based on multiple interactions in the hidden layers, results in an acceptable response.
 
Neural networks have been a tremendous breakthrough in machine learning and have for years been the backbone of services such as automated social media moderation, machine translation, recommendation systems on services such as YouTube and Netflix, and a host of business intelligence tools. 

The AI rush

While deep learning and machine learning developments surged in the 2010s, the underlying research had several landmark developments, such as the ‘attention mechanism’, a natural language processing framework that effectively gave developers a way to break down a sentence into components, allowing computer systems to reach ever closer to ‘understanding’ an input that was not a piece of code. Even if this technology was not completely based on any sort of actual intelligence, it was still a massive leap in machine learning capabilities.
 
The transformer, which built on these advances, was the key breakthrough that paved the way for LLMs such as ChatGPT. A 2017 paper by researchers at Google laid out the transformer architecture, laying out for the first time the theory of practically training LLMs on graphics processing units (GPUs), which have emerged as critical for the entire tech industry’s AI pivot. 
 
It was quite some time before OpenAI started practically implementing the findings of the advancement in a way that the public could witness. ChatGPT’s first model was released more than five years after the Google researchers’ paper, for a reason that has emerged as both a commercial headache for firms looking to leverage AI and for countries looking to build their capabilities: cost. 
Simply training the first major model, ChatGPT 3.5, cost millions of dollars, not accounting for the data centre infrastructure. With the lack of immediate commercialisation, this kind of expense was necessarily a long shot, the kind that only a large tech company, or well-endowed venture capitalists, could finance in the medium term. 
The result, however, was extraordinary. The generative AI boom began in earnest after ChatGPT’s first public model, showcasing the accumulated technical advancements in machine learning until its release. The Turing test, a benchmark that can be passed by a machine that responds to a query sufficiently similar to a human, was no longer a useful way to look at new AI models. 
 
A head-spinning rush followed to ship out similar foundational models from other companies that were already working on the technology. Firms such as Google were, in 2022, already running their models like LaMDA. This model was in the news as one prominent developer at the company made public (and unsubstantiated) claims that the chatbot was pretty much sentient. The company avoided releasing the model as it worked on safety and quality.
The generative AI rush had changed things, however, with each company best positioned to work on such models under tremendous investor and public pressure to compete. From going to keeping LaMDA restricted to internal testing, Google quickly deployed a public version, named Bard, later renamed Gemini, and swapped out its Google Assistant product on many Android phone users’ handsets with this AI model instead. Today, Gemini offers half a dozen models for different needs and deployed the AI model into its search engine and productivity suite.
Microsoft was no different: the Windows maker deployed its own CoPilot chatbot, leveraging integrations with its own Office products and dedicating a button to summon the chatbot on new PCs. Firms such as Amazon and a host of other smaller startups also started putting out their products for public use, such as France’s Mistral and PerplexityAI, the latter seeking to bring genAI capabilities to search. An image generation breakthrough based on similar technology also mushroomed against this context, with services like Dall-E paving the way to create realistic-looking pictures.
 
Indian industry players showed early enthusiasm in leveraging AI, as global firms have, to see how the technology could boost productivity and increase savings. Like in the rest of the world, text-generation tools have been able to increase employees’ ability to do routine tasks and much of the corporate adoption of AI has revolved around such speed boosts in daily work. However, there have been questions about critical thinking as more and more tasks get automated, and many firms are yet to see a massive amount of value from this growth.
Yet, the fascination around AI models has yet to die down, as hundreds of billions of dollars are planned to be invested in setting up the computing infrastructure to train and run these models. In India, Microsoft is hiring real estate lawyers in every Union Territory and State to negotiate and obtain land parcels for building datacentres. The scale of the planned investments is a massive bet on the financial viability of AI models.
This is partly why the potential of advances such as DeepSeek have drawn attention. The Guangzhou-based firm was able to train the most cutting-edge models — capable of ‘deep research’ and reasoning — at a fraction of the investments being made by Western giants. 
 

An Indian model

The cost reduction has led to an immense level of interest in whether India can replicate this success or, at least, build on it. Last year, before DeepSeek’s achievements gained global repute, the Union government dedicated ₹10,372 crore to the IndiaAI Mission, in an attempt to drive more work by startups in the field. The mission is architected in a public-private partnership model and aims to provide computing capacity, foster AI skills among youth, and help researchers work on AI-related projects.
After DeepSeek’s cost savings came into focus, the government rolled out the computing capacity component of the mission and invited proposals for creating a foundational AI model in India. Applications have been invited on a rolling basis each month, and Union IT Minister Ashwini Vaishnaw said he hoped India would have its foundational model by the end of the year. 
Some policymakers have argued that there is an “element of pride” involved in the discourse around building a domestic foundational model, Tanuj Bhojwani, until recently the head of People + AI, said in a recent Parley podcast with The Hindu. “We are ambitious people, and want our own model,” Mr. Bhojwani said, pointing to India’s achievements in space exploration and telecommunications, shining examples of technical feats achieved at low costs.
There are of course monetary costs attached to training even a post-DeepSeek foundational model: Mr. Bhojwani referred to estimates that DeepSeek’s hardware purchases and prior training runs exceeded $1.3 billion, a sum that is greater than the IndiaAI Mission’s whole allocation. “The Big Tech firms are investing $80 billion a year on infrastructure,” Mr. Bhojwani pointed out, bringing the scale of Indian investment corpus into perspective. “The government is not taking that concentrated bet. We are taking very sparse resources that we have and we are further thinning it out.”
Pranesh Prakash, the founder of the Centre for Internet and Society, India, insisted that building a foundational AI model was important. “It is important to have people who are able to build foundation models and also to have people who can build on top of foundation models to deploy and build applications,” Mr. Prakash said. “We need to have people in India who are able to apply themselves to every part of building AI.”
There is also an argument that a domestic AI would enhance Indian cyber sovereignty. Mr. Prakash was dismissive of this notion, as many of the most cutting-edge LLMs — even the one published by DeepSeek — are open source, allowing researchers around the world to iterate from an existing model and build on the latest progress without having to duplicate breakthroughs themselves.
Beyond the investment hurdle, there is also the payoff ceiling: “Spending $200 a month to replace a human worker may be possible in the U.S., but in India, that is what the human worker is being paid in the first place,” Mr. Bhojwani pointed out. It is unclear as yet if the automation breakthroughs that are possible will ever be worthwhile enough to replace a significant number of human workers. 
Even for Indian firms seeking to make and sell AI models, our experience in the software era of the previous decades shows a key dynamic that could limit such aspirations: “If we believe we will make an Indian model with local language content, you are capping yourself on the knee because the overall Indian enterprise market that will purchase AI is much smaller,” Mr. Bhojwani said, pointing out that even Indian software giants sell much of their services in the United States, which remains the main market for much of the technology industry. 
Financial imperatives are not everything, though. The Indian government’s focus on initiatives like Bhashini — which uses neural networks to power Indian language translation — reveals an appetite to leverage AI models at scale like Aadhaar or UPI. While it is unclear how much political will and investment will end up feeding those ambitions, however, as Microsoft CEO Satya Nadella pointed out in a recent interview, if AI’s potential across the board “is really as powerful as people make it out to be, the state is not going to sit around and wait for private companies.”
While India has a large pool of talent, it suffers from perennial migrations of its top research minds across all fields, a dynamic that could slow down breakthroughs in AI. Academic ecosystems have also been underfunded, something that severely limits resources even for those who are staying in the country to work on these problems. 

The data divide

The most imposing barrier may not be the investment one, or even the potential for commercialising investments. The barrier could be data. 
Most LLMs and SLMs rely on a massive amount of data, and if the data is not massive, then it has to at least be high-quality data that has been curated and labelled until it is usable to train a foundational model. For many well-funded tech giants, the data that is publicly available on the web is a rich source. This means that most models have skewed toward English since that is the language that is spoken most widely in the world, and thus is represented enormously in public content. 
Even monolingual societies like China, South Korea, and Japan can get away with the amount of data they can obtain, as these are monolingual societies where internet users largely use the internet — and participate in discussions online — in their languages. This gives LLM makers a rich foundation for customising models for local sensibilities, styles, and ultimately needs.
India does not have enough of this data. Vivekanand Pani, a co-founder of Reverie Language Technologies, has worked with tech companies for decades to nudge users to use the web in their own languages. Most Indian users, even those who speak very little English, navigate their phones and the internet in English, adapting to the digital ecosystem. While machine translation can serve as a bridge between English and Indian languages, this is a “transformative” technology, Mr. Pani said, and not a generative one, like LLMs. “We haven’t solved that problem, and we are still not willing to solve it,” Mr. Pani told The Hindu in a recent interview, referring to getting more Indians to use the web in Indian languages. 
Yet, some firms are still trying. Sarvam, a Bengaluru-based firm, announced last October that it had developed a 2 billion parameter LLM with support for 10 languages plus English: Bengali, Gujarati, Hindi, Marathi, Malayalam, Kannada, Odia, Tamil, Telugu and Punjabi. The firm said it was “already powering generative AI agents and other applications.” Sarvam did this on NVIDIA chips that are in high demand from big tech firms building massive data centres for AI across the world. 
Then there’s Karya, the Bengaluru-based firm that has been paying users to contribute voice samples in their mother tongue, gradually providing data for future AI models that hope to work well with local languages. The firm has gained global attention — including a cover from TIME magazine — for its efforts to fill the data deficit. 
“India has 22 scheduled languages and countless dialects,” the IndiaAI Mission said in a post last July. “An India-specific LLM could better capture the nuances of Indian languages, culture, and context compared to globally focused models, which tend to capture more western sentiments and contexts.”
Krutrim AI, backed by the ridesharing platform Ola, is attempting a similar effort, by leveraging drivers on the Ola platform to be “data workers”. The IndiaAI Mission is itself planning on publishing a datasets platform, though details of where this data will come from and how it has been cleaned up and labelled have not yet been forthcoming.
“I think that we need to think much more about data not just as a resource and an input into AI, but as an ecosystem,” Astha Kapoor, co-founder of the Aapti Institute, told The Hindu in an interview. “There are social infrastructures around data, like the people who collect it, label it, and so on.” Ms. Kapoor was one of the very few Indian speakers at the AI Action Summit in Paris in February. “Our work reveals a key question: why do you need all this data, and what do I get in return? Therefore, people who the data is about, and the people who are impacted by the data, must be involved in the process of governance.”

Is the effort worth it?

And then there are the sticky questions that arose during the mass-scraping of English-language content that has fed the very first models: even if job displacement can be ruled out (and it is far from clear that it can), there are questions about data ownership, compensation, rights of people whose data is being used, and the power of the firms that are amassing them, that will have to be contended with fully. This is a process that is far from settled even for the pioneer models. 
Ultimately, one of the defining opinions on foundational models came from Nandan Nilekani last December, when the Infosys founder dismissed the idea altogether based on cost alone. “Foundation models are not the best use of your money,” Mr. Nilekani had said at an interaction with journalists. “If India has $50 billion to spend, it should use that to build compute, infrastructure, and AI cloud. These are the raw materials and engines of this game.” 
After DeepSeek dramatically cut those costs, Mr. Nilekani conceded that a foundational LLM breakthrough was indeed achievable for many firms: “so many” firms could spend $50 million on the effort, he said.
But he has continued to emphasise in subsequent public remarks that AI has to ultimately be inexpensive across the board, and useful to Indians everywhere. That is a standard that is still not on the horizon, unless costs come down much more dramatically, and India also sees a scale-up of domestic infrastructure and ecosystems that support this work.
“I think the real question to ask is not whether we should undertake the Herculean effort of building one foundational model,” Mr. Bhojwani said, “but to ask: what are the investments we should be making such that the research environment, the innovation, private market investors, etc., all come together and orchestrate in a way to produce — somewhere out of a lab or out of a private player — a foundational large language model?”

Không có file đính kèm.

13

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo