Các công ty AI lớn đang thay đổi cách tiếp cận về an toàn AI dưới chính quyền Trump, ưu tiên tốc độ phát triển hơn là thận trọng.
Sam Altman, CEO của OpenAI, thường xuyên thừa nhận AI có thể khó kiểm soát và có thể gây ra nhiều tác động tiêu cực, nhưng vẫn đang đua để phát triển nó nhanh nhất có thể.
Chính quyền Trump đã hủy bỏ sắc lệnh hành pháp về AI của Biden trong tuần đầu tiên nhậm chức và yêu cầu các công ty AI đóng góp ý kiến cho chính sách mới.
Trong các đệ trình lên Nhà Trắng, OpenAI, Meta và Google gần như đồng thanh: Hoa Kỳ cần giúp các công ty AI của mình phát triển nhanh hơn để vượt qua Trung Quốc.
Các công ty này cũng yêu cầu các bang không nên áp đặt quy định manh mún và Nhà Trắng nên xóa bỏ những bất ổn về bản quyền, cho phép họ huấn luyện mô hình trên bất kỳ dữ liệu công khai nào.
Phó tổng thống JD Vance tuyên bố tại hội nghị AI ở Paris rằng "tương lai AI sẽ không thuộc về những người lo lắng về an toàn".
Nghiên cứu từ Media Lab của MIT cho thấy việc sử dụng chatbot AI nhiều hơn có mối tương quan chặt chẽ với "cảm giác cô đơn cao hơn, phụ thuộc... sử dụng có vấn đề và giảm khả năng hòa nhập xã hội".
Sự nổi lên của DeepSeek (Trung Quốc) làm tăng khả năng công ty đầu tiên đạt được trí tuệ nhân tạo tổng quát (AGI) có thể không hoạt động tại quốc gia có các giá trị dân chủ.
Thuật ngữ "an toàn" đang dần được thay thế bằng "an ninh" trong ngành AI, với sự tập trung vào cách các hệ thống này có thể bị sử dụng bởi đối thủ trong chiến tranh, gián điệp hoặc khủng bố.
Mike Krieger, giám đốc sản phẩm tại Anthropic, cho biết công ty cố gắng tham gia nhiều cuộc đối thoại nhất có thể để "giúp định hình chính sách theo cách sẽ dẫn đến kết quả tốt mà không kìm hãm đổi mới".
Elon Musk từng ủng hộ việc tạm dừng phát triển AI nhưng vài tháng sau đã thành lập công ty AI riêng, xAI, phát triển các mô hình mạnh mẽ và nhanh chóng huy động được 12 tỷ USD.
Các phòng thí nghiệm AI hàng đầu như Google, OpenAI và Anthropic đều có truyền thống về an toàn, nhưng câu hỏi đặt ra là liệu việc tự đánh giá của họ có đủ hay không.
Mặc dù nỗ lực của châu Âu, những tác động xã hội và con người của công nghệ AI dường như đã bị giảm ưu tiên trước áp lực cạnh tranh toàn cầu.
Các công ty khởi nghiệp AI thường cảnh báo về chi phí tuân thủ và cách nó có thể cản trở đổi mới, đặc biệt là ở các quốc gia có chế độ quy định nghiêm ngặt nhất.
📌 Dưới chính quyền Trump, các công ty AI đang chuyển từ ưu tiên an toàn sang tốc độ phát triển để cạnh tranh với Trung Quốc. Nghiên cứu từ MIT cho thấy việc sử dụng chatbot AI nhiều hơn liên quan đến cô đơn và phụ thuộc cao hơn, đặt ra câu hỏi về tác động xã hội của công nghệ này.
https://www.ft.com/content/36b522d4-7ea2-42bc-8573-84f68c3a4323
#FT
Hay họ chỉ đang lừa chúng ta nghĩ rằng họ đang bảo vệ lợi ích của chúng ta?
Chính quyền Trump vừa thăm dò ngành công nghiệp AI về những gì họ mong muốn từ chính sách của Mỹ dưới thời chính quyền mới của ông © FT montage/Getty Images
Richard Waters
Xuất bản: hôm qua
Tiến độ hiện tại: 65%
Bài viết này là phiên bản trên trang web của bản tin Swamp Notes. Người đăng ký cao cấp có thể đăng ký tại đây để nhận bản tin vào mỗi thứ Hai và thứ Sáu. Người đăng ký tiêu chuẩn có thể nâng cấp lên Cao cấp tại đây, hoặc khám phá tất cả các bản tin FT.
Tôi luôn thắc mắc về cách Sam Altman, người đứng đầu OpenAI, nói về những gì sẽ xảy ra nếu và khi trí tuệ nhân tạo bắt kịp hoặc vượt qua trí thông minh của con người.
Anh ấy thừa nhận rằng AI sẽ khó kiểm soát, đi kèm với đủ loại tác dụng phụ không mong muốn và - có thể - gây ra sự sụp đổ của nền văn minh. Và sau đó anh ấy nói công ty của anh ấy đang chạy đua để xây dựng nó nhanh nhất có thể.
Anh ấy có thực sự coi trọng các vấn đề an toàn, hay chỉ đang cố gắng kiếm được sự chấp thuận miễn phí bằng cách lừa chúng ta nghĩ rằng anh ấy thực sự là một công dân có trách nhiệm đang bảo vệ lợi ích của chúng ta?
Tôi đoán bây giờ chúng ta đã biết. Chính quyền Trump vừa thăm dò ngành công nghiệp AI về những gì họ mong muốn từ chính sách của Mỹ dưới thời chính quyền mới của ông. Phản hồi: đã đến lúc Washington dọn đường cho ngành này để có thể tiến nhanh hơn, bất chấp các quy định.
Nếu bạn đang tìm kiếm bằng chứng về cách Silicon Valley đã thay đổi theo chiều gió chính trị, bạn sẽ khó tìm được điều gì khác rõ ràng như thế này.
Dưới thời chính quyền trước, các công ty AI lớn nhất đã giảng về sự thận trọng - ít nhất là trước công chúng. Họ thậm chí đồng ý để các mô hình mạnh mẽ nhất của mình được kiểm tra bên ngoài trước khi tung ra cho tất cả chúng ta. Nhà Trắng dưới thời Biden xem đây là bước đầu tiên có thể cuối cùng dẫn đến việc chính phủ thẩm định và cấp phép đầy đủ cho AI tiên tiến.
Mơ đi. Donald Trump đã hủy bỏ sắc lệnh hành pháp của Biden về AI ngay trong tuần đầu tiên khi trở lại văn phòng. Sau đó chính quyền của ông đã kêu gọi góp ý để giúp định hình chính sách AI mới - một trường hợp điển hình của việc bắn trước, hỏi sau.
Trong các bài đệ trình lên Nhà Trắng, các công ty như OpenAI, Meta và Google gần như đồng thanh: Mỹ cần giúp các công ty AI của mình tiến nhanh hơn nếu muốn vượt qua Trung Quốc; các bang của Mỹ không nên ràng buộc các gã khổng lồ công nghệ bằng các quy định manh mún (vì chính phủ liên bang đã ngủ quên trong vấn đề quy định công nghệ trong nhiều năm, điều đó sẽ loại trừ hầu hết mọi hạn chế); Nhà Trắng nên chấm dứt những bất ổn về bản quyền và tuyên bố rằng các công ty có quyền đào tạo các mô hình của họ trên bất kỳ dữ liệu nào có trong lĩnh vực công.
An toàn? Các công ty đã phần lớn xóa từ đó khỏi từ vựng của họ. Điều này có lẽ là khôn ngoan: Tất cả họ hẳn đã nghe tuyên bố của phó tổng thống JD Vance, tại hội nghị thượng đỉnh AI gần đây ở Paris, rằng "tương lai AI sẽ không thuộc về những người đắn đo về an toàn".
Tôi chưa bao giờ nghi ngờ rằng cuộc đua AI chỉ đơn thuần là một cuộc đua. Nhiều công ty tham gia là những cựu binh của các trận chiến công nghệ khác mà người thắng cuộc giành hết. Họ luôn có những cách đơn giản và tư lợi để đánh giá liệu những gì họ đang làm có vì lợi ích công cộng hay không: Nếu mọi người nhấp vào một thứ gì đó, thì họ hẳn muốn nhiều hơn thế. Đó là vòng phản hồi nhanh chóng đã tạo ra các thuật toán nuôi dưỡng sự bùng nổ của mạng xã hội. Có gì không ổn?
Nhưng, sau tất cả những bằng chứng về tác hại do mạng xã hội gây ra, bạn sẽ nghĩ rằng các công ty muốn biết AI của họ ảnh hưởng đến thế giới như thế nào trước khi vội vàng cung cấp cho chúng ta nhiều hơn. Bằng chứng chỉ mới bắt đầu rò rỉ, và - không có gì ngạc nhiên - nó không khuyến khích.
Phòng thí nghiệm Truyền thông MIT gần đây đã nghiên cứu những người sử dụng chatbot AI và phát hiện ra rằng việc sử dụng nhiều hơn tương quan chặt chẽ với "sự cô đơn cao hơn, sự phụ thuộc... sử dụng có vấn đề và xã hội hóa thấp hơn". Chúng ta có phải học lại bài học rằng công nghệ thu hút chúng ta có thể không mang lại lợi ích? Có vẻ như vậy.
Nếu bạn cảm thấy đặc biệt hào phóng, tôi cho rằng bạn có thể cố gắng lập luận rằng các công ty công nghệ chỉ đang điều chỉnh thế giới của họ để đưa cho Trump những gì ông ấy muốn nghe. Có lẽ họ vẫn tận tâm với an toàn và chỉ giữ im lặng về điều đó trong lúc này. Nhưng tôi nghĩ sẽ cần sự hào phóng tinh thần bất thường để đi đến kết luận đó.
Cristina, với tư cách là phóng viên công nghệ ở San Francisco, bạn tiếp xúc với các công ty AI này. Bạn có nghĩ họ vẫn nghiêm túc về an toàn AI nữa không, hay họ đã vứt bỏ tất cả điều đó trong cuộc đua trở thành người đầu tiên đạt được trí tuệ nhân tạo tổng quát (AGI)? Sự thay đổi này chỉ phản ánh tâm trạng mới ở Washington, và yêu cầu của Nhà Trắng dưới thời Trump về việc thể hiện sự thống trị của Mỹ? Hay chúng ta đang thấy các công ty công nghệ bây giờ với bộ mặt thật của họ?
Cristina Criddle trả lời
Các nhà phát triển AI hàng đầu có nguồn gốc sâu sắc trong an toàn: Google, nổi tiếng với câu thần chú "đừng làm điều xấu"; sứ mệnh của OpenAI là đảm bảo rằng AI mang lại lợi ích cho nhân loại; và các cựu nhân viên OpenAI đã thành lập Anthropic để tập trung vào AI có trách nhiệm.
Các phòng thí nghiệm này đã tiến hành các bài kiểm tra nội bộ nghiêm ngặt và xuất bản các bài báo học thuật và báo cáo hệ thống đưa ra các rủi ro nhận thấy từ mỗi mô hình, xếp hạng chúng theo mức độ nguy hiểm. Không có gợi ý rằng các thủ tục này sẽ thay đổi, nhưng tùy thuộc vào các nhà làm luật và công chúng quyết định liệu các công ty này tự chấm điểm bài tập của mình có đủ tốt hay không.
Ngoài ra, sự trỗi dậy của DeepSeek đã làm tăng khả năng công ty đầu tiên đạt được AGI có thể không hoạt động ở một quốc gia có giá trị và chuẩn mực dân chủ.
Với Trung Quốc đe dọa thống trị và chính quyền Trump mới kiên quyết ngăn chặn AI "woke", đã có sự chuyển hướng từ "an toàn" sang một thuật ngữ nóng hơn: "an ninh". Viện An toàn AI của chính phủ Anh đã đổi tên thành Viện An ninh AI vào tháng 2. Các chính phủ và nhà nghiên cứu đang tập trung vào cách các hệ thống này có thể được sử dụng bởi các đối thủ trong chiến tranh tiềm năng, gián điệp hoặc khủng bố.
Bất chấp nỗ lực của châu Âu, những tác động xã hội và con người của công nghệ này dường như đã bị giảm ưu tiên. Các công ty khởi nghiệp AI thường cảnh báo về chi phí tuân thủ và cách nó có thể cản trở đổi mới, đặc biệt là ở các quốc gia có chế độ quy định nghiêm ngặt nhất.
Khi tôi hỏi Mike Krieger, giám đốc sản phẩm của Anthropic, về cách tiếp cận tốt nhất đối với an toàn dưới thời chính phủ hiện tại, anh ấy nói công ty cố gắng tham gia vào càng nhiều cuộc trò chuyện càng tốt.
"Chúng tôi không ở đó để làm chính trị, nhưng chúng tôi ở đó để giúp định hình chính sách theo cách mà chúng tôi nghĩ sẽ dẫn đến kết quả tốt mà không làm nghẹt sự đổi mới; luôn có sự cân bằng đó," anh ấy nói.
Là đồng sáng lập và cựu giám đốc công nghệ của Instagram, Krieger quá quen thuộc với cách mạng xã hội có thể ảnh hưởng đến nền dân chủ và sự hạnh phúc của người dùng. Mặc dù nhiều so sánh đã được đưa ra giữa các rủi ro của mạng xã hội và AI, chúng ta vẫn chưa có nhiều quy định hoặc giải pháp có ý nghĩa cho vấn đề trước. Vậy chúng ta có thể hy vọng bao nhiêu cho vấn đề sau?
Có thể nói, các mối đe dọa do trí tuệ nhân tạo đặt ra còn quan trọng hơn nhiều, và tốc độ phát triển rất nhanh. Khi ChatGPT ra mắt, chúng ta đã thấy sự lo ngại rộng rãi từ các nhà lãnh đạo trong lĩnh vực này, trích dẫn những rủi ro hiện hữu và kêu gọi tạm dừng các hệ thống AI mạnh mẽ.
Elon Musk đã ủng hộ việc tạm dừng phát triển và tuy nhiên vài tháng sau đã khởi động công ty khởi nghiệp AI của riêng mình, xAI, phát triển các mô hình mạnh mẽ, nhanh chóng huy động được 12 tỷ USD. Thái độ di chuyển nhanh của Silicon Valley mạnh hơn bao giờ hết, nhưng nó đã trưởng thành để làm như vậy mà không phá vỡ mọi thứ?