Anthropic đang cố gắng chiến thắng trong cuộc đua AI mà không đánh mất linh hồn

  • Giữa tháng 2/2025, trước khi phát hành Claude 3.7 Sonnet, nhóm an toàn của Anthropic cảnh báo mô hình có thể bị lạm dụng để tạo vũ khí sinh học. CEO Dario Amodei quyết định trì hoãn thay vì vội vàng ra mắt.

  • Anthropic áp dụng chính sách Responsible Scaling Policy: nếu mô hình đạt mức AI Safety Level 3 (ASL-3), cần tăng cường kiểm soát, giảm hiệu năng tạm thời hoặc không phát hành. Sau gần một tuần kiểm tra, nhóm kết luận Claude vẫn ở mức ASL-2, an toàn để phát hành.

  • Claude Code – sản phẩm mới – cho thấy 79% lập trình viên dùng Claude để tự động hóa công việc, làm dấy lên lo ngại về thay thế lao động. Nội bộ Anthropic đang điều chỉnh quy trình để tránh sa thải do AI.

  • Dario dự đoán: trong năm nay, AI có thể viết hầu hết mã nguồn, tăng gấp đôi tốc độ thực hiện nhiệm vụ kỹ thuật tại Anthropic.

  • Nếu đạt đến ASL-4 hoặc ASL-5, Claude có thể tự huấn luyện, tạo AI mới – nguy cơ AI tăng tốc phát triển vượt kiểm soát.

  • Dù phải cạnh tranh gay gắt (giá trị công ty đạt 61 tỷ USD, doanh thu hàng năm đang tiến đến 2 tỷ USD), Dario kiên quyết giữ vững nguyên tắc an toàn, từ chối "chạy đua mù quáng".

  • Là người gốc San Francisco, Dario có nền tảng học thuật từ Princeton và từng làm việc tại Baidu, Google Brain, OpenAI. Anh rời OpenAI do bất đồng về an toàn và đạo đức.

  • Văn hóa công ty Anthropic xây dựng quanh "Dario vision quests" – các bài giảng sâu sắc hai tuần một lần về tương lai AI, đạo đức và tiến hóa công nghệ.

  • Dario tin AI có thể chữa ung thư, Alzheimer, tăng gấp đôi tuổi thọ, nhưng cũng có thể thay thế đa số công việc, khiến xã hội phải chọn hướng đi công bằng.


📌 Anthropic trì hoãn phát hành Claude 3.7 vì lo ngại giúp tạo vũ khí sinh học, cho thấy cam kết đạo đức trong bối cảnh áp lực thị trường cực lớn. Dưới sự dẫn dắt của Dario Amodei, công ty trị giá 61 tỷ USD này đặt mục tiêu phát triển AI mạnh mẽ nhưng vẫn có trách nhiệm, với 79% người dùng Claude Code đang tự động hóa công việc.

https://www.bloomberg.com/news/features/2025-05-19/anthropic-ceo-amodei-steers-61-billion-ai-powerhouse?srnd=phx-businessweek

Anthropic đang cố gắng chiến thắng trong cuộc đua AI mà không đánh mất linh hồn

Dario Amodei đã chuyển mình từ một học giả thành CEO của một công ty khởi nghiệp trị giá 61 tỷ đô la.

Tác giả: Shirin Ghaffary
Ngày 19.5.2025 lúc 10:00 AM UTC

Giám đốc điều hành Anthropic Dario Amodei nhận được một tin nhắn trên Slack vào một ngày giữa tháng 2: Các thành viên cấp cao trong đội ngũ an toàn của công ty lo ngại rằng nếu không có các biện pháp bảo vệ phù hợp, mô hình trí tuệ nhân tạo mà họ sắp phát hành ra công chúng có thể được sử dụng để giúp tạo ra vũ khí sinh học.

Thông tin gây sửng sốt này xuất hiện vào thời điểm áp lực đã đang tăng lên đối với Amodei. Mô hình được đề cập, Claude 3.7 Sonnet, chỉ còn vài ngày nữa là ra mắt, khi Anthropic PBC đang chạy đua để theo kịp các đối thủ cạnh tranh đang vội vã đưa các mô hình của họ ra thị trường. Đồng thời, Amodei 42 tuổi, một người đàn ông đeo kính với mái tóc quăn đã dành những năm đầu sự nghiệp trong các phòng thí nghiệm học thuật để cẩn thận lấy nhãn cầu của những con kỳ nhông đã chết, đang trong quá trình hoàn tất vòng đầu tư hàng tỷ đô la định giá Anthropic hơn 60 tỷ đô la.

Đây khó có thể là thời điểm thuận lợi để giảm tốc độ, nhưng đó thực sự là những gì Amodei đã hứa sẽ làm khi anh giúp thành lập Anthropic bốn năm trước đó. Hơn hầu hết các nhà lãnh đạo khác trong ngành AI, Amodei đã lập luận rằng công nghệ mà anh đang xây dựng đi kèm với những rủi ro đáng kể.

Vào thời điểm đó, một nhóm nhân viên Anthropic được gọi là "đội thử nghiệm tiên phong" đang ở một hội nghị an ninh tại Santa Cruz, California. Họ giam mình trong một phòng khách sạn để giải quyết vấn đề, cùng với các chuyên gia bên ngoài từ công ty tư vấn an ninh sinh học Gryphon Scientific LLC cũng đang tham dự sự kiện. Với sự tham gia của Amodei qua Google Meet, nhóm đã chạy mô hình thông qua một loạt các bài kiểm tra. Các nhân viên Anthropic đã nói với anh điều mà hầu hết các sếp trong tình huống này có lẽ muốn nghe. Họ sẽ thức đêm một hoặc hai đêm để đánh giá vấn đề và tuân thủ lịch phát hành. "Họ nói, 'Chúng tôi có thể thức cả đêm. Chúng tôi có thể hoàn thành việc này đúng hạn. Chúng tôi có thể không ngủ và làm việc này trong 72 giờ'," Amodei nói, tại trụ sở của Anthropic ở San Francisco. "Tôi đáp, 'Nếu các bạn làm vậy, các bạn sẽ không làm việc hiệu quả'," anh nói. Anh bảo họ dành thời gian để kiểm tra mô hình kỹ lưỡng hơn.

Dự đoán trước một khoảnh khắc như thế này, Anthropic đã xây dựng một khuôn khổ gọi là Chính sách Mở rộng Có trách nhiệm, được mô phỏng lỏng lẻo theo tiêu chuẩn phòng thí nghiệm an toàn sinh học của chính phủ Hoa Kỳ, để xác định cách xử lý các rủi ro liên quan đến AI ngày càng tiên tiến. Miễn là các mô hình của họ vẫn dưới một mức độ nhất định, mà họ gọi là Cấp độ An toàn AI 2 (ASL-2), mọi thứ vẫn diễn ra bình thường. Một hệ thống ASL-2 có thể có khả năng đưa ra hướng dẫn về cách xây dựng vũ khí sinh học, nhưng không phải là những hướng dẫn đáng tin cậy hoặc chi tiết hơn những gì có sẵn thông qua công cụ tìm kiếm. Một hệ thống ASL-3 có thể giúp người dùng đáng kể—đặc biệt là người có một số kiến thức kỹ thuật cơ bản—thực sự tạo ra hoặc triển khai vũ khí như vậy.

Các mô hình mà Anthropic đã phát hành cho đến thời điểm đó đều ở mức ASL-2 hoặc thấp hơn. Nếu một mô hình đạt đến ASL-3, hướng dẫn nội bộ của Anthropic yêu cầu công ty tăng cường các biện pháp bảo vệ. Những hành động này có thể bao gồm củng cố hệ thống phòng thủ để các tác nhân độc hại không thể đánh cắp mã hoặc lừa hệ thống tiết lộ thông tin nguy hiểm. Cho đến khi Anthropic triển khai các biện pháp nâng cao này, họ sẽ phải thực hiện các biện pháp tạm thời, chẳng hạn như cố ý làm suy yếu mô hình, chặn một số phản hồi nhất định hoặc không phát hành nó.

Sau gần một tuần làm việc, nhóm xác định rằng mô hình không mạnh như nhân viên của Amodei lo ngại ban đầu. Anthropic đã phát hành nó muộn hơn một chút so với dự kiến và—cho đến nay ít nhất—nó chưa dẫn đến sự sụp đổ của nền văn minh nhân loại.

Amodei nói rằng sự chậm trễ ngắn ngủi đó là "đau đớn", do áp lực cạnh tranh. Nhưng nếu Anthropic thành công trong việc xây dựng công nghệ mạnh mẽ như họ nói rằng họ dự định làm, còn có những quyết định khó khăn hơn phía trước. Amodei tin rằng AI sẽ biến đổi thế giới, bằng cách tạo ra một "quốc gia của những thiên tài trong một trung tâm dữ liệu." Về mặt tích cực, AI này có thể chữa khỏi bệnh ung thư, nhưng nó cũng có thể khiến phần lớn dân số thế giới mất sinh kế. Ngoài ra, công nghệ sẽ gây ra sự sắp xếp lại đáng kể trong xã hội này đang đến sớm nhất là vào năm tới, theo Amodei, và gần như chắc chắn không sau năm 2030. "Gần như là sự từ bỏ trách nhiệm đạo đức của chúng tôi nếu không cố gắng mô tả bằng những thuật ngữ rõ ràng và càng thường xuyên càng tốt chính xác những gì đang xảy ra," anh nói.

Anthropic được thành lập để thúc đẩy sự chuyển đổi này theo cách có trách nhiệm nhất có thể. Nhưng khách hàng cũng bắt đầu trả tiền thật để truy cập vào công nghệ của họ: Tính đến tháng 4, Anthropic đã trên đà tạo ra 2 tỷ đô la doanh thu hàng năm, gấp đôi so với bốn tháng trước. Anthropic cho biết hiện tại họ không có lãi do chi phí đào tạo hệ thống AI khổng lồ; Amodei đã nói rằng cuối cùng có thể tốn đến 100 tỷ đô la để đào tạo một mô hình tân tiến.

Khách hàng gần như chắc chắn sẽ tiếp tục muốn AI mạnh mẽ hơn. Anthropic hoàn toàn dự kiến sẽ đạt ASL-3 sớm, có lẽ là sắp tới, và đã bắt đầu tăng cường các biện pháp bảo vệ để chuẩn bị cho điều đó. Trong những năm gần đây, công ty đã thuê ít nhất nửa tá nhà nghiên cứu nổi tiếng từ OpenAI, một số người đã chỉ trích người sử dụng lao động trước đây của họ vì đã rời xa các cam kết an toàn đã nêu của chính họ. Có thể họ sẽ không im lặng đứng nhìn nếu Anthropic cố gắng tránh né các cam kết của chính mình khi thời điểm đó đến.

Khi nào sự tính toán đó có thể đến vẫn là vấn đề tranh luận. Giống như Google, Meta Platforms Inc. và OpenAI, Anthropic đã tụt hậu so với các mốc thời gian dự kiến để phát hành các phiên bản mới của dòng mô hình AI mạnh mẽ và tốn kém nhất của họ. Những người hoài nghi đặt câu hỏi liệu tất cả những cuộc nói chuyện về các mối nguy hiểm của AI có nhằm mục đích làm cho công nghệ xuất hiện mạnh mẽ hơn thực tế hay không.

Trong khi đó, những người lo lắng về an toàn AI nói rằng áp lực thị trường để xây dựng nhanh nhất có thể có thể đẩy các công ty vào các quyết định vô trách nhiệm. Rốt cuộc, các nhà đầu tư đó không cung cấp cho Anthropic 14 tỷ đô la để thua OpenAI, DeepSeek hoặc Meta, và quyết định bỏ qua các ưu đãi thương mại đã không còn là một lựa chọn khi họ nhận tất cả số tiền đó. "Bạn không thể thực sự chiến đấu với thị trường trực tiếp," Amodei thừa nhận. Nhưng anh cũng nói rằng anh có thể tạo ra cái mà anh mô tả là một "cuộc đua đến đỉnh cao," nơi Anthropic kéo toàn bộ ngành AI theo bằng cách chứng minh cách xây dựng AI thay đổi thế giới mà không phá hủy thế giới trong quá trình đó.

Amodei là người bản địa San Francisco chưa bao giờ coi mình là người trong ngành công nghệ. Anh lớn lên ở Quận Mission trước khi tiền công nghệ biến đổi nó. Gia đình Amodei thuộc tầng lớp lao động. Cha quá cố của anh, người lớn lên là một đứa trẻ mồ côi ở Ý, làm thợ thủ công da trước khi các vấn đề sức khỏe mãn tính buộc ông phải ngừng khi Amodei còn là một đứa trẻ; ông qua đời khi Amodei là một thiếu niên. Mẹ của Amodei là quản lý dự án thư viện.

Chị gái của Amodei, Daniela Amodei—cũng là đồng sáng lập của Anthropic và là chủ tịch công ty—nhớ rằng em trai cô là một đứa trẻ đặc biệt có năng khiếu, đặc biệt là về toán học và khoa học. Khi còn là một đứa trẻ mới biết đi, anh sẽ tuyên bố "những ngày đếm" và đếm cao nhất có thể. "Nó sẽ như cả một ngày," cô nói. "Đứa trẻ 3 tuổi nào có khả năng tập trung như vậy?" Anh bắt đầu học các lớp tại Đại học California tại Berkeley khi vẫn còn học trung học, trước khi học vật lý tại Viện Công nghệ California trong hai năm rồi chuyển đến Đại học Stanford.

Ở đại học, Daniela nhớ Dario lần đầu tiên quan tâm đến AI sau khi đọc cuốn sách của Ray Kurzweil "The Singularity Is Near: When Humans Transcend Biology" (Điểm kỳ dị đang đến gần: Khi con người vượt qua sinh học), cuốn sách dự đoán rằng AI sẽ đạt được trí thông minh của con người vào năm 2029 và con người sẽ hòa nhập với máy móc vào năm 2045.

Amodei lấy bằng cử nhân năm 2006, sau đó chuyển sang tập trung vào các ứng dụng thần kinh học và sinh học của vật lý. Để làm nghiên cứu sau đại học, anh chuyển về phía đông để theo đuổi tiến sĩ về vật lý sinh học tại Đại học Princeton. Nghiên cứu của anh liên quan đến việc nghiên cứu các cấu trúc thần kinh tìm thấy trong các tế bào hạch của động vật lưỡng cư, đó là cách anh tự thấy mình cắt nhỏ kỳ nhông để kiểm tra võng mạc của chúng. "Tôi không hài lòng với ý nghĩa quyền lợi động vật của điều đó," Amodei nói, người đã là người ăn chay từ khi còn nhỏ. (Anh làm ngoại lệ cho tôm và các động vật không xương sống khác). Nhưng, anh nói thêm, "Tôi là một nhà khoa học. Tôi muốn giải quyết các vấn đề của sinh học, sức khỏe con người."

Điều thực sự ám ảnh Amodei không phải là đạo đức của cuộc sống trong phòng thí nghiệm, mà là tốc độ. Trong khi anh đang vật lộn với sự nhàm chán của công việc hàng ngày, Amodei thấy mọi thứ đang tiến triển nhanh hơn nhiều trong một nỗ lực khác để khám phá bản chất của trí thông minh: sự phát triển của mạng lưới thần kinh nhân tạo. Cái gọi là học sâu đã không còn được ưa chuộng trong giới khoa học máy tính, nhưng lĩnh vực này đã bắt đầu phát triển trở lại vào khoảng năm 2012, và Amodei ấn tượng với những tiến bộ mà các nhà nghiên cứu đang đạt được khi sử dụng công nghệ này để cải thiện thị giác máy tính. "Tôi đã nghĩ, 'Wow, cái này thực sự hoạt động'," Amodei nhớ lại. Năm 2014, Andrew Ng, một giáo sư tại khoa khoa học máy tính tại Stanford, nơi Amodei đã làm nghiên cứu sau tiến sĩ, đã tuyển dụng anh để làm việc về AI tại một đơn vị mà ông đang điều hành cho công ty công nghệ Trung Quốc Baidu Inc. Anh đã nắm lấy cơ hội này.

Amodei đã dành một năm tại Baidu, sau đó một năm khác tại Google Brain, một nhóm nghiên cứu tập trung vào AI trong Google, nơi anh bắt đầu suy nghĩ về các vấn đề đạo đức của sự tiến bộ nhanh chóng của AI. Năm 2016, anh đã xuất bản một bài báo được đánh giá cao có tên "Concrete Problems in AI Safety" (Các vấn đề cụ thể trong An toàn AI) nêu rõ năm lĩnh vực chính mà AI có thể gây ra hành vi có hại không mong muốn.

Mặc dù Google có lẽ là nơi tốt nhất mà một nhà nghiên cứu AI đang lên có thể làm việc vào đầu những năm 2010, một phòng thí nghiệm phi lợi nhuận mới có tên OpenAI dường như phù hợp hơn với sở thích của Amodei. Anh tham gia vào năm 2016 với vai trò là người dẫn đầu nghiên cứu an toàn. Anh sống trong một ngôi nhà chung ở khu Glen Park của San Francisco với một số người cùng phòng, bao gồm ba đồng nghiệp OpenAI khác, những người sau này trở thành đồng sáng lập của Anthropic. Một trong số đó là Daniela. Vào thời điểm đó, cả hai anh em Amodei đều hoạt động trong các nhóm xã hội liên kết với chủ nghĩa vị tha hiệu quả, một triết lý nhấn mạnh tư duy hợp lý như cách hiệu quả nhất để cải thiện thế giới, rất phổ biến trong những người quan tâm đến an toàn AI. (Phong trào này đã mất đi sự ưa chuộng sau khi một trong những nhà lãnh đạo nổi bật nhất của nó, ông trùm tiền điện tử Sam Bankman-Fried—công ty của anh ta là nhà đầu tư của Anthropic trước khi bán cổ phần trong quá trình phá sản—bị kết tội lừa đảo các nhà đầu tư của mình.)

Đóng góp nghiên cứu quan trọng nhất của Amodei tại OpenAI là phát triển khái niệm "quy luật mở rộng", ý tưởng rằng bạn có thể thực hiện các cải tiến cơ bản cho một mạng thần kinh đơn giản bằng cách tăng kích thước mô hình và thêm nhiều dữ liệu và sức mạnh tính toán. Trong phần lớn lịch sử của khoa học máy tính, giả định là những đột phá như vậy sẽ đến chủ yếu bằng cách thiết kế các thuật toán ngày càng tốt hơn. Bằng cách giúp đi tiên phong trong chiến lược càng-lớn-càng-tốt, Amodei đã đóng một vai trò quan trọng trong sự trỗi dậy của các mô hình ngôn ngữ lớn thống trị làn sóng AI hiện tại. Điều này đã giúp anh có được vị trí nổi bật trong OpenAI và ngành công nghiệp rộng lớn hơn.

Cảm giác trách nhiệm của Amodei về AI đã đè nặng lên anh, và theo thời gian, anh đã cảm thấy chán nản với OpenAI. Năm 2020, anh và sáu đồng nghiệp OpenAI đã rời đi để thành lập Anthropic, hứa hẹn xây dựng một phòng thí nghiệm AI có trách nhiệm hơn. Mọi người dễ dàng hòa hợp với nhau: Họ đã làm việc cùng nhau, ba người trong số họ đã sống cùng nhau, và hai người có quan hệ họ hàng.

Sự ra đi này vẫn là một chủ đề gây tò mò trong Thung lũng Silicon, nơi yêu thích những drama khởi nghiệp rối ren, đặc biệt là khi các công ty liên quan là một số công ty khởi nghiệp kỳ lân có giá trị nhất mọi thời đại. Amodei vẫn mơ hồ về chủ đề này nhưng nói về việc mất niềm tin vào ban lãnh đạo của OpenAI. "Tôi không nghĩ rằng có bất kỳ điểm chuyển ngoặt cụ thể nào. Đó chỉ là nhận thức qua nhiều năm rằng chúng tôi muốn hoạt động theo một cách khác," anh nói. "Chúng tôi muốn làm việc với những người mà chúng tôi tin tưởng." Vào thời điểm đó, triển vọng của Anthropic dường như không chắc chắn nhất, xét đến việc OpenAI tiếp cận được với nguồn vốn khổng lồ và sự khởi đầu của họ trong việc xây dựng các mô hình thực tế. "Học thuyết cách đây vài năm là Anthropic sẽ không thể mở rộng quy mô, vì nó sẽ không thể huy động được tiền," Eric Schmidt, cựu CEO của Google và là nhà đầu tư ban đầu vào công ty khởi nghiệp này, nói.

Tuy nhiên, Anthropic đã phát triển thành một đối thủ nghiêm túc, với công nghệ tương đương và danh sách khách hàng trả tiền ngày càng tăng trong lĩnh vực tài chính, dược phẩm, phát triển phần mềm và các ngành công nghiệp khác. (Công ty cũng tạo ra một chatbot có sẵn công khai, Claude, nhưng ít tập trung hơn vào thị trường tiêu dùng so với OpenAI.)

Schmidt nhớ lại chuyến thăm năm 2018 đến Amodei và người bạn đời của anh, Camilla Clark—hiện là vợ anh—trong căn hộ đầu tiên họ sống, gần xa lộ ở San Francisco. Amodei vẫn ở OpenAI lúc đó, nhưng Schmidt đã ấn tượng và sau đó đã đầu tư vào Anthropic. Schmidt nghi ngờ về kế hoạch của Amodei để điều hành Anthropic như một công ty lợi ích công cộng, một loại tổ chức vì lợi nhuận dành riêng để theo đuổi sứ mệnh công cộng. Khi Schmidt thúc giục Amodei thành lập nó như một công ty khởi nghiệp truyền thống, Amodei từ chối.

Những cuộc tranh luận như vậy phổ biến trong những ngày đầu của Anthropic. "Có rất nhiều thảo luận về 'Chúng ta chỉ được tài trợ từ thiện? Chúng ta chủ yếu tập trung vào việc nghiên cứu thuần túy về an toàn? Bạn cần bao nhiêu tài trợ?'" Jared Kaplan, một người bạn của Amodei từ thời sau đại học, người đã trở thành đồng sáng lập của Anthropic và giám đốc khoa học, nói. "Có một số người nghĩ rằng chúng ta nên là một tổ chức phi lợi nhuận. Tôi nghĩ cả Dario và tôi đều nghĩ rằng đó có lẽ không phải là một ý tưởng hay. Chúng ta nên giữ các lựa chọn của mình mở."

Anthropic hiện có vẻ được định vị tốt để trở thành một trong số ít người chiến thắng từ làn sóng AI hiện tại, Hemant Taneja, CEO của công ty đầu tư General Catalyst, đã hỗ trợ Anthropic trong vòng gọi vốn gần đây nhất, nói. "Đây là một công ty có lẽ có những điều đúng đắn đang diễn ra để trở thành một trong những công ty quan trọng cuối cùng," anh nói. "Nhưng tôi chưa bao giờ viết một tấm séc từ GC lớn như thế này, với nhiều sự không chắc chắn như vậy. Tôi sẽ nói với bạn điều đó."

Ngay cả khi tiến về phía trước, Anthropic đã tạo dựng danh tiếng về việc coi trọng các vấn đề như an toàn và trách nhiệm hơn so với công ty mà nó đã xuất phát. Sự sa thải ngắn ngủi của Sam Altman khỏi OpenAI vào năm 2023, người mà hội đồng quản trị của họ cáo buộc "không nhất quán trung thực," đã được theo sau bởi những câu hỏi dai dẳng về sự chính trực và cam kết của công ty đối với sứ mệnh ban đầu của họ.

Amodei thường tránh chỉ trích trực tiếp người sử dụng lao động cũ của mình, nhưng anh và công ty của anh không cao hơn việc thực hiện một số cú đánh được che đậy một cách mong manh. Anthropic đã trả tiền cho các biển quảng cáo xung quanh San Francisco với các khẩu hiệu đọc, "AI mà bạn có thể tin cậy" và "Cái không có tất cả drama." Không giống như các giám đốc điều hành công nghệ khác (bao gồm cả Altman), Amodei đã rất ít nỗ lực để lấy lòng chính quyền Trump, nói rằng thông điệp của anh vẫn giống như khi Joe Biden là tổng thống. Anh đề cập đến "một số người chơi" trong ngành công nghiệp, những người, ngược lại, "nói bất cứ điều gì" với đảng nắm quyền trong một nỗ lực để được ủng hộ chính trị. "Bạn có thể thấy rằng nó rất vô nguyên tắc," anh nói.

Tháng 1 năm nay, Amodei đã thực hiện chuyến đi đầu tiên của mình đến Diễn đàn Kinh tế Thế giới ở Davos, Thụy Sĩ, nơi anh mặc một bộ vest sọc và tham gia vào một số hoạt động lãnh đạo tư duy và đàm phán kinh doanh cấp cao. Vào cùng ngày mà anh thuyết trình đề cập đến DeepSeek và chăm sóc sức khỏe hỗ trợ bởi AI tại Bloomberg House Davos, anh đã dành phần lớn một giờ để hội ý với CEO của AIG Peter Zaffino. Anthropic đã đạt được một hợp đồng nhiều năm để giúp phân tích dữ liệu khách hàng trong quá trình bảo hiểm. (AIG cho biết thỏa thuận này xuất phát từ một dự án thí điểm kéo dài 18 tháng trong đó Anthropic đã giúp tăng tốc công việc đó lên từ 8 đến 10 lần.) Zaffino nói rằng anh chọn Anthropic vì sự tập trung cụ thể của họ vào sự đáng tin cậy và chính xác trong việc trích dẫn các nguồn dữ liệu cụ thể, đặc biệt là trong ngành bảo hiểm được quản lý chặt chẽ. Zaffino nói rằng anh đã ấn tượng về việc Amodei học nhanh như thế nào. "Với những gì Dario thiếu về kinh nghiệm kinh doanh, thuật toán trong bộ não anh ấy di chuyển thực sự nhanh," Zaffino nói. "Anh ấy có thể áp dụng những gì anh ấy đang học và những gì chúng tôi đang nói về mục tiêu kinh doanh."

Khi công việc trong ngày kết thúc ở Davos, anh đã bỏ qua các bữa tiệc buổi tối, thay vào đó là rút lui vào phòng khách sạn để viết một bài luận về cách DeepSeek nhấn mạnh nhu cầu về các biện pháp kiểm soát xuất khẩu chất bán dẫn mạnh mẽ hơn. Vòng gọi vốn gần đây của Anthropic đã làm anh trở thành tỷ phú, và anh thường đi du lịch với đội an ninh. Nhưng anh cũng vẫn sống trong một ngôi nhà thuê ở vùng ngoại ô phía nam San Francisco, nuôi gà trong sân nhà mình. Anh đã cam kết quyên góp "phần lớn" tài sản của mình cho các mục đích từ thiện.

Khi anh tiếp đón một phóng viên của Bloomberg Businessweek tại văn phòng của Anthropic vào tháng 3, bộ quần áo sọc không còn thấy đâu nữa; Amodei đáng chú ý là hài lòng khi trở lại với cái mà Clark gọi là "đồ thoải mái" của anh, quần thể thao màu xám co giãn và một chiếc áo phông cũng thoải mái, cũng màu xám. Bộ trang phục này, anh nói, "giúp tôi suy nghĩ."

Cách suy nghĩ của Amodei, bắt nguồn từ những năm của anh trong học thuật, thúc đẩy văn hóa tại Anthropic. Cứ hai tuần một lần, nhân viên Anthropic—họ tự gọi mình là Ants (Kiến)—tập hợp lại để nghe Amodei thuyết trình khoảng một giờ được biết đến nội bộ là các chuyến thám hiểm tầm nhìn Dario. Các tài liệu kèm theo được phân phát trước, để nhân viên đọc trước cuộc họp. Dưới sự lãnh đạo của Amodei, Anthropic cũng nghiên cứu các chủ đề không lập tức tạo ra tiền, chẳng hạn như khả năng diễn giải cơ học (nghiên cứu về cách các thuật toán không rõ ràng đưa ra quyết định) và phúc lợi AI (đạo đức của việc tương tác với máy tính nếu chúng từng đạt được ý thức).

Thông qua thành tích này, Anthropic đã xây dựng danh tiếng là thực sự nghiêm túc về phát triển AI có trách nhiệm vào thời điểm mà những người khác trong lĩnh vực công nghệ có thể chỉ nói suông về ý tưởng này—hoặc, trong một số trường hợp, bày tỏ sự thù địch với gợi ý rằng một khuôn khổ đạo đức thậm chí là một mục tiêu hợp lý nếu nó làm chậm sự phát triển. "Dario và toàn bộ đội ngũ xứng đáng được ghi nhận công lao và sự tin tưởng vì đã hành động với thiện chí về an toàn," Matthew Yglesias, một nhà văn nổi tiếng về kinh tế và chính sách mà Amodei đã tham khảo ý kiến về bài viết của mình, nói. "Nhưng không rõ liệu điều đó có thay đổi tình hình cấu trúc hay không. Nếu bạn đang trong một cuộc đua, thật khó để an toàn, ngay cả khi bạn đang hành động với thiện chí hoàn hảo."

Anthropic nhằm mục đích xây dựng các máy móc có thể làm hầu hết mọi thứ, nhưng có một điều mà AI của Anthropic đặc biệt làm tốt: viết mã máy tính. Công ty gần đây đã phát hành một ứng dụng cho các lập trình viên, Claude Code, và công nghệ của công ty cũng cung cấp năng lượng cho các ứng dụng lập trình độc lập phổ biến bao gồm Cursor. Báo cáo chỉ số kinh tế tháng 2 của chính Anthropic cho thấy 37% tất cả các tương tác liên quan đến công việc về Claude là dành cho lập trình, cao nhất trong bất kỳ danh mục nào. (Nghệ thuật và truyền thông đứng thứ hai với khoảng 10%.) Amodei cho biết lập trình tự động có lẽ là phần phát triển nhanh nhất trong kinh doanh của Anthropic trong những tháng gần đây.

Lập trình được tạo ra bởi AI không có cùng sự cộng hưởng cảm xúc như âm nhạc hoặc hội họa được tạo ra bởi máy tính. Không giống như với một bài hát, người tiêu dùng không quan tâm nhiều nếu mã bên dưới ứng dụng họ đang sử dụng đến từ một người thật. Bản thân các lập trình viên cũng phần lớn đã chấp nhận rằng AI là một phần của công việc: Một cuộc khảo sát của GitHub Inc. năm ngoái với 2.000 nhân viên kỹ thuật phát hiện ra rằng gần như tất cả, 97%, đã sử dụng các công cụ lập trình tại một số thời điểm trong công việc của họ.

Nhưng việc mất việc làm sắp tới trong lĩnh vực này cũng cảm thấy ít giả thuyết hơn so với các vấn đề an toàn AI như máy tính chế tạo bom bẩn. Anthropic đã phát hiện ra rằng 79% lập trình viên sử dụng Claude Code làm như vậy để "tự động hóa" thay vì "tăng cường" các tác vụ. (Chính báo cáo chỉ số kinh tế được xây dựng một phần bởi Claude Code, theo người đứng đầu chính sách và đồng sáng lập của Anthropic – và cựu phóng viên Bloomberg News – Jack Clark.)

Đây là lĩnh vực mà Amodei đã đối mặt với những thực tế khắc nghiệt từ công việc của công ty mình. Trong một bài nói chuyện ngày 10 tháng 3 tại Washington, DC, do Hội đồng Quan hệ Đối ngoại tổ chức, Amodei dự đoán rằng AI có thể viết hầu hết tất cả mã máy tính trong vòng một năm. Một đoạn clip về những bình luận này đã lan truyền, gây ra sự pha trộn giữa sợ hãi và hoài nghi. Amodei nói rằng nhận xét này đã bị hiểu sai. Tại sự kiện, anh cũng nói rằng con người vẫn sẽ tham gia vào quá trình lập trình tổng thể, chẳng hạn như chỉ định loại ứng dụng nào để tạo hoặc cách tích hợp nó với các hệ thống khác. "Cuối cùng, những mô hình này sẽ tốt hơn tất cả chúng ta trong mọi thứ," anh nói. "Chúng ta phải đối phó với điều đó. Ở cấp độ xã hội, mọi người phải đối phó với điều đó. Mục tiêu của tôi không phải là tạo ra một tầng lớp thấp kém trong giai đoạn trước đó."

Một cách khó xử cho Anthropic, những công nhân bị ảnh hưởng trong sự chuyển đổi công nghệ này có thể là những người trong văn phòng của họ hôm nay đang xây dựng những công cụ tự động hóa đó. "Không khí là, 'Ồ, nó đang trở thành hiện thực'," Clark nói. Amodei đã làm cho chủ đề này trở thành trọng tâm của một bài nói chuyện tầm nhìn gần đây, trong đó anh nói với nhân viên rằng công nghệ của Anthropic đang dẫn đến những thay đổi đáng kể trong cách công ty tổ chức công việc của mình. "Chúng tôi có thể làm chậm việc tuyển dụng của mình vì Claude, và chúng tôi sẽ làm điều đó vì chúng tôi không muốn sa thải bất kỳ ai vì Claude," anh nói, kể lại những gì anh đã nói với nhân viên của mình. Anh nói thêm rằng công ty sẽ giúp các lập trình viên thích nghi với vai trò ngày càng phát triển của họ.

Trong một bản ghi nhớ nội bộ đi kèm với cuộc họp, Amodei đã viết rằng có 70% khả năng vào một thời điểm nào đó trong năm nay, khả năng của AI trong việc "thực hiện các nhiệm vụ kỹ thuật chính" như viết mã, gỡ lỗi, và đề xuất và quản lý các thí nghiệm sẽ chuyển từ một "công cụ hữu ích" thành "một thứ tuyệt đối không thể thiếu" thực hiện phần lớn các nhiệm vụ kỹ thuật này, tăng gấp đôi tốc độ thực hiện của Anthropic.

"Phần đóng góp chính cho sự tiến bộ của AI sẽ đến từ chính AI," Amodei viết, với lưu ý rằng con người vẫn sẽ đóng một vai trò rất trung tâm, "có lẽ trong một thời gian do lợi thế so sánh." Vai trò của con người có thể dần dần bị thu hẹp, cho đến khi AI bắt đầu tạo ra AI mới trong một loại vòng lặp đệ quy.

Khả năng này, nếu nó thực sự được phát triển, sẽ đưa các mô hình của Anthropic tăng vọt trên thang đo nguy hiểm của họ. Ở ASL-4, một AI sẽ có "khả năng tự động hóa hoàn toàn công việc của một nhà nghiên cứu cấp đầu vào, chỉ làm việc từ xa tại Anthropic." Có một ASL-5, khi AI có khả năng cải thiện bản thân với sự tăng tốc ngày càng tăng.

Trong bài luận "Machines of Loving Grace" (Những cỗ máy của ân sủng yêu thương), một bài viết được đọc rộng rãi mà Amodei lần đầu tiên xuất bản nội bộ và sau đó công khai trên blog cá nhân của anh vào tháng 10 năm ngoái, anh đã trình bày cái kết trông như thế nào nếu mọi thứ diễn ra đúng với AI. Dựa trên chuyên môn của mình trong sinh học, anh nói AI sẽ tăng tốc các khám phá khoa học với tốc độ gấp 10 lần tốc độ hiện tại, giúp chữa trị hầu hết các bệnh truyền nhiễm, hầu hết các bệnh ung thư và bệnh Alzheimer, và cuối cùng là tăng gấp đôi tuổi thọ của con người. (Anthropic hiện in các bản sao bỏ túi của bài luận "Machines of Loving Grace" để tặng nhân viên.)

Giọng điệu thay đổi trong phần nói về mối quan hệ của AI với công việc và ý nghĩa. Anh nói vấn đề này đặc biệt khó khăn, vì nó "mơ hồ hơn và khó dự đoán trước." Amodei dự đoán rằng AI cuối cùng có thể thay thế hầu hết lao động của con người, khiến mọi người phải sống dựa vào thu nhập cơ bản phổ quát hoặc phương pháp phân phối lại khác trừ khi họ tìm thấy một cách nào đó chưa được xác định để tiếp tục có giá trị kinh tế.

"Chúng ta có thể sẽ phải đấu tranh để có được kết quả tốt ở đây: Các hướng bóc lột hoặc phản địa đàng rõ ràng cũng có thể xảy ra và phải được ngăn chặn," Amodei viết. "Nhiều điều hơn nữa có thể được viết về những câu hỏi này, và tôi hy vọng sẽ làm như vậy vào một thời điểm sau."

 

Không có file đính kèm.

15

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo