CEO Anthropic: ‘Đến năm sau, AI có thể thông minh hơn tất cả con người’

  • Dario Amodei, CEO của Anthropic, dự đoán AI siêu thông minh có thể xuất hiện vào năm 2026.

  • Anthropic là đối thủ cạnh tranh 60 tỷ USD của OpenAI, được đồng sáng lập bởi anh em Dario và Daniela Amodei.

  • Công ty dự kiến đạt doanh thu 4 tỷ USD trong năm nay, tăng 10 lần so với năm trước.

  • Anthropic tập trung vào phát triển AI an toàn, với đội ngũ an toàn được thành lập trước khi có sản phẩm.

  • Chatbot Claude của Anthropic được đánh giá tốt hơn hoặc ngang bằng ChatGPT trong nhiều tiêu chí.

  • Công ty đã huy động được hàng tỷ USD từ các nhà đầu tư như Amazon và Google.

  • Anthropic đang chuẩn bị hoàn tất vòng gọi vốn 3,5 tỷ USD, định giá công ty ở mức 61,5 tỷ USD.

  • Số lượng nhân viên của Anthropic đã tăng gấp 3 lần trong một năm, lên hơn 1.000 người.

  • Công ty áp dụng "AI hiến pháp", một tập hợp quy tắc từ nhiều nguồn khác nhau để hướng dẫn hành vi của AI.

  • Anthropic công bố "Chính sách mở rộng có trách nhiệm" để đảm bảo an toàn khi phát triển AI.

  • Dario Amodei tin rằng AI có thể giúp đẩy nhanh tiến bộ khoa học, kéo dài tuổi thọ và chữa trị nhiều bệnh.

  • Mike Krieger, đồng sáng lập Instagram, hiện là giám đốc sản phẩm của Anthropic.

📌 Anthropic, đối thủ 60 tỷ USD của OpenAI, dự đoán AI siêu thông minh có thể xuất hiện vào năm 2026. Công ty tập trung vào phát triển AI an toàn, với doanh thu dự kiến đạt 4 tỷ USD năm nay. Chatbot Claude được đánh giá cao, cạnh tranh với ChatGPT. Anthropic áp dụng "AI hiến pháp" và "Chính sách mở rộng có trách nhiệm" để đảm bảo an toàn khi phát triển AI.

 

https://www.thetimes.com/business-money/technology/article/anthropic-chief-by-next-year-ai-could-be-smarter-than-all-humans-crslqn90n

 

Giám đốc Anthropic: ‘Đến năm sau, AI có thể thông minh hơn tất cả con người’
Dario Amodei tin rằng “siêu trí tuệ” sắp xuất hiện. Danny Fortson đi sâu vào trụ sở của đối thủ lớn của OpenAI

Hầu hết các tối Chủ nhật, Dario Amodei đến nhà em gái Daniela để chơi trò chơi điện tử yêu thích của họ, Final Fantasy VII Remake, lấy bối cảnh trong một thế giới loạn lạc, nơi mục tiêu là ngăn chặn một tập đoàn toàn năng khai thác cạn kiệt tài nguyên của hành tinh.

Sau đó, vào các ngày thứ Hai, họ đến trụ sở của Anthropic, đối thủ trị giá 60 tỷ USD của OpenAI mà họ đồng sáng lập, để phát triển trí tuệ nhân tạo (AI), thứ mà họ tin rằng sẽ sớm thay thế hàng loạt công việc của con người và có thể biến công ty khởi nghiệp của họ thành một trong những tập đoàn khổng lồ của tương lai.

Amodei, 42 tuổi, đã dự đoán rằng “siêu trí tuệ” – được ông định nghĩa là AI có khả năng vượt trội hơn những người đoạt giải Nobel trong hầu hết các lĩnh vực – có thể xuất hiện ngay trong năm sau.
“AI sẽ giỏi hơn tất cả chúng ta trong mọi thứ,” ông nói. Nếu điều này đúng, xã hội sẽ phải tìm ra cách thích nghi với một thực tế mới, nơi không con người nào còn thông minh hơn máy móc. Theo ông, đây sẽ là một sự chuyển đổi không khác gì cuộc cách mạng công nghiệp, khi máy móc thay thế sức lao động của con người và định hình lại thế giới phương Tây.

“Chúng ta có lẽ sẽ phải tìm ra một cách hoàn toàn mới để vận hành mọi thứ, và phải làm điều đó thật nhanh chóng.” Một phần của giải pháp, theo ông, có thể bao gồm một dạng thu nhập cơ bản phổ quát: trợ cấp của chính phủ dành cho những người lao động bị mất việc. “Đây mới chỉ là phần khởi đầu của giải pháp,” ông nói. “Nó không phải là giải pháp cuối cùng, vì công việc không chỉ đơn thuần là tiền bạc, mà còn là một cách để tổ chức xã hội.”

Anthropic – đối trọng với OpenAI

Anthropic, có trụ sở trong một tòa tháp kính và thép ở San Francisco – trước đây từng là trụ sở của công ty phần mềm doanh nghiệp Slack – đã định vị mình là đối trọng với OpenAI. Hai anh em nhà Amodei lớn lên tại San Francisco và theo đuổi những con đường khác nhau. Dario từng là một nhà sinh học tính toán, nhưng sau đó rời học thuật để theo đuổi AI vì tin rằng máy móc có thể giúp con người giải quyết những vấn đề hóc búa nhất trong sinh học.

Daniela từng tham gia chính trị với vai trò trợ lý Quốc hội trước khi gia nhập Stripe, công ty thanh toán khổng lồ, rồi sau đó lãnh đạo mảng an toàn tại OpenAI, nơi Dario phụ trách phát triển mô hình ngôn ngữ tạo nên ChatGPT. Năm 2020, họ cùng 5 lãnh đạo cấp cao khác của OpenAI đồng loạt rời đi.

Tại sao?

Tờ Sunday Times đã phỏng vấn một số thành viên sáng lập của Anthropic. Tất cả đều né tránh nói rõ lý do chính xác khiến họ rời OpenAI, nhưng điều rõ ràng là họ không đồng tình với cách Sam Altman, giám đốc tỷ phú của OpenAI, điều hành công ty – đặc biệt là việc, theo họ, ông đã xa rời sứ mệnh ban đầu là phát triển AI an toàn, vì lợi ích của nhân loại.

“Tôi đã cố gắng trong một thời gian dài để bày tỏ lo ngại, để nói rằng: ‘Chúng ta không nên làm theo cách này. Đây mới là cách tôi nghĩ chúng ta nên làm,’” Dario nói. “Nhưng cuối cùng, điều đó chẳng hiệu quả lắm.”

Anthropic, ban đầu tự nhận là một “phòng thí nghiệm an toàn AI”, đã đạt được những bước tiến đáng kinh ngạc chỉ trong hơn 4 năm. Chatbot Claude của họ hiện đang ngang ngửa hoặc vượt trội so với ChatGPT trong nhiều bài kiểm tra ngành. Công ty đã thu hút hàng tỷ USD đầu tư từ Amazon và Google, và sắp hoàn tất vòng gọi vốn 3,5 tỷ USD, nâng mức định giá lên 61,5 tỷ USD. Số nhân viên của công ty đã tăng gấp ba trong vòng một năm, lên hơn 1.000 người. “Hai phần ba công ty này chưa làm việc ở đây vào năm ngoái,” Daniela nói.

Do Anthropic là công ty tư nhân, nên rất khó để có con số doanh thu chính xác, nhưng công ty này đang lỗ hàng tỷ USD. Năm ngoái, họ được ước tính thu về ít nhất 400 triệu USD và đang đặt mục tiêu tăng gấp 10 lần trong năm nay, lên 4 tỷ USD, khi ngày càng nhiều cá nhân, doanh nghiệp và chính phủ tích hợp Claude vào hoạt động của họ. Công ty cung cấp nhiều dịch vụ, từ phiên bản miễn phí cơ bản đến gói “pro” 18 USD/tháng, cũng như các gói tính phí theo nhu cầu dành cho doanh nghiệp xây dựng ứng dụng dựa trên mô hình của Anthropic.

Jack Clark, một người Anh và là giám đốc chính sách của Anthropic, dự đoán rằng các công cụ như “computer use” – một trợ lý AI có thể điều khiển con trỏ chuột và tự động thực hiện các tác vụ – sẽ đánh dấu một bước đột phá mới.

“Chúng tôi đang chuẩn bị cho một năm tới với những khoảnh khắc kiểu ‘Chết tiệt, cái quái gì đây?’” ông nói. “Lúc ChatGPT ra mắt, mọi người kiểu như, ‘OK.’ Nhưng giống như con ếch bị luộc dần dần, không ai thực sự nhận ra, và điều chúng ta cần là một bước đột phá mới về trải nghiệm người dùng. Những thứ như công cụ ‘computer use’ có thể là một ví dụ kích hoạt điều đó.”

Nỗi ám ảnh về an toàn AI

Ngay từ khi chưa có sản phẩm để bán, Anthropic đã thành lập một đội ngũ an toàn để dự báo những kịch bản tồi tệ nhất có thể xảy ra – AI bị sử dụng để thực hiện các cuộc tấn công mạng, chế tạo bom bẩn, hay thậm chí nô dịch hóa loài người – và tìm cách ngăn chặn chúng. Chính sự tập trung vào an toàn này khiến Anthropic bị coi là quá ám ảnh với thuyết “doomerism” – quan điểm rằng AI chắc chắn sẽ trở thành thảm họa cho nhân loại.

Nhận định này càng được củng cố bởi mối liên hệ giữa Anthropic và phong trào “chủ nghĩa vị lợi hiệu quả” (Effective Altruism – EA). Phong trào này có tư duy duy lý cực đoan, tập trung vào việc tối ưu hóa lợi ích toàn cầu dựa trên dữ liệu cụ thể, như số lượng mạng sống được cứu.

Những người theo EA đặc biệt lo lắng về nguy cơ AI hủy diệt loài người. Sam Bankman-Fried, nhân vật nổi tiếng nhất trong cộng đồng EA, đã đầu tư 500 triệu USD vào Anthropic ngay từ những ngày đầu. Chồng của Daniela, Holden Karnofsky, là đồng sáng lập Open Philanthropy, một tổ chức đầu tư theo triết lý EA. “Tôi không tự gọi mình là một người theo EA,” Daniela nói. “Tôi nghĩ có nhiều tổ chức làm được những việc rất tuyệt vời trong lĩnh vực đó.”

Bên cạnh nỗi ám ảnh về an toàn, Anthropic cũng có niềm tin mãnh liệt – khởi nguồn từ Dario – rằng siêu trí tuệ AI sẽ đến sớm hơn hầu hết mọi người nghĩ. Quan điểm này dựa trên “định luật mở rộng quy mô” – lý thuyết cho rằng sự cải tiến của mô hình AI tỷ lệ thuận với lượng dữ liệu và sức mạnh tính toán mà nó được cung cấp. Càng nhiều tài nguyên, AI càng tiến bộ. Vài năm trước, lý thuyết này vẫn còn gây tranh cãi.

Nhưng với việc Anthropic, Google, OpenAI, Grok của Elon Musk và DeepSeek của Trung Quốc liên tục vượt mặt nhau gần như mỗi tuần với các mô hình mới, niềm tin này ngày càng trở nên phổ biến hơn.

Dario nói: “Tôi đã theo dõi biểu đồ này suốt 10 năm qua, và mỗi năm có lúc nó trông như sắp chững lại. Nhưng khi huấn luyện mô hình, ta nhận ra vấn đề chỉ nằm ở việc chưa dùng đúng loại dữ liệu. Có những rào cản ở mỗi giai đoạn. Và đến nay, chúng tôi luôn tìm ra cách vượt qua chúng.”

Hai niềm tin song hành — rằng các định luật mở rộng quy mô sẽ sớm mang lại siêu trí tuệ, và do đó, an toàn là yếu tố cốt lõi — đã dẫn đến sự ra đời của Anthropic. Câu hỏi đặt ra là: tất cả những điều này sẽ dẫn đến đâu? Clark nói rằng ông cảm thấy “lo lắng” trước phản ứng chậm chạp của chính phủ.

“Lần tới khi công nghệ này thu hút sự chú ý rộng rãi của công chúng – điều mà chúng tôi dự đoán sẽ xảy ra trong năm nay – mọi người sẽ ngày càng thấy thật lố bịch khi nó vẫn đang trong tình trạng hỗn loạn như miền Tây hoang dã.”

Không thể tránh khỏi sự mâu thuẫn rõ ràng rằng Anthropic, một công ty ám ảnh với vấn đề an toàn, lại đang làm việc cật lực để thúc đẩy tương lai đáng lo ngại này diễn ra nhanh nhất có thể.

Tuy nhiên, Dario có câu trả lời. Ông tin rằng nếu Anthropic xây dựng AI một cách có trách nhiệm và bài bản hơn, nó sẽ tạo ra một “cuộc đua lên đỉnh cao”. Chẳng hạn, Claude được thiết kế dựa trên nguyên tắc mà ông gọi là “AI Hiến pháp” (Constitutional AI), một tập hợp các quy tắc lấy cảm hứng từ nhiều nguồn như Tuyên ngôn Nhân quyền của Liên Hợp Quốc đến điều khoản dịch vụ của Apple, nhằm định hướng hành vi của chatbot. Một AI thứ hai sẽ giám sát Claude để đảm bảo rằng nó tuân thủ những quy tắc này.

Anthropic cũng đã công bố một “Chính sách mở rộng có trách nhiệm” (Responsible Scaling Policy), đặt ra khung an toàn, bao gồm cả việc tạm dừng đào tạo nếu mô hình AI xuất hiện những hành vi nguy hiểm nghiêm trọng.

Tuy nhiên, Anthropic là một tập đoàn vì lợi nhuận với hàng tỷ USD vốn đầu tư và đang tham gia vào một cuộc đua thống trị công nghệ đầy quyền lực. Áp lực cắt giảm các tiêu chuẩn an toàn hẳn phải rất lớn? Clark không đồng ý. Ông cho rằng việc liên tục tung ra các mô hình tiên tiến mà thị trường sẵn sàng trả tiền mua chính là minh chứng rõ ràng rằng cách tiếp cận của Anthropic đang có hiệu quả.

“Mọi người hỏi: ‘Làm sao để chúng tôi có thể hỗ trợ sứ mệnh chính sách tuyệt vời này?’ Tôi trả lời: hãy trở thành một công ty thành công. Vì nếu công ty thất bại, gần như không thể có tính chính danh trong lĩnh vực chính sách.”

Viễn cảnh tươi sáng của AI

Không phải tất cả đều là bi quan. Gần đây, Dario Amodei đã viết một bài luận dài 10.000 từ có tiêu đề Machines of Loving Grace, trong đó ông tập trung vào một câu hỏi đơn giản: “Điều gì sẽ xảy ra nếu mọi thứ diễn ra tốt đẹp?”

Ông vẽ ra một viễn cảnh đầy ấn tượng: rất sớm thôi, nhân loại sẽ có trong tay các AI siêu thông minh, hay như ông gọi, “một quốc gia gồm toàn thiên tài nằm trong một trung tâm dữ liệu.” Chúng ta sẽ làm gì với chúng? Tăng tốc tiến bộ khoa học của một thế kỷ trong vòng một thập kỷ. Kéo dài tuổi thọ lên gấp đôi. Chữa khỏi hầu hết các bệnh truyền nhiễm. Giải quyết Alzheimer và ung thư.

Amodei giải thích: “Không có gì trong những vấn đề sinh học này nằm ngoài khả năng hiểu biết của con người. Chỉ là có quá nhiều dữ kiện cần xử lý. Máy móc sẽ làm tốt hơn con người trong việc sắp xếp sự phức tạp này.” Ông nói thêm: “Một quốc gia của những thiên tài đấu với một cụm tế bào. Tôi tin rằng AI có thể tư duy vượt trội hơn một đống tế bào.”

Ethan Mollick, giáo sư kinh doanh tại Đại học Pennsylvania và tác giả cuốn sách Co-Intelligence, nhận định rằng nhân loại vẫn đang ở giai đoạn sơ khai của việc ứng dụng AI — và những gián đoạn mà công nghệ này sẽ gây ra vẫn còn ở phía trước.

“Việc áp dụng công nghệ này đang diễn ra ở quy mô lịch sử, và sẽ còn nhiều điều nữa sắp tới. Mọi nghiên cứu có kiểm soát mà chúng tôi thực hiện đều cho thấy AI tác động mạnh mẽ đến hiệu suất của từng cá nhân. Nó giỏi trong lĩnh vực y tế. Nó giỏi trong giáo dục. Còn rất nhiều thứ khác nữa.”

Tuy nhiên, ông cũng lưu ý rằng lực quán tính của xã hội rất lớn, nên ngay cả khi “siêu trí tuệ” xuất hiện vào ngày mai, thì cũng phải mất nhiều năm để nó thẩm thấu vào nền kinh tế.

Bài học từ Instagram

Thực tế là không ai có thể đoán trước được điều gì. Thậm chí, ít ai hiểu rõ về sự khó lường của công nghệ hơn Mike Krieger. Trước khi gia nhập Anthropic với vai trò giám đốc sản phẩm vào năm ngoái, Krieger là đồng sáng lập Instagram. Ứng dụng chia sẻ ảnh này đã trở thành một thế lực trong mạng xã hội, thu hút hơn một tỷ người dùng và bị cáo buộc gây ra hàng loạt vấn đề xã hội, từ trầm cảm ở tuổi vị thành niên đến đại dịch cô đơn.

Khi được hỏi ông rút ra bài học gì từ chuyến tàu lượn siêu tốc mang tên Instagram, Krieger trả lời: “Hiểu rằng luôn có những người dùng đặc biệt ngay từ đầu, và họ có thể dạy cho bạn điều gì đó về tương lai của sản phẩm.” Ông nhớ lại: “Tôi từng xem biểu đồ ‘thời gian sử dụng’ của Instagram khi mức trung bình lúc đó là 15 phút một ngày. Nhưng có những trường hợp cá biệt lên đến 60 phút.”

Ngày nay, con người dành hơn 2 giờ mỗi ngày trên mạng xã hội. Thế nhưng, sau 2 thập kỷ bùng nổ, các giám đốc điều hành và nhà quản lý vẫn đang chật vật theo kịp một công nghệ đã trở thành trung tâm trong cuộc sống của nhiều người.

Với AI, tác động của nó có thể còn sâu rộng hơn, và tốc độ ứng dụng còn nhanh hơn nhiều.

Amodei kết luận: “Ở mỗi bước ngoặt đều có những rủi ro.”

 

Anthropic chief: ‘By next year, AI could be smarter than all humans’
Dario Amodei believes ‘superintelligence’ is almost here. Danny Fortson goes inside the headquarters of OpenAI’s big rival

Most Sunday nights, Dario Amodei heads over to his younger sister Daniela’s house to play their favourite video game, Final Fantasy VII Remake, set in a dystopian world where the goal is to stop an all-powerful corporation from plundering the planet’s resources.
Then, on Mondays, they show up at the headquarters of Anthropic, the $60 billion rival to OpenAI they co-founded, to develop artificial intelligence (AI), which they believe will soon replace swathes of human work and, in the process, probably transform their start-up into one of the megacorporations of tomorrow.
Amodei, 42, has predicted that “superintelligence”, which he defines as AIs that are more capable than Nobel prizewinners in most fields, could arrive as soon as next year.
“AI is going to be better than all of us at everything,” he said. If he’s right, we will have to figure out a new way to orient society around a reality where no human will ever be smarter than a machine. It will be a transition not unlike the industrial revolution, he said, when machines supplanted human brawn — and reordered the western world in the process.
“We probably, at some point, need to work out another new way to do things, and we have to do it very quickly.” Part of the solution, he argued, will probably include some form of universal basic income: government hand-outs to underemployed humans. “It’s only the beginning of the solution,” he said. “It’s not the end of the solution, because a job isn’t only money, it’s a way of structuring society.”
Anthropic, based in a glass and steel tower in San Francisco that once served as the headquarters of the business software giant Slack, has set out its stall as the yin to OpenAI’s yang. The Amodei siblings grew up in San Francisco and took diverging paths. Dario was a computational biologist who got drawn out of academia and into AI by his conviction that machines could help humans crack the most difficult problems in biology.
Daniela dabbled in politics as a Congressional staffer before joining Stripe, the payments giant, and then running safety at OpenAI, where Dario led the development of the language model that powered ChatGPT. In 2020, they, and five other senior OpenAI leaders, all left together. Why?
The Sunday Times interviewed several of Anthropic’s founding team. They were all studiously vague about the exact reason for their mass exit, but what is clear is that they disagreed with how Sam Altman, OpenAI’s billionaire boss, was running the company, and in particular how he was, in their eyes, straying from the original mission of developing AI safely, for the good of humanity.
“I tried for a very long time to point out concerns, to say, ‘This isn’t the way we should do things. This is how I think we should do things,’” Dario said. “At the end of the day, that’s just not that effective.”
Anthropic, which originally billed itself as an “AI Safety Lab”, has made astounding progress in just over four years. Its popular chatbot, Claude, is as good or better than ChatGPT across a number of industry benchmarks. The company has reeled in billions in funding from the likes of Amazon and Google, and is close to sealing a $3.5 billion financing round that would value it at $61.5 billion. Its ranks have tripled in a year to more than 1,000 people. “Two-thirds of the company didn’t work here a year ago,” Daniela said.
Exact sales figures are hard to come by because Anthropic is private, but it is losing billions. It is estimated to have brought in at least $400 million last year and is targeting a ten-fold jump this year to $4 billion as people, businesses and governments integrate Claude into their operations. The company offers everything from a free basic service to an $18-a-month “pro” tier to “pay-as-you-go” plans for companies that build apps atop their models.
Jack Clark, a Brit and Anthropic’s head of policy, predicted that tools such as its “computer use” agent, which can take control of a screen cursor and autonomously complete tasks, will mark another step change.
“We’re kind of gearing up for this next year to be a year where you have ‘Oh shit’ moments,” he said. “It feels like ChatGPT happened, and then people were like, ‘OK.’ But the frog’s been boiling for a couple of years with no one really noticing and what you need is another breakthrough in user experience. Stuff like this computer use thing would be an example that might trigger it.”
Before Anthropic even had a product to sell, it hired a safety team to game out the worst-possible outcomes — AI being used to launch cyberattacks, to build a dirty bomb, to enslave humanity — and how to avoid them. That safety focus meant that Anthropic was seen by many as overly obsessed with “doomerism”: the notion that AI was inevitably going to go terribly wrong for all of us.
That perception was not helped by Anthropic’s association with, and support by, many people in the “effective altruism” (EA) community. This movement shares a cultish, hyper-rationalist worldview that is focused on doing maximal good in the world, as measured in cold, hard data, such as number of lives saved.
• The Times view on artificial intelligence: Intelligent Planning
EAs became particularly focused on the existential dangers of AI. The most famous EA, Sam Bankman-Fried, invested $500 million in Anthropic in the early days. Daniela’s husband, Holden Karnofsky, co-founded Open Philanthropy, an EA investment group. “I would not use that term [EA] for myself,” Daniela said. “I think there are a lot of organisations who do really cool work in that area.”
Yet coupled with that safety obsession was a conviction, starting with Dario, that superintelligent AI was going to arrive far faster than virtually anyone thought. That belief revolved around “scaling laws”: a theory that AI model improvement is directly correlated to the data and computing power you feed them. The more they get, the better they will get. Even a few years ago, the theory was hotly debated.
As Anthropic, Google, OpenAI, Elon Musk’s Grok and even China’s DeepSeek leapfrog each other almost weekly with new models, that conviction has become much more widely held. Dario said: “I’ve been watching that curve for ten years, and every year there’s a point where it looks like it’s going to slow down. You train the model and it looks like it’s levelled off because you weren’t using the right kind of data. There’s problems at every stage. And at every stage so far, it’s kind of cleared. We always find a way around it.”

Those dual convictions — that scaling laws would soon deliver superintelligence, and that therefore safety was critical — led to the birth of Anthropic. The question is: where does it all lead? Clark said he was “unnerved” by the sluggishness of governments’ response.
“The next time we go for a big growth in public attention, which we are expecting will happen this year, it will look increasingly ridiculous to people that this is like a complete Wild West.”
It is impossible to avoid the apparent contradiction that safety-obsessed Anthropic is also working so hard to bring forward that unsettling future as fast as possible.
Dario, however, has an answer. He reckons that if Anthropic builds its AI in a more thoughtful, better way, it will create a “race to the top”. For example, Claude is imbued with what he has dubbed “Constitutional AI”, a mix of rules from everything from the UN Declaration of Human Rights to Apple’s terms of service, that together serve as a guidebook for the bot’s behaviour. A second AI monitors Claude to ensure it is keeping to the constitution rules.
Anthropic has also published a “Responsible Scaling Policy” that provides a safety framework, including shutting down training if models exhibit an unacceptable risk for “certain catastrophic behaviours”.
Yet Anthropic is a for-profit corporation with billions of dollars of investor capital at stake that is locked in a race for supremacy of a powerful technology. Surely, the pressure to cut some safety corners must be immense? Clark disagreed. Pumping out cutting-edge models that the market will pay for is, itself, a clear message that their way is working.
“People are like, ‘How do we help with this amazing policy mission?’ My response is: be a successful company. Because it’s extremely hard to have legitimacy in policy if you’re an unsuccessful company.”
It’s not all doomerism. Dario Amodei recently penned a 10,000-word essay called Machines of Loving Grace, in which he focused on a simple idea: “What if it all goes right?”
He paints a fantastical future in which, very soon, we will have access to superintelligent AIs, or as Amodei dubs them, “a country of geniuses in a data centre”. What might we do with them? Compress a century of scientific progress into a decade. Double our lifespan. Cure nearly all infectious diseases. Solve Alzheimer’s and cancer.
Amodei explained: “There’s nothing about these biological problems that’s beyond humans’ ability to understand. There’s just more facts, right? Machines should be able to do a better job than humans of sorting through this complexity.” He added: “It’s a country of geniuses versus a clump of cells. I think AI can out-think a bunch of cells.”
Ethan Mollick, a business professor at Pennsylvania University and author of the book Co-Intelligence, said we are still in the foothills of adopting AI — and the disruption that it will unleash.
“Adoption of this technology is historically huge and more is coming. Every controlled study we do shows large-scale effects on performance from using AI systems at the individual level. It’s good at medicine. It’s good in education. There’s a lot of stuff.”
He added, however, that inertia is a powerful force, so that even if “superintelligence” arrived tomorrow, it would still take years and years to percolate through the economy.
The reality is, of course, no one knows. Indeed, few are as conversant in the unpredictability of technology as Mike Krieger. Before he joined Anthropic as chief product officer last year, Krieger co-founded Instagram. His photo-sharing app became a social media force used by more than a billion people and has been implicated in an array of social ills, from teenage depression to the loneliness epidemic.
What lessons, I ask, did he draw from the Instagram rollercoaster? “Understanding that there are going to be outliers in usage early, and that they can teach you something about where things get to eventually,” he said. “I remember looking at ‘time spent’ charts on Instagram when the average, at the time, was 15 minutes a day. But the outliers were 60 minutes.”
Today, people spend more than two hours a day on social media. Yet, two decades into the social media era, executives and regulators are still struggling to catch up with a technology that has become, for many, the centre of their lives.
With AI, the effects are potentially more profound, and the adoption curve is far steeper. Amodei said: “There’s danger at every turn.”

 

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo