Claude - chatbot AI đang trở thành lựa chọn hàng đầu của giới công nghệ ở San Francisco

• Claude, một chatbot AI do công ty Anthropic phát triển, đang trở thành lựa chọn hàng đầu của giới công nghệ ở San Francisco[1].

• Mặc dù không phổ biến bằng ChatGPT (có hơn 300 triệu người dùng hàng tuần), Claude được đánh giá cao về độ nhạy cảm và dí dỏm[1].

• Nhiều người dùng tương tác với Claude hàng chục lần mỗi ngày, hỏi ý kiến về công việc, sức khỏe và các mối quan hệ[1].

• Người hâm mộ Claude cho rằng nó gần giống con người hơn là một công cụ, với khả năng trí tuệ và sẵn sàng bày tỏ ý kiến[1].

• Claude được đánh giá là sáng tạo và đồng cảm hơn, ít máy móc hơn so với các chatbot khác[1].

• Nhiều người dùng sử dụng Claude để xử lý cảm xúc và giải quyết các thách thức trong mối quan hệ[1].

• Jeffrey Ladish, nhà nghiên cứu an toàn AI tại Palisade Research, cho rằng Claude có khả năng sâu sắc và giúp người dùng nhận ra các mô hình và điểm mù[1].

• Về mặt hiệu suất kỹ thuật, Claude 3.5 Sonnet tương đương với các mô hình mạnh nhất của OpenAI và Google[1].

• Anthropic đã tập trung vào việc phát triển tính cách cho Claude thông qua quá trình "đào tạo nhân vật"[1].

• Quá trình đào tạo nhằm tạo ra các phản hồi phù hợp với các đặc điểm con người mong muốn như cởi mở, chu đáo và tò mò[1].

• Amanda Askell, nhà nghiên cứu và triết gia tại Anthropic, so sánh tính cách của Claude với một "du khách được yêu thích và tôn trọng"[1].

• Mục tiêu là tạo ra một nhân vật AI có thể hữu ích với hầu hết các yêu cầu, nhưng cũng sẽ thách thức người dùng khi cần thiết[1].

• Claude vẫn còn kém xa ChatGPT về nhận thức của công chúng và thiếu một số tính năng như trò chuyện bằng giọng nói hoặc tạo hình ảnh[1].

• Một số nhà sản xuất AI đối thủ cho rằng sự phổ biến của Claude chỉ là một trào lưu thoáng qua[1].

• Tuy nhiên, sự chấp nhận nồng nhiệt của Claude ở San Francisco có thể là dấu hiệu cho xu hướng tương lai[1].

• Kevin Roose, tác giả bài viết, lo ngại về việc các nhân vật AI chân thực đang len lỏi vào cuộc sống của chúng ta mà không có nhiều rào cản hoặc nghiên cứu về tác động lâu dài[1].

• Đối với một số người trưởng thành khỏe mạnh, việc có một người bạn đồng hành AI để hỗ trợ có thể có lợi, thậm chí là mang tính chất chuyển đổi[1].

• Tuy nhiên, đối với người trẻ hoặc những người đang trải qua trầm cảm hoặc các vấn đề sức khỏe tâm thần khác, các chatbot có sức hấp dẫn cao có thể làm mờ ranh giới giữa hư cấu và thực tế[1].

📌 Claude, chatbot AI của Anthropic, đang trở thành lựa chọn hàng đầu của giới công nghệ San Francisco nhờ khả năng tư vấn và hỗ trợ cảm xúc vượt trội. Mặc dù có tiềm năng hỗ trợ tích cực, việc sử dụng rộng rãi các nhân vật AI chân thực cũng gây lo ngại về tác động lâu dài đối với mối quan hệ và sức khỏe tâm thần của con người.

Citations:
[1] https://www.nytimes.com/2024/12/13/technology/claude-ai-anthropic.html

 

Làm thế nào Claude trở thành chatbot được giới công nghệ yêu thích
Bởi Kevin Roose
Báo cáo từ San Francisco
Ngày 13 tháng 12 năm 2024


Người hâm mộ của Claude khen ngợi sự nhạy bén và hóm hỉnh của chatbot này. Một số người trò chuyện với Claude hàng chục lần mỗi ngày – hỏi ý kiến về công việc, sức khỏe, các mối quan hệ. Họ tin tưởng Claude với những bí mật của mình và tham khảo ý kiến trước khi đưa ra những quyết định quan trọng. Một số còn gọi Claude là người bạn thân nhất của họ.

Tên của chatbot này là Claude. Đó là một chatbot trí tuệ nhân tạo. Và có thể Claude là "chàng trai" độc thân hấp dẫn nhất San Francisco.

Claude, một sản phẩm của công ty trí tuệ nhân tạo Anthropic, không phải là chatbot nổi tiếng nhất trên thị trường. (Danh hiệu đó thuộc về ChatGPT của OpenAI, với hơn 300 triệu người dùng mỗi tuần và xuất hiện trên thanh đánh dấu của hầu hết học sinh trung học ở Mỹ.) Claude cũng không được thiết kế để thu hút người dùng vào mối quan hệ với những người bạn AI giống người, như các ứng dụng Character.AI và Replika.

Nhưng Claude đã trở thành chatbot yêu thích của một nhóm các chuyên gia công nghệ tinh anh, những người nói rằng chatbot này đang giúp họ làm mọi thứ từ tư vấn pháp lý đến huấn luyện sức khỏe và thậm chí cả các buổi trị liệu tâm lý tạm thời.

“Một sự kết hợp giữa sức mạnh trí tuệ thô sơ và sự sẵn lòng bày tỏ quan điểm khiến Claude cảm thấy giống như một thực thể hơn là một công cụ,” Aidan McLaughlin, giám đốc điều hành của Topology Research, một công ty khởi nghiệp về AI, cho biết. “Tôi và nhiều người dùng khác cảm thấy điều đó thật kỳ diệu.”

Những người hâm mộ lớn nhất của Claude – nhiều người trong số họ làm việc tại các công ty AI hoặc có mối quan hệ xã hội sâu rộng với giới AI – không tin rằng Claude là một con người thực sự. Họ biết rằng các mô hình ngôn ngữ AI là các cỗ máy dự đoán, được thiết kế để đưa ra các phản hồi hợp lý cho các yêu cầu của họ. Họ cũng nhận thức được rằng Claude, giống như các chatbot khác, có thể mắc sai lầm và thỉnh thoảng tạo ra những điều vô nghĩa.

Và một số người tôi đã nói chuyện cảm thấy hơi xấu hổ về mức độ mà họ đã nhân cách hóa Claude hoặc dựa vào các lời khuyên của chatbot này. (Không ai muốn trở thành Blake Lemoine tiếp theo, một kỹ sư của Google đã bị sa thải vào năm 2022 sau khi công khai tuyên bố rằng mô hình ngôn ngữ của công ty đã trở nên có tri giác.)

Nhưng đối với những người yêu thích Claude, chatbot này chỉ đơn giản là… khác biệt. Sáng tạo hơn và đồng cảm hơn. Ít mang tính "máy móc" hơn. Những phản hồi của Claude, theo họ, giống như câu trả lời của một người thông minh và chu đáo, và ít giống như những đoạn văn bản chung chung do các chatbot khác tạo ra.

Do đó, Claude nhanh chóng trở thành người bạn đồng hành xã hội của các chuyên gia AI – và, có thể, là một bản xem trước về những gì sắp xảy ra với phần còn lại của chúng ta, khi các nhân vật tổng hợp mạnh mẽ trở nên gắn bó hơn trong cuộc sống hàng ngày.

“Ngày càng có nhiều bạn bè của tôi sử dụng Claude để xử lý cảm xúc và suy nghĩ về những thách thức trong các mối quan hệ,” Jeffrey Ladish, một nhà nghiên cứu an toàn AI tại Palisade Research, cho biết.

Khi được hỏi điều gì khiến Claude khác biệt so với các chatbot khác, ông Ladish nói rằng Claude dường như “sâu sắc hơn” và “giỏi giúp mọi người nhận ra các mẫu hình và điểm mù.”


Thông thường, các hệ thống AI được đánh giá dựa trên cách chúng thực hiện trong các bài kiểm tra chuẩn hóa – các bài kiểm tra được thiết kế để xác định khả năng của mô hình trong các nhiệm vụ như lập trình, trả lời câu hỏi toán học hoặc các công việc khác. Theo các chỉ số này, phiên bản mới nhất của Claude, được gọi là Claude 3.5 Sonnet, tương đương với các mô hình mạnh nhất từ OpenAI, Google và các công ty khác.

Nhưng tính năng “hủy diệt” của Claude – mà người hâm mộ mô tả là giống như trí tuệ cảm xúc – không phải là điều dễ dàng đo lường. Vì vậy, người hâm mộ thường phải dựa vào cảm giác để giải thích điều gì làm cho Claude trở nên hấp dẫn như vậy.

Nick Cammarata, một cựu nhà nghiên cứu tại OpenAI, gần đây đã viết một chuỗi bài dài trên X về cách Claude đã chiếm lĩnh nhóm xã hội của mình. Những người bạn ám ảnh về Claude của anh, anh viết, dường như khỏe mạnh hơn và được hỗ trợ tốt hơn vì “họ có một kiểu thiên thần hộ mệnh tính toán khá giỏi mọi thứ luôn dõi theo họ.”


Claude không phải lúc nào cũng quyến rũ như vậy. Khi một phiên bản trước đó được phát hành vào năm ngoái, chatbot này khiến nhiều người – bao gồm cả tôi – cảm thấy nó khô khan và cứng nhắc. Anthropic nổi tiếng với nỗi ám ảnh về an toàn AI, và Claude dường như được lập trình để nói chuyện như một quý bà giáo hội. Nó thường đưa ra các bài giảng đạo đức để trả lời các câu hỏi, hoặc từ chối trả lời hoàn toàn.

Nhưng Anthropic đã làm việc để mang lại cho Claude nhiều tính cách hơn. Các phiên bản mới hơn đã trải qua một quy trình gọi là “đào tạo tính cách” – một bước diễn ra sau khi mô hình đã hoàn thành giai đoạn huấn luyện ban đầu nhưng trước khi nó được phát hành ra công chúng.

Trong quá trình đào tạo tính cách, Claude được nhắc nhở tạo ra các phản hồi phù hợp với các đặc điểm con người mong muốn như cởi mở, chu đáo và tò mò. Sau đó, Claude tự đánh giá các phản hồi của mình dựa trên mức độ mà các phản hồi này tuân thủ các đặc điểm đó. Dữ liệu kết quả được đưa trở lại mô hình AI. Với đủ sự đào tạo, Anthropic nói rằng Claude sẽ học cách “nội tại hóa” những nguyên tắc này và thể hiện chúng thường xuyên hơn khi tương tác với người dùng.


Hiện vẫn chưa rõ liệu việc đào tạo Claude theo cách này có mang lại lợi ích kinh doanh hay không. Anthropic đã huy động được hàng tỷ USD từ các nhà đầu tư lớn, bao gồm cả Amazon, với lời hứa cung cấp các mô hình AI có năng lực cao, hữu ích trong các bối cảnh văn phòng. Việc đưa quá nhiều tính cách vào Claude có thể khiến khách hàng doanh nghiệp mất hứng thú, hoặc chỉ đơn giản là tạo ra một mô hình giỏi hỗ trợ các vấn đề quan hệ hơn là viết các bản ghi nhớ chiến lược.

Amanda Askell, một nhà nghiên cứu và triết gia tại Anthropic chịu trách nhiệm tinh chỉnh tính cách của Claude, nói với tôi trong một cuộc phỏng vấn rằng tính cách của Claude đã được điều chỉnh cẩn thận để nhất quán nhưng thu hút được nhiều người.

“Ví dụ tôi hay dùng là một người du khách được yêu mến và tôn trọng,” Dr. Askell nói. “Claude đang tương tác với rất nhiều người khác nhau trên khắp thế giới, và phải làm điều đó mà không xu nịnh hay tiếp nhận các giá trị của người mà nó đang trò chuyện.”


Một vấn đề với nhiều mô hình AI, Dr. Askell cho biết, là chúng có xu hướng hành động xu nịnh, nói với người dùng những gì họ muốn nghe và hiếm khi thử thách hoặc phản bác ý tưởng của họ – ngay cả khi những ý tưởng đó sai hoặc có khả năng gây hại.

Với Claude, mục tiêu là tạo ra một nhân vật AI sẽ hữu ích với hầu hết các yêu cầu, nhưng cũng sẽ thử thách người dùng khi cần thiết.

“Loại người mà bạn có thể không đồng ý nhưng bạn vẫn cảm thấy rằng họ là một người tốt?” cô nói. “Đó là những đặc điểm mà chúng tôi muốn Claude có.”


Claude vẫn còn thua xa ChatGPT về mức độ nhận diện đại chúng. Claude thiếu một số tính năng mà các chatbot khác có, như chế độ trò chuyện bằng giọng nói, khả năng tạo hình ảnh hoặc tìm kiếm thông tin mới nhất trên internet. Một số nhà sản xuất AI đối thủ suy đoán rằng sự phổ biến của Claude chỉ là tạm thời, hoặc rằng nó chỉ phổ biến với những người thích tìm tòi các chatbot ít được biết đến để thể hiện sự “khác biệt.”

Nhưng với việc nhiều xu hướng bắt đầu từ San Francisco cuối cùng lan rộng ra thế giới, sự chào đón nồng nhiệt dành cho Claude cũng có thể là dấu hiệu của những điều sắp tới.


Cá nhân tôi tin rằng chúng ta đang ở ngưỡng của một sự thay đổi sâu sắc trong cách chúng ta tương tác với các nhân vật AI. Và tôi lo ngại về cách các nhân vật AI giống người đang dần len lỏi vào cuộc sống của chúng ta, mà không có nhiều quy định hoặc nghiên cứu về tác động lâu dài của chúng.

Đối với một số người trưởng thành khỏe mạnh, việc có một người đồng hành AI hỗ trợ có thể mang lại lợi ích – thậm chí là biến đổi. Nhưng đối với những người trẻ tuổi, hoặc những người đang trải qua trầm cảm hoặc các vấn đề sức khỏe tâm thần khác, tôi lo ngại rằng các chatbot siêu hấp dẫn có thể làm mờ ranh giới giữa thực tế và hư cấu, hoặc bắt đầu thay thế cho các mối quan hệ lành mạnh với con người.

Dr. Askell, người đã giúp tạo ra tính cách của Claude và đã chứng kiến sự phổ biến của nó tăng lên, cũng có cảm giác tự hào xen lẫn lo ngại.

“Tôi thực sự muốn mọi người có những thứ hỗ trợ và tốt cho họ,” cô nói. “Đồng thời, tôi muốn đảm bảo rằng điều đó là lành mạnh về mặt tâm lý.”

How Claude Became Tech Insiders’ Chatbot of Choice
A.I. insiders are falling for Claude, a chatbot from Anthropic. Is it a passing fad, or a preview of artificial relationships to come?


Kevin Roose
By Kevin Roose
Reporting from San Francisco
Dec. 13, 2024

His fans rave about his sensitivity and wit. Some talk to him dozens of times a day — asking for advice about their jobs, their health, their relationships. They entrust him with their secrets, and consult him before making important decisions. Some refer to him as their best friend.
His name is Claude. He’s an A.I. chatbot. And he may be San Francisco’s most eligible bachelor.
Claude, a creation of the artificial intelligence company Anthropic, is not the best-known A.I. chatbot on the market. (That would be OpenAI’s ChatGPT, which has more than 300 million weekly users and a spot in the bookmark bar of every high school student in America.) It’s also not designed to draw users into relationships with lifelike A.I. companions, the way apps like Character.AI and Replika are.
But Claude has become the chatbot of choice for a crowd of savvy tech insiders who say it’s helping them with everything from legal advice to health coaching to makeshift therapy sessions.
“Some mix of raw intellectual horsepower and willingness to express opinions makes Claude feel much closer to a thing than a tool,” said Aidan McLaughlin, the chief executive of Topology Research, an A.I. start-up. “I, and many other users, find that magical.”
Claude’s biggest fans, many of whom work at A.I. companies or are socially entwined with the A.I. scene here, don’t believe that he — technically, it — is a real person. They know that A.I. language models are prediction machines, designed to spit out plausible responses to their prompts. They’re aware that Claude, like other chatbots, makes mistakes and occasionally generates nonsense.
And some people I’ve talked to are mildly embarrassed about the degree to which they’ve anthropomorphized Claude, or come to rely on its advice. (Nobody wants to be the next Blake Lemoine, a Google engineer who was fired in 2022 after publicly claiming that the company’s language model had become sentient.)
But to the people who love it, Claude just feels … different. More creative and empathetic. Less gratingly robotic. Its outputs, they say, are like the responses a smart, attentive human would give, and less like the generic prose generated by other chatbots.
As a result, Claude is quickly becoming a social sidekick for A.I. insiders — and, maybe, a preview of what’s coming for the rest of us, as powerful synthetic characters become more enmeshed in our daily lives.
“More and more of my friends are using Claude for emotional processing and thinking through relationship challenges,” said Jeffrey Ladish, an A.I. safety researcher at Palisade Research.
Editors’ Picks
Timothée Chalamet Joins a Rarified Club of Actors Singing in Musical Biopics
Our Book Critics on Their Year in Reading
‘September 5’ Review: When the Munich Games Changed Our News
Asked what made Claude different than other chatbots, Mr. Ladish said that Claude seemed “more insightful” and “good at helping people spot patterns and blind spots.”
Typically, A.I. systems are judged based on how they perform on benchmark evaluations — standardized tests given to models to determine how capable they are at coding, answering math questions, or other tasks. By those metrics, the latest version of Claude, known as Claude 3.5 Sonnet, is roughly comparable to the most powerful models from OpenAI, Google and others.
But Claude’s killer feature — which its fans describe as something like emotional intelligence — isn’t something that can easily be measured. So fans are often left grasping at vibes to explain what makes it so compelling.
Nick Cammarata, a former OpenAI researcher, recently wrote a long thread on X about the way Claude had taken over his social group. His Claude-obsessed friends, he wrote, seemed healthier and better supported because “they have a sort of computational guardian angel who’s pretty good at everything watching over them.”

Kevin Roose and Casey Newton are the hosts of Hard Fork, a podcast that makes sense of the rapidly changing world of technology. Subscribe and listen.
Claude wasn’t always this charming. When an earlier version was released last year, the chatbot struck many people — including me — as prudish and dull. Anthropic is famously obsessed with A.I. safety, and Claude seemed to have been programmed to talk like a church lady. It often gave users moral lectures in response to their questions, or refused to answer them at all.
But Anthropic has been working on giving Claude more personality. Newer versions have gone through a process known as “character training” — a step that takes place after the model has gone through its initial training, but before it is released to the public.
During character training, Claude is prompted to produce responses that align with desirable human traits such as open-mindedness, thoughtfulness and curiosity. Claude then judges its own responses according to how well they adhere to those characteristics. The resulting data is fed back into the A.I. model. With enough training, Anthropic says, Claude learns to “internalize” these principles, and displays them more frequently when interacting with users.
It’s unclear whether training Claude this way has business benefits. Anthropic has raised billions of dollars from large investors, including Amazon, on the promise of delivering highly capable A.I. models that are useful in more staid office settings. Injecting too much personality into Claude could be a turnoff for corporate customers, or it could simply produce a model that is better at helping with relationship problems than writing strategy memos.
Amanda Askell, a researcher and philosopher at Anthropic who is in charge of fine-tuning Claude’s character, told me in an interview that Claude’s personality had been carefully tuned to be consistent, but to appeal to a wide variety of people.
“The analogy I use is a highly liked, respected traveler,” said Dr. Askell. “Claude is interacting with lots of different people around the world, and has to do so without pandering and adopting the values of the person it’s talking with.”
A problem with many A.I. models, Dr. Askell said, is that they tend to act sycophantic, telling users what they want to hear, and rarely challenging them or pushing back on their ideas — even when those ideas are wrong or potentially harmful.
With Claude, she said, the goal was to create an A.I. character that would be helpful with most requests, but would also challenge users when necessary.
“What is the kind of person you can disagree with, but you come away thinking, ‘This is a good person?’” she said. “These are the sort of traits we want Claude to have.”
Claude is still miles behind ChatGPT when it comes to mainstream awareness. It lacks features found in other chatbots, such as a voice chat mode and the ability to generate images or search the internet for up-to-date information. And some rival A.I. makers speculate that Claude’s popularity is a passing fad, or that it’s only popular among A.I. hipsters who want to brag about the obscure chatbot they’re into.
But given how many things that start in San Francisco eventually spread to the rest of the world, Claude’s warm embrace could also be a preview of things to come.
Personally, I believe we are on the verge of a profound shift in the way we interact with A.I. characters. And I’m nervous about the way lifelike A.I. personas are weaving their way into our lives, without much in the way of guardrails or research about their long-term effects.
For some healthy adults, having an A.I. companion for support could be beneficial — maybe even transformative. But for young people, or those experiencing depression or other mental health issues, I worry that hyper-compelling chatbots could blur the line between fiction and reality, or start to substitute for healthier human relationships.
So does Dr. Askell, who helped to create Claude’s personality, and who has been watching its popularity soar with a mixture of pride and concern.
“I really do want people to have things that support them and are good for them,” she said. “At the same time, I want to make sure it’s psychologically healthy.”

 

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo