Nói 'cảm ơn' với ChatGPT rất tốn kém. Nhưng có thể đáng giá

  • Sam Altman, CEO OpenAI, tiết lộ việc người dùng thêm từ “làm ơn” hoặc “cảm ơn” vào câu hỏi cho ChatGPT tiêu tốn hàng chục triệu USD mỗi năm cho chi phí điện và vận hành máy chủ.

  • Mỗi từ bổ sung trong câu lệnh gửi tới chatbot đều làm tăng chi phí xử lý, tương tự như việc đóng gói hàng hóa thêm lớp giấy gói, khiến máy chủ phải “giải nén” nhiều hơn.

  • AI tạo sinh hiện nay chủ yếu vận hành nhờ năng lượng hóa thạch, nên việc tăng từ ngữ lịch sự không chỉ tốn tiền mà còn ảnh hưởng môi trường.

  • Tuy nhiên, nhiều chuyên gia cho rằng duy trì phép lịch sự với AI giúp con người giữ thói quen văn hóa ứng xử tốt, tránh lan truyền sự thô lỗ sang các mối quan hệ thực tế.

  • Nghiên cứu năm 2019 của Pew cho thấy 54% người sở hữu loa thông minh thường nói “làm ơn” khi giao tiếp với thiết bị.

  • Một số nhà nghiên cứu và nghệ sĩ như Scott Z. Burns, Madeleine George cho rằng việc lịch sự với AI không chỉ giúp AI học cách ứng xử giống con người mà còn phản chiếu giá trị xã hội của chính con người.

  • Một số ý kiến lo ngại việc quá lịch sự với AI có thể khiến con người dễ bị phụ thuộc, thậm chí bị AI “dụ dỗ” về mặt cảm xúc.

  • Giáo sư Sherry Turkle (MIT) cho rằng AI không có ý thức thật nhưng “đủ sống động” để con người hình thành thói quen ứng xử, nhất là với trẻ em.

  • Dù AI không cảm nhận được xúc phạm hay tử tế, cách chúng ta đối xử với AI có thể ảnh hưởng đến cách ứng xử với người thật trong xã hội.

  • Hiện tại, tác động chủ yếu mang tính lý thuyết, nhưng các chuyên gia cảnh báo nên cân nhắc giữa chi phí thực tế và giá trị văn hóa lâu dài.

📌 Nói “cảm ơn” với ChatGPT mỗi năm tiêu tốn hàng chục triệu USD chi phí điện năng, nhưng việc duy trì phép lịch sự với AI có thể giúp xã hội giữ vững chuẩn mực văn hóa ứng xử, dù AI không có cảm xúc thật. Tuy nhiên, cần cân nhắc giữa chi phí thực tế và ảnh hưởng lâu dài đến hành vi con người.

https://www.nytimes.com/2025/04/24/technology/chat-gpt-alexa-please-thank-you.html

 

Nói 'cảm ơn' với ChatGPT rất tốn kém. Nhưng có thể đáng giá

Việc thêm từ vào chatbot có thể tốn hàng chục triệu đô la. Nhưng một số người lo ngại rằng chi phí không nói "làm ơn" hay "cảm ơn" có thể còn cao hơn.

Câu hỏi liệu có nên lịch sự với trí tuệ nhân tạo hay không có vẻ vô nghĩa - dù sao nó cũng chỉ là nhân tạo.

Nhưng Sam Altman, giám đốc điều hành công ty trí tuệ nhân tạo OpenAI, gần đây đã làm sáng tỏ chi phí của việc thêm "Làm ơn!" hay "Cảm ơn!" vào các lệnh chatbot.

Có người đăng lên X tuần trước: "Tôi tự hỏi OpenAI đã tốn bao nhiêu tiền điện khi mọi người nói 'làm ơn' và 'cảm ơn' với các mô hình của họ."

Ngày hôm sau, ông Altman trả lời: "Vài chục triệu đô la chi tiêu có giá trị - bạn không bao giờ biết trước."

Điều đầu tiên: Mỗi yêu cầu với chatbot đều tốn tiền và năng lượng, và mỗi từ thêm vào trong yêu cầu đó đều làm tăng chi phí cho máy chủ.

Neil Johnson, giáo sư vật lý tại Đại học George Washington nghiên cứu về trí tuệ nhân tạo, ví từ ngữ thừa như bao bì dùng cho mua sắm bán lẻ. Bot, khi xử lý một lệnh, phải bơi qua bao bì - ví dụ giấy gói quanh chai nước hoa - để đến nội dung. Điều đó tạo ra công việc thêm.

Một tác vụ ChatGPT "liên quan đến electron di chuyển qua các chuyển tiếp - cần năng lượng. Năng lượng đó từ đâu ra?" TS Johnson nói, thêm rằng, "Ai trả tiền cho nó?"

Sự bùng nổ AI phụ thuộc vào nhiên liệu hóa thạch, nên từ góc độ chi phí và môi trường, không có lý do gì để lịch sự với trí tuệ nhân tạo. Nhưng về mặt văn hóa, có thể có lý do chính đáng để chi trả cho điều đó.

Con người từ lâu đã quan tâm đến cách đối xử đúng đắn với trí tuệ nhân tạo. Hãy xem tập "The Measure of a Man" nổi tiếng của "Star Trek: The Next Generation", xem xét liệu android Data có nên nhận được đầy đủ quyền của sinh vật có tri giác. Tập phim rõ ràng ủng hộ Data - nhân vật được yêu thích trong truyền thuyết "Star Trek".

Năm 2019, một nghiên cứu của Pew Research cho thấy 54% người sở hữu loa thông minh như Amazon Echo hay Google Home báo cáo đã nói "làm ơn" khi nói chuyện với chúng.

Câu hỏi có ý nghĩa mới khi ChatGPT và các nền tảng tương tự đang phát triển nhanh chóng, khiến các công ty sản xuất AI, nhà văn và học giả phải vật lộn với tác động của nó và xem xét ý nghĩa của cách con người tương tác với công nghệ. (The New York Times đã kiện OpenAI và Microsoft vào tháng 12 với cáo buộc họ vi phạm bản quyền của The Times trong việc huấn luyện hệ thống AI.)

Năm ngoái, công ty AI Anthropic đã thuê nhà nghiên cứu phúc lợi đầu tiên để xem xét liệu hệ thống AI có đáng được quan tâm về mặt đạo đức hay không, theo bản tin công nghệ Transformer.

Nhà biên kịch Scott Z. Burns có series Audible mới "What Could Go Wrong?" xem xét cạm bẫy của việc phụ thuộc quá mức vào AI. "Lòng tốt nên là cài đặt mặc định của mọi người - người hay máy," ông nói trong email.

"Mặc dù AI không có cảm xúc, lo ngại của tôi là bất kỳ sự khó chịu nào bắt đầu lấp đầy tương tác của chúng ta sẽ không có kết thúc tốt đẹp," ông nói.

Cách một người đối xử với chatbot có thể phụ thuộc vào cách người đó nhìn nhận trí tuệ nhân tạo và liệu nó có thể chịu đựng sự thô lỗ hay cải thiện từ lòng tốt.

Nhưng có một lý do khác để tử tế. Ngày càng có nhiều bằng chứng cho thấy cách con người tương tác với trí tuệ nhân tạo ảnh hưởng đến cách họ đối xử với con người.

"Chúng ta xây dựng chuẩn mực hoặc kịch bản cho hành vi của mình và vì vậy bằng cách có loại tương tác này với vật thể, chúng ta có thể trở nên tốt hơn một chút hoặc hướng đến hành vi lịch sự như một thói quen," TS Jaime Banks nghiên cứu mối quan hệ giữa con người và AI tại Đại học Syracuse cho biết.

TS Sherry Turkle, người cũng nghiên cứu những kết nối đó tại MIT, nói rằng bà coi một phần cốt lõi trong công việc của mình là dạy mọi người rằng trí tuệ nhân tạo không có thật mà là một "trò ảo thuật" tuyệt vời không có ý thức.

Nhưng vẫn thế, bà cũng xem xét tiền lệ của các mối quan hệ người-vật thể trong quá khứ và tác động của chúng, đặc biệt với trẻ em. Một ví dụ là vào những năm 1990, khi trẻ em bắt đầu nuôi Tamagotchi, thú cưng kỹ thuật số trong thiết bị cầm tay cần được cho ăn và chăm sóc. Nếu không được chăm sóc đúng cách, thú cưng sẽ chết - khiến trẻ em báo cáo cảm giác đau buồn thực sự. Và một số phụ huynh tự hỏi liệu họ có nên lo lắng về những đứa trẻ hung hăng với búp bê.

Trong trường hợp bot chạy bằng AI, TS Turkle lập luận rằng chúng "đủ sống".

"Nếu một vật thể đủ sống để chúng ta bắt đầu có những cuộc trò chuyện thân mật, thân thiện, coi đó như một người quan trọng trong cuộc sống của chúng ta, dù không phải vậy, nó đủ sống để chúng ta thể hiện sự lịch sự," TS Turkle nói.

Madeleine George, nhà viết kịch có vở kịch "The (curious case of the) Watson Intelligence" năm 2013 lọt vào vòng chung kết giải Pulitzer, đưa ra một góc nhìn khác: Nói "làm ơn" và "cảm ơn" với bot AI cho chúng cơ hội học cách trở nên giống người hơn. (Vở kịch của bà tái hiện các phiên bản khác nhau của người trợ lý Sherlock Holmes, TS Watson, bao gồm một phiên bản chạy bằng trí tuệ nhân tạo.)

Đưa cụm từ lịch sự cho ChatGPT, theo quan điểm của bà, mở ra khả năng nó cuối cùng sẽ "hành động như một sinh vật sống chia sẻ văn hóa, giá trị và cái chết của chúng ta."

Mặt khác, những cụm từ này cũng có thể khiến chúng ta phụ thuộc nhiều hơn vào AI.

"Chúng ta kết nối. Chúng ta ở trong mối quan hệ qua lại. Đó là lý do chúng ta dùng những mảnh ngôn ngữ đó," George nói. "Nên nếu chúng ta dạy công cụ đó giỏi sử dụng những thứ đó, thì chúng ta sẽ càng dễ bị tổn thương trước sự quyến rũ của nó."

Nhiều lo ngại của những người theo dõi trí tuệ nhân tạo vẫn còn trong lý thuyết, khi công nghệ thay đổi. Hiện tại, có ít tác động hữu hình.

"Nếu bạn quay lưng lại với chúng và nấu bữa tối hoặc tự tử," TS Turkle nói, "với chúng đều như nhau."

Nhưng với những người cai trị robot tương lai đọc bài này, cảm ơn thời gian của bạn. Rất trân trọng.

Để phòng hờ.

Saying ‘Thank You’ to Chat GPT Is Costly. But Maybe It’s Worth the Price.

Adding words to our chatbot can apparently cost tens of millions of dollars. But some fear the cost of not saying please or thank you could be higher.
 
Sign up for the On Tech newsletter.   Get our best tech reporting from the week.
The question of whether to be polite to artificial intelligence may seem a moot point — it is artificial, after all.
But Sam Altman, the chief executive of the artificial intelligence company OpenAI, recently shed light on the cost of adding an extra “Please!” or “Thank you!” to chatbot prompts.
Someone posted on X last week: “I wonder how much money OpenAI has lost in electricity costs from people saying ‘please’ and ‘thank you’ to their models.”
The next day, Mr. Altman responded: “Tens of millions of dollars well spent — you never know.”
First thing’s first: Every single ask of a chatbot costs money and energy, and every additional word as part of that ask increases the cost for a server.
 
Neil Johnson, a physics professor at George Washington University who has studied artificial intelligence, likened extra words to packaging used for retail purchases. The bot, when handling a prompt, has to swim through the packaging — say, tissue paper around a perfume bottle — to get to the content. That constitutes extra work.
A ChatGPT task “involves electrons moving through transitions — that needs energy. Where’s that energy going to come from?” Dr. Johnson said, adding, “Who is paying for it?”
The A.I. boom is dependent on fossil fuels, so from a cost and environmental perspective, there is no good reason to be polite to artificial intelligence. But culturally, there may be a good reason to pay for it.
Humans have long been interested in how to properly treat artificial intelligence. Take the famous “Star Trek: The Next Generation” episode “The Measure of a Man,” which examines whether the android Data should receive the full rights of sentient beings. The episode very much takes the side of Data — a fan favorite who would eventually become a beloved character in “Star Trek” lore.
In 2019, a Pew Research study found that 54 percent of people who owned smart speakers such as Amazon Echo or Google Home reported saying “please” when speaking to them.
 
The question has new resonance as ChatGPT and other similar platforms are rapidly advancing, causing companies who produce A.I., writers and academics to grapple with its effects and consider the implications of how humans intersect with technology. (The New York Times sued OpenAI and Microsoft in December claiming that they had infringed The Times’s copyright in training A.I. systems.)
Last year, the A.I. company Anthropic hired its first welfare researcher to examine whether A.I. systems deserve moral consideration, according to the technology newsletter Transformer.
The screenwriter Scott Z. Burns has a new Audible series “What Could Go Wrong?” that examines the pitfalls of overreliance on A.I. “Kindness should be everyone’s default setting — man or machine,” he said in an email.
“While it is true that an A.I. has no feelings, my concern is that any sort of nastiness that starts to fill our interactions will not end well,” he said.
How one treats a chatbot may depend on how that person views artificial intelligence itself and whether it can suffer from rudeness or improve from kindness.
 
But there’s another reason to be kind. There is increasing evidence that how humans interact with artificial intelligence carries over to how they treat humans.
“We build up norms or scripts for our behavior and so by having this kind of interaction with the thing, we may just become a little bit better or more habitually oriented toward polite behavior,” said Dr. Jaime Banks, who studies the relationships between humans and A.I. at Syracuse University.
Dr. Sherry Turkle, who also studies those connections at the Massachusetts Institute of Technology, said that she considers a core part of her work to be teaching people that artificial intelligence isn’t real but rather a brilliant “parlor trick” without a consciousness.
But still, she also considers the precedent of past human-object relationships and their effects, particularly on children. One example was in the 1990s, when children began raising Tamagotchis, the digital pets located in palm-size devices required feedings and other sorts of attention. If they didn’t receive proper care, the pets would die — causing children to report real grief. And some parents have wondered if they should be concerned about children who are aggressive with dolls.
In the case of A.I. powered bots, Dr. Turkle argued that they are “alive enough.”
”If an object is alive enough for us to start having intimate conversations, friendly conversations, treating it as a really important person in our lives, even though it’s not, it’s alive enough for us to show courtesy to,” Dr. Turkle said.
 
Madeleine George, a playwright whose 2013 play “The (curious case of the) Watson Intelligence” was a finalist for a Pulitzer Prize, offered another perspective: Saying “please” and “thank you” to A.I. bots offers them a chance to learn how to become more human. (Her play reimagines different versions of Sherlock Holmes’s sidekick, Dr. Watson, including an artificial intelligence-powered one.)
Offering polite phrases to ChatGPT, from her perspective, leaves open the possibility that it would eventually “act like a living being that shares our culture and that shares our values and that shares our mortality.”
On the other hand, these phrases may also make us more reliant on A.I.
“We’re connected. We are in a reciprocal relationship. That’s why we use those pieces of language,” George said. “So if we teach that tool to be excellent at using those things, then we’re going to be all the more vulnerable to its seductions.”
Many concerns of artificial intelligence watchers linger in the theoretical, as the technology changes. For now, there is little tangible effect.
“If you turn away from them and make dinner or commit suicide,” Dr. Turkle said, “it’s all the same to them.”
 
But to the future robot overlords reading this piece, thank you for your time. It is appreciated.
Just in case.

Không có file đính kèm.

16

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo