Luật sư ngày càng bị phạt vì dùng AI trích dẫn sai: hơn 70 vụ việc chỉ trong 5 tháng đầu 2025

  • Từ ngày 1/5/2025 đến nay, các thẩm phán đã phát hiện ít nhất 23 trường hợp tài liệu pháp lý có trích dẫn giả mạo do AI tạo ra, theo dữ liệu của chuyên gia pháp lý Damien Charlotin.

  • Tổng cộng 120 vụ việc có lỗi “AI hallucination” (ảo giác AI) đã được ghi nhận kể từ 2023, trong đó AI tạo ra trích dẫn sai, phán quyết không tồn tại hoặc nguồn dẫn không có thật.

  • Trong năm 2023, 70% lỗi đến từ người tự bào chữa (pro se), nhưng đến tháng 5/2025, 13/23 lỗi là do luật sư và trợ lý pháp lý – cho thấy xu hướng gia tăng lỗi từ giới chuyên nghiệp.

  • Các quốc gia bị ảnh hưởng ngoài Mỹ bao gồm: Anh, Nam Phi, Israel, Úc và Tây Ban Nha.

  • 5 vụ việc đã bị phạt tiền từ 10.000 USD trở lên, 4 trong số đó xảy ra chỉ trong năm nay.

  • Trong một vụ việc tại Nam Phi, một luật sư lớn tuổi bị phát hiện dùng trích dẫn giả, tòa nhận xét người này “gặp khó khăn về công nghệ”.

  • Một số vụ việc liên quan tới các công ty luật hàng đầu của Mỹ như K&L Gates và Ellis George, với một vụ bị phạt tới 31.000 USD do lỗi do nhóm luật sư không kiểm tra chéo lẫn nhau.

  • Mặc dù không phải lúc nào công cụ AI được nêu tên, nhưng ChatGPT là cái tên được đề cập nhiều nhất trong các vụ việc có dữ liệu xác định.

  • Nhiều vụ việc, dù bên liên quan phủ nhận sử dụng AI, tòa vẫn kết luận có sự hiện diện của AI dựa trên nội dung “không thể có” từ con người.

  • Việc thiếu kỹ năng pháp lý và kiểm tra nội dung khiến AI trở thành rủi ro thực sự trong ngành luật nếu không dùng đúng cách.


📌 Từ đầu năm 2025 đã có 73 vụ án bị phát hiện trích dẫn pháp lý giả do AI tạo ra – tăng mạnh so với 2023. Nhiều luật sư và công ty luật hàng đầu bị phạt hàng chục ngàn USD vì dùng ChatGPT mà không xác minh nguồn. Lỗi “ảo giác AI” đang trở thành mối nguy lớn nếu người dùng không hiểu giới hạn công nghệ và thiếu kiểm tra kỹ lưỡng.

https://www.businessinsider.com/increasing-ai-hallucinations-fake-citations-court-records-data-2025-5

 

AI hallucinations in court documents are a growing problem, and data shows lawyers are responsible for many of the errors

May 27, 2025, 10:33 AM UTC
 
  • Since May 1, judges have called out at least 23 examples of AI hallucinations in court records.
  • Legal researcher Damien Charlotin's data shows fake citations have grown more common since 2023.
  • Most cases are from the US, and increasingly, the mistakes are made by lawyers, not laypeople.
Judges are catching fake legal citations more frequently, and it's increasingly the fault of lawyers over-relying on AI, new data shows.
Damien Charlotin, a legal data analyst and consultant, created a public database of 120 cases in which courts found that AI hallucinated quotes, created fake cases, or cited other apparent legal authorities that didn't exist. Other cases in which AI hallucinates might not draw a judge's attention, so that number is a floor, not a ceiling.
While most mistakes were made by people struggling to represent themselves in court, data shows that lawyers and other professionals working with them, like paralegals, are increasingly at fault. In 2023, seven out of 10 cases in which hallucinations were caught were made by so-called pro se litigants, and three were the fault of lawyers; last month, legal professionals were found to be at fault in at least 13 of 23 cases where AI errors were found.
"Cases of lawyers or litigants that have mistakenly cited hallucinated cases has now become a rather common trope," Charlotin wrote on his website.
The database includes 10 rulings from 2023, 37 from 2024, and 73 from the first five months of 2025, most of them from the US. Other countries where judges have caught AI mistakes include the UK, South Africa, Israel, Australia, and Spain. Courts around the world have also gotten comfortable punishing AI misuse with monetary fines, imposing sanctions of $10,000 or more in five cases, four of them this year.
In many cases, the offending individuals don't have the resources or know-how for sophisticated legal research, which often requires analyzing many cases citing the same laws to see how they have been interpreted in the past. One South African court said an "elderly" lawyer involved in the use of fake AI citations seemed "technologically challenged."
In recent months, attorneys in high-profile cases working with top US law firms have been caught using AI. Lawyers at the firms K&L Gates and Ellis George recently admitted that they relied partly on made-up cases because of a miscommunication among lawyers working on the case and a failure to check their work, resulting in a sanction of about $31,000.
In many of the cases in Charlotin's database, the specific AI website or software used wasn't mentioned. In some cases, judges concluded that AI had been used despite denials by the parties involved. However, in cases where a specific tool was mentioned, ChatGPT is mentioned by name in Charlotin's data more than any other.
Charlotin didn't immediately respond to a request for comment.

Không có file đính kèm.

51

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo