• Yann LeCun, giám đốc AI của Facebook AI Research (FAIR), đã bác bỏ mạnh mẽ lo ngại về việc AI sẽ trở nên đủ thông minh để gây nguy hiểm cho nhân loại trong tương lai gần.
• LeCun cho rằng ý tưởng này là "hoàn toàn vô lý" và không tin rằng các mô hình ngôn ngữ lớn (LLM) như ChatGPT hay Grok của X sẽ dẫn đến trí tuệ nhân tạo tổng quát (AGI).
• Ông giải thích rằng các LLM hiện tại chỉ đơn giản là dự đoán các từ tiếp theo trong văn bản, nhưng làm điều này quá tốt đến mức đánh lừa người xem.
• LeCun không hoàn toàn bác bỏ khả năng xuất hiện AGI, nhưng cho rằng khả năng thao tác ngôn ngữ không đồng nghĩa với sự thông minh.
• Ông quan tâm hơn đến công việc của bộ phận FAIR của Meta trong việc xử lý video từ thế giới thực.
• Quan điểm của LeCun trái ngược với một số chuyên gia AI khác:
- Sam Altman, CEO của OpenAI, dự đoán AGI sẽ xuất hiện trong "tương lai tương đối gần".
- Elon Musk ủng hộ một dự luật California nhằm đưa ra các cơ chế an toàn và trách nhiệm giải trình cho các hệ thống AI lớn.
• LeCun chỉ trích dự luật này, cho rằng nó sẽ có "hậu quả tận thế đối với hệ sinh thái AI" do quy định quá trình nghiên cứu và phát triển.
• Thống đốc California Gavin Newsom đã phủ quyết dự luật vào tháng trước, lý do là nó tạo ra "cảm giác an toàn giả tạo" bằng cách nhắm vào các công ty công nghệ lớn và bỏ qua các mối đe dọa từ các công ty nhỏ hơn.
• Cuộc tranh luận này phản ánh sự chia rẽ trong cộng đồng AI về tiềm năng và rủi ro của công nghệ này, với các chuyên gia có quan điểm khác nhau về tốc độ phát triển và tác động tiềm tàng của AGI.
📌 Yann LeCun, giám đốc AI của Meta, bác bỏ mạnh mẽ lo ngại về AI hủy diệt nhân loại, cho rằng các mô hình ngôn ngữ lớn không dẫn đến AGI. Quan điểm này trái ngược với dự đoán của Sam Altman về AGI sắp xuất hiện và nỗ lực quản lý AI của Elon Musk, phản ánh sự chia rẽ trong cộng đồng AI về tiềm năng và rủi ro của công nghệ này.
https://www.pcmag.com/news/metas-ai-chief-on-ai-endangering-humanity-thats-complete-bs