Câu chuyện thật về việc Sam Altman bị sa thải khỏi OpenAI
-
Vào tháng 11/2023, Peter Thiel đã cảnh báo Sam Altman rằng OpenAI đã bị những người theo chủ nghĩa vị tha hiệu quả (EA) thâm nhập, những người tin rằng AI có thể gây nguy hiểm cho nhân loại.
-
Altman, 38 tuổi, đang ở đỉnh cao sự nghiệp sau thành công của ChatGPT, không coi trọng cảnh báo này và nhắc đến việc đã loại bỏ Elon Musk, người từng gọi AI là "triệu hồi quỷ dữ".
-
OpenAI được thiết kế với cấu trúc độc đáo: một hội đồng quản trị phi lợi nhuận có trách nhiệm với "nhân loại" thay vì cổ đông, với quyền sa thải CEO.
-
Hội đồng quản trị gồm 6 người: Altman, Greg Brockman, Ilya Sutskever và ba giám đốc độc lập - Adam D'Angelo, Helen Toner và Tasha McCauley.
-
Các thành viên hội đồng quản trị độc lập bắt đầu mất lòng tin vào Altman sau nhiều sự cố: Altman tuyên bố sai về việc phê duyệt các tính năng GPT-4, Microsoft triển khai GPT-4 ở Ấn Độ mà không thông báo cho hội đồng, và vấn đề với Quỹ khởi nghiệp OpenAI.
-
Mira Murati, giám đốc công nghệ OpenAI, đã tiết lộ với Toner về phong cách quản lý độc hại của Altman và mối quan hệ phức tạp giữa Altman và Brockman.
-
Sutskever đã thu thập bằng chứng về hành vi của Altman, bao gồm nhiều ví dụ về việc nói dối và hành vi độc hại, được hỗ trợ bởi ảnh chụp màn hình từ kênh Slack của Murati.
-
Vào chiều 16/11/2023, Sutskever và 3 giám đốc độc lập đã bỏ phiếu sa thải Altman và loại bỏ Brockman khỏi hội đồng quản trị.
-
Murati ban đầu đồng ý làm CEO tạm thời nhưng sau đó trở nên lo lắng về cách hội đồng quản trị xử lý tình huống. Cùng với đội ngũ điều hành, cô đã đưa ra tối hậu thư yêu cầu hội đồng giải thích lý do sa thải Altman hoặc từ chức.
-
Đến sáng thứ Hai, gần như tất cả nhân viên OpenAI đã ký thư đe dọa nghỉ việc nếu Altman không được tái bổ nhiệm, bao gồm cả chữ ký của Murati và Sutskever.
-
Một câu chuyện bắt đầu lan truyền rằng toàn bộ sự việc là một "cuộc đảo chính" của Sutskever, xuất phát từ sự tức giận về việc thăng chức của Jakub Pachocki, và được thúc đẩy bởi sự tức giận của Toner vì Altman đã cố gắng đẩy cô ra khỏi hội đồng.
-
Sutskever đã kinh ngạc khi thấy phản ứng của nhân viên, ông đã kỳ vọng họ sẽ ủng hộ quyết định sa thải Altman.
📌 Vụ sa thải Sam Altman tại OpenAI năm 2023 xuất phát từ những mâu thuẫn sâu sắc về quản trị và niềm tin. Dù hội đồng quản trị có bằng chứng về hành vi không trung thực của Altman, họ đã không lường trước được sự ủng hộ mạnh mẽ từ 800 nhân viên, buộc phải tái bổ nhiệm ông chỉ sau vài ngày.
https://www.wsj.com/tech/ai/the-real-story-behind-sam-altman-firing-from-openai-efd51a5d
#WSJ
Câu chuyện thật về việc Sam Altman bị sa thải khỏi OpenAI
Bí mật, đánh lạc hướng và niềm tin tan vỡ. Câu chuyện bên trong về cách CEO của công ty công nghệ hot nhất bị loại bỏ và nhanh chóng được phục hồi.
Tác giả: Keach Hagey
Ngày 28 tháng 3 năm 2025, 5:00 chiều ET
Vào một buổi tối giữa tháng 11 năm 2023 với không khí ấm áp, tỷ phú đầu tư mạo hiểm Peter Thiel tổ chức tiệc sinh nhật cho chồng mình tại YESS, một nhà hàng Nhật Bản tiên phong đặt trong một tòa nhà ngân hàng được cải tạo có tuổi đời một thế kỷ tại Quận Nghệ thuật Los Angeles. Ngồi bên cạnh ông là bạn ông, Sam Altman.
Thiel đã hỗ trợ quỹ đầu tư đầu tiên của Altman hơn một thập kỷ trước đó, và vẫn tiếp tục làm cố vấn cho nhà đầu tư trẻ hơn khi Altman trở thành gương mặt của cuộc cách mạng trí tuệ nhân tạo với tư cách là giám đốc điều hành của OpenAI. Việc OpenAI ra mắt ChatGPT vào tháng 11 năm 2022 đã lan truyền ngay lập tức và đẩy cổ phiếu công nghệ lên một trong những năm tốt nhất trong nhiều thập kỷ. Tuy nhiên, Thiel lo lắng.
Nhiều năm trước khi gặp Altman, Thiel đã đưa một thần đồng khác bị ám ảnh bởi AI tên là Eliezer Yudkowsky dưới đôi cánh của mình, tài trợ cho viện nghiên cứu của anh ta, nơi đẩy mạnh đảm bảo rằng bất kỳ AI nào thông minh hơn con người sẽ thân thiện với người tạo ra nó. Tháng 3 năm đó, Yudkowsky đã lập luận trên tạp chí Time rằng trừ khi làn sóng nghiên cứu AI hiện tại bị dừng lại, "theo nghĩa đen, tất cả mọi người trên Trái đất sẽ chết."
"Anh không hiểu Eliezer đã lập trình nửa số người trong công ty anh tin vào những thứ đó như thế nào," Thiel cảnh báo Altman. "Anh cần nghiêm túc hơn với điều này."
Altman lúi húi với món ăn chay của mình và cố gắng không đảo mắt. Đây không phải bữa tối đầu tiên mà Thiel cảnh báo anh rằng công ty đã bị "những người EA" chiếm đoạt, ý nói những người theo chủ nghĩa vị lợi hiệu quả (effective altruism). EA gần đây đã chuyển từ việc cố gắng chấm dứt đói nghèo toàn cầu sang ngăn chặn AI phát triển nhanh chóng giết chết nhân loại. Thiel đã nhiều lần dự đoán rằng "những người về an toàn AI" sẽ "phá hủy" OpenAI.
"Điều đó khá đúng với Elon, nhưng chúng tôi đã loại bỏ Elon," Altman trả lời trong bữa tối, đề cập đến việc chia tay lộn xộn vào năm 2018 với người đồng sáng lập Elon Musk, người từng gọi nỗ lực tạo ra trí tuệ nhân tạo là "triệu hồi quỷ dữ."
Gần 800 nhân viên OpenAI đã tham gia vào một hành trình thành công và sắp có cơ hội mua nhà nghỉ dưỡng ven biển bằng đợt chào bán cổ phiếu sắp tới với giá trị công ty là 86 tỷ USD. Không cần phải hoảng sợ.
Thiel, trong ảnh chụp vào tháng 4 năm 2022 tại hội nghị bitcoin, là cố vấn của Altman.
Altman, ở tuổi 38, đang kết thúc năm tốt nhất trong sự nghiệp suôn sẻ, một năm mà anh trở thành tên tuổi được nhiều người biết đến, gặp gỡ các tổng thống và thủ tướng trên khắp thế giới, và—quan trọng nhất trong hệ giá trị của Thung lũng Silicon—mang đến một công nghệ mới dường như rất có thể sẽ thay đổi mọi thứ.
Nhưng khi hai đối tác đầu tư ăn mừng dưới những xà nhà lộ thiên của nhà hàng mới hot nhất L.A., bốn thành viên trong ban giám đốc 6 người của OpenAI, bao gồm hai người có liên kết trực tiếp với cộng đồng EA, đang tổ chức các cuộc họp video bí mật. Và họ đang quyết định liệu có nên sa thải Sam Altman hay không—mặc dù không phải vì EA.
Bài tường thuật này dựa trên các cuộc phỏng vấn với hàng chục người đã trải qua một trong những câu chuyện kinh doanh điên rồ nhất mọi thời đại—việc sa thải đột ngột CEO của công ty công nghệ nóng nhất hành tinh, và việc khôi phục chức vụ của anh ta vài ngày sau đó. Ở trung tâm là một nhà lãnh đạo thất thường, người giữ cho tất cả mọi người xung quanh được truyền cảm hứng bởi tầm nhìn công nghệ của anh ta, nhưng đôi khi cũng làm họ bối rối và bất an bởi mạng lưới bí mật và đánh lạc hướng của anh ta.
Ngay từ đầu, OpenAI được thiết lập để trở thành một công ty công nghệ khác biệt, được quản lý bởi một hội đồng phi lợi nhuận với nhiệm vụ không phải với cổ đông mà với "nhân loại." Altman đã làm các nhà lập pháp sốc vào đầu năm khi anh nói với họ dưới lời thề rằng anh không sở hữu cổ phần nào trong công ty mà anh đồng sáng lập. Anh đồng ý với thỏa thuận chưa từng có tiền lệ để tham gia hội đồng quản trị, điều này yêu cầu đa số giám đốc không có mối quan hệ tài chính với công ty. Vào tháng 6 năm 2023, anh nói với Bloomberg TV: "Hội đồng quản trị có thể sa thải tôi. Điều đó quan trọng."
Đằng sau hậu trường, hội đồng quản trị phát hiện, với sự thất vọng ngày càng tăng, rằng Altman thực sự là người điều hành.
Trong năm qua, hội đồng quản trị đã bị bế tắc về việc thêm chuyên gia an toàn AI nào vào hàng ngũ của họ. Hội đồng quản trị đã phỏng vấn Ajeya Cotra, một chuyên gia an toàn AI tại tổ chức từ thiện EA Open Philanthropy, nhưng quá trình này đã bị trì hoãn, chủ yếu do sự trì hoãn của Altman và người đồng sáng lập Greg Brockman, người cũng tham gia hội đồng quản trị. Altman đưa ra các đề xuất của riêng mình.
"Có một chút đấu tranh quyền lực," Brian Chesky, CEO của Airbnb, một trong những thành viên hội đồng quản trị tiềm năng mà Altman đề xuất, nói. "Có một điều cơ bản là nếu Sam nói tên, họ phải trung thành với Sam, vì vậy họ sẽ nói không."
Altman trình bày tại hội nghị nhà phát triển đầu tiên của OpenAI vào ngày 6 tháng 11 năm 2023, chưa đầy hai tuần trước khi anh bị sa thải bởi hội đồng quản trị.
Động lực trở nên căng thẳng hơn sau khi ba thành viên hội đồng quản trị ủng hộ Altman từ chức liên tiếp vào đầu năm 2023 vì nhiều xung đột lợi ích khác nhau. Điều đó để lại 6 người trong hội đồng quản trị phi lợi nhuận quản lý gã khổng lồ AI vì lợi nhuận: Altman, đồng minh thân cận Brockman, đồng sáng lập Ilya Sutskever, và ba giám đốc độc lập. Đó là Adam D'Angelo, CEO của Quora và cựu giám đốc điều hành Facebook; Helen Toner, giám đốc chiến lược của Trung tâm An ninh và Công nghệ mới nổi Georgetown và cựu nhân viên của Open Philanthropy; và Tasha McCauley, cựu CEO công nghệ và thành viên hội đồng quản trị Vương quốc Anh của tổ chức từ thiện EA Effective Ventures.
Những lo ngại về quản trị doanh nghiệp và khả năng giám sát Altman của hội đồng quản trị trở nên cấp bách hơn nhiều đối với một số thành viên hội đồng quản trị sau khi họ xem bản demo của GPT-4, một AI mạnh hơn có thể vượt qua bài kiểm tra AP Sinh học, vào mùa hè năm 2022.
"Những thứ như ChatGPT và GPT-4 là những bước chuyển đáng kể hướng tới việc hội đồng quản trị nhận ra rằng cược lớn hơn ở đây," Toner nói. "Không phải tất cả chúng ta sẽ chết vào ngày mai, nhưng hội đồng quản trị cần hoạt động tốt."
Toner và McCauley đã bắt đầu mất lòng tin vào Altman. Để xem xét các sản phẩm mới về rủi ro trước khi được phát hành, OpenAI đã thiết lập một hội đồng an toàn chung với Microsoft, một nhà tài trợ chính của OpenAI có quyền truy cập đặc biệt để sử dụng công nghệ của công ty trong các sản phẩm của mình. Trong một cuộc họp vào mùa đông năm 2022, khi hội đồng quản trị cân nhắc cách phát hành ba cải tiến khá gây tranh cãi cho GPT-4, Altman tuyên bố cả ba đều đã được hội đồng an toàn chung phê duyệt. Toner yêu cầu bằng chứng và phát hiện ra rằng chỉ có một đã thực sự được phê duyệt.
Khoảng cùng thời gian, Microsoft ra mắt một bản thử nghiệm của GPT-4 chưa phát hành ở Ấn Độ, trường hợp đầu tiên mã cách mạng được phát hành trong tự nhiên, mà không có sự chấp thuận từ hội đồng an toàn chung. Và không ai thèm thông báo cho hội đồng quản trị OpenAI rằng phê duyệt an toàn đã bị bỏ qua. Các thành viên hội đồng quản trị độc lập phát hiện ra khi một trong số họ bị một nhân viên OpenAI chặn lại ở hành lang trên đường ra khỏi cuộc họp hội đồng quản trị kéo dài 6 giờ. Trong suốt cuộc họp đó, Altman hoặc Brockman không hề đề cập đến việc vi phạm.
Sau đó, vào một đêm mùa hè năm 2023, một thành viên hội đồng quản trị OpenAI tình cờ nghe thấy một người trong buổi tiệc tối thảo luận về Quỹ khởi nghiệp của OpenAI. Quỹ này được ra mắt vào năm 2021 để đầu tư vào các công ty khởi nghiệp liên quan đến AI, và OpenAI đã thông báo rằng nó sẽ được "quản lý" bởi OpenAI. Nhưng thành viên hội đồng quản trị đã nghe được những phàn nàn rằng lợi nhuận từ quỹ không đến tay các nhà đầu tư OpenAI.
Đây là tin mới đối với hội đồng quản trị, vì vậy họ đã hỏi Altman. Trong nhiều tháng, các giám đốc phát hiện ra rằng Altman sở hữu quỹ này cá nhân. Các giám đốc điều hành OpenAI ban đầu nói rằng đó là vì lý do thuế, sau đó cuối cùng giải thích rằng Altman đã thiết lập quỹ vì nó nhanh hơn và chỉ là một thỏa thuận "tạm thời". OpenAI cho biết Altman không nhận được bất kỳ khoản phí hoặc lợi nhuận nào từ quỹ này—một thỏa thuận bất thường.
Đối với các thành viên hội đồng quản trị độc lập, sự giám sát hành chính này gây khó tin—và xem các sai sót trước đó như một phần của một mô hình lừa dối có chủ ý. Ví dụ, họ cũng không được thông báo vào mùa thu trước khi OpenAI phát hành ChatGPT, vào thời điểm đó được coi là một "bản xem trước nghiên cứu" sử dụng công nghệ hiện có, nhưng đã tạo ra cơn bão trên toàn thế giới. (News Corp, chủ sở hữu của The Wall Street Journal, có quan hệ đối tác cấp phép nội dung với OpenAI.)
Vào cuối tháng 9, Sutskever đã gửi email cho Toner hỏi liệu cô có thời gian để nói chuyện vào ngày hôm sau không. Điều này rất bất thường. Họ không thực sự nói chuyện bên ngoài các cuộc họp hội đồng quản trị. Trên điện thoại, Sutskever lúng túng trước khi thốt ra một manh mối: "Bạn nên nói chuyện với Mira nhiều hơn."
Mira Murati đã được thăng chức làm giám đốc công nghệ của OpenAI vào tháng 5 năm 2022, và đã thực sự điều hành hàng ngày kể từ đó. Khi Toner gọi cho cô ấy, Murati mô tả cách phong cách quản lý độc hại mà cô coi là của Altman đã gây ra vấn đề trong nhiều năm, và cách mà động lực giữa Altman và Brockman—người báo cáo cho cô nhưng sẽ đi đến Altman bất cứ khi nào cô cố gắng kiềm chế anh ta—làm cho cô gần như không thể làm công việc của mình.
Murati đã nêu lên một số vấn đề này trực tiếp với Altman nhiều tháng trước đó, và Altman đã phản ứng bằng cách đưa trưởng phòng nhân sự đến các cuộc họp một-một của họ trong nhiều tuần cho đến khi cuối cùng cô nói với anh rằng cô không có ý định chia sẻ phản hồi của mình với hội đồng quản trị.
Toner quay lại gặp Sutskever, nhà khoa học trưởng giàu kinh nghiệm của công ty. Ông đã làm rõ rằng mình đã mất lòng tin vào Altman vì nhiều lý do, bao gồm cả xu hướng đặt các nhân viên cấp cao chống lại nhau. Năm 2021, Sutskever đã lập kế hoạch và thành lập một nhóm để theo đuổi hướng nghiên cứu tiếp theo cho OpenAI, nhưng nhiều tháng sau, một nhà nghiên cứu OpenAI khác, Jakub Pachocki, bắt đầu theo đuổi điều tương tự. Các nhóm sáp nhập, và Pachocki tiếp quản sau khi Sutskever chuyển sự tập trung của mình vào an toàn AI. Sau đó, Altman đưa Pachocki lên vị trí giám đốc nghiên cứu và hứa riêng với cả hai người rằng họ có thể lãnh đạo hướng nghiên cứu của công ty, điều này dẫn đến nhiều tháng mất năng suất.
Sutskever đã chờ đợi một thời điểm khi động lực hội đồng quản trị sẽ cho phép Altman được thay thế vị trí CEO.
Hành động cẩn thận, trong nỗi sợ hãi bị Altman phát hiện, Murati và Sutskever đã nói chuyện với từng thành viên hội đồng quản trị độc lập trong vài tuần tiếp theo. Chỉ vì họ tiếp xúc hàng ngày, các giám đốc độc lập mới phát hiện ra Altman đã nói dối đặc biệt trắng trợn.
Vào tháng 10 năm 2023, Mira Murati, giám đốc công nghệ của OpenAI, đã phát biểu tại hội nghị Tech Live của The Wall Street Journal.
Toner đã xuất bản một bài báo vào tháng 10 lặp lại những chỉ trích về cách tiếp cận an toàn của OpenAI. Altman tức giận. Anh nói với Sutskever rằng McCauley đã nói Toner rõ ràng nên rời khỏi hội đồng quản trị vì bài báo đó. McCauley đã ngạc nhiên khi nghe được điều này từ Sutskever—cô biết mình không hề nói điều đó.
Sutskever và Murati đã thu thập bằng chứng, và bây giờ Sutskever sẵn sàng chia sẻ. Ông gửi email cho Toner, McCauley và D'Angelo hai tài liệu pdf dài bằng cách sử dụng chức năng email tự hủy của Gmail.
Một tài liệu về Altman, tài liệu kia về Brockman. Tài liệu về Altman bao gồm hàng chục ví dụ về những lời nói dối bị cáo buộc và hành vi độc hại khác của anh ta, chủ yếu được hỗ trợ bởi ảnh chụp màn hình từ kênh Slack của Murati. Trong một ví dụ, Altman đã nói với Murati rằng bộ phận pháp lý của công ty đã nói rằng GPT-4 Turbo không cần phải trải qua quá trình xem xét của hội đồng an toàn chung. Khi Murati kiểm tra với luật sư hàng đầu của công ty, ông nói rằng ông không nói điều đó. Tài liệu về Brockman chủ yếu tập trung vào việc bắt nạt bị cáo buộc của anh ta.
Nếu họ định hành động, Sutskever cảnh báo, họ phải hành động nhanh.
Và vì vậy, vào chiều thứ Năm, ngày 16 tháng 11 năm 2023, ông và ba thành viên hội đồng quản trị độc lập đăng nhập vào một cuộc gọi video và bỏ phiếu sa thải Altman. Biết rằng Murati khó có thể đồng ý làm CEO tạm thời nếu cô phải báo cáo cho Brockman, họ cũng bỏ phiếu loại bỏ Brockman khỏi hội đồng quản trị. Sau cuộc bỏ phiếu, các thành viên hội đồng quản trị độc lập nói với Sutskever rằng họ đã lo lắng rằng ông đã được cử đến như một gián điệp để kiểm tra lòng trung thành của họ.
Đêm đó, Murati đang tham dự một hội nghị khi bốn thành viên hội đồng quản trị gọi cho cô để nói rằng họ đang sa thải Altman vào ngày hôm sau và yêu cầu cô đảm nhận vị trí CEO tạm thời. Cô đồng ý. Khi cô hỏi tại sao họ sa thải anh ta, họ không cho cô biết.
"Anh đã thông báo điều này cho Satya chưa?" Murati hỏi, biết rằng cam kết của CEO Microsoft Satya Nadella đối với quan hệ đối tác của họ quan trọng như thế nào đối với công ty. Họ chưa. Họ quyết định rằng Murati sẽ thông báo cho Microsoft ngay trước khi tin tức được đăng trên trang web của OpenAI.
Việc sa thải bất ngờ Altman ngay lập tức trở thành tiêu đề gây sốc trên toàn thế giới.
Nhưng hội đồng quản trị không có câu trả lời cho nhân viên hoặc công chúng rộng rãi về lý do tại sao Altman bị sa thải, ngoài việc anh ta đã không "nhất quán thẳng thắn" với hội đồng quản trị.
Tối thứ Sáu, hội đồng quản trị OpenAI và đội ngũ điều hành tổ chức một loạt các cuộc họp ngày càng căng thẳng. Murati đã lo lắng rằng hội đồng quản trị đang đặt OpenAI vào tình trạng rủi ro bằng cách không chuẩn bị tốt hơn cho hậu quả của việc sa thải Altman. Tại một thời điểm, cô và phần còn lại của đội ngũ điều hành đã đưa ra thời hạn 30 phút cho hội đồng quản trị để giải thích tại sao họ sa thải Altman hoặc từ chức—hoặc đội ngũ điều hành sẽ từ chức hàng loạt.
Hội đồng quản trị cảm thấy họ không thể tiết lộ rằng Murati đã cung cấp cho họ một số bằng chứng chi tiết nhất về những thiếu sót trong quản lý của Altman. Họ đã hy vọng Murati sẽ làm dịu nhân viên trong khi họ tìm kiếm một CEO. Thay vào đó, cô đang lãnh đạo các đồng nghiệp của mình trong một cuộc nổi dậy chống lại hội đồng quản trị.
Một câu chuyện bắt đầu lan truyền giữa các đồng minh của Altman rằng toàn bộ sự việc là một "cuộc đảo chính" của Sutskever, được thúc đẩy bởi sự tức giận của ông về việc thăng chức của Pachocki, và được tăng cường bởi sự tức giận của Toner vì Altman đã cố gắng đẩy cô ra khỏi hội đồng quản trị.
Sutskever kinh ngạc. Ông đã mong đợi các nhân viên của OpenAI sẽ hoan nghênh.
Đến sáng thứ Hai, hầu hết họ đã ký một lá thư đe dọa sẽ từ chức nếu Altman không được khôi phục. Trong số các chữ ký có Murati và Sutskever. Đã trở nên rõ ràng rằng cách duy nhất để giữ cho công ty không sụp đổ là đưa Altman trở lại.
The Real Story Behind Sam Altman’s Firing From OpenAI
Secrets, misdirection and broken trust. The inside story of how the CEO of the hottest tech company was ousted and, just as quickly, resurrected.
March 28, 2025 5:00 pm ET
On a balmy mid-November evening in 2023, billionaire venture capitalist Peter Thiel threw a birthday party for his husband at YESS, an avant-garde Japanese restaurant located in a century-old converted bank building in Los Angeles’s Arts District. Seated next to him was his friend Sam Altman.
Thiel had backed Altman’s first venture fund more than a decade before, and remained a mentor to the younger investor when Altman became the face of the artificial-intelligence revolution as the chief executive of OpenAI. OpenAI’s instantly viral
launch of ChatGPT in November 2022 had propelled tech stocks to one of their best years in decades. Yet Thiel was worried.
Years before he met Altman, Thiel had taken another AI-obsessed prodigy named Eliezer Yudkowsky under his wing, funding his institute, which pushed to make sure that any AI smarter than humans would be friendly to its maker. That March, Yudkowsky had argued in Time magazine that unless the current wave of AI research was halted, “literally everyone on Earth will die.”
“You don’t understand how Eliezer has programmed half the people in your company to believe in that stuff,” Thiel warned Altman. “You need to take this more seriously.”
Altman picked at his vegetarian dish and tried not to roll his eyes. This was not the first dinner where Thiel had warned him that the company had been taken over by “the EAs,” by which he meant people who subscribed to effective altruism. EA had lately pivoted from trying to end global poverty to trying to prevent runaway AI from murdering humanity. Thiel had repeatedly predicted that “the AI safety people” would “destroy” OpenAI.
“Well, it was kind of true of Elon, but we got rid of Elon,” Altman responded at the dinner, referring to the messy 2018
split with his co-founder, Elon Musk, who once referred to the attempt to create artificial intelligence as “summoning the demon.”
Nearly 800 OpenAI employees had been riding a rocket ship and were about to have the chance to buy beachfront second homes with the imminent close of a tender offer valuing the company at $86 billion. There was no need to panic.
Thiel, pictured in April 2022 at a bitcoin conference, was a mentor to Altman.
Altman, at 38 years old, was wrapping up the best year of a charmed career, a year in which he became a household name,
met with presidents and prime ministers around the world, and—most important within the value system of Silicon Valley—delivered a new technology that seemed like it was very possibly going to change everything.
But as the two investing partners celebrated beneath the exposed rafters of L.A.’s hottest new restaurant, four members of OpenAI’s six-person board, including two with direct ties to the EA community, were holding secret video meetings. And they were deciding whether they should fire Sam Altman—though not because of EA.
This account is based on interviews with dozens of people who lived through one of the wildest business stories of all time—the sudden firing of the CEO of the hottest tech company on the planet, and his reinstatement days later. At the center was a mercurial leader who kept everyone around him inspired by his technological vision, but also at times confused and unsettled by his web of secrets and misdirections.
From the start, OpenAI was set up to be a different kind of tech company, one governed by a nonprofit board with a duty not to shareholders but to “humanity.” Altman had shocked
lawmakers earlier in the year when he told them under oath that he owned no equity in the company he co-founded. He agreed to the unprecedented arrangement to be on the board, which required a majority of directors to have no financial ties to the company. In June 2023, he told Bloomberg TV: “The board can fire me. That’s important.”
Behind the scenes, the board was finding, to its growing frustration, that Altman really called the shots.
For the past year, the board had been deadlocked over which AI safety expert to add to its ranks. The board interviewed Ajeya Cotra, an AI safety expert at the EA charity Open Philanthropy, but the process stalled, largely due to foot-dragging by Altman and his co-founder Greg Brockman, who was also on the board. Altman countered with his own suggestions.
“There was a little bit of a power struggle,” said Brian Chesky, the Airbnb CEO who was one of the prospective board members Altman suggested. “There was this basic thing that if Sam said the name, they must be loyal to Sam, so therefore they’re gonna say no.”
Altman presented at OpenAI’s first developer conference on Nov. 6, 2023, less than two weeks before he was fired by the board.
The dynamics got more contentious after three board members in the pro-Altman camp
stepped down in quick succession in early 2023 over various conflicts of interest. That left six people on the nonprofit board that governed the for-profit AI juggernaut: Altman, his close ally Brockman, their fellow co-founder Ilya Sutskever, and three independent directors. These were Adam D’Angelo, the CEO of Quora and a former Facebook executive; Helen Toner, the director of strategy for Georgetown’s Center for Security and Emerging Technology and a veteran of Open Philanthropy; and Tasha McCauley, a former tech CEO and member of the U.K. board of the EA charity Effective Ventures.
Concerns about corporate governance and the board’s ability to oversee Altman became much more urgent for several board members after they saw a demo of GPT-4, a more powerful AI that could ace the AP Biology test, in the summer of 2022.
“Things like ChatGPT and GPT-4 were meaningful shifts toward the board realizing that the stakes are getting higher here,” Toner said. “It’s not like we are all going to die tomorrow, but the board needs to be functioning well.”
Toner and McCauley had already begun to lose trust in Altman. To review new products for risks before they were released, OpenAI had set up a joint safety board with Microsoft, a key backer of OpenAI that had special access to use its technology in its products. During one meeting in the winter of 2022, as the board weighed how to release three somewhat controversial enhancements to GPT-4, Altman claimed all three had been approved by the joint safety board. Toner asked for proof and found that only one had actually been approved.
Around the same time, Microsoft launched a test of the still-unreleased GPT-4 in India, the first instance of the revolutionary code being released in the wild, without approval from the joint safety board. And no one had bothered to inform OpenAI’s board that the safety approval had been skipped. The independent board members found out when one of them was stopped by an OpenAI employee in the hallway on the way out of a six-hour board meeting. Never once in that meeting had Altman or Brockman mentioned the breach.
Then, one night in the summer of 2023, an OpenAI board member overheard a person at a dinner party discussing OpenAI’s Startup Fund. The fund was launched in 2021 to invest in AI-related startups, and OpenAI had announced it would be “managed” by OpenAI. But the board member was overhearing complaints that the profits from the fund weren’t going to OpenAI investors.
This was news to the board, so they asked Altman. Over months, directors learned that Altman owned the fund personally. OpenAI executives first said it had been for tax reasons, then eventually explained Altman had set up the fund because it was faster and only a “temporary” arrangement. OpenAI said Altman earned no fees or profits from the fund—an unusual arrangement.
To the independent board members, the administrative oversight defied belief—and cast previous oversights as part of a possible pattern of deliberate deception. For instance, they also hadn’t been alerted the previous fall when OpenAI released ChatGPT, at the time considered a “research preview” that used existing technology, but that ended up taking the world by storm. (News Corp, owner of The Wall Street Journal, has a content-licensing partnership with OpenAI.)
In late September, Sutskever emailed Toner asking if she had time to talk the next day. This was highly unusual. They didn’t really talk outside of board meetings. On the phone, Sutskever hemmed and hawed before coughing up a clue: “You should talk to Mira more.”
Mira Murati had been promoted to chief technology officer of OpenAI in May 2022, and had effectively been running the day-to-day ever since. When Toner called her, Murati described how what she saw as Altman’s toxic management style had been causing problems for years, and how the dynamic between Altman and Brockman—who reported to her but would go to Altman anytime she tried to rein him in—made it almost impossible for her to do her job.
Murati had raised some of these issues directly with Altman months earlier, and Altman had responded by bringing the head of HR to their one-on-one meetings for weeks until she finally told him she didn’t intend to share her feedback with the board.
Toner went back to Sutskever, the company’s
oracular chief scientist. He made clear he had lost trust in Altman for numerous reasons, including his tendency to pit senior employees against each other. In 2021, Sutskever had mapped out and launched a team to pursue the next research direction for OpenAI, but months later another OpenAI researcher, Jakub Pachocki, began pursuing something very similar. The teams merged, and Pachocki took over after Sutskever turned his focus to AI safety. Altman later elevated Pachocki to research director and privately promised both of them they could lead the research direction of the company, which led to months of lost productivity.
Sutskever had been waiting for a moment when the board dynamics would allow for Altman to be replaced as CEO.
Treading carefully, in terror of being found out by Altman, Murati and Sutskever spoke to each of the independent board members over the next few weeks. It was only because they were in daily touch that the independent directors caught Altman in a particularly egregious lie.
In October 2023, Mira Murati, chief technology officer of OpenAI, spoke at The Wall Street Journal’s Tech Live conference.
Toner had published a paper in October that repeated criticisms of OpenAI’s approach to safety. Altman was livid. He told Sutskever that McCauley had said Toner should obviously leave the board over the article. McCauley was taken aback when she heard this account from Sutskever—she knew she had said no such thing.
Sutskever and Murati had been collecting evidence, and now Sutskever was willing to share. He emailed Toner, McCauley and D’Angelo two lengthy pdf documents using Gmail’s self-destructing email function.
One was about Altman, the other about Brockman. The Altman document consisted of dozens of examples of his alleged lies and other toxic behavior, largely backed up by screenshots from Murati’s Slack channel. In one of them, Altman had told Murati that the company’s legal department had said that GPT-4 Turbo didn’t need to go through the joint safety board review. When Murati checked with the company’s top lawyer, he said he had not said that. The document about Brockman largely focused on his alleged bullying.
If they were going to act, Sutskever warned, they had to act quickly.
And so, on the afternoon of Thursday, Nov. 16, 2023, he and the three independent board members logged into a video call and voted to fire Altman. Knowing Murati was unlikely to agree to be interim CEO if she had to report to Brockman, they also voted to remove Brockman from the board. After the vote, the independent board members told Sutskever they had been worried that he’d been sent as a spy to test their loyalty.
That night, Murati was at a conference when the four board members called her to say they were firing Altman the next day and to ask her to step in as interim CEO. She agreed. When she asked why they were firing him, they wouldn’t tell her.
“Have you communicated this to Satya?” Murati asked, knowing how essential Microsoft CEO Satya Nadella’s commitment to their partnership was to the company. They had not. They decided that Murati would tell Microsoft just before the news was posted on OpenAI’s website.
Altman’s surprise firing instantly became an explosive headline around the world.
But the board had no answers for employees or the wider public for why Altman was fired, beyond that he had not been “consistently candid” with the board.
Friday night, OpenAI’s board and executive team held a series of increasingly
contentious meetings. Murati had grown concerned that the board was putting OpenAI at risk by not better preparing for the repercussions of Altman’s firing. At one point, she and the rest of the executive team gave the board a 30-minute deadline to explain why they fired Altman or resign—or else the executive team would quit en masse.
The board felt they couldn’t divulge that it had been Murati who had given them some of the most detailed evidence of Altman’s management failings. They had banked on Murati calming employees while they searched for a CEO. Instead, she was leading her colleagues in a revolt against the board.
A narrative began to spread among Altman’s allies that the whole thing was a “coup” by Sutskever, driven by his anger over Pachocki’s promotion, and boosted by Toner’s anger that Altman had tried to push her off the board.
Sutskever was astounded. He had expected the employees of OpenAI to cheer.
By Monday morning, almost all of them had signed a letter threatening to quit if Altman wasn’t reinstated. Among the signatures were Murati’s and Sutskever’s. It had become clear that the only way to keep the company from imploding was to bring back Altman.