Tác giả: Sleepy.txt
Năm 2016, tạp chí The New Yorker đã đăng một bài báo về Sam Altman với tựa đề "Số phận của Sam Altman". Năm đó ông 31 tuổi và đã là chủ tịch của Y Combinator, vườn ươm khởi nghiệp quyền lực nhất Thung lũng Silicon.
Bài báo có đề cập đến niềm đam mê đua xe của Altman; ông sở hữu năm chiếc xe thể thao và thích thuê máy bay. Ông nói với phóng viên rằng ông có hai chiếc túi, một trong số đó là bộ dụng cụ thoát hiểm khi cần phải chạy trốn.
Ông cũng chuẩn bị súng, vàng, kali iodua (để bảo vệ chống lại bức xạ hạt nhân), thuốc kháng sinh, pin, nước và mặt nạ phòng độc đạt tiêu chuẩn của Lực lượng Phòng vệ Israel. Ông ta cũng mua đất ở Big Sur (một khu nghỉ dưỡng ven biển nổi tiếng của California) để có thể bay đến đó trú ẩn bất cứ lúc nào. Mười năm sau, Ultraman trở thành người tận tâm nhất trong việc tạo ra ngày tận thế và tận tâm nhất trong việc bán Chiếc Hòm Giao Ước. Trong khi cảnh báo thế giới rằng trí tuệ nhân tạo sẽ hủy diệt nhân loại, ông ta lại tự mình đẩy nhanh quá trình này; trong khi tuyên bố không vì tiền, ông ta đã xây dựng một đế chế đầu tư cá nhân trị giá 2 tỷ đô la; trong khi kêu gọi điều chỉnh, ông ta lại loại bỏ tất cả những ai cố gắng kìm hãm nó. Thay vì gọi ông ta là một kẻ điên loạn tâm thần phân liệt hay một kẻ lừa đảo xảo quyệt, chính xác hơn là ông ta chỉ đơn giản là một trong những sản phẩm tiêu chuẩn và thành công nhất được sản xuất bởi cỗ máy khổng lồ của Thung lũng Silicon. "Số phận" của ông ta là biến nỗi lo lắng tập thể của nhân loại thành quyền trượng và vương miện của riêng mình. Mô hình kinh doanh của Altman có thể được tóm gọn trong một câu: đóng gói một doanh nghiệp như một cuộc thánh chiến liên quan đến sự sống còn của nhân loại. Ông ta bắt đầu thực hành chiến lược này trong những ngày làm việc tại Y Combinator. Ông ta đã biến Y Combinator từ một hội thảo nhỏ cung cấp hàng chục nghìn đô la cho các công ty khởi nghiệp giai đoạn đầu thành một đế chế kinh doanh rộng lớn. Ông đã thành lập Y Combinator, tài trợ cho các dự án không tạo ra doanh thu nhưng nghe có vẻ đầy tham vọng. Ông nói với các phóng viên rằng mục tiêu của Y Combinator là tài trợ cho "tất cả các lĩnh vực quan trọng". Tại OpenAI, ông đã đưa cách tiếp cận này đến cực điểm. Ông đã bán một thế giới quan được đóng gói: ngày tận thế AI + kế hoạch cứu rỗi. Ông giỏi hơn bất kỳ ai trong việc mô tả "nguy cơ tuyệt chủng" của AI. Ông đã cùng ký một tuyên bố với hàng trăm nhà khoa học, nói rằng rủi ro của AI có thể so sánh với chiến tranh hạt nhân. Khi điều trần trước Thượng viện, ông nói, "Chúng ta có một nỗi sợ hãi (về tiềm năng của AI) - và mọi người nên vui mừng về điều đó." Ông ngụ ý rằng chính nỗi sợ hãi này là một lời cảnh báo hữu ích. Mỗi một tuyên bố như vậy đều có thể trở thành tiêu đề báo chí, mỗi một đều là quảng cáo miễn phí cho OpenAI. Nỗi sợ hãi được tạo ra một cách cẩn thận này là đòn bẩy hiệu quả nhất để thu hút sự chú ý. Điều gì kích thích vốn và giới truyền thông hơn: một công nghệ "cải thiện hiệu quả" hay một công nghệ "có khả năng hủy diệt nhân loại"? Câu trả lời là hiển nhiên. Về khía cạnh cứu rỗi, ông cũng có một sản phẩm sẵn có: Worldcoin. Khi nỗi sợ hãi được gieo rắc vào ý thức cộng đồng, việc bán các giải pháp trở thành một bước tiến tự nhiên. Sử dụng một quả cầu bạc kích thước bằng quả bóng rổ để quét mống mắt của con người trên toàn cầu, được cho là để phân phối tiền cho mọi người trong kỷ nguyên AI. Câu chuyện nghe có vẻ hấp dẫn, nhưng việc đổi tiền lấy dữ liệu sinh trắc học này nhanh chóng thu hút sự chú ý của nhiều chính phủ. Hơn chục quốc gia, bao gồm Kenya, Tây Ban Nha, Brazil, Ấn Độ và Colombia, đã tạm dừng hoặc điều tra Worldcoin với lý do bảo mật dữ liệu. Nhưng điều này có thể không quan trọng đối với Ultraman. Điều quan trọng là thông qua dự án này, ông đã thành công trong việc tự định vị mình là "người duy nhất có giải pháp". Kết hợp nỗi sợ hãi và hy vọng rồi bán chúng là mô hình kinh doanh hiệu quả nhất của thời đại này. Quy định là vũ khí của tôi, không phải xiềng xích của tôi. Làm thế nào một người liên tục nói về ngày tận thế có thể kinh doanh? Câu trả lời của Altman là: biến quy định thành vũ khí của bạn. Vào tháng 5 năm 2023, ông đã lần đầu tiên điều trần trước Quốc hội Hoa Kỳ. Không giống như các chủ sở hữu công ty công nghệ khác phàn nàn về quy định, ông đã chủ động yêu cầu, "Hãy điều chỉnh chúng tôi." Ông đề xuất một hệ thống cấp phép AI, chỉ cho phép các công ty được cấp phép phát triển các mô hình quy mô lớn. Điều này cho thấy ông là một nhà lãnh đạo ngành công nghiệp có trách nhiệm cao, nhưng vào thời điểm đó, OpenAI đã đi trước rất xa về mặt công nghệ. Một hệ thống quản lý nghiêm ngặt, với rào cản cao chủ yếu sẽ nhằm mục đích loại bỏ tất cả các đối thủ cạnh tranh tiềm năng. Tuy nhiên, theo thời gian, đặc biệt là sau khi các đối thủ cạnh tranh như Google và Anthropic bắt kịp về mặt công nghệ và cộng đồng mã nguồn mở bắt đầu phát triển, quan điểm của Altman về quy định đã có một sự thay đổi tinh tế. Ông bắt đầu nhấn mạnh trong nhiều dịp rằng các quy định quá khắt khe, đặc biệt là việc yêu cầu các công ty AI phải xem xét trước khi phát hành sản phẩm, có thể kìm hãm sự đổi mới và gây ra hậu quả "thảm họa". Tại thời điểm này, quy định không còn là một rào cản mà là một trở ngại. Khi ở vị thế ưu thế tuyệt đối, ông kêu gọi các quy định để củng cố lợi thế đó; khi lợi thế đó suy giảm, ông kêu gọi sự tự do tìm kiếm những đột phá. Ông thậm chí còn cố gắng mở rộng tầm ảnh hưởng của mình đến tận thượng nguồn của chuỗi ngành công nghiệp. Ông đề xuất một kế hoạch chip khổng lồ trị giá 7 nghìn tỷ đô la, tìm kiếm sự hỗ trợ từ các nguồn vốn như quỹ đầu tư quốc gia của UAE, nhằm mục đích định hình lại bối cảnh ngành công nghiệp bán dẫn toàn cầu. Điều này vượt xa quyền hạn của một CEO và giống như tham vọng của một nhân vật đầy tham vọng muốn tác động đến trật tự toàn cầu. Đằng sau tất cả là sự chuyển đổi nhanh chóng của OpenAI từ một tổ chức phi lợi nhuận thành một tập đoàn thương mại khổng lồ. Được thành lập vào năm 2015, sứ mệnh của nó là "đảm bảo một cách an toàn rằng Trí tuệ Nhân tạo Tổng quát (AGI) mang lại lợi ích cho toàn nhân loại". Năm 2019, nó thành lập một công ty con "lợi nhuận hạn chế". Đến đầu năm 2024, người ta phát hiện ra rằng từ "an toàn" đã bị âm thầm loại bỏ khỏi tuyên bố sứ mệnh của OpenAI. Mặc dù cấu trúc công ty vẫn là "lợi nhuận hạn chế", tốc độ thương mại hóa của nó đã tăng tốc đáng kể. Điều này đi kèm với sự tăng trưởng doanh thu bùng nổ, từ hàng chục triệu đô la vào năm 2022 lên hơn mười tỷ đô la doanh thu hàng năm vào năm 2024, với giá trị định giá tăng vọt từ 29 tỷ đô la lên hàng trăm tỷ đô la. Khi ai đó bắt đầu nhìn lên bầu trời và thảo luận về số phận của nhân loại, tốt hơn hết họ nên xem xét ví tiền của mình đang ở đâu trước đã. **Hình ảnh cá nhân: Quyền miễn trừ của một nhà lãnh đạo lôi cuốn** Vào ngày 17 tháng 11 năm 2023, Altman bị hội đồng quản trị do chính ông lựa chọn sa thải vì "thiếu trung thực trong giao tiếp với hội đồng". Những gì xảy ra trong năm ngày tiếp theo không chỉ là một cuộc chiến kinh doanh mà còn là một cuộc trưng cầu dân ý về niềm tin. Chủ tịch Greg Brockman từ chức; 95% nhân viên của công ty, hơn 700 người, đã ký đơn kiến nghị yêu cầu hội đồng quản trị từ chức, đe dọa sẽ đồng loạt chuyển sang làm việc cho Microsoft nếu không; CEO của Microsoft, Satya Nadella, nhà đầu tư lớn nhất, đã công khai đứng về phía công ty, nói rằng ông sẽ luôn chào đón Altman làm việc tại đây bất cứ lúc nào. Cuối cùng, Altman trở lại trong thắng lợi, được phục chức và loại bỏ gần như tất cả các thành viên hội đồng quản trị phản đối ông. Làm thế nào một CEO bị hội đồng quản trị coi là "thiếu trung thực" lại có thể trở lại mà không hề hấn gì, thậm chí còn nắm giữ quyền lực lớn hơn? Helen Toner, một trong những thành viên hội đồng quản trị bị sa thải, sau đó đã tiết lộ chi tiết. Altman đã che giấu quyền kiểm soát thực sự của mình đối với quỹ khởi nghiệp OpenAI khỏi hội đồng quản trị; liên tục nói dối về các quy trình bảo mật quan trọng; Thậm chí, họ còn biết được thông báo quan trọng về ChatGPT từ Twitter. Bất kỳ một trong những cáo buộc này cũng đủ để sa thải một CEO đến cả trăm lần. Nhưng Altman vẫn không hề hấn gì. Bởi vì ông không phải là một CEO bình thường; ông là một "nhà lãnh đạo lôi cuốn". Đây là một khái niệm được nhà xã hội học Max Weber đề xuất cách đây một thế kỷ, cho rằng có một loại quyền lực không đến từ chức vụ, không đến từ luật pháp, mà đến từ "sức hút cá nhân phi thường" của người lãnh đạo. Những người theo dõi tin tưởng ông không phải vì ông đã làm điều gì đúng đắn, mà vì ông là chính ông. Loại niềm tin này là phi lý. Khi một nhà lãnh đạo mắc sai lầm hoặc bị thách thức, phản ứng đầu tiên của những người theo dõi không phải là đặt câu hỏi cho nhà lãnh đạo, mà là tấn công người thách thức. Đây là trường hợp của các nhân viên OpenAI. Họ không tin vào công lý theo thủ tục của hội đồng quản trị; họ chỉ tin vào "số phận" do Altman đại diện, và họ cảm thấy rằng các thành viên hội đồng quản trị đang "cản trở sự tiến bộ của nhân loại". Sau khi Altman được phục chức, nhóm an ninh của OpenAI đã nhanh chóng bị giải tán. Nhà khoa học trưởng Ilya Sutzkwell, người đứng đầu vụ sa thải Altman, cũng đã rời đi. Vào tháng 5 năm 2024, Jan Leike, người đứng đầu nhóm an ninh, đã từ chức, đăng tải trên Twitter: "Văn hóa và quy trình an ninh của công ty đã bị hy sinh để cho ra mắt những sản phẩm hào nhoáng đó." Trước một "lãnh đạo lôi cuốn", sự thật không quan trọng, quy trình không quan trọng, và an ninh cũng không quan trọng. Điều duy nhất quan trọng là niềm tin. Những nhà tiên tri trên dây chuyền lắp ráp Sam Altman chỉ là mô hình mới nhất và thành công nhất trên dây chuyền sản xuất "nhà tiên tri" của Thung lũng Silicon. Có rất nhiều gương mặt quen thuộc khác trên dây chuyền này, chẳng hạn như Elon Musk. Năm 2014, ông đã đi khắp nơi nói rằng "Trí tuệ nhân tạo đang triệu hồi quỷ dữ." Nhưng Tesla của ông là công ty robot lớn nhất thế giới và là ứng dụng phức tạp nhất của trí tuệ nhân tạo. Sau khi đoạn tuyệt với Altman, ông đã thành lập xAI vào năm 2023, trực tiếp thách thức Altman. Chỉ một năm sau, giá trị của xAI đã vượt quá 20 tỷ đô la. Ông cảnh báo về con quỷ sắp xuất hiện trong khi đồng thời tạo ra một con quỷ khác. Câu chuyện nhị nguyên, mâu thuẫn này có sự tương đồng đáng kinh ngạc với Ultraman. Lấy Zuckerberg làm ví dụ. Vài năm trước, ông đã đặt cược toàn bộ tương lai của công ty vào metaverse, đốt gần 90 tỷ đô la, chỉ để phát hiện ra đó là một cái bẫy. Ông ngay lập tức đảo ngược hướng đi, chuyển trọng tâm câu chuyện của công ty từ metaverse sang trí tuệ nhân tạo tổng quát (AGI). Năm 2025, ông tuyên bố thành lập "Phòng thí nghiệm Siêu trí tuệ", đích thân tuyển dụng nhân tài. Cả hai đều liên quan đến những tầm nhìn vĩ đại về tương lai của nhân loại, cả hai đều đòi hỏi vốn đầu tư khổng lồ và cả hai đều mang dáng vẻ của một vị cứu tinh.

Ngoài ra còn có Peter Thiel. Là người cố vấn của Ultraman, ông ấy giống như kiến trúc sư trưởng của dây chuyền sản xuất này. Trong khi đầu tư vào nhiều công ty quảng bá "điểm kỳ dị công nghệ" và "bất tử", ông ấy cũng đang mua đất và xây dựng hầm trú ẩn ngày tận thế ở New Zealand. Ông ấy đã có được quốc tịch New Zealand chỉ sau 12 ngày.
Công ty của ông, Palantir, là một trong những công ty giám sát dữ liệu lớn nhất thế giới, với khách hàng chủ yếu là chính phủ và quân đội.
Công ty của ông, Palantir, là một trong những công ty giám sát dữ liệu lớn nhất thế giới, với khách hàng chủ yếu là chính phủ và quân đội.
Trong khi chuẩn bị cho sự sụp đổ của nền văn minh, ông đồng thời tạo ra những công cụ giám sát sắc bén nhất cho những người nắm quyền. Trong chiến dịch quân sự chống lại Iran vào đầu năm 2026, nền tảng AI của Palantir đóng vai trò là bộ não, tích hợp lượng dữ liệu khổng lồ từ vệ tinh do thám, nghe lén thông tin liên lạc, máy bay không người lái và phân tích mô hình Claude. Nó chuyển đổi thông tin hỗn loạn thành thông tin ra quyết định trong thời gian thực, cuối cùng khóa mục tiêu và thực hiện cuộc tấn công tiêu diệt. Mỗi người trong số họ đều đóng vai trò kép: vừa "cảnh báo về thảm họa sắp xảy ra" vừa "thúc đẩy ngày tận thế". Đây không phải là sự phân liệt nhân cách; Đây là mô hình kinh doanh được thị trường vốn chứng thực là hiệu quả nhất. Họ thu hút sự chú ý, vốn và quyền lực bằng cách tạo ra và bán nỗi lo lắng mang tính cấu trúc. Họ vừa là sản phẩm vừa là người định hình hệ thống này, "cái ác đằng sau câu chuyện vĩ đại". Thung lũng Silicon không còn chỉ là nơi xuất khẩu công nghệ; nó là một nhà máy sản xuất "những huyền thoại hiện đại". Tại sao thủ đoạn này luôn hiệu quả? Cứ vài năm, Thung lũng Silicon lại sản sinh ra một nhà tiên tri mới, thu hút sự chú ý của vốn, truyền thông và công chúng bằng một câu chuyện vĩ đại về ngày tận thế và sự cứu rỗi. Thủ đoạn này được lặp đi lặp lại, nhưng lần nào cũng hiệu quả. Mỗi bước đều nhắm chính xác vào những lỗ hổng cụ thể trong nhận thức của con người. Bước đầu tiên: quản lý nhịp điệu của nỗi sợ hãi, chứ không chỉ tạo ra nó. Những rủi ro tiềm tàng của AI là có thật, nhưng những rủi ro này lẽ ra có thể được thảo luận một cách bình tĩnh. Nhóm người này đã cố tình chọn cách trình bày nó một cách kịch tính nhất, và họ kiểm soát nhịp điệu một cách chính xác việc giải phóng nỗi sợ hãi. Khi nào nên gieo rắc nỗi sợ hãi trong công chúng, khi nào nên mang lại hy vọng, và khi nào nên gióng lên hồi chuông cảnh báo—tất cả đều được thiết kế tỉ mỉ. Nỗi sợ hãi là nhiên liệu, nhưng thời điểm và phương pháp kích hoạt mới là công nghệ thực sự. Bước thứ hai: biến sự khó hiểu của công nghệ thành nguồn gốc của quyền lực. Trí tuệ nhân tạo (AI) là một hộp đen hoàn toàn khó hiểu đối với hầu hết mọi người. Khi một thứ gì đó quá phức tạp để có thể hiểu đầy đủ xuất hiện, mọi người theo bản năng từ bỏ quyền giải thích nó cho "những người hiểu rõ nhất". Họ hiểu sâu sắc điều này và đã biến nó thành một lợi thế cấu trúc; càng mô tả AI là bí ẩn, nguy hiểm và vượt quá khả năng hiểu biết của con người, họ càng trở nên không thể thay thế. Khía cạnh đáng sợ của logic này là tính chất tự củng cố của nó. Bất kỳ sự chỉ trích nào từ bên ngoài đều tự động bị vô hiệu hóa vì người chỉ trích "không hiểu đủ". Các nhà quản lý không hiểu công nghệ, vì vậy phán đoán của họ không đáng tin cậy; các nhà phê bình học thuật chưa xây dựng mô hình trên thực tế, vì vậy mối quan tâm của họ chỉ mang tính lý thuyết. Cuối cùng, chỉ có chính họ mới đủ tư cách để tự phán xét mình. Bước thứ ba: thay thế "lợi ích" bằng "ý nghĩa", khiến những người theo dõi tự nguyện từ bỏ sự chỉ trích. Đây là lớp khó phát hiện nhất trong toàn bộ hệ thống, và cũng là nguồn sức mạnh bền vững nhất của nó. Họ không chỉ bán một công việc hay một sản phẩm, mà là một câu chuyện mang ý nghĩa vũ trụ: bạn đang quyết định số phận của nhân loại. Một khi câu chuyện này được chấp nhận, những người theo dõi sẽ tự nguyện từ bỏ khả năng phán đoán độc lập. Bởi vì khi đối mặt với một nhiệm vụ liên quan đến "sự sống còn của nhân loại", việc đặt câu hỏi về động cơ của người lãnh đạo khiến người ta trở nên nhỏ bé, thậm chí như một trở ngại cho lịch sử. Nó khiến mọi người sẵn sàng từ bỏ khả năng tư duy phản biện của mình và hiểu sự từ bỏ này như một lựa chọn cao cả. Kết hợp ba bước này lại, bạn sẽ hiểu tại sao hệ thống này lại khó bị lung lay đến vậy. Nó không dựa trên những lời nói dối; nó dựa trên sự hiểu biết chính xác về cấu trúc nhận thức của con người. Đầu tiên, nó tạo ra một nỗi sợ hãi không thể phủ nhận, sau đó độc chiếm cách diễn giải nỗi sợ hãi đó, và cuối cùng sử dụng "ý nghĩa" để biến bạn thành người truyền bá trung thành nhất của nó. Và trong hệ thống này, Ultraman là mô hình hoạt động trơn tru nhất cho đến nay. Số phận của ai? Altman luôn khẳng định rằng ông không sở hữu bất kỳ cổ phần nào trong OpenAI, chỉ nhận một mức lương tượng trưng - một nền tảng trong câu chuyện "làm việc vì tình yêu" của ông. Tuy nhiên, Bloomberg ước tính giá trị tài sản ròng của ông vào năm 2024 vào khoảng 2 tỷ đô la. Sự giàu có này chủ yếu đến từ một loạt các khoản đầu tư mạo hiểm mà ông đã thực hiện trong thập kỷ qua. Khoản đầu tư ban đầu của ông vào công ty thanh toán Stripe được cho là đã mang lại hàng trăm triệu đô la lợi nhuận; khoản đầu tư vào đợt IPO của Reddit cũng mang lại cho ông lợi nhuận đáng kể. Ông cũng đầu tư vào công ty phản ứng tổng hợp hạt nhân Helion, đồng thời đặt cược lớn vào phản ứng tổng hợp hạt nhân trong khi tuyên bố tương lai của trí tuệ nhân tạo phụ thuộc vào những đột phá về năng lượng. Sau đó, OpenAI đã đàm phán một thỏa thuận mua bán điện lớn với Helion. Ông tuyên bố mình đã tránh các cuộc đàm phán, nhưng động lực ngầm thì ai cũng dễ dàng nhận thấy. Ông thực sự không sở hữu cổ phần trực tiếp nào trong OpenAI, nhưng ông đã xây dựng một đế chế đầu tư khổng lồ, tự thân vận động xung quanh nó. Mỗi bài diễn thuyết hùng hồn mà ông đưa ra về tương lai của nhân loại đều làm tăng giá trị cho đế chế này. Giờ đây, nhìn lại bộ dụng cụ sinh tồn ngày tận thế của ông chứa đầy súng, vàng và thuốc kháng sinh, cùng mảnh đất ở Big Sur mà ông có thể bay đến bất cứ lúc nào, bạn có hiểu thêm điều gì không? Ông ấy chưa bao giờ che giấu bất cứ điều gì trong số này. Bộ dụng cụ thoát hiểm là có thật, hầm trú ẩn là có thật, và sự ám ảnh của ông ta với ngày tận thế cũng là có thật. Nhưng ông ta cũng là người tích cực nhất thúc đẩy ngày tận thế đến. Hai điều này không mâu thuẫn, bởi vì theo logic của ông ta, ngày tận thế không cần phải ngăn chặn, mà chỉ cần được chuẩn bị trước. Ông ta bị ám ảnh bởi việc đóng vai trò là người duy nhất nhìn thấy tương lai rõ ràng và chuẩn bị cho nó. Cho dù đó là chuẩn bị một bộ dụng cụ thoát hiểm vật chất hay xây dựng một đế chế tài chính xung quanh OpenAI, về cơ bản đều giống nhau: đảm bảo một vị thế thắng lợi cho bản thân trong một tương lai bất định mà chính ông ta đang điều khiển. Vào tháng 2 năm 2026, ông ta vừa tuyên bố ủng hộ lằn ranh đỏ "không sử dụng AI trong chiến tranh" khi ký hợp đồng với Lầu Năm Góc. Đây không phải là đạo đức giả; đó là một yêu cầu vốn có trong mô hình kinh doanh của ông ta. Lập trường đạo đức là một phần của sản phẩm; các hợp đồng thương mại là nguồn lợi nhuận. Anh ta cần đồng thời đóng vai trò của một vị cứu tinh nhân từ và một nhà tiên tri tàn nhẫn báo hiệu tai họa, bởi vì chỉ khi đóng cả hai vai trò thì câu chuyện của anh ta mới có thể tiếp tục và "số phận" của anh ta mới được hé lộ. Mối nguy hiểm thực sự không bao giờ là trí tuệ nhân tạo, mà là những kẻ tin rằng họ có quyền định đoạt số phận của nhân loại.