Ngày 1 tháng 3 năm 2024 - Một cơn bão pháp lý đang nổi lên ở Thung lũng Silicon và Musk đang đưa Giám đốc điều hành và đồng sáng lập OpenAI Sam Altman ra tòa. Trong một vụ kiện chi tiết, Musk cáo buộc Altman và các bị cáo khác vi phạm thỏa thuận thành lập OpenAI, nhằm mục đích phát triển công nghệ AI phi lợi nhuận mang lại lợi ích cho toàn nhân loại.
Theo hồ sơ, Musk và các nguyên đơn khác cáo buộc ban quản lý của OpenAI đã đi chệch khỏi sứ mệnh phi lợi nhuận của mình vào năm 2023 và thay vào đó hợp tác với Microsoft đã thiết lập một cơ quan độc quyền hợp tác và giữ bí mật công nghệ AI tiên tiến GPT-4 để phục vụ lợi ích kinh doanh của Microsoft. Sự thay đổi này được mô tả là sự phản bội trắng trợn bản chất phi lợi nhuận của OpenAI và đi ngược lại mục đích thành lập của nó.
Musk tuyên bố trong vụ kiện rằng khi ông đồng sáng lập OpenAI với Altman và Greg Brockman, họ dựa trên những lo ngại chung về những rủi ro tiềm ẩn của công nghệ AI và cần phải đảm bảo rằng AI hứa hẹn rằng sự phát triển công nghệ có thể mang lại lợi ích cho toàn nhân loại. Tuy nhiên, khi OpenAI củng cố vị thế dẫn đầu trong lĩnh vực AI, đặc biệt là sau khi phát triển mô hình GPT-4 được coi là AGI đời đầu, định hướng của công ty đã trải qua một sự thay đổi cơ bản.
Các tài liệu vụ kiện trình bày chi tiết về quá trình hình thành OpenAI, bao gồm khoản đầu tư tài chính ban đầu của Musk vào công ty, những đề xuất về hướng nghiên cứu và nỗ lực tuyển dụng các nhà khoa học và kỹ sư hàng đầu. . Những nỗ lực này được coi là yếu tố then chốt trong sự phát triển nhanh chóng của OpenAI. Tuy nhiên, Musk hiện tin rằng những đóng góp của ông đã được sử dụng vào những mục đích trái ngược với ý định ban đầu của ông.
Sau đây là nội dung chính của tài liệu vụ kiện này:
Mối quan ngại của Musk về AGI
Năm 2012, Elon Musk gặp Demis Hassabis, đồng sáng lập DeepMind, một công ty AI vì lợi nhuận. Vào khoảng thời gian này, Musk và Hassabis gặp nhau tại cơ sở Hawthorne, California của SpaceX và thảo luận về những mối đe dọa lớn nhất mà xã hội phải đối mặt. Trong cuộc trò chuyện này, Hassabis nhấn mạnh những mối nguy hiểm tiềm tàng mà những tiến bộ trong AI có thể gây ra cho xã hội.
Sau cuộc trò chuyện với Hassabis, Musk ngày càng lo ngại về khả năng AI trở thành siêu thông minh, vượt qua trí thông minh của con người và đe dọa loài người. Trên thực tế, Musk không phải là người duy nhất lo sợ về nghiên cứu AI do DeepMind thực hiện và sự nguy hiểm của AI. Sau cuộc gặp với các nhà đầu tư Hassabis và DeepMind, một nhà đầu tư được cho là đã nhận xét rằng điều tốt nhất anh ta có thể làm với nhân loại là bắn Hassabis ngay tại chỗ.
Musk bắt đầu thảo luận về AI và DeepMind với những người trong cộng đồng của ông, chẳng hạn như Larry Page, khi đó là Giám đốc điều hành của công ty mẹ Google, Alphabet, Inc. Musk thường đề cập đến sự nguy hiểm của AI trong các cuộc trò chuyện với Page, nhưng trước sự ngạc nhiên của Musk, Page không hề lo lắng về điều đó. Ví dụ, vào năm 2013, Musk đã có cuộc trao đổi sôi nổi với Page về sự nguy hiểm của AI. Ông cảnh báo rằng trừ khi các biện pháp an toàn được áp dụng, "hệ thống AI có thể thay thế con người, khiến loài của chúng ta không còn phù hợp hoặc thậm chí tuyệt chủng." Page trả lời rằng đây chỉ là "giai đoạn tiếp theo của quá trình tiến hóa", tuyên bố rằng Musk là một "Nhà nghiên cứu loài"— nghĩa là, thích loài người hơn những cỗ máy thông minh. Musk trả lời: "Đúng, tôi ủng hộ con người."
Cuối năm 2013, Musk lo ngại sâu sắc về kế hoạch mua lại DeepMind của Google. Vào thời điểm đó, DeepMind là một trong những công ty AI tiên tiến nhất trong ngành. Do đó, Musk lo ngại sâu sắc rằng công nghệ AI của DeepMind sẽ nằm trong tay một người quá ung dung về sức mạnh của nó và có thể che giấu thiết kế cũng như khả năng của nó sau cánh cửa đóng kín.
Để ngăn công nghệ mạnh mẽ này rơi vào tay Google, Luke Nosek, người đồng sáng lập PayPal và Musk đã cố gắng gây quỹ để mua DeepMind. Nỗ lực lên đến đỉnh điểm là cuộc điện thoại kéo dài một giờ, trong đó Musk và Nosek thực hiện nỗ lực cuối cùng để thuyết phục Hassabis không bán DeepMind cho Google. Musk nói với Hassabis: "Tương lai của AI không nên bị kiểm soát bởi Larry [Page]."
Những nỗ lực của Musk và Nosek đã thất bại. Vào tháng 1 năm 2014, có thông tin cho rằng DeepMind sẽ được Google mua lại. Tuy nhiên, điều này không ngăn cản Musk tiếp tục đảm bảo sự phát triển và thực hành an toàn của AI.
Sau khi Google mua lại DeepMind, Musk bắt đầu "tổ chức loạt cuộc thảo luận trong bữa tối của riêng mình về cách chống lại Google và thúc đẩy sự an toàn của AI". Musk cũng đã liên hệ với Chủ tịch của Hoa Kỳ Barack Obama thảo luận về AI và bảo mật AI. Năm 2015, Musk gặp Obama để giải thích sự nguy hiểm của AI và ủng hộ các quy định. Musk tin rằng Obama hiểu sự nguy hiểm của AI, nhưng quy định chưa bao giờ thành hiện thực.
Bất chấp những trở ngại này, Musk vẫn tiếp tục ủng hộ các biện pháp thực hành AI an toàn. Vào năm 2015, Musk dường như đã tìm được một người hiểu rõ mối quan tâm của ông về AI cũng như mong muốn loại AGI đầu tiên khỏi tay các công ty tư nhân như Google: bị cáo Sam Altman.
Vào thời điểm đó, Altman là chủ tịch của Y Combinator, một công ty tăng tốc khởi nghiệp ở Thung lũng Silicon. Trước đó, Altman đã tham gia vào nhiều dự án kinh doanh khác nhau.
Altman dường như cũng chia sẻ mối quan ngại của Musk về AI. Trong một bài đăng blog công khai từ năm 2014, Altman tuyên bố rằng nếu AGI được tạo ra, "đó sẽ là sự phát triển lớn nhất từ trước đến nay trong công nghệ." Altman lưu ý rằng nhiều công ty đang hướng tới việc đạt được AGI, nhưng thừa nhận rằng "các công ty tốt quan tâm đến Điều này rất bí mật."
Vào ngày 25 tháng 2 năm 2015, Altman cũng bày tỏ mối quan ngại của mình về sự phát triển của "trí thông minh máy móc siêu phàm", mà ông tin rằng "có thể là mối đe dọa lớn nhất đối với sự tồn tại liên tục của nhân loại", nhấn mạnh rằng "là con người được lập trình để tồn tại và sinh sản, tôi cảm thấy chúng ta nên chiến đấu với nó." Ngoài ra, Altman chỉ trích những người tin rằng "trí thông minh siêu phàm của máy móc" là nguy hiểm nhưng coi đó là Đối với những người "sẽ không bao giờ xảy ra hoặc chắc chắn ở rất xa", ông cáo buộc họ "suy nghĩ lỏng lẻo một cách nguy hiểm".
Thật vậy, vào đầu năm 2015 , Altman ca ngợi quy định quản lý như một phương tiện đảm bảo việc tạo ra AI một cách an toàn và gợi ý rằng một nhóm "những người rất thông minh với nhiều nguồn lực", có thể liên quan đến "các công ty Mỹ theo một cách nào đó", sẽ có nhiều khả năng nhất. là người đầu tiên đạt được nhóm "trí tuệ máy siêu phàm".
Cuối tháng đó, Altman liên lạc với Musk để hỏi liệu ông có muốn soạn thảo một bức thư ngỏ gửi chính phủ Hoa Kỳ thảo luận về AI hay không. Cả hai bắt đầu chuẩn bị thư và liên hệ với những người có ảnh hưởng trong lĩnh vực công nghệ và AI để ký kết. Chẳng bao lâu sau, tin đồn về bức thư đã lan truyền khắp ngành.
Ví dụ, vào tháng 4 năm 2015, Hassabis đã liên hệ với Musk để nói rằng ông đã nghe được từ nhiều nguồn rằng Musk đang soạn thảo một lá thư gửi tổng thống kêu gọi ban hành quy định về AI. Musk bảo vệ ý tưởng về quy định AI với Hassabis, nói: "Nếu được thực hiện đúng, điều này có thể đẩy nhanh sự phát triển của AI về lâu dài. Nếu không có sự an tâm của công chúng do sự giám sát của cơ quan quản lý mang lại, khả năng cao là AI sẽ gây ra tác hại lớn và sau đó nghiên cứu AI sẽ bị ngừng hoạt động." Các trường hợp bị cấm vì nó gây nguy hiểm cho an toàn công cộng."
Năm ngày sau khi Hassabis liên lạc với Musk về Thư ngỏ, Hassabis đã công bố cuộc họp đầu tiên của Ủy ban đạo đức AI DeepMind của Google, điều mà Google và DeepMind đã hứa khi Google mua lại DeepMind hai năm trước. Musk được mời trở thành thành viên ủy ban và đề xuất tổ chức cuộc họp đầu tiên tại SpaceX ở Hawthorne, California. Musk cảm thấy rõ ràng sau cuộc họp đầu tiên rằng ủy ban không phải là một nỗ lực nghiêm túc mà chỉ là chiêu bài nhằm cố gắng làm chậm lại quy định về AI.
Bức thư ngỏ sau đó được phát hành vào ngày 28 tháng 10 năm 2015 và có chữ ký của hơn 11 nghìn người, bao gồm cả Musk, Stephen Hawking và Steve Wozniak.
Thỏa thuận OpenAI tại Cơ sở
Năm 2015 Tháng 5 Vào tháng 3 Vào ngày 25/1, Sam Altman đã gửi email cho Elon Musk, bày tỏ những suy nghĩ sâu sắc về việc liệu có thể ngăn cản con người phát triển AI hay không. Altman cho rằng câu trả lời gần như chắc chắn là không. Nếu sự phát triển của AI là tất yếu, tốt nhất là ai đó không phải Google sẽ thực hiện điều đó trước. Altman có một ý tưởng: Hãy để Y Combinator khởi động Dự án Manhattan cho AI (có thể là một cái tên thích hợp). Ông đề xuất rằng công nghệ này có thể thuộc về thế giới thông qua một số loại tổ chức phi lợi nhuận và nếu dự án thành công, những người liên quan có thể nhận được khoản bồi thường tương tự như của một công ty khởi nghiệp. Hiển nhiên là họ sẽ tuân thủ và hỗ trợ tích cực mọi quy định. Musk trả lời rằng điều đó "rất đáng để nói đến".
Sau khi trao đổi thêm, vào ngày 24 tháng 6 năm 2015, Altman đã gửi cho Musk một đề xuất chi tiết về "phòng thí nghiệm AI" mới này. "Nhiệm vụ sẽ là tạo ra AI có mục đích chung đầu tiên và sử dụng nó để trao quyền cho cá nhân - nghĩa là, các phiên bản phân tán trong tương lai có vẻ an toàn nhất. Nói chung, bảo mật phải là yêu cầu hàng đầu." được sở hữu bởi quỹ và được sử dụng vì 'lợi ích của thế giới.'" Ông đề xuất bắt đầu với một nhóm gồm 7-10 người và mở rộng từ đó. Ông cũng đề xuất một cơ cấu quản trị. Musk trả lời: "Đồng ý về mọi mặt."
Ngay sau đó, Altman bắt đầu tuyển dụng những người khác để giúp phát triển dự án. Đáng chú ý, Altman đã tìm đến Gregory Brockman để được giúp đỡ. Vào tháng 11 năm 2015, Altman kết nối Brockman với Musk qua email. Về dự án, Brockman nói với Musk, "Tôi hy vọng chúng ta tham gia vào không gian này với tư cách là một nhóm trung lập tìm kiếm sự hợp tác rộng rãi và chuyển cuộc trò chuyện sang hướng chiến thắng của nhân loại hơn là chiến thắng của bất kỳ nhóm hoặc công ty cụ thể nào. (Tôi nghĩ đó là việc biến chúng ta thành một phần của dự án." Cách tốt nhất để lãnh đạo một tổ chức nghiên cứu.)" Lạc quan về khả năng một nhóm nghiên cứu AI trung lập tập trung vào nhân loại hơn là lợi ích của bất kỳ cá nhân hoặc nhóm cụ thể nào, Musk nói với Brockman rằng ông sẽ cam kết tài trợ.
Musk đã đề xuất tên cho phòng thí nghiệm mới, thể hiện thỏa thuận thành lập: "Open AI Institute" hay gọi tắt là "OpenAI".
Được hướng dẫn bởi các nguyên tắc hình thành nên thỏa thuận, Musk đã hợp tác với Altman và Brockman để chính thức khởi động và thúc đẩy dự án. Musk đã tích cực tham gia vào dự án trước khi nó được công bố rộng rãi. Ví dụ, Musk đã tư vấn cho Brockman về các gói lương thưởng cho nhân viên, chia sẻ các chiến lược lương thưởng và giữ chân nhân viên của anh ấy.
Vào ngày 8 tháng 12 năm 2015, giấy chứng nhận thành lập của OpenAI, Inc. đã được nộp cho Bộ trưởng Ngoại giao Delaware. Giấy chứng nhận ghi lại thỏa thuận thành lập bằng văn bản: “Công ty là một công ty phi lợi nhuận được thành lập chỉ vì mục đích từ thiện và/hoặc giáo dục theo Mục 501(c)(3) của Bộ luật Thuế vụ năm 1986, đã được sửa đổi, hoặc bất kỳ trong tương lai Các điều khoản tương ứng của Bộ luật Thuế vụ Hoa Kỳ. Mục đích cụ thể của Công ty là tài trợ cho việc nghiên cứu, phát triển và phân phối công nghệ liên quan đến AI. Công nghệ tạo ra sẽ mang lại lợi ích cho công chúng và Công ty sẽ tìm cách mở nguồn công nghệ nếu có thể áp dụng cho vì lợi ích của công chúng."
OpenAI, Inc. được công bố vào ngày 11 tháng 12 năm 2015. Trong thông báo, Musk và Altman được bổ nhiệm làm đồng chủ tịch và Brockman được bổ nhiệm làm giám đốc công nghệ. Thông báo nhấn mạnh rằng OpenAI nhằm mục đích "mang lại lợi ích cho nhân loại" và nghiên cứu của họ "không phải chịu các nghĩa vụ tài chính": "OpenAI là một công ty nghiên cứu AI phi lợi nhuận. Mục tiêu của chúng tôi là phát triển trí tuệ kỹ thuật số theo cách có nhiều khả năng nhất mang lại lợi ích cho nhân loại nói chung, Không bị hạn chế bởi nhu cầu tạo ra lợi nhuận tài chính. Bởi vì nghiên cứu của chúng tôi không phải chịu các nghĩa vụ tài chính nên chúng tôi có thể tập trung tốt hơn vào tác động tích cực đến nhân loại."
Những đóng góp ban đầu của Musk cho OpenAI
Elon Musk đóng vai trò quan trọng trong sự ra mắt thành công của OpenAI, Inc. Vào ngày thông báo công khai, Musk đã viết qua email rằng "sự cân nhắc quan trọng nhất của chúng tôi là tuyển dụng những tài năng tốt nhất." Ông hứa rằng việc hỗ trợ các nỗ lực tuyển dụng sẽ là "ưu tiên tuyệt đối suốt ngày đêm" của ông. Ông thừa nhận: "Bạn biết đấy, chúng tôi bị các tổ chức áp đảo về số lượng người và nguồn lực đến mức nực cười, nhưng chúng tôi đứng về phía công lý và điều đó có ý nghĩa rất lớn. Tôi thích tỷ lệ cược". vị thế và tầm ảnh hưởng để hỗ trợ các nỗ lực tuyển dụng. Việc OpenAI, Inc. là một dự án được tài trợ bởi Elon Musk, với Musk là đồng chủ tịch, đã đóng một vai trò quan trọng trong nỗ lực tuyển dụng của OpenAI, Inc., đặc biệt là trước những nỗ lực tuyển dụng ngược lại của Google/DeepMind. Nếu không có sự tham gia của Musk, những nỗ lực và nguồn lực hỗ trợ đáng kể—và sự nhấn mạnh mà ông đặt vào thỏa thuận thành lập—OpenAI, Inc. có thể sẽ không bao giờ thành công.
Một trong những vị trí được tuyển dụng ban đầu quan trọng nhất là vị trí nhà khoa học trưởng. Altman, Brockman và Musk đều muốn nhà khoa học nghiên cứu Google Ilya Sutskever cho vai trò này. Sutskever đã do dự về việc rời Google để tham gia dự án, nhưng cuối cùng, một cuộc điện thoại từ Musk vào ngày OpenAI, Inc. thông báo công khai đã thuyết phục Sutskever cam kết tham gia dự án và trở thành nhà khoa học trưởng của OpenAI, Inc.
Trong những tháng tiếp theo, Musk tích cực tuyển dụng cho OpenAI, Inc. Google/DeepMind đang đưa ra những lời đề nghị ngày càng sinh lợi cho các nhà tuyển dụng tại OpenAI, Inc., nhằm cố gắng kìm hãm hoạt động kinh doanh non trẻ. Vào cuối tháng 2, Musk đã gửi một email cho Brockman và Altman, nhắc lại rằng "chúng ta cần làm những gì cần thiết để có được những tài năng hàng đầu. Hãy nâng cao đề nghị của chúng ta. Nếu đến một lúc nào đó, chúng ta cần xem xét lại việc đền bù cho những người hiện tại, thì điều đó cũng không. 'Không vấn đề gì. Hoặc là chúng tôi có được những tài năng giỏi nhất thế giới hoặc bị Deepmind đánh bại. Thu hút những tài năng hàng đầu bằng mọi giá là điều bình thường đối với tôi. Deepmind gây áp lực tinh thần rất lớn cho tôi. Nếu họ thắng , điều đó sẽ rất tệ tin tức mới cho triết lý muốn thống trị thế giới của họ. Với trình độ tài năng ở đó, rõ ràng họ đang đạt được những tiến bộ đáng kể."
Musk không chỉ sử dụng khả năng của mình kết nối và tầm ảnh hưởng để tuyển dụng thay mặt cho OpenAI, Inc., khi anh ấy bảo Brockman và Altman nâng cao lời đề nghị của họ và "làm những gì cần thiết để có được những tài năng hàng đầu", anh ấy đang tài trợ cho những lời đề nghị cao hơn đó. Chỉ riêng năm 2016, Musk đã đóng góp hơn 15 triệu USD cho OpenAI, Inc., nhiều hơn bất kỳ nhà tài trợ nào khác. Nguồn tài trợ của anh đã giúp OpenAI, Inc. tập hợp được một đội ngũ tài năng hàng đầu. Tương tự, vào năm 2017, Musk đã đóng góp gần 20 triệu USD cho OpenAI, Inc., một lần nữa nhiều hơn bất kỳ nhà tài trợ nào khác. Nhìn chung, Musk đã đóng góp hơn 44 triệu USD cho OpenAI, Inc. từ năm 2016 đến tháng 9 năm 2020.
Ngoài ra, thông qua Musk Industries LLC, Musk thuê và trả phí thuê hàng tháng cho không gian văn phòng ban đầu của OpenAI, Inc. tại Tòa nhà Pioneer ở San Francisco. Musk thường xuyên ghé thăm OpenAI, Inc. và tham dự các sự kiện quan trọng của công ty, chẳng hạn như khi siêu máy tính AI DGX-1 đầu tiên được tặng cho OpenAI, Inc. vào năm 2016. Musk nhận được thông tin cập nhật về tiến trình của OpenAI, Inc. và đưa ra phản hồi cũng như đề xuất của mình.
Altman và Brockman đã nhắc lại thỏa thuận thành lập của họ nhiều lần
Vào năm 2017, Greg Brockman và những người khác đã đề xuất chuyển đổi OpenAI, Inc. từ một tổ chức phi lợi nhuận thành một công ty vì lợi nhuận. Sau nhiều tuần liên lạc, Elon Musk nói với Brockman, Ilya Sutskever và Sam Altman, "Hoặc tự mình làm điều gì đó hoặc tiếp tục OpenAI như một tổ chức phi lợi nhuận. Cho đến khi bạn cam kết chắc chắn ở lại, tôi sẽ không tài trợ cho OpenAI nữa hoặc về cơ bản tôi là một kẻ ngốc khi tặng tiền miễn phí cho một công ty khởi nghiệp. Kết thúc cuộc thảo luận."
Đáp lại, Altman nói với Musk rằng ông "vẫn đam mê công nghệ cấu trúc phi lợi nhuận!" Cuối cùng, Brockman và Sutskever đã nói rõ với Musk rằng họ cũng quyết tâm duy trì cấu trúc phi lợi nhuận và sẽ dành năm tới để gây quỹ cho tổ chức phi lợi nhuận.
Vào ngày 21 tháng 2 năm 2018, Musk từ chức đồng chủ tịch của OpenAI, Inc. Mặc dù vậy, Musk vẫn tiếp tục cấp vốn cho OpenAI, Inc. theo thỏa thuận thành lập. Ví dụ: năm 2018, Musk đã quyên góp khoảng 3,5 triệu USD cho OpenAI, Inc. Anh ấy cũng tiếp tục nhận được thông tin cập nhật về OpenAI, Inc. từ Brockman, Sutskever và Altman.
Vào tháng 4 năm 2018, Altman đã gửi cho Musk bản dự thảo điều lệ OpenAI và yêu cầu anh ấy phản hồi. Dự thảo nêu rõ sứ mệnh của OpenAI là đảm bảo rằng AGI “mang lại lợi ích cho toàn nhân loại”. Nó tuyên bố: "Chúng tôi cam kết sử dụng mọi ảnh hưởng mà chúng tôi có trong việc triển khai AGI để đảm bảo rằng nó được sử dụng vì lợi ích của toàn nhân loại và tránh cho phép sử dụng AI hoặc AGI có thể gây hại cho nhân loại hoặc tập trung quyền lực quá mức. trách nhiệm ủy thác đầu tiên là đối với nhân loại. Chúng tôi dự kiến cần huy động các nguồn lực đáng kể để đạt được sứ mệnh của mình nhưng sẽ luôn cố gắng giảm thiểu xung đột lợi ích có thể ảnh hưởng đến lợi ích rộng lớn hơn."
Ngày 11 tháng 3 năm 2019 Hôm nay, OpenAI, Inc. thông báo rằng họ sẽ thành lập một công ty con có lợi nhuận: OpenAI, L.P. Các nhà đầu tư tiềm năng được thông báo một "cảnh báo quan trọng" ở đầu bảng điều khoản tóm tắt rằng tổ chức vì lợi nhuận "tồn tại để thúc đẩy sứ mệnh của OpenAI Inc. (tổ chức phi lợi nhuận) nhằm đảm bảo AGI an toàn được phát triển và mang lại lợi ích cho toàn nhân loại. " Đối tác chung cho biết Các nghĩa vụ của sứ mệnh này và các nguyên tắc nâng cao trong Điều lệ OpenAI Inc. được ưu tiên hơn bất kỳ nghĩa vụ kiếm lợi nhuận nào." Do đó, các nhà đầu tư được khuyên nên "coi bất kỳ khoản đầu tư nào vào OpenAI LP như một khoản quyên góp."< /p>
Sau thông báo, Musk đã liên hệ với Altman và yêu cầu ông "nói rõ rằng tôi không có lợi ích tài chính đối với chi nhánh vì lợi nhuận của OpenAI." Tuy nhiên, Musk tiếp tục hỗ trợ OpenAI, Inc., một tổ chức phi lợi nhuận, một lần nữa quyên góp 348 USD vào năm 2019 Mười nghìn đô la Mỹ.
Vào ngày 22 tháng 9 năm 2020, OpenAI thông báo rằng họ đã cấp phép độc quyền một số công nghệ tiền AGI cho Microsoft. Phù hợp với thỏa thuận thành lập, trang web của OpenAI tuyên bố rằng AGI, "một hệ thống tự chủ cao vượt qua hiệu suất của con người trong hầu hết các nhiệm vụ có giá trị kinh tế" "bị loại khỏi giấy phép sở hữu trí tuệ và các điều khoản thương mại khác với Microsoft, chỉ áp dụng cho công nghệ tiền AGI. " Tuy nhiên, ban giám đốc của OpenAI "quyết định khi nào chúng tôi đạt đến AGI."
Sự phát triển của OpenAI, từ AI đến AGI< /h2>< p style="text-align: left;">OpenAI đã vay mượn rất nhiều từ các hoạt động của DeepMind trong công việc ban đầu. Không giống như cờ vua, OpenAI thi đấu trên Dota 2, một trò chơi điện tử chiến lược có nhiều phần chuyển động hơn cờ vua. Nhóm của OpenAI đã nhanh chóng xây dựng một mô hình mới đánh bại đội vô địch thế giới, chứng minh rằng "học tăng cường tự chơi có thể đạt được hiệu suất siêu phàm trong các nhiệm vụ khó khăn".
Trong khi đó, tại Google, một thuật toán có tên Transformer giải quyết nhiều vấn đề mà deep learning gặp phải khi hiểu các chuỗi văn bản dài. Thuật toán này là một ví dụ về "mô hình ngôn ngữ lớn" dịch văn bản bằng cách hình thành các kết nối giữa các từ trong ngôn ngữ nguồn và ánh xạ các kết nối này sang ngôn ngữ đích.
Các nhà nghiên cứu OpenAI tiếp tục nghiên cứu này và sớm tạo ra một kết quả đáng kinh ngạc khác: bằng cách sử dụng nửa đầu của kiến trúc Transformer của Google, một mạng thần kinh sâu. Mạng có thể được đào tạo trước trên một kho văn bản lớn và được sử dụng để tạo văn bản mới. Vào tháng 1 năm 2018, OpenAI đã phát hành mã nguồn và mô hình đào tạo của Generative Pre-training Transformer (GPT) này, cũng như một bài viết mô tả chi tiết về mô hình và các khả năng của nó.
Năm 2019, OpenAI đã phát hành mẫu thế hệ thứ hai, GPT-2. Bản phát hành này cũng đi kèm với một bài viết chi tiết nêu rõ rằng không giống như các mô hình trước đó, mô hình này không cần phải được đào tạo cho một nhiệm vụ cụ thể. "Khi một mô hình ngôn ngữ lớn được đào tạo trên một tập dữ liệu đủ lớn và đa dạng, nó có thể hoạt động tốt trên nhiều nhiệm vụ." Thực hiện tốt trên các miền và tập dữ liệu". Những mô hình này tỏ ra rất khác biệt so với các hệ thống AI trước đây. Thay vì đào tạo hệ thống để thực hiện các nhiệm vụ cụ thể, chúng có thể được "yêu cầu" thực hiện các nhiệm vụ mới bằng ngôn ngữ tự nhiên một cách đơn giản.
Đúng như dự đoán trong thỏa thuận sáng lập, OpenAI đã phát hành công khai phiên bản đầy đủ của GPT-2. Điều đáng chú ý là OpenAI đã quyết định xuất bản mặc dù “con người nhận thấy kết quả đầu ra của GPT-2 rất thuyết phục”, “GPT-2 có thể được tinh chỉnh để tránh lạm dụng” và “việc phát hiện (văn bản do GPT tạo ra) đầy thách thức”. Vào thời điểm đó, OpenAI tuyên bố rằng họ hy vọng rằng làm như vậy “sẽ hữu ích cho các nhà phát triển các mô hình mạnh mẽ trong tương lai”. Bản phát hành đi kèm với một bài báo chi tiết được đồng tác giả bởi các nhà khoa học OpenAI và các nhà khoa học kỹ thuật và xã hội độc lập, giải thích nhiều lợi ích của việc phát hành công khai các mô hình thay vì giữ chúng kín.
Ấn phẩm của họ chứng tỏ có ích thực sự cho các nhà phát triển các mô hình mạnh mẽ trong tương lai. Toàn bộ cộng đồng nổi lên để nâng cao và mở rộng các mô hình do OpenAI phát hành. Các cộng đồng này mở rộng sang nguồn mở, các nỗ lực cấp cơ sở và các thực thể thương mại.
Năm 2020, OpenAI đã công bố phiên bản thứ ba của mẫu máy của mình, GPT-3. Nó sử dụng "175 tỷ tham số, gấp 10 lần so với bất kỳ mô hình ngôn ngữ không thưa thớt nào trước đây". OpenAI một lần nữa công bố sự phát triển của mô hình này bằng cách xuất bản một bài nghiên cứu mô tả việc triển khai hoàn chỉnh của nó để những người khác xây dựng dựa trên đó.
Vào năm 2022, các nhà nghiên cứu tại Google đã lấy những kết quả này và chỉ ra rằng một sửa đổi nhỏ gọi là gợi ý tư duy chuỗi có thể cho phép "các mô hình ngôn ngữ lớn thực hiện lý luận phức tạp". Các nhà nghiên cứu tại Đại học Tokyo và Google đã nhanh chóng mở rộng kết quả của Google và cho thấy GPT-3 của OpenAI có thể giải quyết một vấn đề hoàn toàn mới theo cách từng bước, giống như con người, "chỉ bằng cách thêm 'let' trước mỗi câu trả lời . Chúng tôi suy nghĩ từng bước'".
Con đường của AI sẽ trở nên rõ ràng. Và dòng thời gian để đạt đến thời điểm này đang bị nén lại đáng kể.
Vào ngày 14 tháng 3 năm 2023, OpenAI đã phát hành thế hệ mới của mẫu mã của mình, GPT-4. Thế hệ này không chỉ có khả năng suy luận mà còn có thể suy luận tốt hơn người bình thường. Điểm GPT-4 ở phân vị thứ 90 trong Bài kiểm tra thanh thống nhất, ở phân vị thứ 99 trong Đánh giá nói GRE và thậm chí đạt điểm phân vị thứ 77 trong Bài kiểm tra Sommelier nâng cao. Bằng các biện pháp khách quan của OpenAI, GPT-4 đã có thể chứng minh trí thông minh vượt trội của con người trong một loạt các nhiệm vụ có giá trị kinh tế.
Sự phát triển này đã được cộng đồng nghiên cứu chú ý. Trong một phân tích chi tiết có tiêu đề "Tia lửa của AGI: Những thử nghiệm ban đầu với GPT-4", các nhà nghiên cứu của Microsoft lưu ý rằng "GPT-4 có thể giải quyết nhiều vấn đề về toán học, lập trình, thị giác, y học, luật, tâm lý học, v.v. mới lạ và khó khăn các tác vụ trong miền mà không yêu cầu bất kỳ lời nhắc đặc biệt nào. Hơn nữa, trên tất cả các tác vụ này, GPT-4 thực hiện gần giống với trình độ của con người một cách đáng ngạc nhiên, thường vượt xa các mô hình trước đây chẳng hạn như các mô hình dựa trên [GPT-3.5] ChatGPT."
< p style="text-align: left;">Họ đã so sánh hiệu suất của GPT-4 với hiệu suất của hệ thống dựa trên GPT-3 và nhận thấy rằng "So với đầu ra của GPT-4, không có sự so sánh nào." Về các vấn đề toán học, họ chỉ ra rằng "GPT-4 đưa ra lời giải đúng và lập luận hợp lý, trong khi ChatGPT dựa trên GPT-3 đưa ra lời giải sai, điều này sẽ phản ánh tác động của con người đối với việc Thiếu hiểu biết về khái niệm đảo ngược hàm số". Trong một ví dụ khác, họ cho thấy "GPT-4 đưa ra giải pháp đúng, trong khi ChatGPT bắt đầu sắp xếp lại các thuật ngữ một cách không mục đích và cuối cùng đưa ra giải pháp sai."
Các nhà khoa học của chính Microsoft thừa nhận rằng GPT-4 "đạt được một dạng trí thông minh chung" và "với chiều rộng và chiều sâu về khả năng của GPT-4, chúng tôi tin rằng nó có thể được coi là phiên bản đầu tiên (mặc dù vẫn chưa hoàn thiện) của hệ thống AGI một cách hợp lý".
Vi phạm OpenAI Thỏa thuận thành lập
< p style="text-align: left;">Sau khi đạt đến ngưỡng AGI, theo thỏa thuận sáng lập, họ phải phát triển AGI vì lợi ích của nhân loại hơn là vì lợi ích của bất kỳ công ty hoặc cá nhân tạo ra lợi nhuận nào, nhưng các bị cáo về cơ bản đã đi chệch khỏi nhiệm vụ của mình, Vi phạm thỏa thuận thành lập. GPT-4 là mẫu xe khép kín hoàn toàn. Thiết kế bên trong của GPT-4 vẫn được giữ bí mật và không có mã nào được tiết lộ. OpenAI chưa phát hành một bài báo mô tả bất kỳ khía cạnh nào của thiết kế nội bộ của nó; nó chỉ đưa ra thông cáo báo chí quảng bá hiệu suất của nó. Các chi tiết nội bộ của GPT-4 chỉ có OpenAI và Microsoft được biết. Do đó, GPT-4 hoàn toàn trái ngược với “AI mở”. Nó bị đóng cửa vì lý do độc quyền thương mại: Microsoft kiếm được rất nhiều tiền khi bán GPT-4 cho công chúng, điều này sẽ không thể thực hiện được nếu OpenAI cung cấp công nghệ này miễn phí cho công chúng, như họ cần. Trái với thỏa thuận thành lập, các bị cáo chọn sử dụng GPT-4 không phải vì lợi ích của nhân loại mà là công nghệ độc quyền nhằm tối đa hóa lợi nhuận cho các công ty lớn nhất thế giới. Ngoài ra, toàn bộ quá trình phát triển OpenAI hiện được giữ bí mật, khiến công chúng chỉ có những tin đồn và những đoạn thông tin rải rác để tìm hiểu về những gì có thể được phát hành tiếp theo.
Reuters báo cáo rằng OpenAI đang phát triển một thuật toán bí mật có tên Q*. Trong khi các chi tiết cụ thể của Q* vẫn chưa rõ ràng, Reuters đưa tin rằng một số nhân viên của OpenAI đã viết một lá thư cảnh báo về sức mạnh tiềm tàng của Q*. Có vẻ như Q* hiện tại hoặc trong tương lai có thể là một phần của AGI rõ ràng và nổi bật hơn do OpenAI phát triển. Với tư cách là AGI, nó rõ ràng nằm ngoài phạm vi giấy phép của OpenAI với Microsoft và phải được cung cấp vì lợi ích công cộng rộng rãi.
Đối với thỏa thuận cấp phép với Microsoft, Hội đồng quản trị của OpenAI, Inc. xác định liệu OpenAI có đạt được AGI hay không, sau một loạt sự kiện gây sốc được mô tả chi tiết hơn dưới đây, phần lớn thành viên hội đồng quản trị của OpenAI, Inc. đã buộc phải từ chức vào ngày 22 tháng 11 năm 2023 và những người thay thế họ được cho là đã được Altman và Microsoft lựa chọn kỹ càng.
Vào ngày 17 tháng 11 năm 2023, ban giám đốc của OpenAI, Inc. đã sa thải Altman. OpenAI thông báo trong một bài đăng trên blog rằng Altman đã bị sa thải, "Sự ra đi của anh ấy diễn ra sau một quá trình xem xét chu đáo của Hội đồng quản trị, kết luận rằng anh ấy không phải lúc nào cũng thẳng thắn trong giao tiếp với Hội đồng và cản trở việc thực hiện nhiệm vụ của mình." Hội đồng quản trị không còn tin tưởng vào anh ấy để tiếp tục lãnh đạo OpenAI."
Brockman cũng bị loại khỏi hội đồng quản trị, nhưng được thông báo rằng anh ấy sẽ giữ vai trò của mình tại OpenAI .
Vào thời điểm đó, ban giám đốc gồm có Helen Toner, Adam D'Angelo, Tasha McCauley, Tiến sĩ Sutskever, Brockman và Altman. Ngoài vai trò trong Hội đồng quản trị, bà Toner còn là nhà nghiên cứu và tư vấn tại Trung tâm Quản trị AI (GovAI) và Giám đốc Chiến lược tại Trung tâm An ninh và Công nghệ mới nổi của Đại học Georgetown. Bà McCauley là nhà khoa học quản lý cấp cao tại RAND Corporation, một tổ chức phi lợi nhuận chuyên về các quyết định chính sách công. Cô cũng là cố vấn cho GovAI. D'Angelo - thành viên hội đồng quản trị duy nhất còn lại sau khi Altman trở lại - là một CEO và doanh nhân công nghệ.
Ban giám đốc của OpenAI, Inc. đã được chọn bao gồm một số học giả và chuyên gia chính sách công có kinh nghiệm sâu sắc về chính sách AI, hầu hết trong số họ đều chưa có kinh nghiệm về chính sách AI. kinh nghiệm tài chính trong công ty. Lợi ích, đây là cố ý. Cấu trúc gồm các thành viên hội đồng không quan tâm đến tài chính với thành tích phục vụ công cộng mạnh mẽ đảm bảo rằng hội đồng sẽ đặt người hưởng lợi chính của tổ chức phi lợi nhuận – con người – lên trên thành công về mặt tài chính. Biện pháp bảo vệ này nhằm thúc đẩy sứ mệnh phi lợi nhuận và thỏa thuận sáng lập của OpenAI, Inc.: tạo ra AGI một cách an toàn mang lại lợi ích cho nhân loại, thay vì lợi nhuận tiền tệ của một công ty vì lợi nhuận.
Người ta tin rằng Altman bị sa thải một phần vì sự đột phá của OpenAI trong việc đạt được AGI. Trên thực tế, các báo cáo tin tức chỉ ra rằng có những bất đồng giữa các thành viên hội đồng quản trị và giám đốc điều hành OpenAI về những lo ngại về bảo mật cũng như các mối đe dọa tiềm tàng mà Q* thế hệ tiếp theo của OpenAI có thể gây ra.
Tin tức về vụ sa thải Altman lan truyền nhanh chóng. Sau khi hội đồng quản trị thông báo sa thải Altman, Brockman thông báo rằng anh sẽ rời OpenAI cùng với Altman.
Khi Giám đốc điều hành Microsoft Satya Nadella biết tin Altman bị sa thải, ông được cho là đã rất tức giận. Nadella, một cổ đông 49% trong đơn vị sinh lời của OpenAI, tin rằng lẽ ra Microsoft nên được tư vấn trước khi sa thải Altman. Tuy nhiên, vào thời điểm đó, ngoài Altman, ban giám đốc của OpenAI, Inc. không có mối quan hệ nào với Microsoft và không có trách nhiệm ủy thác đối với các nhà đầu tư trong lĩnh vực vì lợi nhuận. Altman được cho là người liên lạc chính giữa Microsoft và OpenAI, Inc.
Nadella đã mời Altman và Brockman lãnh đạo một phòng thí nghiệm nghiên cứu AI mới của Microsoft mà không bị hạn chế bởi sứ mệnh nhân đạo của OpenAI, Inc. Nadella nói rõ rằng những nhân viên rời OpenAI sẽ được chào đón gia nhập phòng thí nghiệm mới của Microsoft với mức lương tương tự.
Microsoft tự tin rằng, thông qua cổ phần sở hữu lớn trong đơn vị OpenAI đang sinh lời, họ có thể bảo vệ hoàn toàn hoạt động nghiên cứu của OpenAI, Inc. nếu công ty không còn tồn tại . Trên thực tế, trong một cuộc phỏng vấn ngay sau khi Altman bị sa thải, Nadella đã nói: "Chúng tôi rất tự tin vào khả năng của mình. Chúng tôi có tất cả tài sản trí tuệ và tất cả các khả năng. Nếu ngày mai OpenAI biến mất, tôi thực sự không muốn chúng tôi biến mất." khách hàng lo lắng vì chúng tôi có tất cả các quyền để tiếp tục đổi mới. Không chỉ cung cấp sản phẩm mà còn tiếp tục những gì chúng tôi đang cộng tác làm. Chúng tôi có tài năng, chúng tôi có sức mạnh tính toán, chúng tôi có dữ liệu, chúng tôi có Mọi thứ. "
Bất chấp những tuyên bố của Microsoft về khả năng tiếp tục hoạt động mà không có OpenAI, Microsoft chưa bao giờ từ bỏ việc đảm bảo rằng Altman trở lại là OpenAI, Inc. Kế hoạch của CEO. Vài ngày sau khi Altman bị sa thải, ban giám đốc của OpenAI, Inc. đã phải chịu áp lực từ các luật sư và cổ đông lớn, bao gồm cả Microsoft, để phục hồi Altman.
Bà Toner là mục tiêu cụ thể trong nỗ lực phục hồi Altman. Giữa những nỗ lực đó, một luật sư đại diện cho OpenAI đã nói với bà Toner rằng nếu OpenAI thất bại vì Altman bị sa thải, bà và hội đồng quản trị có thể phải đối mặt với cáo buộc vi phạm nghĩa vụ ủy thác đối với các nhà đầu tư.
Tuy nhiên, ban giám đốc của OpenAI, Inc. chưa bao giờ có nghĩa vụ ủy thác đối với các nhà đầu tư. Hầu như tất cả các nhà đầu tư đầu tư vào các lĩnh vực vì lợi nhuận đều được thông báo rằng trách nhiệm của công ty đối với sứ mệnh của mình được ưu tiên hơn trách nhiệm của công ty đó đối với các nhà đầu tư của mình và trang web của OpenAI, Inc. nêu rõ rằng công ty chỉ có trách nhiệm ủy thác đối với con người.
Bà Toner, người mô tả hành động của luật sư là một chiến thuật đe dọa, lập luận rằng việc tiếp tục loại bỏ Altman thực sự sẽ được thực hiện bằng cách thúc đẩy sự an toàn của con người hơn là lợi nhuận. sứ mệnh của công ty. Tuy nhiên, điều này không ngăn được các cổ đông và Altman thúc đẩy việc phục hồi chức vụ của ông.
Ngoài ra, Microsoft còn có quyền lực cưỡng chế đáng kể đối với OpenAI, Inc. và ban giám đốc của nó. Trong thời gian Altman bị sa thải, Nadella nói về mối quan hệ của Microsoft với OpenAI: "Chúng tôi ở ngay đó. Chúng tôi ở dưới họ, ở trên họ, xung quanh họ. Chúng tôi tối ưu hóa hạt nhân, chúng tôi xây dựng công cụ, chúng tôi xây dựng cơ sở hạ tầng. . tại sao tôi nghĩ nhiều nhà phân tích trong ngành đang nói, 'Ồ, đây thực sự là một dự án chung giữa Microsoft và OpenAI.' Thực ra, như tôi đã nói, chúng tôi rất tự chủ trong tất cả những việc này. ."
Hơn nữa, tại thời điểm sa thải, Microsoft chỉ chi trả một phần nhỏ trong khoản đầu tư 10 tỷ USD mà họ đã cam kết cho OpenAI, khiến các hội đồng phi lợi nhuận " Độc lập" của Microsoft có những quyền lợi nghiêm túc. ảnh hưởng. Hơn nữa, nếu Microsoft rút các hệ thống điện toán đám mây mà OpenAI dựa vào thì công ty sẽ không thể hoạt động.
Khi ông Altman trở lại, ông được cho là đã tự tay chọn một hội đồng quản trị mới thiếu chuyên môn kỹ thuật hoặc chuyên môn về AI tương tự như hội đồng trước đó được thiết kế để Bất kỳ nền tảng quan trọng nào trong quản trị. Ông D'Angelo, một CEO và doanh nhân công nghệ, là cựu thành viên hội đồng quản trị duy nhất còn lại sau khi ông Altman trở lại. Hội đồng quản trị mới bao gồm các thành viên có nhiều kinh nghiệm trong lĩnh vực kinh doanh hoặc chính trị tập trung vào lợi nhuận hơn là về đạo đức và quản trị AI. Họ cũng được cho là "những người hâm mộ Altman khổng lồ." Trong số các thành viên hội đồng quản trị mới có Bret Taylor và Larry Summers. Ông Taylor không xa lạ gì với Thung lũng Silicon và đã tham gia sâu vào nhiều hoạt động kinh doanh vì lợi nhuận ở Vùng Vịnh. Vào ngày 14 tháng 2 năm 2024, ông Taylor và cựu giám đốc điều hành Google Clay Bavor đã thành lập một công ty khởi nghiệp tập trung xây dựng chatbot AI cho doanh nghiệp. Tiến sĩ Summers là một nhà kinh tế và được cho là chưa có kinh nghiệm làm việc trong các doanh nghiệp dựa trên AI trước tháng 11 năm 2023. Microsoft cũng giành được một vị trí quan sát viên trong ban giám đốc của mình, từ đó hãng có thể theo dõi chặt chẽ con bò tiền mặt có vẻ phi lợi nhuận của mình.
Với việc bổ nhiệm lại ông Altman và việc tổ chức lại Hội đồng quản trị, cơ cấu công ty của OpenAI - ban đầu được thiết kế giữa một bộ phận phi lợi nhuận, một bộ phận vì lợi nhuận, một Hội đồng quản trị và một Giám đốc điều hành. Hệ thống cân bằng giữa việc đảm bảo sứ mệnh phi lợi nhuận có thể được thực hiện — đã sụp đổ chỉ sau một đêm. Cấu trúc phi lợi nhuận từng được xây dựng cẩn thận của OpenAI, Inc. đã được thay thế bằng một CEO hoàn toàn hướng đến lợi nhuận và một ban giám đốc có ít chuyên môn kỹ thuật hơn về chính sách công AGI và AI. Hội đồng quản trị hiện dành một vị trí quan sát viên cho Microsoft. Với việc tái tổ chức này, OpenAI, Inc. từ bỏ sứ mệnh phi lợi nhuận của mình là phát triển AGI vì lợi ích rộng rãi của con người, từ đó đưa nó ra khỏi việc trở thành một công ty vì lợi nhuận khổng lồ, nơi quyền lực to lớn sẽ được tập trung quá mức.
Chuyên môn kỹ thuật AI, tính trung lập và cam kết của Ban Giám đốc OpenAI, Inc. đối với sứ mệnh phi lợi nhuận của OpenAI, Inc. đặc biệt quan trọng đối với OpenAI Bởi vì chính ban giám đốc là người quyết định liệu OpenAI có đạt được AGI cho mục đích của thỏa thuận cấp phép của Microsoft hay không. Điều đó có nghĩa là hội đồng sẽ được giao nhiệm vụ xác định xem liệu công nghệ tiên tiến và mạnh mẽ nhất của OpenAI có thực sự bị loại khỏi giấy phép độc quyền của Microsoft hay không. Với lợi ích tài chính to lớn của Microsoft trong việc đóng cửa với công chúng, ban giám đốc mới của OpenAI, Inc., dù bị nắm bắt, mâu thuẫn và tuân thủ như hiện tại, sẽ có mọi lý do để không bao giờ phát hiện ra rằng OpenAI đã đạt đến AGI . Thay vào đó, những thành tựu AGI của OpenAI, như “ngày mai” trong “Annie”, luôn ở tương lai xa, đảm bảo rằng Microsoft sẽ nhận được giấy phép sử dụng công nghệ mới nhất của OpenAI trong khi công chúng bị loại trừ, hoàn toàn trái ngược với thỏa thuận sáng lập.
Các hành động của OpenAI có thể có tác động đáng kể đến Thung lũng Silicon và nếu được phép tồn tại, có thể thể hiện sự thay đổi mô hình cho các công ty khởi nghiệp công nghệ. Điều quan trọng là phải suy ngẫm về những gì đã xảy ra ở đây: Một công ty khởi nghiệp phi lợi nhuận đã quyên góp được hàng chục triệu đô la với mục đích rõ ràng là phát triển công nghệ AGI vì lợi ích cộng đồng và ngay trước khi đạt được cột mốc quan trọng cho mục đích mà công ty được thành lập, công ty đã trở thành một đối tác khép kín, sinh lợi cho các tập đoàn lớn nhất thế giới, qua đó mang lại lợi ích cá nhân cho các bị cáo. Nếu mô hình kinh doanh này hoạt động, nó có thể xác định lại hoàn toàn cách thức thực hiện đầu tư mạo hiểm ở California và các nơi khác. Thay vì bắt đầu như một tổ chức vì lợi nhuận, các nhà đầu tư thông minh sẽ thành lập một tổ chức phi lợi nhuận, sử dụng các khoản đóng góp trước thuế để tài trợ cho nghiên cứu và phát triển, sau đó chuyển giao tài sản sở hữu trí tuệ sau khi công nghệ của họ được phát triển và chứng minh là có hiệu quả. Chuyển sang một doanh nghiệp mới có lợi nhuận như một cách để làm giàu cho bản thân và các đối tác kinh doanh tối đa hóa lợi nhuận của họ. Đây không phải là cách thức hoạt động của luật pháp ở California hay đất nước này, và đây cũng không phải là tòa án đầu tiên nói khác.
Để hiểu thêm tại sao điều này lại quan trọng, nếu mô hình kinh doanh mới của OpenAI hoạt động, thì cứ mỗi đô la nhà đầu tư "đầu tư" vào tổ chức phi lợi nhuận, Nhà đầu tư sẽ nhận được khoảng 50 xu trong thu nhập từ chính phủ tiểu bang và liên bang dưới hình thức giảm thuế thu nhập, do đó chi phí ròng trên mỗi đô la đầu tư của họ chỉ là 50 xu. Tuy nhiên, với mô hình kinh doanh mới của OpenAI, họ đạt được lợi nhuận tương tự như những người đầu tư vào các công ty có lãi theo cách truyền thống và do đó không được giảm thuế ngay lập tức do chính phủ và cuối cùng là công chúng tài trợ. Từ góc độ đầu tư, việc cạnh tranh với các thực thể áp dụng mô hình kinh doanh OpenAI mới cũng giống như chơi một trận bóng rổ trong đó đội kia ghi được số rổ nhiều gấp đôi bạn. Nếu tòa án này chấp thuận hành động của OpenAI tại đây, thì bất kỳ công ty khởi nghiệp nào hy vọng duy trì tính cạnh tranh ở Thung lũng Silicon về cơ bản sẽ phải tuân theo chiến lược OpenAI này và nó sẽ trở thành quy trình vận hành tiêu chuẩn cho các công ty khởi nghiệp, tổ chức phi lợi nhuận hợp pháp, doanh thu thuế của chính phủ và cuối cùng là gây hại cho người dân California và xa hơn nữa. Điều đáng chú ý là đơn vị sinh lời của OpenAI gần đây được định giá gần 80 tỷ USD.
Tháng 11 đến nay: OpenAI của Altman
Công khai vẫn chưa có gì được biết về "quy trình xem xét có chủ ý" của hội đồng quản trị đã tiết lộ điều gì dẫn đến việc sa thải Altman ban đầu. Tuy nhiên, có một điều rõ ràng đối với ông Musk và công chúng nói chung: OpenAI đã từ bỏ sứ mệnh phi lợi nhuận “không thể hủy bỏ” của mình để chuyển sang lợi nhuận. Nhiều nhà lãnh đạo và trí thức đã công khai bình luận về sự trớ trêu và bi kịch khi OpenAI trở thành “AI đóng cửa, vì lợi nhuận”.
Ví dụ, vào ngày 29 tháng 11 năm 2023, các nhà kinh tế của MIT đã đăng một bài viết quan điểm trên tờ Los Angeles Times bày tỏ mối quan ngại mới của họ về OpenAI. . Theo cách nói của họ, "Sự gián đoạn và tăng trưởng không kiểm soát đã trở thành tôn giáo của ngành công nghệ và Altman là một trong những mục sư cấp cao trung thành nhất của nó." Các nhà kinh tế nhấn mạnh rằng hội đồng quản trị mới có nhiều khả năng cho phép Altman phát triển nhanh nhất có thể OpenAI, bất kể chi phí xã hội có nghiêm trọng đến đâu.
Chủ tịch Public Citizen, một tổ chức dân quyền, đã viết một bức thư ngỏ tới Bộ trưởng Tư pháp California Rob Bonta vào đầu năm nay, đặt ra câu hỏi về việc liệu công ty con của OpenAI có sinh lời ở đó hay không là những lo ngại rằng các biện pháp kiểm soát không phù hợp đã được áp dụng đối với các tổ chức phi lợi nhuận hoặc mục đích của các tổ chức phi lợi nhuận chuyển sang lợi nhuận dưới thời Altman và Microsoft. Bức thư gợi ý rằng nếu một tổ chức phi lợi nhuận từ bỏ sứ mệnh ban đầu của mình thì tổ chức đó nên giải thể và chuyển tài sản của tổ chức đó sang một doanh nghiệp từ thiện khác.
Một cuộc điều tra vào tháng 1 năm 2024 của WIRED cho thấy OpenAI gần đây cũng đã đóng quyền truy cập công khai vào "các tệp quan trọng" đã có sẵn trước đó. Phù hợp với cam kết ban đầu của OpenAI về tính minh bạch, hồ sơ IRS của OpenAI kể từ khi thành lập đã tuyên bố rằng bất kỳ thành viên nào của công chúng đều có thể xem bản sao các tài liệu quản trị, báo cáo tài chính và các quy tắc xung đột lợi ích. Tuy nhiên, khi WIRED yêu cầu tài liệu, OpenAI cho biết họ đã thay đổi chính sách. Vì vậy, mặc dù OpenAI từ lâu đã cam kết về tính minh bạch, nhưng thông tin tiết lộ các sự kiện vào tháng 11 năm 2023 vẫn chưa được công bố rộng rãi.
Quyền truy cập vào hồ sơ của OpenAI có thể giúp công chúng biết liệu OpenAI có thay đổi cơ cấu quản trị để làm hài lòng Microsoft và các cổ đông khác hay không. Ít nhất, những thay đổi sẽ phải được thực hiện để phù hợp với vị trí của Microsoft trong hội đồng quản trị, và hiện Altman đang thảo luận với các nhà đầu tư Trung Đông để huy động khoản tài trợ lên tới 7 nghìn tỷ USD nhằm phát triển mạng lưới các nhà máy sản xuất chip AI toàn cầu. Nếu 10 tỷ USD của Microsoft đủ để giúp công ty này có một ghế trong hội đồng quản trị, hãy tưởng tượng xem những khoản đầu tư tiềm năng mới này có thể mang lại cho các nhà đầu tư bao nhiêu đòn bẩy. Điều đó đặc biệt rắc rối khi một nhà tài trợ tiềm năng là cố vấn an ninh quốc gia của Các Tiểu vương quốc Ả Rập Thống nhất và các quan chức Mỹ lo ngại về mối quan hệ của Các Tiểu vương quốc Ả Rập Thống nhất với Trung Quốc. Ngoài ra, Altman còn được trích dẫn khi thảo luận về khả năng biến Các Tiểu vương quốc Ả Rập Thống nhất trở thành “hộp cát điều tiết” nơi công nghệ AI có thể được thử nghiệm.
Ngoài ra, việc truy cập vào chính sách xung đột lợi ích của OpenAI sẽ rất quan trọng để tiết lộ khả năng của hội đồng quản trị trong việc kiểm soát việc Altman sử dụng OpenAI để nâng cao lợi ích tài chính cá nhân của anh ấy, điều mà cho đến nay dường như đã không bị hạn chế. Ví dụ, vào năm 2019, khi Altman còn là Giám đốc điều hành, OpenAI đã ký thư bày tỏ ý định mua số chip trị giá 51 triệu USD từ một công ty khởi nghiệp mà Altman đã đầu tư rất nhiều vào đó.
Mặc dù OpenAI, Inc. là công ty tiên phong trong việc phát triển AGI an toàn, có trách nhiệm dựa trên giao tiếp cởi mở với công chúng, nhưng giờ đây OpenAI đã đóng cửa các nhà đầu tư lớn nhất vào các công ty con vì lợi nhuận được đưa vào Hội đồng quản trị, cơ quan có trách nhiệm ủy thác duy nhất đối với nhân loại và tiếp tục bí mật hướng tới một tương lai lấy lợi nhuận làm trung tâm với những hậu quả tai hại tiềm tàng cho nhân loại.
Musk đồng sáng lập và tài trợ cho OpenAI, Inc., cùng với Altman và Brockman, đổi lại việc dựa vào thỏa thuận sáng lập để đảm bảo rằng AGI sẽ mang lại lợi ích cho con người hơn là hơn là một công ty vì lợi nhuận. Khi các sự kiện diễn ra vào năm 2023, những đóng góp của ông cho OpenAI, Inc. đã bị bóp méo để mang lại lợi ích cho các bị cáo và công ty lớn nhất thế giới. Đây rõ ràng là sự phản bội thỏa thuận thành lập, đảo lộn thỏa thuận đó và bóp méo sứ mệnh của OpenAI, Inc. Hãy tưởng tượng quyên góp cho một tổ chức phi lợi nhuận tuyên bố sứ mệnh của họ là bảo vệ rừng nhiệt đới Amazon, nhưng sau đó tổ chức phi lợi nhuận này lại tạo ra một công ty khai thác gỗ Amazon có lợi nhuận và sử dụng kết quả quyên góp để phá rừng nhiệt đới. Đây là câu chuyện của OpenAI, Inc.