Altman mong muốn AI "Yêu thương nhân loại"; AI đã đi một chặng đường dài
Giám đốc điều hành OpenAI Sam Altman đã bày tỏ một khát vọng táo bạo cho AI: rằng nó "yêu thương nhân loại".
Mặc dù tự tin rằng đặc điểm này có thể được nhúng vào các hệ thống AI, ông thừa nhận rằng vẫn chưa có gì chắc chắn.
“Tôi nghĩ vậy,” Altman nhận xét khi được phó khoa cấp cao Debora Spar của Trường Kinh doanh Harvard đặt câu hỏi.
Những gì từng được coi là lĩnh vực khoa học viễn tưởng, từ tiểu thuyết của Isaac Asimov đến sử thi điện ảnh của James Cameron, đã phát triển thành một cuộc tranh luận nghiêm túc và cấp bách.
Ý tưởng về cuộc nổi dậy của AI, trước đây bị coi là suy đoán, đã trở thành mối quan ngại chính đáng về mặt quản lý.
Những cuộc trò chuyện vốn trước đây chỉ xoay quanh các thuyết âm mưu giờ đây đang định hình các cuộc thảo luận về chính sách trên toàn thế giới.
Altman được đánh dấuOpenAI Mối quan hệ "khá mang tính xây dựng" với chính phủ, thừa nhận tầm quan trọng của sự hợp tác trong việc điều hướng quá trình phát triển nhanh chóng của AI.
Ông cũng lưu ý rằng một dự án có quy mô như AI lý tưởng nhất nên được các chính phủ tiên phong, nhấn mạnh những tác động to lớn về mặt xã hội gắn liền với sự phát triển của nó.
Altman lưu ý:
“Trong một xã hội hoạt động tốt, đây sẽ là một dự án của chính phủ. Vì nó không xảy ra, tôi nghĩ tốt hơn là nó xảy ra theo cách này như một dự án của Mỹ.”
Hướng dẫn an toàn AI vẫn chưa có
Chính phủ liên bang đã đạt được rất ít tiến triển trong việc thúc đẩy luật an toàn AI.
Một nỗ lực gần đây ở California nhằm buộc các nhà phát triển AI phải chịu trách nhiệm về hành vi sử dụng sai mục đích thảm khốc, chẳng hạn như tạo ra vũ khí hủy diệt hàng loạt hoặc tấn công vào cơ sở hạ tầng quan trọng.
Mặc dù dự luật đã được cơ quan lập pháp tiểu bang thông qua, nhưng cuối cùng đã bị Thống đốc Gavin Newsom phủ quyết.
Tính cấp thiết của việc giải quyết mối liên hệ giữa AI và phúc lợi của con người đã được nhấn mạnh bởi một số tiếng nói có ảnh hưởng nhất trong lĩnh vực này.
Người đoạt giải Nobel Geoffrey Hinton, thường được gọi là "Cha đẻ của AI", đã bày tỏ mối lo ngại sâu sắc, thừa nhận rằng ông không thấy con đường rõ ràng nào để đảm bảo an toàn cho AI.
Tương tự như vậy,Tổng giám đốc điều hành Tesla Elon Musk đã liên tục cảnh báo rằng AI gây ra những rủi ro hiện hữu cho nhân loại.
Trớ trêu thay, Musk, một nhà phê bình gay gắt các hoạt động AI hiện tại, lại là nhân vật chủ chốt trong việc thành lập OpenAI, cung cấp nguồn tài trợ ban đầu đáng kể - một đóng góp mà Altman vẫn "biết ơn", ngay cả khi Musk hiện đang kiện tổ chức này.
Thách thức về an toàn AI đã thúc đẩy việc thành lập các tổ chức chuyên biệt nhằm giải quyết những lo ngại này.
Các nhóm như Trung tâm nghiên cứu liên kết và Safe Superintelligence, do cựu giám đốc khoa học của OpenAI thành lập, đã xuất hiện để khám phá các chiến lược đảm bảo các hệ thống AI hoạt động phù hợp với các giá trị của con người.
Những nỗ lực này nhấn mạnh sự công nhận ngày càng tăng rằng sự phát triển nhanh chóng của AI phải đi kèm với các biện pháp bảo vệ nghiêm ngặt tương ứng để bảo vệ tương lai của nhân loại.
Altman hy vọng AI đạt được sự đồng cảm
Người thay thế tin rằng thiết kế AI hiện tại có khả năng thích ứng tốt, khiến việc đảm bảo các hệ thống AI không gây hại cho nhân loại khả thi hơn nhiều so với suy nghĩ của nhiều người.
Ông nói:
“Một trong những điều hiệu quả đáng ngạc nhiên là khả năng sắp xếp một hệ thống AI để hoạt động theo một cách cụ thể. Vì vậy, nếu chúng ta có thể diễn đạt điều đó có nghĩa là gì trong một loạt các trường hợp khác nhau thì, vâng, tôi nghĩ chúng ta có thể khiến hệ thống hoạt động theo cách đó.”
Ông đề xuất một cách tiếp cận sáng tạo để xác định các nguyên tắc và giá trị định hướng cho sự phát triển AI: tận dụng chính AI để tương tác trực tiếp với công chúng.
Người thay thế hình dung việc sử dụng chatbot AI để thăm dò ý kiến hàng tỷ người dùng, thu thập thông tin chi tiết về các giá trị và ưu tiên của họ.
Bằng cách thúc đẩy giao tiếp sâu rộng, AI có thể hiểu rõ hơn về những thách thức của xã hội và xác định biện pháp nào sẽ phục vụ tốt nhất cho phúc lợi công chúng.
Ông giải thích:
“Tôi quan tâm đến thí nghiệm tư duy [trong đó] một AI trò chuyện với bạn trong vài giờ về hệ thống giá trị của bạn. Nó làm điều đó với tôi, với mọi người khác. Và sau đó nói 'ok, tôi không thể làm cho mọi người hạnh phúc mọi lúc.'"
Altman cho rằng phản hồi tập thể này sau đó có thể được sử dụng để liên kết các hệ thống AI với lợi ích rộng lớn hơn của nhân loại, có khả năng tạo ra một khuôn khổ để AI hoạt động hài hòa với các mục tiêu của xã hội.
Cách tiếp cận này không chỉ nhấn mạnh tiềm năng của AI như một công cụ thúc đẩy đối thoại toàn cầu mà còn đặt ra những câu hỏi đáng suy ngẫm.
Liệu phương pháp này có thực sự nắm bắt được sự phức tạp của các giá trị nhân văn không?
Và liệu nó có thể cân bằng được các quan điểm đa dạng của hàng tỷ người để đạt được tầm nhìn thống nhất về lợi ích xã hội hay không?
Ý tưởng của Altman hé lộ cách AI không chỉ phục vụ nhân loại mà còn hợp tác với nhân loại để giải quyết những thách thức cấp bách nhất của chúng ta.
Nhiều cựu nhân viên của OpenAI lo ngại rằng vấn đề an toàn đã bị bỏ qua trong AI
OpenAI từng có một nhóm siêu liên kết chuyên trách tập trung vào việc ngăn chặn siêu trí tuệ kỹ thuật số trong tương lai phát triển quá mức và gây ra tác hại thảm khốc.
Vào tháng 12 năm 2023, nhóm đã công bố một bài báo nghiên cứu ban đầu phác thảo một quy trình tiềm năng trong đó một mô hình ngôn ngữ lớn sẽ giám sát một mô hình ngôn ngữ khác, đóng vai trò như một biện pháp bảo vệ.
Tuy nhiên, vào mùa xuân năm sau,nhóm đã bị giải tán sau khi các trưởng nhóm, Ilya Sutskever và Jan Leike, rời công ty.
Leike đã trích dẫn những bất đồng ngày càng tăng với ban lãnh đạo của OpenAI về các ưu tiên an toàn khi công ty tiến tới trí tuệ nhân tạo tổng quát (AGI) - mức độ thông minh của AI tương đương với con người.
Sự ra đi của ông làm nổi bật những căng thẳng ngày càng gia tăng về sự cân bằng giữa đổi mới và an toàn trong cuộc đua phát triển AGI.
Khi Leike rời đi, Altman đã bày tỏ lòng biết ơn đối với những đóng góp của ông trong một bài đăng trênX (trước đây gọi là Twitter) , nhưng tình hình này khiến nhiều người đặt câu hỏi về cách OpenAI sẽ giải quyết những lo ngại quan trọng về an toàn trong tương lai.