Cái chết thương tâm của cựu nhà nghiên cứu OpenAI đặt ra câu hỏi về đạo đức AI
Cái chết của Suchir Balaji, cựu nghiên cứu viên 26 tuổi của OpenAI, đã làm dấy lên sự chú ý mới về những vấn đề đạo đức liên quan đến phát triển trí tuệ nhân tạo.
Balaji, người được phát hiện đã chết tại căn hộ của mình ở San Francisco vào ngày 26 tháng 11, gần đây đã đi đầu trong việc nêu lên mối lo ngại về việc các công ty AI sử dụng tài liệu có bản quyền.
Chính quyền đã kết luận cái chết của ông là do tự tử, trong khi Sở Cảnh sát San Francisco xác nhận không có bằng chứng nào cho thấy có hành vi phạm tội.
Một thần đồng trẻ tuổi với niềm đam mê AI
Balaji là một người Mỹ gốc Ấn Độ lớn lên ở Cupertino, California.
Nổi bật trong lĩnh vực lập trình từ khi còn nhỏ, anh đã đạt được nhiều giải thưởng như giải 31 tại Vòng chung kết thế giới ACM ICPC năm 2018 và chiến thắng tại Cuộc thi lập trình khu vực Tây Bắc Thái Bình Dương và Berkeley năm 2017.
Thành tích của anh đã mở rộng đến việc giành được 100.000 đô la khi giành được vị trí thứ 7 trong "Thử thách thuật toán sàng lọc hành khách" do TSA tài trợ của Kaggle.
Hành trình khám phá AI của Balaji bắt đầu từ khi anh còn là thiếu niên, được truyền cảm hứng từ một bài báo về mạng lưới nơ-ron nhân tạo.
Phát biểu với tờ The New York Times vào tháng 10, ông chia sẻ,
“Tôi nghĩ rằng AI là thứ có thể được sử dụng để giải quyết những vấn đề không thể giải quyết được, như chữa bệnh và ngăn chặn lão hóa... Tôi nghĩ chúng ta có thể phát minh ra một loại nhà khoa học nào đó có thể giúp giải quyết chúng.”
Niềm đam mê đã đưa anh đến với vai trò tại Scale AI và Quora trước khi gia nhập OpenAI vào năm 2020.
Từ Người đóng góp chính đến Nhà phê bình có tiếng nói
Trong bốn năm làm việc tại OpenAI, Balaji đã làm việc để quản lý các tập dữ liệu mở rộng được sử dụng để đào tạo chatbot của công ty, ChatGPT.
Ban đầu ông ủng hộ việc sử dụng dữ liệu có bản quyền và công khai để đào tạo AI, nhưng quan điểm của ông đã thay đổi sau khi ChatGPT được phát hành công khai vào cuối năm 2022.
Balaji bắt đầu coi những hoạt động này là có hại cho người sáng tạo và đáng ngờ về mặt pháp lý.
Đến năm 2024, Balaji đã phát triển mối quan ngại sâu sắc về việc sử dụng tài liệu có bản quyền, công khai tuyên bố rằng ông tin rằng điều này vi phạm pháp luật và tác động tiêu cực đến hệ sinh thái internet.
Nguồn: Blog của Suchir Balaji
Trong bài đăng vào tháng 10 trên X (trước đây là Twitter), ông đã đặt câu hỏi về tính hợp pháp của việc các công ty AI phụ thuộc vào "việc sử dụng hợp lý", ông viết,
“Việc sử dụng hợp lý có vẻ như là một biện hộ khá khó tin đối với nhiều sản phẩm AI tạo sinh, vì lý do cơ bản là chúng có thể tạo ra các sản phẩm thay thế cạnh tranh với dữ liệu mà chúng được đào tạo.”
Balaji đã từ chức khỏi OpenAI vào tháng 8 mà không tìm được việc làm khác, giải thích với tờ The New York Times,
“Nếu anh tin vào điều tôi tin thì anh phải rời đi.”
Sau đó, ông bắt đầu thực hiện các dự án cá nhân và công khai ủng hộ các hoạt động đạo đức trong phát triển AI.
Những căng thẳng về mặt pháp lý và đạo đức xung quanh sự phát triển của AI
Những lời chỉ trích của Balaji phù hợp với những thách thức pháp lý ngày càng gia tăng mà các công ty AI phải đối mặt, bao gồm cả OpenAI.
Một làn sóng kiện tụng do các nhà xuất bản, tác giả và nghệ sĩ đệ đơn đã cáo buộc gã khổng lồ AI này sử dụng tài liệu có bản quyền một cách bất hợp pháp.
Các nguyên đơn đáng chú ý bao gồm tờ The New York Times và các tác giả như John Grisham, những người cho rằng các mô hình AI như ChatGPT đe dọa đến khả năng thương mại của họ.
Tuy nhiên, OpenAI vẫn bảo vệ hoạt động của mình.
Đáp lại những lời cáo buộc như vậy, công ty tuyên bố,
“Chúng tôi xây dựng các mô hình AI của mình bằng cách sử dụng dữ liệu công khai, theo cách được bảo vệ bởi các nguyên tắc sử dụng hợp lý và các nguyên tắc liên quan, và được hỗ trợ bởi các tiền lệ pháp lý lâu đời và được chấp nhận rộng rãi.”
Giám đốc điều hành của OpenAI, Sam Altman, phát biểu tại một sự kiện ở Davos, nhận xét:
“Chúng tôi thực sự không cần phải đào tạo trên dữ liệu của họ. Bất kỳ nguồn đào tạo cụ thể nào, nó không làm thay đổi nhiều đối với chúng tôi.”
Bất chấp những lời đảm bảo này, Balaji lập luận rằng các hệ thống AI tạo sinh thường cạnh tranh trực tiếp với các tác phẩm có bản quyền mà chúng bắt chước, gây hại cho người sáng tạo nội dung.
Những lời chỉ trích của ông, được chia sẻ qua các blog và cuộc phỏng vấn, nhấn mạnh đến những rủi ro của công nghệ AI đôi khi tạo ra thông tin không chính xác hoặc bịa đặt - những gì các nhà nghiên cứu gọi là "ảo giác".
Nguồn: Blog của Suchir Balaji
Cái chết giữa áp lực pháp lý
Thời điểm cái chết của Balaji đã thu hút sự chú ý vì nó gần với diễn biến pháp lý liên quan đến OpenAI.
Chỉ một ngày trước khi qua đời, Balaji đã được nêu tên trong hồ sơ tòa án liên quan đến vụ kiện chống lại công ty.
Trong khi chính quyền xác định nguyên nhân cái chết là do tự tử, hoàn cảnh thực tế lại dẫn đến nhiều suy đoán về áp lực cá nhân và nghề nghiệp mà ông phải đối mặt.
Ngành công nghiệp phản ánh về di sản của Balaji
Cái chết bất ngờ của Balaji đã gây chấn động trong cộng đồng công nghệ, thúc đẩy suy ngẫm về trách nhiệm đạo đức của các công ty và nhà nghiên cứu AI.
Một cựu phó chủ tịch của Stability AI cũng bày tỏ mối lo ngại tương tự, kêu gọi trách nhiệm giải trình lớn hơn trong cách phát triển các hệ thống AI tạo sinh.
Người phát ngôn của OpenAI đã bày tỏ sự đau buồn, tuyên bố,
“Chúng tôi vô cùng đau buồn khi biết tin vô cùng buồn này hôm nay và chúng tôi xin gửi lời chia buồn sâu sắc nhất tới những người thân yêu của Suchir trong thời điểm khó khăn này.”
Đối với gia đình, bạn bè và đồng nghiệp của Balaji, sự ra đi của anh đánh dấu sự mất mát của một trí tuệ lỗi lạc và là người ủng hộ nhiệt thành cho các hoạt động AI có đạo đức.
Khi các cuộc thảo luận về vai trò của AI trong xã hội vẫn tiếp diễn, những lời chỉ trích của Balaji về sự phụ thuộc của ngành công nghiệp vào tài liệu có bản quyền và lời kêu gọi của ông về việc giám sát đạo đức chặt chẽ hơn vẫn là trọng tâm của cuộc trò chuyện đang diễn ra về tương lai của AI.