Mới tuần trước,sự ra mắt của GPT-4o đã tạo ra sự phấn khích do tính hấp dẫn "omni" khả năng kết hợp xử lý văn bản, âm thanh và hình ảnh theo thời gian thực, hứa hẹn tác động mang tính biến đổi đối với tương tác giữa người và máy tính và thiết lập tiêu chuẩn mới về tính linh hoạt và hiệu quả của AI.
Trong một diễn biến đáng ngạc nhiên, Nhà khoa học trưởng và đồng sáng lập của OpenAI, Ilya Sutskever, đã tuyên bố rời khỏi X.
Cùng ngày, một trong những người đứng đầu nhóm “siêu liên kết” Jan Leike cũng đưa ra thông báo tương tự.
“Nhóm siêu liên kết”, do cả hai cá nhân lãnh đạo, gần đây đã trải qua một loạt sự ra đi. Để đáp ứng xu hướng này, công ty đã đưa ra một quyết định quan trọng vào thứ Sáu tuần trước: giải tán đội ngũ được thành lập cách đây một năm với mục đích rõ ràng là đi sâu vào những rủi ro sâu sắc và lâu dài liên quan đến trí tuệ nhân tạo.
Việc từ chức tại OpenAI làm tăng mối lo ngại về an toàn
Sutskever tuyên bố rời đi sau những bất đồng với Giám đốc điều hành OpenAI Sam Altman về việc ưu tiên phát triển sản phẩm hơn các biện pháp an toàn.
Leike, người đồng lãnh đạo "nhóm siêu liên kết" đã giải tán, lặp lại những lo ngại này trên mạng xã hội, nêu bật những cuộc đấu tranh để có đủ tài nguyên máy tính và gạt văn hóa an toàn trong OpenAI ra ngoài lề.
Những lời chỉ trích của Leike đặc biệt tập trung vào việc OpenAI theo đuổi các mô hình AI mạnh mẽ như GPT-4o, cho rằng công ty đã không chuẩn bị đầy đủ cho những rủi ro tiềm ẩn liên quan đến những tiến bộ đó. Ông nhấn mạnh sự cần thiết phải có nhiều nguồn lực hơn và văn hóa an toàn mạnh mẽ hơn để đảm bảo đạt được mục tiêu thành công.
Những lần từ chức này diễn ra trong bối cảnh OpenAI đang có tình trạng hỗn loạn. Công ty đã bị chỉ trích vì ưu tiên phát hành sản phẩm hơn là an toàn, trong đó Giám đốc điều hành Tesla Elon Musk cho rằng an toàn không phải là ưu tiên hàng đầu của họ.
Ngoài ra, OpenAI còn bị cáo buộc làm tràn ngập cửa hàng chatbot của mình bằng thư rác và dữ liệu cóp nhặt từ YouTube, vi phạm điều khoản dịch vụ của nền tảng.
OpenAI trấn an công chúng về các biện pháp an toàn sau những chuyến khởi hành quan trọng
OpenAI đang phải đối mặt với các câu hỏi về cam kết của mình đối với sự an toàn của AI sau sự từ chức của hai nhân vật chủ chốt, những người đồng lãnh đạo “nhóm siêu liên kết” của công ty. tập trung vào sự an toàn trong AI tiên tiến.
Để giải quyết những lo ngại này, Giám đốc điều hành OpenAI Sam Altman và Chủ tịch Greg Brockman đã đồng tác giả một thông điệp nhấn mạnh nhận thức của họ về những rủi ro và tiềm năng của AGI.
Họ chỉ ra sự ủng hộ của họ đối với các tiêu chuẩn an toàn AGI quốc tế và công việc tiên phong của họ trong việc kiểm tra các hệ thống AI để phát hiện các mối đe dọa thảm khốc tiềm ẩn.
Altman và Brockman cũng nhấn mạnh những nỗ lực không ngừng nhằm đảm bảo triển khai an toàn các hệ thống AI ngày càng tiên tiến.
Họ trích dẫn việc phát triển và phát hành GPT-4, một mô hình ngôn ngữ lớn, làm ví dụ về việc các biện pháp an toàn được thực hiện trong suốt quá trình. Họ cũng ghi nhận thêm những nỗ lực không ngừng nhằm cải thiện hành vi kiểu mẫu và giám sát lạm dụng dựa trên những bài học kinh nghiệm.
Trong khi sự ra đi làm dấy lên lo ngại, OpenAI vẫn khẳng định họ có một chiến lược an toàn rộng hơn ngoài “nhóm siêu liên kết” đã giải tán.
Công ty được cho là có các chuyên gia an toàn AI được phân bổ vào nhiều nhóm khác nhau và các nhóm an toàn chuyên dụng, bao gồm cả nhóm chuẩn bị tập trung vào việc giảm thiểu rủi ro thảm khốc tiềm ẩn từ hệ thống AI.
Ngoài ra, Altman đã công khai lên tiếng ủng hộ việc thành lập một cơ quan quốc tế để giám sát sự phát triển AI, thừa nhận khả năng "tác hại toàn cầu đáng kể"; nếu không được quản lý đúng cách.
OpenAI được bổ nhiệm Nhà khoa học trưởng mới
Jakub Pachocki đã được bổ nhiệm làm nhà khoa học trưởng mới tại OpenAI, thay thế Ilya Sutskever. Pachocki đóng vai trò quan trọng trong việc phát triển GPT-4, OpenAI Five và các dự án quan trọng khác.
Giám đốc điều hành OpenAI Sam Altman ca ngợi khả năng lãnh đạo và chuyên môn của Pachocki, bày tỏ sự tin tưởng vào khả năng của ông trong việc hướng dẫn công ty hướng tới trí tuệ nhân tạo tổng hợp (AGI) an toàn và có lợi.
Thông báo này được đưa ra trong bối cảnh tình trạng hỗn loạn gần đây tại OpenAI, nơi Altman tạm thời bị loại khỏi vị trí của mình do thiếu minh bạch.
Sutskever đóng vai trò quan trọng trong việc lật đổ và sau đó vận động cho sự trở lại của Altman, dẫn đến suy đoán về khả năng biết của Sutskever về những thông tin chưa được tiết lộ.
Lỗ hổng bảo mật được tìm thấy trong plugin ChatGPT
Trở lại tháng 11 năm 2023, các nhà nghiên cứu đã phát hiện ra các lỗ hổng bảo mật nghiêm trọng trong plugin ChatGPT của bên thứ ba do OpenAI phát hành. Những lỗ hổng này có thể cho phép tin tặc đánh cắp dữ liệu người dùng và chiếm quyền kiểm soát các tài khoản trực tuyến.
Lỗ hổng đầu tiên ảnh hưởng đến quá trình cài đặt, cho phép tin tặc cài đặt các plugin độc hại mà người dùng không hề hay biết và đánh cắp thông tin nhạy cảm như mật khẩu từ tin nhắn riêng tư.
Lỗ hổng thứ hai ảnh hưởng đến PluginLab, một nền tảng tạo plugin ChatGPT tùy chỉnh. Tin tặc có thể khai thác lỗ hổng này để giành quyền kiểm soát tài khoản người dùng trên nền tảng của bên thứ ba như GitHub.
Lỗ hổng thứ ba liên quan đến thao tác chuyển hướng OAuth, cho phép kẻ tấn công đánh cắp thông tin đăng nhập của người dùng thông qua nhiều plugin.
Những lỗ hổng này được phát hiện trong suốt năm 2023. Lỗ hổng đầu tiên được tìm thấy vào tháng 6 và được báo cáo cho OpenAI vào tháng 7. Vào tháng 9, các lỗ hổng đã được xác định trong plugin PluginLab.AI và KesemAI và được báo cáo cho các nhà cung cấp tương ứng. Tất cả các lỗ hổng được xác định đã được vá.
Musk kiện OpenAI, cáo buộc thất hứa và phản bội nhân loại
Elon Musk, CEO thẳng thắn của Tesla và SpaceX, lđã phát động cuộc chiến pháp lý chống lại OpenAI và Giám đốc điều hành Sam Altman của nó vào tháng 3 năm 2024 .
Vụ kiện tập trung vào sự bất đồng cơ bản về tương lai của OpenAI, một phòng thí nghiệm nghiên cứu ban đầu được thành lập với mục tiêu đầy tham vọng là phát triển trí tuệ nhân tạo (AI) vì lợi ích của nhân loại.
Musk, người đồng sáng lập OpenAI vào năm 2015, tuyên bố ông đã đạt được thỏa thuận với Altman và các nhà lãnh đạo khác về cơ cấu phi lợi nhuận của tổ chức.
Thỏa thuận này, theo đơn kiện được đệ trình ở San Francisco, dựa trên những cam kết bằng lời nói được đưa ra trong thời gian thành lập công ty. Tuy nhiên, các chuyên gia pháp lý đặt ra nghi ngờ về khả năng thực thi của thỏa thuận đó do thiếu hợp đồng chính thức bằng văn bản.
Mấu chốt của tranh chấp nằm ở sự chuyển dịch gần đây của OpenAI sang mô hình vì lợi nhuận.
Vào năm 2019, họ đã thành lập một chi nhánh vì lợi nhuận và phát hành chatbot mạnh nhất cho đến nay, ChatGPT-4, theo thỏa thuận cấp phép độc quyền với Microsoft.
Musk coi những hành động này là sự phản bội sứ mệnh sáng lập và chuyển hướng sang ưu tiên lợi nhuận hơn hạnh phúc của nhân loại.
Vụ kiện cáo buộc OpenAI đã đi chệch khỏi con đường phi lợi nhuận ban đầu và trở thành một "công ty con trên thực tế" của Microsoft.
Musk lập luận rằng Altman và Chủ tịch OpenAI Greg Brockman đã tái khẳng định cam kết của họ đối với mô hình phi lợi nhuận thông qua các tin nhắn bằng văn bản được trao đổi trong những năm sau khi thành lập công ty.
Một thông điệp như vậy, có trong vụ kiện, cho thấy Altman bày tỏ sự nhiệt tình của mình đối với cơ cấu phi lợi nhuận vào năm 2017.
Apple hợp tác với OpenAI, đối mặt với những lo ngại về bảo mật và quyền riêng tư
Bản cập nhật iOS 18 sắp tới của Apple dự kiến sẽ giới thiệu các tính năng trí tuệ nhân tạo (AI) quan trọng và thỏa thuận gần đây với OpenAI, người tạo ra ChatGPT, đặt ra câu hỏi về bảo mật và quyền riêng tư cho người dùng iPhone.
Mặc dù thông tin chi tiết vẫn đang được hé lộ nhưng các báo cáo cho thấy Apple sẽ tận dụng công nghệ OpenAI cho chức năng chatbot, làm dấy lên cuộc tranh luận về những rủi ro tiềm ẩn.
Cốt lõi trong cách tiếp cận AI của Apple là cam kết về quyền riêng tư của người dùng. Phương châm của họ là "Quyền riêng tư". Đó là iPhone,” phản ánh sự tập trung vào xử lý trên thiết bị, trong đó dữ liệu được phân tích trực tiếp trên điện thoại của người dùng thay vì được gửi đến máy chủ bên ngoài.
Cách tiếp cận này giảm thiểu nguy cơ vi phạm dữ liệu và truy cập trái phép.
Tuy nhiên, việc xử lý trên thiết bị có những hạn chế. Việc đào tạo các mô hình AI hiệu quả đòi hỏi lượng dữ liệu khổng lồ và bộ nhớ điện thoại cục bộ có thể là một nút thắt cổ chai. Đây là nơi có sự hợp tác với OpenAI.
Bằng cách thuê ngoài việc phát triển chatbot cho OpenAI, Apple có khả năng vượt qua rào cản lưu trữ dữ liệu trong khi cung cấp tính năng mà người dùng mong muốn.
Những lo ngại về bảo mật nảy sinh khi xem xét việc truyền dữ liệu giữa các thiết bị Apple và máy chủ OpenAI.
Các chi tiết cụ thể của việc trao đổi dữ liệu này vẫn chưa rõ ràng. Nếu dữ liệu người dùng được gửi đến OpenAI để đào tạo chatbot, nó sẽ đặt ra câu hỏi về mức độ xử lý an toàn và liệu nó có tuân thủ các tiêu chuẩn nghiêm ngặt về quyền riêng tư của Apple hay không.
Cách tiếp cận này phản ánh mối quan hệ hợp tác hiện có của Apple với Google về chức năng tìm kiếm. Ở đây, một thỏa thuận trị giá hàng tỷ đô la đảm bảo mức độ bảo mật dữ liệu cơ bản, nhưng một số thông tin người dùng chắc chắn sẽ được chuyển đến máy chủ của Google.
Mức độ rủi ro bảo mật tiềm ẩn phụ thuộc vào chi tiết của sự hợp tác Apple-OpenAI. Dữ liệu người dùng có được ẩn danh trước khi tiếp cận OpenAI không? Nó sẽ được giữ lại trong bao lâu? Đây là những câu hỏi quan trọng cần được giải quyết để đảm bảo quyền riêng tư của người dùng không bị xâm phạm.
Một lớp phức tạp khác phát sinh với những hạn chế xử lý trên thiết bị.
Trong khi Apple đang phát triển chip AI mạnh mẽ cho các thiết bị mới nhất của mình thì những chiếc iPhone cũ hơn có thể không đáp ứng được nhu cầu thực hiện các tác vụ AI phức tạp.
Điều này có thể tạo ra tình huống trong đó một số người dùng được hưởng lợi từ các tính năng AI nâng cao trên iOS 18, trong khi những người khác bị bỏ lại do hạn chế về phần cứng.
Cuối cùng, chiến lược AI của Apple trong iOS 18 là sự kết hợp chặt chẽ giữa quyền riêng tư, bảo mật và chức năng của người dùng. Mặc dù quá trình xử lý trên thiết bị mang lại môi trường an toàn nhưng nó có thể hạn chế chức năng đối với một số người dùng.
Sự phức tạp của sự an toàn và liên kết AI
Khái niệm "tam giác bất khả thi của AI" thừa nhận rằng hiệu quả, an toàn và lợi ích không thể được tối ưu hóa hoàn toàn cùng một lúc. Trong những phát triển mới nhất của OpenAI, có vẻ như sự an toàn đã không còn được ưu tiên để tối đa hóa hiệu quả và lợi ích của người dùng.
Những người ủng hộ và quản lý quyền riêng tư đang chỉ trích OpenAI vì chatbot AI ChatGPT của họ tạo ra thông tin không chính xác về con người.
Một tổ chức phi lợi nhuận về quyền riêng tư ở Áo có tên Noyb, do Max Schrems thành lập, đã đệ đơn khiếu nại OpenAI cáo buộc rằng ChatGPT đã vi phạm Quy định bảo vệ dữ liệu chung (GDPR) của EU bằng cách tạo ra thông tin cá nhân về mọi người.
Bản thân Schrems đã trải qua điều này khi ChatGPT cung cấp sai ngày sinh cho anh và OpenAI cho biết họ không thể sửa được.
Một đơn khiếu nại khác đã được đệ trình chống lại OpenAI vào năm ngoái tại Ba Lan và cơ quan dữ liệu của Ý cũng cảnh báo họ về việc vi phạm GDPR.
Tại Hoa Kỳ, Ủy ban Thương mại Liên bang đang điều tra khả năng gây tổn hại đến danh tiếng do ảo giác của ChatGPT gây ra.
Góc nhìn từ Nhà khoa học trưởng AI của Meta
Yann LeCun, Nhà khoa học AI trưởng của Meta và là đối thủ cạnh tranh đáng chú ý của OpenAI, khẳng định rằng hành trình hướng tới Trí tuệ nhân tạo tổng hợp (AGI) sẽ không được đánh dấu bằng một sự kiện đột phá duy nhất.
Thay vào đó, nó sẽ được đặc trưng bởi sự tiến bộ liên tục trên nhiều lĩnh vực khác nhau.
Ông tin rằng với mỗi bước đột phá quan trọng về AI, một số người có thể sớm tuyên bố rằng AGI đã đạt được, chỉ để sau đó điều chỉnh lại các định nghĩa và hiểu biết của họ.
LeCun lập luận rằng trước khi giải quyết nhu cầu cấp thiết về việc kiểm soát các hệ thống AI được cho là thông minh hơn nhiều so với con người, điều quan trọng là phải thiết kế các hệ thống đầu tiên vượt qua cả trí thông minh của một con mèo nhà.
So sánh với sự phát triển của ngành hàng không, ông gợi ý rằng giống như việc phải mất hàng thập kỷ kỹ thuật tỉ mỉ để tạo ra những chiếc máy bay phản lực an toàn, đường dài, việc đạt được và đảm bảo sự an toàn của các hệ thống AI cực kỳ thông minh cũng sẽ đòi hỏi nhiều năm cải tiến tiến bộ.
LeCun nhấn mạnh rằng không nên nhầm lẫn các khả năng hiện tại của AI, chẳng hạn như những khả năng được thấy trong các mô hình ngôn ngữ lớn (LLM), với trí thông minh thực sự.
Ông dự đoán một quá trình phát triển dần dần trong đó các hệ thống AI sẽ ngày càng thông minh hơn và an toàn hơn thông qua các cải tiến lặp đi lặp lại trong một thời gian dài.
Cuộc đua về AI mạnh mẽ có đang hạn chế sự an toàn không?
Sự hỗn loạn gần đây tại OpenAI làm nổi bật bước đi phức tạp trong quá trình phát triển AI.
Một mặt, có sức hấp dẫn của những tiến bộ đột phá như khả năng của GPT-4o.
Mặt khác là nhu cầu luôn hiện hữu về các biện pháp an toàn mạnh mẽ và cân nhắc về mặt đạo đức.
Để đạt được sự cân bằng phù hợp sẽ cần có sự hợp tác liên tục giữa các nhà nghiên cứu, nhà hoạch định chính sách và công chúng.
Chúng ta có thể đạt được những lợi ích của tiến bộ AI mà không ảnh hưởng đến an toàn và bảo mật không?
Đây là câu hỏi quan trọng sẽ xác định tương lai mối quan hệ của chúng ta với trí tuệ nhân tạo.