Video AI chân thực của Sora 2 làm dấy lên lo ngại về việc lạm dụng Deepfake và thông tin sai lệch
Chỉ trong vòng ba ngày kể từ khi ra mắt theo hình thức chỉ dành cho người được mời, ứng dụng mới Sora 2 của OpenAI đã trở thành tâm điểm chú ý.
Công cụ chuyển văn bản thành video, có khả năng tạo ra cảnh quay giống như thật từ một lời nhắc duy nhất, được người dùng sử dụng để tạo ra các cảnh giả về gian lận phiếu bầu, tội phạm bạo lực, biểu tình và các cuộc đột kích nhập cư — nhưng không có cảnh nào trong số đó thực sự xảy ra.
Nền tảng này cũng cho phép người dùng tải lên hình ảnh và giọng nói của riêng họ, tạo ra bản sao kỹ thuật số siêu thực của chính họ trong các tình huống hư cấu.
Trong khi OpenAI cho biết hệ thống của họ bao gồm các bước kiểm tra an toàn, tờ New York Times phát hiện ứng dụng này vẫn có thể tạo ra các video deepfake giả mạo trẻ em, người nổi tiếng đã khuất và các nhân vật công chúng phi chính trị, gây ra những lo ngại lớn về đạo đức và an ninh.
Các chuyên gia cảnh báo về thông tin sai lệch Deepfake và "Lợi ích của kẻ nói dối"
Các nhà nghiên cứu AI đã gióng lên hồi chuông cảnh báo về tốc độ làm mờ ranh giới giữa sự thật và bịa đặt của các video siêu thực của Sora.
Hany Farid, giáo sư khoa học máy tính tại Đại học California, Berkeley, cho biết,
“Thật đáng lo ngại cho người tiêu dùng, những người hàng ngày phải tiếp xúc với không biết bao nhiêu nội dung như thế này. Tôi lo lắng cho nền dân chủ của chúng ta. Tôi lo lắng cho nền kinh tế của chúng ta. Tôi lo lắng cho các thể chế của chúng ta.”
Lucas Hansen từ CivAI gọi đây là "cái chết của bằng chứng kỹ thuật số", nói rằng cảnh quay AI thuyết phục hiện nay cho phép bất kỳ ai cũng có thể bác bỏ các sự kiện thực tế là giả mạo - một hiệu ứng tâm lý mà các chuyên gia gọi là "cổ tức của kẻ nói dối".
Mặc dù video Sora có hình mờ chuyển động, các nhà phân tích lưu ý rằng hình mờ này có thể bị xóa bằng phần mềm chỉnh sửa, khiến cảnh quay giả gần như không thể phân biệt được với thực tế.
OpenAI bảo vệ các biện pháp an toàn của mình trong bối cảnh phản ứng dữ dội ngày càng tăng
OpenAI khẳng định Sora đã trải qua "cuộc thử nghiệm an toàn rộng rãi" trước khi ra mắt.
Tuyên bố của công ty nhấn mạnh:
“Chính sách sử dụng của chúng tôi nghiêm cấm việc lừa dối người khác thông qua hành vi mạo danh, lừa đảo hoặc gian lận và chúng tôi sẽ hành động khi phát hiện hành vi sử dụng sai mục đích.”
Trong các cuộc thử nghiệm nội bộ, ứng dụng đã từ chối tạo ra nội dung bạo lực hoặc chính trị rõ ràng và từ chối các yêu cầu liên quan đến các nhà lãnh đạo toàn cầu như Tổng thống Hoa Kỳ Donald Trump.
Tuy nhiên, nó vẫn tạo ra một cuộc biểu tình có sự góp mặt của cựu Tổng thống Barack Obama khi được nhắc đến với những thuật ngữ chính trị mơ hồ.
Người phát ngôn cho biết "phương pháp tiếp cận chu đáo và lặp đi lặp lại" của ứng dụng nhằm mục đích giảm thiểu rủi ro, nhưng thừa nhận việc triển khai sẽ phát triển theo phản hồi.
Người dùng khai thác lỗ hổng bằng Deepfake của người nổi tiếng và giám đốc điều hành
Bất chấp những hạn chế, nguồn cấp dữ liệu của Sora 2 đã nhanh chóng tràn ngập những video deepfake của những nhân vật công chúng đã khuất bao gồm Michael Jackson, Tupac Shakur và họa sĩ Bob Ross.
Một đoạn clip lan truyền do một nhà phát triển OpenAI tạo ra mô tả cảnh CEO Sam Altman ăn cắp vặt ở Target — bài đăng này đã khơi lại cuộc tranh luận về độ tin cậy của phương tiện truyền thông kỹ thuật số.
Người dùng cũng bắt đầu tạo các clip châm biếm về các nhân vật truyền hình, bao gồm các tập phim South Park và SpongeBob SquarePants do AI thực hiện, mô phỏng các hoạt động bất hợp pháp.
Mặc dù ban đầu OpenAI cho phép nội dung như vậy theo chính sách "sử dụng hợp lý" lỏng lẻo, nhưng sau đó các bộ lọc của nền tảng này đã được thắt chặt đáng kể.
Người dùng phàn nàn rằng những hạn chế mới khiến Sora "thực sự không thể sử dụng cho bất kỳ mục đích sáng tạo nào".
Sự nhầm lẫn về bản quyền ngày càng sâu sắc khi chủ sở hữu quyền phản đối
Các báo cáo từ The Wall Street Journal tiết lộ rằng OpenAI ban đầu đã yêu cầu các hãng phim và công ty "từ chối" nếu họ không muốn tài sản trí tuệ của mình xuất hiện trong các video do Sora tạo ra - một chính sách sau đó đã bị đảo ngược sau khi bị chỉ trích rộng rãi.
Hiện tại, công ty cho biết người nắm giữ bản quyền phải "chọn tham gia" để nhân vật của họ xuất hiện và sẽ có "quyền kiểm soát chi tiết hơn" về cách sử dụng nhân vật.
Varun Shetty, người đứng đầu bộ phận quan hệ đối tác truyền thông của OpenAI, cho biết,
“Chúng tôi sẽ làm việc với những người nắm giữ bản quyền để chặn các nhân vật khỏi Sora theo yêu cầu của họ và phản hồi các yêu cầu gỡ bỏ.”
Sam Altman, CEO của OpenAI, đã viết trong một bài đăng trên blog rằng chủ sở hữu bản quyền cũng có thể kiếm được một phần doanh thu từ các video có nội dung sáng tạo của họ.
“Mọi người đang tạo ra nhiều hơn chúng tôi mong đợi từ mỗi người dùng. Chúng tôi sẽ thử chia sẻ một phần doanh thu này với các chủ sở hữu bản quyền muốn nhân vật của họ được người dùng tạo ra.”
Ông thừa nhận rằng "một số trường hợp ngoại lệ của các thế hệ" vẫn có thể lọt qua, nhưng hứa sẽ cải tiến quy trình.
“Mô hình chính xác sẽ phải trải qua nhiều lần thử nghiệm để tìm ra, nhưng chúng tôi dự định sẽ bắt đầu sớm thôi.”
Liệu Sora có thể tồn tại sau cơn sốt của chính mình không?
Coinlive tin rằng sự phát triển nhanh chóng của Sora phơi bày một vấn đề cơ bản trong chiến lược của OpenAI — đó là vội vã thống trị không gian video AI trước khi đảm bảo các biện pháp bảo vệ xã hội và pháp lý cần thiết để duy trì chiến lược này.
Những gì bắt đầu như một bước nhảy vọt đầy tham vọng trong sáng tạo đã nhanh chóng trở thành một bãi mìn pháp lý và đạo đức.
OpenAI hiện đang phải cân bằng giữa đổi mới và trách nhiệm giải trình, trong khi thế giới đặt câu hỏi liệu bất kỳ công nghệ nào có khả năng viết lại sự thật trực quan có thể được quản lý một cách có trách nhiệm hay không.
Trong cuộc đua nắm giữ tương lai của phương tiện truyền thông AI, Sora có thể đang chứng minh rằng những video deepfake nguy hiểm nhất không phải là những video nó tạo ra — mà là những ảo ảnh mà những người tạo ra nó tin rằng họ có thể kiểm soát.