X Đặt để nắm lấy Dogecoin: CTO của Ví Doge xác nhận
CTO của X xác nhận kế hoạch triển khai thanh toán Dogecoin, phù hợp với tầm nhìn rộng hơn của Musk.

Tác giả: Deng Jianpeng, Zhao Zhisong; Nguồn: Tạp chí Đại học Sư phạm Tân Cương
Bài viết này được xuất bản lần đầu trên Tạp chí Đại học Sư phạm Tân Cương năm 2025.
Tóm tắt: Với sự phát triển nhanh chóng của trí tuệ nhân tạo, sự xuất hiện và mã nguồn mở của DeepSeek đã thu hút được nhiều sự chú ý. DeepSeek đã đạt được mục tiêu đào tạo chi phí thấp và hiệu quả đầu ra bằng cách tận dụng những đột phá trong mô hình thuật toán, chắt lọc kiến thức và công nghệ chuỗi tư duy. Những thay đổi về công nghệ có tác động hai mặt đến việc quản lý AI tạo ra: một mặt, nguồn mở của các chuỗi suy nghĩ và mô hình làm giảm bớt tình trạng tiến thoái lưỡng nan của "hộp đen thuật toán" và tạo điều kiện cho việc xem xét theo quy định; mặt khác, nó mang đến những thách thức mới đối với việc bảo vệ quyền riêng tư và tuân thủ dữ liệu, quyền sở hữu trí tuệ, "vấn đề ảo giác" và rủi ro bảo mật mô hình. Sự phổ biến của DeepSeek một lần nữa cho thấy rằng việc quản lý trí tuệ nhân tạo tạo ra cần hướng tới tương lai, với bảo vệ quyền riêng tư và bảo mật dữ liệu, cân bằng giữa đổi mới công nghệ và bảo vệ, nhắc nhở mô hình và cơ chế phản hồi, và bảo mật mô hình là trọng tâm của giám sát, để tránh lạm dụng công nghệ và các cuộc tấn công ác ý, đồng thời đảm bảo và thúc đẩy sự phát triển an toàn và lành mạnh của trí tuệ nhân tạo tạo ra.
Từ khóa: DeepSeek; trí tuệ nhân tạo tạo sinh; tuân thủ pháp luật; giám sát; trí tuệ nhân tạo
Hồ sơ tác giả: Deng Jianpeng, giáo sư và người hướng dẫn tiến sĩ tại Khoa Luật, Đại học Tài chính và Kinh tế Trung ương, kiêm giám đốc Trung tâm nghiên cứu pháp quyền công nghệ tài chính; Zhao Zhisong, nghiên cứu sinh thạc sĩ tại Khoa Luật, Đại học Tài chính và Kinh tế Trung ương.
Tóm tắt quan điểm
Các tính năng kỹ thuật và vấn đề pháp lý của DeepSeek: công nghệ chưng cất kiến thức và các vấn đề tuân thủ; mô hình chuỗi tư duy và các vấn đề tuân thủ; lợi thế về mặt pháp lý và các vấn đề mới của các mô hình nguồn mở.
Tác động tích cực của DeepSeek đến tình trạng tiến thoái lưỡng nan hiện tại về mặt quy định: Một mặt, các công nghệ như mô hình nguồn mở và chuỗi suy nghĩ có thể giúp giảm bớt tình trạng tiến thoái lưỡng nan về "hộp đen thuật toán". Mặt khác, các mô hình lớn như DeepSeek là mã nguồn mở tích cực, không chỉ tăng cường lòng tin của mọi người mà còn cung cấp các điều kiện đánh giá thuận tiện và minh bạch hơn cho các cơ quan quản lý.
DeepSeek Những thách thức mới do những thay đổi về công nghệ mang lại: những thách thức ngày càng gia tăng trong việc bảo vệ quyền riêng tư và tuân thủ dữ liệu; tranh chấp về quyền sở hữu trí tuệ; "vấn đề ảo giác" ngày càng trầm trọng; và các vấn đề bảo mật mô hình.
Một trong những khó khăn trong việc quản lý AI tạo sinh là các biện pháp quản lý phải liên tục thích ứng với sự phát triển nhanh chóng của công nghệ. Một số học giả cho rằng bảo vệ quyền riêng tư, bảo mật mô hình, tiêu chuẩn kỹ thuật, giao thức nguồn mở, v.v. phù hợp hơn để được điều chỉnh bằng "luật mềm" như các thí nghiệm hợp tác linh hoạt và đa dạng, các tiêu chuẩn công nghiệp áp dụng xuyên biên giới. Các cơ quan quản lý nên tiến hành hợp tác sâu rộng với các doanh nghiệp, tổ chức công nghiệp hoặc liên minh doanh nghiệp, thúc đẩy sự kết hợp của "luật mềm" và "luật cứng" thông qua các cơ chế khác nhau và điều chỉnh sự phát triển của trí tuệ nhân tạo tạo sinh.
Kể từ khi ra mắt ChatGPT của OpenAI, một công ty nghiên cứu và phát triển trí tuệ nhân tạo của Mỹ, trí tuệ nhân tạo tạo nội dung đã đạt được sự triển khai theo chiều dọc từ một phương thức duy nhất thành trao quyền cho ngành công nghiệp đa phương thức và công nghệ phát triển nhanh chóng này không ngừng thay đổi thế giới. Vào cuối tháng 12 năm 2024, công ty nghiên cứu và phát triển trí tuệ nhân tạo Trung Quốc DeepSeek đã phát hành và mở mã nguồn mô hình DeepSeek-V3, có hiệu suất tương đương với các mô hình mã nguồn đóng hàng đầu hiện nay; vào tháng 1 năm 2025, công ty đã phát hành mô hình suy luận DeepSeek-R1, đạt hoặc vượt qua OpenAI o trong nhiều bài kiểm tra. Không giống như các mô hình khác dựa vào dữ liệu lớn và sức mạnh tính toán, DeepSeek đã thu hút được sự chú ý rộng rãi với mô hình thuật toán Tối ưu hóa chính sách tương đối nhóm (GRPO), công nghệ chắt lọc kiến thức và công nghệ Long-CoT. Một số học giả tin rằng DeepSeek đã đạt được hiệu suất tương đương với các sản phẩm hàng đầu với chi phí đào tạo thấp tới 1/10, thiết lập chuẩn mực mới ở nhiều khía cạnh như hiệu quả suy luận và thích ứng bối cảnh, đạt được hiệu quả đào tạo và đầu ra mô hình thấp và hiệu quả, đồng thời chứng minh khả năng vượt trội.
DeepSeek đạt được hiệu quả đào tạo với chi phí thấp, đại diện cho bước đột phá lớn mới nhất trong công nghệ trí tuệ nhân tạo tạo sinh của Trung Quốc. Nó sẽ thúc đẩy hơn nữa việc ứng dụng rộng rãi công nghệ mô hình lớn, nhưng một số công nghệ đòi hỏi các cơ quan quản lý phải cân nhắc. Hiện nay, nghiên cứu học thuật về quy định của AI tạo sinh chủ yếu tập trung vào hai khía cạnh: thuật toán và tuân thủ dữ liệu, chú ý nhiều hơn đến quy định về thông tin sai lệch, quy định về rủi ro đạo đức, trách nhiệm pháp lý và miễn trừ, v.v. Tuân thủ thuật toán tập trung vào việc xem xét thuật toán, giải thích thuật toán và trách nhiệm giải trình của thuật toán, trong khi tuân thủ dữ liệu tập trung vào tính hợp pháp của nguồn dữ liệu và các vấn đề bảo vệ quyền riêng tư dữ liệu. Ứng dụng kỹ thuật của DeepSeek có thể giúp giảm bớt một số khó khăn hiện tại trong quy định về trí tuệ nhân tạo ở một mức độ nhất định. Ví dụ, nó có thể cải thiện khả năng giải thích và tính minh bạch của vấn đề "hộp đen thuật toán". Mã nguồn mở của mô hình có thể tạo điều kiện cho việc xem xét quy định ở một mức độ nhất định, v.v. Tuy nhiên, một số phương tiện kỹ thuật cũng đặt ra những thách thức mới đối với việc giám sát, bao gồm rủi ro gia tăng trong bảo vệ quyền riêng tư và tuân thủ dữ liệu, tranh chấp sở hữu trí tuệ do công nghệ chưng cất gây ra, "vấn đề ảo giác" trầm trọng hơn và rủi ro tiềm ẩn trong bảo mật mô hình, v.v. Một số học giả tin rằng chúng ta đã đạt đến bước ngoặt lịch sử: các tiến trình lịch sử quan trọng hiện đang được thúc đẩy một phần bởi các quyết định do trí thông minh của con người đưa ra. Đây chính là lý do khiến khả năng xảy ra sai sót của mạng máy tính trở nên nguy hiểm. Khi máy tính trở thành công cụ điều khiển lịch sử, những sai lầm này có thể gây ra thảm họa. Do đó, trong khi chú ý đến các tính năng kỹ thuật của DeepSeek, chúng ta cũng nên tập trung vào việc khám phá các xu hướng pháp lý trong việc phát triển các công nghệ tiên tiến. Để đáp ứng nhu cầu cạnh tranh thị trường và phát triển công nghệ, các công ty thường tự động tối ưu hóa giải thích thuật toán và theo đuổi tính minh bạch của thuật toán để nâng cao khả năng cạnh tranh của sản phẩm và lòng tin của người dùng. Trọng tâm giám sát nên tập trung vào những lĩnh vực mà doanh nghiệp thiếu động lực tự thân nhưng liên quan đến lợi ích công cộng và sự an toàn, để tránh gây tổn hại đến quyền và lợi ích của các nhóm dễ bị tổn thương và ngăn ngừa tình trạng lạm dụng công nghệ và tấn công ác ý.
DeepSeek áp dụng một loạt các cải tiến công nghệ như Cơ chế chú ý tiềm ẩn nhiều đầu. Một số công nghệ này thuộc về logic thuật toán và không ảnh hưởng đến các yêu cầu pháp lý. Theo quan điểm pháp lý, chúng tôi chú ý đến các tính năng kỹ thuật và các vấn đề pháp lý của DeepSeek.
(I) Công nghệ chưng cất kiến thức và các vấn đề tuân thủ
Công nghệ chưng cất kiến thức là một trong những phương tiện quan trọng để DeepSeek tối ưu hóa hiệu suất mô hình và cải thiện hiệu quả sử dụng tài nguyên. Phương pháp cốt lõi là đào tạo một mô hình nhỏ hơn (“mô hình học sinh”) để mô phỏng các tính năng đầu ra hoặc trung gian của một mô hình lớn hơn (“mô hình giáo viên”) nhằm đạt được mục tiêu triển khai hiệu quả với chi phí thấp. Tức là sử dụng một mô hình nhỏ để mô phỏng kết quả dự đoán của một mô hình lớn. Kết quả dự đoán này không phải là một câu trả lời đơn giản, mà là một phân phối xác suất dự đoán (tương tự như "nhãn mềm"), có thể chứa nhiều thông tin dữ liệu hơn, do đó mô hình nhỏ hoạt động tốt hơn trong thử nghiệm. Về mặt kỹ thuật, mặc dù công nghệ chưng cất hiện tại đã chứng minh được kết quả kỹ thuật tốt, nhưng phương pháp sử dụng trực tiếp kết quả dự đoán để chưng cất không phải là tối ưu và không tốt bằng việc sử dụng các đặc điểm lớp trung gian của mô hình để chưng cất. Ngoài ra, công thức mất mát chưng cất kiến thức có một số khuyết điểm nhất định. Mô hình nhỏ trộn lẫn một số dữ liệu cần được phân tích riêng với nhau để phân tích, điều này ảnh hưởng đến hiệu quả của việc chuyển giao kiến thức.
Theo quan điểm quản lý, các tranh chấp pháp lý hiện nay liên quan đến công nghệ chưng cất chủ yếu tập trung vào các lĩnh vực tuân thủ dữ liệu và quyền sở hữu trí tuệ. Nếu "mô hình giáo viên" được đào tạo bằng dữ liệu bị lỗi hoặc không chính xác thì trong quá trình truyền đạt kiến thức, vấn đề dữ liệu của "mô hình giáo viên" sẽ được chuyển giao và mở rộng sang "mô hình học sinh", điều này có thể làm mở rộng thêm "vấn đề ảo giác". Chưa có quy định pháp lý rõ ràng về nguồn dữ liệu, phương pháp xử lý, bảo vệ quyền riêng tư dữ liệu, v.v. trong việc ứng dụng công nghệ chưng cất và cũng chưa có định nghĩa pháp lý rõ ràng về trách nhiệm pháp lý đối với việc khuếch đại lỗi dữ liệu trong quá trình truyền tải. Mặc dù công nghệ chưng cất đã tương đối hoàn thiện nhưng ranh giới giữa việc sử dụng mô hình và vi phạm vẫn tương đối mơ hồ. Công nghệ chưng cất không phải là sao chép mã đơn giản mà là sử dụng ở cấp độ sâu. Mặc dù mô hình nguồn mở cho phép sử dụng, nhưng cả giấy phép nguồn mở lẫn thông số kỹ thuật của ngành đều không xác định rõ ràng các hạn chế cụ thể đối với việc áp dụng công nghệ chưng cất. Không có quy định chi tiết cho các mô hình nguồn đóng, khiến việc xác định hành vi chưng cất ở mức độ nào là sử dụng hợp lý và ở mức độ nào là vi phạm trở nên khó khăn, dẫn đến những lỗ hổng trong các quy định quản lý.
(II) Mô hình chuỗi suy nghĩ và các vấn đề tuân thủ
Mô hình chuỗi suy nghĩ của công nghệ DeepSeek là một phiên bản kỹ thuật của mô hình nhắc lệnh. Kết quả tốt của nó có thể dần thúc đẩy sự phát triển của các mô hình lớn từ loại lệnh sang loại lý luận. Công nghệ chuỗi tư duy đề cập đến việc cải thiện khả năng suy luận của các mô hình lớn, khả năng diễn giải các quá trình tư duy, khả năng kiểm soát các mô hình và tính linh hoạt của đầu ra thông qua các mô hình tư duy tuần tự và phù hợp với các nhiệm vụ có độ phức tạp cao. Sự khác biệt giữa nó và mô hình lớn có lời nhắc lệnh là mô hình trước chủ yếu dựa vào thông tin lời nhắc được thiết lập trước để hướng dẫn mô hình tạo đầu ra, nhưng nó có một số hạn chế nhất định khi xử lý các yêu cầu nhiệm vụ phức tạp. Chế độ chuỗi suy nghĩ mô phỏng quá trình suy nghĩ của con người và xây dựng chuỗi suy nghĩ mạch lạc về mặt logic, cho phép mô hình lý luận và phân tích từng bước và hiển thị quá trình suy nghĩ. Nó không chỉ cải thiện hiệu quả khả năng hiểu ngữ cảnh mà còn có thể nắm bắt hiệu quả thông tin trước đó khi xử lý các văn bản dài hoặc các cuộc trò chuyện nhiều vòng, duy trì tính mạch lạc về mặt logic và tạo ra các câu trả lời chính xác và hợp lý hơn.
Theo quan điểm quản lý, do “hộp đen thuật toán” của mô hình lớn được nhắc lệnh, mô hình chỉ đưa ra kết quả cuối cùng, điều này gây ra nguy cơ rò rỉ dữ liệu và quyền riêng tư trong kết quả đầu ra. Chuỗi suy nghĩ hiển thị các bước trung gian trong quá trình lý luận, có thể chứa các đoạn riêng tư trong dữ liệu đào tạo, xâm phạm quyền riêng tư cá nhân hoặc các quyền khác và gây ra thách thức về tuân thủ. Hơn nữa, chuỗi suy nghĩ có thể làm trầm trọng thêm “vấn đề ảo giác”. Mô hình lớn có hướng dẫn chỉ đưa ra kết quả và người dùng có thể chấp nhận độ không chính xác của kết quả ở một mức độ nào đó. Tuy nhiên, vì chuỗi suy nghĩ có đặc điểm của "lý luận của con người" nên nó cho phép người dùng thấy rõ quá trình suy nghĩ, có thể truyền đạt logic lý luận hoặc nội dung không chính xác mà không có cơ sở thực tế từng lớp, khiến kết quả cuối cùng lệch khỏi thực tế. Các bước suy luận không chính xác có thể khiến mô hình đưa ra kết luận sai. Người dùng sẽ tin tưởng vào kết quả sai nhiều hơn vì họ thấy được quá trình suy nghĩ, có thể dẫn đến hậu quả như đưa ra quyết định sai lầm, gây tổn thất kinh tế và xâm phạm quyền của người khác. Do đó, cần phải làm rõ hơn các biện pháp đối phó với “vấn đề ảo giác” của các mô hình lớn và nhanh chóng khắc phục, giảm thiểu tác động của “vấn đề ảo giác” một cách hiệu quả.
(III) Ưu điểm về mặt quy định và các vấn đề mới của mô hình nguồn mở
Là một mô hình nguồn mở, DeepSeek đã mở hoàn toàn mã, dữ liệu và thuật toán của mình. Một số học giả tin rằng các mô hình nguồn mở có thể dẫn dắt hướng phát triển của các mô hình lớn và mang lại cơ hội kinh doanh mới. Theo quan điểm của lòng tin xã hội, người dùng và nhà phát triển có thể tiến hành phân tích kỹ thuật các mô hình nguồn mở, xác minh hiệu ứng và khả năng của chúng, tối đa hóa khả năng phát triển các mô hình và cho phép công chúng hiểu rõ về khả năng và hiệu ứng kỹ thuật của mô hình; về mặt đổi mới công nghệ, các mô hình nguồn mở đã kích thích rất nhiều sự sáng tạo của các nhà phát triển. Cả nhà phát triển và người dùng cá nhân đều có thể liên tục thực hiện phát triển thứ cấp xung quanh mô hình nguồn mở DeepSeek, hấp thụ hoặc tối ưu hóa công nghệ mô hình và các kế hoạch cải tiến; đồng thời, tính năng nguồn mở có thể nâng cao tính minh bạch và độ tin cậy của công nghệ. Nhân viên kỹ thuật có thể phân tích sâu logic vận hành của mô hình, sau đó phát hiện ra các lỗ hổng tiềm ẩn của mô hình và sửa chữa chúng kịp thời. So với các mô hình nguồn đóng như ChatGPT, cơ quan quản lý có thể đạt được sự giám sát sâu rộng đối với các mô hình nguồn mở và giám sát hoạt động an toàn và đáng tin cậy của các mô hình.
Theo quan điểm quản lý, mặc dù mô hình nguồn mở đã thúc đẩy tiến bộ công nghệ nhưng cũng mang đến những vấn đề quản lý mới. Mặc dù các thỏa thuận nguồn mở có chứa các quy tắc điều chỉnh việc sử dụng các mô hình, người dùng có ý đồ xấu có thể vi phạm các thỏa thuận và sử dụng các mô hình cho mục đích thương mại, phát triển cạnh tranh hoặc phân phối lại các mô hình. Về trách nhiệm bảo mật, ngay cả khi các nhà phát triển mô hình như DeepSeek tuyên bố trong thỏa thuận người dùng rằng họ không chịu trách nhiệm về hậu quả của việc sử dụng nó, tuyên bố đơn phương này không có nghĩa là họ có thể được miễn trừ khỏi mọi trách nhiệm pháp lý (các nhà phát triển và nhà cung cấp dịch vụ AI tạo ra có trách nhiệm duy trì bảo mật cơ bản của nó). Nếu bản thân mô hình có lỗ hổng bảo mật và bị khai thác có chủ đích để gây ra thiệt hại, thì nhà phát triển không thể được miễn trừ hoàn toàn khỏi trách nhiệm.
Theo quan điểm phát triển công nghệ, việc ứng dụng các công nghệ liên quan đến DeepSeek đã làm giảm bớt những khó khăn về mặt quản lý nhưng cũng mang đến những thách thức mới.
(I) Tác động tích cực đến tình trạng tiến thoái lưỡng nan về mặt quy định hiện nay
Một mặt, các công nghệ như mô hình nguồn mở và chuỗi suy nghĩ có thể giúp giảm bớt tình trạng tiến thoái lưỡng nan của “hộp đen thuật toán”. Các quy định như "Quy định quản lý đề xuất thuật toán dịch vụ thông tin Internet" và "Các biện pháp dịch vụ tạm thời cho trí tuệ nhân tạo tạo ra" chủ yếu áp dụng các quy tắc ủng hộ hơn là các quy tắc bắt buộc về tính minh bạch và khả năng giải thích của thuật toán. Vấn đề “hộp đen thuật toán” là khó khăn trong việc điều chỉnh trí tuệ nhân tạo tạo ra. Bản chất của "hộp đen thuật toán" là việc tiết lộ và giải thích không đầy đủ về các thuật toán trí tuệ nhân tạo tạo sinh. Dưới tác động của sự thiên vị thuật toán, chắc chắn sẽ có một cuộc khủng hoảng niềm tin thuật toán giữa công chúng và trí tuệ nhân tạo tạo sinh. Tuy nhiên, cấu trúc mô hình thuật toán rất phức tạp và con người khó có thể hiểu và giải thích được quá trình ra quyết định của thuật toán. Người dùng, cơ quan quản lý và thậm chí là nhà phát triển cũng khó có thể phân tích và đánh giá thuật toán dựa trên tính hợp lý. Do đó, các ý tưởng quản lý ban đầu đều hướng đến mục tiêu cải thiện tính minh bạch của thuật toán. Một số học giả đã đề xuất các phương pháp tiếp cận như "giải thích quy kết" và "giải thích phản thực tế", trong khi một số học giả khác đã đề xuất các biện pháp quản lý như báo cáo minh bạch và phát hiện thuật toán, cũng như các yêu cầu về tính minh bạch có thể quan sát, phân tích và mô phỏng được. Tuy nhiên, một số học giả tin rằng tính minh bạch của thuật toán không có tác động đáng kể. Ngay cả khi khả thi về mặt kỹ thuật, nó cũng có thể không mang lại kết quả như mong đợi. Do đó, những hạn chế về mặt kỹ thuật, tranh chấp lý thuyết, chuẩn mực vận động, v.v. từ lâu đã khiến các cơ quan quản lý phải đối mặt với những khó khăn lớn trong việc đánh giá tính an toàn, độ tin cậy và tính công bằng của các mô hình.
Sự phát triển của DeepSeek cho thấy rằng để nâng cao khả năng hiểu mô hình và cải thiện lòng tin của người dùng, các công ty có một mức độ tự thúc đẩy nhất định để hoàn thành các yêu cầu kỹ thuật về giải thích thuật toán có liên quan và tính minh bạch của thuật toán. Mặc dù điều này có thể phục vụ mục đích thương mại, nhưng nó cũng cung cấp một con đường để giảm bớt vấn đề "hộp đen thuật toán", do đó giúp cải thiện công nghệ quản lý. Mô hình chuỗi suy nghĩ được DeepSeek sử dụng giúp quá trình ra quyết định của mô hình minh bạch hơn bằng cách mô phỏng quá trình suy luận của con người. Khi mô hình xử lý các tác vụ, nó lý luận từng bước dựa trên chuỗi suy nghĩ, làm cho cơ sở và mối quan hệ logic của từng bước lý luận tương đối rõ ràng. Đồng thời, chuỗi suy nghĩ hiển thị và ghi lại đầy đủ các bước trung gian trong quá trình lý luận của mô hình, cung cấp cho người dùng và cơ quan quản lý thông tin có thể quan sát và phân tích được nhiều hơn, giúp cơ quan quản lý và người dùng có được sự hiểu biết sâu sắc về quá trình của mô hình từ dữ liệu đầu vào đến quá trình ra quyết định cuối cùng và cung cấp cơ sở để đánh giá tính hợp lý và công bằng của các quyết định của mô hình.
Mặt khác, các mô hình lớn được DeepSeek đại diện là mã nguồn mở tích cực, không chỉ tăng cường lòng tin của mọi người mà còn cung cấp các điều kiện đánh giá thuận tiện và minh bạch hơn cho các cơ quan quản lý. Cuộc cạnh tranh giữa các mô hình nguồn mở và nguồn đóng của trí tuệ nhân tạo tạo sinh đã diễn ra trong một thời gian dài. Những gã khổng lồ công nghệ như OpenAI đã chọn nguồn đóng với khả năng R&D mạnh mẽ và lợi thế về nguồn lực để bảo vệ bí mật công nghệ của công ty và lợi ích thương mại. Mặc dù một số mô hình là mã nguồn mở, nhưng hiệu suất kỹ thuật của chúng không thể sánh được với các mô hình mã nguồn đóng của OpenAI. Sự tiến bộ mới của công nghệ DeepSeek có thể chỉ ra rằng mô hình nguồn mở đã trở thành xu hướng mới không thể bỏ qua trong quá trình phát triển trí tuệ nhân tạo tạo sinh và hình thức mới này có những tác động tích cực nhất định đến giám sát.
Trong môi trường mô hình nguồn đóng, việc xem xét các mô hình lớn của cơ quan quản lý bị hạn chế bởi sự bất đối xứng thông tin và bí mật thương mại. Họ không thể có được mã nguồn mô hình và thông tin chi tiết về thuật toán nội bộ. Cơ quan quản lý chỉ có thể đánh giá hiệu suất và tính tuân thủ của mô hình thông qua các bài kiểm tra quan sát bên ngoài đối với nội dung được tạo ra. Các bài kiểm tra mô hình có liên quan đã chỉ ra rằng có những trở ngại rõ ràng trong việc truy tìm nguồn gốc của các vấn đề trong các mô hình nguồn đóng. So với các mô hình nguồn đóng, các mô hình nguồn mở được đặc trưng bởi tính cởi mở, khả năng thích ứng với các kịch bản, thân thiện với người dùng chuyên nghiệp, tính minh bạch cao và khả năng tương thích, tạo điều kiện thuận lợi cho đổi mới công nghệ và rà soát quy định. Mô hình nguồn mở bao gồm kiến trúc mô hình, dữ liệu đào tạo, tham số mô hình, v.v. Về mặt kiến trúc mô hình, thuật toán có thể được kiểm tra toàn diện để đánh giá tính hợp lý, công bằng và bảo mật của nó. Về mặt dữ liệu đào tạo, nó có thể trực tiếp phát hiện xem việc thu thập, làm sạch, dán nhãn và sử dụng dữ liệu có tuân thủ các tiêu chuẩn pháp lý và kỹ thuật hay không, và kịp thời tránh rủi ro lạm dụng dữ liệu hoặc xâm phạm quyền riêng tư. Về mặt tham số mô hình, mã nguồn mở có thể được xem xét trực tiếp để hiểu luồng xử lý dữ liệu của mô hình, chi tiết triển khai thuật toán và quy trình đào tạo mô hình một cách chi tiết. Đồng thời, các mô hình nguồn mở có lợi cho việc giám sát liên tục của các cơ quan quản lý. So với việc xem xét và lưu trữ thuật toán, các cơ quan quản lý có thể có được động lực mô hình mới nhất một cách kịp thời, theo dõi quá trình phát triển mô hình và đảm bảo rằng mô hình đáp ứng các yêu cầu quản lý trong suốt vòng đời của nó. Quan trọng hơn, các mô hình nguồn mở có thể khuyến khích người dùng và đồng nghiệp tham gia vào việc giám sát thuật toán. Các nhà phát triển công nghệ hoặc đối thủ cạnh tranh có thể phát hiện ra các vấn đề tiềm ẩn và báo cáo chúng cho các cơ quan quản lý khi sử dụng hoặc giám sát các mô hình nguồn mở, điều này sẽ giúp các cơ quan quản lý phát hiện và giải quyết các vấn đề kịp thời, thúc đẩy việc tuân thủ các mô hình nguồn mở và giảm thiểu rủi ro pháp lý và kỹ thuật.
(II) Những thách thức mới do những thay đổi về công nghệ của DeepSeek mang lại
1. Những thách thức ngày càng gia tăng trong bảo vệ quyền riêng tư và tuân thủ dữ liệu
Việc tuân thủ dữ liệu của AI tạo sinh chủ yếu bao gồm các nguồn dữ liệu, xử lý dữ liệu, lưu trữ và truyền dữ liệu. Chuỗi suy nghĩ và công nghệ chắt lọc kiến thức của DeepSeek đã mang lại bước đột phá trong việc cải thiện hiệu suất mô hình, nhưng cũng làm trầm trọng thêm những thách thức về bảo vệ quyền riêng tư và tuân thủ dữ liệu.
Về nguồn dữ liệu, khi trí tuệ nhân tạo tạo sinh mới ra đời, một số nhà nghiên cứu chỉ ra rằng chất lượng và nguồn dữ liệu là những yếu tố quan trọng ảnh hưởng đến sự phát triển của trí tuệ nhân tạo tạo sinh và trí tuệ nhân tạo tạo sinh có thể phải đối mặt với tình trạng hết kho dữ liệu đào tạo. Như đã đề cập ở trên, công nghệ chưng cất mà DeepSeek áp dụng về cơ bản là chuyển giao kiến thức từ "mô hình giáo viên" sang "mô hình học sinh". Quá trình chưng cất làm giảm chi phí thu thập và chú thích dữ liệu, cải thiện đáng kể chất lượng dữ liệu đồng thời giảm chi phí đào tạo. Tuy nhiên, nó cũng phải đối mặt với hai rủi ro về tuân thủ: Thứ nhất, nếu có vấn đề pháp lý với dữ liệu đào tạo của "mô hình giáo viên", thì "mô hình học sinh" cũng sẽ bị ảnh hưởng gián tiếp, khiến việc xem xét bảo vệ quyền riêng tư và tính hợp pháp của các nguồn dữ liệu trở nên khó khăn hơn; thứ hai, phương pháp này có thể liên quan đến tranh chấp về sở hữu trí tuệ.
Về mặt xử lý dữ liệu, chưng cất kiến thức có thể chuyển giao hiệu quả kiến thức từ các mô hình lớn sang các mô hình nhỏ. Để cho phép "mô hình học sinh" học tốt hơn kiến thức của "mô hình giáo viên", nó có thể thực hiện một số thao tác trích xuất và chuyển đổi tính năng trên dữ liệu. Xử lý dữ liệu lớn có thể làm tăng nguy cơ dữ liệu được khử nhạy cảm trở nên có thể nhận dạng lại, do đó làm tăng nguy cơ rò rỉ quyền riêng tư của người dùng. Đồng thời, công nghệ chuỗi suy nghĩ liên quan đến khai thác sâu và phân tích dữ liệu trong quá trình suy luận. Quá trình suy luận này không còn nằm trong "hộp đen" nữa mà được hiển thị và lưu trong nhật ký. Quá trình suy luận là quá trình xử lý thông tin dữ liệu. Ví dụ, khi DeepSeek được yêu cầu đánh giá một người của công chúng, nó sẽ thu thập nhiều URL khác nhau trong chuỗi suy nghĩ, một số trong đó có thể chứa thông tin sai lệch chưa được xác minh hoặc đã được chứng minh. Tương tự như vậy, khi người dùng yêu cầu chặn thông tin tiêu cực, chuỗi suy nghĩ vẫn sẽ hiển thị nội dung có liên quan của thông tin tiêu cực trong quá trình suy nghĩ. Có thể thấy từ đây rằng việc tăng cường phơi bày dữ liệu sẽ làm tăng rủi ro tuân thủ dữ liệu.
Trong quá trình lưu trữ và truyền dữ liệu, trí tuệ nhân tạo tạo ra dựa vào một lượng lớn dữ liệu và dữ liệu của nó thường được lưu trữ trên các máy chủ ở nhiều vị trí địa lý khác nhau. Làm thế nào để đảm bảo tính bảo mật và toàn vẹn của dữ liệu này là một thách thức lớn mà nó phải đối mặt. Theo chính sách bảo mật của DeepSeek, dữ liệu cá nhân được lưu trữ trên máy chủ của DeepSeek tại Trung Quốc, nhưng các mô hình nguồn mở có thể dễ dàng làm lộ dữ liệu. Một số người dùng đã phát hiện ra rằng cơ sở dữ liệu ClickHouse có thể truy cập công khai của DeepSeek cho phép khách truy cập kiểm soát hoàn toàn các hoạt động của cơ sở dữ liệu và truy cập dữ liệu nội bộ bao gồm hơn 1 triệu dòng luồng nhật ký, bao gồm hồ sơ trò chuyện, khóa, thông tin chi tiết về phần phụ trợ và các thông tin cực kỳ nhạy cảm khác. Mặc dù DeepSeek đã khắc phục ngay lập tức nhưng rủi ro này vẫn cần được chú ý. Khi nói đến vấn đề chia sẻ dữ liệu và luồng dữ liệu xuyên biên giới, AI tạo ra dữ liệu đòi hỏi góc nhìn quốc tế hơn, nhưng luật và quy định về bảo vệ dữ liệu lại khác nhau giữa các quốc gia và khu vực. Trong những năm gần đây, việc bảo vệ thông tin cá nhân theo pháp luật đã dần nhận được sự quan tâm cao từ nhiều quốc gia. Ví dụ, EU có các yêu cầu tương đối nghiêm ngặt về thông tin cá nhân và dữ liệu khác. Quy định bảo vệ dữ liệu chung (GDPR) đặt ra các điều kiện nghiêm ngặt đối với việc truy cập, lưu trữ, sửa đổi, xóa và truyền dữ liệu xuyên biên giới. Mặc dù các quốc gia trên thế giới có sự khác biệt giữa "lưu thông tự do" và "quy định dữ liệu xuyên biên giới", nhưng bảo mật dữ liệu là một nguyên tắc hạn chế quan trọng đối với dữ liệu xuyên biên giới. Do đó, các tổ chức trí tuệ nhân tạo tạo ra của đất nước tôi có thể nâng cao khả năng cạnh tranh trên quy mô toàn cầu bằng cách cải thiện hơn nữa các tiêu chuẩn tuân thủ dữ liệu.
2. Tranh chấp về quyền sở hữu trí tuệ
Mặc dù công nghệ chắt lọc kiến thức mang lại hiệu quả đào tạo thấp và chi phí thấp, nhưng nó cũng có thể gây ra một loạt các tranh chấp về sở hữu trí tuệ. Bản chất của việc chắt lọc kiến thức là tận dụng hiệu quả đào tạo của “mô hình giáo viên”. Một số người cho rằng việc sử dụng công nghệ chưng cất để xây dựng các sản phẩm mô hình lớn cạnh tranh trực tiếp là vi phạm các điều khoản dịch vụ; những người khác cho rằng việc sử dụng kết quả của các mô hình lớn tiên tiến để phát triển thứ cấp là một thông lệ của ngành và không gây tranh cãi.
Trong quá trình chưng cất mô hình, bản chất của nó là sử dụng kết quả đào tạo của "mô hình giáo viên" để đưa kiến thức vào và sử dụng hiệu quả "mô hình học sinh". Về mặt kỹ thuật, rất khó để xác định rõ ranh giới giữa việc sử dụng kiến thức và vi phạm trong quá trình chưng cất mô hình. "Mô hình học sinh" học kiến thức của "mô hình giáo viên" và chắc chắn sẽ có điểm tương đồng với "mô hình giáo viên" ở một mức độ nhất định. Tuy nhiên, mức độ mà điểm tương đồng này vượt quá phạm vi sử dụng hợp lý và cấu thành vi phạm đòi hỏi phải phát hiện và thiết lập các tiêu chuẩn rõ ràng hơn ở cấp độ kỹ thuật. Đồng thời, các kiến trúc mô hình và thuật toán khác nhau cho thấy những hiệu ứng khác nhau trong quá trình chưng cất, làm tăng thêm sự phức tạp của các tiêu chuẩn kỹ thuật. Mặc dù các nền tảng trí tuệ nhân tạo tạo sinh lớn đã áp dụng các mô hình lệnh gọi API (giao diện lập trình ứng dụng) hoặc mã nguồn mở để mở các nền tảng chia sẻ cho mục đích thương mại hoặc đổi mới công nghệ, cho dù là mô hình lệnh gọi API hay mã nguồn mở, việc sử dụng, sao chép và sửa đổi được phép đối với người dùng phải tuân theo một số hạn chế nhất định hoặc phải xây dựng thỏa thuận cấp phép hoặc các quy định và thông số kỹ thuật có liên quan. Nếu một hệ thống AI tạo sinh sử dụng mô hình của các công ty khác làm "mô hình giáo viên" mà không được phép trong quá trình chưng cất hoặc quá phụ thuộc vào công nghệ độc đáo của "mô hình giáo viên" trong quá trình sử dụng và học tập kiến thức và thiếu tính nguyên bản, thì có thể gây ra hành vi vi phạm quyền sở hữu trí tuệ.
Về mặt pháp lý, hệ thống pháp luật sở hữu trí tuệ hiện hành có độ trễ nhất định trong việc giải quyết các tranh chấp phát sinh do việc chắt lọc mô hình. Luật sở hữu trí tuệ truyền thống chủ yếu bảo vệ các thành tựu sáng tạo có nội dung cụ thể tương đối rõ ràng. Đối với các mô hình trí tuệ nhân tạo tạo sinh, là những thành tựu công nghệ không rõ ràng, phức tạp và phát triển nhanh chóng, định nghĩa pháp lý và phạm vi bảo vệ không rõ ràng. Thiếu các tiêu chuẩn quản lý rõ ràng cho các tranh chấp có liên quan trong ngành và các thỏa thuận hiện tại chủ yếu mang tính né tránh. Ví dụ, GPL (Giấy phép Công cộng Chung) quy định: "Nếu một nhà phân phối phần mềm khởi kiện vi phạm bằng sáng chế đối với người khác, cáo buộc bên kia vi phạm bằng sáng chế của mình bằng cách sử dụng phần mềm, GPLv3 sẽ tự động chấm dứt tất cả các giấy phép bằng sáng chế được cấp cho bên trong vụ kiện". Cốt lõi của quyền sở hữu trí tuệ là tìm ra sự cân bằng giữa bảo vệ công nghệ và động lực đổi mới công nghệ. Công nghệ chưng cất không chỉ ảnh hưởng đến lòng tin xã hội và khả năng cạnh tranh trên thị trường của mô hình lớn ban đầu mà còn tác động đến sự đổi mới và phát triển của công nghệ trí tuệ nhân tạo. Tuy nhiên, việc bảo vệ công nghệ quá nghiêm ngặt có thể khiến các công ty độc quyền sử dụng tranh chấp sở hữu trí tuệ như một phương tiện để duy trì vị thế độc quyền của họ.
3. “Vấn đề ảo giác” trở nên trầm trọng hơn
“Vấn đề ảo giác” của các mô hình lớn là một nhược điểm cố hữu của tất cả các mô hình. “Vấn đề ảo giác” ám chỉ thực tế là nội dung do mô hình tạo ra có vẻ chính xác, nhưng thực tế là bịa đặt hoặc thiếu dữ liệu hỗ trợ. “Vấn đề ảo giác” của mô hình ảnh hưởng nghiêm trọng đến độ tin cậy của nội dung đầu ra của mô hình và do đó ảnh hưởng đến lòng tin xã hội. Với việc ứng dụng công nghệ chưng cất mô hình DeepSeek và công nghệ chuỗi suy nghĩ, mặc dù khả năng suy luận logic đã được cải thiện nhưng “vấn đề ảo giác” vẫn dần trở nên rõ rệt và trầm trọng hơn. Ví dụ, trong quá trình sử dụng thực tế, một số người dùng phát hiện ra rằng mô hình lớn DeepSeek đưa ra các tệp, số trang, thuật ngữ chuyên môn, v.v. sai và bịa đặt trong quá trình suy luận chuỗi suy nghĩ và kết quả cuối cùng, nội dung biểu đạt của mô hình, triển khai suy luận logic và chi tiết quá hoàn hảo, người dùng thông thường khó có thể sửa lỗi dựa trên kho kiến thức của họ. Ngay cả khi người dùng chỉ ra các lỗi cụ thể, mô hình vẫn sẽ "bịa đặt" nội dung có liên quan.
Trong giai đoạn đào tạo mô hình, "vấn đề ảo giác" chủ yếu bị ảnh hưởng bởi chất lượng dữ liệu đào tạo. Ví dụ, dữ liệu đào tạo chứa một lượng lớn thông tin không chính xác và không đầy đủ, và mô hình có thể hấp thụ những thông tin sai lệch này trong quá trình học, sau đó đưa ra nội dung sai lệch khi tạo nội dung. Như đã đề cập ở trên, việc chuyển giao kiến thức về công nghệ chưng cất có thể cải thiện chất lượng dữ liệu trong khi khuếch đại các vấn đề hiện có trong dữ liệu. Dữ liệu được đào tạo bằng công nghệ chưng cất có thể bị lỗi hoặc sai sót, sau khi sử dụng nhiều lần, có thể dẫn đến kết quả đầu ra cuối cùng cực đoan - dữ liệu chất lượng cao mang lại nội dung chính xác và nghiêm ngặt, trong khi dữ liệu bị lỗi có thể khuếch đại "vấn đề ảo tưởng". Đồng thời, tác động tiêu cực của công nghệ chuỗi tâm trí cải thiện khả năng suy luận của mô hình là khiến người dùng thông thường "tin" hơn vào kết quả đầu ra của nó. Chuỗi suy nghĩ là một lý luận chặt chẽ dựa trên mô hình, xử lý dần dần dữ liệu có thể bị thiên vị hoặc không đầy đủ trong quá trình lý luận. Các bước lý luận càng phức tạp thì khả năng đưa ra thông tin sai lệch càng lớn. Khi giải quyết các vấn đề trong một số lĩnh vực chuyên môn, mô hình có thể đưa ra kết luận sai do thiếu dữ liệu đủ chính xác hoặc thông tin thu thập được không chính xác.
Việc "vấn đề ảo giác" của DeepSeek ngày càng trầm trọng hơn nhắc nhở chúng ta rằng trí tuệ nhân tạo tạo sinh có một sức mạnh tự vận hành nhất định, có thể cải thiện khả năng diễn giải và tính minh bạch của thuật toán, nhưng "vấn đề ảo giác" của nó có thể được khuếch đại đồng thời với việc tăng cường khả năng của mô hình. Mặc dù một số học giả đã đề xuất rằng độ chính xác của trí tuệ nhân tạo có thể được cải thiện bằng cách thiết lập cơ sở dữ liệu riêng tư "bên ngoài" chính xác RAG (Retrieval Augmented Generation), phương pháp này sẽ mang lại khối lượng dữ liệu khổng lồ và phù hợp hơn với thiết kế mô hình cá nhân hóa hơn là các mô hình cơ bản. Do đó, việc cấp thiết hiện nay là phải tìm hiểu các biện pháp quản lý hợp lý để khuyến khích trí tuệ nhân tạo chủ động giải quyết "vấn đề ảo giác" và ngăn chặn người dùng phải chịu những tổn thất khó lường do quá tin tưởng vào kết quả của nó.
4. Các vấn đề về bảo mật mô hình
Sau khi mô hình DeepSeek được phát hành, nó đã bị tấn công bởi một số lượng lớn các cuộc tấn công mạng ở nước ngoài, ảnh hưởng trực tiếp đến việc đăng ký, truy cập và sử dụng bình thường của hệ thống. Cuộc tấn công này là một cuộc tấn công xuyên biên giới quy mô lớn hiếm hoi kể từ khi xuất hiện các mô hình trí tuệ nhân tạo sinh ra. Cuộc tấn công này đã phơi bày một loạt các vấn đề bảo mật mạng điển hình, bao gồm tính phức tạp của các phương pháp tấn công, các cuộc tấn công xuyên biên giới, lỗ hổng công nghệ bảo vệ an ninh mạng, khả năng ứng phó khẩn cấp không đủ, rủi ro bảo mật dữ liệu và rủi ro bảo mật chuỗi cung ứng, v.v. Những vấn đề trên không chỉ ảnh hưởng đến hoạt động bình thường của DeepSeek mà còn nhắc nhở chúng ta phải chú ý hơn đến vấn đề bảo mật của các mô hình lớn.
Các mô hình AI lớn tạo ra vốn dễ bị tổn thương về mặt bảo mật. Một số nhà nghiên cứu cho rằng các cuộc tấn công mà chúng có thể gặp phải là do đánh cắp mô hình, tái tạo dữ liệu, suy luận thành viên, đầu độc dữ liệu, chèn từ nhắc, chèn từ nhắc gián tiếp, chiếm đoạt mô hình, lấy mẫu bọt biển, v.v. Có những sai sót cố hữu trong kiến trúc mô hình và thiết kế thuật toán. Khi mô hình xử lý dữ liệu đầu vào, nó nhạy cảm hơn với những thay đổi nhỏ trong dữ liệu. Kẻ tấn công có thể sử dụng nhiều phương tiện khác nhau để phá vỡ hàng phòng thủ của mô hình. Phản ứng hiện tại chủ yếu là tăng cường tính mạnh mẽ của mô hình (khả năng của mô hình hoặc thuật toán để duy trì hoạt động ổn định và hiệu suất tốt khi đối mặt với nhiều sự không chắc chắn, nhiễu, tình huống bất thường hoặc các yếu tố bất lợi). Khi các mô hình lớn phát triển từ các mô hình triển khai dọc cơ bản thành các mô hình "AI+" được tích hợp với các lĩnh vực chuyên môn cao như chăm sóc sức khỏe, tài chính và luật pháp, phạm vi và mức độ nghiêm trọng của các vấn đề bảo mật trong các lĩnh vực chính nêu trên tiếp tục tăng lên. Trong các ứng dụng thương mại, mặc dù đổi mới công nghệ mang lại hiệu quả và tiện lợi, nhưng việc đảm bảo an ninh cho các công nghệ mới luôn là ưu tiên hàng đầu của mọi tổ chức thương mại. Nếu các công nghệ mới được áp dụng cho các mô hình kinh doanh hiện có, các biện pháp bảo vệ an ninh và quyền riêng tư dữ liệu của chúng cần được đánh giá đầy đủ.
Một trong những khó khăn trong việc quản lý AI tạo sinh là các biện pháp quản lý phải liên tục thích ứng với sự phát triển nhanh chóng của công nghệ. Một số học giả cho rằng bảo vệ quyền riêng tư, bảo mật mô hình, tiêu chuẩn kỹ thuật, giao thức nguồn mở, v.v. phù hợp hơn để được điều chỉnh bằng "luật mềm" như các thí nghiệm hợp tác linh hoạt và đa dạng, các tiêu chuẩn công nghiệp áp dụng xuyên biên giới. Các cơ quan quản lý nên tiến hành hợp tác sâu rộng với các doanh nghiệp, tổ chức công nghiệp hoặc liên minh doanh nghiệp, thúc đẩy sự kết hợp của "luật mềm" và "luật cứng" thông qua các cơ chế khác nhau và điều chỉnh sự phát triển của trí tuệ nhân tạo tạo sinh.
(I) Tăng cường bảo vệ quyền riêng tư và giám sát an ninh dữ liệu
Xác định rõ phạm vi sử dụng dữ liệu cá nhân và biện pháp khắc phục khi dữ liệu cá nhân bị xâm phạm, cân bằng mối quan hệ giữa bảo vệ dữ liệu cá nhân và phát triển nền kinh tế số là trọng tâm thích ứng với sự phát triển của nền kinh tế số trong xã hội ngày nay và cũng nên là một trong những hướng chính của giám sát trí tuệ nhân tạo tạo ra.
Trong giai đoạn thu thập dữ liệu, việc giám sát AI tạo ra dữ liệu cần thiết lập các chuẩn mực tương đối rõ ràng, yêu cầu làm rõ phạm vi và mục đích thu thập dữ liệu, đảm bảo tính cần thiết và tính hợp pháp của việc thu thập dữ liệu. Khi thu thập dữ liệu người dùng, cần tuân thủ nguyên tắc giảm thiểu. Một số lượng lớn các sự cố rò rỉ dữ liệu cho thấy trí tuệ nhân tạo cần cải thiện cơ chế đồng ý của người dùng để đảm bảo rằng người dùng hiểu rõ về hành vi thu thập dữ liệu. Chính sách bảo mật của DeepSeek nêu rõ rằng "nội dung đầu vào được dịch vụ thu thập và nội dung đầu ra tương ứng sẽ được sử dụng để cải thiện và tối ưu hóa chất lượng dịch vụ của DeepSeek, với điều kiện chúng được xử lý bằng công nghệ mã hóa an toàn, được ẩn danh nghiêm ngặt và không thể xác định lại danh tính của từng cá nhân cụ thể". Các điều khoản bảo mật như vậy được sử dụng rộng rãi trong các thỏa thuận dịch vụ quy mô lớn hiện nay và dường như đã trở thành mô hình kinh doanh "dịch vụ đổi lấy dữ liệu". Việc quản lý AI tạo ra không có nghĩa là cấm hoàn toàn mô hình kinh doanh này, nhưng quyền lựa chọn nên được trao cho người dùng.
Trong giai đoạn xử lý dữ liệu, dữ liệu phải được phân loại và xếp loại, và được quản lý theo các yếu tố như mức độ nhạy cảm của dữ liệu. Các phương pháp bảo mật khác nhau phải được áp dụng để thực hiện các biện pháp bảo vệ và hạn chế sử dụng khác nhau cho các cấp độ dữ liệu khác nhau. Theo quan điểm sử dụng dữ liệu tổng hợp do chưng cất dữ liệu mang lại, cần tiếp tục tạo ra các quyền mới và quy tắc mới cho việc xử lý dữ liệu trong các tình huống học máy và cần quy định một hệ thống sử dụng dữ liệu tổng hợp. Với việc xử lý và phân tích dữ liệu tổng hợp và khối lượng dữ liệu lớn, nguy cơ dữ liệu mất quyền riêng tư có thể được nhận dạng lại trong quá trình xử lý mô hình tiếp tục gia tăng. Khi sử dụng lượng dữ liệu khổng lồ, các nhà nghiên cứu và nhà phát triển phải chuẩn hóa các công nghệ được sử dụng trong các hành vi liên quan ở mọi khía cạnh của vòng đời dữ liệu dựa trên hệ thống phân loại và bảo vệ dữ liệu. Bằng cách thiết lập các từ nhạy cảm cho dữ liệu riêng tư và sử dụng thuật toán, phân tích dữ liệu và các phương tiện khác để giám sát động và cung cấp phản hồi về quy trình vận hành mô hình, chúng ta có thể sử dụng thuật toán để phản hồi các vấn đề do thuật toán gây ra, đồng thời xác định và xử lý hiệu quả dữ liệu riêng tư và dữ liệu nhạy cảm xuất hiện trong quá trình vận hành mô hình.
Trong giai đoạn lưu trữ và truyền dữ liệu, các nhà phát triển nên được khuyến khích áp dụng mã hóa và kiến trúc lưu trữ an toàn. Dữ liệu nhạy cảm có thể được mã hóa và lưu trữ thông qua các hệ thống như phân loại dữ liệu để ngăn chặn hành vi trộm cắp hoặc giả mạo trong quá trình lưu trữ; các giao thức truyền dữ liệu an toàn cũng có thể được sử dụng để đảm bảo tính bảo mật và toàn vẹn của việc truyền dữ liệu. Khi nói đến luồng dữ liệu xuyên biên giới, sự khác biệt về phát triển công nghệ giữa các quốc gia đã dẫn đến các luật và vị thế khác nhau. Nếu trí tuệ nhân tạo tạo ra có khả năng cạnh tranh toàn cầu, các nhà phát triển và nhà cung cấp dịch vụ cần cung cấp các mô hình lớn có thể đáp ứng các yêu cầu của các quốc gia khác nhau. Do đó, đất nước tôi cần chuẩn hóa hơn nữa việc truyền và xử lý dữ liệu xuyên biên giới, cô đọng và đề xuất một chiến lược dữ liệu phù hợp với chủ quyền, an ninh và lợi ích phát triển của đất nước, tiến hành đánh giá bảo mật dữ liệu đối với người nhận và người xử lý dữ liệu, tăng cường năng lực bảo vệ bảo mật dữ liệu và đảm bảo an ninh dữ liệu của đất nước tôi.
(II) Cân bằng giữa đổi mới công nghệ và bảo vệ công nghệ
Công nghệ chưng cất tri thức và mô hình nguồn mở sẽ gây ra tranh chấp về sở hữu trí tuệ. Hai thứ này về mặt kỹ thuật là không thể tách rời và đối tượng của chưng cất tri thức thường trở thành mô hình nguồn mở. Trong thời đại Internet, một số học giả đã đề xuất ý tưởng làm suy yếu quyền sở hữu trí tuệ và chia sẻ lợi ích, nhưng việc làm suy yếu quá mức quyền sở hữu trí tuệ rõ ràng không có lợi cho việc bảo vệ động lực tiếp tục đổi mới công nghệ của chủ sở hữu quyền. Để ứng phó với các tranh chấp về sở hữu trí tuệ phát sinh, cần phải điều chỉnh công nghệ chưng cất và hành vi nguồn mở, đưa ra phản ứng hợp lý đối với các rủi ro tranh chấp đó, từ đó giải quyết xung đột giữa đổi mới công nghệ và bảo hộ công nghệ.
Trước tiên, chúng ta phải xác định chính xác bản chất của hành vi và phân biệt xem hành vi cụ thể đó là "cải tiến kỹ thuật" hay "sao chép vi phạm". Nếu “mô hình học sinh” chỉ được đào tạo thông qua kết quả đầu ra của “mô hình giáo viên” (như dữ liệu dự đoán), cần phải xem xét liệu nó có vượt quá phạm vi sử dụng và bảo vệ được phép của mô hình gốc hay không; nếu “mô hình học sinh” chỉ học kiến thức chung và công nghệ công cộng của “mô hình giáo viên” và độc lập cải tiến và đổi mới các điểm đổi mới quan trọng thì không cấu thành hành vi xâm phạm, ngược lại thì cấu thành hành vi xâm phạm. Đối với mô hình nguồn mở, nguồn mở không phải là sự từ bỏ quyền, mà là mô hình cấp phép bản quyền mới theo sự bảo vệ của giấy phép. Bản chất hành vi của nó phải tuân theo các ràng buộc của giấy phép. Bản chất của nó là việc nhà phát triển nguồn mở xử lý các quyền và tuân thủ các chuẩn mực của cộng đồng nguồn mở.
Thứ hai, cần thiết lập một cơ chế đánh giá đặc biệt cho các mô hình lớn. Cơ quan quản lý có thể yêu cầu tiết lộ các quy trình kỹ thuật quan trọng của mô hình chưng cất, chẳng hạn như nguồn dữ liệu, phương pháp căn chỉnh, v.v. Đồng thời, gánh nặng chứng minh có thể nghiêng về phía bên có lợi thế về công nghệ và bên bị cáo buộc vi phạm có thể bị yêu cầu chứng minh tính độc lập của mô hình của mình. Đối với các mô hình nguồn mở, quản trị linh hoạt nên thay thế giám sát theo kiểu "chỉ huy và kiểm soát", đồng thời nên sử dụng các cơ chế thể chế và phân bổ nguồn lực để điều chỉnh việc sử dụng các mô hình trong khi khuyến khích đổi mới để tránh lạm dụng và sử dụng sai mục đích.
Thứ ba, các cơ quan quản lý nên thiết lập cơ chế hợp tác với cộng đồng nguồn mở. Cho dù mô hình được chắt lọc, sử dụng hay mã nguồn mở thì ít nhiều đều phụ thuộc vào giấy phép mã nguồn mở của cộng đồng mã nguồn mở. Giấy phép nguồn mở là hợp đồng nhưng chúng dựa trên hệ thống sở hữu trí tuệ truyền thống. Các cơ quan quản lý có thể hướng dẫn cộng đồng thiết lập và cập nhật linh hoạt các thỏa thuận về sở hữu trí tuệ phù hợp với xu hướng công nghệ hiện tại thông qua các tiêu chuẩn kỹ thuật, đạo đức khoa học và công nghệ, tiêu chuẩn ngành, v.v., đồng thời điều chỉnh hành vi nguồn mở và chưng cất thông qua "luật mềm" như các chuẩn mực tự kỷ luật linh hoạt, bao trùm, hợp tác và tự chủ, cung cấp các kênh cho quyền sở hữu trí tuệ mở và đặt ra giới hạn cho việc phát triển và sử dụng các công nghệ mới.
III. Cải thiện cơ chế nhắc nhở và phản hồi của mô hình
Mặc dù các nhà nghiên cứu đã thử nhiều phương pháp khác nhau để giảm bớt "vấn đề ảo giác" của các mô hình lớn, nhưng các thử nghiệm của DeepSeek cho thấy mô hình lớn càng mạnh thì "vấn đề ảo giác" của mô hình càng thuyết phục. DeepSeek nêu rõ trong thỏa thuận người dùng rằng "tất cả các đầu ra do dịch vụ này cung cấp đều được trả lời bằng các mô hình trí tuệ nhân tạo và có thể chứa lỗi hoặc thiếu sót. Chúng chỉ để bạn tham khảo và bạn không nên coi nội dung đầu ra là lời khuyên chuyên nghiệp". Tuy nhiên, các điều khoản dịch vụ được định dạng ẩn như vậy không nên là cơ sở duy nhất cho việc miễn trừ đơn phương. Khi công nghệ phát triển, các nhà cung cấp dịch vụ nên cải thiện cơ chế phản hồi và cảnh báo an toàn của mô hình, điều chỉnh hành vi của chính tổ chức đồng thời cảnh báo người dùng về rủi ro và cung cấp cơ sở để phân công trách nhiệm.
Theo quan điểm quản lý, trong khi khuyến khích cải tiến công nghệ, các nhà cung cấp dịch vụ AI tạo ra cần phải áp dụng đủ các cơ chế phản hồi và nhắc nhở để tránh rủi ro. Hiện tại, mặc dù nghĩa vụ chăm sóc của nhà cung cấp dịch vụ AI tạo ra không bao gồm nghĩa vụ chung là xem xét nội dung được tạo ra, nhưng nó phải bao gồm nghĩa vụ đánh dấu nổi bật nội dung bị nghi ngờ vi phạm. Loại nhãn hiệu này không chỉ xuất hiện trong các thuật ngữ được định dạng như thỏa thuận dịch vụ mà còn phải được hiển thị nổi bật trong các câu trả lời liên quan đến các lĩnh vực chuyên môn như tài chính, chăm sóc y tế và luật pháp. Về phản hồi mô hình, cơ quan quản lý nên yêu cầu nhà cung cấp dịch vụ thiết lập và cải thiện các kênh phản hồi của người dùng và nhanh chóng thu thập các vấn đề và bất thường mà người dùng phát hiện khi sử dụng mô hình. Hiện tại, theo thỏa thuận người dùng DeepSeek, kênh phản hồi cho người dùng phát hiện thông tin vi phạm, bất hợp pháp hoặc sai lệch là phản hồi qua email. Điều này không thể cung cấp phản hồi có mục tiêu khi người dùng phát hiện ra lý luận mô hình, ảo giác được tạo ra hoặc thông tin sai lệch trong quá trình sử dụng các mô hình xử lý ngôn ngữ tự nhiên. Các kênh phản hồi phải thuận tiện, hiệu quả và có mục tiêu rõ ràng. Ngành công nghiệp nên được khuyến khích phát triển các quy trình chuẩn hóa và cung cấp nhiều kênh phản hồi để tạo điều kiện cho người dùng gửi thông tin phản hồi. Đồng thời, có thể thiết lập một hệ thống giám sát hiệu suất mô hình để công bố tỷ lệ phản hồi, tỷ lệ phản hồi và tỷ lệ xử lý của "vấn đề ảo giác" nhằm thúc đẩy các nhà nghiên cứu cải tiến công nghệ của họ.
Trong việc giải quyết “vấn đề ảo tưởng”, các cơ quan quản lý nên tăng cường chức năng phòng ngừa của luật pháp hơn là chức năng trừng phạt. Hiện nay, việc yêu cầu các nhà cung cấp dịch vụ AI tạo ra phải chịu toàn bộ trách nhiệm về tính xác thực và chính xác của nội dung được tạo ra là không phù hợp, nhưng các nhà cung cấp dịch vụ AI tạo ra phải chịu trách nhiệm của đơn vị vận hành, thực hiện các nghĩa vụ rõ ràng như quản lý nội dung và đánh dấu truy xuất nguồn gốc, đồng thời thực hiện các biện pháp ứng phó hiệu quả để đảm bảo có thể truy xuất và cải thiện các vấn đề một cách kịp thời. Ví dụ, các dấu nhắc lệnh của mô hình đầu vào, nội dung đầu ra của mô hình và các bước chính trong quy trình ra quyết định đều được ghi lại, đồng thời tính toàn vẹn và khả năng truy xuất dữ liệu được đảm bảo thông qua các phương pháp lưu trữ như nhật ký. Khi xảy ra sự cố với mô hình, các nhà cung cấp dịch vụ AI tạo sinh phải đảm bảo rằng họ có thể nhanh chóng xác định vị trí sự cố thông qua hệ thống truy xuất nguồn gốc, thực hiện các biện pháp cải tiến có mục tiêu và nâng cao độ tin cậy của mô hình.
IV. Giám sát bảo mật mô hình
Rò rỉ dữ liệu và tấn công quy mô lớn vào máy chủ DeepSeek cho thấy hiệu suất bảo mật mô hình không chỉ là vấn đề của doanh nghiệp mà còn ảnh hưởng đến quyền riêng tư cá nhân của người dùng, lợi ích xã hội và an ninh quốc gia. Do đó, bảo mật mô hình, bảo vệ bảo mật dữ liệu và hiệu suất chống tấn công nên trở thành một trong những hướng chính của giám sát trí tuệ nhân tạo tạo sinh trong tương lai.
Một mặt, các tiêu chuẩn an toàn của mô hình nên được thiết lập. Tiêu chuẩn quản trị cho AI tạo sinh có thể đóng vai trò quan trọng trong việc “tiếp quản luật pháp và giám sát, và kết nối với các hoạt động kỹ thuật”. Ngành công nghiệp nên được khuyến khích xây dựng các tiêu chuẩn kỹ thuật bảo mật áp dụng cho AI tạo sinh, bao gồm quyền riêng tư dữ liệu, đối kháng thuật toán, truy cập cơ sở dữ liệu, phát hiện và sửa chữa lỗ hổng bảo mật, v.v., đánh giá toàn diện tính bảo mật của mô hình và cung cấp báo cáo thử nghiệm cho các cơ quan quản lý. Các nhà phát triển có thể tham khảo Nhóm đối thủ đỏ của OpenAI và tự tiến hành các cuộc thử nghiệm đối thủ như thử nghiệm chức năng, thử nghiệm hiệu suất, thử nghiệm lỗ hổng bảo mật, v.v. và được khuyến khích công khai những thử nghiệm này. Tuy nhiên, các tiêu chuẩn và yêu cầu đó phải là "tiêu chuẩn mềm" chứ không phải là yêu cầu cứng. Trong thời đại công nghệ phát triển nhanh chóng, chúng ta không nên đặt ra các tiêu chuẩn bảo mật quá nghiêm ngặt làm tăng chi phí tuân thủ quá mức cho các công ty. Thay vào đó, chúng ta nên lấy đạo đức khoa học và công nghệ làm nguyên tắc cơ bản và quản lý rủi ro làm hệ thống cơ bản. Thông qua cơ chế chứng nhận bảo mật, các mô hình đáp ứng tiêu chuẩn bảo mật có thể được cấp phép hành chính để sử dụng trong các lĩnh vực như y học và tài chính. Điều này không chỉ có thể cải thiện tính bảo mật và độ tin cậy của mô hình mà còn giúp mở rộng các lĩnh vực ứng dụng của mô hình.
Mặt khác, việc phát hiện, cảnh báo sớm và lập kế hoạch rủi ro về hiệu suất bảo mật mô hình phải là trọng tâm của việc giám sát, yêu cầu các nhà phát triển sử dụng các biện pháp kỹ thuật như giám sát dữ liệu để theo dõi trạng thái bảo mật dữ liệu của hoạt động lưu trữ và vận hành mô hình theo thời gian thực. Có thể thiết lập cơ chế cảnh báo rò rỉ dữ liệu để phản hồi và báo cáo kịp thời khi phát hiện các cuộc tấn công bất thường, rò rỉ dữ liệu hoặc mối đe dọa bảo mật, qua đó cải thiện khả năng phát hiện và ứng phó với các rủi ro bảo mật dữ liệu. Đồng thời, các cơ quan quản lý cần tiến hành kiểm tra, thử nghiệm thường xuyên, triển khai các đơn vị đánh giá độc lập về các vấn đề chuyên môn, kỹ thuật như hiệu suất an toàn, thực hiện các biện pháp hành chính như cảnh báo rủi ro hoặc khắc phục trong thời hạn quy định đối với các mẫu xe có nguy cơ mất an toàn nghiêm trọng và công bố kết quả thử nghiệm cho công chúng khi cần thiết.
Ứng dụng kỹ thuật của DeepSeek đã thu hút sự chú ý và học hỏi rộng rãi trong lĩnh vực nghiên cứu và phát triển trí tuệ nhân tạo tạo sinh. Sau khi phát hành DeepSeek, một nhóm đã phát hành một mô hình mới với các chỉ số kỹ thuật tương đương với DeepSeek R1, nhưng chi phí đào tạo dưới 50 đô la Mỹ. Trong khi sự phát triển công nghệ đã mang lại sự tăng trưởng nhanh chóng cho ngành, nó cũng mang đến những thách thức mới cho việc quản lý AI tạo ra. Công nghệ chưng cất, mô hình chuỗi suy nghĩ và chiến lược nguồn mở của DeepSeek đã đóng vai trò quan trọng trong việc cải thiện hiệu suất mô hình, mở rộng các tình huống ứng dụng và thúc đẩy đổi mới công nghệ. Mặc dù ứng dụng kỹ thuật của DeepSeek đã làm giảm bớt tình trạng tiến thoái lưỡng nan của "hộp đen thuật toán" và việc xem xét theo quy định ở một mức độ nào đó, nhưng nó cũng mang đến những thách thức mới trong việc bảo vệ quyền riêng tư và tuân thủ dữ liệu, quyền sở hữu trí tuệ, "vấn đề ảo giác" và bảo mật mô hình.
Trong tương lai, công nghệ trí tuệ nhân tạo sẽ tiếp tục phát triển, tạo nên một cuộc cách mạng công nghệ nhưng cũng mang đến những rủi ro và thách thức. Tầm quan trọng của việc giám sát sẽ ngày càng trở nên nổi bật. Do đó, chúng ta phải hướng tới tương lai và dự đoán xu hướng phát triển của trí tuệ nhân tạo tạo sinh, chuẩn hóa hơn nữa việc thu thập dữ liệu, xử lý dữ liệu, lưu trữ và truyền dữ liệu, bảo vệ hiệu quả quyền riêng tư cá nhân và tăng cường xây dựng các hệ thống tuân thủ dữ liệu; đối với các công nghệ như chưng cất và mã nguồn mở, chúng ta phải khuyến khích áp dụng các "luật mềm" như tiêu chuẩn ngành và tiêu chuẩn kỹ thuật, xác định chính xác bản chất của hành vi và cân bằng giữa đổi mới công nghệ và bảo vệ công nghệ, nhưng cũng thiết lập các cơ chế nhắc nhở mô hình, nhận dạng, phản hồi và truy xuất nguồn gốc hiệu quả để làm suy yếu "rủi ro ảo tưởng" của các mô hình lớn. Trong tương lai, khi công nghệ phát triển và hoàn thiện, các tiêu chuẩn bảo mật mô hình nghiêm ngặt hơn có thể được xây dựng để ngăn ngừa rủi ro công nghệ và bảo vệ lợi ích công cộng cũng như an sinh xã hội đồng thời tận dụng tối đa những lợi thế của công nghệ trí tuệ nhân tạo. Nghiên cứu quy định về công nghệ tương lai cũng nên có góc nhìn quốc tế, tăng cường sự phối hợp và hợp tác toàn cầu trong quy định về AI, thúc đẩy các giải pháp của Trung Quốc về quy định AI tạo ra trong trật tự quốc tế đương đại và ứng phó với những thách thức toàn cầu về phát triển AI.
Nguồn | Tạp chí Đại học Sư phạm Tân Cương (Phiên bản Triết học và Khoa học Xã hội) lần đầu tiên được xuất bản trực tuyến
CTO của X xác nhận kế hoạch triển khai thanh toán Dogecoin, phù hợp với tầm nhìn rộng hơn của Musk.
Thẩm phán từ chối yêu cầu hoãn tuyên án của Bankman-Fried; duy trì ngày 28 tháng 3 năm 2024.
Điều này đánh dấu giao dịch đầu tiên trong lĩnh vực thanh toán nhân dân tệ kỹ thuật số xuyên biên giới (e-CNY) trên thị trường kim loại quý.
Ramp Network (RAMP), một công ty công nghệ tài chính, đang tạo điều kiện truy cập vào hệ sinh thái chuỗi khối The Open Network (TON) cho hàng triệu người dùng Telegram. Sự tích hợp này cho phép dễ dàng tham gia vào thế giới Web3 cho cơ sở người dùng khổng lồ của Telegram.
Người Nga bị trừng phạt, Mikhail Klyukin, gây tranh cãi với việc bán cổ phiếu tiền điện tử trị giá 15 triệu bảng thông qua Copper, làm dấy lên sự giám sát pháp lý và những lo ngại về quy định.
X gặp sự cố ngừng hoạt động toàn cầu, ảnh hưởng đến nguồn cấp dữ liệu của người dùng.
Được định vị là "ZK Lớp 2 do cộng đồng sở hữu đầu tiên", ZKFair tận dụng Bộ công cụ phát triển đám mây (CDK) của Polygon và ZK-L2 của Celestia DA, với sự hỗ trợ kỹ thuật từ Lumoz RaaS.
Bản phát hành mới nhất của Ubisoft, Champions Tactics: Grimoria Chronicles, đã làm mưa làm gió trên thị trường NFT, đạt doanh thu vượt trội 2 triệu USD ngay sau khi ra mắt công chúng. Thành công ngoài mong đợi này không chỉ gây chú ý trong cộng đồng game mà còn gây ra một cơn sốt trong thế giới tiền điện tử.
Cựu Giám đốc điều hành FTX Sam Bankman-Fried đề nghị trì hoãn tuyên án bị từ chối; cuộc phỏng vấn trước khi tuyên án diễn ra theo kế hoạch, giữ nguyên ngày tuyên án hiện tại.
Tòa án Anh và Singapore đã đóng băng tài sản trị giá hơn 1 tỷ USD của những người sáng lập Three Arrows Capital trong bối cảnh các cuộc đấu tranh pháp lý đang diễn ra và sự suy thoái của thị trường tiền điện tử trên diện rộng.