Mô hình AI của Google đối mặt với sự giám sát của EU về mối quan ngại về quyền riêng tư dữ liệu
Các cơ quan quản lý châu Âu đang hướng sự chú ý tới các hệ thống trí tuệ nhân tạo của Google, đặt câu hỏi về việc tuân thủ luật bảo mật dữ liệu nghiêm ngặt của Liên minh châu Âu.
Vào thứ năm, Ủy ban Bảo vệ Dữ liệu (DPC) của Ireland đã mở cuộc điều tra về Mô hình Ngôn ngữ Đường dẫn 2 (PaLM2) của Google, nêu bật mối lo ngại rằng mô hình này có thể đang xử lý một lượng lớn dữ liệu cá nhân mà không đánh giá đúng tác động của nó đối với quyền riêng tư của cá nhân trong Liên minh Châu Âu.
Với trụ sở chính của Google tại Châu Âu đặt tại Dublin, cơ quan giám sát của Ireland chịu trách nhiệm đảm bảo gã khổng lồ công nghệ này tuân thủ Quy định bảo vệ dữ liệu chung (GDPR), nền tảng của luật bảo mật của khối.
Theo DPC, cuộc điều tra tập trung vào việc liệu Google có tiến hành đánh giá đầy đủ để xác định xem các hoạt động xử lý dữ liệu của PaLM2 có thể gây ra "rủi ro cao đối với quyền và tự do của cá nhân" hay không.
Cuộc điều tra này là một phần của sáng kiến lớn hơn trên nhiều quốc gia EU, nhằm mục đích xem xét kỹ lưỡng cách xử lý dữ liệu cá nhân của các hệ thống AI.
Khi được yêu cầu bình luận, Google đã chọn cách không phản hồi.
Sự phát triển của các mô hình AI và việc sử dụng dữ liệu của chúng
Các mô hình ngôn ngữ lớn, chẳng hạn như PaLM2 của Google, đã trở nên không thể thiếu trong lĩnh vực trí tuệ nhân tạo.
Các mô hình này được xây dựng bằng cách sử dụng lượng dữ liệu khổng lồ và cung cấp nhiều dịch vụ, từ các đề xuất được cá nhân hóa đến khả năng AI tạo ra.
Ví dụ, PaLM2 của Google hiện đang được sử dụng trong các dịch vụ như tóm tắt email.
Mặc dù các ứng dụng này mang lại sự tiện lợi, chúng cũng đặt ra câu hỏi về lượng dữ liệu cá nhân liên quan đến việc đào tạo các hệ thống như vậy và liệu quyền riêng tư của người dùng có bị xâm phạm trong quá trình này hay không.
Để giải quyết những lo ngại này, động thái mới nhất của DPC phản ánh áp lực ngày càng tăng đối với các công ty công nghệ trong việc tuân thủ luật bảo vệ dữ liệu nghiêm ngặt của Châu Âu, đặc biệt là khi vai trò của AI đang mở rộng trên nhiều lĩnh vực.
Câu hỏi đặt ra là liệu các công ty như Google có bảo vệ dữ liệu người dùng một cách thỏa đáng trong khi vẫn thúc đẩy ranh giới đổi mới sáng tạo do AI thúc đẩy hay không.
Các cơ quan quản lý của Ireland tiếp tục buộc các công ty công nghệ lớn phải chịu trách nhiệm
Ủy ban Bảo vệ Dữ liệu của Ireland đã nhiều lần tăng cường giám sát theo quy định đối với các công ty công nghệ có trụ sở tại Hoa Kỳ hoạt động trong EU.
DPC từ trước đến nay luôn đi đầu trong việc thực thi các quy định GDPR, đặc biệt là với các công ty lớn như Google và Meta, vì cả hai công ty đều đặt hoạt động kinh doanh tại Châu Âu tại Ireland.
Cuộc điều tra của DPC đối với Google diễn ra sau một loạt các hành động tương tự được thực hiện đối với các công ty khác đang vận hành các mô hình AI quy mô lớn.
Ví dụ, nền tảng truyền thông xã hội X của Elon Musk gần đây đã đồng ý dừng vĩnh viễn việc xử lý dữ liệu người dùng cho chatbot AI Grok.
Quyết định này được đưa ra sau khi cơ quan giám sát của Ireland có hành động pháp lý nhằm đình chỉ hoạt động xử lý dữ liệu của X.
Hồ sơ nộp lên Tòa án tối cao của DPC vào tháng trước phản ánh sự thất vọng ngày càng tăng của cơ quan này đối với các nền tảng xử lý dữ liệu cá nhân mà không có biện pháp bảo vệ phù hợp.
Tương tự như vậy, Meta Platforms Inc. đã phải đối mặt với áp lực từ các cơ quan quản lý của Ireland vào đầu năm nay, khiến Meta phải tạm dừng kế hoạch sử dụng nội dung người dùng châu Âu để đào tạo hệ thống AI của riêng mình.
Động thái này diễn ra sau những gì được mô tả là “cuộc giao tranh sâu rộng” giữa DPC và Meta vào tháng 6.
Nỗ lực rộng lớn hơn của EU hướng tới trách nhiệm giải trình về AI
Cuộc điều tra về PaLM2 của Google chỉ là một phần trong nỗ lực chung của EU nhằm quản lý AI và bảo vệ công dân khỏi các hành vi xâm phạm quyền riêng tư tiềm ẩn.
Là một phần trong những nỗ lực rộng lớn hơn, DPC đang hợp tác với các cơ quan quản lý từ Khu vực Kinh tế Châu Âu (EEA) để giám sát cách các công ty công nghệ xử lý dữ liệu cá nhân trong quá trình phát triển các mô hình AI.
Sự thúc đẩy này không chỉ giới hạn ở Google.
ChatGPT của OpenAI, một trong những chatbot AI phổ biến nhất, đã bị cấm tạm thời ở Ý vào năm ngoái do vi phạm quyền riêng tư dữ liệu.
Cơ quan giám sát dữ liệu của Ý yêu cầu OpenAI giải quyết những lo ngại cụ thể trước khi được phép tiếp tục hoạt động trong nước.
Những sự cố này làm nổi bật những thách thức về mặt pháp lý mà các công ty phát triển mô hình AI ở Châu Âu phải đối mặt, nơi việc tuân thủ GDPR vẫn là ưu tiên hàng đầu.
Khi các hệ thống AI ngày càng tiên tiến hơn, rủi ro đối với quyền riêng tư cá nhân cũng tăng lên, khiến các cơ quan quản lý của EU phải giám sát chặt chẽ hơn.
Cuộc điều tra về PaLM2 của Google có thể đóng vai trò là tiền lệ cho các mô hình AI khác, báo hiệu cho ngành rằng việc tuân thủ luật bảo mật dữ liệu phải là một phần không thể thiếu trong hoạt động của họ.
DPC của Ireland: Dẫn đầu về Quyền riêng tư trong AI
Vai trò của Ireland là quốc gia thực thi GDPR hàng đầu cho nhiều gã khổng lồ công nghệ trên thế giới mang lại cho quốc gia này ảnh hưởng đáng kể trong việc định hình cách thức quản lý các hệ thống AI trên khắp Liên minh Châu Âu.
Trong tuyên bố của mình, DPC nhấn mạnh rằng cuộc điều tra này là một phần trong những nỗ lực đang diễn ra nhằm quản lý việc sử dụng dữ liệu cá nhân trong phát triển AI.
Bằng cách thực hiện các bước chủ động, DPC muốn đảm bảo rằng các công ty như Google, X và Meta không vượt quá ranh giới của mình trong cuộc đua thống trị lĩnh vực AI.
Mối quan tâm cốt lõi của DPC là nhu cầu minh bạch.
Các công ty phát triển mô hình AI phải đánh giá những rủi ro tiềm ẩn đối với quyền riêng tư của người dùng và đảm bảo rằng họ có các biện pháp bảo vệ phù hợp trước khi xử lý các tập dữ liệu lớn.
Theo DPC, vấn đề chính là liệu Google có đánh giá đúng những rủi ro tiềm ẩn trong hoạt động xử lý dữ liệu của PaLM2 hay không.
Với cuộc điều tra đang được tiến hành, các cơ quan quản lý dữ liệu của Liên minh châu Âu sẽ tiếp tục yêu cầu các công ty công nghệ chịu trách nhiệm về cách họ thu thập và sử dụng dữ liệu cá nhân, đảm bảo rằng quyền của cá nhân không bị xâm phạm vì mục đích tiến bộ công nghệ.
Liệu hạn chế có thực sự là giải pháp?
Mặc dù các hạn chế như lệnh cấm tạm thời ChatGPT của Ý và các cuộc điều tra về các mô hình AI như PaLM2 của Google nhằm mục đích bảo vệ dữ liệu cá nhân, nhưng chúng có thể không phải là giải pháp tối ưu.
Người dùng thường tìm cách lách lệnh cấm, chẳng hạn như sử dụng VPN, điều này đặt ra câu hỏi về tính hiệu quả của lệnh cấm hoàn toàn.
Liệu các cơ quan quản lý có nên tập trung vào tính minh bạch, biện pháp bảo vệ nghiêm ngặt và giáo dục người dùng thay vì những hạn chế hoàn toàn không?
Khi AI tiếp tục phát triển, việc kìm hãm sự đổi mới có thể gây ra những hậu quả không mong muốn, nhưng việc cho phép sử dụng dữ liệu không được kiểm soát có nguy cơ làm suy yếu các quyền cá nhân.
Sự cân bằng giữa đổi mới và quyền riêng tư phải được xác định lại — không chỉ thông qua lệnh cấm mà còn bằng một khuôn khổ mới phát triển cùng với công nghệ.