중국, 새로운 규정으로 AI 콘텐츠에 대한 통제 강화
중국의 인터넷 규제 당국은 모든 디지털 플랫폼에 AI가 제작한 자료에 라벨을 부착하도록 의무화하는 새로운 제도를 통해 AI가 제작한 콘텐츠에 대한 통제력을 강화하고 있습니다.
중국 사이버 공간 관리국에서 발표했습니다,이 계획 초안 는 텍스트와 이미지부터 비디오 및 오디오 파일에 이르기까지 다양한 형태의 콘텐츠에 투명한 라벨링 시스템을 적용하고자 합니다.
이를 도입할 경우, 플랫폼과 온라인 서비스 제공업체는 눈에 보이는 로고와 내장된 메타데이터를 통해 AI가 생성한 자료를 쉽게 식별할 수 있도록 해야 합니다.
이 규정은 오디오 파일의 경우 더욱 강화되어 파일의 시작과 끝, 때로는 파일 중간에 청취자에게 AI 생성 콘텐츠에 참여하고 있음을 알리는 음성 안내 메시지가 표시되어야 합니다.
마찬가지로 이러한 파일을 재생하는 소프트웨어도 AI 자료와 상호 작용할 때 사용자에게 알려야 합니다.
동영상의 경우, 중국은 플랫폼이 콘텐츠의 시작, 끝, 중요 지점에 알림을 표시할 수 있도록 허용합니다.
베이징에 본사를 둔 익명의 지적 재산권 거래 전문 변호사는 다음과 같이 언급했습니다:
이는 디지털 생태계의 무결성을 보호하는 것입니다."라고 설명합니다;
사용자 제작 AI 콘텐츠에 대한 감시 강화
이 초안은 AI가 생성한 콘텐츠를 게시하는 개인에게도 적용됩니다.
네티즌은 AI를 사용하여 생성하는 모든 콘텐츠에 라벨을 부착해야 하며, 플랫폼 도구를 사용하는 네티즌은 신원을 밝혀 디지털 발자국을 남기도록 의무화됩니다.
사용자 활동 로그는 책임 소재를 확인하기 위해 최소 6개월 동안 보관해야 합니다.
이 조치는 사용자가 생성한 모든 콘텐츠를 신원 확인이 가능한 개인과 연결하려는 중국의 광범위한 목표를 향한 또 하나의 진전이며, 사이버 공간에 대한 중국의 주권적 통제 야망을 강화합니다.
공산당이나 정부에 도전하는 콘텐츠는 고도로 감시되는 중국의 인터넷 환경에서 살아남기 어렵다는 의미는 분명합니다.
라벨링 시스템의 AI 생성 콘텐츠 거버넌스 개선 가능성을 지지하는 중국 정법대학의 장 링한 교수는 다음과 같이 경고했습니다:
이러한 엄격한 요건을 충족하지 못하면 플랫폼과 개인 모두 곤경에 처할 수 있습니다;
그는 이 규제가 잘못된 정보를 줄이고, 미래의 AI 학습 데이터 세트의 손상을 방지하며, 더 건강한 디지털 생태계를 조성할 것이라고 강조했습니다.
메타데이터가 누락된 경우 AI 생성 콘텐츠 분석하기
서비스 제공업체는 규정 준수를 보장하기 위해 메타데이터가 부족한 콘텐츠도 분석해야 합니다.
제공업체는 AI가 파일을 생성한 것으로 의심되는 경우 그에 따라 파일에 레이블을 지정해야 합니다.
초안의 이러한 측면은 시스템의 허점을 없애고 메타데이터가 의도적으로 생략된 경우에도 모든 AI 생성 콘텐츠를 식별할 수 있도록 하기 위한 것입니다.
또한, 이 규정은 플랫폼이 AI 콘텐츠를 탐지하기 위해 개발한 기술을 공유하여 전반적으로 탐지 방법을 개선하기 위한 공동의 노력을 촉진하도록 요구하고 있습니다.
이러한 조치는 국익을 확보하고 공공 안전을 지키기 위한 중국의 광범위한 전략의 일환으로 마련되었습니다.
잘못된 정보 해결을 위한 이전 규정을 기반으로 구축하기
이 새로운 규정 초안은 인공 지능 사용을 규제하기 위해 고안된 일련의 이전 프레임워크를 기반으로 합니다.
2023년 1월에 시행된 인터넷 기반 정보 서비스의 심층 합성에 관한 관리 규정은 중요한 이정표 중 하나였습니다.
이 정책은 이미 대중을 오도하거나 혼란스럽게 할 수 있는 콘텐츠에 눈에 띄는 라벨링을 의무화하여 현재 초안에서 제안된 보다 엄격한 가이드라인의 토대를 마련했습니다.
또 다른 중요한 발전은 2023년 8월, AI 생성 서비스를 겨냥한 중국 최초의 규칙인 '생성 AI 서비스 관리를 위한 임시 조치'가 발표되면서 이루어졌습니다.
이러한 지속적인 규제 진행은 AI 기술의 급속한 발전을 관리하려는 중국의 적극적인 접근 방식을 강조합니다.
AI 기반 콘텐츠의 영향에 대해 고민하는 나라는 중국뿐이 아닙니다.
전 세계의 다른 정부 및 조직에서도 유사한 조치를 시행하고 있습니다.
예를 들어 유럽연합의 인공지능에 관한 조정 계획, 미국의 딥페이크 책임법, 영국의 온라인 피해 백서 등은 모두 온라인 콘텐츠의 진위를 보장하고 지적 재산을 보호하려는 전 세계적인 노력을 반영하고 있습니다.
면밀한 조사가 진행 중인 AI 및 딥페이크 기술
이미지, 오디오, 동영상을 조작하기 위해 AI에 의존하는 딥페이크 기술이 부상하면서 잘못된 정보의 확산과 잠재적인 보안 위험에 대한 우려가 커지고 있습니다.
최근 인민일보와의 인터뷰에서 장 교수는 새로운 라벨링 시스템의 중요성을 다음과 같이 강조했습니다:
라벨링 시스템은 AI가 생성한 콘텐츠의 거버넌스 역량을 강화하고, 잘못된 정보의 생산을 줄이며, 향후 학습 데이터 세트의 오염을 방지하고, 건강한 사이버 정보 생태계를 조성할 수 있습니다;
딥페이크는 이미 사기 목적으로 악용되고 있어 엄격한 규제의 필요성이 더욱 강조되고 있습니다.
이러한 맥락에서 중국이 제안한 법률은 국가 안보 보호와 대중의 신뢰 유지의 중요성을 강조하면서 이러한 기술과 관련된 위험을 완화하는 것을 목표로 합니다.
중국은 AI가 생성한 콘텐츠에 라벨을 붙이고 플랫폼에 책임을 지움으로써 보다 투명한 디지털 공간을 만드는 것을 목표로 합니다.
AI 거버넌스의 높은 규정 준수 표준을 향한 노력
이 규정 초안은 AI가 생성한 콘텐츠를 통제하기 위한 것일 뿐만 아니라 중국의 AI 생성 부문에서 더욱 강력한 규제 준수 시대가 시작되었음을 알리는 신호탄입니다.
베이징의 지적 재산권 전문 변호사는 다음과 같이 말했습니다,
이 이니셔티브는 중국의 생성 AI 서비스 부문에서 엄격한 규제와 높은 규정 준수 표준의 새로운 단계를 의미합니다;
중국 정부는 플랫폼에 더 높은 요구 사항을 부과함으로써 AI 기술이 책임감 있게 사용되고 AI가 생성한 콘텐츠의 부정적인 영향을 최소화할 수 있도록 하고 있습니다.
앞으로 한 달 동안 이 초안에 대한 공개 협의가 시작되면 이해관계자들은 피드백을 제공할 수 있는 기회를 갖게 됩니다.
하지만 역사적 선례에 비추어 볼 때, 중국이 초안을 공개한 후 크게 수정하는 경우는 거의 없습니다.
제안된 규칙은 현재의 형태로 시행되어 중국의 디지털 환경에 대한 통제를 더욱 강화하는 동시에 빠르게 진화하는 AI 기술에 직면한 중국의 이익을 보호할 가능성이 높습니다.