기술이 일상과 밀접하게 얽혀 있는 이 시대에 'AI 탈의'의 등장은 우려스러운 추세입니다. 소셜 미디어 분석 회사인 Graphika는 이미지 속 개인의 신체를 동의 없이 디지털 방식으로 벗겨내어 합성 비동의 사생활 이미지(NCII)를 생성하도록 설계된 인공 지능(AI) 도구를 사용하는 불안한 관행에 대해 조명했습니다. 이러한 디지털 침해는 프라이버시를 침해할 뿐만 아니라 착취와 남용으로 번창하는 시장에 연료를 공급합니다.
성장 추세에 대한 통계적 증거
Graphika의 보고서는 놀라운 통계를 제시하며, Reddit과 X(구 트위터)와 같은 플랫폼에서 댓글과 게시물의 양이 무려 2,408% 증가하여 NCII 서비스를 제공하는 웹사이트와 텔레그램 채널로 트래픽을 유도하고 있다고 설명합니다. 2022년 1,280건에서 2023년 32,100건 이상으로 증가한 것은 단순한 숫자가 아니라 이러한 비윤리적인 관행이 빠르게 확산되고 있다는 증거입니다.
종종 명시적으로 생성된 콘텐츠로 구체화되는 합성 NCII는 AI의 기능을 활용하여 사실적이고 충격적인 이미지를 만듭니다. 이러한 도구는 프로세스를 간소화하여 콘텐츠 제공업체가 보다 쉽고 비용 효율적으로 노골적인 콘텐츠를 대규모로 제작할 수 있도록 지원합니다. 이러한 서비스가 없다면 개인이 맞춤형 이미지 확산 모델을 관리하는 데 따르는 복잡성과 비용 문제로 어려움을 겪을 것입니다.
AI 탈의 도구의 급증은 잠재적으로 가짜 음란물 제작으로 이어질 수 있다는 암울한 그림을 그려줍니다. 그 영향은 표적 성희롱, 성추행, 혐오스러운 아동 성적 학대물(CSAM)의 제작에 기여하는 등 다양합니다. 또한, 유튜브 유명인사인 미스터 비스트나 할리우드 배우 톰 행크스 같은 유명인이 등장하는 조작된 콘텐츠에서 볼 수 있듯이 AI의 영향력은 정지 이미지를 넘어 동영상 딥페이크의 영역으로까지 확장되고 있습니다.
글로벌 대응 및 규제 조치
영국에 본부를 둔 인터넷 감시 재단(IWF)은 한 달 만에 다크웹 포럼에서 20,254개 이상의 아동 학대 이미지를 발견하여 사태의 심각성을 강조했습니다. AI가 생성한 아동 포르노의 출현은 딥페이크 포르노와 진짜 이미지 사이의 경계를 모호하게 만들어 인터넷에 구별할 수 없는 콘텐츠를 범람시킬 수 있는 잠재적 위협이 되고 있습니다.
이러한 위기가 고조됨에 따라 유엔은 특히 소셜 미디어 플랫폼에서 AI로 생성된 미디어를 정보 무결성에 대한 '심각하고 긴급한 위협'으로 규정했습니다. 유럽 의회와 유럽 이사회가 유럽연합 내에서 AI 사용을 규제하는 엄격한 규칙에 합의하는 등 입법 기관의 움직임도 빨라지고 있습니다.
디지털 환경이 진화함에 따라 AI의 옷을 벗기는 기술과 딥페이크 기술의 부상은 즉각적인 주의가 필요합니다. 인식을 제고하고, 윤리적 기준을 지키며, 규제 조치를 시행하는 것이 필수적입니다. 모두가 함께 노력해야만 디지털 시대에 개인정보 보호, 무결성, 인간 존엄성의 본질을 지킬 수 있습니다.