인스타그램이 곧 쪽지에서 누드 블러링 테스트를 시작할 예정이라고 메타에서 수요일 발표한 내용에 따르면의 발표에 따라 알려졌습니다. 이 기능은 '온디바이스 머신 러닝'을 사용해 누드를 탐지하며, 청소년을 대상으로 한 성착취 사기를 막는 데 목적이 있다고 회사는 밝혔다.
'누드 보호' 기능은 사용자에게 누드가 전송될 때와 다른 사람에게 누드를 보내려고 할 때 모두 다이렉트 메시지에서 누드를 감지하여 자동으로 흐리게 처리합니다. 또한 사용자에게 '민감한 사진을 공유할 때는 주의하세요'라는 팝업 메시지가 표시됩니다. 누드 보호 기능이 켜져 있기 때문에 사진이 흐릿하게 처리되어 있습니다. 다른 사람이 사용자 모르게 사진을 스크린샷하거나 전달할 수 있습니다. 마음이 바뀌면 사진을 보내지 않을 수 있지만 다른 사람이 이미 보았을 가능성이 있습니다."
처리 작업이 디바이스에서 수행되므로 메타에서는 엔드투엔드 암호화된 채팅에서는 사용자가 신고하지 않는 한 Meta가 이미지 자체에 액세스할 수 없습니다.
기능이 사용자에게 어떻게 보이는지 보여주는 예시입니다. 메타를 통한 이미지
18세 미만 사용자의 경우 이 기능이 기본적으로 켜져 있으며, 성인의 경우 이 기능을 켜도록 '권장'하는 알림을 받게 됩니다. "이 기능은 원치 않는 나체 사진을 DM에서 보지 않도록 보호할 뿐만 아니라, 누드 이미지를 보내 사람들을 속여 자신의 이미지를 보내도록 유도하는 사기꾼으로부터 사용자를 보호하기 위해 고안되었습니다."라고 발표되었습니다.
"누군가 누드가 포함된 이미지를 받으면 경고 화면 아래 자동으로 흐리게 처리되어 수신자가 누드 이미지와 마주하지 않고 볼지 여부를 선택할 수 있습니다."라고 Meta는 썼습니다. "또한 발신자를 차단하고 채팅을 신고할 수 있는 옵션과 함께 응답에 대한 부담을 느끼지 않도록 권장하는 메시지를 표시할 것입니다."
이 공지에서 Meta는 "곧" 이러한 기능의 테스트를 시작할 예정이라고 밝혔습니다.
한편 메타는 실제 여성의 이미지를 도용하는 AI 생성 가짜 인플루언서를 인스타그램에 만연하게 하고 심지어 가장 뻔한 catfish 로맨스 사기가 플랫폼에서 발생하고 있으며, 페이스북에서는 사람들이 속아서 AI가 만든 콘텐츠를 진짜라고 믿게 되는 를 끊임없이 겪고 있습니다.
인스타그램의 누드 감지 기능은 이전에 Apple에서 발표한 것과 유사합니다. 이 회사의 '민감한 콘텐츠 경고' 기능도 사용자 디바이스에 있는 사진을 분석하여 작동하며, 라고 Apple의 문서에 따르면 설명되어 있습니다. Apple은 원래 더 나아가 iCloud에 업로드된 사진을 스캔하여 CSAM에 사용할 수 있는 기능을 발표했을 때 큰 반발에 직면했습니다. Apple 2022년 12월에 그 계획을 죽였습니다.
Meta는 과거에 성적 학대 이미지를 탐지하려는 시도를 해 논란을 일으킨 적이 있습니다: 2017년과 2018년에는 사용자에게 비합의 이미지 방지 시스템를 테스트하여 누드가 확산되지 않도록 페이스북에 자신의 누드를 보내도록 요청했습니다.