지난 4월 16일 메타 플랫폼에서 삭제되는 콘텐츠를 감시하는 제3자 기구인 감독위원회가 페이스북과 인스타그램에서 발생한 딥페이크 성인물 사례 2건에 대한 조사를 시작했다고 밝혔다. 감독위원회는 메타 정책과 이행 관행이 딥페이크 성인물에 효과적으로 대처하고 있는지 평가할 것이라고 밝혔다.
첫 번째 사례에선 인도 유명인 여성 누드 이미지가 AI로 생성되어 인도 여성 AI 생성 이미지만 공유하는 인스타그램 계정에 게시됐다. 사용자가 이 게시물을 신고했지만 메타가 48시간 내에 검토하지 않아 신고가 자동으로 닫혔다. 신고한 사용자가 이의를 제기했지만 다시 신고가 자동으로 닫혀 메타가 이미지를 삭제하지 않았다는 점이 문제로 지적됐다. 위원회는 메타 측 판단이 잘못됐다고 인정하고 괴롭힘 관련 커뮤니티 기준을 위반한다며 게시물을 삭제했다.
2번째 사례에선 AI로 생성된 미국 유명인 여성 누드 이미지가 AI 작품을 게시하는 페이스북 그룹에 게시됐다. 게시물 캡션에는 여성 유명인 이름이 포함되어 있었다. 하지만 다른 사용자가 이미 같은 이미지를 게시했고 메타 안전 팀이 검토해 괴롭힘 방지 정책을 위반한다고 판단해 해당 이미지를 삭제했다. 이때 게시된 이미지는 인간 검토자가 정책 위반으로 판단한 이미지를 자동 감지해 삭제하는 자동 시행 시스템에도 등록되어 있었다.
AI 생성 이미지를 페이스북 그룹에 공유하려 했던 사용자는 자신의 게시물이 자동 삭제된 것에 이의를 제기했지만 신고가 다시 자동으로 닫혀 감독위원회에 제소했다.
감독위원회는 4월 30일까지 딥페이크 성인물이 미치는 피해 성격과 심각성 그 중에서도 여성 유명인에 미치는 영향, 미국과 인도에서 딥페이크 성인물 문제가 어느 정도 심각한지, 딥페이크 성인물에 대처하기 위한 가장 효과적인 정책과 이행 절차, 첫 번째 사례와 같이 자동 시스템에 의존하면 신고가 닫히는 문제점 등에 대해 의견을 듣고자 한다고 밝혔다. 이에 메타 측은 감독위원회 결정을 따르겠다고 답했다. 관련 내용은 이곳에서 확인할 수 있다.