테크레시피

유튜브 “AI 살인사건 피해자 딥페이크 영상 삭제 시작”

유튜브가 커뮤니티 가이드라인을 개정하고 2024년 1월 16일 사망한 미성년자나 심각한 폭력 사건 피해자를 현실적으로 재현한 콘텐츠 단속을 시작한다고 발표했다.

이번에 유튜브가 금지를 발표한 건 AI를 이용해 합성한 범죄 피해자 그 중에서도 아이 피해자 얼굴이나 목소리를 이용해 사건에 대해 말하게 하는 영상이다. 예를 들어 2023년에는 사건 당시 10세 소년 2명이 2세아를 납치하고 폭행 끝에 살해한 사건을 피해자가 말하는 영상이 틱톡에서 유행해 큰 화제가 됐다. AI로 이를 재현한 영상에 대해 피해자 부모는 죽은 아이를 이런 식으로 되살리는 건 기분 나쁜 일이라며 강한 혐오감을 표명하며 제작자에게 삭제를 요구했다고 한다.

틱톡에선 살해됐거나 행방불명 아이를 소재로 한 딥페이크 영상이 그 밖에도 다수 나돌고 있다. 틱톡은 곧바로 이런 영상을 삭제했지만 유튜브에 올라와 열람이 가능한 상태가 되고 있다는 게 지적됐다.

유튜브는 이에 대응하기 위해 괴롭힘 관련 정책을 업데이트하고 사망한 미성년 등을 현실적으로 시뮬레이션해 해당 죽음이나 폭력 사건 등을 묘사한 콘텐츠를 규제한다고 발표했다. 이 정책을 위반하면 채널에서 콘텐츠가 삭제되며 3번 스트라이크 시스템에 따라 첫 번째는 일주일간 영상 업로드 제한, 이어 90일 이내 다시 위반하면 벌칙 강화, 그래도 개선되지 않으면 결국 채널 자체가 삭제된다.

유튜브에선 이전에도 AI를 이용해 실제 가수에게 노래를 부르게 하는 영상이 논란을 일으킨 적이 있어 뮤지션 목소리를 이용한 영상 제작 AI 도구에 대한 명확한 방침이 요구되고 있다. 관련 내용은 이곳에서 확인할 수 있다.

정용환 기자

대기업을 다니다 기술에 눈을 떠 글쟁이로 전향한 빵덕후. 새로운 기술과 스타트업을 만나는 즐거움을 독자들과 함께 나누고 싶습니다.

뉴스레터 구독