최근 AI 기술 발달로 누구나 원하는 이미지를 생성할 수 있게 됐지만 한편으로는 딥페이크 성인물 등 문제가 되는 성적 콘텐츠가 AI로 쉽게 제작될 수 있게 된 게 문제시되고 있다.
이에 미국 바이든 정부는 결제 플랫폼과 금융기관에 미성년자 노출 이미지 확산 사이트에 대한 결제 서비스 제한을 요구하고 클라우드 서비스 제공업체와 모바일 앱 스토어에는 동의 없는 성적 이미지 생성/변형 서비스 제한을 촉구했다. 또 앱 개발사에는 동의 없는 이미지 생성 방지 요건을 마련할 것을 제안하고 모바일 OS 개발사에는 기기 내 콘텐츠 보호와 비동의 이미지 공유 방지 기술 도입을 요청했다.
Today, GPC and @WHOSTP issued a call to action to industry to combat image-based sexual abuse and work to prevent this pervasive problem and its devastating harms. Learn more here:https://t.co/kgNyjxpSrY
— White House Gender Policy Council (@WhiteHouseGPC) May 24, 2024
아울러 플랫폼 운영자에게는 피해자가 해당 콘텐츠를 쉽고 안전하게 삭제할 수 있는 체계를 만들고 피해자 구제 서비스를 지원할 것을 요구했다. 연방 의회에는 피해자 법적 보호 강화와 중요 자원 제공을 촉구했다. 백악관 과기정책국장은 생성형 AI기 등장하면 누가 첫 피해를 입을지에 대한 답을 얻었다고 생각한다고 밝혔다. 관련 내용은 이곳에서 확인할 수 있다.