인스타그램이 메시지에 누드 사진 가능성이 있는 이미지가 첨부되어 있는지 확인하는 기능을 테스트 중이라고 한다. 이로 인해 전라 사진을 보내는 불쾌한 괴롭힘에 대한 보호 기능이 실현될 수 있을 것이라고 한다.
앱 개발자 알레산드로 팔루치(Alessandro Paluzzi)는 트위터를 통해 누드 보호(Nudity protection) 기능에 대해 설명하는 인스타그램 앱 화면과 흐릿한 스크린샷을 공개했다. 그가 올린 이미지에 따르면 이 기능은 단말 기술로 채팅에 포함된 이미지가 누드 사진인지 여부를 확인하고 누드 사진 가능성이 있다면 흐리게 모자이크 등으로 보이지 않게 하는 기능이다. 이 기술은 AI를 이용해 누드를 감지하는 iOS 기능을 의미한다.
이미지 검사가 iOS 기능으로 이뤄지기 때문에 인스타그램은 사진에 액세스하지 않는다고 강조한다. 또 이 기능은 설정에서 언제든 켜고 끌 수 있으며 사용자가 켠 상태에서도 사진을 보거나 볼지 여부를 선택할 수 있다. 인스타그램을 운영 중인 메타는 이번 유출 이미지는 개발 중인 기능이라는 점을 인정했다. 메타에 따르면 이 기능은 아직 개발 초기 단계지만 실현된다면 누드 사진 등 불쾌한 콘텐츠를 포함한 다이렉트 메시지를 자동 필터링할 수 있게 된다고 한다.
메타 측은 개발 중인 새로운 기능에 대해 전문가와 밀접하게 협력해 이런 새로운 기능으로 프라이버시를 보호하면서 사용자가 받은 메시지를 통제할 수 있도록 하는 걸 목표로 하고 있다고 밝혔다.
인스타그램 내 기존 괴롭힘 대책에선 여성 유명인에게 전송되는 악의적 이미지 90%에 대응할 수 없고 욕도 완전히 제거할 수 없다고 한다. 또 35세 미만 여성 33%가 온라인으로 성희롱을 받은 적이 있다는 조사 결과도 있다. 이 때문에 불쾌한 화상 등에 의한 괴롭힘을 미연에 막는 새로운 기능 실현이 요구되고 있다. 관련 내용은 이곳에서 확인할 수 있다.