테크레시피

인스타그램, 누드 사진 필터링 기능 테스트중

인스타그램이 메시지에 누드 사진 가능성이 있는 이미지가 첨부되어 있는지 확인하는 기능을 테스트 중이라고 한다. 이로 인해 전라 사진을 보내는 불쾌한 괴롭힘에 대한 보호 기능이 실현될 수 있을 것이라고 한다.

앱 개발자 알레산드로 팔루치(Alessandro Paluzzi)는 트위터를 통해 누드 보호(Nudity protection) 기능에 대해 설명하는 인스타그램 앱 화면과 흐릿한 스크린샷을 공개했다. 그가 올린 이미지에 따르면 이 기능은 단말 기술로 채팅에 포함된 이미지가 누드 사진인지 여부를 확인하고 누드 사진 가능성이 있다면 흐리게 모자이크 등으로 보이지 않게 하는 기능이다. 이 기술은 AI를 이용해 누드를 감지하는 iOS 기능을 의미한다.

이미지 검사가 iOS 기능으로 이뤄지기 때문에 인스타그램은 사진에 액세스하지 않는다고 강조한다. 또 이 기능은 설정에서 언제든 켜고 끌 수 있으며 사용자가 켠 상태에서도 사진을 보거나 볼지 여부를 선택할 수 있다. 인스타그램을 운영 중인 메타는 이번 유출 이미지는 개발 중인 기능이라는 점을 인정했다. 메타에 따르면 이 기능은 아직 개발 초기 단계지만 실현된다면 누드 사진 등 불쾌한 콘텐츠를 포함한 다이렉트 메시지를 자동 필터링할 수 있게 된다고 한다.

메타 측은 개발 중인 새로운 기능에 대해 전문가와 밀접하게 협력해 이런 새로운 기능으로 프라이버시를 보호하면서 사용자가 받은 메시지를 통제할 수 있도록 하는 걸 목표로 하고 있다고 밝혔다.

인스타그램 내 기존 괴롭힘 대책에선 여성 유명인에게 전송되는 악의적 이미지 90%에 대응할 수 없고 욕도 완전히 제거할 수 없다고 한다. 또 35세 미만 여성 33%가 온라인으로 성희롱을 받은 적이 있다는 조사 결과도 있다. 이 때문에 불쾌한 화상 등에 의한 괴롭힘을 미연에 막는 새로운 기능 실현이 요구되고 있다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사