애플은 사용자가 아이클라우드에 저장된 사진을 스캔해 성적 아동 학대 콘텐츠 CSAM이 포함되어 있는지 여부를 감지하겠다는 계획을 발표했지만 이에 반대하는 목소리가 높았다. 애플이 이에 이 CSAM 검출 시스템 도입 계획을 파기했다는 보도가 나왔다.
지난 8월 애플은 아이클라우드 사진에 저장된 CSAM 감지 시스템을 미래에 도입하겠다고 밝힌 바 있다. CSAM 탐지 시스템은 알려진 CSAM 데이터베이스에 등록된 이미지 해시와 아이클라우드 사진 이미지 해시를 확인하는 것으로 사용자 프라이버시를 손상시키지 않고 CSAM 유무를 확인할 수 있다고 밝혔다. 하지만 이 방법은 완전한 게 아니라는 걸 보여줬고 전자프론티어재단을 비롯해 인권단체, 정치가, 애플 직원 등으로부터 비판을 받았다.
애플은 당초 2021년 말까지 iOS 15, 아이패드OS15에 CSAM 검출 시스템을 구현한다고 말했지만 비판적인 반응에 따라 고객, 옹호단체, 연구자 등으로부터 피드백을 바탕으로 구현을 연기하겠다고 발표했다.
이 연기 발표 1년 이후 애플은 CSAM 검출 시스템에 대해 밝힌 적이 없지만 보도를 통해 2021년 제안한 아동 보호에 관한 대처에 대해 전문가와 폭넓게 협의해 피드백을 모았고 결과적으로 2021년 12월 처음 제공한 커뮤니케이션 안전 기능에 대한 투자를 심화시키게 됐다고 한다.
애플은 정부, 아동 옹호 단체, 기타 기업과 협력하고 청소년을 보호하고 개인정보보호를 만족하고 아이와 모두에게 인터넷을 더 안전한 장소로 만드는데 도움을 계속해갈 것이라고 밝히고 있다. 관련 내용은 이곳에서 확인할 수 있다.