테크레시피

텔레그램 “올해 1550만개 그룹‧채널 콘텐츠 삭제”

메시징 앱 텔레그램에서는 지난 8월 CEO인 파벨 두로프가 텔레그램상 마약 밀매, 자금 세탁, 아동물 등 범죄 행위에 대한 공범 혐의로 체포되고 기소됐다. 이후 텔레그램에서는 유해 콘텐츠에 대한 대규모 단속을 실시하고 있으며 이런 단속 결과 현재 올해 중 1,550만 개 이상 그룹과 채널을 삭제했음을 보고하고 있다.

두로프에 따르면 텔레그램에서는 지난 수년간 모더레이션 팀이 유해 콘텐츠를 발신하는 그룹과 채널 삭제를 진행해 왔다고 한다. 텔레그램 모더레이션 팀은 사용자 신고 외에도 AI 도구와 자동 탐지 시스템을 사용하여 매월 100만 개 그룹과 채널을 삭제해 왔다고 한다. 하지만 이런 작업 대부분은 비밀리에 진행됐으며 언론은 오랫동안 업데이트되지 않은 웹사이트에서 얻은 오래된 정보를 보도해 왔다. 그 결과 많은 사용자가 텔레그램은 충분한 모더레이션을 하지 않고 있다며 텔레그램을 비판하는 상황에 빠졌다.

이에 텔레그램에서는 모더레이션 현황을 소개하는 공식 페이지를 만들고 있다. 텔레그램에서는 폭력 선동, 아동 학대 자료 공유, 불법 상품 거래 등 이용 약관을 위반하는 그룹과 채널을 매일 수만 건 차단하고 있다. 2015년 이후 모더레이션 팀에서는 사용자 신고와 기계 학습을 활용한 사전 예방적 모니터링을 실시하고 있으며 올초에는 최첨단 AI 모더레이션 도구를 도입했다. 2024년 중 차단한 그룹과 채널 총 수는 현재 1.557만 8.753건에 달한다.

또 텔레그램은 아동 성적 학대 자료(CSAM)에 대해 엄격한 정책을 도입하고 있으며 2018년 이후 텔레그램에 공유된 이미지는 지난 10년간 모더레이터에 의해 차단된 CSAM 해시 데이터베이스와 자동으로 대조된다. 2024년에는 인터넷 감시 재단 등 기관으로부터의 정보를 이용해 이 데이터베이스를 확장했다. 그 결과 2024년 중에는 70만 7576건의 CSAM 관련 그룹과 채널을 차단하는 데 성공했다.

더불어 2022년 이후 텔레그램은 글로벌 극단주의 이념 대응 센터 등의 기관과 협력해 폭력과 테러리즘에 관한 콘텐츠 삭제에 대한 노력을 강화하고 있다. 2024년 중 텔레그램은 13만 119건 테러리스트 관련 커뮤니티를 차단했다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사