테크레시피

마스토돈에 넘쳐나고 있는 것들

스탠포드대 연구소 조사에 따르면 분산형 SNS인 마스토돈(Mastodon) 상위 인스턴스에서 아동 성적 학대 콘텐츠 CSAM이 횡행하고 있다는 게 밝혀졌다. 조사 시작 후 5분 만에 첫 CSAM이 검출됐고 알려진 112건을 포함한 SCAM 600건 이상을 검출했다. 이 모든 CSAM은 구글 세이프서치를 통해 높은 신뢰도로 분명한 CSAM으로 식별됐다.

연구팀은 마스토돈에서 실시한 이틀간 조사에서 얻은 포토DNA 히트 수는 지금까지 해온 모든 종류 소셜미디어 분석에서 얻은 것보다 많았고 과거와 유사성이 별로 없다는 걸 밝혔다. 연구팀은 중앙집권적 SNS에서 아동 안전에 대한 우려에 대처하기 위한 도구가 부족한 결과가 크다고 밝혔다.

덧붙여 지난 7월 초에는 인스턴스 중 하나(mastodon.xyz)가 투고된 CSAM 때문에 일시 정지에 몰린 사례가 있다. 이곳은 2017년 4월 1일 탄생한 인스턴스로 등록자 수 2만 4,000명 대부분은 2019년 이전에 등록한 사용자로 모더레이터는 봇이나 스팸 계정 대응에 고생했기 때문에 신규 등록은 오랫동안 정지되고 있었다.

2022년 11월 신규 등록을 재개하며 모더레이션 작업은 수 건에서 수십 건으로 증가하고 있었지만 여유 시간에 대응을 실시하고 있었기 때문에 보고 이후 대응까지 시간이 걸릴 수 있었다. 2023년 6월 호스팅 제공업체(Hetzner)로부터 부정 행위에 대한 대응 요구 이메일이 발송됐다. 이것 자체는 일반 절차로 문제가 된 콘텐츠는 AI 생성에 의한 성적인 맥락 아동 이미지였다. 문제가 된 계정을 삭제했지만 레지스트리가 빠르게 반응하고 있었기 때문에 대응할 때까지 24시간에 걸쳐 인스턴스는 중지되는 사태가 됐다는 것이다. 연구팀은 분산형 SNS는 포토DNA 통합, 사이버 팁라인 보고서 외에도 운영자를 위한 강력한 도구를 채택할 걸 제안하고 있다고 한다. 관련 내용은 이곳에서 확인할 수 있다.

정용환 기자

대기업을 다니다 기술에 눈을 떠 글쟁이로 전향한 빵덕후. 새로운 기술과 스타트업을 만나는 즐거움을 독자들과 함께 나누고 싶습니다.

뉴스레터 구독