페이스북이 2월 11일(현지시간) 2020년 4분기 커뮤니티 규정 시행 보고서를 발표했다. 이에 따르면 4분기에는 회사 정책을 위반한 게시물을 3분기보다 2배 가까이 제거했다고 한다.
페이스북은 기존에는 사람이 중재자로 나서 왕따나 괴롭힘 등 증오 콘텐츠에 대응하고 있었다. 하지만 코로나19로 인해 담당자가 출근하지 않고 다수가 계약직이었기 때문에 가정에서 작업도 할 수 없는 상태가 됐다. 이 때문에 AI에 의한 자동화 비율이 증가하고 있는데 이런 AI가 똑똑해지면서 효과적으로 이런 위반 내용을 검색할 수 있게 됐다고 한다.
구체적인 수치로는 왕따와 괴롭힘을 포함한 콘텐츠는 3분기 350만 건에서 630만 건으로 증가했다. 마찬가지로 인스타그램에서도 260만 건에서 500만 건으로 증가했다. 또 사용자 보고 전에 적극적으로 이런 콘텐츠를 감지한 비율은 26%에서 49%로 증가했다. 삭제된 악성 표면도 페이스북에서 2,210만 건에서 2,690만 건, 인스타그램에선 650만 건에서 660만 건으로 소폭 증가했다.
이런 표현을 한 문장이 그냥 농담일 수도 있다면 이를 AI가 판단하는 것도 과제일 수 있다. 페이스북은 2020년 이 문제에 임했고 보고서에 이 같은 성과를 냈다고 어필하고 있다. 또 AI 기술 발전으로 앞으로도 새로운 개선이 이뤄질 전망이다.
하지만 이런 노력이 결실을 맺기까지 아직 시간이 걸린다. 페이스북은 백신이 널리 이용 가능해질 때까지 내용을 검토하는 능력은 코로나19 영향을 받을 것으로 예상된다며 자살이나 자해 등 가장 유해한 콘텐츠를 우선 대응해나갈 것이라고 밝혔다. 관련 내용은 이곳에서 확인할 수 있다.