테크레시피

페이스북, AI 성희롱 콘텐츠 검출율 높였다

페이스북이 2월 11일(현지시간) 2020년 4분기 커뮤니티 규정 시행 보고서를 발표했다. 이에 따르면 4분기에는 회사 정책을 위반한 게시물을 3분기보다 2배 가까이 제거했다고 한다.

페이스북은 기존에는 사람이 중재자로 나서 왕따나 괴롭힘 등 증오 콘텐츠에 대응하고 있었다. 하지만 코로나19로 인해 담당자가 출근하지 않고 다수가 계약직이었기 때문에 가정에서 작업도 할 수 없는 상태가 됐다. 이 때문에 AI에 의한 자동화 비율이 증가하고 있는데 이런 AI가 똑똑해지면서 효과적으로 이런 위반 내용을 검색할 수 있게 됐다고 한다.

구체적인 수치로는 왕따와 괴롭힘을 포함한 콘텐츠는 3분기 350만 건에서 630만 건으로 증가했다. 마찬가지로 인스타그램에서도 260만 건에서 500만 건으로 증가했다. 또 사용자 보고 전에 적극적으로 이런 콘텐츠를 감지한 비율은 26%에서 49%로 증가했다. 삭제된 악성 표면도 페이스북에서 2,210만 건에서 2,690만 건, 인스타그램에선 650만 건에서 660만 건으로 소폭 증가했다.

이런 표현을 한 문장이 그냥 농담일 수도 있다면 이를 AI가 판단하는 것도 과제일 수 있다. 페이스북은 2020년 이 문제에 임했고 보고서에 이 같은 성과를 냈다고 어필하고 있다. 또 AI 기술 발전으로 앞으로도 새로운 개선이 이뤄질 전망이다.

하지만 이런 노력이 결실을 맺기까지 아직 시간이 걸린다. 페이스북은 백신이 널리 이용 가능해질 때까지 내용을 검토하는 능력은 코로나19 영향을 받을 것으로 예상된다며 자살이나 자해 등 가장 유해한 콘텐츠를 우선 대응해나갈 것이라고 밝혔다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사