페이스북 AI가 흑인 남성이 비춘 동영상에 영장류라는 라벨링을 하고 사용자에게 영장류 동영상을 더 시청하겠냐는 메시지를 표시했다는 보도가 나왔다. 지난 6월 게시된 동영상에선 경찰을 포함한 백인이 흑인과 마주서서 얘기를 하는 구도였다.
페이스북은 곧바로 AI에 의한 게시물 추천 기능을 비활성화하고 AI 행위가 오류라며 사과 성명을 발표했다. 자사는 AI를 개선해왔지만 아직도 완벽하지 않다며 당분간 해당 기능을 중단할 것이며 이런 일이 다시 일어나지 않도록 하기 위해 더 발전시킬 방법을 연구할 필요가 있다고 밝혔다. 또 이 같은 불쾌한 문구를 본 사용자에게 사과한다고 덧붙였다.
AI에 의한 얼굴 인식은 종종 유색인종에서 인식 정확도가 낮아지는 것으로 알려져 있다. 2015년에는 구글 AI가 흑인 사진 인식 중 고릴라라는 답을 했고 구글이 사과를 했다.
미국에선 지난 4월 미연방거래위원회 FTC가 인종과 성별 인식 정도에 치우치는 AI 도구가 신용카드 또는 고용, 거주용 대출 심사 등에 관한 의사 결정에 사용된다면 이는 비용보호법에 위반될 수 있다고 경고하고 있다. 관련 내용은 이곳에서 확인할 수 있다.