트위터(Twitter)가 자사 서비스 추천 알고리즘이 정치적으로 우파 성향 콘텐츠를 증폭시키는 경향이 있다는 자체 조사 결과를 공개했다. 이 조사는 알고리즘이 실제로 보수적인 내용을 담은 콘텐츠를 사용자 타임라인에 많이 보이는지 여부를 확인하지는 않는다. 하지만 조사된 7개국 중 6개국에서 전반적으로 우파 성향에 가까운 콘텐츠를 증폭하고 있다는 것.
구체적으론 영국, 미국, 캐나다, 프랑스, 독일, 스페인, 일본 등 7개국 알고리즘 타임라인이 선거에 당선된 의원 정치적 콘텐츠를 증폭하거나 일부 정치 단체만 더 증폭을 받고 있는지 2가지 사항에 대해 조사를 실시했다.
트위터 측 책임자는 이런 일이 있다는 건 알았지만 왜 그런지는 모르겠다면서 사용자 의도에 의한 면도 있고 플랫폼 측면도 있겠지만 원인을 알 수 없다면서도 다만 이 정보를 사람들에게 공유하는 게 중요하다고 생각한다고 밝혔다.
트위터 홈피드는 알고리즘 하나로 이뤄져 있는 게 아니며 개인이나 그룹이 어떻게 트위터를 이용해 사람들의 트위터 이용에 어떤 영향을 일으킬지 모델링할 수 없다면서 함께 작동하는 트위터 시스템 수준의 복잡성을 강조하기도 했다.
알고리즘 설계가 편견을 낳는 성질을 갖고 있는 게 아니라면 우파에 가까운 그러니까 보수적인 콘텐츠가 확산되기 쉬운 건 일부 정치적으로 우측 성향인 사람이 자신의 주장을 온라인에서 확산하는데 능하고 이 주장에 대한 지지를 얻는데 성공하고 있는 것 등으로 추측할 수 있다.
편향 원인을 완전히 이해하려면 더 많은 연구가 필요하며 알고리즘 증폭은 기본적으로 문제가 되지 않는다는 설명이다. 연구팀은 조사 결과가 알고리즘에 의한 개인화가 주로 정치적 발언보다 극단적인 이데올로기 쪽을 증폭한다는 생각은 지지하지 않는다고 지적하고 있다.
이번 연구 결과는 SNS 등 플랫폼 기업이 자사 알고리즘이 의도하지 않은 영향을 미친다는 생각을 어떻게 연구하고 있는지 나타낸다는 점에서 흥미롭다. 페이스북은 알고리즘에 관한 사내 연구 결과를 공개해야 한다는 비판을 받고 있으며 내부 고발자는 사용자 기본 타임라인 표시를 단순한 시계열에 부합하지 않는다고 지적하지만 페이스북은 알고리즘을 옹호하는 자세를 보이고 있다.
트위터는 지금까지도 타임라인에서 이미지 자르기를 하는 알고리즘에 대한 보상 프로그램을 실시하고 플랫폼 전체에서 편향을 찾는 등 중립적 입장을 유지하려 하고 있다. 관련 내용은 이곳에서 확인할 수 있다.