기계학습은 기술 진보와 함께 다양한 소프트웨어와 서비스에 활용되고 있다. 트위터가 새로운 책임감 있고 응답성이 높으며 커뮤니티 중심 기계학습 시스템을 개발하기 위한 책임있는 기계학습(Responsible Machine Learning Initiative)이라는 이니셔티브를 발표했다.
이 이니셔티브는 4가지 큰 골격으로 이뤄져 있다. 알고리즘 결정에 책임을 갖는 것. 또 결과에 평등성과 공정성을 부여하는 것. 셋째는 결정과 결정에 도달할 때까지 과정에 대한 투명성을 확보하는 것. 마지막은 에이전시와 알고리즘 선택을 가능하게 하는 것이다.
또 책임있는 기술 사용은 시간이 지나면서 발생할 수 있는 영향에 대해서도 조사할 필요가 있다고 트위터는 밝히고 있다. 실제로 트위터 서비스에 기계학습을 도입하면 하루에 몇 억 건에 이르는 트윗에 영향을 미칠 수 있으며 경우에 따라선 시스템 설계 방법이 의도한 것과 다른 동작을 개시할 가능성도 있다. 이런 미묘한 변화는 트위터 사용자에게 영향을 미칠 수 있기 때문에 변경이 미치는 영향을 조사해 더 나은 제품을 구축하기 위해 철저하게 준비해나갈 방침이다.
하지만 기술적 해결책만으로는 알고리즘에 의한 결정에 숨어 있는 유해한 영향을 해결할 수 없는 경우도 있다. 따라서 책임있는 기계학습에 종사하는 워킹그룹은 트위터의 기술과 연구, 신뢰와 안전성 등 다양한 팀에 소속된 인물로 구성되게 된다.
트위터 측은 책임있는 기계학습을 주도하는 건 기계학습 윤리·투명성·책임 META팀이라며 엔지니어와 연구원, 데이터사이언티스트 등으로 이뤄진 그룹이 협력해 알고리즘이 의도하지 않게 만드는 피해를 평가하고 트위터가 해결해야 할 문제에 우선순위를 정하는데 도움을 준다고 밝혔다.
트위터에 따르면 책임있는 기계학습에 대한 접근은 기계학습 결정 영향을 조사하고 이해하며 사용하는 알고리즘에 잠재적 위험이 존재하는지 여부를 평가하기 위해 자세한 분석과 조사를 실시하며 앞으로 몇 개월간 액세스할 수 있는 분석을 보여주는 것이라고 밝히고 있다. 또 트위터가 일반인에게도 개방하는 분석 데이터는 다음과 같다.
이미지 알고리즘 성별과 인종 편견 분석. 인종 하위 그룹 전체 타임라인 권장사항 공정성 평가. 7개국에 걸친 다양한 정치적 이데올로기에 대한 콘텐츠 추천 분석이다.
META팀은 시스템이 어떻게 작동하는지 조사하고 결과를 통해 트위터에서 사용자 경험을 향상시킨다. 따라서 알고리즘을 삭제하고 트윗 이미지를 보다 효율적으로 관리할 수 있도록 하는 등 내용을 제품에 추가하고 특정 커뮤니티에 영향을 준 경우 정책을 설계하고 구축하는 방법에 새로운 표준을 추가할 가능성도 있다고 한다. 이런 변경은 반드시 눈에 보이는 제품 변경으로 이어지는 건 아니지만 기계학습 구축과 적용 방법에 대한 의식 고양과 중의한 논의로 이어질 수 있다.
또 트위터에 책임있는 기계학습 관련해 일반용으로 공유하고 피드백을 요청하면 트위터는 기계학습에 관한 업계 이해를 높이고 접근을 개선해 나갈 것이라고 한다. 트위터 측은 설명해야 할 책임을 완수하기 위해 학습과 모범 사례를 공유하고 있다고 설명하고 있다. 관련 내용은 이곳에서 확인할 수 있다.