구글 검색과 쇼핑, 데이터 분석, 사기 탐지까지 인공지능은 생활 다양한 장면에서 도움이 되고 있다. AI는 인간에 의해 설정한 데이터를 이용해 기계학습을 반복해 데이터 분석 정확도를 높여가고 있지만 기계학습에 사용하는 데이터가 부족하거나 데이터에 편견이 섞인 게 있으면 여러 번 학습해 편견을 심화되어 버리는 문제가 있다. 이 알고리즘 바이어스라는 편견에 대한 원인을 파악하고 문제를 개선하는 방법을 AI 연구기관 그래이디언연구소(Gradient Institute) 최고 경영자 빌 심프슨-영(Bill Simpson-Young) 등이 발표하고 있다.
이들이 알고리즘 편견 원인 중 하나로 꼽는 건 잘못된 시스템 설계다. 예를 들어 은행이 융자처를 결정할 때 사용하는 AI는 일반적으로 은행 이전 대출 결정 데이터세트를 이용해 학습을 실시한다. AI는 새로운 대출 신청자 재무로 경력과 고용 기록을 확인하고 과거 데이터와 대조해 신청자가 대출을 갚을 수 있는지 여부를 예측하려 한다. 하지만 과거 데이터에 은행 직원이 자신의 편견에 의해 대출 거부를 했다는 패턴이 포함된 경우 AI는 이를 편견에 의한 것으로 인식하지 못한 채 학습해버려 잘못된 결정을 내려 버릴지도 모른다. 여기서 말하는 편견은 연령과 성별, 인종 등을 말하며 지금은 거의 볼 수 없게 된 편견이 AI에 영향을 줄 우려마저 있는 것.
이런 알고리즘 편견은 은행에 큰 위험을 준다. 또 같은 AI에 의한 결정을 반복하며 편견 패턴이 정부와 소비자에게 노출되어 소송 등으로 이어질 위험도 있다. 빌 심프슨-영 등에 따르면 알고리즘 편견을 수정하는 방법은 5가지다.
첫째는 더 나은 데이터를 얻는 것. 지금까지 가져오지 않은 정보를 취득한다. 소수자 그룹과 부정확한 결과가 나타날 수 있는 집단 데이터를 새로 가져온다. 둘째는 데이터 집합 수정. 나이와 성별, 인종 등 차별로 간주되는 정보를 제거하거나 표시하지 않도록 한다.
셋째는 모델을 더 복잡하게 하는 것이다. 간단한 AI 모델은 분석과 결정을 쉽게 할 수 있지만 정확도가 낮고 소수보다 다수를 기준으로 해버릴 우려가 있다. 넷째는 시스템 변경. AI 시스템은 사전에 제어 패턴 등을 변경할 수 있다. 소수 그룹에 서로 다른 임계값을 설정해 알고리즘 편견을 무시하도록 조정할 수 있다. 마지막은 예측 모델 변경. 적절한 예측 모델을 설정하는 건 알고리즘 편견을 줄이는데 도움이 된다.
빌 심프슨-영 교수는 AI에 의한 의사 결정을 채용하려는 정부나 기업은 공정성과 인권 일반 원칙을 고려해야 한다며 알고리즘 바이어스에 의해 잘못된 결과가 발생하지 않도록 면밀히 시스템을 설계하고 모니터링할 필요가 있다고 주장하고 있다. AI에 의한 의사 결정이 일반적으로 되고 있는 지금 생산성을 향상시킬 뿐 아니라 더 공정 사회를 구축할 필요가 있다고 밝히고 있다. 관련 내용은 이곳에서 확인할 수 있다.