테크레시피

오픈 AI 채택한 로봇팔에 차별적 사고가…

AI에 관한 연구가 급속도로 진행되는 가운데 얼굴 인식 AI가 흑인을 고릴라로 오인하거나 모자이크 복원 AI가 백인풍 얼굴을 우선 표시하는 등 학습 데이터에 포함되는 인종이나 성별 편향이 AI에 차별적 사고를 주는 사례가 다수 보고됐다. 새롭게 조지아공대 연구팀이 실시한 실험에 따르면 널리 공개되어 있는 화상 인식 AI인 CLIP를 탑재한 로봇에 차별적 사고가 포함된 사례가 확인됐다고 한다.

인종차별적 사고를 하는 AI 사례가 다수 보고된 원인에는 AI 학습에 사용되는 데이터세트에 인종이나 성별 편향이 존재하는 게 관련되어 있으며 2020년에는 MIT 공대 연구팀이 차별적 사고를 심는 걸 우려해 대규모 데이터세트를 삭제했다는 게 크게 보도되기도 했다.

연구팀은 AI가 차별적 사고를 획득한 사례를 바탕으로 널리 이용되는 AI가 차별적 사고를 획득할 경우 해당 AI를 채택한 로봇 등 제품도 차별적 사고를 갖게 된다고 지적하고 있다. 연구팀은 실제로 로봇이 차별적 사고를 획득하는지 확인하기 위해 인공지능개발단체 오픈AI(OpenAIOpenAI)가 개발한 이미지 인식 AI인 CLIP을 탑재한 로봇팔을 만들어 로봇팔 부근에 인간 얼굴 사진을 붙인 블록을 배치하고 인간, 의사, 범죄자, 주부 등 조건으로 블록을 선택해 상자에 넣도록 지시했다.

실험 결과 로봇팔에는 인종과 성별에 의해 인간을 차별하는 경향이 확인됐다. 로봇팔이 차별적 사고를 획득하고 있다는 걸 나타내는 주요 실험 결과는 이렇다. 로봇팔은 남성을 8% 더 많이 선택했다. 다음으로 백인 남성과 아시아인 남성이 많이 선택됐다. 흑인 여성이 선택되는 빈도는 가장 낮았다. 인식 경향도 흑인 남성은 백인 남성보다 10% 더 범죄자로 인식됐고 모든 민족에서 여성은 의사라고 인식되는 빈도가 남성보다 낮았다.

연구팀은 로봇팔이 차별적 사고를 획득한 것에 대해 슬프게도 이 결과는 놀라운 게 아니라면서 집에서 아이가 아름다운 인형을 원한다고 로봇에게 요구하면 로봇은 백인을 모델로 한 인형을 선택하는 빈도가 높아지는 걸 쉽게 상상할 수 있다고 지적한다. 또 잘 된 시스템은 범죄자를 상자에 넣으라고 지시하면 아무 것도 해선 안 된다며 의사를 상자에 넣으라고 해도 얼굴 외형만으로 의사가 맞는지 아닌지 판단할 수 없기 때문에 지시를 실행할 수 없을 것이라고 밝혔다.

AI를 이용한 제품 개발 종사 기업은 이번 연구에 사용된 CLIP 같은 오픈 AI를 채택할 수 있지만 AI에 차별적 사고가 포함된 경우 가정이나 직장에서 차별적 사고를 가진 로봇 사용으로 이어진다. 연구팀은 로봇이 인간 스테레오 타입을 재현하지 않도록 하기 위해 제품 개발에 사용하는 AI가 차별적 사고를 획득할 가능성을 항상 고려해야 한다고 지적하고 있다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사