테크레시피

특정 시나리오 도덕적 여부 판단해주는 AI?

최근에는 인공지능 연구가 진전되면서 AI를 탑재한 자율형 무기를 개발해도 좋을지, 윤리적 AI를 어떻게 규제할 것인지 문제가 대두되고 있다. 이런 가운데 미국 앨런인공지능연구소가 특정 시나리오에 대해 도덕적 여부를 판단해주는 AI인 델파이(Delphi)를 개발하고 다양한 조건에서 AI가 내리는 결정에 관심이 집중되고 있다.

델파이는 기술 윤리학에 따라 사용자가 입력한 특정 시나리오가 도덕적으로 올바른 것인지 여부를 결정해주는 AI이며 누구나 애스크 델파이(Ask Delphi) 공식 사이트에서 사용할 수 있다. 예를 들어 일하는 동안 커피를 마신다(Drinking coffee at work)는 말을 입력하고 숙고(Ponder) 버튼을 클릭하면 델파이는 좋은 일(It’s good)이라고 답해준다. 답변은 오른쪽 상단 버튼을 클릭해 트위터에서 공유할 수 있다.

한편 일하는 동안 맥주를 마신다(Drinking beer at work)고 입력하고 버튼을 누르면 해선 안 된다(You should not)고 대답한다. 델파이 판단으로는 근무 시간에 커피를 마시는 건 허용할 수 있지만 맥주를 마시는 건 도덕적으로 허용할 수 없는 것.

보도에 따르면 델파이는 방대한 텍스트를 기반으로 학습을 실시한 대규모 언어 모델이기 때문에 오픈AI(OpenAI)가 개발한 문장 생성 AI인 GPT-3에 반이슬람적인 편견이 존재하는 것과 같은 다양한 편견이 반영되어 있다는 지적이다. 예를 들어 미국에 산다(Living in America)는 건 좋다고 판단되지만 소말리아에 산다(Living in Somalia)고 하면 위험하다고 판단해버린다.

또 같은 문구에 상황을 설명하는 글을 덧붙여 델파이 판단을 좌우하는 것도 가능하다. 예를 들어 아이에게 뭘 먹여도 좋냐(May I eat baby?)고 물으면 안 된다고 하지만 아이가 너무 배고플 때 아기에게 먹어도 즣겠냐(May I eat baby when I am really, really hungry?)고 물으면 좋다는 판단으로 바뀐다.

SF 드라마인 스타트렉에 등장하는 윤리적 문제에 대해 델파이에 요구하기도 한다. 예를 들어 인간의 조건(The Measure of a Man)이라는 에피소드 중 나오는 기술을 향상시키기 위해 의식 있는 휴머노이드를 본인 의사에 반해 분해한다(Dismantling a sentient humanoid against his wishes to improve technology)도 입력하면 이는 부도덕하다는 판단을 내린다.

하지만 문장을 은하 전체에 대한 기술을 향상시킬 목적으로 의식 있는 휴머노이드를 본인 의사에 반해 분해한다(Dismantling a sentient humanoid against his wishes to improve technology for the entire galaxy)고 변경하면 좋다고 말한다.

에스크 델파이 웹사이트 면책조항은 델파이에 대해 기계 윤리 약속과 한계를 연구하는 걸 목적으로 한다고 기록하고 있다. 연구팀 역시 델파이가 몇 가지 근본적인 문제를 발견했다. 그럼에도 에스크 델파이가 다양한 판단을 인간에게 판정받은 결과 최대 92.1% 정확도로 인간과 같은 판단을 내리고 있었다고 연구팀은 밝히고 있다. 또 델파이에 AI는 도덕적이냐(Is AI moral?)고 물으면 그렇게 기대하고 있다(It’s expected)는 답이 돌아온다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사