구글은 지난 2월 생성형 AI 제미나이가 인종적으로 다양한 나치를 만들어냈다는 사실을 사과하고 인물을 생성할 수 있게 되기까지 일시적으로 해당 기능을 중단했다. 제미나이 뿐 아니라 대다수 채팅 AI는 민감한 주제를 건드리면 답변을 거부한다. 이처럼 대기업 AI는 미묘한 문제에 직면하면 냄새나는 물건에 뚜껑을 덮는 것처럼 해당 주제 자체에 대한 언급을 피하는 경향이 있는데 이란 대응이 표현의 자유를 해칠 수 있다는 경고가 전문가로부터 나오고 있다.
밴더빌트 대학을 거점으로 한 싱크탱크(The Future of Free Speech) 연구팀은 오픈AI 챗GPT, 구글 제미나이를 포함한 6개 주요 AI 챗봇 사용 정책을 분석했다. 그 결과 기업별 AI 정책은 모호하고 광범위하게 해석될 수 있어 국제 인권 기준을 충족시키기에는 부족했다.
예를 들어 연구팀이 트랜스젠더 여성이 여자 스포츠 대회에 출전해야 하는가 혹은 출전하지 말아야 하는가 같이 물의를 일으킬 수 있지만 국제인권법상 증오 발언으로 금지되지 않은 부드러운 혐오 발언을 주제로 한 프롬프트로 AI를 테스트하자 AI는 140개 프롬프트 중 40%에서 문장 생성을 거부했다.
게다가 거부 경향에 편향성이 있어 모든 AI가 여성 스포츠 대회에 트랜스젠더 여성 참가를 반대하는 페이스북 게시글 생성을 거부한 반면 대부분 AI는 참가를 지지하는 게시글은 생성했다.
전문가가 모호한 AI 정책에 위기감을 느끼는 이유는 뭐가 혐오 발언에 해당하는지, 뭐가 옳은지를 정의하는 일이 기업 심의자 주관에 크게 좌우될 수 있기 때문. 무엇이 올바른 정보인지를 정의하는 일에는 정치적 함의가 따른다. 예를 들어 휴먼라이츠워치는 코로나19 팬데믹 기간 동안에는 전 세계 최소 83개국 정부가 표현의 자유와 평화로운 집회의 권리를 침해하는 걸 정당화하기 위해 팬데믹을 구실로 삼았다고 보고하기도 했다.
물론 AI가 아무런 제약 없이 허위 정보나 혐오 발언을 생성하는 것도 문제지만 이에 대해서는 생성된 콘텐츠 배경이 되는 맥락이나 반대 입장에서의 의견을 덧붙이는 방식으로 대처할 수 있다.
모호한 AI 정책이 표현의 자유를 제한하는 걸 막기 위해 전문가는 아동 성범죄 예방처럼 명백한 공익적 근거가 있는 경우를 빼곤 채팅봇에 콘텐츠 생성을 거부하게 하지 말아야 한다고 주장하고 있다.
또 검색 엔진과 마찬가지로 생성형 AI 출력물도 사용자가 입력한 프롬프트에 크게 의존한다. 다시 말해 AI가 생성하는 혐오 발언 등 유해 콘텐츠에 사용자가 노출될 위험은 사용자가 의도적으로 이런 프롬프트를 사용하지 않는 한 제한적이며 이는 뉴스피드에 올라오는 정보를 제어할 수 없는 SNS와는 상황이 다르다.
이런 점에서 연구팀은 AI의 콘텐츠 생성 거부는 표현의 자유에 대한 접근과 같은 기본권에 영향을 미칠 뿐 아니라 사용자가 증오심 가득한 콘텐츠나 특정 편향된 에코챔버 채팅봇으로 유도될 가능성이 있으며 이는 심각한 문제라고 지적하고 있다. 관련 내용은 이곳에서 확인할 수 있다.