60% 이상이 인간 상사보다 AI를 더 신뢰한다고 답한 조사 결과가 있듯 사람들은 종종 인간의 말보다 AI 말에 귀를 기울이는 경향을 보인다. 인간이 설득하려고 하면 오히려 고집을 부리는 경우가 많은 음모론자의 잘못된 신념을 AI와의 대화로 장기적으로 개선할 수 있다는 논문이 발표됐다.
아메리칸 대학 심리학자인 토마스 코스텔로에 따르면 음모론 문제가 깊은 뿌리를 가진 배경에는 사람마다 믿고 있는 음모론 내용이 조금씩 다르다는 점이 있다고 한다.
그는 음모론은 매우 다양하다며 사람은 다양한 음모론을 믿고 있으며 어떤 음모론을 지지하기 위한 증거도 사람마다 다를 수 있다고 말한다. 다시 말해 음모론자 머릿속에는 다양한 버전 음모론이 있기 때문에 광범위한 음모론에 반박하려는 시도는 효과적인 논증이 되지 않는다고 말했다.
특정 음모론에 관한 지식은 음모론자 쪽이 더 깊기 때문에 어떤 연구에서는 음모론자가 인터넷 등에서 입수한 방대하고 잘못된 정보를 동원해 회의론자를 논파해 버리는 모습도 관찰됐다.
반면 방대한 데이터로 훈련된 챗봇은 지식량에서 음모론자에게 뒤지지 않으며 말을 쏟아내도 압도당하지 않는다.
AI가 음모론 해소에 더 적합하지 않을까라는 가설을 검증하기 위해 연구팀은 음모론자 2,190명을 대규모 언어 모델(LLM)인 GPT-4 터보와 대화시키는 실험을 진행했다.
이 실험에서 참가자는 자신이 믿고 있는 음모론을 AI에게 설명하고 그 증거를 제시한 뒤 음모론에 대해 AI와 토론했다. 또 토론 전후로 그 음모론을 얼마나 강하게 믿고 있는지에 대해 0~100 사이에서 답변했다.
실험 결과 AI와 대화한 참가자는 음모론에 관한 신념이 21.43% 감소했으며 참가자 27.4%가 대화 뒤 음모론에 확신을 가질 수 없게 됐다고 답변했다.
참가자의 음모론에 대한 신념을 대화 전후로 비교해보면 음모론과 무관한 잡담을 한 대조군 참가자와 비교해 AI와 음모론에 대해 이야기를 나눈 참가자는 확신도가 평균 16.8포인트 낮아졌으며 주요 음모론 12건 중 11건에서 유의한 감소가 확인됐다.
또 2개월 뒤 다시 참가자들에게 음모론에 대한 신념을 물었을 때 대부분이 AI와의 대화 직후와 마찬가지로 음모론에 대한 신념이 낮아진 상태를 유지하고 있었다고 한다.
한편 AI에는 사실과 다른 결과를 출력하는 환각이라는 문제가 있지만 연구팀이 GPT-4 터보 발언을 전문 팩트체커에게 검증하도록 요청한 결과 진실이 99.2%, 오해의 소지가 있음이 0.8%, 오류는 0%였다.
실험에 사용된 AI는 지금도 이용 가능하다. 연구팀이 논문을 발표한 과학지 사이언스 편집장인 홀든 소프는 이번 연구에 대해 다룬 논설에서 잘못된 정보 발신자는 압도적인 양의 잘못된 정보를 쏟아내는 개시 갤럽이라는 테크닉을 자주 사용하지만 아무리 대화에 능숙한 사람이라도 이에 효과적으로 대응할 수 있는 사람은 없다며 하지만 LLM은 상대방 말에 압도당하지 않고 반증을 무한히 생성할 수 있다며 인간보다 기계가 음모론자를 설득하는 데 더 능숙할 수 있다는 것에 실망할 수 있겠지만 최종적으로 설득력을 보여주는 건 과학적인 정보라는 사실에는 위안을 받을 수 있다고 밝혔다. 또 AI 미래가 그렇게 디스토피아적이지 않다는 걸 보여주는 건 인간 과학자의 일이 될 것이라고 언급했다. 관련 내용은 이곳에서 확인할 수 있다.