2024년 미국 대통령 선거는 챗GPT가 공개된 뒤 처음 치러진 미국 대선이다. 민주주의에서 허위 정보 확산과 극단주의 영향을 연구하는 싱크탱크 ISD(Institute for Strategic Dialogue)는 편향된 콘텐츠가 AI로 인해 급증하며 유권자가 AI가 무한히 생성하는 딥페이크에 지쳐 있다고 보고했다.
ISD에 따르면 2024년 8월 이후 선거와 관련된 AI에 관한 소셜 미디어 게시물은 110만 건에 달하며 이런 게시물 조회수는 엑스 플랫폼에서만 163억 회에 이르는 것으로 추산된다.
이런 온라인 논의는 콘텐츠 평가와 AI에 대한 오해, 유권자 혼란, 후보자가 직접 게시한 AI 생성 이미지 등 다양한 주제로 확산됐다.
AI 생성 콘텐츠 문제가 널리 알려졌음에도 불구하고 SNS 플랫폼은 AI 생성 콘텐츠에 대한 라벨링이나 삭제 조치를 제대로 시행하지 않았다. 그 결과 유권자는 온라인 콘텐츠가 진짜인지 판단하기 어려워졌으며 ISD 분석에 따르면 소셜 미디어 사용자는 콘텐츠 진위를 52% 확률로 부정확하게 평가하고 있다고 한다. 이는 절반 이상이 틀린 평가를 내린다는 뜻이다.
ISD는 인터넷 사용자는 실제 콘텐츠를 AI 생성물로 잘못 인식하는 경우가 더 많다고 지적했다. 그 중에서도 많은 유권자가 대선 후보나 지지자가 발신하는 모든 게 AI 생성물이라는 주장을 하거나 암시하고 있다고 ISD는 우려를 표했다. 선거와 관련해 AI에 대해 언급한 콘텐츠 중 45%가 이런 주장을 포함하고 있었으며 이는 유권자가 모든 정보에 대한 신뢰를 잃고 모든 게 AI라고 생각하게 되는 일명 거짓말쟁이의 혜택(liar’s dividend) 문제로 이어질 수 있다고 경고했다.
이 문제를 상징하는 게시물로 ISD는 이건 다 AI 헛소리라며 공화당, 민주당, 러시아 등 모든 당이 오늘날 자신들이 전파하고 싶은 환상을 쏟아 붓고 있다면사 솔직히 말해서 어디서 진실을 찾아야 할지 모르겠다. 이제 그만하고 싶다는 포스트를 예로 들었다.
AI 관련 의혹을 불러일으킨 주요 주체는 텍스트 생성 AI와 AI 음성 비서다. 예를 들어 메타 AI 비서가 도널드 트럼프 암살 미수 사건은 발생하지 않았다고 발언한 게 눈에 띈다. ISD는 이는 메타 AI 모델 훈련 데이터에 암살 미수 사건 관련 기사가 포함되지 않았기 때문일 가능성이 높다고 추측했지만 많은 유권자는 메타와 CEO 마크 저커버그가 AI를 사용해 선거 결과에 영향을 미치려 한다고 주장했다. 이와 유사하게 아마존 음성 비서가 카말라 해리스에게 투표해야 하는지에는 답했지만 트럼프 전 대통령에 대한 동일한 질문에는 답하지 않은 것도 논란이 됐다.
이런 조사 결과에 대해 ISD는 AI가 생성한 콘텐츠 급증으로 인해 정보 생태계가 근본적으로 오염됐고 유권자가 콘텐츠 진위를 구분하는 데 어려움을 겪고 있다며 이로 인한 정치적 논의에 대한 신뢰 저하는 선거 기간 동안 심각한 위험을 초래한다면서 미디어 리터러시 교육과 SNS 안전 대책이 개선되지 않는 한 신뢰성 위기는 선거뿐 아니라 민주주의적 논의의 미래에도 큰 위협이 될 것이라고 결론지었다. 관련 내용은 이곳에서 확인할 수 있다.