테크레시피

오픈AI, 선거 중 AI 악용 방지 시책 발표해

지난 1월 13일 실시된 대만 총통 선거에선 선거 몇 개월 전부터 AI를 악용해 생성된 가짜 정보가 확산됐다. 2024년은 대만 총통 선거 외에도 미국, 인도, 인도네시아, 러시아 등 전 세계 각국에서 선거가 실시되는 선거의 해가 될 예정이지만 AI를 악용한 부당한 선거 간섭이 우려되고 있다. 이런 가운데 채팅 AI인 챗GPT와 이미지 생성 AI인 달리 등을 개발하는 오픈AI가 선거에서 AI 악용을 막기 위한 대처를 발표했다.

먼저 부정 행위 방지. 채팅 AI를 악용하면 선거에 관한 오정보를 대량으로 그리고 빠르게 작성할 수 있다. 오픈AI는 챗GPT 악용을 방지하기 위해 챗GPT와 챗GPT API 사용 정책에 조항을 추가했다. 먼저 자사 도구가 개인화된 신조에 얼마나 효과가 있는지 확인 중이며 세부 사항이 명확해질 때까지 정치 운동이나 로비 활동 관련 응용 프로그램을 만드는 건 허용되지 않는다. 이어 사람들은 실재 인물이나 기업, 정부와 커뮤니케이션하며 신뢰감을 쌓으려 한다. 이 때문에 후보자 등 실재인이나 지방자치단체 등 실재 조직을 가장한 채팃봇 작성은 허가되지 않는다.

또 자사는 민주적 절차에 참여하는 걸 방해하는 응용 프로그램을 만들 수 없게 한다. 예를 들어 투표 일정이나 자격에 대한 가짜 정보를 전달하는 응용 프로그램이나 투표를 떠올리게 하는 응용 프로그램을 만들 수 없다.

오픈AI는 또 오리지널 채팅 AI를 만들 수 있는 서비스인 GPTs를 제공하고 있지만 GPTs에 사용자가 만든 폭력적 채팅 AI를 보고하는 기능을 추가하고 있다.

다음은 AI 생성 콘텐츠에 대한 투명성 확보. 오픈AI는 이미지 생성 AI인 달리에 대해 후보자를 포함한 실재 인물 이미지 생성을 막는 가드레일을 짜넣고 있는 걸 밝히고 있다. 또 달리로 생성한 이미지에 콘텐츠 인증 정보(Content Credentials)를 임베디드하는 기능을 올해 이른 시기 탑재하겠다고 발표했다. 또 이미지가 달리로 생성한 이미지인지 아닌지 여부를 판단하는 도구도 개발 중이며 해당 도구는 생성 이미지에 편집을 실시해도 유효하다. 챗GPT에서 생산된 문장에 대해서도 유권자가 정보를 적절하게 평가할 수 있도록 기존 출처에 액세스하거나 실시간 뉴스에 액세스할 수 있는 기능을 제공할 예정이다.

다음은 신뢰할 수 있는 투표 정보 접근. 미국에선 챗GPT에 투표 관련 질문을 하면 NASS(National Association of Secretaries of State)가 관리하는 선거 관련 사이트(CanIVote.org)로 유도하게 된다. 또 미국 외 국가나 지역에서도 같은 시책을 검토하고 있다.

참고로 채팅 AI인 바드 등을 내놓은 구글 역시 지난해 12월 선거에서 AI 사용에 관한 시책을 발표하고 있다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사