세계에서 처음으로 인공지능으로 만든 합성 음성에 의한 사기 피해가 발생해다고 한다. 사기 피해를 당한 기업의 피해액은 2억 5,000만원대에 달한다.
피해를 당한 기업의 보험 회사인 율러허미스에 따르면 해당 기업 관리자가 오후에 상사로부터 전화 1통을 받았다고 한다. 상사의 목소리는 지급 지연에 따른 추가 비용을 지불해야 하니 헝가리 은행 계좌로 송금을 하라고 했다. 또 전화를 하면서 이메일로 명세서를 보내라고 지시한 것. 이는 사실은 상사의 목소리를 모방한 합성 음성이지만 합성 음성은 음색만 같은 게 아니라 어조와 단어 구분 방법, 심지어 독일 사투리까지 재현되어 있었다고 한다.
첫 번째 송금을 마친 뒤 같은 상사의 목소리가 다시 전화를 걸어왔다. 매니저는 이를 의심스럽게 생각했고 상사에게 다시 전화를 했다. 율러허미스에 이 매니저가 밝힌 바에 따르면 진짜 상사와 대화를 하는 도중에도 합성음성이 자신에게 계속 말을 걸었다고 한다.
최근에는 진짜 사람과 똑같이 영상이나 음성을 합성하는 AI 기술이 고도로 발달되고 있다. 2017년에는 유명 여배우 얼굴을 성인물 영상과 합성한 게 화제가 되기도 했다. 지난 9월 중국에선 얼굴 사진 1장이면 손쉽게 딥페이크 영상을 만들어주는 앱인 자오(ZAO)가 등장해 인기를 모았다. 물론 동시에 우려도 지적되고 있다.
그 뿐 아니라 거짓 뉴스 영상이 무한대로 만들어질 수 있어 가짜 뉴스가 확산되고 진실과 거짓을 구별하기 어려워질 위험성에 대한 지적도 나온다. 인터넷에서 사진이나 영상이 확산되면 기술적으로 가짜 뉴스를 감지할 수 있더라도 확산 자체를 막기는 어려워진다는 것도 문제다. 관련 내용은 이곳에서 확인할 수 있다.