최근 AI가 진보하면서 개인이라도 본인 음성 데이터를 학습시킨 AI로 목소리를 재현하는 게 용이해지고 있다. 미국 애리조나주에 거주하는 제니퍼 데스테파노라는 여성에게 걸려온 전화는 딸 목소리를 AI로 복제한 음성을 이용한 가짜 납치였다고 한다.
낯선 전화번호를 받은 그녀는 당초 자동응답기로 할 생각이었지만 당시 스키를 타러 나갔던 15세 딸 안부가 걱정되어 받았다고 한다. 그런데 전화를 걸자 엄마를 외치며 우는 딸 목소리가 들렸다. 그녀는 왜 그러냐고 물었고 딸은 엉망이 됐다며 울고 있었다. 딸 목소리를 듣고 혼란스러웠던 그녀는 이후 뒤로 내려서 누우라는 남성 목소리를 듣고 두려움을 빠졌다.
이 남성은 전화기 너머로 딸이 여기 있다면서 경찰을 부르면 딸에게 마약을 듬뿍 마시게 하고 멕시코로 보내겠다고 협박했다. 남성 뒤에선 딸이 도움을 요구하는 목소리가 울리고 있었다고 한다.
당초 남성은 100만 달러 몸값을 요구했지만 그녀는 그런 돈이 없다고 말하자 5만 달러까지 가격을 내렸다. 당시 그녀 주위에는 다른 엄마도 있었는데 둘은 각각 경찰, 남편에게 전화를 걸었다. 남성으로부터 전화가 오고 불과 4분 뒤 딸이 무사하다는 게 확인됐다. 딸은 자신의 방에 있는 것으로 확인된 것이다.
그녀는 전화기 너머 목소리는 완전히 딸 목소리였다고 말하지만 실제 전화 목소리는 클론 음성으로 추정된다. 이전에는 클론 음성을 만들려면 오리지널 음성 데이터가 대량으로 필요했지만 2023년 1월 마이크로소프트가 발표한 음성 합성 AI인 발리(VALL-E)에선 샘플 3초만으로 감정톤 등을 재현한 목소리를 합성할 수 있다.
FBI 측은 음성 합성 AI를 이용한 사기꾼은 트위터나 인스타그램 등 SNS에서 표적을 찾는 경우가 많다고 보고하고 있다. 또 이런 사기 피해를 당하지 않으려면 SNS 프로필과 게시물을 한정 공개하는 게 중요하다고 말한다. 또 전화번호가 익숙하지 않은 시외나 해외 전화는 받지 말라면서 도움을 구할 때에는 가족만의 비밀 암호를 사용하는 것도 추천하고 있다. 참고로 미국에선 AI 클론 음성을 사기에 이용하는 사건이 급증하고 있어 2022년 피해액은 미국만 따져도 1,100만 달러에 이른다고 한다. 관련 내용은 이곳에서 확인할 수 있다.