유럽 형사 경찰 기구인 유로폴(Europol)이 최근 대규모 언어 모델(Large Language Model, LLM)인 챗GPT 같은 AI 챗봇이 범죄에 악용될 가능성이 높다는 내용을 담은 보고서를 발표했다. 챗GPT는 대화형 언어 모델링 기술로 대화를 주고받는 과정에서 사용자 언어를 학습하고 이를 바탕으로 자연스러운 대화를 제공한다. 하지만 이 기술은 범죄자가 범죄 행위를 계획하고 수행하는 데 사용될 수 있다. 유로폴은 이에 대해 챗GPT에 대한 보안성을 강화하고 범죄 예방에 활용할 방안을 모색해야 한다고 강조했다.
언어 처리 모델 개발이 진행되면서 고성능 모델로 만든 대화형 AI가 최근 쏟아지고 있다. 이런 AI는 지금까지 인간이 시간과 노력을 들여 해내던 일을 간단하게 처리할 수 있지만 악용되는 사례도 확인되기 시작하고 있다.
유로폴 전문가에 따르면 범죄자가 언어 모델을 이용해 얻을 이익은 많지만 그 중에서 활용하기 쉬운 범죄는 사기나 스팸, 사이버 범죄 등이라고 한다. 챗GPT 같은 AI는 인간과 다르지 않은 수준으로 현실적 문장을 만들 수 있기 때문에 피싱 사기 같은 문장을 만드는데 적합할 수 있다. 지금까지 피싱 사기 메일 중에는 문법 실수나 오탈자가 많았기 때문에 어느 정도 구별이 가능했지만 앞으로 더 자연스러운 사기성 이메일이 증가할 수 있다.
오픈AI가 실시한 실험에 따르면 챗GPT에도 사용되는 모델인 GPT-4는 인간인지 여부를 판단해 봇을 막는 검증 시스템인 캡차(CAPTCHA)를 돌파하기도 했다. 이런 능력을 응용해 진짜 같은 메시지를 만들어 인간을 속이는 범죄가 나타날 수 있다.
챗GPT는 현실적 문장을 빠르고 대규모로 작성하는 게 가능해 특정 시나리오를 반영한 메시지를 비교적 적은 노력으로 작성, 확산할 수 있어 프로파간다나 가짜 정보 발신에도 적합할 수 있다.
챗GPT를 소셜미디어에 활용해 특정 누군가를 칭찬하는 의견을 대량 제작하고 특정 상품을 홍보하고 투자를 촉구하거나 헤이트 스피치나 테러리즘 콘텐츠를 넓힐 수도 있다. 이런 영향력을 막기 위해 오픈AI는 방지할 규제 방법을 검토하고 있다.
챗GPT는 인간과 같은 언어를 생성할 뿐 아니라 다른 프로그래밍 언어 코드를 생성하는 것도 가능하다. 따라서 기술적 지식이 없는 범죄자에게 챗GPT는 악성코드를 작성하는 귀중한 자원이 될 수 있다.
지식이 없는 사람이 처음부터 코드를 작성하는 건 물론 지식이 있는 사람은 더 강화된 코드를 생성해 사이버 범죄를 가속할 수도 있다. 사이버 보안 기업인 체크포인트소프트웨어 보고에 따르면 이미 챗GPT가 악성코드를 생성하게 하는 서비스도 등장한 것으로 나타났다. 원래 챗GPT에는 악의적 코드나 유해 단어 등을 막는 기능이 갖춰져 있지만 이런 제한을 회피하는 방법도 잇달아 발견되고 있다.
이런 사태에 대응하기 위해 유로폴은 법 집행기관도 기술을 익혀야 한다고 말한다. 대규모 언어 모델 영향을 파악하는 건 물론 대규모 언어 모델에 의해 만들어진 콘텐츠 정확성을 평가하는 방법에 대해 훈련을 받거나 기술 부문 전문가와 제휴를 잘 취하는 방법도 배워야 한다는 지적이다. 유로폴은 기술이 진화하고 새로운 모델을 사용할 수 있게 되면서 법 집행기관은 이런 개발 최전선에 서서 악용을 예측, 방지하는 게 점점 중요해질 것이라고 밝히고 있다. 관련 내용은 이곳에서 확인할 수 있다.