대화하듯 문장을 입력하면 답을 들려주는 AI 채팅 서비스 기반은 사용자 문장을 구문 분석하고 정보를 번환하는 대규모 언어 모델 존재에 있지만 이는 보안에 심각한 위협을 초래할 위험성이 있다는 경고가 나온다.
앤트로픽(Anthropic)은 대규모 언어 모델과 사이버 범죄 관련성을 조사한 최신 연구 결과를 발표했다. 이제 AI 알고리즘을 이용한 프로그래밍도 활발해지고 있다. 하지만 이 기반이 되는 대규모 언어 모델을 잠시 동안 무해하게 보이다가 특정 시기 악질 코드를 실행시키도록 프로그래밍하는 게 가능하다는 것. 이는 심각한 결과를 가져올 것으로 우려되고 있다.
예를 들면 언뜻 보면 무해한 대규모 언어 모델을 이용한 서비스를 1년간 계속 제공한다. 그런데 처음부터 이 서비스에는 1년 뒤 악질적 코드를 실행시키는 잠복 공작이 이뤄질 수 있다. 이 프로그램에 의해 안전하므로 문제가 없으면 일정 기간에 걸쳐 도입되고 있던 복수 거점에 어느 시기부터 일제히 사이버 공격이 이뤄져 버린다는 시나리오가 상정되고 있다.
그런데 이 시나이로나 조사 보고서를 발표한 앤트로픽이지만 실은 프론티어모델포럼(Frontier Model Forum)이라는 AI 개발 기업으로 이뤄지는 컨소시엄을 만들었다. 스스로 AI 채팅봇인 클로드(Claude)를 개발하고 있으며 아마존이나 구글이 지원하고 있다. 다시 말해 전혀 오픈소스가 아닌 독자 개발 대규모 언어 모델에 관여하고 있다는 것이다.
앤트로픽은 오픈소스로 대규모 언어 모델 개발이 진행되면서 안전하지 않은 잠복 공작이 이뤄지는 알고리즘 존재를 경고했다. 요점은 자사의 폐쇄된 개발 환경 대규모 언어 모델 쪽이 신뢰할 수 있어 안심과 선전하기 위한 조사 결과가 아니냐는 우려의 목소리도 나오고 있다. 돈을 지불하고 오픈소스가 아닌 기업이 개발한 대규모 언어 모델을 채택하는 게 좋다는 메시지로 비판받을 수도 있다. AI 채팅 서비스는 점차 진화하고 있다. 하지만 이면에는 발전 속도가 멈추지 않으면서 보안 면에서의 과제도 늘어나고 있다고 할 수 있다. 관련 내용은 이곳에서 확인할 수 있다.