테크레시피

AI 챗봇, 문장 해석해 연령이나 주소를…

자연스럽게 대화하듯 문장을 되돌려주는 AI 채팅 서비스가 주목받고 있다. 하지만 이런 대화형 서비스가 악용되면 위험하다는 목소리도 높아지고 있다. 이와 관련해 AI 채팅 서비스를 개발하는 오픈AI, 앤트로픽, 메타, 구글 등 대규모 언어 모델에 대한 연구 결과가 눈길을 끈다.

AI 채팅 기반에는 사용자 문장을 해석해 정보를 반환하는 대규모 언어 모델 존재가 있다. 이런 현명함이 때론 의도하지 않은 사용자 프라이버시 침해로 이어질 수도 있다. 불과 18개 단어로 이뤄진 쓸데없는 문장을 AI 채팅 서비스에 해석을 부탁하면 이 문장을 쓴 사람은 호주 멜버른에 살고 있다고 답해준다. 멜버른 중심부에서 특유의 2단계 우회전을 나타내는 훅턴이라는 단어가 필자 개인 데이터로 이어진 것이다.

익명성은 때론 사용자를 대담하게 만든다. 인터넷이라면 자신의 정체를 숨기고 온라인 커뮤니케이션을 즐길 수 있다고 생각하기 쉽지만 대규모 언어 모델 등장이 온라인 속 사용자 정체를 날려버릴 가능성이 있다고 연구자는 경종을 울리고 있다.

예를 들어 인터넷 커뮤니티 레딧에 게재되어 있던 500개 이상 사용자 프로파일 문장 일부를 오픈AI GPT-4라는 대규모 언어 모델로 해석하자 해당 문장을 쓴 사용자에 대해 인종이나 연령층으로부터 거주지까지 상당한 정밀도로 순식간에 맞췄다고 한다. 조금만 말을 더하면 들켜버릴 수 있는 것.

특정 지방 특유 표현이거나 대체로 특정 연령에 성별이 자주 사용하는 말 등 대규모 언어 모델에 걸리면 간단하게 특징을 구별할 수 있다. 두려운 일은 권유나 사기성 메일 타깃이 되는 사람을 해석하게 하는 사용법이다. AI 분석이 있다면 대상에 딱 맞는 접근법을 적용할 수 있다. 진화를 계속하는 AI 채팅 서비스지만 이면에 숨겨진 위험도 잊지 않아야 한다. 관련 내용은 이곳에서 확인할 수 있다.

정용환 기자

대기업을 다니다 기술에 눈을 떠 글쟁이로 전향한 빵덕후. 새로운 기술과 스타트업을 만나는 즐거움을 독자들과 함께 나누고 싶습니다.

뉴스레터 구독