구글은 자체 채팅 AI인 바드(Bard)를 개발 중이지만 직원이 채팅 AI를 사용하는 것에 대해 임원진이 경고를 했다는 보도가 나왔다.
채팅 AI 이용이 세계적으로 활발해지는 이유는 이메일과 문서, 프로그래밍 작성 등 도움이 되는 것으로 태스크를 대폭 올릴 수 있을 것으로 기대할 수 있기 때문. 한편 채팅 AI는 종종 잘못된 정보나 기밀 데이터, 저작권으로 보호된 정보 등을 출력하는 경우가 있기 때문에 이용에 신중을 기해야 한다는 목소리도 높아지고 있다.
구글은 바드를 비롯한 다양한 AI 도구를 개발하지만 바드를 포함한 채팅 AI 사용에 대해 직원에게 경고하고 있다는 설명이다. 이에 따르면 구글 모기업인 알파벳은 직원에게 자사 기밀 자료를 채팅 AI에 입력하지 말라고 조언하고 있다고 한다.
바드와 챗GPT 등 채팅 AI는 사용자와의 대화 내용을 기반으로 학습되어 있기 때문에 한 번 입력한 내용이 나중에 모르는 곳에서 출력될 가능성이 있다. 다시 말해 정보 유출 위험이 발생할 수 있다는 게 종종 지적되는 것. 알파벳이 직원에게 자사 기밀 자료를 채팅 AI에 입력하지 않도록 조언하고 있다는 건 이런 정보 유출 위험을 인정한 것과 같다.
그 밖에 알파벳은 채팅 AI가 생성하는 코드를 직접 사용하는 걸 피하라고 엔지니어에게 경고했다고 한다. 구글 측은 바드는 원하지 않는 코드 제안을 할 가능성이 있지만 그래도 프로그래머에게는 유용하다고 밝히고 있다. 또 구글은 자사 기술 한계에 대한 투명성을 유지하는 걸 목표로 하며 이런 정보는 숨겨져 있지 않다고 주장하고 있다.
보도에 따르면 구글처럼 채팅 AI 이용에 제한을 둔 기업은 삼성전자와 아마존, 도이치뱅크, 애플 등 전 세계적으로 늘어나고 있다. 구글과 마이크로소프트는 기업 고객을 위한 대화형 AI 도구를 제공하고 있으며 이는 데이터를 학습에 활용하지 않아 정보 유출 위험이 없는 것으로 간주한다. 다만 이를 이용하려면 고가 비용이 든다.
한편 미국 기업을 포함해 1만 2,000명을 대상으로 한 조사에 따르면 1월 시점 전문가 435가 챗GPT 등 AI 도구를 사용하고 있다고 답했으며 대부분은 상사에게 비밀리에 AI 도구를 사용하고 있다는 게 밝혀지고 있다. 보도에 따르면 구글은 2월 바드 릴리스 전 내부 테스트를 실시하는 단계에서도 직원에게 내부 정보를 입력하지 말라고 지시하고 있었다고 한다. 덧붙여 6월 1일 갱신된 구글 프라이버시 통지에서도 바드와의 대화에 기밀 정보를 포함하지 말아달라는 글이 추가되고 있다고 한다.
한편 ICML(International Conference on Machine Learning)은 챗GPT 같은 AI를 이용해 과학 논문을 집필하는 걸 금지한다는 방침을 발표하고 있다. 관련 내용은 이곳에서 확인할 수 있다.