테크레시피

구글 출신 직원 “대화형 AI 바드는 병적인 거짓말쟁이”

구글은 지난 2월 챗GPT 라이벌인 대화형 AI 바드(Bard)를 발표하고 3월 공개를 시작했다. 하지만 구글 사내에선 바드 발표에 너무 서둘러 실패했다는 의견이 나오거나 보도에 따르면 내부 자료에서 구글 직원이 바드를 병적인 거짓말쟁이로 도움이 되지 않는다고 평가해 릴리스하지 말라고 간청을 하기도 했다고 한다.

보도에선 구글 전현직 직원 18명에게 들은 얘기와 사내 메시지 스크린샷을 인용해 사내에서 바드 평가가 낮았다고 밝히고 있다. 한 직원은 바드가 병적인 거짓말을 한다고 지적했다. 한 직원은 바드가 비행기 착륙 방법과 스쿠버 다이빙 등 사용자에게 위험한 조언을 했다고 밝혔다. 다른 직원은 바드가 도움이 되지 않으며 발표하지 말아달라고 말했다고 한다. 구글은 마이크로소프트와 오픈AI 등 경쟁자에게 뒤처지지 않게 윤리적 우려를 드러내고 있다는 지적이다.

또 보도에선 바드 같은 대화형 AI가 가진 결함을 논문에서 지적한 연구자 2명(Timnit Gebru, Margaret Mitchell)가 2020년 말에서 2021년 초 해고됐다고 언급하고 있다. 신뢰할 수 있는 인터넷 검색 거인은 경쟁자를 따라잡기 위해 저품질 정보를 제공하고 윤리적 헌신을 그다지 우선하지 않는 것 같다는 지적이다.

더구나 신제품 안전성과 윤리적 영향 부문 소속 직원은 개발 중인 제너레이티브 AI 도구를 방해하거나 릴리스를 막아달라고 증언했다고 한다. 전 구글 관리자 출신으로 비공개 메시징 서비스를 제공하는 시그널 대표는 윤리가 이익과 성장보다 우선하지 않으면 윤리는 결국 작동하지 않는다고 지적한다.

순다르 피차이 CEO는 한 인터뷰에서 모든 기업과 모든 제품이 빠른 AI 발전에 영향을 받은 것이라며 사회는 이미 발표된 기술에 대비해야 한다고 말해 사회가 급속한 AI 진보에 대한 준비가 되어 있지 않다고 지적한 바 있다. 더구나 도덕을 포함한 인간 가치관과 일치하도록 AI를 안전하게 하기 위한 규제나 법률을 정해 사회에 적응시켜야 하며 이는 회사가 단독으로 결정하는 건 아니라고 덧붙였다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사