컴퓨터 과학‧인지 심리학 연구자인 제프리 힌턴(Geoffrey Everest Hinton)은 2018년 컴퓨터 과학계 노벨상으로 알려진 튜링상을 수상한 이 분야 전문가다. 신경망 공적으로 AI 분야 대부로 불리는 그가 2023년 4월 구글에서 퇴사했다고 한다.
힌튼은 2012년 뉴럴네트워크 아키텍처인 알렉스넷(AlexNet) 논문을 발표하고 이에 따라 뉴럴네트워크라는 말을 명명한 AI 연구 선구자다. 이듬해인 2013년 구글에서 일하기 시작한지 10년 이상 구글에서 AI 시스템을 연구해왔다.
하지만 힌튼은 캐나다 토론토에 위치한 집에서 한 인터뷰에서 2023년 4월 순다르 피차이 CEO에게 연락해 사의를 전했다고 밝혔다. 힌튼은 자신이 AI 연구에 종사하는 동안 구글이나 다른 AI 기업을 공개적으로 비판하고 싶지 않다는 생각으로 지금까지 AI 위험성을 주장하는 걸 피해왔지만 AI 위험성에 대해 자유롭게 발언하기 위해 구글을 그만뒀다는 것.
인터뷰 중 힌튼은 자신이 반생을 바친 라이프워크를 후회하고 있다고 밝힌 뒤 악자가 AI를 부정하게 이용하는 걸 막을 방법이 좀처럼 보이지 않는다고 밝혔다. 현재 75세인 그의 AI 연구자 경력은 영국 에든버러대학 대학원생이던 1972년까지 거슬러 올라간다. 이 무렵부터 신경망 기초가 되는 기술 구상을 했지만 당시에는 이 아이디어를 이해하는 연구자가 거의 없었다.
1980년대 미국 카네기멜론대학 교수로 교단에 있던 그는 국방부로부터 자금 원조가 싫어 캐나다로 건너갔다. 당시 미국 AI 연구 대부분은 국방부 자금 제공을 받고 있었지만 힌튼은 전쟁에 AI가 사용되는 것, 힌튼이 말하는 로봇 병사에 대해 깊은 우려를 해 국방부 관여를 싫어했다고 한다.
그는 2012년 토론토대학 학생들과 함께 알렉스넷 연구 논문을 발표하고 신경망 기술 기초를 세웠다. 힌튼과 함께 신경망을 개발한 2명 중 일리야 수츠케버(Ilya Sutskever)는 나중에 오픈AI 공동 설립자가 된 인물이다. 수츠케버는 또 AI 기술 위험으로부터 우린 잘못됐다며 지금까지 개방해온 AI 연구 정보 공개를 제한하는 방침으로 전환하고 있다.
이후 구글이 힌튼과 학생 2명이 시작한 회사를 인수한 뒤 힌튼은 AI 연구를 계속했고 이는 챗GPT나 바드 같은 AI 등장으로 이어졌다. 힌튼 등 3명은 2018년 신경망 연구 공적으로 튜링상을 수상했다.
당시 힌튼은 신경망은 기계가 언어를 이해하고 생성하기 위한 강력한 방법이라고 생각했지만 인간에 필적한다고는 생각하지 않았다고 한다. 하지만 챗GPT를 비롯한 제너레이티브 AI가 등장하며 어쩌면 이 시스템에서 일어나는 건 인간 뇌에서 일어나는 것보다 훨씬 뛰어날지도 모른다는 말로 AI에 대한 견해가 크게 바뀌었다. 기업에 의한 AI 개발 경쟁에 우려를 가진 힌튼이 지금까지 구글에 머물렀던 이유는 구글이 위험한 기술을 공개하지 않도록 주의를 기울였기 때문이다. 하지만 마이크로소프트가 빙 검색에 채팅봇을 도입하고 구글도 바드로 이 분야에 진입하면서 힌튼은 구글이 AI 기술에 대한 절도 있는 관리자 역할을 하는 것에 대해 의문을 갖게 됐다. 바드 공개는 구글 사내에서도 시기상조라는 비판이 나오고 있다는 보도가 나왔다.
힌튼의 현재 우려는 인터넷상에 가짜 사진이나 동영상, 문장이 범람해 일반인이 무엇이 진실인지 모르게 되는 것이다. 또 AI가 고용 시장을 근본적으로 뒤집는 것도 우려하고 있다. 지금까지 챗GPT 같은 제너레이티브 AI는 인간 일을 보완하고 있지만 법무 관련 업무나 퍼스널 어시스턴트, 번역자 등 정형적인 업무를 하는 사람을 대신할 가능성이 있다는 게 지적됐다.
또 AI는 방대한 데이터를 분석하고 인간이 예기치 않은 행동을 배울 수 있기 때문에 앞으로 인류를 위협하는 존재가 될 수 있다고 힌튼은 우려하고 있다. 만일 기업이 AI에 코드를 생성시킬 뿐 아니라 실제로 이 코드를 실행시키는 하드웨어를 주면 진정한 자율 무기 그러니까 힌튼이 두려워하는 살인 로봇이 현실이 될지도 모른다. 많은 전문가는 이런 위협론이 가정이라고 생각한다. 하지만 힌튼은 구글이나 마이크로소프트 등 대기업 경쟁이 글로벌로 발전하고 글로벌 규제도 이뤄지지 않으면 개발 경쟁을 멈출 수 없게 될지 모른다고 생각한다. 힌튼은 AI가 인간보다 현명해질 수 있다는 생각은 소수였고 대다수는 이런 일은 있을 수 없다고 생각했다며 자신도 그랬지만 만일 있다고 해도 30년이나 50년 뒤 먼 얘기라고 봤다는 것. 하지만 더 이상 그렇게 생각하지 않는다고 덧붙였다.
AI 위험을 주장하는 입장에선 AI 위협은 핵무기에 필적한다는 주장도 있지만 개발에 대규모 핵실험이 필요한 핵무기와 달리 비밀리에 연구가 진행되는 AI 존재를 인간이 알 수는 없다.
힌튼은 이전에 위험한 기술에 왜 임할 수 있는지 물었을 때 원자폭탄 개발을 주도한 오펜하이머의 말을 인용해 답했지만 이젠 이런 말을 입에 담을 생각을 하지 않는다고 밝혔다. 관련 내용은 이곳에서 확인할 수 있다.