AI 업계를 선도하는 과학자들은 AI가 제어 불능이 되어 인류를 멸망시킬 가능성은 5%로 추정하는 것으로 나타났다. 이에 따르면 단기적으론 2030년까지 AI가 현저하게 진화해 TOP40에 들어가는 팝송을 발표하거나 뉴욕타임즈에 베스트셀러 책을 쓸 수 있는 능력을 갖게 될 것으로 예측하고 있다.
버클리와 옥스퍼드대 연구팀이 2022년 12월 실시한 이 연구에서 AI 전문가 예측은 객관적 진실에 대한 확실한 지침으로 간주해선 안 되지만 중요한 정보 중 하나라며 전문가의 기술에 대한 이해와 과거 역학에 대한 숙지를 통해 AI 미래에 대해 풍부한 예측을 할 수 있다고 설명하고 있다.
이 연구는 AI 관련 연구를 발표한 과학자 2,778명에게 미래 예측에 대한 설문 조사를 실시한 것. 연구자 중 68%는 인간 지능을 넘은 슈퍼 휴먼 AI로부터 나쁜 결과보다 좋은 결과가 일어날 가능성이 높다고 생각하고 있지만 이들 68% 중 절반이 인류 멸종 가능성이 제로는 아니라고 답했다.
이 연구는 전 세계 유명 연구자가 강력한 AI를 창출하는 위험을 강조한다. AI 위험을 최소화하기 위한 연구에 대한 관심을 높여야 한다는 생각도 많이 있었지만 AI 진전 자체를 빨리 해야할지 늦춰야 할지에 대해선 연구자 중에서도 의견이 갈린다.
또 AI 연구자 80% 이상은 AI가 허위 정보를 확산할 가능성에 대해 극히 또는 상당히 우려를 안고 있다고 답했다. 연구자 과반수는 독재자가 AI를 이용해 인구를 통제하는 것, AI 시스템이 경제적 불평등을 악화시키는 것, AI가 공학적으로 생성하는 바이러스에 대해서도 유사한 우려를 보이고 있다.
오픈AI는 지난해 12월 슈퍼 휴먼 AI를 인간 가치관과 조화시키는 방법에 관한 첫 논문을 발표했다. 앤트로픽은 자사 AI 시스템에 규약을 마련해 AI가 우리 사회 규칙과 조화를 이루는 역할을 할 수 있도록 하려 한다. 하지만 인간 지능을 넘어선 AI 모델과 이런 규칙이 정말 작동할지는 아직 모른다. 현재 상태 AI는 이런 판단을 하기에는 그리 현명하지는 않기 때문이다.
연구자는 AI가 39개 주요 진보를 이룰 시기에 대한 예측도 내놓고 있다. 예를 들어 2033년까지는 AI가 레고를 조립하고 새로운 언어를 번역하고 비디오 게임을 만들 수 있게 될 것으로 추정하고 있다. 2063년까지는 AI가 외과의사나 심지어 AI 연구자 일을 해낼 수 있을 것으로 예측하고 있다. 어떤 미래가 오든 인간 일을 AI가 해주게 되는 건 틀림없어 보인다. 관련 내용은 이곳에서 확인할 수 있다.