챗GPT 등장으로 AI 발전은 가속화되고 있다. 이런 AI 발전에 어떤 우려 사항이 있을까. 알파고 제로나 단백질 입체 구조 예측 AI인 알파폴드 등을 개발한 구글 딥마인드 공동 창업자 중 하나인 무스타파 술래이만(Mustafa Suleyman)이 이런 AI가 큰 위협을 줄 가능성에 대해 밝혀 눈길을 끈다.
그는 2019년 당시 딥마인드를 퇴사한 뒤 AI 스타트업을 설립했다. 그는 AI 개발 연구에서 AI가 가져올 위협에 대해서도 주장하고 있으며 2023년 5월 샌프란시스코에서 열린 한 포럼에선 정부가 AI에 일자리를 빼앗기는 이들에 대한 대응책을 생각해야 한다며 AI가 가져올 미래에 대한 우려와 이에 대한 대책을 밝히기도 했다.
술래이만은 9월에는 AI와 급속하게 발전하는 기술이 전 세계 질서에 가져올 위험과 이에 대한 대처를 밝힌 저서(The Coming Wave)를 내놨다. 미래 정신 건강 관리를 지원하는데 AI가 수행하는 역할에 대해 그는 지원과 긍정, 코칭, 조언을 제공할 수 있게 됐다며 많은 이들이 창의성을 풀어내게 될 기회가 될 것이라는 말로 AI가 가져올 가능성에 대해 밝혔다. 아울러 그는 자신이 할 수 있는 일, 자신에 대한 느낌을 뒷받침하는 걸 AI에 기대하고 있다며 AI는 사람이 일을 하는데 도움이 되는 도구가 될 것이라고 덧붙였다.
하지만 한편으로 그는 저서에서 AI의 어두운 면에도 중점을 두고 있다. 그는 AI의 어두운 면에 대해 쓰는 건 마음 아픈 일이었다며 자신의 생각이 잘못된 것이기를 바란다고 밝혔다. 그는 먼저 AI가 모든 목표를 달성하기 위한 대가를 급속히 낮출 수 있다는 점을 우려했다. 그는 이를 전력 비용 급락으로 부르며 AI의 놀라운 절력화와 문제 해결 기능은 기술을 발전시켜 고속화하는 반면 DNA를 해석하는 장치로 치사성 바이러스르르 만들고 혹은 유전자 변형으로 비윤리적 접근이 가속되는 등 위험성이 있다고 밝혔다.
그는 이런 AI의 특징이 근본적인 풍부함을 창출할 가능성이 있는 한편 대참사를 가져올 수 있는 4가지 측면을 주장한다. 첫 번째는 비대칭 효과 가능성. AI는 뭔가를 달성하는 장벽을 넘어설 힘이 있기 때문에 익명 해커가 의료 시스템 컴퓨터를 다운시키려는 소규모 공격자가 대규모 사건을 일으킬 가능성이 높아진다.
2번째는 초진화. AI는 설계 제조 프로세스를 세련되게 할 수 있어 새로운 반복 때마다 더 개선, 강화되어 간다. 이 변화 속도를 따라잡아 안전책을 확실하게 강구하는 건 어려워지고 있다. 그는 치명적 위협이 발생할 때에도 누군가가 이를 기록하기 전에 나타나서 확산될 수 있다고 밝히고 있다.
3번째는 AI가 옴니유스인 점. 전기가 대부분 기술이나 기술 근원이 되는 것처럼 AI도 모든 걸 실현하는 기술이라고 할 수 있다. AI는 삶의 모든 측면에 이익을 제공하지만 동시에 해를 끼칠 때에도 모든 측면에 작용한다.
마지막으로 4번째는 AI 기술 자율성이다. AI는 인류사에서 태어난 기술 중에서도 독특하고 스스로 의사 결정을 할 가능성을 지니고 있다. 이는 뛰어난 점으로 인간 의사결정보다 안전할 수 있지만 이 자율성이 초진화와 결합되면 AI가 스스로를 성장시켜 새로운 방향으로 나아가기 시작할 가능성을 앞으로 생각할 수 있다. 그는 이를 우려하는데 큰 상상력은 필요하지 않지만 그 중에서도 기술 엘리트 사이에서 AI가 자가 성장 위험을 무시하는 경우가 많다고 지적했다.
그는 자신이 항상 유의해온 건 AGI에 윤리와 안전을 통합하는 것이라며 자신의 사업계획서에도 모든 이들의 이익을 위해 안전하고 윤리 범용 AI 구축이라는 사명을 명기하고 있으며 이게 다른 많은 AI 형성 방법을 만들었다고 생각한다며 챗GPT를 만든 오픈AI는 비영리단체로 시작했지만 이유는 우리가 설정한 기준에 대한 반응이라고 생각한다며 AI에 대한 노력을 통해 AI 문제에 맞서는 자세를 보였다. 관련 내용은 이곳에서 확인할 수 있다.