테크레시피

“AI에 의한 멸종 위험 경감, 핵전쟁 대책과 동급”

구글 딥마인드와 앤트로픽, 오픈AI를 비롯한 AI 연구 단체 CEO와 AI 연구자 등 350명 이상이 AI에 의한 인류 멸망 위험을 줄이는 건 핵전쟁이나 바이러스 유행과 같은 세계적인 우선 사항이라는 내용을 담은 서한에 서명하고 정책 입안자에게 AI에 의한 위험을 호소했다.

AI에 대한 책임 있는 윤리적 개발을 추진하는 비영리단체인 CAIS(Center for AI Safety)는 지난 5월 30일 AI에 의한 멸종 위험을 줄이는 건 바이러스 유행과 핵전쟁 같은 사회적으로 큰 규모 위험과 나란히 해야 할 세계적인 우선 사항이라는 걸 인식해야 한다는 성명을 발표했다. 이 성명에 대해 오픈AI CEO인 샘 알트만, 구글 딥마인드 CEO인 데미스 하사비스, 앤트로픽 CEO인 다리오 아모데이 등 350명이 넘는 AI 연구 기업 CEO와 연구자가 찬성하는 서명을 하고 있다.

CAIS 측은 코로나19 유행 전 팬데믹이라는 개념은 일반인 생각에 없었다며 이런 일에 시기상조라는 건 없다고 강조했다. 또 AI 관련 문제를 해결하면서 AI 업체와 전 세계 정부가 미래 AI가 인간 존재에 위협을 줄 수 있다는 위험에 진지하게 대처해야 한다고 덧붙였다. 더구나 AI에 의한 멸종 위험을 줄이려면 글로벌 행동이 필요하다며 핵전쟁 위험 경감 같은 수준 노력이 요구된다고 주장했다. 또 이번에 발표한 성명은 간결하고 AI가 가져올 위협을 완화하는 방법을 보여주지는 않았지만 목적은 AI 연구자와 기업 CEO간 의견 불일치를 피하는 것이라고 설명했다.

지난 3월에는 사회나 인류에 대한 심각한 위험이 있다며 차세대 대규모 언어 모델인 GPT-4를 포함한 AI에 대해 6개월간 개바 정지를 요구하는 서한을 생명미래연구소(Future of Life Institute)가 공개해 일론 머스크와 스티브 워즈니악 등이 서한에 서명한 바 있다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사