테크레시피

제너레이티브AI, 전 세계 GDP 7% 증가시킨다?

대화형 AI인 챗GPT와 이미지 생성 AI인 스테이블 디퓨전 등 제너레이티브 AI가 급속도로 발전하면서 보안 전문가 40% 이상이 2030년까지 AI에 일을 빼앗길 것이라고 예상 혹은 전 직업 80%가 AI 영향을 받는다는 연구 결과가 나타나거나 너무 높은 능력이 있는 위험도 종종 지적되고 있다. 2023년 3월말 골드만삭스 조사에 따르면 제너레이티브 AI로 미국과 유럽 지역에서 진행되는 작업 4분의 1을 자동화해 전 세계 GDP를 7% 끌어올리는 동시에 노동 시장에 중대한 혼란을 일으킬 위험이 있다고 지적되고 있다.

이미지 생성 AI인 달리 등장 후 프롬프트로 고정밀도 이미지를 생성하는 스테이블 디퓨전이 차례로 등장하며 AI 일러스트 투고 금지나 저작권 문제 논의가 활발해지거나 2022년 11월 발표된 챗GPT가 불과 2개월 만에 월 1억 사용자를 달성하거나 2023년 2월에는 구글이 챗GPT 인 경쟁자 대화형 AI인 바드를 발표하는 등 최근 급격하게 제너레이티브 AI 발전이 가속화되고 있다. 오픈AI가 구글 언어 번역 모델인 트랜스포머를 바탕으로 만든 문장 생성 툴인 GPT-2, GPT-3은 AI 툴은 빠른 발전에 큰 영향을 줬지만 2023년 3월 후속 버전인 GPT-4가 발표되어 더 기술 혁신이 전망되고 있다.

오픈AI는 인류 전체에 이익을 가져다주는 형태로 우호적인 AI를 보급, 발전시킬 목적으로 한 비영리법인을 위해 당초는 데이터세트나 학습 방법에 대해 공개하고 있엇다. 다만 오픈AI 공동 설립자가 AI를 오픈한다는 철학은 잘못됐다고 말했고 GPT-4 데이터는 비공개로 하고 있다. 또 오픈AI는 2023년 3월 23일 챗GPT 등 툴과 서비스 이용에 대해 이용약관을 개정해 지금까지보다 명확하고 구체적인 이용약관을 제시하는 등 AI 위험성에 대해서도 경계하는 움직임을 보여줬다.

이런 움직임 이후 골드만삭스는 3월 27일 제너레이티브 AI에 대한 조사 보고서를 발표했다 보고서에 따르면 제너레이티브 AI는 10년간 전 세계 GDP를 7% 끌어올리는 혜택을 주는 반면 노동 시장에 큰 혼란을 가져오며 주요 경제권에서 3억 명 규모 풀타임 근로자 업무 자동화에 영향을 줄 것으로 예측된다는 것. 인간이 만든 콘텐츠와 구분할 수 없는 콘텐츠를 생성하고 인간과 기계간 커뮤니케이션 장벽을 없애는 제너레이티브 AI 능력은 잠재력이 크지만 큰 거시경제 효과를 가진 큰 진보를 반영하고 있다면서 미국과 유럽 직업 중 3분의 2가 어느 정도 AI에 의한 자동화에 노출되어 있다고 지적하고 있다. 골드만삭스가 직업별로 AI 자동화로 영향을 받기 쉬운 일을 조사한 것으로 여기에선 일을 빼앗길 위험이 높은 직종으로 사무직 태스크와 변호사를 들 수 있다고 한다.

보고서에 따르면 근로자 63%가 자신의 업무 절반 이하만 자동화되지 않고 일을 계속하면서 더 생산적인 활동에 시간을 할애할 수 있는 플러스 효과를 얻을 것으로 추측됐다. 또 육체 노동이나 옥외에서 일하는 노동자 30%는 다른 기계에 의한 자동화 영향을 받을 수 있어도 AI 영향은 거의 받지 않을 것으로 보여지고 있다.

하지만 나머지 근로자 7%는 기존에 하던 업무 중 적어도 절반이 제너레이티브 AI를 대체할 수 있는 대체에 약한 직종이라고 한다. 더구나 전 세계 수준에서 아직 수작업이 차지하는 비율이 높기 때문에 AI가 업무에 미치는 영향은 20%에 달할 것이라고 예측하고 있다. 보고서에선 AI가 일에 미치는 영향에 대한 국가별 수치를 보여준다. 가장 높은 영향을 받을 것으로 여겨지는 홍콩은 30% 가까운 수치다.

오픈AI와 펜실베이니아대학 연구팀이 대규모 언어 모델 LLM 분석을 포함해 실시한 연구에선 미국 노동자 80%가 적어도 작업 10%를 제너레이티브 AI에 의해 수행될 가능성이 있다고 지적되고 있다. 다른 유사 연구를 포함해 골드만삭스 계산은 상대적으로 보수적인 결과로 간주된다.

또 골드만삭스는 AI에 대한 투자가 1990년대 소프트웨어 투자와 비슷한 속도로 계속 성장하면 미국 내에서 이뤄지는 투자만으로 2030년까지 미국 GDP 1%에 근접할 가능성을 지적하고 있다.

또 이는 AI가 중소기업 세무 신고나 복잡한 보험 청구 평가, 범죄 현장 조사 결과 문서화 등을 해낼 수 있게 되는 걸 상정해 산정한 것이다. 한편 재판 판결이나 중증 환자 상태 확인, 국제적 세법 연구 등 더 섬세한 업무에 AI가 채용되는 건 상정하고 있지 않다. 관련 내용은 이곳에서 확인할 수 있다.

한편 인공지능의 책임감 있는 윤리적 개발을 추진하는 비영리단체인 생명미래재단(Future of Life Institute)은 AI 개발 물결이 계속되고 있지만 사회에 중대한 위험을 초래할 위험이 있는 GPT-4나 챗GPT 같은 제너레이티브 AI 개발에 있어 기업과 규제상 보호 조치가 부족하다고 주장했다.

또 서한에선 AI 연구 과제와 윤리 등을 포함한 가이드라인인 아실로마 원칙을 제시한다. 주의와 자원 계획, 관리가 필요하지만 AI 제작자도 이해, 예측, 통제할 수 없는 경쟁에 갇혀 있다는 비판이다. 또 현대 AI는 이제 시험과 프로그래밍 등 일반 과제로 인간과 경쟁할 수 있을 때까지 성장하고 있다며 문명을 잃을 위험을 감수해야 하냐며 의문을 제기하고 있다.

따라서 고급 AI 개발을 위한 공유 안전 프로토콜 세트를 공동 개발하고 구현하기 위해 6개월간 첨단 AI 개발과 교육을 즉시 일시 중단해야 한다며 개발 일시 정지는 공개되고 검증 가능한 것이어야 한다고 주장하고 있다.

생명미래재단은 고성능 AI는 개발 효과가 긍정적이고 위험이 관리 가능하다고 확신한 경우에만 개발해야 한다고 강조한다. 이런 주장에 대해 일론 머스크와 스티브 워즈니악, 스카이프 공동 설립자, 핀터레스트 공동 설립자 등 저명한 인물 1,300명 서명이 함께 모았다. 한편 오픈AI 측은 GPT-4 학습 종료 이후 모델 안전성에 관한 조정에 6개월 이상을 보냈다며 재단 측 서한에 서명하지 않는 자세를 보였다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사