테크레시피

오픈AI “초지능 대비해 국제 규제 기관 필요하다”

오픈AI가 5월 22일 전문가 수준을 넘어 고도의 생산 활동을 실시하는 AI인 초지능(Superintelligence) 등장을 예상하고 안전한 AI 개발을 진행하려면 국제적인 규제 기관 시작이 필요하다고 밝혔다.

오픈AI는 샘 알트만(Sam Altman) CEO와 그렉 브룩맨(Greg Blockman), 일리아 스투케버(Ilia Stukeber) 연명으로 AI 연구에서 국제 감시 조직과 규제 기관을 시작해야 한다고 제안했다. 오픈AI는 앞으로 10년 안에 AI 시스템은 대부분 분야에서 전문가 수준을 뛰어 넘어 대기업에 필적하는 규모로 고도의 생산적 활동을 할 것으로 보인다며 이런 AI를 초지능으로 부르며 인류가 지금까지 다뤄온 다양한 기술보다 더 강력해질 것으로 가정했다.

오픈AI는 또 초지능이 잠재적 이점과 위험을 갖고 있는 것으로 위험을 완화하기 위해 특별한 조정이 필요하다고 호소하고 있다. 초지능 개발과 관련해 오픈AI는 안전을 유지하면서 사회와의 원활한 통합을 가능하게 하기 위해 전 세계 주요 정부가 프로젝트를 시작하고 AI 급성장을 제한하는 이니셔티브를 해야 한다고 주장한다. 또 개별 기업은 개발에 대한 책임이 있어야 한다고 덧붙였다.

또 국제원자력기관 같은 시스템 검사나 감사 요구, 안전 기준 준거 테스트, 보안 수준 제한 등을 실시하는 국제 규제 기관 시작이 필요하다고 강조하고 있다. 오픈AI는 이런 국제 규제 기관은 AI가 무슨 말을 할 수 있는지 정의하는 등 개별 국가나 정부에 맡기지 못하는 문제에 대한 위험을 줄이는데 초점을 맞추는 게 중요하다고 밝히고 있다. 또 초지능의 안전한 개발을 위한 기술력이 필요하다고 덧붙이고 있다.

한편 오픈AI는 예외로 라이선스나 감사 등 규제를 받지 않고 기업이나 오픈소스 프로젝트에 대해 일정한 능력 이하 모델 개발을 인정하는 게 중요하다고 밝혔다. 하지만 오픈AI 설립 당시 출자자로 참여했다가 이후 관계 악화로 사임한 일론 머스크는 GPT-4 등 고성능 AI 모델 개발을 하는 오픈AI 측 발언에 비판적 트윗을 올리기도 했다.

오픈AI는 오늘날 AI 시스템은 잠재적 위험을 갖고 있지만 세상에 큰 가치를 창출한다고 주장한다. 초지능에 대해 오픈AI는 교육이나 창조적인 일, 생산성을 묻는 분야 등으로 지금까지의 AI가 가져온 결과보다 훨씬 뛰어난 세계를 가져올 것으로 본다고 밝히고 있다. 또 초지능 구축에 필요한 비용은 해마다 감소하는 반면 AI 연구 기관은 급속하게 증가하기 때문에 앞으로 초지능 창조를 저지하는 건 어렵다고 덧붙였다. 안전한 AI 개발을 위해 초지능을 창조하는 이점이 크고 오픈AI 같은 AI 개발 단체의 본질적 목표중 일부는 초지능 개발이라며 급속한 초지능 개발을 저지하려면 세계적인 감시 체제가 필요하지만 이런 기관 작동 여부는 보장되지 않는 만큼 올바르게 이해해야 한다고 주장하고 있다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사