테크레시피

메타, AI 개발 위험성 평가…프론티어 AI 프레임워크 발표

메타가 첨단 AI 개발과 공개에 관한 포괄적인 방침을 담은 프론티어 AI 프레임워크를 발표했다. 이 문서에서 메타는 AI 위험성을 3단계로 분류하고 가장 심각한 위험으로 판단될 경우 개발을 중단하고 제한된 전문가만 접근할 수 있는 엄격한 관리 체계를 마련하겠다고 명시했다.

메타 프론티어 AI 프레임워크는 첨단 AI 개발 및 공개에 관한 판단 기준을 제시하고 있다. 가장 중요한 포인트는 위험한 AI는 개발 및 공개하지 않는다는 명확한 기준을 설정하고 위험을 주로 3단계로 평가하는 방식을 제안한 것이다.

이 위험 평가 과정은 먼저 내외부 전문가와 함께 방지해야 할 파괴적인 결과인 위협 시나리오를 정의하고 AI가 어떻게 악용될 수 있는지를 검토한다. 다음으로 해당 위협 시나리오를 실현하는 데 필요한 실현 능력을 파악하고 개발 중인 AI 모델이 이런 능력을 어느 정도 갖추고 있는지 평가한다.

평가 대상 AI 모델이 위협 시나리오 실현을 독자적으로 가능하게 하는 경우 중대 위험으로 실현에 상당한 성능 향상을 가져오는 경우 고위험으로, 그 외의 경우 중위험으로 분류된다.

예를 들어 해당 AI로 사이버 공격이나 생물무기 개발이 직접적으로 가능해지는 경우 중대 위험으로 간주되어 개발 중단 결정이 내려진다. 사이버 공격이나 생물무기 개발을 현저히 용이하게 하는 경우에는 고위험으로 분류되어 일반 공개 없이 내부 사용에만 제한될 수 있다.

주목할 점은 메타가 정량적 지표가 아닌 전문가 판단에 기반한 정성적 평가를 채택했다는 것이다. 메타는 얼핏 주관적으로 보일 수 있는 접근 방식이지만 현재 AI 평가 기술이 아직 발전 중임을 고려하면 오히려 현실적인 판단을 가능하게 하는 프레임워크라고 설명했다.

보도에선 이 프레임워크를 메타의 정책 전환으로 해석했다. 개발과 공개를 개방적으로 추진해왔던 메타가 안전성 확보를 위해 구체적인 위험 판단 기준을 제시했다는 것이다. 메타의 대규모 언어 모델인 Llama는 수억 회 다운로드됐지만 적대적 목적으로 사용된 사례도 보고됐다. 이번에 발표된 프론티어 AI 프레임워크는 이런 문제에 대응하기 위한 것으로 보인다.

보도에선 또 메타가 AI 위험 평가에 대한 과학적 방법론이 아직 충분히 확립되지 않았음을 인정한 점에도 주목했다. 나아가 API를 통해 서비스를 제공하는 오픈AI와 안전 대책 없이 개방적으로 제공하는 중국 딥시크와 비교하며 이 프레임워크가 AI 업계가 직면한 개방성과 안전성의 균형이라는 과제에 대한 메타의 대응일 수 있다고 분석했다. 관련 내용은 이곳에서 확인할 수 있다.

이원영 기자

컴퓨터 전문 월간지인 편집장을 지내고 가격비교쇼핑몰 다나와를 거치며 인터넷 비즈니스 기획 관련 업무를 두루 섭렵했다. 현재는 디지털 IT에 아날로그 감성을 접목해 수작업으로 마우스 패드를 제작 · 판매하는 상상공작소(www.glasspad.co.kr)를 직접 운영하고 있다. 동시에 IT와 기술의 새로운 만남을 즐기는 마음으로 칼럼니스트로도 활동 중이다.

뉴스레터 구독