테크레시피

EU AI 규제 법안에 GPT-4는 얼마나 충족할까

EU 입법기관인 유럽의회는 2023년 6월 14일 EU AI 규제 법안(EU AI Act) 수정안을 찬성 다수로 통과시켰다. EU AI법은 차별이나 침해적 행위를 목적으로 한 AI 이용이나 경찰에 의한 공공 장소에서의 실시간 얼굴 인식 기술 사용 등을 금지한 것으로 수정안에는 최근 주목받는 제너레이티브 AI에 대한 규제도 포함되어 있다. 여기에서 기술 기업이 개발하는 다양한 기반 모델이 EU AI법에 준거하고 있는지 조사한 결과를 스탠포드대학 산하 연구센터인 CRFM이 발표했다.

유럽 의회에는 2021년 단계에서 AI를 규제하는 법안이 제출됐지만 당시는 자율주행차나 기업 채용 시험, 은행 대출, 이민이나 국경 관리 등 분야에서 AI 사용에 초점이 맞춰졌다. 그런데 최근에는 인간이 만든 것과 구분이 없는 정밀도 이미지나 문장을 생성하는 AI가 등장했기 때문에 EU는 6월 14일 제너레이티브 AI에 대한 규제도 포함하는 수정안을 채택했다.

새롭게 채택한 EU AI법에는 오픈AI와 구글 같은 기본 모델 제공업체에 대한 명시적 의무가 포함되어 있다. 기초 모델이란 자가 학습이나 학습을 채택해 방대한 데이터로 학습된 대규모 AI 모델이다. 잘 알려진 것으로는 오픈AI의 GPT-4나 스태빌리티AI의 스테이블 디퓨전 v2 등을 들 수 있으며 이런 기반 모델은 다양한 다운스트림 태스크를 실행하는 사용자를 위한 AI에 적용할 수 있다.

기존 기반 모델이 EU AI법을 준수하기 어렵다는 견해도 있다. 오픈AI 샘 알트만 CEO는 EU AI법에 대해 대응할 수 있으면 대응하고 할 수 없다면 운영을 중지할 것이라며 하지만 가능한 기술적 한계가 있다며 규제를 준수할 수 없다면 EU권에서 서비스를 중단해야 한다는 견해를 제시하기도 했다.

EU AI법은 단순히 EU권내 AI 개발 기업이 규제될 뿐 아니라 EU에 거주하는 사람을 대상으로 서비스를 제공하는 EU 비가맹국 기업에도 적용되며 제재금도 거액이 될 수 있다. 또 전 세계 AI 규제 법안으로 앞으로 전 세계에서 채택될 AI 규제 법안 선례가 되기 때문에 전 세계 기술 기업에 있어선 EU AI법은 중대한 의미를 갖는다.

따라서 CRFM 연구팀은 다양한 기반 모델이 EU AI법을 준수하는지 조사한 보고서를 발표했다. 연구팀은 EU AI법 중에서 기초 모델 개발 기업과 관련한 12개 요건을 추출하고 기존 기반 모델이 얼마나 준거하는지 여부를 0~4까지 5단계로 평가했다.

연구팀이 추출한 기반 모델을 대상으로 한 12개 요건은 이렇다. 데이터 소스는 학습에 사용된 데이터 소스를 설명한다. 데이터 거버넌스는 데이터 거버넌스 대책이 적용된 데이터를 사용해 학습을 실시하는 것. 다음으로 저작권 데이터는 학습에 사용된 저작권으로 보호되는 데이터를 설명한다. 컴퓨팅은 학습에 사용된 컴퓨팅을 공개하는 것. 에너지는 학습에서 에너지 소비량을 측정하고 소비량을 줄이기 위한 조치를 취한다. 이어 능력과 한계. 위험과 완화 조치의 경우 예측 가능한 위험과 관련 악화 조치를 설명하고 위험을 완화할 수 없는 경우 그 이유를 설명한다. 이어 공공 또는 산업 표준 벤치마크로 평가하는 것. 또 내외부 테스트 결과를 보고한다. 다음은 기계 생성 콘텐츠. 생성된 콘텐츠에 대해 인간이 아닌 기계에 의해 생성된 것으로 공개한다. 또 시장이 되는 EU 회원국을 공개할 것. 다음으로 다운스트림 공정에 대한 문서화, 다운스트림 공정에서 EU AI법에 대응하기 위해 충분한 기술적 컴플라이언스를 제공해야 한다.

연구팀이 오픈AI GPT-4를 비롯해 여러 모델(Cohere Command, Stable Diffusion v2, Claude, PaLM 2, BLOOM, LLaMA, Jurassic-2, Luminous, GPT-NeoX)을 평가했다. 이번 조사 결과에선 EU AI법에 대한 준거율은 기업에 따라 크게 다르다. 일부 기업(AI21 Labs, Aleph Alpha, Anthropic)은 점수가 25% 미만인 반면 빅사이언스(BigScience)는 75% 이상 점수를 획득하고 있다. 그 밖에 GPT-4는 48점 중 25점, 스테이블 디퓨전은 22점으로 절반 기준을 충족하는데 그쳤다.

연구팀은 이번 조사에서 떠오른 기반 모델 문제점으로 저작권 상태를 공개하고 있는 공급자가 거의 없고 모델 개발에 투입된 에너지 사용량을 보고하지 않은 것, 위험과 완화책에 대해서 충분히 공개되어 있지 않은 것, 평가 기준이나 감사 생태계가 부족하다는 것 등을 들고 있다. 많은 인프라 모델 개발 기업은 EU AI법을 준수하지 않지만 연구팀은 EU AI법이 인프라 모델 생태계에 큰 변화를 가져오고 이런 기업이 투명성과 책임을 향상시킬 수 있다고 기대하고 있다는 것. 연구팀은 산업 표준과 규제 결과로 기반 모델 제공 업체가 집단 행동을 취하면 데이터와 컴퓨팅, 기타 관련 법률 요건을 충족하는 충분한 투명성을 상업적으로 실현할 수 있다고 밝히며 기반 모델을 개발하는 기업과 정책 입안자에게 행동을 호소했다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사