테크레시피

AI 연구자 250명 공개서한 “AI 모델에 독립 조사 권리 보호 필요”

최근에는 오픈AI 챗GPT와 메타 LLaMA, 구글 제미나이 등 수많은 기술 기업이 생성형 AI을 출시했다. AI 모델을 이용하는 소비자도 늘고 있는 가운데 AI 연구자가 이런 AI 모델을 조사해 안전성과 위험을 평가하는 중요성이 높아지고 있지만 AI 모델 악용을 금지하는 이용 규약에 의해 연구자 활동이 방해되고 있다는 것. 따라서 250명 이상 AI 연구자와 법률 전문가가 AI 모델에 대한 정당한 조사를 법적, 기술적 위험으로부터 보호하는 세이버 하버(Safe Harbor) 설치를 요구하는 공개서한에 서명했다.

많은 AI 연구자와 일부 AI 개발 기업은 생성형 AI 모델이 딥페이크와 가짜 뉴스 증가, 사기 행위 등 심각한 위험을 초래할 위험이 있다고 이해하고 있다. 이런 생성형 AI 모델 악용을 막으려면 독립 연구자에 의한 성실한 AI 모델 조사가 필요하다. 하지만 세이프가드 회피나 모델 악용, 저작권 침해라는 문제를 특정하는 연구자 작업은 오픈AI, 메타, 구글, 미드저니 등 AI 모델 이용 규약으로 금지되고 있다고 한다.

실제로 오픈AI는 뉴욕타임즈가 오픈AI나 마이크로소프트 AI가 자사 기사를 모방한 텍스트를 출력했다며 저작권 침해로 소송한 재판에서 뉴욕타임즈가 챗GPT를 이용해 비정상적 결과를 생성하기 위해 오픈AI 이용 규약에 분명히 위반하는 기만적 프롬프트를 사용했다고 주장했고 뉴욕타임즈 행위는 해킹이라고 비난하고 있다.

AI 모델 이용 규약으로 금지되어 있는 방법으로 연구자가 조사를 실시한 경우 비록 해당 조사 내용이 공공 이익을 위한 것이라도 계정 정지나 소송 등 위험을 지는 것이다. 또 실제로 AI 개발 기업이 연구자에게 단호한 조치를 취하지 않았다고 해도 이용 규약 존재 자체가 연구자 의욕을 꺾고 AI 모델 위험을 특정하는 작업을 정체시킬 가능성이 있다는 것.

오픈AI 등 일부 AI 개발 기업은 AI 모델 위험을 조사하는 연구자에게 특별한 액세스 권한을 제공하고 있지만 기업이 연구자를 선택할 때 작위적 요소가 들어갈 가능성도 있다. 또 메타나 앤트로픽 같은 기업은 이용 규약에 따라 성실하게 행동하고 있는지 여부를 최종 판단할 재량권은 자사에 있다고 밝혀 일부 연구가 폐기될 가능성이 있다.

또 이런 법적 보호는 주로 AI 모델 악성 계정 액세스 같은 보안 문제에만 적용되며 프롬프트 악용, 사소한 언어 사용으로 세이프가드를 피하는 방법에 대한 조사, AI 모델에 존재하는 편견 조사, AI 모델이 저작권 침해를 실시할 가능성 조사 등 문제는 법적 보호 대상이 되고 있지 않다고 한다.

주요 AI 개발 기업이 연구자에게 제공하는 액세스권이나 세이프 하버를 보면 독립적 액세스 리뷰권(Independent Access Review)이나 AI 안전성과 결함 조사 세이프 하버(AI Safety & Flaws) 등은 대다수 AI 개발 기업이 제공하지 않는다. 그 중에서도 미드저니나 인플렉션 등은 제공 항목이 적고 오픈AI나 메타 역시 모두 보호하는 건 아니다.

이런 문제 대처를 위해 AI 연구자와 법률 전문가가 공동으로 독립된 AI 모델 조사를 위한 세이프하버를 요구하는 공개서한을 발표했다. 공개서한에선 확립된 취약성 공개 규칙에 따르는 걸 조건으로 성실하고 독립된 AI 안전성 연구를 법적으로 보호할 것, AI 모델을 조사하고 싶은 연구자 신청을 자사에서 심사하는 게 아니라 독립 리뷰어에 의함 심사 실시 등을 요구하고 있다.

이미 공개서한에는 250명 이상 AI 연구자와 법률 전문가가 서명하고 있다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사