AI 개발 스타트업 앤트로픽(Anthropic)이 미국 에너지부 및 국가핵안전보장국(NNSA) 핵 전문가와 협력해 AI 클로드(Claude)가 무기 제조를 지원하지 않도록 안전성 조사를 진행하고 있는 것으로 밝혀졌다.
AI 활용이 다양한 분야에서 진전되고 있는 가운데 군사적 활용 가능성도 논의되고 있다. 미국 국방부는 우주 공간 감시를 포함한 다양한 용도로 AI를 활용하고 있다. 하지만 AI 유용성 때문에 챗봇을 이용하는 것만으로도 새로운 생물 무기를 개발할 수 있다는 위험성이 제기되는 등 대책과 규제에 대한 검토도 이뤄지고 있다.
보도에 따르면 앤트로픽과 국가핵안전보장국(NNSA)은 앤트로픽 AI인 클로드 3.5 소넷이 원자력과 관련된 위험한 정보를 공유하지 않는지를 확인하기 위해 안전성 조사를 실시하고 있다고 한다.
클로드 3.5 소넷은 지난 6월 21일 일반에 공개됐지만 조사 프로그램은 4월부터 진행됐다고 한다. 국가안보 정책 담당자는 미국 산업계가 프런티어 모델 개발에서 앞서가고 있으며 연방 정부는 특정 국가안보상 위험에 대해 AI 시스템을 평가하기 위해 필요한 독자적인 전문 지식을 보유하고 있다면서 이번 조치는 책임 있는 혁신과 미국 리더십을 촉진하는 프런티어 모델 개발자가 더 강력한 보호 장치를 구축할 수 있도록 도울 것이라고 밝혔다.
또 NNSA 테러 대책 및 핵확산 방지 담당 부국장인 웬딘 스미스(Wendin Smith)는 AI는 게임 체인저가 될 기술 중 하나이며 자신들이 다루는 많은 논의 중에서도 가장 중요한 의제가 되고 있다면서 동시에 방사선 위험과 같은 국가안보 위협을 잠재적으로 나타낼 수 있는 출력물을 생성하는 AI 능력을 평가하고 조사하는 건 국가안보 측면에서 시급한 과제라고 강조했다.
한편 앤트로픽은 지난 8월 오픈AI와 함께 AI를 공개하기 전에 국가안보 리스크를 테스트하기 위한 계약을 AI 안전 연구소와 체결했다고 한다. 관련 내용은 이곳에서 확인할 수 있다.