미국 국립표준기술연구소 내부 조직인 미국 AI 안전 연구소(U.S. Artificial Intelligence Safety Institute)가 오픈AI 및 앤트로픽과 출시 전 AI 테스트에 관한 계약을 체결했다고 발표했다.
이번 계약은 미국 AI 안전 연구소가 오픈AI 및 앤트로픽의 출시 전 AI 모델에 접근할 수 있는 체계를 확립하는 것. 미국 AI 안전 연구소는 양사 AI 모델에 접근해 기능 및 안전 위험을 평가할 수 있게 된다. 또 미국 AI 안전 연구소는 양사와 함께 AI 안전 위험을 완화하는 방법을 연구할 의향을 밝혔다. 더불어 미국 AI 안전 연구소는 오픈AI와 앤트로픽 새로운 AI 모델에 관한 안전성 평가를 영국 AI 안전 연구소와 공유할 것이라고도 밝혔다.
오픈AI 샘 알트만 CEO는 자사는 미래 모델 출시 전 테스트에 대해 미국 AI 안전 연구소와 합의에 도달하게 되어 기쁘다며 여러 이유로 AI 안전 테스트가 국가 차원에서 실시되는 게 중요하다고 생각하며 미국은 계속해서 주도적인 역할을 해야 한다며 미국 AI 안전 연구소와의 합의를 환영했다.
we are happy to have reached an agreement with the US AI Safety Institute for pre-release testing of our future models.
— Sam Altman (@sama) August 29, 2024
for many reasons, we think it’s important that this happens at the national level. US needs to continue to lead!
한편 오픈AI는 수학을 풀 수 있는 AI 모델 스토베리(Strawberry)를 개발 중이며 미국 국가안보국(NSA)에 시연을 했다고 보도되고 있다. 관련 내용은 이곳에서 확인할 수 있다.