테크레시피

美 AI가 개발한 생물무기, 국가안보상 우려로 부상

최근 AI 기술 발전은 눈부시며 인간이 쓴 것처럼 자연스러운 문장을 높은 정확도로 생성할 뿐 아니라 프로그램 소스 코드를 자동 작성하거나 단백질 3D 구조를 예측하는 것도 가능해졌다. 전문가는 AI를 이용하면 새로운 생물무기를 개발하는 장벽이 낮아지고 있다고 경고하고 있다.

생화학자이자 전 UN 무기 조사관인 로코 카사그란데는 2023년 봄 백악관 고위 관리에게 AI 챗봇이 위험한 바이러스 제작 방법을 가르칠 수 있는 가능성에 대해 경고했다. 그는 시연에서 AI가 제안한 병원체 합성 DNA를 실제로 구매해 시험관에 넣어 백악관에 가져오는 과정을 보여주며 AI를 사용해 생물무기 재료를 비교적 쉽게 구할 수 있다는 걸 증명했다.

이런 경고는 국가안보 네트워크를 통해 퍼졌고 국방부, 국무부, 국토안보부 등 고위 관리도 유사한 시연을 요구하기 시작했다. 이런 시연은 AI가 생물무기 개발을 용이하게 할 가능성에 대해 미국이 얼마나 무방비 상태인지를 인식시키는 계기가 되고 있다.

이 문제 배경에는 합성 생물학과 AI 융합이 있다. 유전자 편집 기술 진보, 전산 생체역학 발전, 온라인으로 실험을 시뮬레이션할 수 있는 클라우드 랩 등장 등으로 인해 기존 연구 시설 없이도 신속하고 저렴하게 위험한 생물을 만들어낼 수 있는 가능성이 생겼다. 여기에 AI가 더해져 유해한 생물에 관한 정보에 대한 접근이 더 쉬워지고 있다는 경고다.

바이든 정부는 이 위협에 대응하기 위해 2023년 10월 말 포괄적인 대통령령을 발표했다. 이 명령에는 인공 DNA를 사용한 정부 자금 연구 감시 강화, AI 안전성을 검토하는 기관 설립, 생물학적 데이터를 다루는 AI 도구에 대한 가이드라인과 보고 요건 작성 등이 포함되어 있다.

또 2024년 3월에는 130명 이상 과학자가 AI를 생물무기 개발에 이용하는 것을 방지하는 서약서에 서명했다. 존스 홉킨스 대학 보건안보센터 톰 잉글스비 소장은 정부가 AI 기업을 정기적으로 감사하고 해를 끼쳤을 경우 책임을 묻는 방법을 검토해야 한다고 주장하기도 했다.

한편 AI 기업도 대책을 마련하고 있다. 앤트로픽과 오픈AI는 AI가 생물무기에 관한 정보를 제공하지 않도록 모델을 조정하고 있다. 카사그란데도 앤트로픽과 오픈AI 협력 하에 AI 안전성을 검사하기 위한 전문가 팀을 결성했다.

하지만 유해 정보를 모두 식별해 삭제하거나 유용한 과학 정보와 잠재적으로 위험한 정보를 구별하는 건 어렵다. 더구나 보안상 이유로 AI 기업은 구체적인 대책에 대한 세부 사항을 공개하지 않는 경향이 있으며 AI 능력이 향상됨에 따라 새로운 취약성이 생길 가능성도 있어 대책이 충분하다고 할 수 없다.

앤트로픽 공동 창립자인 잭 클락은 AI 기업을 회계사가 없는 금융 기관에 비유하며 AI 시스템 테스트와 평가, 보증을 수행할 제3자 기관 필요성을 지적했다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사