기술 발전으로 인공지능을 군사적으로 이용하려는 연구 개발이 각국에서 진행되고 있다. 하지만 인간에 직접 명령하지 않아도 상황을 판단해 적을 죽이고 기지를 파괴할 수 있는 자율형 무기는 인간과 같은 도덕성이 없는 컴퓨터로는 측정 불가능하며 실용화하려면 큰 문제가 있다는 지적이 나오고 있다.
미 국방부는 AI 연구를 활발하게 진행 중이며 무기 개발을 포함한 AI 관련 프로젝트에 2020년 9억 2,700만 달러, 2021년에는 8억 4,100만 달러 예산을 할당하고 있다. 또 국방부 고급 연구 프로젝트 기관은 AI 관련 프로젝트를 2019년부터 2023년까지 5년간 계획하고 있으며 20억 달러 예산을 예상하고 있다.
그 밖에 뉴욕 육군사관학교에선 적을 패배시키도록 프로그래밍할 수 있는 로봇 전차 훈련을 하고 있으며 알고리즘 취급 방법 뿐 아니라 자율 병기에 대한 경계심도 지도하고 있다. 하지만 이 로봇 전차를 실제로 전장에 투입할 준비가 아직 되어 있지는 않다고 한다.
2020년 12월 미 공군은 고고도 전술 정찰기 U-2에서 적 미사일과 미사일 발사대를 탐지하기 위해 딥마인드가 개발한 뮤제로(MuZero)를 기반으로 한 AI 실험을 실시했다. U-2 조종 자체는 인간에 의한 것이었지만 이 실험은 미군 항공기에서 AI를 본격 활용한 첫 예라고 할 수 있다.
또 무기에 탑재할 뿐 아니라 전술과 전략을 AI로 생각하게 하는 시스템도 개발하고 있다. 국방부 공동 인공지능 센터 관계자에 따르면 AI를 이용해 대상을 선택하는 절차를 간소화하고 공격에 걸리는 시간을 줄여주는 시스템이 2021년 경부터 전장에 투입 예정이라는 것.
인권단체 관계자는 각국 정부에 클러스터 폭탄과 지뢰 등 대인 병기 제조와 사용을 금지시키려고 해왔지만 이제 여기에 자율 병기에 과감한 제한을 부과하라고 호소하고 있다. 기계는 배려도 없이 인간에게도 판단이 어려운 윤리적 선택을 고려할 수 없는 만큼 자율 병기에 의한 살인은 도덕적 임계값을 넘어선 것이라는 주장이다. 로봇에 의한 살인은 책임 소재가 모호하기 때문에 전쟁이 일어나기 쉬워진다는 것이다. 예를 들어 상대방 셔츠에 기름이 스며들어 있어 평소와는 다른 위장 패턴을 사용하거나 상정한 상황과 작은 차이가 생겨도 컴퓨터는 혼란을 일으켜 아군과 적군을 구별할 수 없어져 버릴 수도 있다. 카네기멜론대학에서 열린 실험에선 테트리스에서 상대방에게 지지 말라고 지시를 받은 AI가 결국 게임을 일시 정지해지지 않는 상황으로 만든다는 판단을 했다고 한다. 다시 말해 AI는 요구에 응하기 위해 공정성과 규범을 완전히 무시하기 때문에 전장에선 전혀 쓸모없게 될 가능성마저 있다는 것이다.
한 미 국방부 AI 관련 프로젝트 추진 전문가는 AI 기술은 전 세계에 지킬 수 없는 게 아니냐는 우려가 있지만 AI 테스트를 진행해야 하며 하지만 윤리 기준과 도덕적 기준을 잃을 우려가 없다고 말한다. 하지만 AI 기술이 진보한다는 건 AI가 갖는 윤리적 문제에 직면한다는 걸 의미한다. AI 군사 이용에 있어선 사령관은 전장에서 사람을 죽이라는 결정에 대해 기계에 얼마나 제어를 맡겨야 할 것인지 문제가 대두된다.
기계는 인간과 달리 피로와 스트레스로 인한 감각 둔화가 없다. 인간 병사는 동료가 살해당한 경우 어떤 화력으로 누구를 대상으로 하는지에 대해 잘못된 선택을 할 수 있지만 기계는 감정에 영향을 미치지 않고 임무에 집중하고 있다. U-2 실험을 견학한 구글 전 CEO인 에릭 슈미트는 인간 생명이 위협받는 상황을 포함해 생각할 수 있는 모든 상황에서 AI가 어떻게 기능하는지를 나타내는 건 어렵기 때문에 군이 곧바로 AI를 채택할 가능성은 낮다고 보고 있다.
물론 AI 군사 사용에 대한 단속을 해야 한다는 의견도 주장되고 있다. 2012년 10월 여러 인권단체는 급속한 드론 발전과 인공지능 기술 급성장을 우려하고 사람의 살상을 목적으로 한 로봇을 폐지하는 캠페인을 전개했다. 또 2013년 열린 특정 재래식 무기 사용 금지 제한 조약 CCW에 관한 국제회의에선 자율 살상 무기 제조와 판매, 사용 완전 금지 여부를 논의했다.
자율 살상 무기 금지를 CCW에 담은 초안을 유엔에 제출하기 위해선 CCW를 체결하는 125개국 모두의 동의를 받아야 한다. 하지만 현재까지 이에 동의한다고 답한 곳은 30개국에 국한되어 있다.
또 구글 사내에서 이런 군사 프로젝트 참여에 반대하는 목소리도 있다. 2018년 4월에는 구글 직원 4,000명이 무인 항공기 영상이나 위성에서 객체를 AI에서 식별하고 추적하는 시스템을 개발하는 프로젝트 마빈(Porject Maven) 철수를 요구하는 청원서에 서명해 구글에 제출했다. 같은 해 6월에는 구글이 프로젝트 마빈 계약 갱신d을 하지 않는다고 발표하고 무기에 직접 사용하는 시스템과 상관이 없다고 말했다. 또 아마존과 마이크로소프트에서도 비슷한 청원서를 제출했지만 양사 모두 여전히 미 국방부와 긴밀한 관계에 있다.
프로젝트 마빈 소동을 계기로 펜타곤은 미국국방혁신위원회에 AI 윤리 지침 제안을 구하고 AI 사용과 관련한 윤리적 문제에 대한 조사를 할 것을 명령했다. 슈미트 전 CEO는 인간이 실수를 하고 민간인을 죽인 경우 이는 비극이지만 자율 시스템이 민간인을 죽이면 이는 비극 이상이라고 말했다. 사람과 달리 일반적인 수행이 확실하지 않은 시스템은 책임을 생각하지 않으며 AI 신뢰성은 앞으로 수십 년간 수정될지 모른다면서 아마도 내년은 무리일 것이라고 말했다. 관련 내용은 이곳에서 확인할 수 있다.