지난 2023년 10월 팔레스타인 단체 하마스가 이스라엘에 대규모 공격을 감행했고 이에 대해 이스라엘이 가자 지구에 반격을 가하면서 대규모 분쟁이 지속되고 있다. 이스라엘군은 하마스 전투원을 암살하기 위해 라벤더(Lavender)라는 AI를 활용하고 있는 것으로 보도되고 있다. 그리고 라벤더와 추적 시스템 웨어스대디(Where’s Daddy?)를 결합한 킬 체인(Kill Chain)이라는 방식으로 가자 지구 주민을 포함한 많은 민간인을 폭격하고 있다고 보도되고 있다.
이스라엘군은 하마스와 PIJ 군사 부문에 소속된 용의자를 암살하기 위해 라벤더라는 AI 시스템을 개발했다. 라벤더는 가자 지구 주민 230만 명 데이터를 수집, 분석해 하마스와 PIJ 전투원일 가능성을 1부터 100점 사이 점수로 평가하고 높은 점수를 받은 개인을 자동 암살 대상으로 지정한다. 라벤더는 팔레스타인인 3만 7,000명을 암살 대상으로 선정했다.
이스라엘군은 또 웨어스대디라는 추적 시스템을 라벤더와 결합해 운용하고 있다. 라벤더에 의해 암살 대상으로 지정된 사람을 웨어스대디에 등록해 추적하고 대상자가 자택에 들어오면 군 관계자에게 통보되어 자택이 폭격 대상이 되는 방식이다. 이를 통해 이스라엘군은 대상자와 그 가족을 폭격으로 암살할 수 있게 됐고 이를 킬 체인이라고 부른다.
폭격에는 유도 장치가 없는 일반 폭탄, 소위 멍텅구리 폭탄이 사용됐다. 정보 제공자에 따르면 이스라엘 군은 하급 전투원을 암살할 때 비용 절감을 위해 이런 멍텅구리 폭탄을 사용했으며 이로 인해 전투원 뿐 아니라 그 가족과 인근 민간인에게도 피해가 가해졌다고 한다. 또 민간인 피해 규모가 전투원 1명당 15∼20명, 고위 관리의 경우 100명 이상이 허용됐다고 한다. 이는 명백히 국제법 위반이라고 지적되고 있다.
정보 제공자에 따르면 이스라엘군은 폭격 대상 가옥 민간인 수를 자동 계산하는 소프트웨어를 사용했지만 이 모델은 현실과 동떨어져 있어서 실제 피해 규모를 정확히 예측할 수 없었다고 한다. 또 웨어스대디 검지와 실제 폭격 사이에 시간 차이가 있어 대상자가 외출했음에도 가옥이 폭격되는 경우도 있었다고 한다.
보도에선 군사 기술에서 속도와 파괴력이 중요시되지만 AI에 의해 인간 주체성이 손상될 수 있다고 지적하고 있다. 한편 이스라엘군은 AI 시스템 사용을 즉각 부인했다고 한다. 관련 내용은 이곳에서 확인할 수 있다.