구글은 2011년부터 프로그램이나 웹서비스 등에 숨어 있는 취약성을 발견한 사용자에게 사례로 보상을 지불하는 VRP(Vulnerability Reward Program)를 운용하고 있다. 최근 몇 년간 챗GPT 같은 생성형 AI가 주목받으면서 구글은 10월 26일 새롭게 일반 AI 취약점을 발견하고 보고한 보안 연구자에게 보상을 지불하기로 결정했다.
생성형 AI는 질문에 대한 답변과 코드 생성, 목적에 따른 일러스트 생성 등을 할 수 있는 한편 사용법에 따라 거짓 뉴스 기사나 SNS 투고, 개인 정보를 유출시키는 공격을 낳을 위험성이 있다.
지금까지 구글은 자사 제품이나 오픈소스 소프트웨어에 존재하는 취약성을 발견한 보안 연구자에게 보상금을 지불하는 VRP라는 대처를 실시해왔다. 이번에 구글은 이런 VRP 범위를 확대해 AI 보안 취약성과 공격도 보고, 보상금 지급 대상이 되는 걸 밝혔다.
이번 VRP 적용 범위가 확대되면서 생성형 AI가 갖는 보안상 결함을 찾아 구글에 보고, 공개한 보안 연구자나 화이트 해커에 대해 발견한 취약성 심각도에 따라 최대 3만 1,337달러가 지불된다. 한편 발견된 취약성 우선도가 낮으면 구글로부터 지불되는 최대 보상금은 5,000달러에 그친다.
구글은 VRP 범위가 확대되면 AI 안전성과 보안에 관한 연구가 어느 때보다 활발해지고 그 결과 생성형 AI가 안고 있는 잠재적 문제가 밝혀질 수 있다며 이를 통해 더 안전하고 안심할 nt 있는 일반 AI 제품이 개발될 것이라고 밝히고 있다. 구글은 또 보안 연구자 등으로부터 보고를 모집하는 동시에 AI를 더 안전하게 이용할 수 있도록 화이트해커팀(Google Red Team)을 독자 조직하고 있다. 지금까지 이 팀은 대규모 언어 모델이 있는 적대적 프롬프트를 입력해 유해 텍스트를 생성하거나 기밀 정보를 유출하는 프롬프트 인젝션이라는 문제에 대해 경고했다. 또 대규모 언어 모델이 학습한 정보를 재구성하고 얻은 데이터에서 개인 정보와 비밀번호를 추출하는 학습 데이터 추출 공격에 대해서도 경고했다.
구글은 AI는 악의적 모델을 조작하고 부적절한 바이어스 같은 기존 기술과는 다른 보안 문제를 갖고 있다며 따라서 이런 문제를 해결하기 위한 새로운 지침이 필요하며 이번에는 VRP 범위를 확대해 AI 공급망 보안 취약성과 버그 등 정보를 보편적으로 발견, 검증할 수 있게 하고 있다. 관련 내용은 이곳에서 확인할 수 있다.