테크레시피

오픈AI, 버그 보상금 프로그램 시작했다

챗GPT를 개발한 AI 개발 기업인 오픈AI가 버그 보상금 플랫폼 버그크라우드(Bugcrowd)와 손잡고 AI 시스템 안전을 확보하기 위해 새로운 버그 보상금 프로그램을 시작했다. 취약성을 보고한 보안 연구자에게는 개개 취약성에 대해 200달러에서 6,500달러가 주어져 최대 2만 달러 보상금이 증정된다고 한다.

오픈AI는 버그 보상금 프로그램 시작을 밝히며 자사는 AI 시스템이 안전하다는 걸 보장하기 위해 연구와 엔지니어링에 많은 투자를 하고 있지만 모든 복잡한 기술과 마찬가지로 자사 시스템에 취약성과 결함이 나타날 수 있다는 걸 알고 있다며 보안 연구자, 윤리적 해커, 기술 애호가 등 글로벌 커뮤니티에 이런 시스템 취약성을 파악하고 이를 해결하기 위한 협력을 호소한다며 취약성 정보에 대한 인센티브 제공을 하며 협력적인 정보 공개 헌신을 구축하는 것에 흥분하고 있다고 밝히고 있다.

버그 보상금 프로그램을 시작할 때 오픈AI는 몇 가지 규칙에 따라 취약점을 찾아야 한다. 발견된 취약성을 빠르게 보고할 것. 프라이버시 침해, 시스템 중단, 데이터 파괴, 사용자 경험 침해를 삼갈 것, 취약성 보고는 버그크라우드를 통해 실시할 것, 오픈AI 보안팀이 공개를 허용할 때까지 취약성 세부 사항을 비밀로 유지한다. 오픈AI 기밀 데이터를 포함한 타인 데이터에 액세스하거나 변경, 사용하지 않을 것. 취약점으로 인해 이런 데이터가 노출되면 테스트를 중단하고 곧바로 보고서를 보내 데이터 복사본을 삭제한다. 오픈AI가 허용하지 않는 한 자신의 계정과만 상호 작용할 것, 취약성은 무조건 공개하고 공갈이나 협박 등에 사용하지 않을 것 등이다.

오픈AI는 지침에 따라 취해진 취약성 조사에 대해 법률 위반을 불문하고 세이프하버를 제공하며 보고서 이해와 검증에 협력하며 검증된 취약성을 적시에 수정할 걸 약속했다.

버그 보상금 프로그램 대상으론 오픈AI 각종 API나 관련 인프라, 제3자를 통해 공개된 기밀 정보, 오픈AI에 의해 운영되는 웹사이트에 더해 챗GPT 로그인이나 구독 플랜, 플러그인 등도 포함되어 있다.

하지만 버그 보상금 프로그램을 통한 보고가 요구되는 건 인증이나 데이터 유출 등 보안적 문제이며 모델 문제는 대상 외다. 오픈AI는 모델 안전 문제는 직접 수정할 수 있는 별도 버그가 아니기 때문에 버그 보상 프로그램에 잘 보합하지 않는다며 이런 무제를 적절하게 해결할 수 있도록 버그 보상 프로그램이 아닌 적절한 양식을 이용해 신고하라며 모델 피드백 보고 페이지를 통해 보고해달라고 요청했다. 보고된 취약성 심각도는 버그크라우드 취약성 분류와 오픈AI 판단에 따라 평가되며 취약성당 200∼6,500달러 보상금이 지급된다. 또 예외적 발견에 대해선 최대 2만 달러 보상금이 지불된다고 한다.

오픈AI는 버그 보상금 프로그램을 시작한 이유에 대해 특정 사례를 언급하지 않았지만 2023년 3월 챗GPT에서 발생한 타인 채팅 내역이 보이는 버그와 관련될 가능성이 높다는 지적이다. 이 버그는 플랫폼에서 이용되는 오픈소스 라이브러리 redis-py가 원인이며 채팅 이력 외에도 유료 플랜 챗GPT 플러스 가입자 개인 정보가 일부 유출됐다고 한다.

보도에 따르면 4월 이탈리아 데이터보호기관이 이탈리아인에 대한 데이터 처리를 중단하라는 명령에 따라 챗GPT에 대한 이탈리아 액세스가 차단된 사례로 다른 유럽 규제 당국도 AI 서비스에 대해 더 자세한 연구를 촉구하는 분위기라고 지적한다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사