인간 수준 문장을 생성하는 챗GPT가 EU 데이터 보호 규칙을 위반한다는 의심으로 개발사인 오픈AI가 이탈리아 데이터 보호 기관으로부터 조사를 받고 있다. 당국은 2023년 4월 30일까지 이탈리아와 EU 법률을 준수하도록 호소하고 있지만 AI 전문가는 이 작업을 불가능에 가깝다며 챗GPT와 오픈AI가 겪는 문제에 대해 자세히 설명했다.
EU GDPR(General Data Protection Rules) 하에서 기술 기업은 개인 데이터를 사용해 제품을 학습시킬 때에는 사용자 동의를 받아야 한다. 또 EU에서 사업을 전개하는 기업은 데이터 수집과 공유를 EU 사람이 거부할 수 있는 옵션을 제공해야 한다.
이탈리아 데이터 보호 기관은 오픈AI에 의해 데이터가 수집될 때 그 사실이 사용자나 데이터 주체에게 전해지지 않는 것, 알고리즘 학습용으로 개인 데이터를 대량 수집, 처리하는 걸 시행하는 법 근거가 없는 것으로 생각되는 걸 문제시하고 있어 오픈AI에 컴플라이언스 개선을 요구하고 있다. 당국은 2023년 4월 30일을 기한으로 해 이탈리아와 EU 데이터 보호와 개인 정보 보호 법률을 준수하도록 지시했다.
또 챗GPT가 GDPR을 위반했을 가능성이 있는 것으로 당국은 챗GPT에 대한 이탈리아 액세스를 차단하도록 오픈AI에 명령했다. 오픈AI는 이에 따라 4월 1일부터 차단을 시작하고 실태를 재검토해 액세스를 복원할 수 있도록 노력한다는 성명을 내고 있었다.
하지만 당국 지시에 오픈AI가 따르는 건 불가능에 가깝다고 전문가는 지적한다. 이유는 오픈AI 모델은 인터넷에서 수집한 모든 정보를 바탕으로 학습되고 있기 때문에 개발자조차 어떤 데이터가 수집되고 있는지를 정확하게 파악할 수 없다고 여겨지고 있기 때문이다.
허깅페이스 선임 윤리 과학자는 오픈AI가 개인 데이터를 식별하고 추출하는 건 어렵다며 데이터 수집에 대한 최신 기술은 미숙하며 엄청난 노력을 했음에도 데이터 수집 방법은 지난 10년간 거의 변하지 않았기 때문이라고 밝혔다.
오픈AI가 법률 준수를 달성하려면 모델 학습에 사용하는 데이터를 사용자 동의를 얻어 입수헀다는 걸 증명하거나 데이터를 수집하는데 정당한 이익이 있다는 걸 증명하지 않으면 안 된다. 릴리언 에드워즈 뉴캐슬대학 인터넷 법 교수는 쟁점이 이탈리아 당국 범위를 넘는 큰 것이며 EU 사법재판소에 갈 가능성이 있다고 지적한다. 이탈리아에 이어 독일과 프랑스에서도 챗GPT에 대한 규제 조치가 검토되고 있기 때문에 오픈AI 과제는 이탈리아에만 그치지 않고 각국에서도 마찬가지로 추궁될 가능성이 있다. 관련 내용은 이곳에서 확인할 수 있다.