오픈AI가 개발한 챗GPT(ChatGPT)는 인간이 쓴 것 같은 자연스러운 문장을 높은 정밀도로 생성하는 언어 모델 GPT-3 파생이 기반이 되어 문장을 입력하면 마치 인간과 대화하고 있는 것처럼 느껴지도록 자연스럽게 대화하는 게 가능하다. 이런 챗GPT가 저자로 이름을 단 논문이 등장하고 있다고 학술지 네이처가 보고하고 있다.
이미 챗GPT 등 AI가 연구 논문 저자에게 크레딧을 받은 경우는 적어도 4건 확인됐다. 예를 들어 의학 논문 리포지토리(medRxiv)에 게재된 논문 저자 중에는 챗GPT 이름이 들어가 있다. 이 논문은 미국 의사 면허 시험을 이용해 챗GPT 성과를 평가하는 것이었다.
자매 리포지토리인 바이오릭시브(bioRxiv) 운영팀은 연구 논문을 작성할 때 AI 툴을 이용할 경우 저자명에 챗GPT를 넣는 게 적절한지 여부를 논의하고 있다고 한다.
매드릭시브 공동 설립자인 리처드 세버는 학술 논문 저자는 문장 작성자라는 일반적 의미에서 저자와 구별해야 한다며 저자는 저신의 작품에 대해 법적 책임을 지기 위해 사람만 기재되어야 한다고 밝혔다. 물론 과거에는 애완동물이나 가상 인물이 학술 논문 저자에 기재된 예가 잇지만 이는 단순히 체크 문제이며 규칙 문제와는 별도라는 지적이다.
또 다른 학술지(Nurse Education in Practice) 2023년 1월호에 게재된 간호 교육에 있어서의 열린 인공지능 플랫폼 : 학술적 진보인가 남용인가라는 논문에서도 챗GPT가 논문 공동 저자로 올랐다. 다만 이곳 편집장에 따르면 이 크레딧은 잘못 기재된 것이라고 한다.
학술지 출판사 대부분은 챗GPT 등 AI는 학술 논문 내용이나 무결성에 책임을 질 수 없기 때문에 연구 저자로 기준을 충족시키지 못한다고 말한다. 네이처 측은 저작자는 논문에 대한 책임이 따르지만 이를 언어 모델 AI 모델에 적용할 수는 없다며 AI를 사용했다면 사용 방법을 논문 기술 설명 또는 다른 섹션에 설명해야 한다고 밝혔다. 사이언스 측도 AI를 논문 저자로 기재할 수 없으며 적절한 인용 없이 AI가 생성한 텍스트를 사용하는 건 도용으로 생각할 수 있다고 밝히고 있다.
아카이브(arXiv) 이사회는 내부에서 논의를 거듭하고 있다. 현재 챗GPT 저자 논문은 아카이브에 등록되어 있지 않지만 가까운 시일 내에 논문 저자용 가이던스를 공개할 것이라고 한다. 홍콩 제약 기업인 인실리코 메디신 알렉스 자보론코프(Alex Zhavoronkov) CEO는 AI에 의한 제약을 사업에 전개하는 동시에 AI를 이용해 80개 이상 논문을 발표하고 있다. 그에 따르면 챗GPT에 같은 질문을 몇 차례씩 하면 다른 대답이 돌아오기도 한다며 그는 자신은 학문 세계에서 AI가 악용되지 않을까 우려하고 있다고 밝혔다. 관련 내용은 이곳에서 확인할 수 있다.