오픈AI가 개발한 챗GPT는 높은 정밀도로 인간과 채팅을 할 수 있지만 때론 환각이라고 불리는 놀라운 답변을 하기도 한다. 2월 20일경 챗GPT가 갑자기 많은 사용자에게 이상한 대답을 하게 되어 챗GPT가 발작을 일으켰다는 보고가 잇따르고 있다.
VERY strange, rambling responses
byu/AnonymousRandomMan inChatGPT
보도에선 챗GPT 오작동에 대해 오류 대부분은 누군가에게 스마트폰에 단어를 입력하고 다음 단어 후보를 반복적으로 탭해 무슨 일이 일어나는지 확인하라는 소셜미디어에 흔한 밈을 닮았다며 대규모 언어 모델은 본질적으로 공상적으로 텍스트를 예측하고 있을 뿐이므로 이런 일은 이해할 수 있다는 지적이다.
Anyone else experiencing ChatGPT losing it?
byu/StackTrace5000 inChatGPT
오픈AI도 이런 이상 사태를 인지하고 2월 20일 15시 40분경 챗GPT로부터의 예기치 않은 응답에 대해 조사를 시작했다. 2월 21일 8시 14분 챗GPT 문제가 수정되어 응답이 정상으로 돌아왔다고 한다. 오픈AI에 따르면 사용자 경험 최적화를 실시했는데 대규모언어모델 언어 처리에 버그가 발생했다고 한다. 대규모언어모델은 언어를 토큰에 맵핑되는 수치로 처리하고 있지만 버그에 의해 모델이 수치를 선택하는 스텝에 잘못이 생겨 의미를 갖지 않는 단어열을 구성해버렸다고 한다.
Self-correcting endless loop
byu/LoKSET inChatGPT
보도에선 생성형 AI에 의한 챗봇은 빠르게 진보하는 기술로 이 원동력이 되는 대규모언어모델은 본질적으로 블랙박스이며 작성자조차도 상세를 완전히 이해하고 있지 않다는 걸 상기시켜준다고 지적한다. 채팅 AI는 데이터 패턴을 찾고 입력에 어떻게 반응하는지 최선의 추측을 수행해 작동하며 보통 눈에 띄는 결과로 이어진다. 하지만 환각과 감정 조작 심지어 게으른 응답을 일으킬 수 있다는 지적이다. 관련 내용은 이곳에서 확인할 수 있다.