뇌가 어떻게 시간을 파악하는지에 대한 연구나 선택적으로 공포나 트라우마 등 기억을 지우는 실험 등 뇌가 어떻게 기능하고 뇌 어디에서 뭘 하는지에 대한 의문은 여전히 알 수 없는 점이 많다. 이런 뇌 작용에 대해 언어 처리 심층 학습 모델인 트랜스포머(Transformer)가 뇌 기능을 추적하는 유사 모델로 유용한 것으로 나타났다.
트랜스포머는 AI가 언어를 처리하는 새로운 방법으로 2017년 발표됐다. 트랜스포머는 시계열 데이터를 다루는 것으로 공감을 낳는 기사나 고객 서비스 담당이 되는 메시지를 만드는 걸 가능하게 한다. 트랜스포머 메커니즘에는 주의 메커니즘이라는 중요한 점이 있으며 기존 중립망에선 입력된 어구가 다른 특정 어구에만 연결되어 있었지만 트랜스포머는 모든 입력된 어구, 숫자 등을 다른 모든 입력과 연결한다. 원래 언어 태스크용으로 설계된 트랜스포머는 이미지 분류 등 태스크에도 뛰어나 뇌 모델화에도 활용되고 있다.
2020년 오스트리아 요하네스케플러대학 린츠 컴퓨터과학 연구팀은 트랜스포머를 이용해 홉필드네트워크(Hopfield network)라는 기억 검색 모델을 재구성했다. 동시에 활동하는 뉴런은 서로 강력한 연결을 구축한다는 일반 규칙에 따른 홉필드 네트워크는 모든 단어를 항상 연관시키는 트랜스포머 주의 메커니즘과 관련이 있다는 점에 주목했다. 연구팀이 업그레이드한 트랜스포머 기반 홉필드 네트워크는 홉피드네트워크를 고안한 존 홉필드도 생물학적으로 타당하고 증명했다.
이후 2022년 인지신경과학자인 제임스 윌팅턴과 계산신경과학자 티모시 베렌스가 호크라이터 접근법을 더 미세 조정해 해마 형성 모델과 신경 표현으로 트랜스포머 연관이라는 논문을 가필 수정했다. 여기에선 기억을 선형이 아니고 문중 일련 단어와 같이 취급해 고차원 공간 좌표로서 인코드하고 있다. 이를 통해 신경과학 작업에서 뇌 모델 성능을 더 향상시키고 동시에 신경학자가 보는 세포 발화 패턴 모델과 수학적으로 동등하다는 걸 윌팅턴과 베렌스가 보여줬다.
윌팅턴은 기억에 중요한 역할을 하는 해마 모델은 트랜스포머에 의해 신경발화 패턴을 재현할 수 있다며 이 사실은 자신들이 만든 트랜스포머 모델은 높은 성능을 갖는다는 걸 보여준다고 밝혔다. 그에 따르면 뇌 작용을 모방할 수 있는 트랜스포머 모델을 통해 인공 중립망이 어떻게 작동하는지 이해하면서 뇌에서 기억과 계산이 어떻게 수행되는지 이해를 높여줄 수 있다는 것.
또 MIT 계산신경과학자인 마틴 스림프는 신경망 모델 43개를 분석해 각각 얼마나 정확하게 인간 신경 활동 측정치를 예측할 수 있는지를 연구에 의해 제시했다. 그에 따르면 트랜스포머는 현재 최첨단 신경망이며 뇌 기능 이미징에서 발견된 거의 모든 변동을 예측할 수 있었다고 한다.
뇌를 모방한 네트워크 모델이라는 큰 진보가 보이는 반면 베렌스는 트랜스포머는 어디까지나 뇌의 정확한 모델 첫걸음에 불과하다며 트랜스포머가 문장을 이해하는 최상 모델이라고 해도 이게 뇌에서 언어에 대해 처리하는 방법을 비추고 있다고는 생각하지 않는다고 말한다. 또 스림프는 최고 성능을 발휘하는 트랜스포머조차 단어와 짧은 문구에서 잘 작동하지만 이야기 같은 대규모 작업에선 제대로 작동하지 않는다며 자신의 감각으로 트랜스포머는 뇌 구조를 이해할 수 있는 적절한 장소를 마련하고 앞으로 학습을 통해 개선할 수 있을 것이라며 이는 좋은 경향이지만 아직도 복잡한 분야인 것에는 변함이 없다고 지적했다. 관련 내용은 이곳에서 확인할 수 있다.