챗GPT나 달리 등을 비롯한 제너레이티브 AI는 전체 직업 80%에 영향을 미친다는 연구 결과가 나타나고 있다. 그 중에서도 크리에이터나 지식 노동자에게는 현저한 영향을 미칠 전망이다. 제너레이티브 AI와 대규모 언어 모델 LLM이 앞으로 아티스트와 지식 노동자에게 어떤 영향을 미치고 어떤 문제가 일어날지에 대해 전문가 의견은 어떨까.
린 파커(Lynne Parker) 테네시대학 부학장은 대규모 언어 모델을 통해 창의력과 지식이 필요한 업무에 모두 접근할 수 있게 된다고 지적했다. 자신의 생각을 적절한 문장이나 이미지, 일러스트로 하거나 텍스트를 정확하게 요약하고 알기 쉽게 바꿔 말하는 등 작업은 특정 기술이나 지식이 필요했다. 하지만 챗GPT나 달리2 같은 도구를 이용하면 간단한 명령문만 입력하면 자신을 표현하거나 방대한 정보를 정리하는 게 가능하다.
또 비즈니스용 프레젠테이션에 이용하는 일러스트 작성이나 목적한 기능을 실행하기 위해 새로운 프로그램 코드를 생성하는 등 인간 전문가 수준 품질을 초보자가 제너레이티브 AI를 이용해 몇 분 안에 실현 가능한 경우가 비즈니스 현장에서도 일어나고 있다는 것. 한편 원하는 콘텐츠를 생성하려면 정확한 프롬프트가 필요하기 때문에 더 단순하고 완전히 새로운 종류의 창의력이 필요하다고 말한다.
물론 제너레이티브 AI가 모든 이들에게 개방되는 게 큰 이점이 있더라도 AI 도구 발달에는 중요한 단점이 있다는 지적이다. 작문 기술을 앞으로 몇 년 동안 가장 중요하게 유지하는 인간의 중요한 기술 중 하나로 보고 제너레이티브 AI가 침투해가며 이 기술 상실이 가속될 가능성을 우려하는 것이다. 또 AI 도구가 지적 재산 보호에 관한 의문을 일으키고 있어 관련 소송이 향후 LLM 설계와 사양에 영향을 줄 가능성도 있다.
다니엘 아쿠냐(Daniel Acuña) 콜로라도대 볼더 컴퓨터과학 준교수 역시 지적 재산 침해에 의한 표절 가능성을 우려하고 있으며 크고 작은 다양한 부정확성이 나타나는 점과 편견이 조장되는 점을 불안한 요소로 지적한다. 제너레이티브 AI에서 생성한 콘텐츠는 지금까지 없던 아이디어나 새로운 솔루션을 만들어주기 때문에 이를 확인하고 품질을 평가해 창의적 활용이 가능하다. 하지만 생성된 코드 내용이나 텍스트 논리를 비판적으로 조사하지 않으면 비효율적인 코드나 잘못된 추론 등 크고 작은 다양한 부정확성을 포함한 결과가 출력되기 때문에 AI 도구가 생성하는 것에 대해 비판적이지 않은 이들에게는 도구가 잠재적으로 해로울 수 있다는 것이다.
또 언어 모델은 데이터를 편향된 관점에서 읽고 여기에서 학습하고 재현하기 때문에 편견이 조장되는 경우가 있다. 챗GPT 같은 대화형 AI는 부적절한 질문에 대답하지 않는 메커니즘이지만 이런 가드를 피하는 방법 역시 나오고 있다. 인상이나 성별, 직업 등에 관한 스테레오 타입 편견을 조장하는 경향이 있다는 지적도 나온다. 실제로 2022년 11월 공개된 기계학습 모델 관련 논문에선 텍스트에서 이미지로 생성하면 인구통계적으로 고정 관념이 대규모로 증폭되는 게 밝혀졌다. 또 AI에서 생성된 콘텐츠를 AI가 재학습해 데이터를 오해하거나 마이너리티가 배척되어 버린다는 연구 결과도 보고됐다.
부정확성이나 편견, 모델 학습이 표절에 해당한다는 점을 포함해 AI 도구는 가능성을 고려할 때 아직 초기 단계에 있다는 것. 한편 이들 모두 기술적으로 해결할 수 있는 문제이며 팩트체크나 바이어스 제거, 표절 검출 등 도구 발달로 더 뛰어난 창의적 도구로 사용할 수 있다는 긍정적 전망을 말한다.
켄타로 토야마(Kentaro Toyama) 미시간대 정보학부 준교수는 기술이 인간 능력을 일반화하고 누구나 비슷한 결과를 만드는데 도움을 준다면서도 인지적 과제에는 인간 뇌가 필요하다는 주장도 기술 발전에 의해 상쇄되고 있다고 주장한다. 컴퓨터가 인간 지성을 만나 이를 넘는 순간이 싱귤래리티가 다가오고 있다고 믿는다며 인간 지성과 창조성이 평가되는 부분은 극히 일부로 예상하고 있다.
예를 들어 1997년에는 IBM이 개발한 체스 전용 슈퍼컴퓨터인 딥블루가 체스 세계 챔피언을 이겨냈지만 이로 인해 체스 인기가 줄어든 건 아니다. 인간 플레이어는 인격과 드라마를 수반하기 때문에 컴퓨터가 더 잘할 수 있더라도 인간이 하는 게 중시되는 경우가 있다는 걸 시사한다.
한편 예를 들면 일러스트나 삽화 등에 대해선 인간에 의해 그려졌는지 컴퓨터에 의해 생성됐는지를 신경 쓰는 독자는 많지 않을 가능성이 있다. 많은 분야는 인간의 능력과 AI 활용과의 하이브리드 조합으로 틈새 분야만 인간만의 힘으로 작업하는 분야로 남고 작업 대부분은 컴퓨터에 의해 이뤄진다. 더 많은 작업이 손실되고 인간 특유 기술을 가진 소수의 창조적 직업이 풍부해지고 창의적 기술을 소유한 사람이 새로운 부자가 될 건 거의 확실하다는 설명이다.
마크 핀레이슨(Mark Finlayson) 플로리다국제대 컴퓨터과학 부교수는 워드프로세서가 보급되어 타자기 입력자 업무가 소멸된 것처럼 LLM에 의해 오래된 업무가 사라지고 새로운 일이나 기술이 태어날 걸 예상한다. LLM이 발전해도 원하는 콘텐츠를 출력하기 위한 프롬프트를 만들려면 현명함이 필요할 수 있다. 또 LLM은 정오와 상식에 대한 추상적이고 일반적 이해를 포함하지 않아 무경고로 부적절하거나 무의미한 출력을 할 수 있어 결과를 조사하는 능력이 요구된다.
LLM이 실패할 가능성은 AI에 일을 빼앗긴다고 생각하기 쉬운 크리에이터와 지식 노동자에게 기회가 될 것이라고 말한다. 또 LLM과 제너레이티브 AI는 일반 용도로 만들어지기 때문에 특정 시장에 제공하는 특수 유형 콘텐츠를 생성하는 비즈니스를 위해선 더 깊은 전문 지식이 요구된다. 종합적으로 LLM은 크리에이터와 지식 노동자에게 혼란을 초래하는 전조인 건 분명하지만 적응하려고 노력할 수 있으면 소중한 기회가 넘치고 있다는 걸 시사한다.
케이시 그린(Casey Greene) 콜로라도대학 생물의료정보학 교수도 새로운 기술 도약이 새로운 기술로 이어질 가능성을 지적한다. 구글이 출현하며 인터넷상 정보를 검색하는 기술이 변화했듯 언어 모델에서 최적의 출력을 끌어내는데 필요한 스킬은 프롬프트와 템플릿 작성에 중점을 둔다. 필요한 기술 변화에 대해 얘기하면서 AI 모델에 널리 액세스할 수 있는 시대에는 인간이 세계와 어떻게 관련될지가 바뀐다. 문제는 사회가 이 순간을 공정성 향상에 이용할지 아니면 격차를 악화시키는데 이용할지라고 지적한다. 관련 내용은 이곳에서 확인할 수 있다.