테크레시피

스탠포드대 보고서가 짚은 AI 10가지 포인트

AI 연구 개발은 빠르게 진행되고 있어 일상 대화와 코딩이 가능한 AI나 고품질 이미지를 생성할 수 있는 AI, 로봇을 정밀하게 움직일 수 있는 AI 등 고성능 AI가 속속 등장하고 있다. 스탠퍼드 대학이 이런 AI 현황을 정리한 AI 인덱스 리포트 2024(AI Index Report 2024)를 공개했다. 스탠퍼드 대학은 AI 능력과 연구 상황 등을 정리한 AI 인덱스 리포트를 2017년부터 매년 공개해왔다. 4월 15일 공개된 2024년 보고서에는 2023년까지의 AI 관련 방대한 데이터를 분석한 결과를 실어 페이지 수가 502페이지에 달한다. 보고서 주요 내용을 살펴보면 다음과 같다.

먼저 AI는 여러 과제에서 인간을 능가하지만 모든 과제에서 우위에 있는 건 아니라는 것. 언어 처리 성능이나 이미지 처리 성능을 측정하는 9가지 벤치마크에서 인간과 AI 점수를 비교한 결과 단순한 언어 처리나 이미지 인식 같은 과제에선 AI가 더 높은 점수를 보였지만 상식 추론이나 경쟁 수준 수학 문제에선 인간이 더 뛰어난 성적을 보였다.

다음으로 최첨단 AI 개발에서 학계보다 기업이 주도하고 있다. 2023년 주목할 만한 기계 학습 모델 중 기업이 개발한 모델은 51개, 기업과 학계가 협력해 개발한 모델은 21개, 학계가 개발한 모델은 15개였다.

이어 AI 학습 비용이 크게 증가하고 있다는 것. 기계 학습 모델 학습에 사용된 컴퓨팅 능력(FLOP)을 정리한 그래프에 따르면 학습에 사용된 컴퓨터 성능이 상승 추세이며 기업 모델이 학계 모델보다 고성능 컴퓨터로 개발되고 있는 것으로 나타났다.

또한 기계 학습 모델의 학습 비용을 정리한 그래프에 따르면 컴퓨터 성능 향상과 모델 복잡화로 인해 학습 비용이 증가하고 있으며 GPT-4 학습에는 7,800만 달러, 제미나이 울트라 학습에는 1억 9,100만 달러 비용이 투입됐다.

넷째 주목할 만한 AI 모델 대부분은 미국발이며 중국이 뒤를 따르고 있다는 것. 주목할 만한 기계 학습 모델 개발국을 보면 미국이 61개 모델을 개발했고, 중국이 15개, 프랑스가 8개, 독일이 5개 모델을 개발한 것으로 나타났다.

5번째는 AI 안전성에 대한 표준화된 평가 기준이 부족하다는 것. AI 악용 사례 그러니까 채팅 AI를 이용한 사기, 이미지 생성 AI를 이용한 딥페이크 확산 등이 늘어나고 있으며 스탠퍼드 대학은 AI 안전성을 올바르게 평가하기 위해 표준화된 AI 평가 기준이 필요하다고 주장하고 있다.

6번째 생성형 AI에 대한 투자가 급증하고 있다는 것. 전 분야 AI에 대한 민간 투자는 2021년 정점 이후 감소 추세지만 생성형 AI에 한정해선 2023년 민간 투자 총액이 252억 3,000만 달러에 달했다.

7번째는 AI는 노동자 생산성을 높인다는 것. 여러 업종에서 AI 도입으로 비용이 감소했다고 응답한 비율과 수익이 증가했다고 응답한 비율이 절반 이상으로 나타났다.

8번째는 AI로 인해 과학 발전이 촉진되고 있다는 것. 2023년에는 알고리즘 개선 AI AlphaDev와 새로운 소재 발견 AI GNoME 등 과학 발전을 이끄는 능력을 갖춘 AI가 발표됐다.

9번째는 미국에서 AI 규제가 급증하고 있다는 것. 2016년에는 미국 AI 관련 규제가 1건뿐이었지만 2023년에는 25건에 이르는 새로운 규제가 제정됐다.

10번째는 전 세계인이 AI 영향을 의식하고 있다는 것. AI가 자신에게 미치는 영향에 대한 설문조사 결과 AI에 대해 잘 이해하고 있다고 응답한 비율이 2022년 64%에서 2023년 67%로 상승했고 향후 3~5년 내 AI 서비스로 인해 생활이 변화할 것이라고 응답한 비율도 2022년 60%에서 2023년 66%로 상승했다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사