대화형 AI 챗GPT 등을 개발한 오픈AI 샘 알트만 CEO가 미국에서 열린 공청회에 참석해 AI에 대한 향후 방침으로 이점을 늘리는 한편으로 AI가 주는 해를 최소한으로 억제하기 위한 정부에 의한 규제 개입이 중요해진다는 생각을 나타냈다.
미국 상원 사법위원회가 연 공청회에서 2시간에 걸쳐 강연을 실시한 알트만 CEO는 AI와 관련한 안전 기준 설정, AI 일반 공개 전에 실시하는 테스트 확립, 독립 감사인에 의한 공개 전 검사 등을 제안해 점차 강해지는 AI 모델 위험을 완화하려면 정부 규제 개입이 중요하다는 견해를 보였다.
공화당 조쉬 홀리 상원 의원이 사람들이 AI를 신뢰할수 있는 정보원으로 이용할 가능성이 있는 건 아니라는 의견을 밝히자 알트만 CEO는 정부가 이 기술을 규제할 수 있는 역할을 할 수 있다고 생각한다고 밝혔다. 2024년 대선을 앞둔 미국 내에선 인간이 AI를 이용해 만들어낸 오정보 확산이 우려되고 있다. 이 점에 대해 알트만 CEO는 우려를 나타내면서 한때 포토샵이 등장했을 때 사람들은 잠시만 포토샵에서 가공 이미지에 속았지만 점차 이미지가 포토샵에서 가공되고 있다는 걸 이해하게 됐다며 AI도 마찬가지이며 정보와 미디어에게 주는 위협에 대해 일반인은 적응하는 법을 배울 것으로 생각한다고 밝혔다.
그는 또 AI에 관한 규제에 대해선 사용자가 게시한 콘텐츠에 대한 플랫폼 책임을 면제하는 통신품위법 230조와 같은 기존 도구는 부적당하고 시스템을 적절하게 규제할 수 있는 방법이 아니라 완전히 새로운 도구를 마련해야 한다고 주장헀다.
알트만 CEO는 오픈AI가 지금까지 배포한 도구 장점은 위험을 크게 상회한다고 생각한다며 AI라는 기술은 고용 시장에 큰 영향을 미치지만 영향을 넘어서는 것에는 훨씬 더 큰 작업이 필요하다고 밝혔다.
알트만에 이어 공청회에 나선 뉴욕대학 명예 교수인 게리 마커스는 기업이 갖는 방대한 개인 정보를 활용해 개인 취향에 맞는 정보를 발신하는 광고 하이퍼타깃팅이 진행되는 시대가 확실히 올 것이라고 주장했다. 그는 AI 규제에 대해 국제기관을 빠르게 구축하는 게 좋다는 견해를 제시했다. 한편 알트만은 챗GPT에 법안을 쓰게 하는 데모를 실시해 많은 의견을 놀라게 했다고 한다. 관련 내용은 이곳에서 볼 수 있다.
한편 이번 공청회 개최에 맞춰 이미지 생성 AI인 스테이블 디퓨전 개발사인 스태빌리티AI CEO인 에마드 모스타크(Emad Mostaque)가 AI에서 오픈소스 중요성과 의의를 호소하는 공개 서한을 발표했다.
그는 스태빌리티AI 원칙으로 투명성, 접근성, 인간 중심주의를 주창했다. 투명한 개방형 모델을 개발하면 연구자가 성능을 검증하고 잠재적 위험을 파악할 수 있게 되며 민간인은 자신의 요구에 맞게 모델을 사용자 정의할 수 있게 될 것이라고 주장했다.
또 개인 개발자, 중소기업, 크리에이터 등 대기업 뿐 아니라 모든 사람이 액세스할 수 있는 효율적 모델을 개발해 중요한 기술을 한 기업에 의존하지 않는 더 공정한 디지털 생태계를 구축한다고 밝혔다. 또 사용자인 인간을 지원하는 모델을 구축해야 한다며 AI에 대해 하나님 같은 지능을 요구하는 게 아니라 일상 태스크에 적용할 수 있는 실용적 AI 기능을 개발하고 창의력과 생산성을 향상시키는 게 목표라는 주장이다.
모스타크 CEO는 AI 학습에 사용되는 데이터세트를 개방해 AI와 데이터 안전성을 확보하는 것 외에도 주요 기업이나 공공기관이 독자적으로 커스텀 모델을 개발 가능하게 되어 더 오픈소스화해 진입 장벽을 낮추고 AI 혁신과 자유 경쟁을 촉진한다고 말한다.
모스타크 CEO는 학습용 데이터에 포함된 바이어스와 오류 등을 통해 AI가 중요한 컨텍스트를 생략하거나 편향된 데이터로부터 입력을 할 위험을 인정한다. 하지만 그렇다고 해서 과도한 규제를 하는 건 AI 투명성과 경쟁력, 국력 강인화에 필수적인 오픈이노베이션을 배제할 수 있다고 경고하고 있다.
그는 인공지능이 가져올 위험에 대해 모든 위험을 다루는 특효약은 없다고 밝혔다. 첫째 더 큰 모델은 악성 국가나 조직에 의해 오용될 위험이 있지만 AI 학습과 추론에는 엄청난 연산 자원이 필요하기 때문에 클라우드 컴퓨팅 서비스 제공자에게 대규모 학습이나 추론이 이뤄진 경우 보고하는 공개나 감사 정책 책정을 검토해야 한다고 밝혔다.
둘째 강력한 모델은 심각한 오용을 방지하기 위한 보호 조치가 필요할 수 있다. 따라서 운영 보안과 정보 보안 지침을 검토하고 당국은 개방적 평가와 독립 평가를 통해 공공 모니터링을 수행해야 한다.
셋째 애플리케이션 개발자에 대한 공개 요구 사항과 AI 학습에 의한 데이터 수집은 사용자 동의를 필요로 하는 프라이버시 의무를 검토한다. 또 금융과 의료, 법률에 관한 AI에 대해선 일정 이상 성능 요건을 검토한다.
넷째 AI 서비스와 애플리케이션 제공사에 의한 콘텐츠 진정성 기준 채용을 촉진하고 소셜미디어 플랫폼과 같은 종개자가 콘텐츠 모더레이션 시스템을 도입하도록 장려한다.
넷째 미국 정부는 연구자와 개발자 커뮤니티, 산업계와 손잡고 AI 모델 평가 프레임워크 개발을 가속한다. 또 정책 입안자는 공공 연산 자원이나 실증 실험용 환경에 대한 투자를 실시해 공적인 기반 모델에의 자금 제공이나 조달을 검토한다. 공공 기반 모델은 공공 자원으로 관리되며 공공 감시 대상이 되며 신뢰할 수 있는 데이터를 기반으로 학습되며 국내 조직을 이용할 수 있다.
그는 결론적으로 오픈 모델과 오픈 데이터세트는 투명성을 통한 안전성 향상, 필수적인 AI 서비스에서 경쟁 촉진, 미국이 이런 중요한 기술에서 전략적 리더십 유지를 확실히 돕는다고 밝혔다. 관련 내용은 이곳에서 확인할 수 있다.