테크레시피

마이크로소프트, 오픈AI 이사회 옵저버직 사임

챗GPT 등을 개발하는 오픈AI와 제휴 관계에 있던 마이크로소프트는 지금까지 오픈AI 이사회에서 참관인 역할을 맡고 있었다. 하지만 마이크로소프트는 7월 9일 참관인 역할을 반환한다고 발표했다.

2023년 11월 샘 알트만 CEO가 오픈AI에서 갑자기 해임되는 사건이 발생했을 때 오픈AI와 제휴 관계에 있던 마이크로소프트는 알트만 등을 마이크로소프트로 영입할 의향을 보였다. 이후 알트만이 오픈AI에 복귀했을 때 마이크로소프트는 부사장 중 1명인 디 템플레톤(Dee Templeton)을 오픈AI 이사회 참관인으로 보냈다.

참관인은 투표권이나 이사로서의 권한은 없지만 이사회에 출석해 이사회에서 어떤 의사결정이 이뤄지고 있는지에 대한 견해를 얻을 수 있는 위치다.

하지만 7월 9일 마이크로소프트는 참관인 역할을 반환한다고 오픈AI에 통보했다. 마이크로소프트는 알다시피 오픈AI가 이사회를 재건하는 중에 자사는 참관인 역할을 맡았다며 이 직책은 독립성을 해치지 않고 이사회 활동에 대한 통찰력을 제공했으며 이 변화의 시기에 참관인을 맡을 수 있었던 기회에 감사를 표했다. 또 참관인을 사임하는 이유로 참관인으로 취임한 지 8개월 동안 오픈AI 사내에 새로 설립된 이사회가 큰 진전을 이룬 걸 목격하고 회사 방향성에 자신감을 갖게 됐다며 이를 고려하면 참관인으로서의 제한적 역할은 더 이상 필요하지 않다고 생각한다고 말했다.

오픈AI 측은 이사회와 회사 방향성에 신뢰감을 보여준 마이크로소프트에 감사를 표하고 앞으로도 파트너십이 성공하기를 기대한다고 밝혔다. 또 오픈AI에서는 사라 프라이어(Sarah Friar) CFO 리더십 아래 마이크로소프트와 애플 같은 주요 전략적 파트너와 스라이브캐피털(Thrive Capital), 코슬라벤처스(Khosla Ventures) 같은 투자자에게 정보를 제공하고 참여를 유도하기 위한 새로운 접근 방식을 확립하고 있다고 밝혔다.

마이크로소프트가 진행한 일련의 행동은 마이크로소프트와 오픈AI 제휴를 둘러싼 독점금지법상 우려가 높아지고 있는 걸 받아들인 것으로 보인다. 영국 경쟁·시장청(CMA)은 2023년 12월 마이크로소프트와 오픈AI 제휴 관계에 대해 관계자로부터 의견 청취를 할 것이라고 발표했으며 보도에선 참관인을 사임해 당국에 마이크로소프트와 오픈AI가 충분히 분리되어 있다고 납득시키는 데 도움이 될 수 있다고 지적한 바 있다.

한편 애플은 지난 6월 개최된 WWDC24에서 개인용 AI인 애플 인텔리전스(Apple Intelligence)와 오픈AI 제휴를 발표했으며 제휴 일환으로 이사회 참관인에 전 마케팅 담당 최고 책임자인 필 실러(Phil Schiller)가 취임할 것이라고 보도됐다. 하지만 보도에 따르면 오픈AI 참관인으로 실러가취임하는 계획은 철회됐다고 한다. 대신 마이크로소프트와 애플을 포함한 주요 파트너와의 정기적인 회의가 개최될 것이라고 보도되고 있다. 관련 내용은 이곳에서 확인할 수 있다.

한편 오픈AI는 미국 로스알라모스 국립연구소(Los Alamos National Laboratory)와 파트너십을 체결했다고 발표했다. 생물과학 연구 발전을 위해 AI를 안전하게 사용하는 방법을 공동 연구하고 있다고 한다.

오픈AI 미라 무라티 CTO는 로스알라모스 국립연구소와의 제휴에 대해 공공의 이익에 기여하는 걸 목표로 하는 민간 조직으로서 로스알라모스 국립연구소와 생물과학의 가능성에 대해 연구하는 첫 파트너십을 발표할 수 있어 기쁘다며 이 파트너십은 위험을 파악하고 위험을 줄이면서 과학 연구를 진행한다는 자사 사명의 필연적인 발전을 보여준다고 말했다.

로스알라모스 국립연구소 측도 AI는 과학 분야에서 큰 이익을 가져올 수 있는 강력한 도구지만 다른 새로운 기술과 마찬가지로 위험을 수반한다며 로스알라모스에서는 이번 노력을 새로 설치될 AI 위험 기술 평가 그룹이 담당해 위험 평가와 이해 촉진을 도울 것이라고 말했다.

로스알라모스 국립연구소에 따르면 AI를 이용한 생물학적 위협은 중대한 위험을 초래할 수 있지만 기존 연구에서는 멀티모달한 미래의 AI 모델(프론티어 모델)이 전문가가 아닌 이들이 생물학적 위협을 만들어내는 장벽을 얼마나 낮출 것인지에 대한 평가가 이뤄지지 않았다고 한다.

이번 노력은 현재 및 미래 AI 모델을 평가하기 위한 프레임워크를 확립하고 AI 기술에 대한 책임 있는 개발과 배포를 확보하기 위한 중요한 단계가 될 것이라고 로스알라모스 국립연구소 측은 설명하고 있다.

이미 오픈AI 연구팀은 GPT-4 기반 챗GPT가 생물학적 위협을 만들어낼 수 있는 정보를 제공한다는 것을 발견했지만 이 실험은 모델 입출력이 텍스트로 제한되어 있고 이미지나 음성은 포함되지 않았다. 앞으로는 GPT-4 기반 챗GPT로 수행된 작업 정확도 향상 정도를 조사해 프론티어 모델이 생물학적 작업을 어떻게 보조하는지 정량화하고 평가하는 것을 목표로 할 것이라고 한다. 관련 내용은 이곳에서 확인할 수 있다.

추천기사