테크레시피

미스트랄AI 제휴 발표한 마이크로소프트

마이크로소프트가 AI 개발 기업인 미스트랄AI(Mistral AI)와 다년간에 걸친 파트너십 구축을 발표했다. 파트너십 제휴를 통해 미스트랄AI는 애저 컴퓨팅 리소스에 액세스할 수 있으며 애저 사용자는 미스트랄AI 기계학습 모델을 활용할 수 있다. 또 이날 미스트랄AI는 성능 강화판 대규모언어모델인 미스트랄 라지(Mistral Large)도 발표했다.

미스트랄AI는 오픈AI와 마찬가지로 AI 연구 개발을 하는 기업이다. 미스트랄AI는 그 중에서도 대규모언어모델 개발에 주력하고 있으며 2023년 12월 11일에는 챗GPT에 채용된 대규모언어모델인 GPT-3.5와 동등 이상 성능을 발휘하는 미스트랄 8x7B를 발표했다.

더구나 지난해 12월 18일에는 특정 태스크에 있어 GPT-4를 웃도는 성능을 발휘하는 대규모언어모델인 미스트랄 7B 파인튠 옵티마이즈드(Fine-Tune Optimized)도 발표하는 등 고성능 대규모언어모델을 개발하는 기업으로 오픈AI와 나란히 주목받고 있다.

마이크로소프트와 미스트랄AI 제휴로 미스트랄AI는 마이크로소프트 클라우드 컴퓨팅 서비스인 애저 연산 자원을 활용할 수 있게 된다. 모델 학습과 추론을 간소화하고 차세대 대규모 언어 모델 개발이나 배포를 가속화할 수 있는 것.

또 애저 AI 개발 플랫폼인 애저 AI 스튜디오(Azure AI Studio), 학습 모델 카탈로그(Model Catalog and Collections) 라인업에 미스트랄AI 모델이 추가되어 애저 사용자는 오픈AI 모델, 오픈소스 모델 외에 미스트랄AI 모델도 선택할 수 있다. 더구나 양사는 유럽 공공주문을 포함한 특정 고객에 특화한 모델 개발도 진행할 예정이다.

미스트랄AI가 발표한 미스트랄 라지는 영어, 프랑스어, 스페인어, 독일어, 이탈리아어에 대응한 3만 2,000토큰 대규모언어모델이다. 미스트랄 라지와 경쟁 모델간 벤치마크 비교에선 GPT-4에는 뒤떨어지지만 클로드2나 제미나이 프로, GPT-3.5, LLaMA 2 70B 등 모델보다 높은 성능을 나타낸다. 미스트랄 라지는 이미 애저 상에서 이용할 수 있으며 요금은 출력이 1,000토큰당 0.024달러이며 입력은 1,000토큰당 0.008달러다.

한편 미스트랄AI 홈페이지 전면에는 마이크로소프트와 제휴를 발표하기 전날인 2월 25일까지 오픈소스 커뮤니티 힘을 믿는다거나 기계학습 모델과 각종 도구를 관용적 라이선스 하에 공개한다, 오픈소스 커뮤니티로부터 혜택을 받고 있다는 등 문구가 게재되어 있었다. 하지만 마이크로소프트와 제휴를 발표한 26일에는 해당 문구가 삭제됐다. 이에 따라 인터넷에선 미스트랄AI가 오픈소스 커뮤니티 공헌을 멈추고 폐쇄적 소스 제품에 주력하는 게 아니냐는 지적이 확산되고 있다. 관련 내용은 이곳에서 확인할 수 있다.

마이크로소프트는 2월 22일 생성형 AI 위험을 식별하는 자동화 툴인 PyRIT(Python Risk Identification Toolkit for Generative AI) 출시도 발표했다.

생성형 AI에는 잘못된 정보를 출력하는 환각이라는 문제나 부적절한 결과를 출력하는 등 과제가 있으며 악영향을 억제하기 위해 AI 기업은 기능에 제한을 걸어 대응하고 있다. 하지만 사용자가 이를 발견하는 일이 생겨 놀라는 일이 벌어지기도 한다. 마이크로소프트 생성형 AI인 코파일럿도 예외는 아니기 때문에 마이크로소프트는 AI에 특화한 레드팀(AI Red Team)을 사내에 설립해 책임 있는 AI 개발에 임하고 있다.

이번에 공개한 PyRIT는 이 팀이 AI 연구자나 엔지니어용으로 개발한 라이브러리로 가장 큰 특징은 AI 시스템 레드팀 자동화로 인간 전문가가 AI 위험을 특정하는 것에 걸리는 시간이 대폭 단축된다는 것이다.

전통적인 테스트에선 AI가 악성코드를 출력하거나 학습 데이터세트 기밀 정보를 그대로 토출하는 걸 방지하기 위해 인간 레드팀이 수동으로 적대적 프롬프트를 생성해야 한다. 더구나 적대적 프롬프트는 텍스트나 이미지 같은 AI가 출력하는 형식마다 그리고 AI와 사용자가 교환하는 API마다 생성할 필요가 있기 때문에 이런 작업은 번거롭고 시간도 걸리는 태스크다.

반면 PyRIT을 사용하면 AI에 대한 적대적 입력 유형을 지정하기만 하면 해당 기준을 충족하는 프롬프트 수천 개를 자동 생성할 수 있다. 예를 들어 마이크로소프트가 코파일럿에서 수행한 연습에선 위험 범주를 선택해 악의적 프롬프트 수천 개를 생성하고 이에 대한 코파일럿 출력을 모두 평가하는데 걸리는 시간이 몇 주에서 몇 시간으로 단축됐다고 한다.

적대적 프롬프트 생성 외에도 PyRIT는 AI 모델 반응을 보고 한 프롬프트에 유해 출력을 수행했는지 여부를 자동 결정하거나 AI 응답을 분석해 프롬프트를 조정할 수 있어 전체 테스트 효율성을 높일 수 있다.

마이크로소프트는 PyRIT가 수동 레드팀을 대신하는 게 아니라 레드팀 전문 지식을 강화하고 번거로운 작업을 자동화해 보안 전문가가 잠재적 위험을 더 조사할 수 있도록 하는 것이라고 설명하고 있다.

추천기사