사회 전체에서 AI를 사용하는 사례가 늘고 있기 때문에 영국과 웨일즈 판사를 감독하는 사법부가 사법기관에서 AI를 어떻게 사용해야 하는지 나타내는 가이드라인을 발표했다.
가이드라인은 크게 7개 항목으로 나뉘어져 있다. 첫째 AI와 애플리케이션 이해. 먼저 AI를 이용하기 전에 해당 기능이나 잠재적으로 제한되는 것에 대한 기본적인 이해가 필요하다. 예를 들어 공개된 AI 채팅봇은 수신된 프롬프트와 학습에 사용된 데이터를 기반으로 알고리즘을 사용해 텍스트를 생성한다. 어디까지나 가장 가능성이 있는 단어 조합이라는 모델이 예측한 텍스트가 생성되고 있으는 것이며 정확한 답이 출력되고 있는 건 아니다.
또 인터넷에서 입수할 수 있는 정보와 같이 이 자료가 올바르다고 알고 있지만 지금 수중에 없다는 걸 찾는데 유용하지만 정확성이 검증할 수 없는 새로운 정보를 찾기 위한 조사에 사용하기에는 적합하지 않다.
답변 품질은 일정하지 않으며 입력한 프롬프트 성격과 AI 도구 사용 방법에 따라 달라진다. 또 최적의 프롬프트를 입력하더라도 제공된 정보는 불완전하거나 부정확하거나 편향될 수 있다. 또 대규모 언어 모델은 대부분 인터넷에서 공개된 자료를 바탕으로 훈련받고 있기 때문에 출력되는 견해는 미국 법률에 근거한 게 많다는 점에는 주의가 필요하다.
둘째 기밀과 개인 정보 보호. 공개 도메인이 아닌 일반 공개 AI 채팅봇에 정보를 입력하지 말라는 것. 개인 정보나 기밀 정보는 더구나 입력해선 안 된다. AI 채팅봇에 입력한 모든 정보는 전 세계에 공개된 것으로 간주된다.
현재 공개되어 있는 AI 채팅봇은 사용자 질문이나 입력한 정보를 모두 기억하고 있어 해당 정보는 다른 사용자로부터 쿼리에 응답하기 위해 사용된다. 그 결과 과거에 입력한 정보가 공개될 수 있다.
선택할 수 있으면 AI 채팅봇 기록을 비활성화해야 한다. 히스토리 사용 중지를 선택할 수 있는 건 챗GPT와 구글 바드이며 빙 챗에선 아직 선택할 수 없다. 일부 AI 플랫폼 그 중에서도 스마트폰 앱은 다양한 기기 정보에 대한 액세스를 요청할 수 있다. 이런 상황에선 모든 허가 신청을 거부해야 한다.
기밀 정보나 개인 정보가 의도하지 않게 공개된 경우에는 재판관이나 사법부에 연락해야 한다. 개인 정보가 포함된 경우 데이터 인시던트로 신고해야 한다. 데이터 사고를 사법부에 보고하는 방법은 인트라넷 데이터 침해 알림 양식을 참조하면 된다. 앞으로 법원이나 법정에서 사용하도록 설계된 AI 도구를 사용할 수 있을지 모르지만 이를 달성하기 전까지 모든 AI 도구는 입력 내용이 공개될 것으로 생각하고 처리해야 한다.
3번째는 책임과 정확성 확보. AI 도구가 제공하는 정보는 부정확하거나 불완전하거나 오래됐을 수 있다. 영국법을 대표라고 써도 그렇지 않은 경우가 있다. AI 도구를 사용할 때 발생하는 문제는 다음과 같다. 가공 사례나 참고 문헌, 발언을 제대로 올린다 또는 존재하지 않는 법률, 조문, 법적 문서를 참조한다. 법률이나 적용 방법에 대해 잘못된 정보나 오해를 초래하는 정보를 제공한다. 사실 오인을 한다 등이다.
4번째는 바이어스 의식. 대규모 언어 모델을 기반으로 하는 AI 도구는 학습할 데이터세트를 기반으로 응답을 생성한다. 다시 말해 트레이닝에 사용한 데이터세트에 포함되어 있던 실수나 바이어스로부터 피할 수 없다. 항상 이 실수나 바이어스가 포함될 가능성과 이를 수정해야 할 필요성을 고려해야 한다.
5번째는 보안 유지. 자신과 법정, 법원 보안을 유지하기 위해 최선을 다해야 한다. AI 도구에 액세스할 때에는 개인 단말이 아닌 업무용 단말을 사용해야 한다. 또 직장 이메일 주소를 사용해야 한다. 보통 무료 서비스보다 유료 서비스 쪽이 안전한 게 확인되고 있으므로 유료 구독 플랜이 있는 경우에는 이용하는 게 좋다. 다만 타사로부터 AI 플랫폼 라이선스를 취득하고 있는 타사 기업 중에는 사용자 정보 취급에 대한 신뢰도가 낮은 기업이 포함되기 때문에 이런 곳은 피해야 한다.
6번째는 책임을 지는 것. 사법기관 직원은 본인 명의로 작성한 자료에 대해 개인적으로 책임을 진다. 판사는 보통 판결을 내리기 위해 이뤄진 설문조사나 준비 작업에 AI를 사용했는지 기술할 의무가 없다. 이런 지침이 적절하게 준수되면 생성형 AI는 잠재적으로 유능한 보조 도구다. 사무원, 사법 보조원, 기타 직원이 업무에서 AI 도구를 사용하는 경우 직원과 토론해 도구를 적절하게 사용하고 위험을 완화하기 위한 조치를 취하고 있는지 확인해야 한다.
7번째는 법원과 법정 사용자가 AI 도구를 사용할 가능성에 유의해야 한다. 이미 전자 공개로 이용되고 있는 TAR(Technology Assisted Review)처럼 AI 도구 일부는 사법게에 도입되고 있다. 모든 법정 대리인은 법원에 제출하는 자료가 정확하고 적절하다는 걸 보장할 의무가 있다. 책임감을 갖고 AI를 사용한다면 법정 대리인이 AI를 사용했는지 여부를 언급해야 할 이유는 없지만 언급이 필요한지 여부는 문맥에 따라 다르다.
또 AI가 사법부에서 사용된 사례로는 변호사가 제출한 자료 작성에 챗GPT를 사용한 결과 존재하지 않은 판례를 인용하거나 존재하지 않는 재판장 견해가 포함되어 있던 것으로 보인다. 관련 내용은 이곳에서 확인할 수 있다.