Opinion :한애라의 미래를 묻다

인공지능 판사는 언제쯤 등장할까

중앙일보

입력 2020.11.16 00:26

지면보기

종합 28면

AI와 법률

한애라 성균관대 법학전문대학원 교수

한애라 성균관대 법학전문대학원 교수

인공지능은 판사를 완전히 대체할 수 있을까. 옆의 사례들은 이 질문의 답을 살펴보기 위해 실제 세계 어딘가에서 일어났거나 곧 일어날 일을 살짝 고친 것이다. 여기서 보듯 인공지능은 아직 판사의 판단을 보조하는 정도로만 활용되고 있다. 사실 이렇게 인공지능을 보조 수단으로만 쓰려 해도 해결해야 할 법적·절차적 문제가 많다.

범죄 확률만 계산하는 인공지능
아직은 판결 보조 수단으로 활용
사람 같은 법률 추론 가능해져도
AI에 인간의 운명 맡길 수 있을까

재범 위험성을 재단하는 인공지능

#1 A판사는 성폭력 사건을 재판했다. 유죄는 확실하고, 어느 정도 형을 선고하느냐가 남았다. 인공지능(AI)이 산출한 재범 위험성 점수를 받아 봤더니 최고점이었다. 무기징역을 선고했다.

사례 1을 보자. 우리 형사 재판에서는 성폭력 범죄자의 재범 위험성을 평가하기 위해 ‘한국판 사이코패스진단검사(PCL-R)’와 ‘한국성범죄재범위험성평가(KSORAS)’라는 두 척도를 사용한다. 피해자와의 관계, 나이 차, 본인의 혼인 경험 등 15~20개의 변수를 활용하며, 점수 산정 원리도 논문 등을 통해 공개돼 있다. 피고인은 자신의 재범 위험성 점수가 무얼 가지고 어떻게 산정된 것인지 알 수 있고, 오류에 대해 다툴 수도 있다. 이를 두고 ‘설명 가능성이 100%’라고 한다. 하지만 이 점수는 재범률에 영향을 미칠 수 있는 수많은 요소 중 일부만 고려하므로 정확성은 떨어진다.

그래픽=최종윤

그래픽=최종윤

이들 척도 대신 인공지능을 이용하면 어떨까. 기존의 수많은 범죄 기록을 반복 학습해 재범 위험성을 산출하는 알고리즘을 만들어 낼 수 있다. 기존 척도에서는 고려되지 못했던 수많은 변수를 고려하고, 계속 학습하는 과정에서 변수들의 가중치도 수정되므로 앞서 본 한국형 척도보다 훨씬 정확해진다. 그러나 머신러닝 알고리즘은 인과관계가 아니라 확률적인 상관관계만 포착하는 것이다. “이런 사람들이 이렇다더라”는 식이다. 그래서 결괏값을 어떻게 도출한 것인지 명확히 설명할 수 없다. 알고리즘이 과거 데이터로부터 편향이나 편견까지 학습했더라도 알기 어렵다.

미국의 여러 주 법원은 선고 형량이 지나치게 널뛰는 것을 막기 위해 비공개 알고리즘인 ‘컴퍼스(COMPAS)’가 산출한 재범 위험성 점수를 양형에 참고해 왔다. 여기에 루미스라는 피고인이 이의를 제기했다. “이렇게 불투명한 점수를 참작하는 것이 피고인의 방어권을 침해하므로 위법하다”고 다퉜다. 위스콘신주 대법원은 “판사가 여러 사정을 종합해 독립적으로 형량을 정했으니, 비공개 알고리즘이 낸 결과를 참조한 것만으로는 양형이 잘못되었다고 할 수 없다”고 판단했다.

그러나 이 판결에 대해서는 비판이 많다. 특히 판사가 점수를 본 이상 소위 ‘정박 효과’가 생기는 문제가 있다. 정박 효과란 예컨대 어떤 숫자를 보여주고 각국의 1인당 GDP를 물으면, 무심결에 먼저 본 숫자와 비슷한 답을 대는 경향을 말한다. 위험성 점수를 판사가 일단 봤다면 역시 이런 영향을 받을 수밖에 없으므로, 독립적인 판단을 했다고 장담할 수 없다. 또한 결과에 대한 설명 가능성이 100% 보장되지 않는 확률적 수치에 따라 형사 판결을 내리면 반드시 억울한 피고인이 생긴다. 그래서 유럽사법효율위원회(CEPEJ)는 “형사 사건에서는 인공지능을 극도로 제한적으로만 활용해야 한다”는 의견을 밝혔다.

가장 엄격한 기준을 적용해야 하는 형사 판결과 달리 민사에서는 일정 수준의 설명 가능성을 전제로 인공지능을 활용할 여지가 있다. 둘째 사례를 보자. 인공지능은 원고와 피고의 교통사고 과실 비율이 3대 7이라고 했다. 만약 인공지능이 아무 설명 없이 숫자만 제시했다면, 판사가 그대로 묻지마 판결을 하는 것도 문제고, 인공지능을 완전히 무시한 채 마음대로 판결하는 것도 문제다.

#2 대법원은 과거 사건의 데이터베이스(DB)를 바탕으로 교통사고의 원고·피고 과실 비율을 산정하는 인공지능 프로그램을 개발했다. 한 사건에서 인공지능은 원·피고 과실 비율이 3대 7이라고 했다. 판사는 이를 4대 6으로 수정 판결했다.

그런데 만일 인공지능이 “피고의 음주 38%, 원고의 과속 22%, 피고 차량이 빨간색인 것은 10%, 기타 변수 30%를 고려해 3대 7로 산정했으며 오류율은 13%다”라는 보고서를 제공한다면 어떨까. 판사는 피고가 빨간색 차를 몰았다고 해서 잘못한 건 아니라는 판단으로 피고의 과실 비율을 낮춰 원·피고 과실 비율을 4대 6으로 조정할 수 있다. 이처럼 설명을 곁들인 보고서가 있으면 판사 혼자보다 더 균형 잡힌 판결을 할 수 있다.

전자상거래 분쟁은 AI가 1차 조정 담당

#3 B씨는 온라인몰에서 산 3만원짜리 운동화에 하자가 있다며 반품을 신청했으나 거절당했다. B씨는 인공지능 소비자조정 시스템에 온라인으로 조정 신청을 했다. 인공지능은 “2만원을 돌려주라”고 조정 결정을 했다. B씨와 온라인몰 모두 이의가 없어 그대로 확정됐다.

인공지능이 판사를 보조하는 것에 그치지 않고 직접 판결을 내릴 수도 있을까. 인간과 마찬가지로 법적 추론을 하는 인공지능은 아직 개발되지 않았지만, 전자상거래 분쟁 등 단순하고 전형적인 소액 사건에서는 일정 범위에서 인공지능 판정을 활용할 수 있다. 인공지능으로 사건을 해결하면 적은 비용으로 빠른 분쟁 해결이 가능하므로, 돈 때문에 제소를 포기했던 작은 사건들이 새로이 법의 구제를 받을 수 있다. 다만 법관에 의한 재판을 받을 권리 보장이나 디지털 시스템에 익숙하지 않은 약자 보호 같은 문제가 생긴다. 그래서 운동화 환불 결정을 한 셋째 사례처럼 일단 인공지능이 비대면 조정 결정을 하되, 당사자들에게 이의가 없을 때만 판결과 같은 효력을 부여하고, 이의를 제기할 경우 인간 판사의 판결을 받는 방안이 대안으로 제시된다. 이미 해외에서는 인공지능을 온라인 분쟁 해결에 활용하기 시작했다.

다시 처음 질문으로 돌아가 보자. 언젠가는 인공지능이 인간 판사를 완전히 대체할 수 있을까. 이를 위해서는 두 가지가 먼저 해결되어야 한다. 우선 인공지능이 단순히 상관관계를 보아 확률·경험적 판단을 내리는 것이 아니라 신뢰할 수 있는 수준의 법적 추론을 할 수 있어야 한다. 인공지능이 이런 능력을 갖추더라도 사람의 운명을 사람이 아닌 인공지능에 맡길 것인지는 또 다른 문제다. 그 시점이 언제 올지는 아직 알 수 없다.

채용에는 정확한 AI를 쓰면 안 된다
영국은 ‘Project ExplAIn’이란 연구(explain에서 AI는 인공지능을 뜻한다)를 수행해 왔다. 인공지능이 내놓은 결과와 그 설명 가능성에 대한 연구다. 연구 과정에서 시민배심원단 36명을 뽑아 의견을 물은 적이 있다.

배심원단은 먼저 이틀간 전문가로부터 인공지능의 작동 원리와 특성 강의를 들었다. 중점 설명된 특성은 “인공지능의 정확성과 설명 가능성이 서로 대척 관계에 있다”는 점이다. 예외는 있지만, 일반적으로 인공지능 결정의 정확성이 높아질수록 설명 가능성은 떨어지고, 반대로 설명 가능성을 높이려면 정확성을 다소 희생해야 한다. 생각해 보라. 수많은 변수와 데이터를 종합하면 결과는 점점 정확해질 것이나, 그 많은 데이터를 바탕으로 일일이 어떻게 계산한 것인지 설명하는 건 불가능에 가까운 일이다.

배심원단에게는 네 경우가 제시됐다. ①병원에 실려 온 환자의 심장발작 진단 ②사기업 입사 지원서 선별 ③환자와 기증자 장기 이식 적합률 판정 ④범죄자를 갱생 처분하고 풀어줄 것인지, 정식 형사 재판에 회부할 것인지 결정이었다. 각각에 대해 ▶정확하지만 설명 가능성이 떨어지는 인공지능 ▶설명 가능성은 100%이나 덜 정확한 인공지능 ▶그 중간의 인공지능 중에서 어떤 게 적합할지 고르라는 과제였다. 배심원단은 의료(①심장 발작과 ③장기 이식)에 대해서는 설명 가능성이 떨어져도 정확한 인공지능을, 입사와 갱생 처분에 대해서는 덜 정확하더라도 설명 가능성이 있는 인공지능을 골랐다.

채용과 갱생 처분에 있어 정확성보다 설명 가능성이 더 중요하다고 본 이유를 묻자 배심원들은 이렇게 답했다. “결정의 근거를 알아야 이의를 제기할 수도 있고 신뢰할 수도 있다.” “입사 등의 결정에 혹시 편견이 숨어 있는지 확인하기 위해서라도 근거를 알 필요가 있다.” “긴급성을 요구하고 결과가 중요한 의료에서는 설명보다 정확성이 우선이지만, 채용이나 형사 사건은 그렇지 않다.”

권리를 침해당한 당사자를 개별적으로 구제할 최후의 수단이 판결이다. 그저 확률이 아닌, 이유를 제시해야 당사자가 불복할 수도 있고 사법에 대한 신뢰도 생긴다. 사법 인공지능에 가장 높은 수준의 설명 가능성이 요구되는 것은 이 때문이다.

◆한애라 교수
서울대 법대, 하버드대 로스쿨을 졸업하고 20년간 판사·변호사를 했다. 성균관대에서 민사소송법을 가르치면서 인공지능이 법원 재판과 변호사 업무에 미치는 영향을 연구 중이다. 한국인공지능법학회 이사를 맡고 있다.

한애라 성균관대 법학전문대학원 교수

Innovation Lab

ADVERTISEMENT