ADVERTISEMENT
오피니언 중앙시평

팬데믹·핵전쟁 못지않게 다뤄져야 할 AI 규율

중앙일보

입력

지면보기

종합 31면

이재민 서울대학교 법학전문대학원 교수

이재민 서울대학교 법학전문대학원 교수

사실과 거짓이 편집되면 확인조차 어려운가. 양측 공방이 근 4개월을 잡아먹었다. 지난 6월 22일 미국 뉴욕 맨해튼 소재 연방법원은 항공사 손해배상 재판에 제출된 6건의 판결이 허구임을 확인하고, 이를 제출한 변호사와 로펌을 징계했다. 챗GPT 검색이 발단이다. 존재하지 않는 판결이 새롭게 ‘창조’되어 법원에 제출됐다. “조작되었을 것이라곤 생각도 못 했다.” 판사의 추궁에 대한 변호사의 대답이다. 연방법원은 43쪽에 이르는 결정문에서 시간과 비용을 낭비했고, 사법제도를 냉소의 대상으로 전락시켰다며 질타한다. 앞서 5월 31일 미 텍사스 연방법원 판사는 변호사가 직접 확인하지 않은 챗GPT 검색 결과의 제출을 금지했다. ‘디지털 환각 현상’을 초래할 위험이 있다는 이유다.

무궁무진 능력과 위험 지닌 AI
챗GPT가 ‘살짝’ 보여준 그림자
누가 어떻게 책임지나 룰 공백
국제기준 수립 위한 논의 시급

요즘 어딜 가든 인공지능(AI) 이야기다. 포럼, 학술대회, 서적이 쏟아진다. 그 능력에 감탄하고 위험에 고민한다. 지난 연말 등장한 챗GPT는 기름을 부었다. 인류·역사학자로 AI를 연구하는 유발 하라리는 최근 강연에서 “AI는 지금 아메바 단계이나, 머지않아 T-렉스로 진화할 수도 있을 것”으로 진단한다. 발전 속도가 그만큼 빠르다는 이야기다. 그런데 정작 이 중요한 문제를 규율하는 규범은 한참 뒤처져 있다.

물론 그간 AI 규율을 위한 논의는 이어져 왔다. ‘투명하고 공정하며 윤리적으로 개발, 사용돼야 한다.’ ‘인간의 편견을 학습하지 말아야 한다.’ ‘개인정보와 프라이버시를 보호해야 한다.’ 이를 반영해 국제기구와 기업들은 가이드라인을 만들었다. 주요국에선 국내법도 속속 들어왔다. 당연히 이 모든 문제는 너무나 중요하다. 그러나 AI 시대를 맞아 ‘사회를 규율하는’ 새로운 제도를 도입한다는 측면에선 핵심에 다가가지 못했다. ‘용의 그림’에 ‘눈동자’가 빠져 있다.

AI는 그간의 기술과 본질적으로 다르다. 단순한 도구를 넘어 인간 의사 결정을 대신하거나 그 과정에서 핵심 역할을 한다. 바로 여기서 책임 문제가 생긴다. AI를 사용해 도출된 결과에 대해 누가 책임지는가. 누구에게 책임을 묻는가. 어떻게 책임지는가. 이는 단순히 윤리의 문제가 아니라 구체적인 법적 책임의 문제다. 이 논의는 아직 답보 상태다.

일단 이를 위한 첫 시도가 등장했다. 유럽연합(EU)에서다. AI 규제를 위한 국내법이 지난 6월 14일 EU 의회를 통과했다. 85개 조항을 빽빽이 담고 있다. 빠르면 올 하반기 채택, 발효 예정이다. 드디어 본격적으로 ‘사회 제도로서’ AI를 어떻게 규율할 것인지 다룬다. 여러 이해관계자의 법적 의무와 책임을 자세히 기술하고 있다. 미국도 의회 공청회를 개최하며 이제 막 논의를 시작했다. 새로운 규범을 주도하겠다는 계획이다. 중국도 나름 자신의 시각을 반영한 국내법 초안을 지난 4월 공개하고 의견을 수렴했다. 모두 챗GPT의 파장이다.

하나 아직 국제적 차원의 이 문제에 대한 논의는 없다. 여전히 투명성, 윤리 등 원론적 수준의 논의만 반복된다. 이제는 실제 현장에서 적용 가능한 국제적 룰이 필요하다는 목소리가 점차 커지고 있다. 얼마 전 전세계 350여명의 AI 전문가들이 공개서한을 냈다. AI 문제 논의가 “팬데믹과 핵전쟁에 버금가는 국제사회의 우선순위가 돼야 한다”는 촉구다. 여기엔 빌 게이츠를 비롯해 구글 딥마인드 CEO, 챗GPT를 개발한 오픈AI의 CEO도 있다. 이 문제의 심각성을 인식하고 국제사회 전체 차원의 신속한 대응을 주문하고 있다.

어찌 보면 가장 세계적인 이슈에 정작 세계적 규범이 없다는 건 아이러니다. 국내법을 각각 도입해도 이들이 서로 다르면 실제 적용은 어렵다. 한국 챗GPT와 미국 챗GPT가 서로 다르지 않고 이들을 사실 나누기도 힘든데, 정작 시장에서 룰이 다르면 어찌 될까. 세부 사항에선 국가별 차이가 있더라도 기본적인 공통분모는 있어야 한다. 이를 토대로 ‘영점’을 잡고 그다음 각국 국내법이 도입돼야 한다.

이런 공통분모 구축 차원에서 지금 추진 중인 EU 법안은 중요한 출발점이다. 여기선 어떤 경우이든 최후엔 사람이 검토·확인하도록 하고 있다. 소위 ‘인간관여 (human intervention)’이다. 결국 책임은 인간의 몫임을 명확히 하고자 하는 기제다. AI 제공자, 사용자, 배포자, 수입자 등 다양한 사람들의 구체적 의무와 법적 책임이 제시되어 있다. 좋은 시작이나 여전히 갈 길은 멀다. 가령 이제 남은 부분은 이러한 의무의 준수를 측정하고 확인할 수 있는 기준을 어떻게 만들 것인지다. 바로 이 기준이 이제 이 분야 글로벌스탠다드가 될 것이다. 앞으로 국제사회에서의 논의는 이를 깊이있게 살펴 구체화하는 작업이 돼야 한다. 더 미룰 수 없는 중요한 과제다.

AI 활용과 규제를 위한 국제 논의가 시작되면 무엇보다 우리도 적극적으로 참여해야 한다. 디지털 분야 하드웨어, 소프트웨어 강국으로서 우리 역량을 보이고 새로운 국제 환경에서 발돋움할 수 있는 기회다.

이재민 서울대학교 법학전문대학원 교수