ADVERTISEMENT

한국도 'AI 족쇄 채우기' 서두른다…정부가 편향성 직접 검증 [팩플]

중앙일보

입력

지면보기

종합 01면

로이터=연합뉴스

로이터=연합뉴스

인공지능(AI)의 잠재적 위험에 대한 전 세계의 우려가 커지는 가운데 글로벌 공동 대응 움직임이 본격화하고 있다. 국가별 대책에 주력하던 세계 정상이 한자리에 모여 국제 사회 차원의 대안을 모색하겠다고 나선 것. 민간의 자율을 강조해온 한국의 AI 정책에도 변화가 예상된다.

무슨 일이야

영국 정부가 개최하고 주요 7개국(G7, 미국·일본·독일·영국·프랑스·캐나다·이탈리아)의 고위급 인사들이 참여하는 ‘AI 안전 정상회의’(AI Safety Summit 2023)가 1일(현지시간)부터 이틀간 영국 버킹엄셔 블레츨리 파크에서 열린다. 이번 회의는 AI 단일 주제로 열리는 첫 정상급 회의로, 정상들은 AI의 안전한 개발, 악용 방지 방안 등을 논의할 예정이다.

행사에는 안토니우 구테흐스 유엔 사무총장 등 국제기구 관계자를 비롯해 일론 머스크 테슬라 최고경영자(CEO), 브래드 스미스 마이크로소프트(MS) 부회장, 챗GPT 개발사인 오픈AI의 샘 올트먼 CEO, 데미스 허사비스 구글 딥마인드 CEO 등 글로벌 AI 기업인들도 참석한다. 한국에서는 이종호 과학기술정보통신부(과기정통부) 장관, 전경훈 삼성전자 DX(디바이스경험) 부문 최고기술책임자(CTO) 겸 삼성리서치장(사장), 하정우 네이버클라우드 AI이노베이션센터장 등이 참석한다.

이게 왜 중요해

11개월 전 출시된 챗GPT의 돌풍 이후 AI 기술 및 서비스를 규제하자는 주장에 대한 각국의 입장은 엇갈렸다. 지난 6월 ‘AI법’(AI Act)을 통과시키며 신기술 규제에 앞장섰던 유럽연합(EU)과 달리 미국을 비롯한 한국, 일본 등 아시아 국가들은 기업 친화적 접근 방식을 취하며 규제보다는 기술 개발과 진흥에 무게를 뒀다. 하지만 AI가 무기 개발, 사이버 공격 등에 악용될 수 있다는 우려와 함께 생성 AI발 가짜 뉴스가 민주주의의 근간을 흔들 수 있다는 지적이 나오며 각국의 대응은 보다 적극적으로 바뀌고 있다.

앞서 지난달 30일 조 바이든 미국 대통령은 AI 기술 개발부터 서비스 과정에 이르기까지 정부의 관리·감독을 강화하는 내용의 행정명령에 서명했다. 바이든 대통령은 이날 “딥페이크(AI 기반 인물 이미지 합성 기술)는 명예를 훼손하고 가짜뉴스를 유포하고 사기를 저지른다”며 “AI의 가능성을 실현하는 동시에 위험을 피하기 위해선 우리는 이 기술을 관리해야만 한다”고 말했다. 행정명령에는 AI를 핵무기나 생화학 무기 등 대량살상무기(WMD) 제작에 활용하는 것을 차단하는 내용도 포함됐다. 미·중 패권 경쟁이 심화하는 가운데 AI가 국가 안보에 위협을 가하지 못하도록 안전 장치를 마련하기 위한 목적이 크다.

같은 날 G7 국가들도 첨단 AI 개발 조직에 대한 국제 지침과 행동 강령에 합의했다고 밝혔다. 11개 항목으로 구성된 행동 강령에는 AI 수명 주기 전반에 걸쳐 위험을 식별·평가해야 하고 강력한 보안 통제에 투자해야 한다는 내용이 담겼다. 구속력은 없지만 각국이 마련할 AI 규제법의 기준점이 될 전망이다. 베라 요우로바 EU 집행위원회 가치·투명성 담당 부집행위원장은 지난달 일본 교토에서 열린 인터넷 거버넌스 포럼에서 “행동 강령은 안전을 보장하는 강력한 기반”이라며 “규제 마련을 위한 가교 역할을 할 것”이라고 말했다.

김영희 디자이너

김영희 디자이너

한국 정부의 기본 정책은

이종호 과학기술정보통신부 장관이 지난달 서울 강서구 LG사이언스파크에서 열린 '제4차 인공지능 최고위 전략대화' 에서 발언하고 있다. 사진 과학기술정보통신부

이종호 과학기술정보통신부 장관이 지난달 서울 강서구 LG사이언스파크에서 열린 '제4차 인공지능 최고위 전략대화' 에서 발언하고 있다. 사진 과학기술정보통신부

한국은 국가 AI 경쟁력 강화를 위해 민간 기업의 ‘자율 규제’에 힘을 실어줬다. 과기정통부는 네이버, LG AI 연구원, SK텔레콤, KT, 카카오 등 거대언어모델(LLM)을 개발한 주요 정보기술(IT) 기업들과 AI 최고위 전략대화를 운영하며 관련 정책과 투자·협력 방안을 논의해왔다. 하지만 최근 국제 사회의 규제 움직임에 발 맞춰 적극 규제로 조금씩 ‘유턴’하고 있다는 평가도 나온다. 최근 정부는 민간 AI 모델의 신뢰성을 직접 검증하고, 저작권 규제도 마련하겠다며 ‘AI 윤리·신뢰성 확보 추진계획’을 공개했다.

① AI 신뢰성 평가: 과기정통부는 이달까지 AI 모델의 신뢰성을 평가할 수 있는 벤치마크 데이터를 구축해 민간 AI 모델을 직접 검증하기로 했다. 편향·차별적 내용 콘텐트 생성 여부, 잘못된 내용을 사실처럼 답변하는 할루시네이션(환각) 현상 여부, 저작권 침해 등에 대한 기준을 만들고 각 기업의 생성 AI 모델의 신뢰성을 판별하겠다는 설명이다.

②워터마크 제도화: 정부는 AI 생성물 표식(워터마크) 도입을 제도화하는 방안도 검토하고 있다. 과기정통부에 따르면 네이버 등 LLM 기반의 생성 AI 서비스를 개발했거나 이미 출시한 주요 기업들은 자사 서비스에 워터마크를 단계적으로 적용하는 데 동의했다. 이종호 과기부 장관은 “AI는 디지털 심화 시대의 핵심기술로서 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다”며 “AI 윤리 생태계 기반 조성과 적합한 규제 체계를 정립하는 데 힘쓰겠다”고 밝혔다.

김영희 디자이너

김영희 디자이너

쟁점은 뭐야

하지만 정부가 AI 신뢰성을 직접 평가한다는 데 대한 반발도 있다. 편향·차별적 콘텐트 구분시 정치적 입김이 작용할 수도 있다는 우려에서다. AI 생성물을 표시하는 워터마크 도입과 관련해서도 민간이 자발적으로 참여를 약속한 상황에서 법을 만들어 강제하는 건 옳지 않다는 지적도 나온다. 윤영찬 더불어민주당 의원은 지난달 27일 국회 과학기술방송통신위원회 종합 감사에서 “한국은 이제 겨우 초거대 AI 모델이 출시되는 단계인데 왜 워터마크를 강제하려고 서두르냐”며 “기업의 자율에 맡긴 후 부작용이 생기면 법제화 하는 게 맞다”고 주장했다. 익명을 요구한 국내 AI 기업 관계자는 “각국의 기술 경쟁이 치열한 만큼 규제는 신중해야 한다”며 “글로벌 동향을 보며 우리 실정에 맞게 도입해도 늦지 않다”고 말했다.

뉴스 저작권 논란은 진행형

이런 상황에서 생성 AI의 주요 학습 데이터인 뉴스 저작권 문제는 아직 해결이 요원하다. 국내 최대 뉴스 유통 사업자인 네이버의 경우 뉴스데이터로 AI 모델을 학습시킨 것은 약관에 따른 합법적 사용이라고 주장한다, 하지만 기자협회와 10개 주요 신문사가 참여하는 ‘생성형 AI 공동 태스크포스(TF)’의 분석 결과 약관상 목적 위배, 설명의무 규정 등에 위반한다는 지적이 나온다. 지난 6월 약관이 개정되기 전에는 네이버가 언론사 동의 없이 무단으로 뉴스 데이터를 AI 학습에 활용했다는 의혹도 있다 .

글로벌 빅테크는 언론사별 계약을 통해 뉴스 저작권 문제를 해결 중이다. 구글은 뉴욕타임스에 3년간 1300억원의 이용료를 지급하기로 했고, 오픈AI는 AP와 라이선스 계약을 맺고 AI 학습용 뉴스 데이터를 확보했다. 한국도 정부가 AI 저작권 문제 해결에 적극 나서야 한다는 지적이 나온다. 김대종 세종대 경영학부 교수는 “정보를 생산한 이들에 대한 보호가 제대로 이뤄지지 않는다면 정보 생산의 생태계가 무너질 수 있다”며 “공급사와 사용자 모두를 위한 합의점을 도출하기 위해 정부가 적절한 제도를 마련할 필요가 있다”고 말했다.