ADVERTISEMENT
오피니언 김명주가 소리내다

무기·성인물·개인정보 포함 AI 필수규제, 기업에 도움되는 이유

중앙일보

입력

지면보기

종합 26면

김명주 서울여자대학교 정보보호학부 교수

소리내다(Make Some Noise)’ 외 더 많은 상품도 함께 구독해보세요.

도 함께 구독하시겠어요?

 사진설명 : 챗GPT 등 인공지능(AI)의 기능이 강화되는 가운데 지난달 유럽연합(EU) 의회가 세계 최초로 AI 규제 법안을 의결했다. 그래픽=김경진 기자

사진설명 : 챗GPT 등 인공지능(AI)의 기능이 강화되는 가운데 지난달 유럽연합(EU) 의회가 세계 최초로 AI 규제 법안을 의결했다. 그래픽=김경진 기자

기술에는 양면성이 존재한다. 예컨대 거리의 한계를 뛰어넘어 이동 시간을 단축한 편리한 자동차는 교통사고를 겪은 사람과 그 가족에겐 평생 지울 수 없는 불행의 출발점이다. 순기능의 효과가 큰 기술일수록 역기능과 부작용도 비례하여 크다. 이런 기술은 ‘비가역적인 전환’을 불러일으킨다. 일단 사회가 해당 기술을 수용하면 나중에 역기능과 부작용이 심각하게 드러난다고 하더라도 수용하기 이전으로 되돌아갈 수 없게 된다. 계속 발생하는 교통사고 때문에 자동차가 없는 사회로 다시 돌아가자는 제안은 현실적이지 않다.

EU 입법 등 글로벌 규제 대세 #필수 규제해야 기업에도 도움 #AI의 나쁜 지식 학습 통제해야

최근 비가역적인 전환을 일으키고 있는 디지털 신기술이 ‘인공지능(AI)’이다. 하지만 뒷면에 도사리고 있는 위험성과 문제점이 있다. 생성형 AI인 ‘챗GPT’가 세상에 공개되고 두 달 만에 이용자가 1억 명을 넘어가던 2023년 1월, 원조 기술을 보유한 구글의 경영진은 파이낸셜 타임스와의 인터뷰에서 이런 발언을 했다. “구글은 챗GPT보다 더 강력한 AI 플랫폼을 개발했지만 잠재적 사회적 위험과 윤리적 위험을 통제할 수 있는 방법을 찾기 전까지는 출시하지 않기로 결정했다.”

인터뷰 기사는 구글 주주의 반발을 불러일으켰고 열흘 만에 구글도 생성형 AI ‘바드’를 전격 공개했다. 그 후로 생성형 AI를 놓고 무한 경쟁에 돌입해 있다. 어느 기업도 생성형 AI가 지닌 잠재적인 위험을 충분히 통제할 수 있는 방법을 찾은 것은 아니다. 챗GPT를 만든 오픈AI의 샘 올트먼 대표는 지난해 5월 미 의회 청문회에서 “AI에 대한 규제가 필요하다”는 자충수적 발언까지 했다.

AI는 다른 디지털 신기술에 비해 몇 가지 차별성이 있다. 먼저 AI는 자율적이다. 그래서 인간의 통제를 벗어날 수 있으며, 사고 발생 시 책임 소재가 불분명할 수 있다. 지금까지 인간이 통제해 오던 대다수 시스템은 시간이 지날수록 AI에게 위임될 것으로 보인다. 만일 이것이 대량살상무기(WMD)일 경우 인류 전체가 위험해진다. 그리고 AI는 지능적이다. AI가 내부적으로 어떻게 동작하는지 잘 이해하지도 못하면서 AI가 내린 판단을 인간이 일방적으로 수용해야 하는 경우가 점차 많아진다. 딥러닝과 같은 기계학습 기반으로 동작하는 AI는 방대한 데이터 학습 과정을 거친다. 학습데이터 속에 사회적 차별과 편견이 포함되어 있을 경우 AI는 이러한 차별과 편견을 고착화한다. 아울러 학습데이터 속에 포함된 개인 정보와 사생활 정보 역시 얼마든지 AI에 의해 유출될 수 있다.

대량의 합성 출력물로 인간 창작 위축 

기존의 ‘예측형’ AI와 달리 최근에 공개된 ‘생성형’ AI는 추가적인 위험을 더 갖는다. AI가 생성한 합성 출력물의 표현이 학습데이터와 유사할 경우 저작권 침해가 발생할 수 있다. 소수의 AI에 의한 합성 출력물 ‘폭발’ 현상은 인간 저작 문화의 다양성을 위축할 것이다. 가짜뉴스에서 보듯이 합성 출력물에 대하여 사실 여부를 육안으로 구분하는 것은 이제 불가능에 가깝다. 생화학무기, 핵무기, 악성코드, 성인 콘텐트처럼 지금까지 협약이나 법률에 따라 접근이 통제되었던 어두운 지식을 모두 학습한 AI는 이제 누구에게나 제한 없이 지식을 제공할 수도 있다. AI는 일인칭 시점에서 자기 의사 표현을 할 수도 있으며 인간에게 주도적으로 질문할 수도 있다. 이로 인해 의인화 현상이 심화하고 남용과 중독 현상은 물론 가스라이팅도 가능해진다.

GPT-3을 가지고 2년 5개월 동안이나 윤리적 길들이기 작업을 진행하여 얻은 결과물이 바로 GPT-3.5이다. 이를 기반 모델로 동작하는 생성형 AI가 바로 챗GPT이다. 이런 노력에도 불구하고 챗GPT는 공개 당시부터 지금까지, 18세 이상만 사용할 수 있다. 14세 이상은 부모 동의하에 조건부 사용이 가능하다. 치열한 가두리 작업에도 불구하고 이처럼 제한적 사용 결정을 내린 배경에서 우리는 생성형 AI의 잠재적 위험을 발견해야 한다.

AI 규제는 이미 글로벌 현상이다. 올해 3월 13일 유럽연합(EU) 의회는 세계 최초로 인공지능법(AIA)을 통과시켰다. 지난해 10월 말 조 바이든 미국 대통령은 AI에 관한 행정명령을 내렸으며, 미 의회는 AI의 자율성을 규제하는 알고리즘 책임법(AAA)을 논의 중이다. 영국은 지난해 11월 초 28개국 수뇌부를 초청하여 AI 안전성 정상회의를 열어 국제적 논의의 물꼬를 텄다. 다음 달 21~22일엔 ‘AI 서울 정상회의’가 열린다. 따라서 인공지능 규제는 우리가 원한다고 피할 수 있는 상황은 아니다. 우리 기업이 글로벌 AI 서비스를 개시하려면, AI 규제라는 글로벌 진입 장벽을 넘어설 준비를 지금부터 해야 한다.

AI 규제라는 글로벌 진입 장벽 넘어야

우선 AI 규제에 관한 글로벌 논의에 우리도 적극 참여해야 한다. 이와 함께 글로벌 규제의 최소한을 가지고 우리도 AI 규제를 마련해야 한다. 이 규제를 통해서 기업들이 불편해하는 ‘불투명성’을 제거할 수 있다. 물론 없었던 규제가 새로 생길 경우 기업에는 규제 준수에 따른 비용과 시간 부담이 추가될 것이다. 따라서 정부는 규제 준수에 따른 기업 지원 정책을 함께 수립해야 하며, 규제의 국가 간 호환성을 최대한 확보하도록 노력해야 한다. 아울러 기업이 새로운 규제에 대비하여 준비할 수 있도록 규제 시행에 따른 유예 기간도 명시할 필요가 있다. EU가 AI 법에 대한 시행을 2년에 걸쳐서 준비하고 있음에 주목해야 한다. AI 규제라는 피할 수 없는 글로벌 흐름 속에서 우리 기업의 추가 부담을 줄이면서도 글로벌 경쟁력을 높일 수 있는 방향으로 다양한 지혜를 모아야 할 상황에 우리는 이미 와있다.

김명주 서울여대 정보보호학부 교수

※외부 필진의 칼럼은 본지의 편집 방향과 다를 수 있습니다.