최근 비가역적인 전환을 일으키고 있는 디지털 신기술이 ‘인공지능(AI)’이다. 하지만 뒷면에 도사리고 있는 위험성과 문제점이 있다. 생성형 AI인 ‘챗GPT’가 세상에 공개되고 두 달 만에 이용자가 1억 명을 넘어가던 2023년 1월, 원조 기술을 보유한 구글의 경영진은 파이낸셜 타임스와의 인터뷰에서 이런 발언을 했다. “구글은 챗GPT보다 더 강력한 AI 플랫폼을 개발했지만 잠재적 사회적 위험과 윤리적 위험을 통제할 수 있는 방법을 찾기 전까지는 출시하지 않기로 결정했다.”
EU 입법 등 글로벌 규제 대세
필수 규제해야 기업에도 도움
AI의 나쁜 지식 학습 통제해야
AI는 다른 디지털 신기술에 비해 몇 가지 차별성이 있다. 먼저 AI는 자율적이다. 그래서 인간의 통제를 벗어날 수 있으며, 사고 발생 시 책임 소재가 불분명할 수 있다. 지금까지 인간이 통제해 오던 대다수 시스템은 시간이 지날수록 AI에게 위임될 것으로 보인다. 만일 이것이 대량살상무기(WMD)일 경우 인류 전체가 위험해진다. 그리고 AI는 지능적이다. AI가 내부적으로 어떻게 동작하는지 잘 이해하지도 못하면서 AI가 내린 판단을 인간이 일방적으로 수용해야 하는 경우가 점차 많아진다. 딥러닝과 같은 기계학습 기반으로 동작하는 AI는 방대한 데이터 학습 과정을 거친다. 학습데이터 속에 사회적 차별과 편견이 포함되어 있을 경우 AI는 이러한 차별과 편견을 고착화한다. 아울러 학습데이터 속에 포함된 개인 정보와 사생활 정보 역시 얼마든지 AI에 의해 유출될 수 있다.
대량의 합성 출력물로 인간 창작 위축
GPT-3을 가지고 2년 5개월 동안이나 윤리적 길들이기 작업을 진행하여 얻은 결과물이 바로 GPT-3.5이다. 이를 기반 모델로 동작하는 생성형 AI가 바로 챗GPT이다. 이런 노력에도 불구하고 챗GPT는 공개 당시부터 지금까지, 18세 이상만 사용할 수 있다. 14세 이상은 부모 동의하에 조건부 사용이 가능하다. 치열한 가두리 작업에도 불구하고 이처럼 제한적 사용 결정을 내린 배경에서 우리는 생성형 AI의 잠재적 위험을 발견해야 한다.
AI 규제는 이미 글로벌 현상이다. 올해 3월 13일 유럽연합(EU) 의회는 세계 최초로 인공지능법(AIA)을 통과시켰다. 지난해 10월 말 조 바이든 미국 대통령은 AI에 관한 행정명령을 내렸으며, 미 의회는 AI의 자율성을 규제하는 알고리즘 책임법(AAA)을 논의 중이다. 영국은 지난해 11월 초 28개국 수뇌부를 초청하여 AI 안전성 정상회의를 열어 국제적 논의의 물꼬를 텄다. 다음 달 21~22일엔 ‘AI 서울 정상회의’가 열린다. 따라서 인공지능 규제는 우리가 원한다고 피할 수 있는 상황은 아니다. 우리 기업이 글로벌 AI 서비스를 개시하려면, AI 규제라는 글로벌 진입 장벽을 넘어설 준비를 지금부터 해야 한다.
AI 규제라는 글로벌 진입 장벽 넘어야
김명주 서울여대 정보보호학부 교수
※외부 필진의 칼럼은 본지의 편집 방향과 다를 수 있습니다.