ADVERTISEMENT
오피니언 중앙시평

인공지능이 사람처럼 글을 쓴다면

중앙일보

입력

지면보기

종합 31면

장하석 케임브리지대 석좌교수·과학철학

장하석 케임브리지대 석좌교수·과학철학

인공지능이 최근 또 세계적으로 떠들썩한 화제가 되고 있다. 2016년에 바둑 인공지능 알파고가 천하무적 이세돌을 물리치면서 특히 한국인들에게 큰 충격을 주었던 일을 기억할 것이다. 현재 관심을 끌고 있는 것은 이른바 ‘챗봇’이다. 이것은 서로 대화한다는 의미의 영어 단어 챗(chat)과 로봇(robot)을 합쳐 만든 신조어로, 인간과 자연스럽게 대화를 나눌 수 있는 인공지능 개체를 의미한다.

인터넷으로 무슨 내용을 검색할 때 지금까지는 키워드를 입력하면 관련된 내용을 다루는 웹사이트들이 나오도록 하는 방식으로 해 왔다. 그런데 챗봇을 이용한다면 우리가 다른 사람과 이야기하듯이 자연스러운 문장으로 질문을 던질 수 있으며, 거기에 대한 대답도 사람이 이야기하는 것처럼 나온다. 이 기술이 아주 발달하면 나와 이야기하고 있는 상대가 인공지능인지 사람인지를 구분하기 힘든 사태가 일어나게 된다.

자연스레 대화하는 ‘챗봇’의 등장
인간의 일과 기계의 일 경계 모호
허위정보 생산 등 위험성도 커져
무조건 매혹 대신 규제 고민해야

마이크로소프트 회사의 계열사인 오픈AI(OpenAI)는 2022년 11월 챗GPT(ChatGPT)라는 최신형 챗봇을 세상에 선보였다. 이를 시운전해 본 사람들은 대부분 깜짝 놀라고 심지어 경악하기도 했다. 현재 소비자상담센터 같은 데서 많이 사용되는 변변치 못한 챗봇들과 달리 챗GPT는 어떤 주제로 아무리 어려운 질문을 해도 거침없이 풍부한 내용을 담은 대답을 유창하게 내놓기 때문이다.

챗GPT는 인터넷에 나와 있는 모든 정보를 검색해서 수렴할 수 있으며, 여러 가지 내용을 조리 있게 연결해 논증을 펼칠 줄 안다. 게다가 언어 능력이 대단해서 문법이 정확하고 말투가 매끈하며, 문학적 장르에 따라 다른 스타일도 구사한다. 테마를 주면 거기에 맞는 시를 쓰고, 노래 가사도 작성한다. 시를 주고받으며 노는 것은 인간 중에도 가장 지성적이고 교양 있다는 자들이 하는 일인데, 이제 기계가 할 수 있게 된 것이다. 물론 아직 인공지능의 문학적 능력은 초보적이지만 앞으로 어떨지 알 수 없다.

그런데 한국에서 시험해 본 분들은 챗GPT가 만들어내는 내용이 대단치 않다고들 하는 것 같다. 언어의 장벽 때문이리라. 영어로 활동하도록 개발된 인공지능이 한국어를 다루는 데는 상당한 어려움이 있을 것이다. 또 챗봇이 찾아볼 수 있는 인터넷상 자료 중 한국어로 된 것은 아직 비교적 적고 그 질도 떨어진다. 그러니 영어를 한국어로 옮겨야 하는데, 번역이란 최고의 경험과 판단력을 필요로 하는 작업이니만큼 인공지능이 아직은 수준 높게 해내지 못한다. 그러나 이런 상황들도 곧 현저히 달라질 것이다.

구글에서도 뒤질세라 챗GPT와 비슷한 챗봇을 이미 개발했으며, 곧 널리 공개할 예정이라 한다. 첨단을 걷고자 하는 회사와 연구자들이 너도나도 뛰어들어 앞으로 대단한 경쟁이 일어날 것으로 예상된다.

그러나 뛰어난 챗봇이 개발되는 것을 좋아만 할 일도 아니고 그저 부러워만 할 일도 아니다. 영어권의 교육자들은 이미 큰 우려를 하고 있다. 학생들이 연구하고 생각해서 작성해야 할 글이 챗봇에 주제나 질문만 입력하면 다 만들어져 나오기 때문이다. 구식 표절과 달리 남의 글을 열심히 찾아내서 베낄 필요도 없다. 필자의 동료 교수들이 시험해 본 바에 의하면 챗GPT에서 나온 리포트가 대학 학부 수준에서 B학점은 받을 정도라고 한다. 기술이 조금만 더 발달하면 챗봇들이 웬만한 학생들보다 더 훌륭한 글을 내놓을 수 있을 것이다.

그보다도 더 큰 문제는 허위 정보를 퍼뜨리고자 하는 사람들이 챗봇을 사용할 가능성이다. 사람이 직접 나서서 유언비어, 거짓말, 음모설 등을 퍼뜨리려면 상당한 시간과 노력이 필요하다. 그러나 이를 챗봇에 시킨다면 엄청난 규모와 속도로 할 수 있다. 범람하는 허위 정보는 이미 서구 민주주의를 위협하는 큰 문제로 대두하고 있고, 거기에 이미 변변치 않은 챗봇들도 동원되고 있다. 그런데 이제 능력이 훨씬 뛰어나고 사람과 구분이 잘 안 되는 차세대 챗봇을 악용하게 된다면 걷잡을 수 없는 혼란이 올 것이다.

일이 커지기 전에 고기능 챗봇의 개발, 판매, 사용을 규제해야 한다. 과학이나 기술에 대한 지나친 규제는 바람직하지 못하고 실현 가능성도 없다고 반박하는 사람이 많을 텐데, 잘 모르는 이야기다. 여러 다른 분야에서는 과학과 기술의 적합한 규제가 당연시되고 있다.

예를 들어 독성 있는 화학물질은 중금속에서 살충제까지 모두 엄격히 관리된다. 생화학 무기를 새로 개발하는 것은 국제적 조약으로 금지되어 있으며, 그 국제 질서를 위협하는 나라들은 강력한 제재를 받는다. 선한 의도로 하는 의학연구라도 생체실험은 금지되어 있으며, 동물실험도 이제는 엄격한 기준에 따라 이루어진다. 항공기를 생산하고 작동하는 것도 사고의 위험성을 철저히 없애도록 세세한 감독을 받는다. 그런데 왜 유독 컴퓨터와 인공지능 분야만 아무 규제 없이 가능한 모든 기술을 최대한 빨리 발달시켜 부작용에 상관치 않고 멋대로 사용해야 한다고 믿는가.

장하석 케임브리지대 석좌교수·과학철학